The China Mail - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

USD -
AED 3.672501
AFN 65.000545
ALL 81.652501
AMD 376.168126
ANG 1.79008
AOA 917.000263
ARS 1431.789723
AUD 1.425591
AWG 1.8025
AZN 1.704112
BAM 1.654023
BBD 2.008288
BDT 121.941731
BGN 1.67937
BHD 0.375914
BIF 2954.881813
BMD 1
BND 1.269737
BOB 6.889932
BRL 5.217399
BSD 0.997082
BTN 90.316715
BWP 13.200558
BYN 2.864561
BYR 19600
BZD 2.005328
CAD 1.36528
CDF 2199.999711
CHF 0.77566
CLF 0.021803
CLP 860.889567
CNY 6.93895
CNH 6.93092
COP 3699.522179
CRC 494.312656
CUC 1
CUP 26.5
CVE 93.2513
CZK 20.463298
DJF 177.555076
DKK 6.322198
DOP 62.928665
DZD 129.553047
EGP 46.713163
ERN 15
ETB 155.0074
EUR 0.8462
FJD 2.209497
FKP 0.73461
GBP 0.734457
GEL 2.694976
GGP 0.73461
GHS 10.957757
GIP 0.73461
GMD 73.000184
GNF 8752.167111
GTQ 7.647681
GYD 208.609244
HKD 7.81385
HNL 26.338534
HRK 6.376101
HTG 130.618631
HUF 319.493022
IDR 16855.5
ILS 3.110675
IMP 0.73461
INR 90.57645
IQD 1306.186308
IRR 42125.000158
ISK 122.709741
JEP 0.73461
JMD 156.057339
JOD 0.709029
JPY 157.200504
KES 128.622775
KGS 87.45031
KHR 4023.848789
KMF 419.000087
KPW 899.990005
KRW 1463.830447
KWD 0.30721
KYD 0.830902
KZT 493.331642
LAK 21426.698803
LBP 89293.839063
LKR 308.47816
LRD 187.449786
LSL 16.086092
LTL 2.95274
LVL 0.60489
LYD 6.314009
MAD 9.153622
MDL 17.000296
MGA 4426.402808
MKD 52.129054
MMK 2099.624884
MNT 3567.867665
MOP 8.023933
MRU 39.425769
MUR 46.060361
MVR 15.449993
MWK 1728.952598
MXN 17.269659
MYR 3.947503
MZN 63.750274
NAD 16.086092
NGN 1366.979859
NIO 36.694998
NOK 9.666396
NPR 144.506744
NZD 1.661284
OMR 0.383441
PAB 0.997082
PEN 3.354899
PGK 4.275868
PHP 58.510949
PKR 278.812127
PLN 3.567015
PYG 6588.016407
QAR 3.634319
RON 4.310399
RSD 99.268468
RUB 76.760504
RWF 1455.283522
SAR 3.748738
SBD 8.058149
SCR 13.84955
SDG 601.511502
SEK 9.011435
SGD 1.272902
SHP 0.750259
SLE 24.450613
SLL 20969.499267
SOS 568.818978
SRD 37.818002
STD 20697.981008
STN 20.719692
SVC 8.724259
SYP 11059.574895
SZL 16.08271
THB 31.535012
TJS 9.342721
TMT 3.505
TND 2.891792
TOP 2.40776
TRY 43.612496
TTD 6.752083
TWD 31.589778
TZS 2577.445135
UAH 42.828111
UGX 3547.71872
UYU 38.538627
UZS 12244.069517
VES 377.985125
VND 25950
VUV 119.182831
WST 2.73071
XAF 554.743964
XAG 0.012866
XAU 0.000201
XCD 2.70255
XCG 1.797032
XDR 0.689923
XOF 554.743964
XPF 100.858387
YER 238.402706
ZAR 16.05502
ZMK 9001.197825
ZMW 18.570764
ZWL 321.999592
  • AEX

    10.2500

    995.35

    +1.04%

  • BEL20

    -7.7400

    5517.52

    -0.14%

  • PX1

    35.4300

    8273.84

    +0.43%

  • ISEQ

    95.0400

    13295.1

    +0.72%

  • OSEBX

    49.1200

    1816.11

    +2.78%

  • PSI20

    111.4900

    8890.3

    +1.27%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -84.1400

    4000.2

    -2.06%

  • N150

    35.3800

    4010.68

    +0.89%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études) / Photo: © AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers (études)

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

F.Brown--ThChM