The Japan Times - L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

EUR -
AED 3.822672
AFN 80.1383
ALL 99.756393
AMD 414.137764
ANG 1.874666
AOA 949.168589
ARS 1094.11536
AUD 1.673577
AWG 1.875962
AZN 1.773861
BAM 1.957644
BBD 2.100179
BDT 126.849507
BGN 1.952998
BHD 0.392226
BIF 3045.771018
BMD 1.040756
BND 1.405723
BOB 7.187772
BRL 6.112666
BSD 1.04018
BTN 90.074861
BWP 14.416543
BYN 3.403761
BYR 20398.808117
BZD 2.089368
CAD 1.508304
CDF 2969.27555
CHF 0.946187
CLF 0.037125
CLP 1024.384441
CNY 7.465968
CNH 7.573208
COP 4335.006914
CRC 527.802324
CUC 1.040756
CUP 27.580021
CVE 110.475858
CZK 25.131107
DJF 184.963108
DKK 7.461676
DOP 64.267159
DZD 140.542576
EGP 52.278282
ERN 15.611333
ETB 131.021161
FJD 2.41539
FKP 0.857153
GBP 0.837148
GEL 2.99702
GGP 0.857153
GHS 15.933899
GIP 0.857153
GMD 75.459997
GNF 9008.779273
GTQ 8.050585
GYD 218.155529
HKD 8.108745
HNL 26.646365
HRK 7.680305
HTG 136.032277
HUF 407.265351
IDR 16916.075895
ILS 3.728501
IMP 0.857153
INR 90.12053
IQD 1363.389726
IRR 43815.807022
ISK 145.965739
JEP 0.857153
JMD 164.096175
JOD 0.738204
JPY 160.578686
KES 134.774111
KGS 91.014096
KHR 4183.836721
KMF 492.121273
KPW 936.68008
KRW 1503.04844
KWD 0.320979
KYD 0.866817
KZT 539.578347
LAK 22636.431843
LBP 93251.693872
LKR 309.501588
LRD 204.509574
LSL 19.305879
LTL 3.07308
LVL 0.629543
LYD 5.109905
MAD 10.402866
MDL 19.357237
MGA 4881.143701
MKD 61.392307
MMK 3380.333319
MNT 3536.487356
MOP 8.347044
MRU 41.474351
MUR 48.280249
MVR 16.02206
MWK 1806.239447
MXN 21.559209
MYR 4.56896
MZN 66.502957
NAD 19.306337
NGN 1589.756105
NIO 38.278534
NOK 11.782284
NPR 144.119778
NZD 1.845311
OMR 0.400677
PAB 1.04018
PEN 3.864846
PGK 4.165623
PHP 60.718677
PKR 289.947797
PLN 4.204935
PYG 8211.736438
QAR 3.789651
RON 4.975231
RSD 117.111035
RUB 102.515963
RWF 1450.292812
SAR 3.903458
SBD 8.783372
SCR 14.848657
SDG 625.493982
SEK 11.492361
SGD 1.406352
SHP 0.857153
SLE 23.807259
SLL 21824.122713
SOS 594.80322
SRD 36.535762
STD 21541.537908
SVC 9.101837
SYP 13531.903206
SZL 19.306028
THB 34.982919
TJS 11.337891
TMT 3.642644
TND 3.317409
TOP 2.437553
TRY 37.230562
TTD 7.055715
TWD 34.197184
TZS 2646.983717
UAH 43.465302
UGX 3832.610778
USD 1.040756
UYU 45.133822
UZS 13509.006478
VES 60.254081
VND 26102.148345
VUV 123.560585
WST 2.914976
XAF 656.581887
XAG 0.032929
XAU 0.000372
XCD 2.812694
XDR 0.795092
XOF 655.158179
XPF 119.331742
YER 259.01801
ZAR 19.264223
ZMK 9368.048619
ZMW 29.07239
ZWL 335.122852
  • AEX

    14.0300

    919

    +1.55%

  • BEL20

    28.8100

    4328.81

    +0.67%

  • PX1

    69.2800

    7941.64

    +0.88%

  • ISEQ

    80.8300

    10312.66

    +0.79%

  • OSEBX

    11.7800

    1522.22

    +0.78%

  • PSI20

    5.2200

    6534.94

    +0.08%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    15.0900

    3158.92

    +0.48%

  • N150

    27.7600

    3413.52

    +0.82%

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers
L'algorithme de Facebook ne modifie pas les croyances politiques des usagers / Photo: JOSH EDELSON - AFP/Archives

L'algorithme de Facebook ne modifie pas les croyances politiques des usagers

Les bulles d'informations dans lesquelles nous maintiennent les algorithmes des réseaux sociaux renforcent-elles la polarisation politique, ou reflètent-elles simplement des divisions déjà existantes?

Taille du texte:

Un important projet de recherche conduit au moment de l'élection américaine de 2020 a conclu que, contrairement à ce qui est souvent avancé, l'algorithme de Facebook ne modelait pas les croyances politiques de ses utilisateurs.

Cette série d'études est le résultat d'une collaboration entre Meta -- la maison-mère de Facebook et Instagram -- et un groupe de chercheurs d'universités américaines. Ces derniers ont eu accès aux données internes de l'entreprise et ont eu la possibilité de réaliser des tests en changeant l'expérience en ligne des utilisateurs.

Au total, quatre études ont été publiées dans les journaux scientifiques Science et Nature.

L'algorithme "influence de façon très importante l'expérience des gens sur la plateforme", c'est-à-dire ce qu'ils y voient et leur temps d'utilisation, ont déclaré les responsables du projet, Talia Stroud de l'université du Texas à Austin, et Joshua Tucker, de l'université de New York.

Mais "changer l'algorithme, même pour quelques mois, a peu de chance de modifier les croyances politiques des gens", ont-ils ajouté. Ces croyances ont été mesurées via des questionnaires, remplis par les utilisateurs après avoir participé aux expériences, lesquelles ont modifié les contenus affichés sur leur page d'accueil.

Les chercheurs ont reconnu que la période de trois mois observée n'était peut-être pas suffisante pour détecter un effet, sachant que la polarisation politique aux Etats-Unis se renforce depuis plusieurs décennies.

Malgré tout, "ces résultats défient le discours habituel, qui rend les bulles d'informations des réseaux sociaux responsables des problèmes contemporains de la démocratie américaine", ont écrit les auteurs d'une des études.

- Pas de "baguette magique" -

L'algorithme de Facebook, qui utilise l'apprentissage automatique pour mettre en avant tel ou tel contenu en fonction des intérêts des utilisateurs, a été accusé de renforcer leur isolement dans une bulle idéologique, ainsi que la désinformation.

Pour la première étude, environ 40.000 volontaires ont été recrutés via des invitations sur leur page Facebook et Instagram. Un groupe a conservé l'algorithme tel quel, et l'autre est passé à un affichage des publications par ordre chronologique (les plus récentes en haut).

Cet ordre chronologique était utilisé par Facebook à ses débuts, et certains observateurs estiment que repasser à cette méthode pourrait réduire l'impact néfaste des réseaux sociaux.

L'étude a montré que le groupe passé au fil chronologique passait moitié moins de temps sur Facebook et Instagram que le groupe ayant conservé l'algorithme intact.

Avec l'ordre chronologique, les utilisateurs voyaient également davantage de contenus d'amis aux opinions plus modérées, ou de groupes et de pages ayant une audience aux opinions diverses.

Mais cet ordre chronologique a également eu pour effet d'augmenter la quantité de contenus politiques et non fiables visionnés.

Malgré tous ces changements, les chercheurs n'ont pas observé de modifications des croyances politiques chez ces utilisateurs.

"Cela suggère que le fil chronologique n'est pas une baguette magique contre le problème de la polarisation politique", a conclu la co-autrice Jennifer Pan, de l'université Stanford.

- Meta salue les résultats -

Une deuxième étude a analysé l'impact des contenus repartagés, qui constituent plus d'un quart de ce que voient les utilisateurs de Facebook.

Supprimer ces partages de publications par des amis pourrait être un moyen de contrôler les contenus viraux, selon certains. C'est donc ce qui a été expérimenté pour un groupe d'utilisateurs.

En conséquence, ceux-ci ont vu la proportion de contenus politiques baisser sur leur page d'accueil, mais encore une fois, cela n'a pas eu d'impact sur leurs croyances politiques.

Une troisième étude a elle analysé l'effet des contenus issus de pages, groupes, ou utilisateurs ayant des opinions similaires, qui constituent la majorité de ce que les utilisateurs adultes américains voient sur Facebook.

Dans une expérience impliquant plus de 23.000 usagers, supprimer ce type de contenu n'a de nouveau pas eu d'impact sur l'extrémisme idéologique ou la croyance dans des affirmations erronées.

Toutefois, une quatrième étude a confirmé un effet de "ségrégation idéologique" sur Facebook. Les utilisateurs conservateurs avaient davantage tendance à être enfermés dans une bulle idéologique que les personnes de gauche, ont relevé les chercheurs.

De plus, 97% des publications qualifiées de fausses par un programme de vérification d'informations -- dont l'AFP fait partie -- étaient davantage vues par des conservateurs que des progressistes.

Dans un communiqué, Meta a salué ces résultats.

Ils "s'ajoutent aux éléments de recherches qui s'accumulent montrant qu'il n'y a pas de preuve que les réseaux sociaux sont la cause d'une polarisation dommageable, ou ont des conséquences importantes sur des comportements ou croyances politiques", a déclaré Nick Clegg, le responsable des affaires internationales de Meta.

T.Kobayashi--JT