The China Mail - L'IA, un nouveau front pour la désinformation

USD -
AED 3.672498
AFN 63.503463
ALL 83.463315
AMD 376.986282
ANG 1.790083
AOA 916.999701
ARS 1385.5001
AUD 1.455519
AWG 1.8
AZN 1.697717
BAM 1.699513
BBD 2.014051
BDT 122.697254
BGN 1.709309
BHD 0.377509
BIF 2970.416618
BMD 1
BND 1.287696
BOB 6.935386
BRL 5.249203
BSD 0.999996
BTN 94.787611
BWP 13.787859
BYN 2.976638
BYR 19600
BZD 2.011105
CAD 1.38957
CDF 2282.497331
CHF 0.79815
CLF 0.023381
CLP 923.220134
CNY 6.91185
CNH 6.910575
COP 3675.3
CRC 464.366558
CUC 1
CUP 26.5
CVE 95.823032
CZK 21.287398
DJF 178.063563
DKK 6.487585
DOP 59.522516
DZD 133.12557
EGP 53.60199
ERN 15
ETB 154.582495
EUR 0.868195
FJD 2.24025
FKP 0.752712
GBP 0.753015
GEL 2.679845
GGP 0.752712
GHS 10.957154
GIP 0.752712
GMD 73.496975
GNF 8767.699413
GTQ 7.653569
GYD 209.330315
HKD 7.83265
HNL 26.549649
HRK 6.542699
HTG 131.078738
HUF 337.827038
IDR 16992
ILS 3.13965
IMP 0.752712
INR 94.54595
IQD 1309.975365
IRR 1313250.000126
ISK 124.680163
JEP 0.752712
JMD 157.400126
JOD 0.709001
JPY 159.638505
KES 130.050221
KGS 87.450178
KHR 4004.935568
KMF 427.999997
KPW 900.00296
KRW 1515.180048
KWD 0.308023
KYD 0.833344
KZT 483.44391
LAK 21749.12344
LBP 89547.486737
LKR 314.996893
LRD 183.502503
LSL 17.171359
LTL 2.95274
LVL 0.60489
LYD 6.383247
MAD 9.346391
MDL 17.564303
MGA 4167.481307
MKD 53.547773
MMK 2098.832611
MNT 3571.142668
MOP 8.068492
MRU 39.926487
MUR 46.9159
MVR 15.449664
MWK 1733.901626
MXN 18.05465
MYR 4.019496
MZN 63.949773
NAD 17.171583
NGN 1382.179868
NIO 36.800007
NOK 9.73768
NPR 151.645993
NZD 1.74163
OMR 0.384435
PAB 1.000013
PEN 3.483403
PGK 4.321285
PHP 60.756974
PKR 279.086043
PLN 3.715515
PYG 6537.91845
QAR 3.646009
RON 4.4255
RSD 101.931978
RUB 81.502485
RWF 1460.256772
SAR 3.752499
SBD 8.042037
SCR 14.901688
SDG 600.999691
SEK 9.45515
SGD 1.28755
SHP 0.750259
SLE 24.550138
SLL 20969.510825
SOS 571.503052
SRD 37.600996
STD 20697.981008
STN 21.28926
SVC 8.74968
SYP 110.527654
SZL 17.169497
THB 32.779898
TJS 9.555322
TMT 3.5
TND 2.948402
TOP 2.40776
TRY 44.41694
TTD 6.794374
TWD 32.0145
TZS 2584.999806
UAH 43.831285
UGX 3725.347921
UYU 40.479004
UZS 12195.153743
VES 467.928355
VND 26335
VUV 119.385423
WST 2.775484
XAF 569.988487
XAG 0.014146
XAU 0.000221
XCD 2.70255
XCG 1.802248
XDR 0.708991
XOF 569.988487
XPF 103.633607
YER 238.59797
ZAR 17.06745
ZMK 9001.197652
ZMW 18.824133
ZWL 321.999592
  • AEX

    6.3700

    970.84

    +0.66%

  • BEL20

    56.8300

    5086.19

    +1.13%

  • PX1

    56.7400

    7828.89

    +0.73%

  • ISEQ

    174.2000

    12105.62

    +1.46%

  • OSEBX

    26.2900

    2064.03

    +1.29%

  • PSI20

    115.1900

    9184.99

    +1.27%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    19.1200

    3626.66

    +0.53%

  • N150

    49.6600

    3869.64

    +1.3%

L'IA, un nouveau front pour la désinformation
L'IA, un nouveau front pour la désinformation / Photo: © AFP/Archives

L'IA, un nouveau front pour la désinformation

Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l'information apparaît comme l'un des grands dangers du recours croissant à l'intelligence artificielle (IA).

Taille du texte:

Le déploiement rapide de cette technologie, au cœur d'un sommet mondial en cours à Paris, a déjà nourri ces dernières années l'essor de la désinformation, en lui offrant de nouveaux outils redoutables.

En Slovaquie, en 2023, un enregistrement avait fait grand bruit: on y entendait le chef d'un parti pro-européen y admettre que les élections législatives allaient être manipulées. Il s'agissait d'un deepfake, un contenu truqué grâce à l'IA, qui a pu influencer des électeurs.

Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.

C'est le cas de l'ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d'Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.

- Deepfakes pornographiques -

Des femmes politiques aux Etats-Unis, en Italie, au Royaume-Uni ou encore au Pakistan ont aussi été victimes d'images à caractère pornographique générées par IA. Une tendance jugée inquiétante par des chercheurs.

Ces deepfakes à caractère sexuel visent aussi régulièrement des célébrités comme la chanteuse américaine Taylor Swift, et toutes les femmes y seraient aujourd'hui vulnérables, met en garde l'American Sunlight Project, un groupe de recherche sur la désinformation.

L'IA est aussi au cœur d'opérations d'ingérences numériques de grande ampleur.

Les campagnes prorusses appelées Doppelgänger ou Matriochka figurent parmi les exemples les plus retentissants: leurs auteurs ont eu largement recours à des profils inauthentiques, des bots, pour publier des contenus générés par IA, visant notamment à saper le soutien occidental à l'Ukraine.

"Ce qui est nouveau, c'est l'échelle et la facilité avec laquelle une personne avec très peu de ressources financières et de temps peut diffuser des contenus faux qui, par ailleurs, paraissent de plus en plus crédibles et sont de plus en plus difficiles à détecter", détaille Chine Labbé, rédactrice en chef de l'organisation Newsguard qui analyse la fiabilité des sites et contenus en ligne.

- "Pollution du web" -

Aucun domaine n'échappe à ces contenus factices: de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d'événements historiques fabriquées en quelques clics.

Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l'engagement. La finalité n'est pas forcément de faire circuler une fausse information, mais plutôt de capter l'attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.

Autre cas de figure: en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu'ils n'avaient pourtant jamais soutenus.

Fin décembre, alors que l'histoire d'un homme qui a mis le feu à une femme dans le métro new-yorkais faisait la Une de l'actualité aux Etats-Unis, une prétendue photo de la victime a largement circulé. Elle avait été générée par IA, et le drame instrumentalisé, dans le but de renvoyer vers des sites de cryptomonnaies.

"Au-delà du risque de désinformation, il y a celui de pollution du web: on ne sait jamais si on est face à un contenu qui a été vérifié, édité par un être humain rigoureux, ou si c'est généré par une IA sans que qui que ce soit se préoccupe de la véracité", observe Chine Labbé.

Chaque événement au cœur de l'actualité suscite ainsi un flot d'images créées en ligne, comme les incendies d'ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe "Hollywood" en flammes ou d'un Oscar dans les cendres ont fait le tour du monde.

Les chatbots en vogue, tels que l'américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard: "ils ont tendance à d'abord citer des sources générées par IA, donc c'est le serpent qui se mord la queue".

L'arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d'imposer des cadres à ces outils, plaide l'experte. Il faudrait leur "apprendre à reconnaître les sources fiables des sources de propagande".

Y.Su--ThChM