The China Mail - L'IA, un nouveau front pour la désinformation

USD -
AED 3.673042
AFN 66.000368
ALL 83.177072
AMD 382.120403
ANG 1.790055
AOA 917.000367
ARS 1403.493941
AUD 1.52952
AWG 1.80375
AZN 1.70397
BAM 1.682293
BBD 2.013023
BDT 122.133531
BGN 1.683595
BHD 0.377006
BIF 2946
BMD 1
BND 1.30133
BOB 6.906191
BRL 5.297504
BSD 0.999415
BTN 88.626159
BWP 14.228698
BYN 3.409228
BYR 19600
BZD 2.010098
CAD 1.402155
CDF 2174.000362
CHF 0.79403
CLF 0.023592
CLP 925.503912
CNY 7.09955
CNH 7.100815
COP 3756.75
CRC 500.954773
CUC 1
CUP 26.5
CVE 95.303894
CZK 20.79304
DJF 177.720393
DKK 6.424904
DOP 64.150393
DZD 130.130393
EGP 47.192732
ERN 15
ETB 154.851967
EUR 0.86033
FJD 2.27535
FKP 0.757017
GBP 0.759175
GEL 2.703861
GGP 0.757017
GHS 10.97504
GIP 0.757017
GMD 72.503851
GNF 8688.000355
GTQ 7.660548
GYD 209.038916
HKD 7.77285
HNL 26.293244
HRK 6.483504
HTG 130.932925
HUF 330.733504
IDR 16719.9
ILS 3.227704
IMP 0.757017
INR 88.691704
IQD 1310
IRR 42100.000352
ISK 126.820386
JEP 0.757017
JMD 160.523667
JOD 0.70904
JPY 154.52804
KES 129.203801
KGS 87.450384
KHR 4015.00035
KMF 424.00035
KPW 900.02171
KRW 1454.020383
KWD 0.30669
KYD 0.832889
KZT 523.891035
LAK 21685.000349
LBP 89550.000349
LKR 306.559549
LRD 181.000348
LSL 17.120381
LTL 2.95274
LVL 0.60489
LYD 5.455039
MAD 9.241164
MDL 16.871097
MGA 4468.509694
MKD 52.917244
MMK 2099.568332
MNT 3578.06314
MOP 8.000774
MRU 39.850379
MUR 45.650378
MVR 15.403739
MWK 1736.503736
MXN 18.308815
MYR 4.132504
MZN 63.960377
NAD 17.1411
NGN 1440.510377
NIO 36.780265
NOK 10.088604
NPR 141.801854
NZD 1.760955
OMR 0.384496
PAB 0.999415
PEN 3.370349
PGK 4.225982
PHP 59.106038
PKR 282.521891
PLN 3.635738
PYG 7042.096028
QAR 3.643135
RON 4.373704
RSD 100.796038
RUB 80.849654
RWF 1452.717232
SAR 3.749753
SBD 8.237372
SCR 13.654864
SDG 601.503676
SEK 9.450115
SGD 1.29835
SHP 0.750259
SLE 23.403667
SLL 20969.498139
SOS 571.503662
SRD 38.589504
STD 20697.981008
STN 21.073819
SVC 8.745205
SYP 11058.869089
SZL 17.120369
THB 32.453038
TJS 9.225
TMT 3.51
TND 2.938809
TOP 2.40776
TRY 42.233504
TTD 6.777226
TWD 30.804038
TZS 2440.000335
UAH 42.001858
UGX 3567.926508
UYU 39.765005
UZS 12050.000334
VES 236.162804
VND 26350
VUV 121.860911
WST 2.809778
XAF 564.142765
XAG 0.01977
XAU 0.000245
XCD 2.70255
XCG 1.801252
XDR 0.704774
XOF 564.230111
XPF 103.150363
YER 238.525037
ZAR 17.11694
ZMK 9001.203584
ZMW 22.46297
ZWL 321.999592
  • AEX

    0.0000

    951.92

    0%

  • BEL20

    0.0000

    5034.52

    0%

  • PX1

    0.0000

    8170.09

    0%

  • ISEQ

    0.0000

    12365.36

    0%

  • OSEBX

    0.0000

    1614.79

    0%

  • PSI20

    0.0000

    8250.3

    0%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    76.6000

    4308.58

    +1.81%

  • N150

    0.0000

    3679.16

    0%

L'IA, un nouveau front pour la désinformation
L'IA, un nouveau front pour la désinformation / Photo: © AFP/Archives

L'IA, un nouveau front pour la désinformation

Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l'information apparaît comme l'un des grands dangers du recours croissant à l'intelligence artificielle (IA).

Taille du texte:

Le déploiement rapide de cette technologie, au cœur d'un sommet mondial en cours à Paris, a déjà nourri ces dernières années l'essor de la désinformation, en lui offrant de nouveaux outils redoutables.

En Slovaquie, en 2023, un enregistrement avait fait grand bruit: on y entendait le chef d'un parti pro-européen y admettre que les élections législatives allaient être manipulées. Il s'agissait d'un deepfake, un contenu truqué grâce à l'IA, qui a pu influencer des électeurs.

Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.

C'est le cas de l'ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d'Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.

- Deepfakes pornographiques -

Des femmes politiques aux Etats-Unis, en Italie, au Royaume-Uni ou encore au Pakistan ont aussi été victimes d'images à caractère pornographique générées par IA. Une tendance jugée inquiétante par des chercheurs.

Ces deepfakes à caractère sexuel visent aussi régulièrement des célébrités comme la chanteuse américaine Taylor Swift, et toutes les femmes y seraient aujourd'hui vulnérables, met en garde l'American Sunlight Project, un groupe de recherche sur la désinformation.

L'IA est aussi au cœur d'opérations d'ingérences numériques de grande ampleur.

Les campagnes prorusses appelées Doppelgänger ou Matriochka figurent parmi les exemples les plus retentissants: leurs auteurs ont eu largement recours à des profils inauthentiques, des bots, pour publier des contenus générés par IA, visant notamment à saper le soutien occidental à l'Ukraine.

"Ce qui est nouveau, c'est l'échelle et la facilité avec laquelle une personne avec très peu de ressources financières et de temps peut diffuser des contenus faux qui, par ailleurs, paraissent de plus en plus crédibles et sont de plus en plus difficiles à détecter", détaille Chine Labbé, rédactrice en chef de l'organisation Newsguard qui analyse la fiabilité des sites et contenus en ligne.

- "Pollution du web" -

Aucun domaine n'échappe à ces contenus factices: de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d'événements historiques fabriquées en quelques clics.

Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l'engagement. La finalité n'est pas forcément de faire circuler une fausse information, mais plutôt de capter l'attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.

Autre cas de figure: en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu'ils n'avaient pourtant jamais soutenus.

Fin décembre, alors que l'histoire d'un homme qui a mis le feu à une femme dans le métro new-yorkais faisait la Une de l'actualité aux Etats-Unis, une prétendue photo de la victime a largement circulé. Elle avait été générée par IA, et le drame instrumentalisé, dans le but de renvoyer vers des sites de cryptomonnaies.

"Au-delà du risque de désinformation, il y a celui de pollution du web: on ne sait jamais si on est face à un contenu qui a été vérifié, édité par un être humain rigoureux, ou si c'est généré par une IA sans que qui que ce soit se préoccupe de la véracité", observe Chine Labbé.

Chaque événement au cœur de l'actualité suscite ainsi un flot d'images créées en ligne, comme les incendies d'ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe "Hollywood" en flammes ou d'un Oscar dans les cendres ont fait le tour du monde.

Les chatbots en vogue, tels que l'américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard: "ils ont tendance à d'abord citer des sources générées par IA, donc c'est le serpent qui se mord la queue".

L'arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d'imposer des cadres à ces outils, plaide l'experte. Il faudrait leur "apprendre à reconnaître les sources fiables des sources de propagande".

Y.Su--ThChM