The China Mail - L'IA, un nouveau front pour la désinformation

USD -
AED 3.673021
AFN 69.999606
ALL 85.3949
AMD 383.55978
ANG 1.789699
AOA 917.000182
ARS 1360.647097
AUD 1.545344
AWG 1.8025
AZN 1.69809
BAM 1.688261
BBD 2.017186
BDT 121.789947
BGN 1.689095
BHD 0.377021
BIF 2948.5
BMD 1
BND 1.286352
BOB 6.918608
BRL 5.510292
BSD 0.999072
BTN 87.532694
BWP 14.279179
BYN 3.277498
BYR 19600
BZD 2.006785
CAD 1.377501
CDF 2890.00019
CHF 0.80816
CLF 0.024639
CLP 966.590296
CNY 7.178749
CNH 7.182595
COP 4111.76
CRC 504.792856
CUC 1
CUP 26.5
CVE 96.025022
CZK 21.250975
DJF 177.907067
DKK 6.45192
DOP 60.750079
DZD 130.284996
EGP 48.446992
ERN 15
ETB 138.149778
EUR 0.86453
FJD 2.2625
FKP 0.753073
GBP 0.752525
GEL 2.710487
GGP 0.753073
GHS 10.504736
GIP 0.753073
GMD 72.497444
GNF 8674.999734
GTQ 7.666844
GYD 209.017066
HKD 7.84995
HNL 26.349703
HRK 6.513099
HTG 131.10339
HUF 345.109994
IDR 16365.7
ILS 3.41412
IMP 0.753073
INR 87.992599
IQD 1310
IRR 42112.499887
ISK 123.650351
JEP 0.753073
JMD 159.857398
JOD 0.708992
JPY 147.296999
KES 129.50124
KGS 87.450165
KHR 4014.999748
KMF 427.500738
KPW 900
KRW 1385.850273
KWD 0.30554
KYD 0.832564
KZT 539.856277
LAK 21600.000285
LBP 89549.999847
LKR 300.567556
LRD 201.000252
LSL 18.100947
LTL 2.95274
LVL 0.604889
LYD 5.454989
MAD 9.086499
MDL 17.08374
MGA 4430.000089
MKD 53.113158
MMK 2099.091991
MNT 3591.910261
MOP 8.078241
MRU 39.820389
MUR 46.79364
MVR 15.402977
MWK 1736.511728
MXN 18.83315
MYR 4.277503
MZN 63.959798
NAD 18.093319
NGN 1523.329809
NIO 36.750247
NOK 10.26844
NPR 140.051965
NZD 1.691103
OMR 0.384512
PAB 0.999076
PEN 3.694499
PGK 4.13025
PHP 57.339622
PKR 283.250284
PLN 3.69844
PYG 7483.145873
QAR 3.64075
RON 4.387798
RSD 101.335022
RUB 79.93747
RWF 1440
SAR 3.751869
SBD 8.264604
SCR 14.145132
SDG 600.498067
SEK 9.66852
SGD 1.287975
SHP 0.785843
SLE 23.000301
SLL 20969.503947
SOS 571.497576
SRD 36.840195
STD 20697.981008
STN 21.5
SVC 8.741702
SYP 13001.907548
SZL 18.104121
THB 32.38798
TJS 9.416213
TMT 3.51
TND 2.8945
TOP 2.342098
TRY 40.67882
TTD 6.771717
TWD 29.896045
TZS 2503.046028
UAH 41.729091
UGX 3575.405492
UYU 40.173677
UZS 12675.000307
VES 125.267935
VND 26195
VUV 120.586342
WST 2.775485
XAF 566.227006
XAG 0.026796
XAU 0.000296
XCD 2.70255
XCG 1.800557
XDR 0.704965
XOF 573.000148
XPF 105.50233
YER 240.599087
ZAR 17.96268
ZMK 9001.202105
ZMW 22.903485
ZWL 321.999592
  • AEX

    3.8900

    888.75

    +0.44%

  • BEL20

    43.3700

    4608.87

    +0.95%

  • PX1

    86.0200

    7632.01

    +1.14%

  • ISEQ

    148.7100

    11246.26

    +1.34%

  • OSEBX

    11.0800

    1616.5

    +0.69%

  • PSI20

    102.9600

    7729.71

    +1.35%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    19.3300

    3241.06

    +0.6%

  • N150

    30.6700

    3638.49

    +0.85%

L'IA, un nouveau front pour la désinformation
L'IA, un nouveau front pour la désinformation / Photo: © AFP/Archives

L'IA, un nouveau front pour la désinformation

Des deepfakes visant à influencer des élections aux chatbots relayant des infox, la pollution du monde de l'information apparaît comme l'un des grands dangers du recours croissant à l'intelligence artificielle (IA).

Taille du texte:

Le déploiement rapide de cette technologie, au cœur d'un sommet mondial en cours à Paris, a déjà nourri ces dernières années l'essor de la désinformation, en lui offrant de nouveaux outils redoutables.

En Slovaquie, en 2023, un enregistrement avait fait grand bruit: on y entendait le chef d'un parti pro-européen y admettre que les élections législatives allaient être manipulées. Il s'agissait d'un deepfake, un contenu truqué grâce à l'IA, qui a pu influencer des électeurs.

Partout dans le monde, des responsables politiques ont déjà fait les frais de ce type de procédés, à fort potentiel de viralité sur les réseaux sociaux.

C'est le cas de l'ancien président américain Joe Biden, dont la voix a été truquée pour conseiller à des électeurs de ne pas voter. Ou encore d'Emmanuel Macron, annonçant sa démission dans une vidéo très partagée à la bande-son trafiquée.

- Deepfakes pornographiques -

Des femmes politiques aux Etats-Unis, en Italie, au Royaume-Uni ou encore au Pakistan ont aussi été victimes d'images à caractère pornographique générées par IA. Une tendance jugée inquiétante par des chercheurs.

Ces deepfakes à caractère sexuel visent aussi régulièrement des célébrités comme la chanteuse américaine Taylor Swift, et toutes les femmes y seraient aujourd'hui vulnérables, met en garde l'American Sunlight Project, un groupe de recherche sur la désinformation.

L'IA est aussi au cœur d'opérations d'ingérences numériques de grande ampleur.

Les campagnes prorusses appelées Doppelgänger ou Matriochka figurent parmi les exemples les plus retentissants: leurs auteurs ont eu largement recours à des profils inauthentiques, des bots, pour publier des contenus générés par IA, visant notamment à saper le soutien occidental à l'Ukraine.

"Ce qui est nouveau, c'est l'échelle et la facilité avec laquelle une personne avec très peu de ressources financières et de temps peut diffuser des contenus faux qui, par ailleurs, paraissent de plus en plus crédibles et sont de plus en plus difficiles à détecter", détaille Chine Labbé, rédactrice en chef de l'organisation Newsguard qui analyse la fiabilité des sites et contenus en ligne.

- "Pollution du web" -

Aucun domaine n'échappe à ces contenus factices: de faux clips musicaux sont souvent mis en circulation, tout comme de fausses photos d'événements historiques fabriquées en quelques clics.

Sur Facebook, des comptes multiplient les images attendrissantes générées par IA pour obtenir de l'engagement. La finalité n'est pas forcément de faire circuler une fausse information, mais plutôt de capter l'attention à des fins mercantiles, voire de préparer des arnaques une fois des utilisateurs crédules identifiés.

Autre cas de figure: en 2024, des deepfakes de médecins connus, comme Michel Cymes en France, ont été diffusés pour faire la promotion de remèdes qu'ils n'avaient pourtant jamais soutenus.

Fin décembre, alors que l'histoire d'un homme qui a mis le feu à une femme dans le métro new-yorkais faisait la Une de l'actualité aux Etats-Unis, une prétendue photo de la victime a largement circulé. Elle avait été générée par IA, et le drame instrumentalisé, dans le but de renvoyer vers des sites de cryptomonnaies.

"Au-delà du risque de désinformation, il y a celui de pollution du web: on ne sait jamais si on est face à un contenu qui a été vérifié, édité par un être humain rigoureux, ou si c'est généré par une IA sans que qui que ce soit se préoccupe de la véracité", observe Chine Labbé.

Chaque événement au cœur de l'actualité suscite ainsi un flot d'images créées en ligne, comme les incendies d'ampleur à Los Angeles début 2025 pendant lesquels des fausses photos du signe "Hollywood" en flammes ou d'un Oscar dans les cendres ont fait le tour du monde.

Les chatbots en vogue, tels que l'américain ChatGPT, peuvent eux aussi contribuer à diffuser des infox, souligne Chine Labbé de Newsguard: "ils ont tendance à d'abord citer des sources générées par IA, donc c'est le serpent qui se mord la queue".

L'arrivée du chinois DeepSeek, qui relaie les positions officielles chinoises dans une partie de ses réponses, ne fait que renforcer la nécessité d'imposer des cadres à ces outils, plaide l'experte. Il faudrait leur "apprendre à reconnaître les sources fiables des sources de propagande".

Y.Su--ThChM