The China Mail - Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

USD -
AED 3.672503
AFN 63.000163
ALL 81.2693
AMD 368.114362
ANG 1.789819
AOA 918.000101
ARS 1385.017775
AUD 1.381339
AWG 1.8025
AZN 1.698647
BAM 1.666077
BBD 2.014457
BDT 122.941149
BGN 1.666819
BHD 0.377471
BIF 2977.296929
BMD 1
BND 1.273246
BOB 6.911416
BRL 4.894398
BSD 1.000217
BTN 95.599836
BWP 13.500701
BYN 2.796427
BYR 19600
BZD 2.01156
CAD 1.36976
CDF 2225.000249
CHF 0.780699
CLF 0.023209
CLP 913.460237
CNY 6.792102
CNH 6.790655
COP 3788.36
CRC 456.440902
CUC 1
CUP 26.5
CVE 93.93689
CZK 20.749095
DJF 178.103956
DKK 6.369245
DOP 59.027231
DZD 132.402033
EGP 52.9237
ERN 15
ETB 156.17715
EUR 0.852498
FJD 2.18635
FKP 0.732576
GBP 0.738395
GEL 2.669749
GGP 0.732576
GHS 11.291855
GIP 0.732576
GMD 73.499823
GNF 8776.211713
GTQ 7.631494
GYD 209.250717
HKD 7.828365
HNL 26.597149
HRK 6.420198
HTG 130.672573
HUF 304.825497
IDR 17486.1
ILS 2.906503
IMP 0.732576
INR 95.64365
IQD 1310.162706
IRR 1312000.000604
ISK 122.420187
JEP 0.732576
JMD 158.040677
JOD 0.709017
JPY 157.724992
KES 129.102457
KGS 87.449689
KHR 4012.437705
KMF 419.999888
KPW 900.018246
KRW 1491.060229
KWD 0.30817
KYD 0.833461
KZT 463.898117
LAK 21925.486738
LBP 89566.76932
LKR 323.055495
LRD 183.03638
LSL 16.532284
LTL 2.95274
LVL 0.60489
LYD 6.327815
MAD 9.128129
MDL 17.117957
MGA 4179.356229
MKD 52.522369
MMK 2098.953745
MNT 3580.85029
MOP 8.064861
MRU 39.897262
MUR 46.810348
MVR 15.398484
MWK 1734.441354
MXN 17.208099
MYR 3.925499
MZN 63.91035
NAD 16.532073
NGN 1370.097429
NIO 36.810495
NOK 9.181565
NPR 152.953704
NZD 1.68306
OMR 0.384494
PAB 1.000175
PEN 3.427819
PGK 4.355862
PHP 61.430996
PKR 278.627173
PLN 3.624798
PYG 6105.472094
QAR 3.645959
RON 4.4348
RSD 100.072026
RUB 73.82814
RWF 1462.859869
SAR 3.754672
SBD 8.029009
SCR 14.151683
SDG 600.497242
SEK 9.290104
SGD 1.27201
SHP 0.746601
SLE 24.62501
SLL 20969.511502
SOS 571.611117
SRD 37.254503
STD 20697.981008
STN 20.871402
SVC 8.751171
SYP 110.529423
SZL 16.526884
THB 32.328504
TJS 9.351751
TMT 3.5
TND 2.908879
TOP 2.40776
TRY 45.416497
TTD 6.787631
TWD 31.515497
TZS 2608.900639
UAH 43.959484
UGX 3759.408104
UYU 39.772219
UZS 12133.112416
VES 504.28356
VND 26348
VUV 118.32345
WST 2.709295
XAF 558.801055
XAG 0.01155
XAU 0.000212
XCD 2.70255
XCG 1.802539
XDR 0.694969
XOF 558.801055
XPF 101.593413
YER 238.649397
ZAR 16.47235
ZMK 9001.199405
ZMW 18.8284
ZWL 321.999592
  • AEX

    6.8000

    1006.24

    +0.68%

  • BEL20

    35.5500

    5505.31

    +0.65%

  • PX1

    -3.9900

    7976.28

    -0.05%

  • ISEQ

    11.2300

    12488.73

    +0.09%

  • OSEBX

    5.9500

    1990.39

    +0.3%

  • PSI20

    32.5800

    9082.55

    +0.36%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    23.7800

    4123.54

    +0.58%

  • N150

    15.8600

    4190.7

    +0.38%

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux
Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux / Photo: © AFP

Angle mort de l'IA: quand les outils échouent à détecter leurs propres faux

Lorsque des Philippins indignés ont utilisé un assistant virtuel ("chatbot") dopé à l'IA pour vérifier la photo virale d'un parlementaire impliqué dans un scandale de corruption, l'outil n'a pas détecté qu'elle était fabriquée. Il l'avait pourtant lui-même générée.

Taille du texte:

Les internautes se tournent de plus en plus vers des chatbots pour vérifier des images en temps réel. Mais ces outils échouent souvent, interrogeant sur leurs capacités à détecter les images factices, à un moment où les grandes plateformes réduisent la vérification humaine.

Dans de nombreux cas, ils identifient comme authentiques des images générées par l'IA, ce qui accentue la confusion dans un univers numérique saturé de faux visuels.

Les outils de vérification "sont principalement entraînés sur des schémas linguistiques et manquent de la compréhension visuelle nécessaire pour identifier correctement les images générées ou manipulées", explique Alon Yamin, PDG de Copyleaks, une plateforme de détection de contenus IA.

"Les chatbots donnent souvent des évaluations incohérentes ou trop générales, ce qui les rend peu fiables pour des tâches comme la vérification ou l'authentification."

Aux Philippines, une image fabriquée a ainsi circulé sur les réseaux sociaux impliquant Elizaldy Co, ex-député impliqué dans une vaste affaire de corruption concernant des projets fictifs de contrôle des inondations, qui auraient coûté des centaines de millions de dollars au contribuable.

La photo montrait l'ex-député au Portugal, alors qu'il aurait dû se trouver aux Philippines à la disposition de la justice. Lorsque des internautes ont interrogé l'assistant IA de Google pour savoir si la photo était authentique, l'IA a répondu à tort par l'affirmative.

Elizaldy Co n'est en réalité jamais réapparu en public depuis le début de l'enquête.

Les vérificateurs de l'AFP ont retrouvé le créateur de l'image et établi qu'elle avait été précisément générée par l'IA de Google.

Google n'a pas répondu aux sollicitations de l'AFP sur ce sujet.

- "Distinguable de la réalité" -

L'AFP a trouvé d'autres occurrences d'IA incapables de reconnaître leurs propres créations.

Lors des violentes manifestations du mois dernier au Cachemire pakistanais, des internautes ont partagé une image censée montrer des hommes marchant avec des drapeaux et des torches.

Une analyse de l'AFP a révélé qu'elle avait été créée avec le modèle Gemini de Google. Mais Gemini et Copilot (Microsoft) l'ont identifiée comme authentique.

"Ces modèles (d'IA) sont programmés uniquement pour bien imiter", explique à l'AFP Rossine Fallorina, du centre de recherche Sigla. "En un sens, ils ne peuvent que générer des choses qui imitent correctement. Ils ne peuvent pas déterminer si cette imitation est réellement distinguable de la réalité".

Plus tôt cette année, le Tow Center for Digital Journalism de l'université américaine Columbia a testé sept chatbots IA – dont ChatGPT, Perplexity, Gemini et Grok (une IA appartenant à Elon Musk) – sur 10 photos de photojournalistes.

Tous ont échoué à identifier correctement la provenance des images qui leur étaient soumises, selon l'étude.

- "Choqué" -

L'AFP a retrouvé l'auteur de la fausse photo d'Elizaldy Co, qui a dépassé le million de vues sur les réseaux: un développeur web philippin qui affirme l'avoir créée "pour s'amuser" avec Nano Banana, le générateur d'images IA de Gemini.

"Malheureusement, beaucoup de gens y ont cru", confie-t-il, sous couvert d'anonymat pour éviter les représailles. "J'ai modifié mon post en précisant +image générée par IA+ pour stopper la propagation, car j'étais choqué par le nombre de partages."

Ces cas montrent à quel point les photos générées par IA peuvent être indiscernables des images réelles. Et la tendance inquiète, alors que les internautes délaissent les moteurs de recherche traditionnels au profit des outils IA pour s'informer et vérifier des contenus.

Le géant américain Meta, qui contrôle Facebook et Instagram, a annoncé en début d'année la fin de son programme de fact-checking aux Etats-Unis pour le remplacer par un système de "notes de communauté", écrites par des utilisateurs, sur le modèle du réseau social X d'Elon Musk.

L'AFP collabore en revanche toujours avec Meta dans 26 langues, en Asie, Amérique latine et dans l'Union européenne.

Les chercheurs estiment que les modèles d'IA peuvent aider les fact-checkers professionnels à géolocaliser rapidement des images et repérer des indices visuels. Mais ils avertissent qu'ils ne peuvent pas remplacer le travail humain.

"On ne peut pas compter sur les outils IA pour combattre l'IA à long terme", insiste Rossine Fallorina.

C.Smith--ThChM