The China Mail - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

USD -
AED 3.672503
AFN 64.50406
ALL 81.624824
AMD 375.516815
ANG 1.790297
AOA 916.999903
ARS 1386.204404
AUD 1.42439
AWG 1.8
AZN 1.697648
BAM 1.667278
BBD 2.011082
BDT 122.671668
BGN 1.67548
BHD 0.376625
BIF 2967.989429
BMD 1
BND 1.272324
BOB 6.899962
BRL 5.007203
BSD 0.998508
BTN 92.62947
BWP 13.405226
BYN 2.865862
BYR 19600
BZD 2.008184
CAD 1.387525
CDF 2299.999716
CHF 0.79251
CLF 0.022739
CLP 894.940025
CNY 6.828039
CNH 6.838965
COP 3645.46
CRC 462.128639
CUC 1
CUP 26.5
CVE 93.998551
CZK 20.870278
DJF 177.809983
DKK 6.39896
DOP 60.125314
DZD 132.246707
EGP 53.361302
ERN 15
ETB 156.679852
EUR 0.8563
FJD 2.211498
FKP 0.742933
GBP 0.746715
GEL 2.6905
GGP 0.742933
GHS 10.988449
GIP 0.742933
GMD 73.503428
GNF 8760.922382
GTQ 7.638208
GYD 208.899876
HKD 7.83266
HNL 26.518904
HRK 6.454402
HTG 130.923661
HUF 315.68201
IDR 17090
ILS 3.03421
IMP 0.742933
INR 94.54065
IQD 1308.043135
IRR 1316125.000296
ISK 122.250135
JEP 0.742933
JMD 157.870509
JOD 0.708993
JPY 159.746498
KES 129.210213
KGS 87.450277
KHR 3997.272069
KMF 419.999892
KPW 899.998178
KRW 1496.100941
KWD 0.30869
KYD 0.832104
KZT 471.85542
LAK 22019.52176
LBP 89419.71783
LKR 315.118708
LRD 183.726184
LSL 16.382337
LTL 2.95274
LVL 0.60489
LYD 6.347556
MAD 9.280849
MDL 17.20387
MGA 4143.898385
MKD 52.551042
MMK 2100.763326
MNT 3574.006152
MOP 8.05507
MRU 39.91049
MUR 46.520278
MVR 15.460248
MWK 1731.383999
MXN 17.430302
MYR 3.982494
MZN 63.959748
NAD 16.382337
NGN 1358.339716
NIO 36.741827
NOK 9.53735
NPR 148.206811
NZD 1.72225
OMR 0.38463
PAB 0.998508
PEN 3.369933
PGK 4.322066
PHP 59.938023
PKR 278.505946
PLN 3.645532
PYG 6457.525255
QAR 3.640254
RON 4.358398
RSD 100.055411
RUB 77.404711
RWF 1458.164614
SAR 3.748263
SBD 8.058149
SCR 15.185201
SDG 600.999479
SEK 9.33347
SGD 1.277385
SHP 0.746601
SLE 24.624968
SLL 20969.501041
SOS 570.649162
SRD 37.448964
STD 20697.981008
STN 20.885725
SVC 8.737053
SYP 110.530532
SZL 16.386343
THB 32.320023
TJS 9.490729
TMT 3.505
TND 2.917693
TOP 2.40776
TRY 44.704898
TTD 6.776352
TWD 31.781994
TZS 2598.054016
UAH 43.382209
UGX 3694.642172
UYU 40.288138
UZS 12141.852436
VES 475.837803
VND 26336
VUV 117.921501
WST 2.734489
XAF 559.189293
XAG 0.013535
XAU 0.000214
XCD 2.70255
XCG 1.799582
XDR 0.695452
XOF 559.189293
XPF 101.666596
YER 237.150258
ZAR 16.583499
ZMK 9001.201804
ZMW 18.996633
ZWL 321.999592
  • AEX

    5.1300

    1010.25

    +0.51%

  • BEL20

    38.4600

    5455.59

    +0.71%

  • PX1

    14.0200

    8259.6

    +0.17%

  • ISEQ

    103.7600

    12757.71

    +0.82%

  • OSEBX

    -17.1000

    2043.61

    -0.83%

  • PSI20

    -26.5600

    9458.2

    -0.28%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    39.3100

    4009.64

    +0.99%

  • N150

    6.1000

    4073.1

    +0.15%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: © AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

N.Lo--ThChM