The China Mail - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

USD -
AED 3.672504
AFN 63.491204
ALL 81.288822
AMD 376.301041
ANG 1.789731
AOA 916.999751
ARS 1399.014201
AUD 1.411004
AWG 1.8
AZN 1.701035
BAM 1.648308
BBD 2.013148
BDT 122.236737
BGN 1.647646
BHD 0.37702
BIF 2948.551009
BMD 1
BND 1.263342
BOB 6.906578
BRL 5.228702
BSD 0.999486
BTN 90.53053
BWP 13.182358
BYN 2.864548
BYR 19600
BZD 2.010198
CAD 1.36158
CDF 2255.000162
CHF 0.76855
CLF 0.021845
CLP 862.58019
CNY 6.90865
CNH 6.884265
COP 3662.29826
CRC 484.785146
CUC 1
CUP 26.5
CVE 92.92908
CZK 20.446198
DJF 177.984172
DKK 6.29617
DOP 62.26691
DZD 129.636995
EGP 46.798197
ERN 15
ETB 155.660701
EUR 0.842798
FJD 2.19355
FKP 0.732487
GBP 0.733135
GEL 2.675023
GGP 0.732487
GHS 10.999115
GIP 0.732487
GMD 73.501836
GNF 8772.528644
GTQ 7.665922
GYD 209.102018
HKD 7.81484
HNL 26.408654
HRK 6.350898
HTG 131.053315
HUF 319.362998
IDR 16826
ILS 3.08903
IMP 0.732487
INR 90.70785
IQD 1309.386352
IRR 42125.000158
ISK 122.194926
JEP 0.732487
JMD 156.425805
JOD 0.709031
JPY 153.2095
KES 128.949834
KGS 87.45025
KHR 4020.092032
KMF 415.000135
KPW 900.035341
KRW 1440.675034
KWD 0.30662
KYD 0.832947
KZT 494.618672
LAK 21449.461024
LBP 89505.356044
LKR 309.057656
LRD 186.346972
LSL 16.041753
LTL 2.95274
LVL 0.60489
LYD 6.301675
MAD 9.139185
MDL 16.971623
MGA 4372.487379
MKD 51.950843
MMK 2099.386751
MNT 3566.581342
MOP 8.049153
MRU 39.835483
MUR 45.930117
MVR 15.40501
MWK 1733.150163
MXN 17.16123
MYR 3.902501
MZN 63.910238
NAD 16.041753
NGN 1354.150226
NIO 36.779052
NOK 9.49273
NPR 144.854004
NZD 1.656715
OMR 0.384513
PAB 0.999536
PEN 3.353336
PGK 4.290645
PHP 57.913016
PKR 279.547412
PLN 3.548899
PYG 6555.415086
QAR 3.642577
RON 4.289403
RSD 98.975902
RUB 76.645807
RWF 1459.237596
SAR 3.749501
SBD 8.045182
SCR 14.62101
SDG 601.508035
SEK 8.923101
SGD 1.261715
SHP 0.750259
SLE 24.450211
SLL 20969.49935
SOS 570.751914
SRD 37.753984
STD 20697.981008
STN 20.648358
SVC 8.745818
SYP 11059.574895
SZL 16.038634
THB 31.013503
TJS 9.429944
TMT 3.5
TND 2.881716
TOP 2.40776
TRY 43.733255
TTD 6.784604
TWD 31.353504
TZS 2606.829868
UAH 43.104989
UGX 3537.988285
UYU 38.531878
UZS 12284.028656
VES 392.73007
VND 25970
VUV 119.056861
WST 2.712216
XAF 552.845741
XAG 0.013152
XAU 0.0002
XCD 2.70255
XCG 1.801333
XDR 0.687563
XOF 552.845741
XPF 100.512423
YER 238.349837
ZAR 15.92555
ZMK 9001.199188
ZMW 18.166035
ZWL 321.999592
  • AEX

    1.0900

    994.88

    +0.11%

  • BEL20

    -14.0400

    5600.35

    -0.25%

  • PX1

    6.6500

    8318.61

    +0.08%

  • ISEQ

    101.0300

    12889.38

    +0.79%

  • OSEBX

    -1.6400

    1821.21

    -0.09%

  • PSI20

    -20.7000

    8978.48

    -0.23%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    41.3200

    4132.67

    +1.01%

  • N150

    3.2300

    4036.52

    +0.08%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: © AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

N.Lo--ThChM