The China Mail - "C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

USD -
AED 3.672983
AFN 69.500471
ALL 84.401218
AMD 383.679913
ANG 1.789699
AOA 916.999814
ARS 1331.347202
AUD 1.537302
AWG 1.8025
AZN 1.696907
BAM 1.684894
BBD 2.018979
BDT 121.693509
BGN 1.677875
BHD 0.377046
BIF 2948.5
BMD 1
BND 1.286457
BOB 6.924982
BRL 5.462102
BSD 0.999927
BTN 87.794309
BWP 13.488635
BYN 3.291393
BYR 19600
BZD 2.008606
CAD 1.37424
CDF 2890.00019
CHF 0.80631
CLF 0.02485
CLP 974.849833
CNY 7.18315
CNH 7.185645
COP 4048
CRC 506.308394
CUC 1
CUP 26.5
CVE 95.250331
CZK 21.074031
DJF 177.719763
DKK 6.401205
DOP 60.999876
DZD 130.333089
EGP 48.445502
ERN 15
ETB 138.174986
EUR 0.85782
FJD 2.2564
FKP 0.751467
GBP 0.74888
GEL 2.693685
GGP 0.751467
GHS 10.550117
GIP 0.751467
GMD 72.500572
GNF 8674.999892
GTQ 7.673256
GYD 209.215871
HKD 7.84935
HNL 26.350275
HRK 6.4631
HTG 131.221544
HUF 341.559874
IDR 16354.1
ILS 3.4298
IMP 0.751467
INR 87.7121
IQD 1310
IRR 42124.999932
ISK 122.479752
JEP 0.751467
JMD 159.805649
JOD 0.708996
JPY 147.427973
KES 129.504164
KGS 87.449914
KHR 4009.999759
KMF 422.517366
KPW 899.94784
KRW 1384.769735
KWD 0.30548
KYD 0.833337
KZT 537.310733
LAK 21600.000093
LBP 89549.999641
LKR 300.839518
LRD 201.000134
LSL 17.769736
LTL 2.95274
LVL 0.60489
LYD 5.435058
MAD 9.061964
MDL 16.984635
MGA 4434.99991
MKD 53.007232
MMK 2099.311056
MNT 3591.43546
MOP 8.085189
MRU 39.897294
MUR 45.640083
MVR 15.392268
MWK 1736.500989
MXN 18.609499
MYR 4.230076
MZN 63.959738
NAD 17.769753
NGN 1530.100369
NIO 36.750216
NOK 10.17677
NPR 140.468735
NZD 1.68607
OMR 0.38451
PAB 0.999978
PEN 3.556504
PGK 4.140502
PHP 57.156496
PKR 282.550292
PLN 3.66595
PYG 7489.759085
QAR 3.640503
RON 4.353198
RSD 100.470941
RUB 80.000429
RWF 1441.5
SAR 3.752478
SBD 8.217066
SCR 14.635841
SDG 600.514208
SEK 9.60338
SGD 1.28489
SHP 0.785843
SLE 23.097406
SLL 20969.503947
SOS 571.485453
SRD 37.036022
STD 20697.981008
STN 21.25
SVC 8.749252
SYP 13001.372255
SZL 17.770267
THB 32.369873
TJS 9.350099
TMT 3.51
TND 2.880503
TOP 2.342098
TRY 40.6519
TTD 6.779208
TWD 29.918026
TZS 2480.000181
UAH 41.60133
UGX 3569.997889
UYU 40.128017
UZS 12524.999717
VES 128.74775
VND 26225
VUV 119.124121
WST 2.771506
XAF 565.126968
XAG 0.026428
XAU 0.000297
XCD 2.70255
XCG 1.802143
XDR 0.704914
XOF 565.503684
XPF 102.67499
YER 240.449555
ZAR 17.80672
ZMK 9001.198524
ZMW 23.025264
ZWL 321.999592
  • AEX

    -3.1000

    883.93

    -0.35%

  • BEL20

    -7.9300

    4657.23

    -0.17%

  • PX1

    13.7200

    7635.03

    +0.18%

  • ISEQ

    83.4300

    11358.13

    +0.74%

  • OSEBX

    1.3000

    1624.55

    +0.08%

  • PSI20

    30.8400

    7741.34

    +0.4%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    -66.2500

    3213.58

    -2.02%

  • N150

    11.3500

    3671.38

    +0.31%

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images
"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images / Photo: © AFP

"C'est une photo de Gaza ?" : l'IA trompeuse pour vérifier des images

"Grok, c'est vrai?" : les internautes recourent de plus en plus aux chatbots conversationnels pour vérifier des informations, au risque d'être trompés par les erreurs des IA, comme l'illustrent les vifs échanges déclenchés sur X par le partage de la photo d'une fillette dénutrie à Gaza.

Taille du texte:

Début août, quand le député français apparenté LFI Aymeric Caron, soutien notoire de la cause palestinienne, publie sur le réseau social X cette image sans légende, alors que la bande de Gaza est menacée d’une "famine généralisée" selon l'ONU, plusieurs utilisateurs demandent rapidement à Grok d'en vérifier l'origine.

Le robot conversationnel intégré à X est formel: cette photo a été prise selon lui en octobre 2018 au Yémen et montrerait Amal Hussain, une fillette de 7 ans. Sa réponse est largement relayée. Et le député accusé de faire de la désinformation.

Mais Grok se trompe : la photo a bien été prise à Gaza, le 2 août, par Omar al-Qattaa, photojournaliste pour l'AFP.

Le cliché montre Mariam Dawwas, 9 ans, dans les bras de sa mère Modallala à Gaza-ville, qui a expliqué à l'AFP que sa fille pesait 25 kilos avant la guerre, contre 9 aujourd'hui. Comme soutien médical, elle reçoit "seulement du lait, et il n'est pas toujours disponible. Ce n'est pas suffisant pour qu'elle se rétablisse", a-t-elle dit.

Interpellé sur l'inexactitude de sa réponse, Grok affirme: "Je ne propage pas de fake news ; je m'appuie sur des sources vérifiées". Il finit par admettre son erreur mais il la reproduit dès le lendemain, en réponses à de nouvelles questions d'utilisateurs de X.

- Des "boîtes noires" -

Cette séquence illustre les limites des outils d'intelligence artificielle, qui fonctionnent comme "des boîtes noires", souligne Louis de Diesbach, chercheur en éthique de la technique et auteur de Bonjour ChatGPT.

"On ne sait pas précisément pourquoi ils donnent telle ou telle réponse, ni comment ils priorisent leurs sources", souligne l'expert, expliquant que ces outils ont des biais liés à leurs données d'entraînement mais aussi aux consignes de leurs concepteurs.

Le robot conversationnel d'xAI, la start-up d'Elon Musk, présente selon l'expert "des biais encore plus prononcés et qui sont très alignés sur l'idéologie promue, entre autres," par le milliardaire sud-africain, proche des idées de la droite radicale américaine.

Interroger un chatbot sur l'origine d'une image revient à le faire sortir de son rôle, pointe M. de Diesbach : "Typiquement, quand vous cherchez l'origine d'une image, il peut dire +cette photo aurait pu être prise au Yémen, aurait pu être prise à Gaza, aurait pu être prise dans à peu près n'importe quel pays où il y a une famine+".

"Un modèle de langage ne cherche pas à créer des choses exactes, ce n'est pas le but", insiste l'expert.

Récemment, une autre photographie de l'AFP, du même Omar al-Qattaa, publiée par le quotidien Libération et montrant déjà un enfant souffrant de malnutrition à Gaza, avait déjà été faussement située au Yémen et datée de 2016 par Grok. Alors qu'elle a bien été prise en juillet 2025 à Gaza.

L'erreur de l'IA avait conduit des internautes à accuser à tort le journal de manipulation.

- Pas seulement Grok -

Les biais des IA sont liés à leurs données d'entraînement, qui conditionnent la base des connaissances du modèle, et à la phase dite d'alignement, qui détermine ce que le modèle va considérer comme une "bonne" ou une "mauvaise" réponse.

Et "ce n'est pas parce qu'on lui a expliqué qu'en fait, c'était faux, que du jour au lendemain, il va (changer sa réponse) parce que ses données d'entraînement n'ont pas changé, son alignement non plus", ajoute M. de Diesbach.

Les erreurs ne sont pas propres à Grok : interrogé par l'AFP sur l'origine de la photo de Mariam Dawwas, l’agent conversationnel de Mistral AI - start-up qui, en tant que partenaire de l’AFP, peut intégrer les dépêches de l'agence aux réponses de son chatbot - a lui aussi indiqué à tort qu'elle avait été prise au Yémen.

Pour Louis de Diesbach, les agents conversationnels ne doivent pas être utilisés pour vérifier des faits, à la manière d'un moteur de recherche, car "ils ne sont pas faits pour dire la vérité" mais pour "générer du contenu, qu’il soit vrai ou faux."

"Il faut le voir comme un ami mythomane : il ne ment pas toujours, mais il peut toujours mentir", conclut l’expert.

N.Lo--ThChM