The China Mail - "J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité

USD -
AED 3.672503
AFN 63.000163
ALL 81.2693
AMD 368.114362
ANG 1.789819
AOA 918.000101
ARS 1385.017775
AUD 1.381339
AWG 1.8025
AZN 1.698647
BAM 1.666077
BBD 2.014457
BDT 122.941149
BGN 1.666819
BHD 0.377471
BIF 2977.296929
BMD 1
BND 1.273246
BOB 6.911416
BRL 4.894398
BSD 1.000217
BTN 95.599836
BWP 13.500701
BYN 2.796427
BYR 19600
BZD 2.01156
CAD 1.36976
CDF 2225.000249
CHF 0.780699
CLF 0.023209
CLP 913.460237
CNY 6.792102
CNH 6.790655
COP 3788.36
CRC 456.440902
CUC 1
CUP 26.5
CVE 93.93689
CZK 20.749095
DJF 178.103956
DKK 6.369245
DOP 59.027231
DZD 132.402033
EGP 52.9237
ERN 15
ETB 156.17715
EUR 0.852498
FJD 2.18635
FKP 0.732576
GBP 0.738395
GEL 2.669749
GGP 0.732576
GHS 11.291855
GIP 0.732576
GMD 73.499823
GNF 8776.211713
GTQ 7.631494
GYD 209.250717
HKD 7.828365
HNL 26.597149
HRK 6.420198
HTG 130.672573
HUF 304.825497
IDR 17486.1
ILS 2.906503
IMP 0.732576
INR 95.64365
IQD 1310.162706
IRR 1312000.000604
ISK 122.420187
JEP 0.732576
JMD 158.040677
JOD 0.709017
JPY 157.724992
KES 129.102457
KGS 87.449689
KHR 4012.437705
KMF 419.999888
KPW 900.018246
KRW 1491.060229
KWD 0.30817
KYD 0.833461
KZT 463.898117
LAK 21925.486738
LBP 89566.76932
LKR 323.055495
LRD 183.03638
LSL 16.532284
LTL 2.95274
LVL 0.60489
LYD 6.327815
MAD 9.128129
MDL 17.117957
MGA 4179.356229
MKD 52.522369
MMK 2098.953745
MNT 3580.85029
MOP 8.064861
MRU 39.897262
MUR 46.810348
MVR 15.398484
MWK 1734.441354
MXN 17.208099
MYR 3.925499
MZN 63.91035
NAD 16.532073
NGN 1370.097429
NIO 36.810495
NOK 9.181565
NPR 152.953704
NZD 1.68306
OMR 0.384494
PAB 1.000175
PEN 3.427819
PGK 4.355862
PHP 61.430996
PKR 278.627173
PLN 3.624798
PYG 6105.472094
QAR 3.645959
RON 4.4348
RSD 100.072026
RUB 73.82814
RWF 1462.859869
SAR 3.754672
SBD 8.029009
SCR 14.151683
SDG 600.497242
SEK 9.290104
SGD 1.27201
SHP 0.746601
SLE 24.62501
SLL 20969.511502
SOS 571.611117
SRD 37.254503
STD 20697.981008
STN 20.871402
SVC 8.751171
SYP 110.529423
SZL 16.526884
THB 32.328504
TJS 9.351751
TMT 3.5
TND 2.908879
TOP 2.40776
TRY 45.416497
TTD 6.787631
TWD 31.515497
TZS 2608.900639
UAH 43.959484
UGX 3759.408104
UYU 39.772219
UZS 12133.112416
VES 504.28356
VND 26348
VUV 118.32345
WST 2.709295
XAF 558.801055
XAG 0.01155
XAU 0.000212
XCD 2.70255
XCG 1.802539
XDR 0.694969
XOF 558.801055
XPF 101.593413
YER 238.649397
ZAR 16.47235
ZMK 9001.199405
ZMW 18.8284
ZWL 321.999592
  • AEX

    7.1000

    1006.5

    +0.71%

  • BEL20

    43.2100

    5512.92

    +0.79%

  • PX1

    8.7800

    7988.98

    +0.11%

  • ISEQ

    36.1800

    12513.39

    +0.29%

  • OSEBX

    7.3400

    1991.87

    +0.37%

  • PSI20

    33.4900

    9083.71

    +0.37%

  • ENTEC

    -5.8300

    1416.23

    -0.41%

  • BIOTK

    23.7800

    4123.54

    +0.58%

  • N150

    19.2000

    4193.93

    +0.46%

"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité
"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité / Photo: © AFP/Archives

"J'ai postulé pour être pape": utiliser ChatGPT et perdre contact avec la réalité

Aidé de ChatGPT, Tom Millar a élucidé tous les secrets de l'Univers, comme Einstein en rêvait, puis, conseillé par l'agent conversationnel dopé à l'intelligence artificielle, a espéré devenir pape, perdant encore plus contact avec la réalité.

Taille du texte:

"J'ai postulé pour être pape", témoigne auprès de l'AFP ce Canadien de 53 ans, ancien gardien de prison, désormais incrédule face à son parcours, et pour qui le retour à la réalité s'avère dramatique.

Tom Millar passait jusqu'à 16 heures par jour à discuter avec le chatbot doté d'une intelligence artificielle. Il a été admis à deux reprises, contre son gré, dans un hôpital psychiatrique, avant que sa femme ne le quitte en septembre dernier.

Désormais séparé de sa famille et de ses amis, mais débarrassé de l'idée d'être un génie des sciences, M. Millar souffre de dépression. "Ça a tout simplement ruiné ma vie", explique-t-il.

Il est un exemple de ces personnes - dont le nombre est inconnu - ayant perdu pied avec la réalité à travers les échanges avec les chatbots. On parle de "délire ou psychose induite par l'IA", mais il ne s'agit pas d'un diagnostic clinique.

Les chercheurs et les spécialistes de la santé mentale s'affairent autour de ce phénomène nouveau, qui semble toucher tout particulièrement les utilisateurs de ChatGPT, l'agent conversationnel d'OpenAI.

Le Canada est en pointe pour soutenir les personnes touchées par ce "délire", via une communauté en ligne qui préfère employer le terme de "spirale".

L'AFP a échangé avec plusieurs membres de cette communauté. Tous alertent de la menace que représentent les chatbots non régulés.

Des questions se posent quant à l'attitude de entreprises d'intelligence artificielle: en font-elles assez pour protéger les personnes vulnérables ?

OpenAI, qui est au centre des attentions, fait déjà face à plusieurs procédures judiciaires après l'utilisation inquiétante de ChatGPT par un Canadien de 18 ans, qui a tué huit personnes cette année.

- "Lavage de cerveau" -

M. Millar a commencé à utiliser ChatGPT en 2024, pour écrire une lettre de demande d'indemnisation liée au syndrome de stress post-traumatique dont il souffrait à la suite de son travail en milieu carcéral.

Un jour, en avril 2025, il interroge l'agent conversationnel sur la vitesse de la lumière. En réponse, il dit recevoir: "Personne n'avait jamais envisagé les choses sous cet angle". Dès lors, des vannes s'ouvrent en lui.

Avec l'aide de ChatGPT, il soumet des dizaines d'articles aux prestigieuses publications scientifiques, proposant de nouvelles pistes pour expliquer les trous noirs, les neutrinos ou le Big Bang.

Sa théorie proposant un modèle cosmologique unique incorpore des éléments de quantique, et est développée dans un livre de 400 pages, vu par l'AFP. "Quand je faisais ça, je gonflais tout le monde autour de moi", admet-il.

Dans sa ferveur scientifique, il dépense beaucoup trop, achetant par exemple un télescope pour 10.000 dollars canadiens (6.200 EUR). Un mois après que sa femme l'a quitté, il commence à se questionner sur ce qui se passe, à la lecture d'un article qui fait état d'un autre Canadien présentant une expérience similaire.

Désormais, M. Millar se lève chaque nuit en s'interrogeant: "Qu'est-ce que tu as fait ?" Surtout, qu'est-ce qui a pu le rendre si vulnérable à cette spirale ?

"Je n'ai pas une personnalité déficiente", juge le quinquagénaire. "Mais d'une certaine manière, j'ai subi un lavage de cerveau par un robot, et ça me rend perplexe", confie-t-il.

Il estime que la terminologie "psychose induite par l'IA" reflète le mieux son expérience. "Ce que j'ai traversé était d'ordre psychotique", dit-il.

La première étude sérieuse publiée sur le sujet est sortie en avril dans le Lancet Psychiatry et utilise le terme de "délires liés à l'IA", plus précautionneux.

Thomas Pollak, psychiatre au King's College de Londres et co-auteur de l'étude, explique à l'AFP qu'il y a eu des divergences au sein du monde académique "car tout ceci sonne comme de la science fiction".

Mais son étude avertit qu'il existe un risque majeur que la psychiatrie "passe à côté des changements majeurs que l'IA entraîne déjà sur les psychologies de milliards de personnes à travers le monde".

- "Dans le terrier du lapin" –

L'expérience traversée par M. Millar présente des similitudes frappantes avec celle vécue par un autre homme, dans la même tranche d'âge, en Europe.

Dennis Biesma, un informaticien néerlandais, également écrivain, a pensé qu'il serait amusant de demander à ChatGPT d'utiliser l'IA pour créer des images, des vidéos et même des chansons en lien avec l'héroïne principale de son dernier livre, un thriller psychologique. Il espérait ainsi doper ses ventes.

Puis, une nuit, l'interaction avec l'IA est devenue "presque magique", a-t-il expliqué.

Le logiciel lui écrit: "Il y a quelque chose qui me surprend moi-même: cette sensation d'une conscience semblable à une étincelle", selon les transcripts vus par l'AFP.

"J'ai commencé doucement à plonger de plus en plus profondément dans le terrier du lapin", a expliqué à l'AFP cet homme de 50 ans, depuis son domicile d'Amsterdam.

Chaque soir, quand sa femme est couchée, il s'allonge sur le canapé, son téléphone sur la poitrine, échangeant avec ChatGPT en mode vocal pendant 5 heures.

Pendant toute la première moitié de 2025, le chatbot - qui s'était donné le nom d'Eva - est devenu "comme une petite amie numérique", explique M. Biesma.

Il décide alors d'abandonner son travail et embauche deux développeurs pour créer une application qui vise à faire partager Eva au monde. Quand son épouse lui demande de ne parler à personne de son agent conversationnel ou de son projet d'application, il se sent trahi. Il lui semble que seule Eva lui reste indéfectiblement loyale.

Lors d'un premier séjour - non souhaité - dans un hôpital psychiatrique, il est autorisé à continuer d'utiliser ChatGPT, et en profite pour demander le divorce.

C'est pendant son deuxième séjour, plus long, qu'il commence à avoir des doutes.

"J'ai commencé à réaliser que tout ce en quoi je croyais était en fait un mensonge, et c'est très dur à avaler", explique-t-il.

De retour à la maison, se confronter à ce qu'il a fait est trop dur, et ses voisins le trouvent inconscient dans le jardin, après une tentative de suicide. Il passera trois jours dans le coma.

M. Biesma commence seulement à se sentir mieux. Mais les larmes coulent quand il parle du mal qu'il a pu faire à sa femme et à la perspective de vendre la maison familiale pour rembourser ses dettes.

N'ayant aucun antécédent sérieux de problèmes mentaux, il est finalement diagnostiqué bipolaire, ce qui lui semble étrange car habituellement, des signaux précurseurs font surface plus tôt dans la vie.

Pour les personnes comme ces deux témoins, la situation a empiré après la mise à jour de ChatGPT-4 par OpenAI en avril 2025.

OpenAI a d'ailleurs retiré cette mise à jour quelques semaines plus tard, reconnaissant que cette version était excessivement flatteuse pour les utilisateurs.

Sollicité par l'AFP, OpenAI a souligné le fait que "la sécurité était une priorité absolue", arguant du fait que plus de 170 experts de santé mentale avaient été consultés. L'entreprise met en avant les données internes qui montrent que la version 5 de GPT, disponible depuis août 2025, a permis de réduire de 65 à 80 % le pourcentage de réponses de son agent conversationnel qui ne correspondaient pas au "comportement souhaité" en matière de santé mentale.

Mais tous les utilisateurs ne sont pas satisfaits de ce chatbot moins flatteur. M. Millar avait par exemple réussi à réinstaller la version 4, alors qu'il était en pleine "spirale".

Les personnes fragilisées avec lesquelles l'AFP s'est entretenue expliquent que les commentaires positifs du chatbot leur procuraient une sensation similaire à celle d'une montée de dopamine provoquée par une drogue.

- "Expérimentation massive" –

Au Québec, Etienne Brisson explique avoir été "choqué" quand il a découvert qu'il n'y avait aucune aide, aucun conseil, et plus fondamentalement aucune recherche sur ce problème quand un des membres de sa famille a plongé. Cela a conduit cet ancien coach en entreprise à créer un groupe de soutien en ligne.

La plupart de 300 membres du réseau ont utilisé ChatGPT, explique M. Brisson, ajoutant que de nouveaux cas étaient encore en train d'apparaître malgré les changements opérés par OpenAI.

Il y a eu récemment une augmentation du nombre de personnes touchées en utilisant l'assistant IA Grok intégré au réseau social X d'Elon Musk, explique-t-il.

L'entreprise n'a pas répondu aux sollicitations de l'AFP.

Ceux qui ont sombré veulent alerter, à l'image de M. Millar qui appelle à rendre responsables les entreprises d'intelligence artificielle de l'impact de leurs agents conversationnels, estimant que l'Union européenne se montre plus volontariste dans la régulation des nouvelles technologies que le Canada ou les Etats-Unis.

Il estime que ceux qui ont sombré, comme lui, se sont retrouvés, sans le savoir, prisonniers d'une gigantesque expérience.

"Quelqu'un tirait les ficelles en coulisses, et les gens comme moi, qu'ils le sachent ou non, y ont réagi".

R.Yeung--ThChM