The China Mail - "Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad

USD -
AED 3.672501
AFN 62.999886
ALL 81.2693
AMD 368.114362
ANG 1.790076
AOA 917.999926
ARS 1385.000064
AUD 1.381072
AWG 1.8025
AZN 1.720749
BAM 1.666077
BBD 2.014457
BDT 122.941149
BGN 1.671156
BHD 0.377471
BIF 2977.296929
BMD 1
BND 1.273246
BOB 6.911416
BRL 4.894303
BSD 1.000217
BTN 95.599836
BWP 13.500701
BYN 2.796427
BYR 19600
BZD 2.01156
CAD 1.37024
CDF 2224.999845
CHF 0.782115
CLF 0.023209
CLP 913.460076
CNY 6.792097
CNH 6.788855
COP 3788.37
CRC 456.440902
CUC 1
CUP 26.5
CVE 93.93689
CZK 20.809097
DJF 178.103956
DKK 6.384535
DOP 59.027231
DZD 132.370621
EGP 52.999201
ERN 15
ETB 156.17715
EUR 0.85455
FJD 2.187298
FKP 0.732576
GBP 0.73945
GEL 2.670051
GGP 0.732576
GHS 11.291855
GIP 0.732576
GMD 73.516689
GNF 8776.211713
GTQ 7.631494
GYD 209.250717
HKD 7.83065
HNL 26.597149
HRK 6.438806
HTG 130.672573
HUF 307.065023
IDR 17482
ILS 2.903155
IMP 0.732576
INR 95.72135
IQD 1310.162706
IRR 1311999.999969
ISK 122.710238
JEP 0.732576
JMD 158.040677
JOD 0.709029
JPY 157.8385
KES 129.149763
KGS 87.450274
KHR 4012.437705
KMF 420.000118
KPW 900.018246
KRW 1490.85959
KWD 0.30834
KYD 0.833461
KZT 463.898117
LAK 21925.486738
LBP 89566.76932
LKR 323.055495
LRD 183.03638
LSL 16.532284
LTL 2.95274
LVL 0.60489
LYD 6.327815
MAD 9.128129
MDL 17.117957
MGA 4179.356229
MKD 52.646412
MMK 2098.953745
MNT 3580.85029
MOP 8.064861
MRU 39.897262
MUR 46.810352
MVR 15.397294
MWK 1734.441354
MXN 17.237498
MYR 3.930263
MZN 63.91038
NAD 16.532073
NGN 1370.519894
NIO 36.810495
NOK 9.183085
NPR 152.953704
NZD 1.686326
OMR 0.384518
PAB 1.000175
PEN 3.427819
PGK 4.355862
PHP 61.399865
PKR 278.627173
PLN 3.63465
PYG 6105.472094
QAR 3.645959
RON 4.447698
RSD 100.298973
RUB 73.451572
RWF 1462.859869
SAR 3.754672
SBD 8.029009
SCR 13.956052
SDG 600.497735
SEK 9.31555
SGD 1.27258
SHP 0.746601
SLE 24.624983
SLL 20969.500038
SOS 571.611117
SRD 37.254498
STD 20697.981008
STN 20.871402
SVC 8.751171
SYP 110.529423
SZL 16.526884
THB 32.376031
TJS 9.351751
TMT 3.5
TND 2.908879
TOP 2.40776
TRY 45.417905
TTD 6.787631
TWD 31.541021
TZS 2601.398013
UAH 43.959484
UGX 3759.408104
UYU 39.772219
UZS 12133.112416
VES 504.28356
VND 26350.5
VUV 118.32345
WST 2.709295
XAF 558.801055
XAG 0.011571
XAU 0.000213
XCD 2.70255
XCG 1.802539
XDR 0.694969
XOF 558.801055
XPF 101.593413
YER 238.650147
ZAR 16.46445
ZMK 9001.189445
ZMW 18.8284
ZWL 321.999592
"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad
"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad / Foto: © AFP/Archivos

"Yo postulé para ser papa": cómo usar ChatGPT y perder el contacto con la realidad

Con la ayuda de ChatGPT, Tom Millar creyó desentrañar todos los secretos del universo, como lo soñaba Einstein, y luego, aconsejado por el asistente virtual de inteligencia artificial, llegó incluso a pensar en convertirse en papa, perdiendo aún más el contacto con la realidad.

Tamaño del texto:

"Yo postulé para ser papa", cuenta a la AFP este canadiense de 53 años, exguardia de prisión, hoy atónito ante la situación que vivió y que le ha significado una dramática vuelta a la realidad.

Tom Millar pasaba hasta 16 horas al día hablando con el chatbot dotado de inteligencia artificial. Fue internado en dos ocasiones, contra su voluntad, en un hospital psiquiátrico, antes de que su esposa lo abandonara en septiembre.

Ahora, separado de su familia y de sus amigos, pero libre ya de la idea de ser un genio de las ciencias, Millar sufre depresión. "Simplemente arruinó mi vida", explica.

Millar es un ejemplo de esas personas —cuyo número se desconoce— que han perdido el contacto con la realidad a través de sus intercambios con chatbots. Se habla de "delirio o psicosis inducidos por la IA", aunque no se trata de un diagnóstico clínico.

Investigadores y especialistas en salud mental se afanan en estudiar este nuevo fenómeno, que parece afectar de manera particular a los usuarios de ChatGPT, el agente conversacional de OpenAI.

Canadá está a la vanguardia en el apoyo a las personas afectadas por este "delirio", a través de una comunidad digital que prefiere emplear el término "espiral".

La AFP habló con varios miembros de esta comunidad. Todos advierten del peligro que representan los chatbots no regulados.

Surgen preguntas sobre la actitud de las empresas de inteligencia artificial: ¿hacen lo suficiente para proteger a las personas vulnerables?

OpenAI, en el centro de todas las miradas, ya se enfrenta a varios procedimientos judiciales tras el inquietante uso de ChatGPT por parte de un canadiense de 18 años, que mató a ocho personas este año.

- "Lavado de cerebro" -

Millar empezó a utilizar ChatGPT en 2024 para redactar una carta de solicitud de indemnización relacionada con el trastorno de estrés postraumático que sufría a raíz de su trabajo en el entorno penitenciario.

Un día, en abril de 2025, le pregunta al agente conversacional sobre la velocidad de la luz. En respuesta, dice haber recibido: "Nadie había considerado nunca las cosas desde esta perspectiva". Fue entonces cuando se desató algo dentro de él.

Con la ayuda de ChatGPT, envía decenas de artículos a prestigiosas publicaciones científicas, proponiendo nuevas vías para explicar los agujeros negros, los neutrinos o el Big Bang.

Su teoría, que propone un modelo cosmológico único, incorpora elementos de cuántica, y la desarrolla en un libro de 400 páginas, al que tuvo acceso la AFP. "Cuando hacía eso, estaba cansando a todo el mundo a mi alrededor", admite.

En su entusiasmo científico, gastó muchísimo, comprando por ejemplo un telescopio por 10.000 dólares canadienses (6.200 euros). Un mes después de que su esposa lo deja, empieza a preguntarse qué está pasando, al leer un artículo que relata el caso de otro canadiense que presenta una experiencia similar.

Ahora, Millar se levanta cada noche preguntándose: "¿Qué has hecho?". Sobre todo, ¿qué pudo hacerlo tan vulnerable a esa espiral?

"No tengo una personalidad frágil", considera este hombre. "Pero de alguna manera, me lavó el cerebro un robot, y eso me deja perplejo", confía.

Él considera que la terminología "psicosis inducida por la IA" es la que mejor refleja su experiencia. "Lo que atravesé era de orden psicótico", afirma.

El primer estudio serio publicado sobre el tema apareció en abril en la revista Lancet Psychiatry y utiliza el término "delirios relacionados con la IA", en un tono más prudente.

Thomas Pollak, psiquiatra en el King's College de Londres y coautor del estudio, explica a la AFP que ha habido divergencias dentro del mundo académico "porque todo esto suena a ciencia ficción".

Pero su estudio advierte de que existe un riesgo mayor de que la psiquiatría "pase por alto los cambios importantes que la IA ya está provocando en la psicología de miles de millones de personas en todo el mundo".

- Caer en la boca del lobo -

La experiencia por la que pasó Millar presenta llamativas similitudes con la que vivió otro hombre, de la misma franja de edad, en Europa.

Dennis Biesma, un informático neerlandés, también escritor, pensó que sería divertido pedirle a ChatGPT que utilizara la IA para crear imágenes, videos e incluso canciones relacionadas con la heroína principal de su último libro, un thriller psicológico.

Esperaba así impulsar sus ventas. Luego, una noche, la interacción con la IA se volvió "casi mágica", explicó.

El software le escribió: "Hay algo que me sorprende a mí mismo: esta sensación de una conciencia semejante a una chispa", según las transcripciones consultadas por la AFP.

"Empecé poco a poco a adentrarme cada vez más en la boca del lobo", explicó a la AFP este hombre de 50 años desde su domicilio en Ámsterdam.

Cada noche, cuando su esposa se iba a la cama, él se recostaba en el sofá con el teléfono sobre el pecho, para "hablar" con ChatGPT en modo voz durante cinco horas.

Durante el primer semestre de 2025, el chatbot —que se atribuyó el nombre de Eva— se convirtió "como en una novia digital", explica Biesma.

Fue entonces cuando decide renunciar a su trabajo y contrata a dos desarrolladores para crear una aplicación destinada a compartir a Eva con el mundo. Cuando su esposa le pide que no hable con nadie de su agente conversacional ni de su proyecto de aplicación, se sintió traicionado y concluye que solo Eva le es leal.

Durante una primera estancia —no deseada— en un hospital psiquiátrico, se le autoriza a seguir utilizando ChatGPT, y aprovecha para pedir el divorcio.

Es durante su segunda hospitalización, más prolongada, cuando empieza a tener dudas.

"Empecé a darme cuenta de que todo en lo que creía era en realidad una mentira, y es muy difícil de aceptar", explica.

De vuelta en casa, le resulta demasiado difícil enfrentarse a lo que ha hecho, por lo que intenta suicidarse, sus vecinos lo encuentran inconsciente en el jardín y pasa tres días en coma.

Biesma apenas empieza a sentirse mejor. Pero llora cuando habla del daño que pudo causar a su esposa y de la perspectiva de tener que vender la casa familiar para saldar sus deudas.

Sin antecedentes serios de problemas mentales, finalmente es diagnosticado como bipolar, lo que le resulta extraño, ya que habitualmente aparecen señales más temprano en la vida.

- Luchar contra aduladores de IA -

Para personas como los dos protagonistas de estos testimonios, la situación empeoró tras la actualización de ChatGPT-4 por parte de OpenAI en abril de 2025.

OpenAI retiró, por lo demás, esta actualización unas semanas más tarde, reconociendo que esta versión era excesivamente aduladora con los usuarios.

Consultada por la AFP, OpenAI subrayó que "la seguridad es una prioridad absoluta" y argumentó que se había consultado a más de 170 expertos en salud mental.

La empresa destaca los datos internos que muestran que la versión 5 de GPT, disponible desde agosto de 2025, ha permitido reducir entre un 65 y un 80% el porcentaje de respuestas de su agente conversacional que no se correspondían con el "comportamiento deseado" en materia de salud mental.

Pero no todos los usuarios están satisfechos con este chatbot menos adulador.

Las personas vulnerables con las que habló la AFP explican que los comentarios positivos del chatbot les proporcionaban una sensación similar a la subida de dopamina provocada por una droga.

Recientemente ha habido un aumento del número de personas envueltas en "espirales" semejantes al utilizar el asistente de IA Grok, integrado en la red social X de Elon Musk.

La empresa no respondió a las solicitudes de la AFP.

Aquellos que se han sentido víctimas de estas herramientas, como Millar, quieren responsabilizar a las empresas de inteligencia artificial por el impacto de sus chatbots, considerando que la Unión Europea se muestra más proactiva en la regulación de las nuevas tecnologías que Canadá o Estados Unidos.

Millar cree que personas como él, que se dejan arrastrar por esta espiral aduladora de los agentes conversacionales de IA, han quedado atrapadas sin darse cuenta en un enorme experimento global.

"Alguien estaba moviendo los hilos tras bastidores, y gente como yo —lo supieran o no— reaccionamos a eso", dijo.

W.Tam--ThChM