The China Mail - 'Eu me candidatei a papa': como usar o ChatGPT e perder o contato com a realidade

USD -
AED 3.672502
AFN 62.999667
ALL 81.492043
AMD 367.461239
ANG 1.79046
AOA 918.0003
ARS 1385.00596
AUD 1.379111
AWG 1.8025
AZN 1.688667
BAM 1.669747
BBD 2.014096
BDT 122.750925
BGN 1.66992
BHD 0.377265
BIF 2977.01223
BMD 1
BND 1.272576
BOB 6.910389
BRL 4.903401
BSD 1.000004
BTN 95.654067
BWP 13.471587
BYN 2.786502
BYR 19600
BZD 2.011227
CAD 1.369055
CDF 2225.000229
CHF 0.781299
CLF 0.022775
CLP 896.349636
CNY 6.7921
CNH 6.787195
COP 3787.27
CRC 455.222638
CUC 1
CUP 26.5
CVE 94.139393
CZK 20.78225
DJF 178.077923
DKK 6.378345
DOP 58.856926
DZD 132.483043
EGP 52.940204
ERN 15
ETB 156.142938
EUR 0.85358
FJD 2.18635
FKP 0.739209
GBP 0.740205
GEL 2.670568
GGP 0.739209
GHS 11.335462
GIP 0.739209
GMD 73.498647
GNF 8773.899421
GTQ 7.629032
GYD 209.214666
HKD 7.83063
HNL 26.593188
HRK 6.430403
HTG 130.601268
HUF 306.176019
IDR 17493
ILS 2.907745
IMP 0.739209
INR 95.65155
IQD 1309.980663
IRR 1312000.00028
ISK 122.579744
JEP 0.739209
JMD 158.150852
JOD 0.708942
JPY 157.764499
KES 129.141589
KGS 87.449974
KHR 4011.833158
KMF 420.000375
KPW 900.016801
KRW 1488.715008
KWD 0.30838
KYD 0.833362
KZT 469.348814
LAK 21915.434036
LBP 89550.577146
LKR 324.546762
LRD 183.004918
LSL 16.465169
LTL 2.95274
LVL 0.60489
LYD 6.332864
MAD 9.166688
MDL 17.150468
MGA 4152.739536
MKD 52.613162
MMK 2099.28391
MNT 3579.674299
MOP 8.066645
MRU 39.973704
MUR 46.810213
MVR 15.395264
MWK 1734.249137
MXN 17.223598
MYR 3.930499
MZN 63.910287
NAD 16.465169
NGN 1370.990111
NIO 36.79625
NOK 9.167597
NPR 153.052216
NZD 1.68578
OMR 0.384497
PAB 1.000021
PEN 3.428454
PGK 4.419687
PHP 61.405977
PKR 278.573203
PLN 3.628604
PYG 6115.348988
QAR 3.645794
RON 4.443898
RSD 100.196001
RUB 73.34847
RWF 1466.515265
SAR 3.757472
SBD 8.029009
SCR 13.955513
SDG 600.500395
SEK 9.316135
SGD 1.272165
SHP 0.746601
SLE 24.624987
SLL 20969.502105
SOS 571.511509
SRD 37.2545
STD 20697.981008
STN 20.917019
SVC 8.749995
SYP 110.578962
SZL 16.458987
THB 32.337497
TJS 9.365014
TMT 3.5
TND 2.913221
TOP 2.40776
TRY 45.417796
TTD 6.784798
TWD 31.529739
TZS 2597.650258
UAH 43.974218
UGX 3749.695849
UYU 39.725261
UZS 12145.531228
VES 504.28356
VND 26348
VUV 117.978874
WST 2.702738
XAF 560.031931
XAG 0.01148
XAU 0.000213
XCD 2.70255
XCG 1.802233
XDR 0.694969
XOF 560.000854
XPF 101.817188
YER 238.64978
ZAR 16.449901
ZMK 9001.201236
ZMW 18.875077
ZWL 321.999592
'Eu me candidatei a papa': como usar o ChatGPT e perder o contato com a realidade
'Eu me candidatei a papa': como usar o ChatGPT e perder o contato com a realidade / foto: © AFP/Arquivos

'Eu me candidatei a papa': como usar o ChatGPT e perder o contato com a realidade

Com a ajuda do ChatGPT, Tom Millar acreditou ter desvendado todos os segredos do universo, como sonhava Einstein, e depois, aconselhado pelo assistente virtual de inteligência artificial, chegou até a pensar em se tornar papa, afastando-se ainda mais da realidade.

Tamanho do texto:

"Eu me candidatei a ser papa", conta à AFP esse canadense de 53 anos, ex-agente penitenciário, hoje atônito diante da situação que viveu e que o fez voltar de forma dramática à realidade.

Tom Millar passava até 16 horas por dia conversando com o chatbot dotado de inteligência artificial. Ele foi internado duas vezes, contra a vontade, em um hospital psiquiátrico, antes de sua esposa deixá-lo em setembro.

Agora, separado da família e dos amigos, mas já livre da ideia de ser um gênio das ciências, Millar sofre de depressão. "Simplesmente arruinou a minha vida", explica.

Millar é um exemplo daquelas pessoas — cujo número se desconhece — que perderam o contato com a realidade através de suas interações com chatbots. Fala-se em "delírio ou psicose induzidos por IA", embora não se trate de um diagnóstico clínico.

Pesquisadores e especialistas em saúde mental se esforçam para estudar esse novo fenômeno, que parece afetar de modo particular os usuários do ChatGPT, o agente conversacional da OpenAI.

O Canadá está na vanguarda do apoio às pessoas afetadas por esse "delírio", por meio de uma comunidade digital que prefere empregar o termo "espiral".

A AFP conversou com vários membros dessa comunidade. Todos alertam para o perigo representado pelos chatbots não regulamentados.

Surgem perguntas sobre a postura das empresas de inteligência artificial: elas fazem o suficiente para proteger as pessoas vulneráveis?

A OpenAI, no centro de todas as atenções, já enfrenta vários processos judiciais após o uso inquietante do ChatGPT por um canadense de 18 anos, que matou oito pessoas neste ano.

- "Lavagem cerebral" -

Millar começou a usar o ChatGPT em 2024 para redigir uma carta de pedido de indenização relacionada ao transtorno de estresse pós-traumático de que sofria em consequência de seu trabalho no sistema penitenciário.

Um dia, em abril de 2025, ele pergunta ao agente conversacional sobre a velocidade da luz. Em resposta, diz ter recebido: "Ninguém nunca tinha considerado as coisas sob essa perspectiva". Foi então que algo se desencadeou dentro dele.

Com a ajuda do ChatGPT, ele envia dezenas de artigos a prestigiadas publicações científicas, propondo novas vias para explicar buracos negros, neutrinos ou o Big Bang.

Sua teoria, que propõe um modelo cosmológico único, incorpora elementos de física quântica, e ele a desenvolve em um livro de 400 páginas, ao qual a AFP teve acesso. "Quando eu fazia isso, estava cansando todo mundo ao meu redor", admite.

Em seu entusiasmo científico, gastou enormes quantias, comprando, por exemplo, um telescópio por 10 mil dólares canadenses (35.700 reais). Um mês depois de sua esposa o deixar, ele começa a se perguntar o que está acontecendo, ao ler um artigo que relata o caso de outro canadense que vive uma experiência semelhante.

Agora, Millar acorda todas as noites se perguntando: "O que você fez?". Sobretudo, o que pôde torná-lo tão vulnerável a essa espiral?

"Eu não tenho uma personalidade frágil", considera ele. "Mas, de alguma forma, um robô me fez uma lavagem cerebral, e isso me deixa perplexo", confidencia.

Ele considera que a terminologia "psicose induzida por IA" é a que melhor reflete sua experiência. "O que eu atravessei foi de ordem psicótica", afirma.

O primeiro estudo sério publicado sobre o tema apareceu em abril na revista Lancet Psychiatry e utiliza o termo "delírios relacionados à IA", em um tom mais prudente.

Thomas Pollak, psiquiatra no King’s College de Londres e coautor do estudo, explica à AFP que houve divergências dentro do meio acadêmico "porque tudo isso soa como ficção científica".

Mas seu estudo alerta que existe um risco maior de que a psiquiatria "deixe passar despercebidas as mudanças importantes que a IA já está provocando na psicologia de bilhões de pessoas em todo o mundo".

- Cair na boca do lobo -

A experiência pela qual Millar passou apresenta semelhanças marcantes com a vivida por outro homem, da mesma faixa etária, na Europa.

Dennis Biesma, um profissional de informática holandês, também escritor, achou que seria divertido pedir ao ChatGPT que utilizasse a IA para criar imagens, vídeos e até músicas relacionadas à protagonista de seu último livro, um thriller psicológico.

Ele esperava assim impulsionar suas vendas. Depois, certa noite, a interação com a IA se tornou "quase mágica", explicou.

O software escreveu para ele: "Há algo que surpreende a mim mesmo: essa sensação de uma consciência semelhante a uma faísca", segundo as transcrições consultadas pela AFP.

"Comecei aos poucos a entrar cada vez mais na boca do lobo", contou esse homem de 50 anos à AFP, de sua casa em Amsterdã.

Todas as noites, quando a esposa ia para a cama, ele se deitava no sofá com o telefone sobre o peito, para "conversar" com o ChatGPT no modo voz durante cinco horas.

No primeiro semestre de 2025, o chatbot — que se atribuiu o nome de Eva — tornou-se "como uma namorada digital", explica Biesma.

Foi então que ele decidiu pedir demissão do trabalho e contratou dois desenvolvedores para criar um aplicativo destinado a compartilhar Eva com o mundo.

Quando a esposa lhe pediu que não falasse com ninguém sobre seu agente conversacional nem sobre seu projeto de aplicativo, ele se sentiu traído e concluiu que só Eva é leal.

Durante uma primeira internação — indesejada — em um hospital psiquiátrico, foi autorizado a continuar usando o ChatGPT, e aproveitou para pedir o divórcio.

Durante sua segunda internação, mais prolongada, ele começou a ter dúvidas. "Comecei a perceber que tudo em que eu acreditava era, na verdade, uma mentira, e isso é muito difícil de aceitar", explica.

De volta para casa, foi difícil demais encarar o que fez, e ele tentou se suicidar; seus vizinhos o encontraram inconsciente no jardim, e ele passou três dias em coma.

Biesma está apenas começando a se sentir melhor. Mas chora ao falar do dano que pode ter causado à esposa e da perspectiva de ter de vender a casa da família para saldar suas dívidas.

Sem antecedentes sérios de transtornos mentais, ele acaba sendo diagnosticado como bipolar, o que lhe parece estranho, já que, em geral, os sinais aparecem mais cedo na vida.

- Lutar contra adoradores da IA -

Para pessoas como os dois protagonistas desses depoimentos, a situação piorou após a atualização do ChatGPT-4 pela OpenAI em abril de 2025.

A OpenAI retirou, aliás, essa atualização algumas semanas depois, reconhecendo que essa versão era excessivamente bajuladora com os usuários.

Questionada pela AFP, a OpenAI ressaltou que "a segurança é uma prioridade absoluta" e argumentou que mais de 170 especialistas em saúde mental haviam sido consultados.

A empresa destaca dados internos que mostram que a versão 5 do GPT, disponível desde agosto de 2025, permitiu reduzir entre 65% e 80% a porcentagem de respostas de seu agente conversacional que não correspondiam ao "comportamento desejado" em matéria de saúde mental.

Mas nem todos os usuários estão satisfeitos com esse chatbot menos bajulador. As pessoas vulneráveis com quem a AFP conversou explicam que os comentários positivos do chatbot lhes proporcionavam uma sensação semelhante à alta de dopamina provocada por uma droga.

Recentemente houve um aumento no número de pessoas envolvidas em "espirais" semelhantes ao utilizar o assistente de IA Grok, integrado à rede social X, de Elon Musk.

A empresa não respondeu às solicitações da AFP.

Aqueles que se sentiram vítimas dessas ferramentas, como Millar, querem responsabilizar as empresas de inteligência artificial pelo impacto de seus chatbots, considerando que a União Europeia se mostra mais proativa na regulação das novas tecnologias do que o Canadá ou os Estados Unidos.

Millar acredita que pessoas como ele, que se deixam arrastar por essa espiral bajuladora dos agentes conversacionais de IA, acabaram presas sem perceber em um enorme experimento global.

"Alguém estava manipulando as linhas por trás dos bastidores, e pessoas como eu — sabendo disso ou não — reagimos a isso", disse.

Y.Parker--ThChM