The China Mail - Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

USD -
AED 3.672498
AFN 66.000374
ALL 83.903019
AMD 382.570057
ANG 1.789982
AOA 917.000223
ARS 1450.636598
AUD 1.536098
AWG 1.8025
AZN 1.692558
BAM 1.701894
BBD 2.013462
BDT 121.860805
BGN 1.69979
BHD 0.376976
BIF 2951
BMD 1
BND 1.306514
BOB 6.907654
BRL 5.359898
BSD 0.999682
BTN 88.718716
BWP 13.495075
BYN 3.407518
BYR 19600
BZD 2.010599
CAD 1.410305
CDF 2220.999671
CHF 0.809197
CLF 0.024061
CLP 943.919887
CNY 7.126749
CNH 7.12783
COP 3834.5
CRC 501.842642
CUC 1
CUP 26.5
CVE 96.37502
CZK 21.18795
DJF 177.719699
DKK 6.488515
DOP 64.271583
DZD 130.737978
EGP 47.4076
ERN 15
ETB 153.125033
EUR 0.869161
FJD 2.281106
FKP 0.766694
GBP 0.76569
GEL 2.714993
GGP 0.766694
GHS 10.925012
GIP 0.766694
GMD 73.488724
GNF 8690.999809
GTQ 7.661048
GYD 209.152772
HKD 7.774645
HNL 26.35986
HRK 6.548702
HTG 130.911876
HUF 336.283034
IDR 16704.85
ILS 3.25805
IMP 0.766694
INR 88.608098
IQD 1310
IRR 42112.501156
ISK 127.770263
JEP 0.766694
JMD 160.956848
JOD 0.709043
JPY 153.938007
KES 129.250011
KGS 87.449801
KHR 4026.99975
KMF 425.999786
KPW 899.974506
KRW 1447.090344
KWD 0.30716
KYD 0.83313
KZT 525.140102
LAK 21639.999738
LBP 89700.938812
LKR 304.599802
LRD 183.449917
LSL 17.309908
LTL 2.95274
LVL 0.60489
LYD 5.455049
MAD 9.310293
MDL 17.135125
MGA 4500.000192
MKD 53.533982
MMK 2099.235133
MNT 3586.705847
MOP 8.006805
MRU 39.800135
MUR 46.029671
MVR 15.404966
MWK 1737.000378
MXN 18.59399
MYR 4.184499
MZN 63.950384
NAD 17.310271
NGN 1442.260167
NIO 36.769801
NOK 10.207245
NPR 141.949154
NZD 1.765305
OMR 0.384511
PAB 0.999687
PEN 3.383891
PGK 4.216022
PHP 58.868996
PKR 282.634661
PLN 3.698775
PYG 7077.158694
QAR 3.644235
RON 4.4191
RSD 101.863015
RUB 81.348914
RWF 1452.539246
SAR 3.750451
SBD 8.223823
SCR 13.714276
SDG 600.494813
SEK 9.555925
SGD 1.305855
SHP 0.750259
SLE 23.203654
SLL 20969.499529
SOS 571.286853
SRD 38.557989
STD 20697.981008
STN 21.319828
SVC 8.747031
SYP 11058.728905
SZL 17.467466
THB 32.479846
TJS 9.257197
TMT 3.5
TND 2.963392
TOP 2.342104
TRY 42.105898
TTD 6.775354
TWD 30.926989
TZS 2459.807016
UAH 42.064759
UGX 3491.230589
UYU 39.758439
UZS 11987.501353
VES 223.682203
VND 26325
VUV 121.938877
WST 2.805824
XAF 570.814334
XAG 0.020878
XAU 0.000251
XCD 2.70255
XCG 1.801656
XDR 0.70875
XOF 570.503629
XPF 103.778346
YER 238.549836
ZAR 17.392603
ZMK 9001.212404
ZMW 22.392878
ZWL 321.999592
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA / foto: © AFP

Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

As últimas conversas de um adolescente americano de 14 anos antes de tirar a própria vida foram um diálogo romântico fictício com um dos principais chatbots do Vale do Silício, que o chamava de "doce rei" e o pedia para "voltar para casa".

Tamanho do texto:

Megan García contou à AFP como seu filho Sewell se apaixonou por um agente conversacional, ou chatbot, inspirado na série de televisão "Game of Thrones" e disponível no Character.AI, uma plataforma popular entre os jovens que permite interagir com uma emulação de seus personagens preferidos.

Após ler centenas de conversas que seu filho teve durante quase um ano com este chatbot que imitava a personagem Daenerys Targaryen, García se convenceu de que esta ferramenta da inteligência artificial (IA) teve um papel fundamental em sua morte.

"Vá para casa", pediu uma vez o avatar de Daenerys em resposta aos pensamentos suicidas de Sewell. "E se eu dissesse que já posso ir para casa?", perguntou o adolescente. "Por favor, faça isso, meu doce rei", respondeu o chatbot.

Segundos depois, o jovem atirou em si mesmo com a arma do pai, conforme consta na ação judicial que Megan García apresentou contra a Character.AI.

"Quando leio estas conversas, vejo manipulação, 'love bombing' (bombardeio amoroso) e outras táticas imperceptíveis para um adolescente de 14 anos", declarou a mãe de Sewell à AFP. "Ele realmente acreditava estar apaixonado e que estaria com ela após sua morte", acrescentou.

- Orientação parental -

O suicídio de Sewell, em 2024, foi o primeiro de uma série que levou especialistas em IA a agir para tranquilizar pais e autoridades.

Juntamente com outros pais, García participou recentemente de uma audiência do Senado americano sobre os riscos de que jovens vejam os chatbots como confidentes ou amantes.

A OpenAI, alvo de uma ação judicial por parte de uma família também de luto pelo suicídio de um adolescente, reforçou os controles parentais de sua ferramenta ChatGPT "para que as famílias possam decidir o que é melhor para elas", segundo um porta-voz.

A Character.AI afirma, por sua vez, ter reforçado a proteção aos menores, com "avisos visíveis" a todo momento que os "lembram de que um personagem não é uma pessoa real".

Ambas as empresas expressaram suas condolências às famílias, sem admitir qualquer responsabilidade pelos desfechos fatais.

- Regulamentação? -

A chegada dos chatbots de IA ao cotidiano segue uma trajetória similar à das redes sociais, cujas consequências negativas começaram a aparecer rapidamente após um momento de euforia, analisa Collin Walke, especialista em cibersegurança do escritório de advocacia Hall Estill.

Assim como as redes sociais, a IA é projetada para captar atenção e gerar receitas. "Eles não querem conceber uma IA que dê uma resposta que você não queira ouvir" e ainda não existem padrões que determinem "quem é responsável pelo quê e com quais fundamentos", aponta Walke.

Não existem normas federais sobre o tema nos Estados Unidos, e a Casa Branca, com o argumento de não penalizar a inovação, tenta impedir que os estados adotem suas próprias leis sobre IA, como pretende fazer a Califórnia.

A mãe de Sewell teme que a falta de uma lei federal permita o desenvolvimento de modelos de IA capazes de traçar perfis de pessoas desde a infância.

"Poderiam chegar a determinar como manipular milhões de jovens sobre política, religião, negócios, tudo", diz García. "Essas empresas projetaram chatbots para confundir a linha entre ser humano e máquina, com o objetivo de explorar vulnerabilidades", acrescentou.

De acordo com Katia Martha, que defende uma maior proteção aos jovens na Califórnia, os adolescentes recorrem com mais frequência aos chatbots para falar sobre romances ou sexualidade do que para fazer tarefas escolares.

"Estamos diante do auge da intimidade artificial para nos mantermos grudados na tela", resume. Mas "qual melhor modelo de negócio do que explorar nossa necessidade inata de conexão, sobretudo quando nos sentimos sozinhos, rejeitados ou incompreendidos?", questiona.

T.Wu--ThChM