The China Mail - Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

USD -
AED 3.6725
AFN 63.499066
ALL 81.115938
AMD 369.094488
ANG 1.789884
AOA 917.999902
ARS 1392.713504
AUD 1.380567
AWG 1.8
AZN 1.702577
BAM 1.65949
BBD 2.014662
BDT 122.963617
BGN 1.668102
BHD 0.378004
BIF 2979.907684
BMD 1
BND 1.266376
BOB 6.911825
BRL 4.908023
BSD 1.000288
BTN 94.642615
BWP 13.384978
BYN 2.824803
BYR 19600
BZD 2.011777
CAD 1.360345
CDF 2314.999756
CHF 0.77917
CLF 0.022876
CLP 900.230319
CNY 6.83035
CNH 6.81223
COP 3716.17
CRC 456.404426
CUC 1
CUP 26.5
CVE 93.559486
CZK 20.69095
DJF 178.124152
DKK 6.352983
DOP 59.588547
DZD 132.236548
EGP 52.611503
ERN 15
ETB 156.186957
EUR 0.85018
FJD 2.1835
FKP 0.736622
GBP 0.734295
GEL 2.689577
GGP 0.736622
GHS 11.253564
GIP 0.736622
GMD 73.000214
GNF 8779.35786
GTQ 7.635589
GYD 209.238393
HKD 7.835597
HNL 26.592734
HRK 6.402502
HTG 130.892895
HUF 305.347502
IDR 17332
ILS 2.905955
IMP 0.736622
INR 94.484298
IQD 1310.201485
IRR 1315999.999758
ISK 122.079883
JEP 0.736622
JMD 157.609595
JOD 0.708982
JPY 156.208501
KES 129.249915
KGS 87.420499
KHR 4009.129786
KMF 420.500226
KPW 900.003495
KRW 1447.820589
KWD 0.30794
KYD 0.83356
KZT 463.200855
LAK 21973.425197
LBP 89575.838311
LKR 320.221287
LRD 183.554507
LSL 16.305407
LTL 2.95274
LVL 0.60489
LYD 6.331536
MAD 9.184383
MDL 17.194712
MGA 4167.797991
MKD 52.29798
MMK 2099.549246
MNT 3579.649525
MOP 8.073157
MRU 39.923296
MUR 46.779638
MVR 15.455006
MWK 1734.489547
MXN 17.26055
MYR 3.925008
MZN 63.893159
NAD 16.305476
NGN 1361.139629
NIO 36.80763
NOK 9.265245
NPR 151.428014
NZD 1.67626
OMR 0.384478
PAB 1.000288
PEN 3.489513
PGK 4.349394
PHP 60.740503
PKR 278.705369
PLN 3.598665
PYG 6121.903517
QAR 3.646584
RON 4.471298
RSD 99.782804
RUB 74.849053
RWF 1462.717214
SAR 3.751823
SBD 8.032258
SCR 13.786507
SDG 600.499188
SEK 9.210465
SGD 1.268255
SHP 0.746601
SLE 24.624981
SLL 20969.496166
SOS 571.629786
SRD 37.476972
STD 20697.981008
STN 20.78808
SVC 8.752206
SYP 111.203697
SZL 16.3004
THB 32.200178
TJS 9.347679
TMT 3.505
TND 2.906356
TOP 2.40776
TRY 45.2247
TTD 6.778611
TWD 31.438007
TZS 2595.933022
UAH 43.857246
UGX 3761.369807
UYU 40.193288
UZS 12078.298941
VES 493.49396
VND 26325
VUV 118.250426
WST 2.722585
XAF 556.574973
XAG 0.01305
XAU 0.000214
XCD 2.70255
XCG 1.802793
XDR 0.696429
XOF 556.577334
XPF 101.191284
YER 238.605413
ZAR 16.406401
ZMK 9001.197853
ZMW 18.930729
ZWL 321.999592
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA
Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA / foto: © AFP

Mãe denuncia 'manipulação' de chatbot de IA após suicídio de seu filho nos EUA

As últimas conversas de um adolescente americano de 14 anos antes de tirar a própria vida foram um diálogo romântico fictício com um dos principais chatbots do Vale do Silício, que o chamava de "doce rei" e o pedia para "voltar para casa".

Tamanho do texto:

Megan García contou à AFP como seu filho Sewell se apaixonou por um agente conversacional, ou chatbot, inspirado na série de televisão "Game of Thrones" e disponível no Character.AI, uma plataforma popular entre os jovens que permite interagir com uma emulação de seus personagens preferidos.

Após ler centenas de conversas que seu filho teve durante quase um ano com este chatbot que imitava a personagem Daenerys Targaryen, García se convenceu de que esta ferramenta da inteligência artificial (IA) teve um papel fundamental em sua morte.

"Vá para casa", pediu uma vez o avatar de Daenerys em resposta aos pensamentos suicidas de Sewell. "E se eu dissesse que já posso ir para casa?", perguntou o adolescente. "Por favor, faça isso, meu doce rei", respondeu o chatbot.

Segundos depois, o jovem atirou em si mesmo com a arma do pai, conforme consta na ação judicial que Megan García apresentou contra a Character.AI.

"Quando leio estas conversas, vejo manipulação, 'love bombing' (bombardeio amoroso) e outras táticas imperceptíveis para um adolescente de 14 anos", declarou a mãe de Sewell à AFP. "Ele realmente acreditava estar apaixonado e que estaria com ela após sua morte", acrescentou.

- Orientação parental -

O suicídio de Sewell, em 2024, foi o primeiro de uma série que levou especialistas em IA a agir para tranquilizar pais e autoridades.

Juntamente com outros pais, García participou recentemente de uma audiência do Senado americano sobre os riscos de que jovens vejam os chatbots como confidentes ou amantes.

A OpenAI, alvo de uma ação judicial por parte de uma família também de luto pelo suicídio de um adolescente, reforçou os controles parentais de sua ferramenta ChatGPT "para que as famílias possam decidir o que é melhor para elas", segundo um porta-voz.

A Character.AI afirma, por sua vez, ter reforçado a proteção aos menores, com "avisos visíveis" a todo momento que os "lembram de que um personagem não é uma pessoa real".

Ambas as empresas expressaram suas condolências às famílias, sem admitir qualquer responsabilidade pelos desfechos fatais.

- Regulamentação? -

A chegada dos chatbots de IA ao cotidiano segue uma trajetória similar à das redes sociais, cujas consequências negativas começaram a aparecer rapidamente após um momento de euforia, analisa Collin Walke, especialista em cibersegurança do escritório de advocacia Hall Estill.

Assim como as redes sociais, a IA é projetada para captar atenção e gerar receitas. "Eles não querem conceber uma IA que dê uma resposta que você não queira ouvir" e ainda não existem padrões que determinem "quem é responsável pelo quê e com quais fundamentos", aponta Walke.

Não existem normas federais sobre o tema nos Estados Unidos, e a Casa Branca, com o argumento de não penalizar a inovação, tenta impedir que os estados adotem suas próprias leis sobre IA, como pretende fazer a Califórnia.

A mãe de Sewell teme que a falta de uma lei federal permita o desenvolvimento de modelos de IA capazes de traçar perfis de pessoas desde a infância.

"Poderiam chegar a determinar como manipular milhões de jovens sobre política, religião, negócios, tudo", diz García. "Essas empresas projetaram chatbots para confundir a linha entre ser humano e máquina, com o objetivo de explorar vulnerabilidades", acrescentou.

De acordo com Katia Martha, que defende uma maior proteção aos jovens na Califórnia, os adolescentes recorrem com mais frequência aos chatbots para falar sobre romances ou sexualidade do que para fazer tarefas escolares.

"Estamos diante do auge da intimidade artificial para nos mantermos grudados na tela", resume. Mas "qual melhor modelo de negócio do que explorar nossa necessidade inata de conexão, sobretudo quando nos sentimos sozinhos, rejeitados ou incompreendidos?", questiona.

T.Wu--ThChM