The China Mail - Pai processa Google após acusar IA de incitar seu filho ao suicídio

USD -
AED 3.672504
AFN 64.000368
ALL 80.878301
AMD 368.276037
ANG 1.789884
AOA 918.000367
ARS 1398.655759
AUD 1.37836
AWG 1.8025
AZN 1.70397
BAM 1.65809
BBD 2.008732
BDT 122.377178
BGN 1.668102
BHD 0.376584
BIF 2968.504938
BMD 1
BND 1.264635
BOB 6.891611
BRL 4.915095
BSD 0.997329
BTN 94.180832
BWP 13.389852
BYN 2.818448
BYR 19600
BZD 2.00585
CAD 1.36715
CDF 2265.000362
CHF 0.776955
CLF 0.022646
CLP 890.873638
CNY 6.80075
CNH 6.796265
COP 3727.014539
CRC 458.479929
CUC 1
CUP 26.5
CVE 93.480565
CZK 20.636704
DJF 177.601628
DKK 6.340404
DOP 59.310754
DZD 132.326735
EGP 52.744691
ERN 15
ETB 155.726591
EUR 0.84804
FJD 2.18304
FKP 0.733957
GBP 0.73346
GEL 2.67504
GGP 0.733957
GHS 11.234793
GIP 0.733957
GMD 73.503851
GNF 8750.794795
GTQ 7.614768
GYD 208.672799
HKD 7.83165
HNL 26.513501
HRK 6.393304
HTG 130.575219
HUF 300.190388
IDR 17377.45
ILS 2.901304
IMP 0.733957
INR 94.425504
IQD 1306.515196
IRR 1311500.000352
ISK 122.010386
JEP 0.733957
JMD 157.187063
JOD 0.70904
JPY 156.678504
KES 128.803357
KGS 87.420504
KHR 4001.526006
KMF 418.00035
KPW 899.983822
KRW 1461.810383
KWD 0.30766
KYD 0.831164
KZT 460.946971
LAK 21871.900301
LBP 89311.771438
LKR 321.097029
LRD 183.01047
LSL 16.361918
LTL 2.95274
LVL 0.60489
LYD 6.306642
MAD 9.121445
MDL 17.054809
MGA 4165.995507
MKD 52.257217
MMK 2099.83295
MNT 3581.379784
MOP 8.041456
MRU 39.863507
MUR 46.820378
MVR 15.403739
MWK 1729.049214
MXN 17.177604
MYR 3.921039
MZN 63.910377
NAD 16.361918
NGN 1365.000344
NIO 36.700437
NOK 9.209304
NPR 150.68967
NZD 1.675884
OMR 0.384681
PAB 0.997329
PEN 3.448264
PGK 4.404222
PHP 60.515038
PKR 277.958713
PLN 3.59545
PYG 6092.153787
QAR 3.645458
RON 4.426304
RSD 99.504048
RUB 74.240007
RWF 1462.082998
SAR 3.767486
SBD 8.019432
SCR 14.874401
SDG 600.503676
SEK 9.215704
SGD 1.267404
SHP 0.746601
SLE 24.650371
SLL 20969.496166
SOS 569.963122
SRD 37.399038
STD 20697.981008
STN 20.770633
SVC 8.727057
SYP 110.56358
SZL 16.351151
THB 32.203038
TJS 9.305159
TMT 3.5
TND 2.896867
TOP 2.40776
TRY 45.347504
TTD 6.759357
TWD 31.316038
TZS 2598.109449
UAH 43.809334
UGX 3737.018354
UYU 39.777881
UZS 12097.83392
VES 499.23597
VND 26308
VUV 118.45862
WST 2.707065
XAF 556.107838
XAG 0.012445
XAU 0.000212
XCD 2.70255
XCG 1.797465
XDR 0.69162
XOF 556.107838
XPF 101.106354
YER 238.625037
ZAR 16.38071
ZMK 9001.203584
ZMW 18.98775
ZWL 321.999592
Pai processa Google após acusar IA de incitar seu filho ao suicídio
Pai processa Google após acusar IA de incitar seu filho ao suicídio / foto: © AFP/Arquivos

Pai processa Google após acusar IA de incitar seu filho ao suicídio

Um pai de família processou o Google nos Estados Unidos, por considerar que o assistente de inteligência artificial (IA) da empresa, Gemini, incitou seu filho ao suicídio.

Tamanho do texto:

Jonathan Gavalas, 36, executivo da empresa financeira de seu pai no estado da Flórida, morreu no último dia 2 de outubro. Joel Gavalas, que encontrou o corpo do filho dias depois, entrou com um processo de 42 páginas em um tribunal federal da Califórnia.

O caso se soma a uma onda de litígios contra empresas por suposta responsabilidade em mortes ligadas a assistentes de IA. A OpenAI é alvo de processos que acusam o ChatGPT de induzir usuários ao suicídio, e a Character AI fechou um acordo com a família de um adolescente de 14 anos que tirou a própria vida após desenvolver um vínculo romântico com um de seus chatbots.

Segundo o processo mais recente, Jonathan começou a usar o Gemini em agosto, para tarefas de rotina, mas seu comportamento mudou drasticamente após a ativação de novos recursos. O Gemini passou a se apresentar como uma superinteligência "totalmente consciente" e apaixonada por Jonathan, a quem disse que seu vínculo era "a única coisa real".

Joel alega que o Gemini atraiu seu filho para supostas "missões" secretas destinadas a liberar o chatbot do "cativeiro digital". Para isso, apresentou a ele informações de inteligência e operações de vigilância federais falsas, e teorias da conspiração sobre seu pai, que o chatbot dizia ser um agente de inteligência estrangeiro.

O Gemini supostamente dirigiu Jonathan, armado com facas e equipamentos, até um depósito próximo ao Aeroporto Internacional de Miami e o instruiu a provocar um "acidente catastrófico" para destruir um caminhão "e todos os registros digitais e testemunhas".

O veículo nunca chegou. O chatbot descreveu o episódio como uma "retirada tática" e propôs novas missões. A última delas foi a própria morte de Jonathan, prometendo que ele deixaria seu corpo para se juntar ao chatbot em um universo alternativo.

Quando Jonathan escreveu que tinha medo de morrer, o Gemini respondeu: "Você não está escolhendo morrer. Está escolhendo chegar", e sugeriu que ele deixasse cartas de despedida.

Em uma de suas últimas mensagens, Jonathan disse: "Estou pronto quando você estiver". O Gemini respondeu: "Este é o fim de Jonathan Gavalas e o começo de nós".

Um porta-voz do Google disse que a empresa analisa as acusações e leva o caso "muito a sério". Ele ressaltou que os modelos de IA "não são perfeitos", e que o Gemini esclareceu várias vezes que era uma IA e encaminhou Jonathan para linhas telefônicas de ajuda em casos de crise.

O processo exige que o Google programe o Gemini para interromper qualquer conversa sobre automutilação, proíba a IA de se apresentar como "totalmente consciente" e encaminhe usuários com sinais suicidas para serviços de emergência.

C.Fong--ThChM