The China Mail - En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

USD -
AED 3.672498
AFN 66.489639
ALL 83.872087
AMD 382.479961
ANG 1.789982
AOA 916.999985
ARS 1450.743702
AUD 1.54464
AWG 1.8025
AZN 1.699936
BAM 1.69722
BBD 2.01352
BDT 122.007836
BGN 1.695365
BHD 0.376995
BIF 2949.338748
BMD 1
BND 1.304378
BOB 6.907594
BRL 5.359498
BSD 0.999679
BTN 88.558647
BWP 13.450775
BYN 3.407125
BYR 19600
BZD 2.010578
CAD 1.412195
CDF 2220.999879
CHF 0.806765
CLF 0.02406
CLP 943.870277
CNY 7.12675
CNH 7.121955
COP 3810.2
CRC 502.442792
CUC 1
CUP 26.5
CVE 95.686244
CZK 21.085038
DJF 177.719807
DKK 6.46671
DOP 64.320178
DZD 130.472159
EGP 47.297403
ERN 15
ETB 153.49263
EUR 0.86615
FJD 2.28525
FKP 0.766404
GBP 0.761505
GEL 2.71497
GGP 0.766404
GHS 10.92632
GIP 0.766404
GMD 73.509134
GNF 8677.881382
GTQ 7.6608
GYD 209.15339
HKD 7.77536
HNL 26.286056
HRK 6.525605
HTG 130.827172
HUF 334.42202
IDR 16704
ILS 3.272635
IMP 0.766404
INR 88.66155
IQD 1309.660176
IRR 42112.501708
ISK 126.640364
JEP 0.766404
JMD 160.35857
JOD 0.709002
JPY 152.931497
KES 129.149764
KGS 87.450218
KHR 4012.669762
KMF 427.999978
KPW 900.033283
KRW 1447.940003
KWD 0.30693
KYD 0.833167
KZT 526.13127
LAK 21717.265947
LBP 89523.367365
LKR 304.861328
LRD 182.946302
LSL 17.373217
LTL 2.95274
LVL 0.60489
LYD 5.466197
MAD 9.311066
MDL 17.114592
MGA 4508.159378
MKD 53.394772
MMK 2099.044592
MNT 3585.031206
MOP 8.005051
MRU 39.997917
MUR 45.999865
MVR 15.404993
MWK 1733.486063
MXN 18.621425
MYR 4.183006
MZN 63.960023
NAD 17.373217
NGN 1438.210482
NIO 36.78522
NOK 10.215903
NPR 141.693568
NZD 1.77559
OMR 0.384504
PAB 0.999779
PEN 3.375927
PGK 4.279045
PHP 58.9145
PKR 282.679805
PLN 3.68211
PYG 7081.988268
QAR 3.643566
RON 4.406497
RSD 101.52698
RUB 81.499636
RWF 1452.596867
SAR 3.750504
SBD 8.223823
SCR 14.35585
SDG 600.503157
SEK 9.57037
SGD 1.304195
SHP 0.750259
SLE 23.197576
SLL 20969.499529
SOS 571.349231
SRD 38.503505
STD 20697.981008
STN 21.260533
SVC 8.747304
SYP 11056.895466
SZL 17.359159
THB 32.393501
TJS 9.227278
TMT 3.5
TND 2.959939
TOP 2.342104
TRY 42.112499
TTD 6.773954
TWD 30.962802
TZS 2459.807029
UAH 42.066455
UGX 3491.096532
UYU 39.813947
UZS 11966.746503
VES 227.27225
VND 26315
VUV 122.169446
WST 2.82328
XAF 569.234174
XAG 0.020817
XAU 0.000251
XCD 2.70255
XCG 1.801686
XDR 0.70875
XOF 569.231704
XPF 103.489719
YER 238.495377
ZAR 17.383798
ZMK 9001.199567
ZMW 22.61803
ZWL 321.999592
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo
En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo / Foto: © AFP

En EEUU una madre denuncia la "manipulación" de un chatbot de IA tras suicidio de su hijo

Las últimas conversaciones que mantuvo un adolescente estadounidense de 14 años antes de suicidarse consistieron en un diálogo romántico ficticio con uno de los chatbots más destacados de Silicon Valley, que lo llamaba "dulce rey" y le instaba a "volver a casa".

Tamaño del texto:

Megan García contó a la AFP cómo su hijo Sewell se enamoró de un agente conversacional, o chatbot, inspirado en la serie de televisión "Juego de tronos" y disponible en Character.AI, una plataforma popular entre los jóvenes que les permite interactuar con una emulación de sus personajes favoritos.

Tras leer cientos de las conversaciones que su hijo mantuvo durante casi un año con el chatbot que imitaba a la jinete de dragones Daenerys Targaryen, García se convenció de que esta herramienta de inteligencia artificial (IA) jugó un papel fundamental en su muerte.

"Vete a casa", le instó una vez el avatar de Daenerys en respuesta a los pensamientos suicidas de Sewell.

"¿Y si te dijera que ya puedo irme a casa?", preguntó el adolescente. "Por favor, hazlo, mi dulce rey", respondió el chatbot.

Segundos después, Sewell se disparó con el arma de su padre, según consta en la demanda que Megan Garcia presentó contra Character.AI.

"Cuando leo estas conversaciones, veo manipulación, 'love bombing' (bombardeo amoroso) y otras tácticas imperceptibles para un adolescente de 14 años", declaró la madre del joven a la AFP. "Él realmente creía estar enamorado y que estaría con ella después de su muerte".

- Orientación parental -

El suicidio de Sewell, en 2024, fue el primero de una serie que llevó a expertos en IA a actuar para tranquilizar a padres y autoridades.

Megan García, junto con otros padres, participó recientemente en una audiencia del Senado de Estados Unidos sobre los riesgos de que los niños vean a los chatbots como confidentes o amantes.

OpenAI, objeto de una demanda por parte de una familia también en duelo por el suicidio de un adolescente, ha reforzado los controles parentales de su herramienta ChatGPT "para que las familias puedan decidir qué es lo mejor para ellas", según un portavoz.

Por su parte, Character.AI afirma haber reforzado la protección de los menores, con "advertencias visibles" en todo momento que les "recuerdan que un personaje no es una persona real".

Ambas compañías expresaron sus condolencias a las familias, sin admitir ninguna responsabilidad en los desenlaces fatales.

- ¿Regulación? -

La llegada de los chatbots de IA a nuestras vidas sigue una trayectoria similar a la de las redes sociales, cuyas consecuencias más negativas comenzaron a aparecer rápidamente tras un momento de euforia, dijo Collin Walke, experto en ciberseguridad del bufete Hall Estill.

Al igual que las redes sociales, la IA está diseñada para captar la atención y generar ingresos.

"No quieren concebir una IA que dé una respuesta que no quieras oír", y aún no existen estándares que determinen "quién es responsable de qué y con qué fundamentos", apunta Walke.

En Estados Unidos no existen normas federales al respecto, y la Casa Blanca, con el argumento de no penalizar la innovación, intenta impedir que los estados adopten sus propias leyes sobre la IA, como pretende hacer California.

La madre de Sewell, por su parte, teme que la carencia de una ley nacional permita el desarrollo de modelos de IA capaces de perfilar a personas desde su infancia.

"Podrían llegar a determinar cómo manipular a millones de niños sobre política, religión, negocios, todo", piensa Megan Garcia. "Estas empresas han diseñado chatbots para difuminar la línea entre ser humano y máquina con el fin de explotar vulnerabilidades".

Según Katia Martha, que milita por una mayor protección a los jóvenes en California, los adolescentes recurren con más frecuencia a los chatbots para hablar de romances o sexualidad que para las tareas escolares.

"Estamos ante el auge de la intimidad artificial para mantenernos pegados a la pantalla", resume. Pero, "¿qué mejor modelo de negocio que explotar nuestra necesidad innata de conexión, sobre todo cuando nos sentimos solos, rechazados o incomprendidos?".

O.Tse--ThChM