The China Mail - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

USD -
AED 3.672504
AFN 65.503991
ALL 81.893517
AMD 377.703986
ANG 1.79008
AOA 917.000367
ARS 1431.463704
AUD 1.424075
AWG 1.8
AZN 1.70397
BAM 1.658906
BBD 2.014216
BDT 122.30167
BGN 1.67937
BHD 0.377004
BIF 2963.603824
BMD 1
BND 1.273484
BOB 6.910269
BRL 5.23885
BSD 1.000025
BTN 90.583306
BWP 13.239523
BYN 2.873016
BYR 19600
BZD 2.011247
CAD 1.36432
CDF 2230.000362
CHF 0.775404
CLF 0.021785
CLP 860.180396
CNY 6.93805
CNH 6.93014
COP 3691.11
CRC 495.76963
CUC 1
CUP 26.5
CVE 93.526553
CZK 20.49104
DJF 177.720393
DKK 6.318604
DOP 63.114413
DZD 129.915817
EGP 46.860804
ERN 15
ETB 155.46494
EUR 0.84612
FJD 2.209504
FKP 0.738005
GBP 0.734505
GEL 2.69504
GGP 0.738005
GHS 10.990102
GIP 0.738005
GMD 73.000355
GNF 8778.001137
GTQ 7.670255
GYD 209.225001
HKD 7.81355
HNL 26.416279
HRK 6.375104
HTG 131.004182
HUF 319.673504
IDR 16847.65
ILS 3.110675
IMP 0.738005
INR 90.60355
IQD 1310.041816
IRR 42125.000158
ISK 122.690386
JEP 0.738005
JMD 156.517978
JOD 0.70904
JPY 157.06304
KES 129.004623
KGS 87.450384
KHR 4035.7261
KMF 419.00035
KPW 900.002243
KRW 1462.730383
KWD 0.30717
KYD 0.833355
KZT 494.785725
LAK 21489.944613
LBP 89557.410282
LKR 309.387392
LRD 188.003087
LSL 16.133574
LTL 2.95274
LVL 0.60489
LYD 6.332646
MAD 9.180641
MDL 17.050476
MGA 4439.468349
MKD 52.169828
MMK 2100.00747
MNT 3580.70414
MOP 8.047618
MRU 39.542143
MUR 46.060378
MVR 15.450378
MWK 1734.055998
MXN 17.260975
MYR 3.947504
MZN 63.750377
NAD 16.133574
NGN 1367.390377
NIO 36.803155
NOK 9.658735
NPR 144.932675
NZD 1.659792
OMR 0.384466
PAB 1.000025
PEN 3.364787
PGK 4.288489
PHP 58.458038
PKR 279.633919
PLN 3.568365
PYG 6607.462446
QAR 3.645108
RON 4.308404
RSD 99.305038
RUB 77.002259
RWF 1459.579124
SAR 3.750159
SBD 8.058149
SCR 13.731545
SDG 601.503676
SEK 9.004245
SGD 1.271104
SHP 0.750259
SLE 24.450371
SLL 20969.499267
SOS 570.497977
SRD 37.818038
STD 20697.981008
STN 20.780851
SVC 8.750011
SYP 11059.574895
SZL 16.130113
THB 31.539504
TJS 9.370298
TMT 3.505
TND 2.900328
TOP 2.40776
TRY 43.592904
TTD 6.771984
TWD 31.613038
TZS 2575.000335
UAH 42.955257
UGX 3558.190624
UYU 38.652875
UZS 12280.366935
VES 377.985125
VND 25950
VUV 119.988021
WST 2.726314
XAF 556.381418
XAG 0.012857
XAU 0.000201
XCD 2.70255
XCG 1.802328
XDR 0.692248
XOF 556.381418
XPF 101.156094
YER 238.403589
ZAR 16.024104
ZMK 9001.203584
ZMW 18.62558
ZWL 321.999592
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: © AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

D.Peng--ThChM