The China Mail - Expertos preocupados porque la inteligencia artificial ya engaña a humanos

USD -
AED 3.672504
AFN 66.344071
ALL 83.58702
AMD 382.869053
ANG 1.789982
AOA 917.000367
ARS 1405.057166
AUD 1.540832
AWG 1.805
AZN 1.70397
BAM 1.691481
BBD 2.013336
BDT 122.007014
BGN 1.69079
BHD 0.374011
BIF 2943.839757
BMD 1
BND 1.3018
BOB 6.91701
BRL 5.332404
BSD 0.999615
BTN 88.59887
BWP 13.420625
BYN 3.406804
BYR 19600
BZD 2.010326
CAD 1.40485
CDF 2150.000362
CHF 0.80538
CLF 0.024066
CLP 944.120396
CNY 7.11935
CNH 7.12515
COP 3780
CRC 501.883251
CUC 1
CUP 26.5
CVE 95.363087
CZK 21.009504
DJF 177.720393
DKK 6.457204
DOP 64.223754
DZD 129.411663
EGP 46.950698
ERN 15
ETB 154.306137
EUR 0.86435
FJD 2.28425
FKP 0.760233
GBP 0.759936
GEL 2.70504
GGP 0.760233
GHS 10.930743
GIP 0.760233
GMD 73.000355
GNF 8677.076622
GTQ 7.659909
GYD 209.133877
HKD 7.77703
HNL 26.282902
HRK 6.514104
HTG 133.048509
HUF 332.660388
IDR 16685.5
ILS 3.24758
IMP 0.760233
INR 88.639504
IQD 1309.474904
IRR 42100.000352
ISK 126.580386
JEP 0.760233
JMD 160.439
JOD 0.70904
JPY 153.43504
KES 129.203801
KGS 87.450384
KHR 4023.264362
KMF 421.00035
KPW 900.018268
KRW 1455.990383
KWD 0.306904
KYD 0.83302
KZT 524.767675
LAK 21703.220673
LBP 89512.834262
LKR 304.684561
LRD 182.526573
LSL 17.315523
LTL 2.95274
LVL 0.60489
LYD 5.458091
MAD 9.265955
MDL 17.042585
MGA 4492.856402
MKD 53.206947
MMK 2099.87471
MNT 3580.787673
MOP 8.007472
MRU 39.595594
MUR 45.910378
MVR 15.405039
MWK 1733.369658
MXN 18.44605
MYR 4.176039
MZN 63.950377
NAD 17.315148
NGN 1436.000344
NIO 36.782862
NOK 10.153804
NPR 141.758018
NZD 1.777162
OMR 0.38142
PAB 0.999671
PEN 3.37342
PGK 4.220486
PHP 58.805504
PKR 282.656184
PLN 3.665615
PYG 7072.77311
QAR 3.643196
RON 4.398804
RSD 102.170373
RUB 80.869377
RWF 1452.42265
SAR 3.750713
SBD 8.230592
SCR 13.652393
SDG 600.503676
SEK 9.528504
SGD 1.301038
SHP 0.750259
SLE 23.203667
SLL 20969.499529
SOS 571.228422
SRD 38.599038
STD 20697.981008
STN 21.189281
SVC 8.746265
SYP 11056.858374
SZL 17.321588
THB 32.395038
TJS 9.226139
TMT 3.51
TND 2.954772
TOP 2.342104
TRY 42.211304
TTD 6.77604
TWD 30.981804
TZS 2455.000335
UAH 41.915651
UGX 3498.408635
UYU 39.809213
UZS 12055.19496
VES 228.194038
VND 26310
VUV 122.303025
WST 2.820887
XAF 567.301896
XAG 0.020684
XAU 0.00025
XCD 2.70255
XCG 1.801521
XDR 0.707015
XOF 567.306803
XPF 103.14423
YER 238.503589
ZAR 17.29905
ZMK 9001.203584
ZMW 22.615629
ZWL 321.999592
Expertos preocupados porque la inteligencia artificial ya engaña a humanos
Expertos preocupados porque la inteligencia artificial ya engaña a humanos / Foto: © AFP/Archivos

Expertos preocupados porque la inteligencia artificial ya engaña a humanos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

A.Zhang--ThChM