The China Mail - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

USD -
AED 3.672501
AFN 62.506089
ALL 82.669181
AMD 376.230888
ANG 1.790083
AOA 917.000205
ARS 1397.419905
AUD 1.435039
AWG 1.80225
AZN 1.698168
BAM 1.684191
BBD 2.010067
BDT 122.460754
BGN 1.709309
BHD 0.377554
BIF 2964.056903
BMD 1
BND 1.276953
BOB 6.911428
BRL 5.232697
BSD 0.997972
BTN 93.511761
BWP 13.674625
BYN 2.954524
BYR 19600
BZD 2.007225
CAD 1.37798
CDF 2277.502199
CHF 0.790095
CLF 0.023245
CLP 917.859895
CNY 6.892698
CNH 6.89933
COP 3705.32
CRC 464.994123
CUC 1
CUP 26.5
CVE 94.953305
CZK 21.086056
DJF 177.721517
DKK 6.448165
DOP 59.786189
DZD 132.455879
EGP 52.712803
ERN 15
ETB 154.279108
EUR 0.86298
FJD 2.24025
FKP 0.747226
GBP 0.747695
GEL 2.705024
GGP 0.747226
GHS 10.903627
GIP 0.747226
GMD 73.494926
GNF 8747.24442
GTQ 7.642594
GYD 208.863457
HKD 7.826905
HNL 26.426305
HRK 6.498703
HTG 130.855608
HUF 336.068985
IDR 16911
ILS 3.12835
IMP 0.747226
INR 93.932503
IQD 1307.361768
IRR 1313025.000474
ISK 124.089799
JEP 0.747226
JMD 157.486621
JOD 0.70901
JPY 159.030989
KES 129.699735
KGS 87.448502
KHR 4005.063378
KMF 425.999908
KPW 900.014346
KRW 1499.749794
KWD 0.30638
KYD 0.831676
KZT 481.782876
LAK 21486.820464
LBP 89375.339068
LKR 313.699656
LRD 183.13807
LSL 17.013787
LTL 2.95274
LVL 0.60489
LYD 6.362944
MAD 9.303745
MDL 17.455028
MGA 4166.899883
MKD 53.155845
MMK 2100.167588
MNT 3569.46809
MOP 8.04266
MRU 39.802636
MUR 46.459912
MVR 15.460083
MWK 1730.481919
MXN 17.755035
MYR 3.95603
MZN 63.909826
NAD 17.013787
NGN 1375.60972
NIO 36.726715
NOK 9.71795
NPR 149.61272
NZD 1.72145
OMR 0.384501
PAB 0.997963
PEN 3.451997
PGK 4.309899
PHP 60.082988
PKR 278.8205
PLN 3.68605
PYG 6511.920293
QAR 3.639338
RON 4.396498
RSD 101.327022
RUB 80.505242
RWF 1459.995436
SAR 3.753487
SBD 8.041975
SCR 14.903229
SDG 600.999956
SEK 9.33675
SGD 1.279698
SHP 0.750259
SLE 24.60458
SLL 20969.510825
SOS 570.306681
SRD 37.340034
STD 20697.981008
STN 21.09741
SVC 8.732681
SYP 110.948257
SZL 17.012336
THB 32.747502
TJS 9.575933
TMT 3.51
TND 2.927264
TOP 2.40776
TRY 44.35175
TTD 6.780508
TWD 31.967501
TZS 2567.558971
UAH 43.82926
UGX 3737.239351
UYU 40.671515
UZS 12175.463071
VES 458.87816
VND 26349.5
VUV 119.508072
WST 2.738201
XAF 564.849586
XAG 0.013713
XAU 0.00022
XCD 2.70255
XCG 1.798634
XDR 0.702492
XOF 564.869043
XPF 102.697908
YER 238.598421
ZAR 16.971984
ZMK 9001.199646
ZMW 18.887324
ZWL 321.999592
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: © AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

D.Peng--ThChM