The China Mail - Un equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

USD -
AED 3.67231
AFN 70.987936
ALL 85.016974
AMD 385.680137
ANG 1.789623
AOA 916.999835
ARS 1164.474697
AUD 1.546456
AWG 1.8
AZN 1.699188
BAM 1.698082
BBD 2.020195
BDT 122.368181
BGN 1.70048
BHD 0.377259
BIF 2979.674761
BMD 1
BND 1.285441
BOB 6.913707
BRL 5.505499
BSD 1.000547
BTN 86.619724
BWP 13.485624
BYN 3.27451
BYR 19600
BZD 2.009863
CAD 1.373115
CDF 2876.999884
CHF 0.817265
CLF 0.024524
CLP 941.079746
CNY 7.1885
CNH 7.17777
COP 4085.34
CRC 505.135574
CUC 1
CUP 26.5
CVE 95.73526
CZK 21.544983
DJF 178.177935
DKK 6.47491
DOP 59.334763
DZD 130.530967
EGP 50.675196
ERN 15
ETB 137.590404
EUR 0.86811
FJD 2.25795
FKP 0.74459
GBP 0.742035
GEL 2.720392
GGP 0.74459
GHS 10.305877
GIP 0.74459
GMD 71.502618
GNF 8669.265565
GTQ 7.69007
GYD 209.329988
HKD 7.849855
HNL 26.131953
HRK 6.541993
HTG 131.322472
HUF 349.644007
IDR 16423.95
ILS 3.48904
IMP 0.74459
INR 86.584501
IQD 1310.76517
IRR 42124.999562
ISK 124.320181
JEP 0.74459
JMD 159.507178
JOD 0.709003
JPY 145.854503
KES 129.198093
KGS 87.450031
KHR 4010.436338
KMF 427.516915
KPW 899.960114
KRW 1371.360038
KWD 0.30633
KYD 0.833865
KZT 522.867475
LAK 21586.775137
LBP 89650.01693
LKR 300.674194
LRD 200.11374
LSL 18.065631
LTL 2.95274
LVL 0.60489
LYD 5.454214
MAD 9.13257
MDL 17.204824
MGA 4471.378834
MKD 53.48149
MMK 2099.322478
MNT 3583.633328
MOP 8.090159
MRU 39.552158
MUR 45.620385
MVR 15.404967
MWK 1734.981811
MXN 19.144697
MYR 4.252497
MZN 63.959571
NAD 18.065239
NGN 1551.120297
NIO 36.821588
NOK 10.109845
NPR 138.591906
NZD 1.67343
OMR 0.384503
PAB 1.000547
PEN 3.592992
PGK 4.183254
PHP 57.253963
PKR 283.908246
PLN 3.703935
PYG 7985.969421
QAR 3.649253
RON 4.366967
RSD 101.762005
RUB 78.499998
RWF 1444.863619
SAR 3.752122
SBD 8.340429
SCR 15.02842
SDG 600.505074
SEK 9.67484
SGD 1.28624
SHP 0.785843
SLE 22.450274
SLL 20969.503664
SOS 571.815553
SRD 38.850083
STD 20697.981008
SVC 8.75522
SYP 13001.808028
SZL 18.062158
THB 32.778952
TJS 9.880532
TMT 3.5
TND 2.961876
TOP 2.342099
TRY 39.677796
TTD 6.799969
TWD 29.552502
TZS 2643.791963
UAH 41.936036
UGX 3606.62285
UYU 40.910946
UZS 12565.876868
VES 102.556699
VND 26128.5
VUV 120.06379
WST 2.751014
XAF 569.533187
XAG 0.027809
XAU 0.000297
XCD 2.70255
XDR 0.709327
XOF 569.520824
XPF 103.544979
YER 242.697497
ZAR 17.9953
ZMK 9001.201996
ZMW 23.1383
ZWL 321.999592
Un equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Un equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: © AFP

Un equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

Y.Su--ThChM