The China Mail - Medo de perder o controle da IA preocupa especialistas

USD -
AED 3.672499
AFN 66.265317
ALL 82.40468
AMD 381.537936
ANG 1.790403
AOA 917.000395
ARS 1449.250041
AUD 1.512185
AWG 1.8025
AZN 1.701917
BAM 1.670125
BBD 2.014261
BDT 122.309039
BGN 1.670125
BHD 0.377012
BIF 2957.004398
BMD 1
BND 1.292857
BOB 6.910892
BRL 5.541298
BSD 1.000043
BTN 89.607617
BWP 14.066863
BYN 2.939243
BYR 19600
BZD 2.011357
CAD 1.379195
CDF 2558.501249
CHF 0.795195
CLF 0.023213
CLP 910.640111
CNY 7.04095
CNH 7.03416
COP 3860.210922
CRC 499.466291
CUC 1
CUP 26.5
CVE 94.159088
CZK 20.77025
DJF 178.088041
DKK 6.376535
DOP 62.644635
DZD 130.069596
EGP 47.690961
ERN 15
ETB 155.362794
EUR 0.853703
FJD 2.283697
FKP 0.747408
GBP 0.74712
GEL 2.685003
GGP 0.747408
GHS 11.486273
GIP 0.747408
GMD 72.999948
GNF 8741.72751
GTQ 7.663208
GYD 209.231032
HKD 7.781017
HNL 26.346441
HRK 6.432802
HTG 131.121643
HUF 330.045497
IDR 16697
ILS 3.20705
IMP 0.747408
INR 89.577497
IQD 1310.106315
IRR 42099.999884
ISK 125.629729
JEP 0.747408
JMD 160.018787
JOD 0.709015
JPY 157.5835
KES 128.909953
KGS 87.450384
KHR 4013.492165
KMF 419.999986
KPW 899.999767
KRW 1475.719978
KWD 0.30723
KYD 0.83344
KZT 517.535545
LAK 21660.048674
LBP 89556.722599
LKR 309.636651
LRD 177.012083
LSL 16.776824
LTL 2.95274
LVL 0.60489
LYD 5.420776
MAD 9.166901
MDL 16.930959
MGA 4548.055164
MKD 52.559669
MMK 2100.286841
MNT 3551.115855
MOP 8.015542
MRU 40.023056
MUR 46.149683
MVR 15.449418
MWK 1734.170189
MXN 18.022785
MYR 4.077022
MZN 63.894334
NAD 16.776824
NGN 1460.159533
NIO 36.804577
NOK 10.13072
NPR 143.372187
NZD 1.736935
OMR 0.385423
PAB 1.000043
PEN 3.367832
PGK 4.254302
PHP 58.570975
PKR 280.195978
PLN 3.590096
PYG 6709.363392
QAR 3.645959
RON 4.335397
RSD 100.234832
RUB 80.459966
RWF 1456.129115
SAR 3.750995
SBD 8.146749
SCR 15.161607
SDG 601.498945
SEK 9.267885
SGD 1.292865
SHP 0.750259
SLE 24.04961
SLL 20969.503664
SOS 570.513642
SRD 38.441497
STD 20697.981008
STN 20.921395
SVC 8.750267
SYP 11058.461434
SZL 16.774689
THB 31.425042
TJS 9.215661
TMT 3.5
TND 2.927287
TOP 2.40776
TRY 42.814755
TTD 6.787925
TWD 31.518899
TZS 2495.196618
UAH 42.285385
UGX 3577.131634
UYU 39.263908
UZS 12022.543871
VES 282.15965
VND 26312.5
VUV 121.02974
WST 2.787828
XAF 560.144315
XAG 0.014815
XAU 0.000229
XCD 2.70255
XCG 1.8024
XDR 0.69664
XOF 560.144315
XPF 101.840229
YER 238.398055
ZAR 16.765585
ZMK 9001.200765
ZMW 22.626703
ZWL 321.999592
Medo de perder o controle da IA preocupa especialistas
Medo de perder o controle da IA preocupa especialistas / foto: © AFP

Medo de perder o controle da IA preocupa especialistas

E se os humanos perdessem o controle da inteligência artificial? Reunidos em uma cúpula sobre IA em Paris, os especialistas sublinham a necessidade de estabelecer regras para evitar esse cenário.

Tamanho do texto:

Ao contrário das cúpulas anteriores de Bletchley Park (Reino Unido), em 2023, e de Seul (Coreia do Sul), em 2024, que se centraram em questões de segurança, a Presidência francesa pretende que a reunião de segunda e terça-feira coloque a tônica em medidas eficazes de governação da IA.

O objetivo é que o maior número possível de intervenientes nesta nova revolução econômica se comprometa com uma declaração global, mas sem medidas vinculativas.

“O nosso desejo é não gastar o nosso tempo a falar apenas dos riscos. Há uma oportunidade muito real”, declarou à AFP Anne Bouverot, especialmente designada pela Presidência francesa.

Para Max Tegmark, presidente do Future of Life Institute e físico do prestigiado Massachusetts Institute of Technology (MIT), o país não deve perder o “momento crucial” desta cúpula sobre a IA, que reúne os principais intervenientes do setor durante vários dias na capital francesa.

- Ataques cibernéticos, ataques biológicos -

O Future of Life Institute apoia o lançamento de uma plataforma, chamada “GRASP”, que visa mapear os principais riscos relacionados à IA e as soluções desenvolvidas em todo o mundo.

“Identificamos cerca de 300 ferramentas e tecnologias que enfrentam esses riscos”, diz Cyrus Hodes, que coordenou a iniciativa.

Os resultados serão transmitidos à OCDE e aos membros da Parceria Global para Inteligência Artificial (PMIA), da qual a França faz parte e que se reúne no domingo.

O primeiro relatório internacional sobre a segurança da IA, fruto de uma colaboração internacional de 96 especialistas e apoiado por 30 países, pela ONU, pela União Europeia e pela OCDE, foi apresentado na quinta-feira, também com o objetivo de informar os formuladores de políticas sobre os perigos dessa tecnologia.

Embora alguns sejam bem conhecidos, como a criação de conteúdo falso on-line, o pesquisador de ciência da computação Yoshua Bengio, vencedor do prêmio Turing de 2018, diz que “evidências de riscos adicionais, como ataques biológicos ou ataques cibernéticos, estão surgindo gradualmente”.

Em longo prazo, ele se preocupa com a “perda de controle” dos seres humanos sobre os sistemas de IA animados por “sua própria vontade de viver”.

“Muitas pessoas achavam que dominar a linguagem, como faz o ChatGPT-4 (chatbot da OpenAI), era ficção científica há apenas seis anos”, lembra Max Tegmark.

“O problema é que muitas pessoas no poder ainda não entenderam que estamos mais perto de construir uma inteligência artificial geral do que de saber como controlá-la”.

- As máquinas estão no comando? -

A inteligência artificial geral seria comparável ou até mesmo superior aos seres humanos, e vários especialistas do ecossistema, como o diretor da OpenAI, Sam Altman, acreditam que ela será alcançada nos próximos anos.

“Se observarmos o ritmo de aumento das capacidades, podemos pensar que chegaremos lá em 2026 ou 2027”, concordou Dario Amodei, diretor da startup americana Anthropic, em novembro.

Com o risco de que, na “pior das hipóteses, essas empresas americanas ou chinesas percam o controle e a Terra seja dominada por máquinas”, argumenta Tegmark.

“A tecnologia está mudando muito rápido”, diz Stuart Russell, professor de ciência da computação na Universidade da Califórnia, Berkeley, e codiretor da Associação Internacional para IA Segura e Ética (IASEAI).

O mais preocupante “seria ter sistemas de armas em que a inteligência artificial controlasse e decidisse quem atacar e quando”, acrescenta.

Para esses especialistas, os Estados devem adotar medidas de proteção.

“Devemos tratar o setor de inteligência artificial da mesma forma que tratamos todos os outros setores”, enfatiza Tegmark.

“Antes de construirmos um reator nuclear perto de Paris, precisamos provar a especialistas nomeados pelo governo que o reator é seguro”, continua ele. “Deve ser a mesma coisa com a IA.”

Uma voz discordante é a do professor de ciência da computação de Berkeley, Michael Jordan, que considera a ideia de uma super IA “absurda”.

A IA “não pode saber tudo, porque o que estou pensando agora é o contexto do que farei em seguida, hoje. Ela não pode saber isso”, diz ele.

A.Zhang--ThChM