The China Mail - Medo de perder o controle da IA preocupa especialistas

USD -
AED 3.672501
AFN 64.498808
ALL 81.039781
AMD 377.510312
ANG 1.79008
AOA 916.999994
ARS 1404.499139
AUD 1.404494
AWG 1.8
AZN 1.687314
BAM 1.642722
BBD 2.014547
BDT 122.351617
BGN 1.67937
BHD 0.377025
BIF 2955
BMD 1
BND 1.262741
BOB 6.911728
BRL 5.200898
BSD 1.000176
BTN 90.647035
BWP 13.104482
BYN 2.868926
BYR 19600
BZD 2.011608
CAD 1.35844
CDF 2225.000269
CHF 0.771425
CLF 0.021644
CLP 854.639905
CNY 6.91325
CNH 6.90663
COP 3671.28
CRC 494.712705
CUC 1
CUP 26.5
CVE 92.897402
CZK 20.43085
DJF 177.71998
DKK 6.2955
DOP 62.625003
DZD 129.582328
EGP 46.776799
ERN 15
ETB 155.050186
EUR 0.84264
FJD 2.18635
FKP 0.731875
GBP 0.73435
GEL 2.69028
GGP 0.731875
GHS 11.005005
GIP 0.731875
GMD 73.501046
GNF 8779.999882
GTQ 7.671019
GYD 209.257595
HKD 7.81621
HNL 26.505002
HRK 6.344696
HTG 131.086819
HUF 319.663499
IDR 16800.45
ILS 3.077095
IMP 0.731875
INR 90.73605
IQD 1310.5
IRR 42125.000158
ISK 122.359394
JEP 0.731875
JMD 156.494496
JOD 0.709003
JPY 153.421964
KES 128.999894
KGS 87.450398
KHR 4029.999687
KMF 414.999797
KPW 899.999067
KRW 1449.960032
KWD 0.30697
KYD 0.83354
KZT 493.505294
LAK 21445.000286
LBP 89733.661066
LKR 309.394121
LRD 186.550374
LSL 15.860192
LTL 2.95274
LVL 0.60489
LYD 6.288836
MAD 9.13875
MDL 16.898415
MGA 4430.000238
MKD 51.915295
MMK 2099.913606
MNT 3568.190929
MOP 8.053234
MRU 39.905058
MUR 45.679983
MVR 15.4599
MWK 1736.505582
MXN 17.206096
MYR 3.915502
MZN 63.8841
NAD 15.960196
NGN 1351.579862
NIO 36.714983
NOK 9.49152
NPR 145.034815
NZD 1.654135
OMR 0.384495
PAB 1.000181
PEN 3.354986
PGK 4.183501
PHP 58.284977
PKR 279.587483
PLN 3.552305
PYG 6605.156289
QAR 3.64125
RON 4.289598
RSD 98.889046
RUB 77.10069
RWF 1452.5
SAR 3.750395
SBD 8.048395
SCR 13.767722
SDG 601.502932
SEK 8.901904
SGD 1.262605
SHP 0.750259
SLE 24.249903
SLL 20969.499267
SOS 571.510487
SRD 37.77701
STD 20697.981008
STN 20.95
SVC 8.752
SYP 11059.574895
SZL 15.85973
THB 31.110186
TJS 9.391982
TMT 3.5
TND 2.83525
TOP 2.40776
TRY 43.637199
TTD 6.783192
TWD 31.350903
TZS 2590.154015
UAH 43.034895
UGX 3536.076803
UYU 38.350895
UZS 12300.000058
VES 388.253525
VND 26000
VUV 119.366255
WST 2.707053
XAF 550.953523
XAG 0.012153
XAU 0.000198
XCD 2.70255
XCG 1.802643
XDR 0.685659
XOF 549.506089
XPF 100.749968
YER 238.406014
ZAR 15.880545
ZMK 9001.202368
ZMW 19.029301
ZWL 321.999592
Medo de perder o controle da IA preocupa especialistas
Medo de perder o controle da IA preocupa especialistas / foto: © AFP

Medo de perder o controle da IA preocupa especialistas

E se os humanos perdessem o controle da inteligência artificial? Reunidos em uma cúpula sobre IA em Paris, os especialistas sublinham a necessidade de estabelecer regras para evitar esse cenário.

Tamanho do texto:

Ao contrário das cúpulas anteriores de Bletchley Park (Reino Unido), em 2023, e de Seul (Coreia do Sul), em 2024, que se centraram em questões de segurança, a Presidência francesa pretende que a reunião de segunda e terça-feira coloque a tônica em medidas eficazes de governação da IA.

O objetivo é que o maior número possível de intervenientes nesta nova revolução econômica se comprometa com uma declaração global, mas sem medidas vinculativas.

“O nosso desejo é não gastar o nosso tempo a falar apenas dos riscos. Há uma oportunidade muito real”, declarou à AFP Anne Bouverot, especialmente designada pela Presidência francesa.

Para Max Tegmark, presidente do Future of Life Institute e físico do prestigiado Massachusetts Institute of Technology (MIT), o país não deve perder o “momento crucial” desta cúpula sobre a IA, que reúne os principais intervenientes do setor durante vários dias na capital francesa.

- Ataques cibernéticos, ataques biológicos -

O Future of Life Institute apoia o lançamento de uma plataforma, chamada “GRASP”, que visa mapear os principais riscos relacionados à IA e as soluções desenvolvidas em todo o mundo.

“Identificamos cerca de 300 ferramentas e tecnologias que enfrentam esses riscos”, diz Cyrus Hodes, que coordenou a iniciativa.

Os resultados serão transmitidos à OCDE e aos membros da Parceria Global para Inteligência Artificial (PMIA), da qual a França faz parte e que se reúne no domingo.

O primeiro relatório internacional sobre a segurança da IA, fruto de uma colaboração internacional de 96 especialistas e apoiado por 30 países, pela ONU, pela União Europeia e pela OCDE, foi apresentado na quinta-feira, também com o objetivo de informar os formuladores de políticas sobre os perigos dessa tecnologia.

Embora alguns sejam bem conhecidos, como a criação de conteúdo falso on-line, o pesquisador de ciência da computação Yoshua Bengio, vencedor do prêmio Turing de 2018, diz que “evidências de riscos adicionais, como ataques biológicos ou ataques cibernéticos, estão surgindo gradualmente”.

Em longo prazo, ele se preocupa com a “perda de controle” dos seres humanos sobre os sistemas de IA animados por “sua própria vontade de viver”.

“Muitas pessoas achavam que dominar a linguagem, como faz o ChatGPT-4 (chatbot da OpenAI), era ficção científica há apenas seis anos”, lembra Max Tegmark.

“O problema é que muitas pessoas no poder ainda não entenderam que estamos mais perto de construir uma inteligência artificial geral do que de saber como controlá-la”.

- As máquinas estão no comando? -

A inteligência artificial geral seria comparável ou até mesmo superior aos seres humanos, e vários especialistas do ecossistema, como o diretor da OpenAI, Sam Altman, acreditam que ela será alcançada nos próximos anos.

“Se observarmos o ritmo de aumento das capacidades, podemos pensar que chegaremos lá em 2026 ou 2027”, concordou Dario Amodei, diretor da startup americana Anthropic, em novembro.

Com o risco de que, na “pior das hipóteses, essas empresas americanas ou chinesas percam o controle e a Terra seja dominada por máquinas”, argumenta Tegmark.

“A tecnologia está mudando muito rápido”, diz Stuart Russell, professor de ciência da computação na Universidade da Califórnia, Berkeley, e codiretor da Associação Internacional para IA Segura e Ética (IASEAI).

O mais preocupante “seria ter sistemas de armas em que a inteligência artificial controlasse e decidisse quem atacar e quando”, acrescenta.

Para esses especialistas, os Estados devem adotar medidas de proteção.

“Devemos tratar o setor de inteligência artificial da mesma forma que tratamos todos os outros setores”, enfatiza Tegmark.

“Antes de construirmos um reator nuclear perto de Paris, precisamos provar a especialistas nomeados pelo governo que o reator é seguro”, continua ele. “Deve ser a mesma coisa com a IA.”

Uma voz discordante é a do professor de ciência da computação de Berkeley, Michael Jordan, que considera a ideia de uma super IA “absurda”.

A IA “não pode saber tudo, porque o que estou pensando agora é o contexto do que farei em seguida, hoje. Ela não pode saber isso”, diz ele.

A.Zhang--ThChM