The China Mail - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

USD -
AED 3.672965
AFN 65.999823
ALL 81.973818
AMD 378.00985
ANG 1.79008
AOA 916.511164
ARS 1442.469496
AUD 1.434278
AWG 1.80125
AZN 1.699162
BAM 1.658807
BBD 2.01469
BDT 122.336816
BGN 1.67937
BHD 0.376973
BIF 2964.288592
BMD 1
BND 1.274003
BOB 6.911584
BRL 5.251601
BSD 1.000305
BTN 90.399817
BWP 13.243033
BYN 2.865297
BYR 19600
BZD 2.011721
CAD 1.367115
CDF 2224.999817
CHF 0.776805
CLF 0.021856
CLP 863.009886
CNY 6.94215
CNH 6.934675
COP 3676.17
CRC 495.911928
CUC 1
CUP 26.5
CVE 93.521
CZK 20.552402
DJF 177.719721
DKK 6.326605
DOP 63.127629
DZD 129.973054
EGP 46.981498
ERN 15
ETB 155.859732
EUR 0.84726
FJD 2.207598
FKP 0.732184
GBP 0.737655
GEL 2.689985
GGP 0.732184
GHS 10.98271
GIP 0.732184
GMD 73.502091
GNF 8779.176279
GTQ 7.672344
GYD 209.27195
HKD 7.813565
HNL 26.422344
HRK 6.385297
HTG 131.225404
HUF 321.370501
IDR 16868
ILS 3.119945
IMP 0.732184
INR 90.26125
IQD 1310.388112
IRR 42125.000158
ISK 122.679683
JEP 0.732184
JMD 156.449315
JOD 0.708986
JPY 156.790501
KES 129.04009
KGS 87.450416
KHR 4037.199913
KMF 416.999986
KPW 900.030004
KRW 1464.645025
KWD 0.30738
KYD 0.833598
KZT 493.342041
LAK 21499.694667
LBP 89579.400015
LKR 309.548446
LRD 186.059136
LSL 16.159927
LTL 2.95274
LVL 0.60489
LYD 6.336511
MAD 9.181029
MDL 16.999495
MGA 4425.634414
MKD 52.243296
MMK 2099.783213
MNT 3569.156954
MOP 8.049755
MRU 39.901106
MUR 46.040016
MVR 15.45987
MWK 1734.461935
MXN 17.38677
MYR 3.94699
MZN 63.759665
NAD 16.159927
NGN 1368.070025
NIO 36.809608
NOK 9.75406
NPR 144.639707
NZD 1.670341
OMR 0.384513
PAB 1.000314
PEN 3.362397
PGK 4.348453
PHP 58.765016
PKR 280.076588
PLN 3.57705
PYG 6605.373863
QAR 3.645678
RON 4.314401
RSD 99.47298
RUB 76.750352
RWF 1459.984648
SAR 3.750122
SBD 8.064647
SCR 13.712043
SDG 601.500193
SEK 9.01919
SGD 1.273205
SHP 0.750259
SLE 24.549692
SLL 20969.499267
SOS 570.633736
SRD 37.869854
STD 20697.981008
STN 20.779617
SVC 8.752036
SYP 11059.574895
SZL 16.152192
THB 31.761025
TJS 9.362532
TMT 3.505
TND 2.89846
TOP 2.40776
TRY 43.539165
TTD 6.773307
TWD 31.651501
TZS 2585.000268
UAH 43.163845
UGX 3570.701588
UYU 38.599199
UZS 12269.30384
VES 377.98435
VND 25970
VUV 119.687673
WST 2.726344
XAF 556.374339
XAG 0.01318
XAU 0.000206
XCD 2.70255
XCG 1.802745
XDR 0.691101
XOF 556.348385
XPF 101.150088
YER 238.324994
ZAR 16.1985
ZMK 9001.195771
ZMW 18.580528
ZWL 321.999592
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: © AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

U.Chen--ThChM