The China Mail - A Inteligência Artificial pode acabar com a humanidade?

USD -
AED 3.672504
AFN 66.402915
ALL 83.761965
AMD 382.479768
ANG 1.789982
AOA 916.999963
ARS 1450.75024
AUD 1.543246
AWG 1.805
AZN 1.705751
BAM 1.695014
BBD 2.010894
BDT 121.852399
BGN 1.695501
BHD 0.377002
BIF 2945.49189
BMD 1
BND 1.302665
BOB 6.907594
BRL 5.350303
BSD 0.998384
BTN 88.558647
BWP 13.433114
BYN 3.402651
BYR 19600
BZD 2.007947
CAD 1.412355
CDF 2149.999847
CHF 0.80776
CLF 0.024051
CLP 943.503075
CNY 7.11935
CNH 7.126345
COP 3784.2
CRC 501.791804
CUC 1
CUP 26.5
CVE 95.850058
CZK 21.109048
DJF 177.785096
DKK 6.473835
DOP 64.236284
DZD 130.470559
EGP 47.295599
ERN 15
ETB 153.291763
EUR 0.867014
FJD 2.28685
FKP 0.766404
GBP 0.76237
GEL 2.705013
GGP 0.766404
GHS 10.945027
GIP 0.766404
GMD 72.999692
GNF 8666.525113
GTQ 7.6608
GYD 209.15339
HKD 7.774615
HNL 26.251771
HRK 6.531903
HTG 130.6554
HUF 334.943976
IDR 16696.4
ILS 3.26455
IMP 0.766404
INR 88.70705
IQD 1310
IRR 42100.000147
ISK 126.759455
JEP 0.766404
JMD 160.148718
JOD 0.709024
JPY 153.409007
KES 129.1971
KGS 87.450022
KHR 4025.000393
KMF 421.000245
KPW 900.033283
KRW 1456.565008
KWD 0.307037
KYD 0.832073
KZT 525.442751
LAK 21694.999894
LBP 89550.000191
LKR 304.463694
LRD 183.250302
LSL 17.409918
LTL 2.95274
LVL 0.60489
LYD 5.46902
MAD 9.334002
MDL 17.092121
MGA 4502.259796
MKD 53.325591
MMK 2099.044592
MNT 3585.031206
MOP 7.994609
MRU 39.945401
MUR 45.910399
MVR 15.404991
MWK 1731.225057
MXN 18.55978
MYR 4.177501
MZN 63.949976
NAD 17.409776
NGN 1437.150263
NIO 36.7374
NOK 10.20723
NPR 141.508755
NZD 1.78071
OMR 0.384493
PAB 0.999779
PEN 3.37875
PGK 4.273464
PHP 59.101002
PKR 280.850359
PLN 3.68449
PYG 7072.751145
QAR 3.6405
RON 4.409499
RSD 101.629224
RUB 81.248559
RWF 1450
SAR 3.75058
SBD 8.230592
SCR 14.861017
SDG 600.499239
SEK 9.57983
SGD 1.304335
SHP 0.750259
SLE 23.201624
SLL 20969.499529
SOS 570.604013
SRD 38.503498
STD 20697.981008
STN 21.232987
SVC 8.735857
SYP 11056.895466
SZL 17.336517
THB 32.380498
TJS 9.227278
TMT 3.51
TND 2.950498
TOP 2.342104
TRY 42.194465
TTD 6.76509
TWD 30.981498
TZS 2462.498387
UAH 42.011587
UGX 3491.096532
UYU 39.813947
UZS 11951.241707
VES 228.19401
VND 26310
VUV 122.169446
WST 2.82328
XAF 568.486781
XAG 0.020626
XAU 0.00025
XCD 2.70255
XCG 1.799344
XDR 0.707015
XOF 568.486781
XPF 103.905843
YER 238.504229
ZAR 17.377896
ZMK 9001.19704
ZMW 22.588431
ZWL 321.999592
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: © AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

F.Brown--ThChM