The Japan Times - A Inteligência Artificial pode acabar com a humanidade?

EUR -
AED 3.826328
AFN 79.173043
ALL 98.288981
AMD 415.532193
ANG 1.878503
AOA 952.693396
ARS 1090.715432
AUD 1.657831
AWG 1.875146
AZN 1.766508
BAM 1.959577
BBD 2.104557
BDT 127.111968
BGN 1.954369
BHD 0.392652
BIF 3037.737323
BMD 1.041748
BND 1.414212
BOB 7.202815
BRL 6.172983
BSD 1.042309
BTN 90.052719
BWP 14.466747
BYN 3.411143
BYR 20418.261843
BZD 2.093716
CAD 1.497615
CDF 2964.815103
CHF 0.945246
CLF 0.037284
CLP 1028.778137
CNY 7.591114
CNH 7.584457
COP 4402.698127
CRC 526.008875
CUC 1.041748
CUP 27.606323
CVE 110.68551
CZK 25.098839
DJF 185.138793
DKK 7.460896
DOP 64.223532
DZD 140.81825
EGP 52.382431
ERN 15.626221
ETB 131.799924
FJD 2.434097
FKP 0.85797
GBP 0.84319
GEL 2.984634
GGP 0.85797
GHS 15.844793
GIP 0.85797
GMD 75.005326
GNF 9016.329862
GTQ 8.055334
GYD 218.068251
HKD 8.114597
HNL 26.575166
HRK 7.68763
HTG 136.22127
HUF 410.224769
IDR 16912.25877
ILS 3.72016
IMP 0.85797
INR 90.097195
IQD 1364.68995
IRR 43844.572757
ISK 145.917845
JEP 0.85797
JMD 163.864289
JOD 0.739122
JPY 162.573138
KES 134.90602
KGS 91.099095
KHR 4191.994514
KMF 492.12366
KPW 937.573364
KRW 1496.92424
KWD 0.321036
KYD 0.868666
KZT 542.710909
LAK 22697.084354
LBP 93288.537733
LKR 311.232457
LRD 203.140847
LSL 19.277172
LTL 3.076011
LVL 0.630143
LYD 5.125397
MAD 10.431007
MDL 19.439284
MGA 4906.633513
MKD 61.533745
MMK 3383.557041
MNT 3539.859997
MOP 8.36304
MRU 41.518883
MUR 48.399699
MVR 16.050125
MWK 1808.994419
MXN 21.222788
MYR 4.623794
MZN 66.560934
NAD 19.271857
NGN 1623.605221
NIO 38.347228
NOK 11.747975
NPR 144.084351
NZD 1.835679
OMR 0.400997
PAB 1.042299
PEN 3.86645
PGK 4.176628
PHP 60.964656
PKR 290.386955
PLN 4.215863
PYG 8241.688733
QAR 3.792964
RON 4.976325
RSD 117.128928
RUB 104.045584
RWF 1451.155038
SAR 3.907418
SBD 8.799175
SCR 14.86197
SDG 626.090648
SEK 11.464505
SGD 1.413069
SHP 0.85797
SLE 23.651557
SLL 21844.935719
SOS 595.364722
SRD 36.570594
STD 21562.081421
SVC 9.120361
SYP 13544.808173
SZL 19.272456
THB 35.425163
TJS 11.408381
TMT 3.646118
TND 3.322084
TOP 2.439878
TRY 37.168878
TTD 7.08559
TWD 34.03443
TZS 2621.038023
UAH 43.777665
UGX 3841.367671
USD 1.041748
UYU 45.617055
UZS 13514.555742
VES 58.559375
VND 26179.128578
VUV 123.678421
WST 2.917756
XAF 657.217531
XAG 0.034184
XAU 0.000378
XCD 2.815376
XDR 0.80314
XOF 655.779254
XPF 119.331742
YER 259.497942
ZAR 19.278193
ZMK 9376.985749
ZMW 29.002626
ZWL 335.442448
A Inteligência Artificial pode acabar com a humanidade?
A Inteligência Artificial pode acabar com a humanidade? / foto: BEN STANSALL - AFP

A Inteligência Artificial pode acabar com a humanidade?

Os alarmes surgiram por todas as partes: a Inteligência Artificial (IA) representa um risco existencial para a humanidade e deve ser controlada antes que seja tarde demais.

Tamanho do texto:

Mas, quais são os cenários apocalípticos e como se supõe que as máquinas acabarão com a humanidade?

- Um "bom" problema -

A maioria dos cenários parte do mesmo ponto: um dia as máquinas ultrapassarão as capacidades humanas, ficarão fora de controle e se recusarão a ser desligadas.

"Uma vez que tenhamos máquinas que tenham como objetivo a autopreservação, teremos um bom problema", disse o especialista acadêmico em IA, Yoshua Bengio, durante uma conferência neste mês.

Mas como essas máquinas ainda não existem, imaginar como elas poderiam condenar a humanidade costuma ser tarefa da filosofia e da ficção científica.

O filósofo sueco Nick Bostrom mencionou uma "explosão de inteligência", que ocorrerá quando máquinas superinteligentes começarem a projetar outras máquinas.

As ideias de Bostrom foram descartadas por muitos como ficção científica, sobretudo porque ele argumentou uma vez que a humanidade é uma simulação de computador e apoiou teorias próximas à eugenia. Ele também se desculpou recentemente depois que uma mensagem racista que enviou na década de 1990 foi exposta.

No entanto, seus pensamentos sobre IA foram altamente influentes e inspiraram tanto Elon Musk quanto o professor Stephen Hawking.

- Exterminador do Futuro -

Se as máquinas superinteligentes vão destruir a humanidade, certamente precisarão de uma forma física.

O ciborgue de olhos vermelhos interpretado por Arnold Schwarzenegger em "Exterminador do Futuro" provou ser uma imagem impactante.

Mas os especialistas rejeitaram a ideia. "É pouco provável que esse conceito de ficção científica se torne realidade nas próximas décadas, se é que algum dia se tornarão", escreveu o Stop Killer Robots, um grupo ativista contra robôs de guerra, em um relatório de 2021.

No entanto, o grupo alertou que dar às máquinas o poder de tomar decisões sobre a vida e a morte é um risco existencial.

A especialista em robótica Kerstin Dautenhahn, da Universidade de Waterloo, no Canadá, minimizou esses temores.

É pouco provável, disse ela à AFP, que a IA forneça às máquinas maiores habilidades de raciocínio ou introduza nelas o "desejo" de matar todos os humanos.

"Os robôs não são ruins", afirmou, embora admita que os programadores podem obrigá-los a fazer coisas ruins.

- Substâncias químicas mais letais -

Um cenário menos fantasioso é o de "vilões" que usam IA para criar novos vírus e propagá-los.

Modelos de linguagem poderosos como o GPT-3, usado para criar o ChatGPT, são extremamente bons em inventar novos agentes químicos horríveis.

Um grupo de cientistas que usava IA para ajudar a descobrir novos medicamentos realizou um experimento no qual ajustou sua IA para que inventasse moléculas nocivas.

Eles conseguiram gerar 40.000 agentes potencialmente venenosos em menos de seis horas, de acordo com a revista Nature Machine Intelligence.

A especialista em Inteligência Artificial, Joanna Bryson, da Hertie School em Berlim, explicou que é perfeitamente possível que alguém descubra uma maneira de espalhar um veneno, como o antraz, de forma mais rápida.

"Mas não é uma ameaça existencial. É apenas uma arma horrível, assustadora", afirmou.

- Fase passageira -

As regras de Hollywood ditam que os desastres de época devem ser repentinos, enormes e dramáticos, mas e se o fim da humanidade fosse lento, silencioso e não definitivo?

"A nossa espécie pode chegar ao fim sem ter um sucessor", afirmou o filósofo Huw Price em um vídeo promocional do Centro de Estudos de Risco Existencial da Universidade de Cambridge.

Mas, em sua opinião, existem "possibilidades menos sombrias" nas quais os humanos aprimorados com tecnologia avançada poderiam sobreviver.

Uma imagem do apocalipse é muitas vezes enquadrada em termos evolutivos.

O conhecido físico teórico Stephen Hawking argumentou em 2014 que, em última instância, a nossa espécie não será mais capaz de competir com as máquinas de Inteligência Artificial. Ele disse à BBC que isso poderia "significar o fim da raça humana".

Geoffrey Hinton, que passou sua carreira construindo máquinas que se assemelham ao cérebro humano, fala em termos semelhantes de "superinteligências" que simplesmente vão superar os humanos.

Ele disse recentemente à emissora americana PBS que é possível que "a humanidade seja apenas uma fase passageira na evolução da inteligência".

K.Nakajima--JT