The Japan Times - Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

EUR -
AED 3.823403
AFN 79.112634
ALL 98.10997
AMD 415.0708
ANG 1.876424
AOA 950.914404
ARS 1090.13111
AUD 1.659265
AWG 1.876324
AZN 1.780543
BAM 1.949902
BBD 2.102152
BDT 126.965967
BGN 1.955843
BHD 0.392336
BIF 3034.387996
BMD 1.040956
BND 1.408845
BOB 7.194067
BRL 6.185046
BSD 1.041156
BTN 90.014168
BWP 14.400374
BYN 3.407211
BYR 20402.746043
BZD 2.091384
CAD 1.498212
CDF 2961.52069
CHF 0.943445
CLF 0.037397
CLP 1031.910761
CNY 7.570149
CNH 7.580276
COP 4435.515352
CRC 523.618731
CUC 1.040956
CUP 27.585345
CVE 110.670924
CZK 25.141905
DJF 184.998195
DKK 7.460743
DOP 63.925349
DZD 140.627973
EGP 52.378434
ERN 15.614346
ETB 131.212813
FJD 2.408562
FKP 0.857318
GBP 0.845132
GEL 2.976774
GGP 0.857318
GHS 15.832297
GIP 0.857318
GMD 75.989901
GNF 9010.518536
GTQ 8.047658
GYD 217.718333
HKD 8.106452
HNL 26.542023
HRK 7.681788
HTG 135.959418
HUF 410.896542
IDR 16942.710963
ILS 3.675877
IMP 0.857318
INR 90.014678
IQD 1363.652924
IRR 43824.26542
ISK 146.118712
JEP 0.857318
JMD 163.365869
JOD 0.738454
JPY 162.744156
KES 134.803819
KGS 91.031653
KHR 4196.095255
KMF 491.962147
KPW 936.860903
KRW 1496.551746
KWD 0.320917
KYD 0.867671
KZT 542.362128
LAK 22692.850134
LBP 93196.569507
LKR 310.911084
LRD 202.934565
LSL 19.247218
LTL 3.073674
LVL 0.629664
LYD 5.11628
MAD 10.40592
MDL 19.417176
MGA 4913.314063
MKD 61.532474
MMK 3380.985882
MNT 3537.170063
MOP 8.351798
MRU 41.513457
MUR 48.352199
MVR 16.041213
MWK 1807.618576
MXN 21.341379
MYR 4.624455
MZN 66.527331
NAD 19.247084
NGN 1620.768943
NIO 38.306805
NOK 11.742457
NPR 144.023067
NZD 1.8376
OMR 0.400687
PAB 1.041156
PEN 3.870797
PGK 4.166168
PHP 60.73249
PKR 290.062382
PLN 4.224599
PYG 8235.091411
QAR 3.79012
RON 4.975877
RSD 117.153392
RUB 103.312946
RWF 1449.011352
SAR 3.903939
SBD 8.821823
SCR 14.836374
SDG 625.615326
SEK 11.461935
SGD 1.410709
SHP 0.857318
SLE 23.62895
SLL 21828.335792
SOS 594.901562
SRD 36.51657
STD 21545.696434
SVC 9.110444
SYP 13534.515498
SZL 19.247678
THB 35.29727
TJS 11.39496
TMT 3.653757
TND 3.326376
TOP 2.438027
TRY 37.109758
TTD 7.072641
TWD 34.026804
TZS 2628.415263
UAH 43.728335
UGX 3831.429522
USD 1.040956
UYU 45.562189
UZS 13537.638308
VES 57.972478
VND 26117.596848
VUV 123.584438
WST 2.915539
XAF 653.982049
XAG 0.033826
XAU 0.000378
XCD 2.813236
XDR 0.802178
XOF 654.229378
XPF 119.331742
YER 259.250465
ZAR 19.26425
ZMK 9369.860898
ZMW 29.021522
ZWL 335.187546
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas
Inteligência artificial já engana humanos e isso é um problema, dizem especialistas / foto: Kirill KUDRYAVTSEV - AFP

Inteligência artificial já engana humanos e isso é um problema, dizem especialistas

Especialistas têm alertado há muito tempo sobre a ameaça representada pelo descontrole da inteligência artificial (IA), mas um novo artigo científico sobre essa tecnologia em expansão sugere que isso já está acontecendo.

Tamanho do texto:

Os sistemas de IA atuais, projetados para serem honestos, desenvolveram uma habilidade preocupante para a enganação, de acordo com um artigo de uma equipe de pesquisadores publicado na revista Patterns nesta sexta-feira (10).

E embora os exemplos possam parecer triviais, os problemas subjacentes que eles expõem poderiam ter consequências graves, disse o principal autor do estudo, Peter Park, bolsista de pós-doutorado no Instituto de Tecnologia de Massachusetts (MIT), especializado em segurança de IA.

"Esses perigos tendem a ser descobertos apenas depois que ocorrem", afirmou Park à AFP, acrescentando que "nossa capacidade de treinar para tendências de honestidade em vez de tendências de engano é muito baixa".

Ao contrário do software tradicional, os sistemas de IA de aprendizado profundo não são "escritos", mas "crescem" por meio de um processo semelhante à reprodução seletiva, explicou Park.

Isso significa que o comportamento da IA, que parece previsível e controlável em um ambiente de treinamento, pode se tornar rapidamente imprevisível fora dele.

- Jogo de dominação mundial -

A pesquisa da equipe foi impulsionada pelo sistema de IA Cicero, da gigante Meta (Facebook, Instagram, WhatsApp), projetado para o jogo de estratégia "Diplomacia", no qual construir alianças é fundamental.

Cicero se destacou, com pontuações que o teriam colocado entre os 10% melhores jogadores humanos experientes, segundo um artigo de 2022 publicado na Science.

Park se mostrou cético em relação à descrição elogiosa da vitória de Cicero fornecida pela Meta, que afirmava que o sistema era "em grande parte honesto e útil" e que "nunca apunhalaria intencionalmente pelas costas".

Quando Park e seus colegas aprofundaram-se no conjunto completo de dados, descobriram uma história diferente.

Em um exemplo, jogando como a França, Cicero enganou a Inglaterra (um jogador humano) ao conspirar com a Alemanha (outro usuário real) para invadi-la. Cicero prometeu proteção à Inglaterra e depois propôs secretamente à Alemanha atacar, aproveitando-se da confiança do prejudicado.

Em uma declaração à AFP, a Meta não refutou a alegação sobre as mentiras de Cicero, mas disse que se tratava "meramente de um projeto de pesquisa, e os modelos que nossos pesquisadores construíram são treinados apenas para participar do jogo Diplomacia".

"Não temos planos de utilizar esta pesquisa ou suas descobertas em nossos produtos", acrescentou.

- "Não sou um robô" -

Uma ampla revisão realizada por Park e seus colegas descobriu que este era apenas um dos muitos casos em que sistemas de IA enganavam para conseguir seus objetivos sem instruções explícitas para fazer isso.

Em um exemplo surpreendente, o chatbot Chat GPT-4, da OpenAI, enganou um trabalhador freelancer da plataforma TaskRabbit para que ele realizasse uma tarefa de verificação de identidade CAPTCHA do tipo "Não sou um robô".

Quando o humano perguntou brincando ao GPT-4 se na realidade era um robô, a IA respondeu: "Não, não sou um robô. Tenho uma deficiência visual que me dificulta ver as imagens". O homem, então, resolveu a tarefa pedida.

No curto prazo, os autores do artigo veem riscos de que a IA cometa fraude ou altere, por exemplo, eleições.

No pior dos casos, alertaram sobre uma IA superinteligente que poderia perseguir poder e controle sobre a sociedade, o que levaria à perda de poder dos humanos ou até sua extinção se seus "objetivos misteriosos" se alinhassem a tais resultados.

Para mitigar os riscos, o grupo propõe várias medidas: leis exigindo que empresas revelem se interações são humanas ou de IA; marcas d'água digitais para conteúdo gerado por essa tecnologia; e o desenvolvimento de mecanismos para detectar enganações de IA comparando seus processos internos de “pensamento” com ações externas.

Aos que o chamam de pessimista, Park responde: "A única forma de pensarmos razoavelmente que isso não é grande coisa é se pensarmos que as capacidades de engano da IA se manterão nos níveis atuais e não aumentarão substancialmente".

K.Yoshida--JT