The Japan Times - La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

EUR -
AED 3.832604
AFN 79.302548
ALL 98.345388
AMD 416.213474
ANG 1.88158
AOA 953.195728
ARS 1092.497295
AUD 1.657158
AWG 1.880827
AZN 1.775131
BAM 1.962787
BBD 2.108004
BDT 127.320206
BGN 1.958457
BHD 0.393306
BIF 3041.670362
BMD 1.043455
BND 1.416529
BOB 7.214615
BRL 6.144903
BSD 1.044017
BTN 90.200246
BWP 14.490447
BYN 3.416731
BYR 20451.711527
BZD 2.097146
CAD 1.49658
CDF 2968.62876
CHF 0.945725
CLF 0.037418
CLP 1032.487813
CNY 7.605432
CNH 7.598484
COP 4414.867142
CRC 526.870595
CUC 1.043455
CUP 27.651549
CVE 110.953472
CZK 25.103391
DJF 185.443007
DKK 7.460466
DOP 64.078047
DZD 140.965539
EGP 52.472728
ERN 15.65182
ETB 136.327656
FJD 2.409307
FKP 0.859376
GBP 0.843584
GEL 2.984038
GGP 0.859376
GHS 15.859523
GIP 0.859376
GMD 75.128582
GNF 9031.100182
GTQ 8.06853
GYD 218.425495
HKD 8.128053
HNL 26.61286
HRK 7.700224
HTG 136.444431
HUF 409.900238
IDR 16917.008833
ILS 3.735912
IMP 0.859376
INR 90.188761
IQD 1366.925617
IRR 43916.331343
ISK 145.895667
JEP 0.859376
JMD 164.132735
JOD 0.740329
JPY 162.666226
KES 135.125685
KGS 91.248336
KHR 4206.165454
KMF 493.127499
KPW 939.109319
KRW 1497.003017
KWD 0.32153
KYD 0.870089
KZT 543.599991
LAK 22747.311736
LBP 93493.538884
LKR 311.742325
LRD 203.421866
LSL 19.293371
LTL 3.08105
LVL 0.631176
LYD 5.128612
MAD 10.43089
MDL 19.47113
MGA 4925.106292
MKD 61.790503
MMK 3389.100065
MNT 3545.65908
MOP 8.376741
MRU 41.613195
MUR 48.478964
MVR 16.080055
MWK 1811.961908
MXN 21.182897
MYR 4.637137
MZN 66.686871
NAD 19.293269
NGN 1626.224488
NIO 38.427018
NOK 11.737749
NPR 144.320394
NZD 1.836244
OMR 0.40165
PAB 1.044007
PEN 3.872784
PGK 4.176167
PHP 61.176701
PKR 290.758449
PLN 4.210601
PYG 8255.190464
QAR 3.799207
RON 4.975396
RSD 117.113183
RUB 104.214055
RWF 1452.4889
SAR 3.913743
SBD 8.842995
SCR 14.91121
SDG 627.116517
SEK 11.467327
SGD 1.412655
SHP 0.859376
SLE 23.677596
SLL 21880.722614
SOS 596.341121
SRD 36.630502
STD 21597.404937
SVC 9.135303
SYP 13566.9976
SZL 19.293581
THB 35.414801
TJS 11.427071
TMT 3.662526
TND 3.333055
TOP 2.443872
TRY 37.195339
TTD 7.097198
TWD 34.113451
TZS 2625.331861
UAH 43.849382
UGX 3847.660691
USD 1.043455
UYU 45.691786
UZS 13570.127942
VES 58.11215
VND 26222.01585
VUV 123.881034
WST 2.922536
XAF 658.2942
XAG 0.034276
XAU 0.000379
XCD 2.819988
XDR 0.804456
XOF 655.813064
XPF 119.331742
YER 259.87242
ZAR 19.270865
ZMK 9392.339483
ZMW 29.050139
ZWL 335.991978
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos
La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos / Foto: Kirill KUDRYAVTSEV - AFP

La inteligencia artificial ya engaña a los humanos y eso es un problema, según expertos

Los expertos han advertido durante mucho tiempo sobre la amenaza que representa el descontrol de la Inteligencia Artificial (IA), pero un nuevo artículo de investigación sobre esta tecnología en expansión sugiere que ya está sucediendo.

Tamaño del texto:

Los sistemas de IA actuales, diseñados para ser honestos, han desarrollado una preocupante habilidad para el engaño, según un artículo de un equipo de científicos publicado en la revista Patterns el viernes.

Y si bien los ejemplos pueden parecer triviales, los problemas subyacentes que exponen podrían tener graves consecuencias, dijo el primer autor Peter Park, becario postdoctoral en el Instituto de Tecnología de Massachusetts (MIT), especializado en seguridad de la IA.

"Estos peligros tienden a descubrirse solo después de ocurrido el hecho", declaró Park a la AFP, para acotar que "nuestra capacidad de entrenarnos para tendencias de honestidad en lugar de tendencias de engaño es muy baja".

A diferencia del software tradicional, los sistemas de IA de aprendizaje profundo no se "escriben" sino que "crecen" mediante un proceso similar a la reproducción selectiva, indicó Park.

Eso significa que el comportamiento de la IA que parece predecible y controlable en un entorno de entrenamiento puede volverse rápidamente impredecible fuera de este.

- Juego de dominación mundial -

La investigación del equipo fue impulsada por el sistema de IA Cicero, del gigante Meta (Facebook, Instagram), diseñado para el juego de estrategia "Diplomacy", donde construir alianzas es clave.

Cicero se destacó, con puntuaciones que lo habrían colocado entre el 10% superior de jugadores humanos experimentados, según un artículo de 2022 publicado en Science.

Park se mostró escéptico ante la elogiosa descripción de la victoria de Cicero proporcionada por Meta, que afirmaba que el sistema era "en gran medida honesto y útil" y que "nunca apuñalaría por la espalda intencionalmente".

Cuando Park y sus colegas profundizaron en el conjunto de datos completo, descubrieron una historia diferente.

En un ejemplo, jugando como Francia, Cicero engañó a Inglaterra (un jugador humano) al conspirar con Alemania (otro usuario real) para invadirla. Cicero prometió protección a Inglaterra y luego le propuso en secreto a Alemania atacar, aprovechándose de la confianza del perjudicado.

En una declaración a la AFP, Meta no refutó la afirmación sobre los engaños de Cicero, pero dijo que se trataba "meramente de un proyecto de investigación, y los modelos que nuestros investigadores construyeron están entrenados únicamente para participar en el juego Diplomacy".

"No tenemos planes de utilizar esta investigación o sus aprendizajes en nuestros productos", añadió.

- ¿Eres un robot? -

Una amplia revisión realizada por Park y sus colegas encontró que éste era solo uno de los muchos casos en varios sistemas de IA que utilizaban el engaño para lograr objetivos sin instrucciones explícitas para hacerlo.

En un ejemplo sorprendente, el robot conversacional Chat GPT-4 de OpenAI engañó a un trabajador independiente de la plataforma TaskRabbit para que realizara una tarea de verificación de identidad CAPTCHA del tipo "No soy un robot".

Cuando el humano preguntó en broma a GPT-4 si en realidad era un robot, la IA respondió: "No, no soy un robot. Tengo una discapacidad visual que me dificulta ver las imágenes". Luego, el trabajador resolvió el rompecabezas planteado.

A corto plazo, los autores del artículo ven riesgos de que la IA cometa fraude o altere por ejemplo, unas elecciones.

En el peor de los casos, advirtieron sobre una IA superinteligente que podría perseguir conseguir el poder y el control sobre la sociedad, lo que llevaría a la pérdida de decisiones humanas o incluso a la extinción si sus "objetivos misteriosos" se alinearan con estos resultados.

Para mitigar los riesgos, el equipo propone varias medidas: leyes de "bot o no" que exigen a las empresas revelar interacciones humanas o de IA, marcas de agua digitales para el contenido generado por la nueva tecnología y el desarrollo de mecanismos para detectar el engaño potencial examinando sus "procesos de pensamiento" internos "contra acciones externas.

A aquellos que lo llaman pesimista, Park les responde: "La única forma en que podemos pensar razonablemente que esto no es gran cosa es si pensamos que las capacidades engañosas de la IA se mantendrán en los niveles actuales y no se desarrollarán más sustancialmente".

K.Abe--JT