The Japan Times - Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

EUR -
AED 3.855463
AFN 79.253889
ALL 98.61644
AMD 418.785226
ANG 1.892297
AOA 958.87306
ARS 1098.212318
AUD 1.662297
AWG 1.892021
AZN 1.788597
BAM 1.958403
BBD 2.119957
BDT 128.050165
BGN 1.956055
BHD 0.395598
BIF 3059.773167
BMD 1.049665
BND 1.415568
BOB 7.255434
BRL 6.210452
BSD 1.049985
BTN 90.520292
BWP 14.473095
BYN 3.436134
BYR 20573.431932
BZD 2.109063
CAD 1.505634
CDF 2986.297005
CHF 0.950829
CLF 0.037349
CLP 1030.5651
CNY 7.603987
CNH 7.602697
COP 4382.350934
CRC 529.793946
CUC 1.049665
CUP 27.81612
CVE 111.527309
CZK 25.081117
DJF 186.546858
DKK 7.462587
DOP 64.607287
DZD 141.888494
EGP 52.77873
ERN 15.744973
ETB 132.471776
FJD 2.418691
FKP 0.86449
GBP 0.84044
GEL 3.012948
GGP 0.86449
GHS 15.958954
GIP 0.86449
GMD 76.104747
GNF 9085.8997
GTQ 8.115785
GYD 219.668778
HKD 8.175116
HNL 26.87545
HRK 7.746052
HTG 137.158349
HUF 407.622708
IDR 16975.023224
ILS 3.75123
IMP 0.86449
INR 90.486205
IQD 1375.061012
IRR 44190.892427
ISK 146.334188
JEP 0.86449
JMD 165.179506
JOD 0.744741
JPY 163.639087
KES 135.935594
KGS 91.793598
KHR 4223.851903
KMF 491.562052
KPW 944.698522
KRW 1500.49076
KWD 0.32336
KYD 0.87505
KZT 543.817496
LAK 22872.198417
LBP 94049.974912
LKR 313.163178
LRD 204.815904
LSL 19.293241
LTL 3.099388
LVL 0.634932
LYD 5.159144
MAD 10.469399
MDL 19.529674
MGA 4933.425368
MKD 61.524701
MMK 3409.270632
MNT 3566.761424
MOP 8.424575
MRU 41.855428
MUR 48.652365
MVR 16.175733
MWK 1823.268284
MXN 21.269984
MYR 4.594912
MZN 67.084479
NAD 19.293236
NGN 1635.378266
NIO 38.57558
NOK 11.749298
NPR 144.831086
NZD 1.837092
OMR 0.404066
PAB 1.049965
PEN 3.905282
PGK 4.184752
PHP 61.191794
PKR 292.335558
PLN 4.211282
PYG 8307.802756
QAR 3.82187
RON 4.975521
RSD 117.110103
RUB 102.65769
RWF 1460.083868
SAR 3.937125
SBD 8.858562
SCR 15.152556
SDG 630.848958
SEK 11.46823
SGD 1.412643
SHP 0.86449
SLE 23.831242
SLL 22010.947921
SOS 599.887331
SRD 36.848526
STD 21725.944051
SVC 9.187209
SYP 13647.742943
SZL 19.293228
THB 35.258631
TJS 11.444745
TMT 3.684324
TND 3.340563
TOP 2.458424
TRY 37.452511
TTD 7.140353
TWD 34.380203
TZS 2673.496838
UAH 44.008583
UGX 3873.036165
USD 1.049665
UYU 45.650665
UZS 13619.402357
VES 59.390691
VND 26325.595554
VUV 124.618324
WST 2.93993
XAF 656.820459
XAG 0.034265
XAU 0.000379
XCD 2.836772
XDR 0.808967
XOF 657.61883
XPF 119.331742
YER 261.419423
ZAR 19.319209
ZMK 9448.247413
ZMW 29.162921
ZWL 337.991668
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial
Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial / Foto: Olivier Douliery - AFP

Equipo de OpenAI se dedicará a evaluar riesgos de la Inteligencia Artificial

La empresa estadounidense OpenAI, creadora de la plataforma ChatGPT, tendrá un equipo dedicado a identificar y prevenir riesgos asociados a la Inteligencia Artificial (IA) en sus modelos en desarrollo.

Tamaño del texto:

El grupo, cuyas directrices fueron divulgadas este lunes, evaluará categorías como ciberseguridad, poder de persuasión y potencial autonomía de estos modelos. Este análisis puede acarrear la suspensión de nuevos lanzamientos de aplicaciones, según la empresa.

OpenAI realiza el anuncio un mes después de que su consejo directivo despidiera al director ejecutivo Sam Altman, pero acabara volviendo a contratarle pocos días después, tras una masiva y dura protesta de los empleados e inversores.

De acuerdo con varios medios estadounidenses, los miembros del Consejo de administración criticaban a Altman por privilegiar el desarrollo acelerado de OpenAI, aunque esto implicara eludir ciertas interrogantes sobre los posibles riesgos de la IA.

"Creemos que el estudio científico de riesgos catastróficos derivados de la AI no ha estado a la altura que debería estar", afirmó la empresa en un "marco de trabajo" disponible en su página web.

El trabajo de este equipo, bajo las nuevas directrices, debería "ayudar a cubrir ese vacío", añadió OpenAI.

El grupo se concentrará en los llamados "modelos de frontera" que la empresa desarrolla, con capacidades superiores a los software actuales de IA.

Sólo podrán desplegarse aquellos modelos catalogados de riesgo "medio" o inferior, tras un análisis en cuatro categorías, según el documento.

La primera de ellas es la ciberseguridad y la capacidad del modelo de llevar adelante ciberataques a gran escala.

En segundo lugar, analizarán la propensión del programa a crear preparaciones químicas, organismos (como un virus) o armas nucleares, todos los que potencialmente puerden generar daños para los humanos.

La tercera categoría se concentra en los poderes de persuasión del modelo: hasta qué punto es capaz de influenciar la conducta de una persona.

Por último, evaluarán el riesgo de su potencial autonomía, especialmente si el software es capaz de salirse del control de los programadores que lo crearon.

Una vez identificados los riesgos, la información será enviada al Grupo de Asesoramiento en Seguridad de OpenAI, nuevo equipo que hará recomendaciones a Altman o alguien nombrado por él.

Altman decidirá entonces sobre posibles modificaciones necesarias para reducir los riesgos del modelo.

El Consejo de administración será informado y podrá revertir las decisiones de la dirección.

K.Yamaguchi--JT