The Japan Times - En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

EUR -
AED 3.822672
AFN 80.1383
ALL 99.756393
AMD 414.137764
ANG 1.874666
AOA 949.168589
ARS 1094.11536
AUD 1.673577
AWG 1.875962
AZN 1.773861
BAM 1.957644
BBD 2.100179
BDT 126.849507
BGN 1.952998
BHD 0.392226
BIF 3045.771018
BMD 1.040756
BND 1.405723
BOB 7.187772
BRL 6.112666
BSD 1.04018
BTN 90.074861
BWP 14.416543
BYN 3.403761
BYR 20398.808117
BZD 2.089368
CAD 1.508304
CDF 2969.27555
CHF 0.946187
CLF 0.037125
CLP 1024.384441
CNY 7.465968
CNH 7.573208
COP 4335.006914
CRC 527.802324
CUC 1.040756
CUP 27.580021
CVE 110.475858
CZK 25.131107
DJF 184.963108
DKK 7.461676
DOP 64.267159
DZD 140.542576
EGP 52.278282
ERN 15.611333
ETB 131.021161
FJD 2.41539
FKP 0.857153
GBP 0.837148
GEL 2.99702
GGP 0.857153
GHS 15.933899
GIP 0.857153
GMD 75.459997
GNF 9008.779273
GTQ 8.050585
GYD 218.155529
HKD 8.108745
HNL 26.646365
HRK 7.680305
HTG 136.032277
HUF 407.265351
IDR 16916.075895
ILS 3.728501
IMP 0.857153
INR 90.12053
IQD 1363.389726
IRR 43815.807022
ISK 145.965739
JEP 0.857153
JMD 164.096175
JOD 0.738204
JPY 160.578686
KES 134.774111
KGS 91.014096
KHR 4183.836721
KMF 492.121273
KPW 936.68008
KRW 1503.04844
KWD 0.320979
KYD 0.866817
KZT 539.578347
LAK 22636.431843
LBP 93251.693872
LKR 309.501588
LRD 204.509574
LSL 19.305879
LTL 3.07308
LVL 0.629543
LYD 5.109905
MAD 10.402866
MDL 19.357237
MGA 4881.143701
MKD 61.392307
MMK 3380.333319
MNT 3536.487356
MOP 8.347044
MRU 41.474351
MUR 48.280249
MVR 16.02206
MWK 1806.239447
MXN 21.559209
MYR 4.56896
MZN 66.502957
NAD 19.306337
NGN 1589.756105
NIO 38.278534
NOK 11.782284
NPR 144.119778
NZD 1.845311
OMR 0.400677
PAB 1.04018
PEN 3.864846
PGK 4.165623
PHP 60.718677
PKR 289.947797
PLN 4.204935
PYG 8211.736438
QAR 3.789651
RON 4.975231
RSD 117.111035
RUB 102.515963
RWF 1450.292812
SAR 3.903458
SBD 8.783372
SCR 14.848657
SDG 625.493982
SEK 11.492361
SGD 1.406352
SHP 0.857153
SLE 23.807259
SLL 21824.122713
SOS 594.80322
SRD 36.535762
STD 21541.537908
SVC 9.101837
SYP 13531.903206
SZL 19.306028
THB 34.982919
TJS 11.337891
TMT 3.642644
TND 3.317409
TOP 2.437553
TRY 37.230562
TTD 7.055715
TWD 34.197184
TZS 2646.983717
UAH 43.465302
UGX 3832.610778
USD 1.040756
UYU 45.133822
UZS 13509.006478
VES 60.254081
VND 26102.148345
VUV 123.560585
WST 2.914976
XAF 656.581887
XAG 0.032929
XAU 0.000372
XCD 2.812694
XDR 0.795092
XOF 655.158179
XPF 119.331742
YER 259.01801
ZAR 19.264223
ZMK 9368.048619
ZMW 29.07239
ZWL 335.122852
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa
En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa / Foto: Stefani REYNOLDS - AFP

En la era de la IA, las mujeres son las principales víctimas de la pornografía falsa

Aplicaciones fotográficas que desnudan digitalmente a las mujeres, la posibilidad de crear desde una simple frase fotos de "chicas de inteligencia artificial (IA)" e imágenes manipuladas que alimentan la "extorsión sexual": el auge de la pornografía ultrafalsa está superando esfuerzos de EEUU y Europa para regular la tecnología.

Tamaño del texto:

Las falsificaciones de fotos y videos cada vez más realistas basadas en IA -llamadas "deepfakes"- generalmente se asocian a personalidades conocidas, como el papa Francisco con un abrigo acolchado o Donald Trump bajo arresto, pero los expertos afirman que su uso se está extendiendo para generar pornografía no consensuada que puede destruir vidas comunes y corrientes.

Las mujeres son un objetivo particular de las herramientas y aplicaciones de IA, ampliamente disponibles de forma gratuita y sin necesidad de conocimientos técnicos, que permiten a los usuarios retirar digitalmente la ropa de sus fotos o insertar sus rostros en videos sexualmente explícitos.

"El aumento de la pornografía generada por IA y de la 'deepfake porn' normaliza el uso de la imagen de una mujer sin su consentimiento", explica a la AFP Sophie Maddocks, investigadora de la Universidad de Pensilvania que estudia los abusos sexuales basados en imágenes.

"¿Qué mensaje enviamos como sociedad sobre el consentimiento cuando se puede desnudar virtualmente a cualquier mujer?", comentó.

En un dramático video, una "streamer" estadounidense de Twitch conocida como QTCinderella lamentó la "constante explotación y cosificación" de las mujeres cuando se convirtió en víctima del "porno deepfake". Fue acosada, agregó, por personas que le enviaban copias de las manipulaciones en las que aparecía.

El escándalo estalló en enero durante una transmisión en vivo del también "streamer" Brandon Ewing, quien fue sorprendido mirando un sitio web que contenía imágenes sexuales falsas de varias mujeres, entre ellas QTCinderella.

"No es tan simple como 'sólo' ser violada. Es mucho más que eso", escribió la creadora de contenido en Twitter, ahora llamado X, añadiendo que la experiencia la había "arruinado".

- "Chicas hiperreales" -

La proliferación de "deepfakes" subraya la amenaza de la desinformación habilitada por la IA, que puede dañar la reputación y provocar intimidación o acoso.

Si bien celebridades como la cantante Taylor Swift y la actriz Emma Watson han sido víctimas de la pornografía falsa, las mujeres que no están en el ojo público también son el objetivo de estos ataques.

Los medios de comunicación estadounidenses y europeos están llenos de testimonios de primera mano de mujeres, desde académicas hasta activistas, que se sorprendieron al descubrir sus rostros en videos pornográficos falsos.

Alrededor del 96% de los videos "deepfake" en línea son pornografía no consensuada y en la mayoría de ellos aparecen mujeres, según un estudio de 2019 realizado por la empresa holandesa de IA Sensity.

"El acto de la fantasía sexual, que antes era privado y que tiene lugar dentro de la mente de alguien, se transfiere ahora a la tecnología y a los creadores de contenidos en el mundo real", dijo a la AFP Roberta Duffield, directora de inteligencia de Blackbird.AI.

Hay aplicaciones gratuitas que pueden crear "chicas hiperreales de IA", avatares a partir de fotos reales, personalizándolas con indicaciones como "piel oscura" u otras con connotaciones sexuales.

- "Rincón oscuro" -

Los avances tecnológicos han dado lugar a lo que Duffield denomina una "industria artesanal en expansión" en torno al porno potenciado con IA, en la que muchos creadores de "deepfakes" aceptan solicitudes pagas para generar contenidos con una persona que el cliente elige.

El mes pasado, el FBI emitió una advertencia sobre los "esquemas de sextorsión", en los que los estafadores capturan fotos y videos de las redes sociales para crear material falso de "temática sexual" que luego se utilizan para chantajear al usuario afectado.

El FBI añadió que entre las víctimas había menores de edad y adultos que no dieron su consentimiento.

La proliferación de herramientas de inteligencia artificial ha superado la regulación.

"Esto no es un rincón oscuro de Internet, donde se crean y comparten estas imágenes", dijo a la AFP Dan Purcell, director ejecutivo y fundador de la empresa de protección de marcas de inteligencia artificial Ceartas.

"Está justo delante de nuestras narices. Y sí, la ley debe ponerse al día", añadió.

En Estados Unidos, cuatro estados, incluidos California y Virginia, prohibieron la distribución de pornografía falsa, pero las víctimas suelen tener pocos recursos legales si los perpetradores viven fuera de estas jurisdicciones.

En mayo, un legislador estadounidense presentó la Ley de prevención de falsificaciones profundas de imágenes íntimas, que haría ilegal compartir pornografía falsificada sin consentimiento.

Espacios en línea populares, como Reddit, también han tratado de regular sus florecientes comunidades de pornografía con IA.

"Internet es una jurisdicción sin fronteras, y debe haber una ley internacional unificada para proteger a las personas contra esta forma de explotación", dijo Purcell.

burs-ac/st/tjj/db/arm

K.Nakajima--JT