Fake porn: una nueva forma de abuso usando inteligencia artificial

Rosalía denuncia fotos falsas de ella desnuda. Lo peor: no es la única. Herramientas de inteligencia artificial están siendo usadas para crear ‘fake porn’.

A solo un par de días de que la periodista costarricense, Johanna Villalobos, denunciara que alteraron una foto suya con inteligencia artificial para quitarle la ropa y compartirla en WhatsApp, ahora Rosalía evidenció que también ella fue víctima de lo que se conoce como fake porn o porno falso.

La motomami mayor publicó en Twitter su reclamo al cantante JC Reyes, quien publicó fotos falsas suyas donde aparece con el torso desnudo.

El cuerpo de una mujer no es propiedad pública, no es una mercancía para tu estrategia de marketing. Esas fotos estaban editadas y creaste una falsa narrativa alrededor cuando ni te conozco. Existe algo llamado consentimiento.

Rosalía

Reyes, quien inicialmente sugirió que esa imagen se la había pasado la cantante de Saoko, después dijo que él mismo la editó… y ‘aprovechó’ para promocionar su próxima canción llamada Rosalía.

Tristemente, ni el de Johanna ni el de Rosalía son casos aislados, sino que replican una forma de abuso digital que ha tomado fuerza en últimos meses, pues cada vez más mujeres denuncian la aparición de fotos suyas falsas donde se ven desnudas y que, al parecer, fueron editadas con herramientas de inteligencia artificial.

El uso de algoritmos de aprendizaje automático para crear imágenes realistas ha llevado a la creación de sistemas de IA generativa capaces de generar rostros y cuerpos ficticios que se asemejan a personas reales. Desafortunadamente, algunas personas han comenzado a utilizar esta tecnología para crear imágenes pornográficas falsas de individuos sin su consentimiento. Estas imágenes pueden ser extremadamente convincentes y difíciles de distinguir de las fotografías reales, lo que aumenta el riesgo de su difusión no consensuada y el daño a la reputación y la privacidad de las personas afectadas.

Hace algunas semanas, entre lágrimas, la tiktoker @rache.lhz5 denunció en un video que un usuario le había compartido por Instagram fotos suyas en donde aparecía desnuda. Eran fotos que ella había publicado en Instagram, como le pasó a Johanna, y que alguien modificó para quitarles la ropa.

En otro caso también muy sonado, el blogger de Twitch, Brandon Ewing —conocido en Internet como «Atrioc»— , enfrentó duras críticas cuando en una transmisión en vivo se pudo ver un monitor de computadora en el que estaba abierta una página de fake porn. Él se disculpó y Twitch anunció que actualizó sus lineamientos para prohibir el porno falso.

La tendencia del fake porn

Hablamos de fotos que sexualizan a mujeres sin su consentimiento y que incluso, en algunos casos, se han puesto a la venta.

Si bien esto no es nuevo, pues desde hace años está disponible la tecnología deepfake —término que se comenzó a utilizar en 2017 para referirse a videos alterados digitalmente o imágenes creadas para colocar a alguien en un escenario falso—, lo que ha ocurrido recientemente es que el auge de herramientas de inteligencia artificial ha facilitado la creación de este contenido para fines pornográficos.

Qué es Fake porn

Según el informe The State of Deepfakes: landscape, threats and impact (2019), de la compañía de ciberseguridad Deeptrace Labs, el auge de esta tecnología está mostrando que “nuestra creencia histórica de que el video y el audio son registros confiables de la realidad ya no es sostenible”. Y compartió un dato que expone la gravedad del problema: el 96% del contenido deepfake disponible en internet era pornografía no autorizada, es decir, fake porn.

Desde una perspectiva legal, la creación y distribución de este tipo de contenido sin el consentimiento de las personas implicadas viola su privacidad y puede considerarse una forma de acoso, difamación o incluso pornografía infantil en casos que involucren a menores.

Desde el punto de vista ético, la creación y difusión de imágenes íntimas falsas sin consentimiento es una violación de la dignidad y la autonomía de las personas afectadas que pueden ser objeto de abuso y explotación sin su conocimiento o control.

Sin embargo, la naturaleza del internet y la dificultad de rastrear y responsabilizar a los culpables hacen que sea un desafío abordar este problema desde una perspectiva jurídica.

Cómo podemos evitar el auge de abusos a mujeres usando inteligencia artificial

Mientras este tipo de casos sigue en aumento surgen preguntas importantísimas:

¿Cómo podemos evitar que esto siga ocurriendo?, ¿qué papel tienen las empresas generadoras de herramientas con inteligencia artificial para prevenir que cualquier persona pueda hacer una imagen de fake porn?, ¿y los gobiernos?, ¿qué legislaciones se están aprobando para proteger a las personas de esto?, ¿qué hacer si te pasa algo así?

Ante todas estas dudas decidimos preguntarle a la herramienta de inteligencia artificial Chat GPT:

¿Cómo contrarrestar el fake porn usando la misma tecnología que la provoca?

Y esto nos respondió.

  • Tecnologías de detección automática
    Podemos desarrollar algoritmos de IA que sean capaces de detectar y distinguir imágenes generadas por IA de las imágenes reales. Estos sistemas pueden utilizar técnicas de aprendizaje automático para identificar patrones y características específicas que son típicas de las imágenes generadas por IA.
  • Herramientas de verificación de autenticidad
    La IA generativa también puede ayudar a desarrollar herramientas que verifiquen la autenticidad de las imágenes. Estas herramientas pueden analizar elementos como metadatos, huellas digitales o características ocultas en las imágenes para determinar si han sido manipuladas o generadas por IA.
  • Marcas de agua digitales
    Las marcas de agua digitales pueden ser utilizadas para identificar imágenes auténticas y rastrear su origen. La IA generativa puede ayudar a desarrollar algoritmos que generen marcas de agua únicas e irremovibles, lo que dificultaría la manipulación de imágenes sin dejar rastro.
  • Educación y concientización
    La inteligencia artificial generativa puede utilizarse para crear ejemplos y simulaciones que ayuden a educar y concienciar a las personas sobre la existencia de imágenes falsas generadas por IA. Esto puede incluir programas de formación que enseñen a las personas a identificar señales de manipulación o uso indebido de imágenes.

Es importante destacar que estas soluciones tecnológicas deben ir acompañadas de una legislación adecuada y una mayor responsabilidad por parte de los proveedores de plataformas y los usuarios. Además, es esencial encontrar un equilibrio entre el uso de la IA para contrarrestar este problema y preservar la privacidad y los derechos de las personas en el proceso. La colaboración entre gobiernos, instituciones académicas, empresas y organizaciones de la sociedad civil es fundamental para abordar esta problemática de manera efectiva.

Al parecer, la inteligencia artificial lo tiene muy claro. Los humanos que hacen mal uso de ella, no tanto.

Recomendado

Cómo protegernos de las nudes falsas hechas con inteligencia artificial

Las herramientas de inteligencia artificial están facilitado uno de...

Recomendado

Así se vivió la marcha del Orgullo 2024 en CDMX

Como cada año, la Ciudad de México se llenó...

El genocidio se disfraza de arcoiris: así es como las fuerzas armadas instrumentalizan el lenguaje de derechos

Por: María Fernanda Ramos Araujo, IntersectaEn colaboración con Intersecta En...

Cómo protegernos de las nudes falsas hechas con inteligencia artificial

Las herramientas de inteligencia artificial están facilitado uno de...
Salir de la versión móvil