Advertencia: este artículo incluye relatos de primera mano sobre abusos sexuales.
Una colección de miles de fotografías de mujeres desnudas que se está utilizando para crear pornografía generada por aprendizaje automático incluye imágenes de compañías pornográficas que han sido acusadas de mentir y coaccionar a las mujeres para que tengan sexo frente a la cámara.
Videos by VICE
El conjunto de datos, que está circulando en comunidades de creación de pornografía deepfake en línea, incluye imágenes extraídas de Czech Casting, una productora de pornografía en la República Checa que la policía ha acusado de trata de personas y violación, así como imágenes fijas de videos producidos por Girls Do Porn, a la que se le ordenó pagar casi 13 millones de dólares a 22 mujeres que aparecieron en sus videos, y cuyo fundador es actualmente un fugitivo en la lista de los más buscados por el FBI.
Al igual que thispersondoesnotexist.com, que utiliza un algoritmo de aprendizaje automático y miles de imágenes de rostros humanos para producir imágenes de personas que no existen, el conjunto de datos se está utilizando para generar imágenes de mujeres desnudas que no son reales y no se ven exactamente como ninguna persona. Una persona que usa el conjunto de datos está creando lo que él describe como “un harén de millones de actrices” que puede insertarse en la pornografía deepfake, mientras que otro lo está usando para crear lo que él llama “pornografía generada completamente por IA”.
Motherboard descargó y vio el conjunto de datos que contiene imágenes de Czech Casting y Girls Do Porn, así como varios otros que se utilizan para crear pornografía generada por aprendizaje automático.
Las personas que usan estos conjuntos de datos de forma anónima dicen que, dado que las imágenes generadas mediante algorítmos que crean tecnicamente no son de personas reales, no dañan a nadie. De hecho, argumentan que sus creaciones son un paso hacia un futuro donde la pornografía no requerirá artistas porno humanos en absoluto. Pero los expertos legales, los tecnólogos y las mujeres que son incluidas en los conjuntos de datos describieron estas creaciones como increíblemente deshumanizantes.
Motherboard ha escrito extensamente sobre cómo las deepfakes y la incapacidad de las plataformas de internet para reducir lo suficiente la propagación de la pornografía sin consentimiento altera la vida de las mujeres y las traumatiza continuamente. Esta nueva forma de pornografía generada por aprendizaje automático y los conjuntos de datos en los que se basa introducen una nueva forma de abuso, donde los peores momentos de la vida de algunas mujeres, capturados en cámara, se conservan, se descontextualizan y se difunden en línea al servicio de la creación de pornografía cuyos creadores afirman presentar a personas que en realidad no existen.
Honza Červenka, abogado del bufete McAllister Olivarius que se especializa en tecnología y pornovenganza, es originario de la República Checa y ha estado siguiendo el caso de Czech Casting, propiedad de Netlook, la empresa de pornografía más grande del país. Červenka le dijo a Motherboard que la idea de que las imágenes son menos dañinas porque se ejecutan a través de un algoritmo y se “anonimizan” es una cortina de humo.
“Es una locura, algo que revictimiza a las víctimas de los perpetradores de Czech Casting”, dijo.
“Es muy injusto, es como si me estuvieran quitando la libertad”, le dijo a Motherboard Jane, una mujer que dijo que la obligaron a grabar una escena para Czech Casting.
El engaño del “casting de sofá”
Jane, que pidió permanecer seudónima para hablar sobre un incidente traumatizante, recuerda que le temblaban las manos mientras leía un contrato para Czech Casting. Estaba allí para apoyar a su amiga, que necesitaba dinero para el alquiler. Respondieron a un anuncio de modelaje y decidieron ir juntas. Ambas acababan de cumplir 18 años. No sabían qué tipo de modelaje era; el anuncio era poco preciso con los detalles. Alguien las recogió en una parada de metro y las llevó a una casa en las afueras de Praga.
(En una entrevista con el fisicoculturista checo Antonin Hodan publicada en YouTube, un actor de Czech Casting llamado Alekos Begaltsis admitió que las mujeres que se presentan a las sesiones a veces no saben lo que les espera debido a la publicidad engañosa.
“Las chicas también llegan a través de agencias con la ayuda de agentes privados o de amigos, cualquiera puede recomendar”, dijo Begaltsis. “No podemos controlar cada pieza de información en la publicidad. Puede pasar que una chica llegue aquí pensando que hará una sesión de fotos en ropa interior. Lo cual es una mierda porque no podemos hacer nada en estas situaciones. Estamos tratando de presionarlos para que escriban la verdad [en los anuncios]. Lamentablemente, no siempre es así. Pero una vez que llega, le informamos de todo”).
Una vez en el estudio, una mujer en la recepción tomó la identificación de Jane.
“Nos sentamos en una sala de espera y nos levantamos para irnos dos o tres veces, pero siempre venía alguien y nos decía que nos quedáramos, que no tuviéramos miedo”, dijo. “Nos dio miedo irnos, entonces nos quedamos”.
Una mujer las llamó una por una a una habitación con un sofá blanco donde se realizaría la filmación y les entregó un contrato que decía que los videos no estarían disponibles para nadie en la República Checa. Esta parte del acuerdo es similar a la mentira que Girls Do Porn les decía a las mujeres sobre cómo sus videos solo se distribuirían a “coleccionistas” en Nueva Zelanda. En realidad, los videos de Girls Do Porn se publicaron y vendieron en los EE. UU. y se promocionaron en Pornhub.
Czech Casting sí bloquea a los usuarios que intentan acceder a él desde la República Checa, confirmó Motherboard al intentar acceder al sitio utilizando una red privada virtual. Pero las personas dentro del país también pueden eludir fácilmente el bloqueo utilizando una VPN, que es gratuita y fácil de configurar. Además, como han dicho las mujeres que acusaron a Czech Casting, sus familiares y amigos no tardaron en descubrir sus videos, que se volvieron a publicar en pa´ginas porno gratuitas, donde a veces divulgaban sus nombres reales.
“Semanas después comencé a recibir mensajes… En su mayoría eran de hombres que decían lo hermosa que era y que si podían tener sexo conmigo”, dijo Jane. “Recibí muchos de estos mensajes y los sigo recibiendo. Incluso cambié mi nombre de Facebook por esto”.
Después de que firmó el contrato, entró un hombre y le preguntó si era virgen. Dijo que sentía que no tenía salida y que no podía irse sin su identificación.
“Después de que dije que sí, tomó la cámara y me dijo que me desnudara”, dijo Jane. “Me dijeron que iban a filmar algo suave… Tenía miedo de hablar”.
Jane dijo que le pusieron el dinero en las manos cuando iba saliendo. No le dieron una copia del contrato que firmó, ni ninguna prueba de que hubiera estado allí.
“Mi amiga encontró la habitación en la que estábamos en un sitio porno”, dijo Jane. “Me di cuenta de que todo era una mierda. Seguí pensando que debimos habernos ido, aunque eso significara perder nuestras identificaciones”.
En otro video de Czech Casting, una mujer, que Motherboard pudo confirmar que está incluida en el conjunto de datos, comienza a llorar mientras tiene relaciones sexuales y le pide al hombre que se detenga. El hombre se detiene y la cámara se acerca para mostrar que está sangrando. Le entrega una toalla y le dice que limpie la sangre.
La historia de Jane sobre Czech Casting no es la única. Varias mujeres han acusado a Czech Casting de obligarlas a tener sexo frente a la cámara. La policía checa ha acusado a nueve personas involucradas con Netlook, la empresa detrás de Czech Casting, de trata de personas y violación. Daisy Lee, una mujer que siguió una carrera en el porno después de su escena de Czech Casting y que ahora es amiga de Begaltsis, dijo que el sitio ha arruinado muchas vidas.
“Tenía 18 años y no sabía en qué me estaba metiendo. La mayoría de las chicas no lo saben. La mayoría se queda, pero algunas se van. Han arruinado muchas vidas”, le dijo Lee a Motherboard.
En un comunicado publicado en julio por el sitio de noticias de entretenimiento para adultos Xbiz, Netlook negó las acusaciones y dijo que está cooperando con la policía. Netlook no respondió a la solicitud de comentarios de Motherboard.
GeneratedPorn
En septiembre, cuatro años después de que Jane filmara su escena para Czech Casting, un estudiante de doctorado abrió un nuevo foro para mostrar su último proyecto personal de inteligencia artificial: pornografía generada mediante algoritmos.
La persona que hace estos videos se hace llamar “GeneratedPorn” y creó el subreddit r/GeneratedPorn para publicar sobre la tecnología (en este artículo nos referiremos a este usuario como “GP”). GP dijo que comenzó el proyecto porque quería mejorar sus habilidades de aprendizaje automático. Al igual que algunos de los primeros deepfakes que se publicaron en línea en 2017, lo que compartió fueron facsímiles con fallas y espasmos de las imágenes en las que están entrenadas: miles de videos e imágenes porno. A diferencia de gran parte del porno deepfake, las imágenes que está produciendo GP no engañarían a nadie haciéndole creer que son porno real. El resultado final apenas parece humano, y mucho menos se ve como una persona específica.
Pero al igual que los primeros deepfakes, cada vez son más realistas. GP ha publicado varios experimentos en las últimas semanas con cuerpos humanos desnudos cada vez más precisos, e incluso algunas imágenes ligeramente animadas, que muestran que no es imposible hacer “pornografía generada completamente por IA” convincente.
“Todo esto comenzó como una búsqueda para aprender cómo funcionaba toda esta tecnología, pero luego terminé enfocándome en la producción de porno porque pensé que era un concepto cool, especialmente después de ver la película Her”, le dijo GP en un correo electrónico a Motherboard.
GP le explicó su proceso a Motherboard por correo electrónico, igual de detallado que en Reddit, donde lo publicó en la popular comunidad de r/MachineLearning. Usó un modelo Stylegan2 que está disponible en Github como código de fuente abierta, pero lo cargó con conjuntos de datos de pornografía. Es similar a cómo se hace cualquier otro deepfake de intercambio de caras, pero en lugar de usar un conjunto de datos que consta de muchas expresiones del rostro de una persona, lo extrajo de varios conjuntos de datos que se encuentran en línea.
Para crear los videos, GP entrenó los algoritmos utilizando conjuntos de datos de toda la web, incluido uno que consiste principalmente en imágenes extraídas de Czech Casting. Los conjuntos de datos, que están alojados y se pueden descargar gratis de sitios populares para compartir archivos, son compilados por usuarios que experimentan con deepfakes y otras formas de imágenes generadas mediante algoritmos. GP encontró el conjunto de datos de Czech Casting en uno de estos sitios web para compartir archivos, pero dijo que si no lo hubiera hecho, habría escrito un web scraper para recopilar las imágenes de Czech Casting.
Esto se debe al alcance y la uniformidad del porno que ha creado Czech Casting.
Crear videos generados mediante algoritmos de un cuerpo completo y desnudo requiere muchas imágenes y videos de personas desnudas reales, y es difícil imaginar un recurso más adecuado para la tarea que Czech Casting.
Czech Casting, al igual que Girls Do Porn, se especializó en porno estilo “casting de sofá”, y ha publicado miles de videos de mujeres a lo largo de los años. Su estilo de producción era casi algorítmico para empezar: cada video viene con un conjunto uniforme de fotografías. Cada conjunto incluye una fotografía de la mujer sosteniendo un cartel amarillo con un número que indica su número de episodio, como foto de ficha policial. Cada conjunto también incluye fotografías de las mujeres posando en una serie de tomas vestidas y desnudas sobre un fondo blanco: lado derecho, lado izquierdo, frente, espalda, así como primeros planos extremos de la cara, pezones individuales y genitales. En los últimos años, Czech Casting también comenzó a incluir fotografías de 360 grados de las mujeres, donde posan para contenido interactivo de RV.
“La principal razón por la que la gente opta por una fuente de datos como esta es que los modelos generativos antagónicos (conocidos como GANs en inglés) que usan las personas, están tratando de aprender una estructura general de una imagen para la clase de objetos que estás tratando de generar”, dijo GP. “Si tus imágenes son estructuralmente similares, el modelo puede aprender más sobre los detalles más finos/granulares de la clase de elemento, como hoyuelos o pecas en una cara. Lo que conduce a un resultado de mayor calidad”.
GP le envió a Motherboard una muestra del conjunto de datos que está usando, que también incluía imágenes de videos de Girls Do Porn. Otros conjuntos de datos que está usando incluyen imágenes que parecen ser extraídas de internet, incluidos otros sitios de pornografía, redes sociales y subreddits donde los usuarios publican selfies, como r/roastme, un subreddit donde las personas publican imágenes de sí mismos para que otras personas los juzguen.
Gigabytes de imágenes de fuentes cuestionables
En una publicación en el subreddit r/MachineLearning que explica cómo funciona su pornografía generada mediante algoritmos, GP hace una pausa a la mitad de la explicación para abordar “un posible problema ético”.
“No estaba seguro de qué hacer con eso, aparte de ser algo cool que creé… había contemplado hacer un OnlyFans y ofrecer nudes personalizadas generadas por IA que hablen con la gente”, escribió. “Pero alguien que conocí desaprobó mi idea y me dijo que sería como explotar a los hombres que necesitan compañía. Así que decidí no seguir con esa idea para evitar ese asunto de la ética”.
También señaló en esa publicación que formar la ética del conjunto de datos es algo que le preocupa. “¿Son éticas las imágenes que estamos formando o las personas en las imágenes han sido explotadas de alguna manera[?]”, escribió. “Una vez más, no puedo verificar el trasfondo de cientos de miles de imágenes, pero puedo asumir que algunas de las imágenes en el conjunto de datos pueden tener una dinámica de poder abusiva”, señalando que algunas de las imágenes son de Girls Do Porn. “No estoy seguro de si es posible incluir en la lista negra datos de carácter abusivo si éstos fueron extraídos de la web. Necesito considerarlo un poco más”.
Estas interrogantes no impidieron que GP construyera el proyecto en público, en plataformas de redes sociales, lo que significa que está perpetrando daños independientemente de los dilemas éticos que diga que puede tener. Gran parte del contenido sin consentimiento más perjudicial se difunde en internet a través de plataformas superficiales como Twitter, Facebook, Reddit, OnlyFans y sitios porno como XVideos y Pornhub.
“Muchas páginas porno convencionales albergan pornografía infantil y pornografía sin consentimiento, y representan violaciones y se benefician de ellas vendiendo anuncios”, dijo Červenka.
Cuando Motherboard se puso en contacto con Reddit para hacer comentarios al respecto, un portavoz dijo que las políticas de todo el sitio de Reddit “prohíben la pornografía involuntaria, que se aplica a todo el contenido, incluidos los deepfakes”. Reddit prohibió los deepfakes en 2017. Tanto r/GeneratedPorn como r/AIGeneratedPorn fueron cerrados después de la solicitud de comentarios de Motherboard.
El perfil de usuario de GeneratedPorn en Pornhub también fue elimindado después de que Motherboard contactara a Pornhub. Un portavoz de Pornhub se negó a hacer comentarios al respecto.
La pa´gina porno xHamster eliminó el perfil de usuario de GP en espera de una revisión adicional: “Estos nuevos tipos de contenido son áreas grises y tendremos que revisar con nuestro propio equipo de aprendizaje automático y el equipo de Términos y Condiciones para determinar cómo evaluar y, cuando sea necesario, prevenir”, dijo un portavoz de xHamster.
XVideos, otro sitio prono gratuito, nos direccionó a un formulario para la eliminación de contenido.
OnlyFans no respondió a una solicitud de comentarios. Patreon, donde GP no tuvo éxito pidiéndole a la gente que financiara su proyecto, le dijo a Motherboard que, si bien no se permite financiar contenido sexual sin consentimiento en la plataforma, si una cuenta contiene pornografía sin consentimiento, la plataforma trabaja con el creador para llevar la cuenta dentro de sus términos de uso. El proyecto fue retirado de Patreon desde noviembre.
Twitter nos direccionó a su política relativa a la desnudez no consensuada y su política relativa al contenido multimedia de carácter delicado.
“¿Ahora cualquiera puede usar esas imágenes para crear un punto de partida que, potencialmente en las próximas décadas, se use en imágenes generadas por computadora?”
En un correo electrónico a Motherboard, GP expresó otra preocupación ética: que el algoritmo podría producir algo que sea reconocible como un ser humano real, un resultado que negaría todo el objetivo de su proyecto: el anonimato.
“Es muy posible que el algoritmo reproduzca personas falsas que se parecen a personas reales, pero no sería una réplica 1 a 1 de los datos con los que se ha formado”, dijo. “Esto presenta un problema ético que estoy tratando de resolver, que consiste en identificar las situaciones raras en las que replica a una persona a partir de las ~ 7500 imágenes de las que está aprendiendo. Es algo que afecta a las redes generativas… Es posible y no estoy del todo seguro de cómo evitar al 100% la posibilidad de que esto suceda. Pero sí lo quiero evitar. No me interesa falscificar la identidad de nadie, incluso por accidente, ¡en mi humilde opinión es un poco asqueroso!”.
GP no es el único haciendo este tipo de proyectos. El creador de los primeros deepfakes le dijo a Motherboard casi lo mismo en 2017: que no era un investigador profesional, solo un programador interesado en el aprendizaje automático que “acababa de encontrar una manera inteligente de hacer face-swap”, dijo.
These Nudes Do Not Exist y un proyecto posterior del mismo creador llamado “Harem” probablemente extraen sus datos de Czech Casting; las imágenes se ven claramente similares, pero el creador de ese proyecto no ha respondido a las solicitudes de comentarios sobre dónde provienen las imágenes de su conjunto de datos. Otro proyecto abandonado en r/AIGeneratedPorn hizo lo mismo.
El verdadero problema ético que afecta a este proyecto no es el riesgo de quitarle dinero a los hombres solitarios. Basta una simple búsqueda en línea de Czech Casting, y un conocimiento básico del concepto de contenido pirateado que es dañino, para reconocer que los conjuntos de datos a partir de los cuales se construyen estas mujeres inexistentes están compuestos por gigabytes de pornografía de origen cuestionable y algunos representan agresión sexual.
En noviembre de 2020, una noche antes de que se publicara esta historia y después de suspendieran su cuenta de Patreon, GP le dijo a Motherboard que “decidió cerrar el proyecto”.
“Ciertamente debería ser ilegal”
Jane le dijo a Motherboard que esperaba que su video se perdiera entre tantos otros en línea y que nadie lo encontrara. “Pero siempre hay alguien que logra sacarlo de las profundidades de internet”, dijo.
Červenka, el abogado del bufete de abogados McAllister Olivarius que se especializa en tecnología y pornovenganza, le dijo a Motherboard que debido a que algunos de los videos de Czech Casting fueron supuestamente editados para parecer consensuados desde el principio, siempre han sido engañosos y perjudiciales, y pasarlos por la licuadora de los algoritmos de aprendizaje automático no los hace menos dañinos.
“¿Ahora cualquiera puede usar esas imágenes para crear un punto de partida que, potencialmente en las próximas décadas, se use en imágenes generadas por computadora? Es terrible, a nivel personal, y ciertamente debería ser ilegal”, dijo Červenka.
Incluso para los artistas pornográficos profesionales, el contenido robado es un problema que afecta a la industria. La estrella porno Leah Gotti, cuyas imágenes son parte de los conjuntos de datos que GP está usando sin su consentimiento, me dijo que el problema del contenido robado no es solo una falta de respeto, es peligroso. Actualmente está trabajando para evitar que un fanático acosador cree cuentas de Instagram falsas de ella y se dirija a su familia robando su contenido y volviéndolo a publicar.
“Simplemente se remonta a, nadie respeta a las trabajadoras sexuales”, me dijo Gotti. “Todas esas cosas son pirateadas, y se supone que eso va en contra de todas las reglas, pero como tenemos sexo frente a la cámara, dicen, bueno, ella se lo buscó”.
A principios del año pasado, una supuesta filtración de OnlyFans de una base de datos de pornografía robada amenazó con poner a las trabajadoras sexuales en esa plataforma en peligro de ser acosadas.
Daisy Lee, la actriz que comenzó con Czech Casting cuando tenía 18 años, pero continuó trabajando en la industria para adultos después, le dijo a Motherboard que se siente culpable por pensar que los videos no se volverían virales en todo el mundo.
“No lo ponen en servidores checos, pero la gente lo descarga y vuelve a cargarlo en todas partes”, dijo Lee. “Todas las chicas que entran piensan que sus amigos y familiares no los verán … 14 días después [mi] video estaba en todas partes. Destruyó mi reputación y se extendió por mi ciudad natal en cuestión de horas. Pero nadie me obligó a hacer nada, no me drogaron ni nada de eso”.
Muchas de las mujeres que fueron atacadas por Girls Do Porn también se sienten culpables por creer las mentiras de la compañía que afirman que los videos permanecerán en una región determinada, en ese caso, en colecciones privadas de Nueva Zelanda, en DVD. Pero todo el sistema de pornografía en línea, y todo el contenido en línea para el caso, está configurado para difundir videos y fotos sobre todo aquellos que más se intentan eliminar. Los algoritmos son impulsados por lo que la gente les da de comer. Una modelo de Czech Casting perdió su trabajo de maestra después de que los estudiantes encontraron su episodio en línea, y cuando habló sobre sentirse víctima de la compañía, la gente buscó más su video.
“El investigador en mí siente que ‘si algo fue publicado en línea es de código abierto y es un juego limpio’, sin embargo, el capitalista en mí siente que eso viola la propiedad intelectual en cierto sentido”, dijo GP. “Estoy un poco en conflicto. Personalmente he aceptado que cualquier dato que cree como individuo será utilizado por otros con fines de lucro o investigación”.
GP también dijo que cree que el tipo de abuso del que se le acusa a Czech Casting es “horrible”, pero que es difícil detectar este tipo de abuso al crear o usar conjuntos de datos.
“No existe el uso ético de una IA que utilice imágenes de bases de datos sin consentimiento”
“Ahora que el abuso está presente, puedo optar por no usar esos datos y los datos de origen de otros lugares”, dijo GP. “Es posible que a otras personas en el área no les importe y que decidan usarlo de todos modos. Es bastante difícil filtrar estos datos por completo. Si haces una búsqueda de imágenes en Google de “mujer desnuda de pie”, obtendrás un montón de imágenes de Czech Casting.
Si bien GP dijo que podía optar por no usar imágenes producidas por Girls Do Porn y Czech Casting, no dijo que lo haría, ni está claro si su proyecto y otros similares podrían funcionar sin esas imágenes. GP también sugirió que su proyecto también podría ayudar de alguna manera a estas mujeres.
“Me siento mal por las víctimas de este abuso y no puedo decir nada que las haga sentir mejor”, dijo. “Mi única esperanza es que la tecnología como la que estoy trabajando, ahora y en el futuro, conduzca a una reducción del daño a los demás. Al hacer que cometer abusos sea una opción económica y tecnológicamente inferior”.
Červenka dijo que incluso después de tres años de pánico deepfakes y décadas más de pornografía sin consentimiento en línea, las leyes para detener esto no se han puesto al día. Las víctimas pueden hacer un reclamo legal de que han sido retratadas con una luz falsa o difamadas, especialmente cuando el contenido se edita de forma engañosa para que parezca consensual. Pero eso a menudo no es suficiente.
“Estas leyes han existido durante mucho tiempo, y solo estamos tratando de usarlas en el contexto actual, porque no tenemos nada más”, dijo Červenka. “La legislatura es incapaz de lidiar realmente con lo que la gente hace en línea, y cómo regular los efectos dañinos de lo que la gente hace en línea”.
También se vuelve más difícil perseguir a cualquiera que aloje el contenido si lo hace de forma anónima, en todo el mundo, donde cada sistema legal es diferente. Incluso en los EE. UU., donde algunos estados han promulgado leyes específicas de deepfakes, difiere de un estado a otro.
Cuando el contenido está enterrado dentro de un conjunto de datos, el problema es mucho más difícil.
¿Es posible hacer pornografía con IA ética?
Los abusos que soportaron las mujeres en Czech Casting y Girls Do Porn sucedieron en el mundo real, pero los videos difundidos en línea lo empeoraron. Algunas víctimas de Girls Do Porn se vieron obligadas a cambiar de nombre, mudarse de estado, abandonar la escuela y perder sus carreras o sus relaciones con familiares y amigos. Las víctimas de Czech Casting tienen historias similares.
Las víctimas de la pornovenganza, así como las estrellas porno amateur y profesionales, pasan horas enviando solicitudes para eliminar contenido a sitios web que alojan sus imágenes. A menudo, esas solicitudes son ignoradas. Y cuando se trata de conjuntos de datos que se utilizan para crear más pornografía, es difícil saber dónde viven tus imágenes, a menos que puedas ubicar dónde están alojadas y descargar un gran conjunto de archivos, luego clasificarlos para encontrarte. Sus peores momentos quedan consagrados para siempre entre los gigabytes de otros.
En los últimos años se han realizado esfuerzos para crear conjuntos de datos de aprendizaje automático que sean totalmente consensuados. Después de las fallas de privacidad de MS-Celeb-1M, un conjunto de datos de 10 millones de fotos de 100.000 personas recopiladas de internet, que van desde periodistas hasta músicos y activistas, hay más conciencia que nunca sobre los usos éticos de los rostros de las personas. En 2019, para su “Deepfakes Detection Challenge“, Facebook lanzó un conjunto de datos que consta de 100.000 videos de actores pagados para que los utilicen los investigadores. Uno de los patrocinadores de ese desafío fue el sitio de la comunidad de ciencia de datos Kaggle. Uno de los conjuntos de datos que usó GeneratedPorn está alojado en Kaggle y parece ser contenido porno en gran parte robado.
Si los ingenieros de aprendizaje automático interesados en crear pornografía con inteligencia artificial quisieran comenzar un proyecto completamente ético, harían algo similar a lo que hizo Facebook con su conjunto de datos para el desafío.
“Obtendrían el consentimiento de las personas que quieren ser modelos de desnudos, y dirían que para esto es para lo que lo vamos a construir, y que todo va en aumento”, Rumman Chowdhury, científico de datos y fundador de la firma de IA ética Parity, le dijo a Motherboard. “Y tal vez incluso [los modelos] obtendrían regalías, [los ingenieros] construirían su IA, la venderían como pornografía y, de hecho, les iría bastante bien”. Pero hacer las cosas de la manera correcta cuesta dinero, y cuando estás jugando con la pornografía como un proyecto paralelo, generalmente es dinero que no tienes. El proyecto de r/AIGeneratedPorn murió porque alquilar el tiempo del servidor y ejecutar la capacitación era demasiado costoso, según una publicación en ese subreddit antes de que lo bajaran.
“No existe el uso ético de una IA que utilice imágenes de bases de datos sin consentimiento”, dijo Chowdhury.
“¿Cómo puede una tecnología que en su esencia tiene videos de violación no ser una perpetuación de la cultura de la violación?” dijo Červenka. “Yo no podría dormir si fuera [GP], porque él confía en imágenes de abuso para crear un monstruo de Frankenstein”.