Arrestan a hombre por quitar censura a pornografía japonesa

La tecnología Deepfake puede revertir la pixelación en los videos porno japoneses, lo que plantea cuestiones legales y éticas.
Hombre viendo un video en una computadora
Según los reportes, Masayuki Nakamoto ganó alrededor de 96.000 dólares vendiendo más de 10.000 videos manipulados. Foto: Shutterstock

Artículo publicado originalmente por VICE en inglés.

La policía japonesa arrestó el lunes a un hombre de 43 años por usar inteligencia artificial para quitar la censura de videos pornográficos pixelados, en el primer caso criminal del país que involucra el uso de esta poderosa tecnología.

Masayuki Nakamoto, quien dirige su propio sitio web en la prefectura sureña de Hyogo, tomó imágenes de algunos actores y actrices de videos porno japoneses y las manipuló con el mismo método utilizado para crear los intercambios faciales realistas en los videos deepfake.

Publicidad

Pero en lugar de cambiarles el rostro, Nakamoto utilizó un software de aprendizaje automático para reconstruir las partes borrosas de los videos basándose en una gran colección de desnudos sin censura y vendió el contenido en línea. Los penes y las vaginas están pixelados en el porno japonés porque una ley contra la obscenidad prohíbe las representaciones explícitas de los genitales.

Según los reportes, Nakamoto ganó alrededor de 96.000 dólares vendiendo más de 10.000 videos manipulados, aunque fue arrestado específicamente por vender 10 fotos falsas a aproximadamente 20 dólares cada una.

Nakamoto se declaró culpable de los cargos de violación de derechos de autor y de mostrar imágenes obscenas, y dijo que lo hizo por dinero, según NHK. Fue detenido cuando la policía llevó a cabo un “patrullaje cibernético”, reportó la emisora ​​japonesa.

Las imágenes fotorrealistas creadas con inteligencia artificial son cada vez más comunes y plantean muchas cuestiones legales y éticas relacionadas con la privacidad, la explotación sexual, los derechos de autor y la expresión artística.

“Es el primer caso en Japón en el que la policía ha arrestado a un usuario que usa inteligencia artificial”, contó a VICE World News Daisuke Sueyoshi, un abogado que ha trabajado en casos de ciberdelincuencia. “Por el momento, no existe ninguna ley que penalice el uso de la inteligencia artificial para realizar este tipo de imágenes”.

Publicidad

Por ejemplo, Nakamoto no fue acusado de ningún delito por violar la privacidad de los actores y actrices en los videos.

A nivel mundial, las víctimas de videos manipulados —a menudo mujeres—, así como los gobiernos, están lidiando con una proliferación de deepfakes. En Taiwán, un hombre también fue arrestado el lunes por vender porno deepfake en un grupo de Telegram que contaba con cerca de 6.000 miembros. La presidenta de Taiwán, Tsai Ing-wen, calificó el delito de “violencia sexual en línea” y dijo que consideraría la formulación de una legislación para combatirla.

“Estas víctimas podrían ser personas que nos importan a ti y a mí. Podrían ser nuestros familiares y amigos. No podemos quedarnos al margen”, dijo Tsai en una publicación de Facebook.

Tsai también vinculó el uso de la tecnología con la amenaza que representan los videos falsos y la desinformación para la democracia.

El potencial de usar deepfakes para sembrar desconfianza y manipular la opinión pública quedó demostrado en 2018, cuando un video viral mostró al expresidente de Estados Unidos, Barack Obama, llamando a su sucesor Donald Trump un “total y completo idiota”.

Al año siguiente, California prohibió los deepfakes políticos en los 60 días posteriores a una elección para combatir la posible desinformación en las campañas.

Hasta ahora, como en el caso de Nakamoto, la tecnología deepfake se ha utilizado de manera abrumadora para simular videos porno.

Publicidad

Según Sensity, una startup que ofrece servicios de detección de videos falsos, el 96 por ciento de los videos deepfake mostraban pornografía no consensuada en 2019. De hecho, los usuarios de Reddit que supuestamente llevaron los deepfakes al mainstream utilizaron esta tecnología para intercambiar rostros de celebridades femeninas en videos porno. Esta manipulación ha llevado a numerosos casos de víctimas que luchan por eliminar videos falsos de Internet.

En India, un grupo criminal presuntamente chantajeó a varios individuos con la amenaza de enviar videos falsos de ellos a sus familias.

Sueyoshi dijo que criminalizar el uso del software deepfake o una tecnología similar no es la respuesta correcta al problema, ya que las herramientas en sí mismas podrían usarse con fines legítimos.

“Usar la inteligencia artificial no está mal. Lo que está mal es como el sospechoso Nakamoto usó la inteligencia artificial”, dijo.

Pero en vista de los casos de infracción de derechos de autor o explotación de la privacidad de una persona, Sueyoshi dijo que era necesario introducir leyes que restrinjan la manera en que se usa la tecnología deepfake. 

Sigue a Hanako Montgomery en Twitter e Instagram.