OMGTecnología

¿Es legal hacer pornografía con la imagen de alguien sin su consentimiento? ¡Deepfakes está fuera de control!

Para las víctimas de venganza pornográfica y otro material explícito compartido sin consentimiento, las consecuencias legales llegaron hace muy poco. Pero gracias a la tecnología asistida por IA, cualquier persona que tenga la mínima presencia en Internet podría terminar protagonizando pornografía en contra de su voluntad, y hay muy poco que la ley pueda hacer al respecto.

Durante las últimas semanas, un subreddit llamado «deepfakes» se ha saturado con imágenes adulteradas que representan figuras famosas, en su mayoría mujeres, que participan en actos sexuales. ScarJo, take three muestra a Scarlett Johansson masturbándose en una ducha.

Taylor Swift tiene una foto borrosa mientras mantiene relaciones sexuales y Emma Watson tiene toda una cinta que nos muestra a la actriz desnudándose. Sus rostros están creíblemente mapeados en imágenes pornográficas, GIF o videos y es casi imposible diferencial lo real de lo ficticio.

En diciembre de 2017, Motherboard dio la noticia de que un Redditor con el nombre de «deepfakes» había descubierto, cómo crear este tipo de porno falso que intercambia la cara del personaje con el uso de la Inteligencia Artificial. En enero, no solo había un subreddit dedicado a «deepfakes», sino que había una aplicación diseñada para facilitar su creación.

A medida que la comunidad que lo rodea ha crecido, desde el subreddit hasta un canal Discord ahora prohibido, también tienen el número y la calidad de deepfakes. Aunque hay aplicaciones benignas de esta tecnología -es inofensivo intercambiar al actor Nicolas Cage por un montón de camafeos tontos, pero es mucho menos lindo en manos de alguien con objetivos más maliciosos, como colocar participantes poco dispuestos en videos de sexo explícitos.

La pornografía con Photoshop ya es una herramienta común de acoso desplegada contra las mujeres en Internet, un video hace que la violación sea mucho más activa y más difícil de identificar como falsificada.

A medida que los «deepfakes» se vuelven más refinados y fáciles de crear, también destacan la insuficiencia de la ley para proteger a las posibles víctimas de esta nueva tecnología. ¿Qué se puede hacer si alguien aparece en imágenes o videos pornográficos en contra de su voluntad? ¿Está prohibido por ley crear, compartir y difundir pornografía falsificada con la cara de otra persona?

La respuesta es complicada. La mejor manera de obtener que una foto pornográfica o un video pornográfico sea derribado, es que la víctima reclame la difamación o el derecho de autor, pero ninguno ofrece un camino garantizado de éxito, dice Eric Goldman, profesor de derecho de la Facultad de Derecho de la Universidad de Santa Clara.

Aunque existen muchas leyes que podrían aplicarse, no existe una ley única que cubra la creación de videos pornográficos falsos, y no hay remedios legales que mejoren por completo el daño que pueden causar los «deepfakes».

«Es casi imposible borrar un video una vez que se ha publicado en Internet», dice. «… Si estás buscando la varita mágica que puede borrar ese video de forma permanente, probablemente no exista».

Un reclamo por difamación podría ser efectivo porque la persona representada en el video no está realmente en él, explica Goldman. Es una declaración de hecho falsa sobre la presencia de la víctima, por lo que teóricamente podrían obtener un juicio contra el autor que ordena la eliminación del video o las imágenes.

Sin embargo, un reclamo de difamación es difícil de ganar. Pueden ser costosas, y si se trata de editores de contenido anónimos o en el extranjero, ni siquiera son tan útiles», dice Goldman.

Como señala Wired en un artículo sobre la legalidad de los «deepfakes», el hecho de que no es el cuerpo de una celebridad hace que sea difícil perseguirlo como una violación de privacidad: «No puedes demandar a alguien por exponer los detalles íntimos de tu vida cuando es no tu vida que están exponiendo».

También podría ser posible eliminar un video con un reclamo de derechos de autor. La persona o las personas que poseen los derechos de autor del video original, es decir, el material pornográfico no protegido «deepfakes» basado en, podrían reclamar una infracción basada en la modificación y la nueva publicación.

«El propietario del copyright tendría el derecho de afirmar que el la publicación del video es una infracción de derechos de autor «, expresa Goldman.

La comunidad de «deepfakes», incluso ya ha comenzado a alejar parte de su contenido de Reddit. Si bien algunos de los videos se han cambiado a PornHub, otro usuario comenzó un sitio dedicado específicamente a celeb deepfakes.

El sitio define su contenido como «arte satírico» y afirma: «Respetamos a todas y cada una de las celebridades presentadas. El obvio porno de intercambio de caras falsas de ninguna manera tiene la intención de ser degradante. Es arte que celebra el cuerpo humano y la sexualidad».

Por lo que realmente no existen medidas legales pertinentes para resarcir el daño que pueda ocasionar la creación de la pornografía falsa sobre la imagen de alguien. Goldman advierte que debemos agilizar los sentidos para darnos cuanta cuando algo es falso o no y dar las atenciones a todos los indicadores de cuando un contenido es falso.

Este «arte» seguirá creciendo y algunos lo llaman una manera revolucionara de hacer videos y fotos, que podría cambiar totalmente la perspectiva de las personas y la manera de hacer las cosas.

¿Estás de acuerdo?