¿Como detectar aplicaciones conflictivas? El caso de Deepnude
¿Como detectar aplicaciones conflictivas? El caso de DEEP NUDE. Deep Nude, al banquillo: ¿qué dice la ley sobre el uso de aplicaciones para crear falsos desnudos en fotos? La tecnología avanza y sus usos destinados quizás no parecen los que hubiéramos pretendido para desarrollar mejoras o hacer más fácil nuestro día a día.


Deep Nude, al banquillo: ¿qué dice la ley sobre el uso de aplicaciones para crear falsos desnudos en fotos?
CONFLICTOS EN EL DERECHO DE IMAGEN
2 DE JULIO DE 2019
En primer lugar algunas aplicaciones favorecen o generan afectaciones a derechos básicos, como la imagen personal o la reputación. Fakenews generadas en una app dirigidas especialmente a mujeres.
Hace muy poco apareció DeepNude una aplicación que permite que una foto mediante inteligencia artificial, analítica de datos, redes neuronales generar nuevas imágenes derivadas de una persona, pero apareciendo desnuda.
Contenido femenino. El sesgo
Una particularidad nada llamativa es que la aplicación ademas de generar imágenes con el uso de redes neuronales –sistemas de neuronas artificiales, al igual que lo hace Thisperson– se dirige a generar solamente fotos de mujeres desnudas.
Algo puntualmente definido por el software, lo que ademas aporta elementos bastante peligrosos en cuanto al manejo y afectación de mujeres unicamente.
DERECHO DE IMAGEN Y FOTOS CREADAS CON UNA APP
La aplicación pone de manifiesto muchos interrogantes en cuanto a sus características jurídicas.
Hay que recordar que son generadas en el exterior y el uso es regulado en cada jurisdicción, pero la prohibición simplemente no es efectiva.
Por ejemplo si mostramos el funcionamiento, uno sube una foto de una persona vestida –o con poca ropa– y la aplicación se encarga de realizar una análisis de la imagen y reemplazar la parte de ropa por simulaciones muy realistas de la parte del cuerpo de la mujer reemplazada.
No hay que perder de vista y remarcar que es unicamente dirigida a realizarlo sobre fotos de mujeres. Un suerte de Photoshop automatizado en términos concretos.
La pagina de la aplicación aporta algunos datos concretos: «DeepNude es un programa de computación automatizado que transforma fotos, creando un falso desnudo».
Por el contrario, desde el punto legal, el tema se pone un tanto difícil de abordar, dada la multilplicidad de elementos que concurren en el análisis.
Hay derechos de propiedad intelectual, afectación al derecho de imagen y la intimidad de una persona y los datos personales, ya que la imagen es un dato personal.
Que pasa en la ciudad de Bs As Con deepnude
En la ciudad de Buenos Aires, la difusión de imágenes o grabaciones íntimas está contemplado en el Código Contravencional.
Acá hay que poner un punto de análisis: la foto es una foto intima o es una foto y es manipulada y tiene apariencia de «foto íntima», pero no tiene esa característica. Interesante a resolver desde la mirada del derecho.
La imagen de las personas en deepnude
Sin embargo, en cuanto a la imagen de la persona existen varios antecedentes, en los que el uso no autorizado de la imagen de una persona con fines de denigrarla o desprestigiarla son sancionados.
El sistema es complejo porque ninguna persona en tono de parodia podría manipular la foto de una persona y generar una afectación de sus derechos.
La propiedad intelectual y los datos personales se basa en quién es el titular y quién lo utiliza y trata esa información con o sin consentimiento.
¿Como detectar las aplicaciones cuestionables?. El caso de DEEP NUDE
A los pocos días del lanzamiento, la publicación ayer comunico su cierre en Twitter, afirmando que todavía el mundo no está preparado para DeepNude. Toda una declaración.
La responsabilidad de los proveedores (en este caso deepnude) del software tambien está en análisis porque deberán observar cómo es el esquema de validación y control de las fotografías modificadas.
Por ultimo, si el que las crea cuenta con autorización y de qué forma permite su uso anónimo o no. Muchos interrogantes para casos concretos en el uso de una tecnología para generar imágenes falsas.
* Guillermo Navarro es abogado especializado en derecho de Tecnología y socio del estudio BILDENLEX ABOGADOS
Guillermo Navarro
BILDENLEX ABOGADOS
www.bildenlex.com