La inteligencia artificial generativa es un gran aliado a la hora de redactar textos, analizar grandes datos o producir imágenes y música, pero plantea también problemas legales aún sin solución clara, como la creación de fotos de falsos desnudos o de canciones que infringen derechos de autor.
Distintos expertos legales coinciden en que las herramientas de inteligencia artificial son “un arma de doble filo” con las que hay que ir con cuidado, especialmente en el uso de los datos a los que tiene acceso la inteligencia artificial y los contenidos fraudulentos que pueda generar, ya sea de imagen o de audio.
Introducir datos sensibles en la IA
Cuando se utiliza una inteligencia artificial generativa abierta, ya sea el caso de algunos chatbots o asistentes basados en la nube, no es recomendable subir información confidencial o protegida si no tienes la autorización del titular de los datos, para evitar infringir leyes como la Ley Orgánica de Protección de Datos (LOPD) o el Reglamento General de Protección de Datos (RGPD).
Cuando estos datos se envían a una IA abierta pasan a formar parte del entrenamiento de esa herramienta, por lo que, a nivel profesional, “tampoco hay que subir información confidencial que no compartirías con tu competencia”, apunta el director del bufete Abogado Amigo, Jesús P. López Pelaz.
Por esta razón, muchas empresas están empezando a programar su propia IA en la que sí pueden verter todos sus datos que recopilan con la seguridad de que la inteligencia artificial entrenada con esa información no estará disponible para nadie más.
Las imágenes generadas por IA, difíciles de detectar
La inteligencia artificial puede generar todo tipo de ilustraciones que le pidan, e incluso tiene la capacidad de crear imágenes y vídeos ultrafalsos ('deepfakes') “cada vez más complicados de detectar para el ojo humano”, apunta el director de desarrollo de negocio de la consultora especializada en IA Serimag, Hugo Cortada.
En concreto, preocupan los falsos desnudos ('fake nudes'), imágenes y vídeos que muchas veces circulan por redes sociales de contenido temporal que luego se borra, con lo que se hace “difícil” perseguir este contenido, advierte el director del bufete Abogado Amigo, Jesús P. López Pelaz.
Para concluir si los contenidos han estado generados por IA se necesitan expertos forenses digitales con métodos de autentificación de metadatos, huella digital, inconsistencias visuales, patrones generados por algoritmos o incluso “tecnología 'blockchain'” (cadena de bloques), señala la profesora de Derecho Procesal y jefe de estudios del área jurídica de la Universidad Alfonso X, María Luisa García Torres.
María Luisa García Torres también añade que habrá batallas de “IA contra IA”, donde sistemas con inteligencia artificial servirán para detectar el propio uso fraudulento de la IA en la creación o modificación de contenido audiovisual.
La propiedad intelectual, un melón por abrir
La IA ya es capaz de crear todo tipo de contenidos, desde textos hasta imágenes, vídeos o música, pero puede infringir derechos de propiedad intelectual preexistentes “al entrenarse con obras protegidas por derechos de autor”, señala el director de desarrollo de negocio de la consultora especializada en IA Serimag, Hugo Cortada.
Eso sí, hay vacíos legales sobre cómo proteger las obras derivadas de la IA, ya que la legislación de la Unión Europea y de otros países establece que las obras generadas exclusivamente por IA no son protegibles bajo las leyes de propiedad intelectual y la autoría “suele recaer en quien opera la herramienta”, añade Cortada.
Sin embargo, en los casos en que la IA viole derechos de autor en su creación, la propiedad no será de quien ofrezca las instrucciones ('prompt') a la inteligencia artificial sino del programador de la herramienta, aunque “aún no hay una solución unívoca”, señala el director del bufete Abogado Amigo, Jesús P. López Pelaz.