Retos legales de los avatares digitales que clonan influencers

2023-09-18T13:47:00
España
La clonación digital de personas en herramientas de IA generativa plantea nuevos retos jurídicos
Retos legales de los avatares digitales que clonan influencers
18 de septiembre de 2023

Hace tan solo unas semanas, una noticia revolucionó el sector de las redes sociales y las nuevas tecnologías: Caryn Marjorie, una joven modelo e influencer de 23 años edad, había creado su «clon virtual» mediante el uso de inteligencia artificial («IA»), bautizando a su homóloga virtual como «CarynAI». CarynAI es esencialmente un «chatbot», esto es, un programa de ordenador que emplea IA para simular conversaciones y comportamientos humanos a la hora de interactuar. El revuelo de la noticia venía dado porque CarynAI se ofrecía a sus usuarios como una forma de calmar su sentimiento de soledad, permitiendo interacciones con el chatbot como si de una compañera sentimental se tratase. 

La creación de CarynAI no es un caso aislado. De hecho, ya existen empresas (p. ej., Wehumans, la desarrolladora de CarynAI), dedicadas a la creación de los denominados «humanos digitales», entendidos como individuos desarrollados y personalizados con IA, con la capacidad de emular a gran escala la conducta de un individuo en la vida real.

Sin embargo, la proliferación de estas representaciones digitales plantea infinidad de desafíos éticos y jurídicos que ya se están empezando a abordar por parte del poder legislativo, tanto a nivel nacional como en el marco de la Unión Europea («UE»).

En este artículo examinamos algunos de estos retos legales teniendo en cuenta el marco normativo existente y la regulación que está en camino.

1.       Propuesta de Reglamento de Inteligencia Artificial (conforme a la posición adoptada por el Parlamento Europeo el pasado 14 de junio) («Reglamento de IA»)

Partiendo de que el Reglamento de IA tiene como objetivos principales garantizar mejores condiciones para el desarrollo y el uso de esta tecnología, así como proteger la seguridad, la salud y los derechos fundamentales de los ciudadanos, resulta conveniente analizar cómo CarynAI encajaría en el ámbito de aplicación del Reglamento de IA. Conviene aclarar que el Reglamento de IA se halla todavía en la fase de negociación entre el Parlamento Europeo y el Consejo bajo los auspicios de la Comisión (trílogo), por lo que no existe todavía un texto final , por lo que todavía puede sufrir cambios relevantes. Debemos aclarar también que partimos de una serie de asunciones o hipótesis en relación con el desarrollo, las funcionalidades y la posible evolución de CarynAI.

Bajo el Reglamento de IA, CarynAI podría considerarse como: un sistema de riesgo bajo, sujeto sólo a obligaciones de trasparencia; como sistema de alto riesgo, en función de si se cumplen ciertos criterios; o como modelo fundacional específicamente previsto para generar contenidos (sistema de IA generativa), con diversas obligaciones en cada caso.

En primer lugar, siempre y cuando el sistema se limite a generar contenidos que se asemejan considerablemente a una persona aparentando autenticidad o veracidad –al igual que en el caso de los deepfakes (sobre los que ya hablamos en nuestros artículos Desafíos legales de los deepfakes: La respuesta europea y Deepfaking: no te fíes de todo lo que ves)– se trataría de un sistema de IA de bajo riesgo, esto es, no sujeto a los requisitos y obligaciones propios de los sistemas de riesgo alto. El sistema de IA debería cumplir ciertas obligaciones de transparencia establecidas en el art. 52 del Reglamento de IA, como la de informar al usuario final de que está interactuando con un sistema de IA –salvo que resulte obvio por el propio contexto– y de que todo ha sido generado por una máquina.

Si, además, el sistema se emplea en alguno de los sectores y usos previstos en el Anexo III del Reglamento y plantea un riesgo significativo de daño a la salud, seguridad o derechos fundamentales de las personas, podría llegar a calificarse de sistema de alto riesgo. La clasificación de CarynAI como sistema de alto riesgo implicaría que serían de aplicación todas las obligaciones propias de estos sistemas conforme al Reglamento de IA como, por ejemplo, la necesidad de llevar a cabo una evaluación de impacto de derechos fundamentales o implementar medidas para mitigar los sesgos o sistemas de supervisión humana.

Asimismo, en caso de que se pueda entender que CarynAI es un modelo fundacional destinado específicamente a generar contenidos como texto complejo, imágenes, audio o incluso vídeo, con distintos niveles de autonomía, de forma que se pudiera enmarcar en la definición de sistemas de IA generativa del art. 28 (b) 4 del Reglamento de IA, el proveedor del modelo fundacional o el que hubiera adaptado el modelo al uso concreto, debería (i) cumplir con las obligaciones de transparencia mencionadas anteriormente, previstas en el art. 52 del Reglamento de IA; (ii) entrenar, diseñar y desarrollar el modelo fundacional de forma que se garanticen salvaguardias adecuadas contra la generación de contenidos ilegales, y sin perjuicio de los derechos fundamentales (tales como la libertad de expresión), y (iii) documentar y publicar un resumen suficientemente detallado del uso de datos de entrenamiento protegidos por la normativa aplicable sobre derechos de autor.

Dicho lo anterior, cabría incluso la posibilidad de entender que CarynAI encaja en alguno de los supuestos de prácticas de IA prohibidas. Esto sucedería, por ejemplo, si la sofisticación de la aplicación CarynAI implicase la utilización de técnicas subliminales más allá de la conciencia de una persona –esto es, técnicas deliberadamente manipuladoras o engañosas– con el objetivo de distorsionar materialmente la capacidad de tomar una decisión del individuo que interactúa con el chatbot, provocando que dicho individuo tome una decisión que no habría tomado en otras circunstancias y cause o pueda causar un daño significativo. En supuestos como el anterior, nos encontraríamos ante un sistema de IA prohibido por el art. 5.1 (a) del Reglamento IA.

2.       Protección jurídica de los derechos al honor, intimidad personal e imagen

Una clonación digital de personas basada en IA podría conllevar intromisiones ilegítimas en el derecho a la propia imagen de la modelo e influencer, así como, dañar su honor, reputación e imagen personal salvo que tales intromisiones fueran consentidas – o estuvieran autorizadas por una norma con rango de ley – (art. 2 de la Ley Orgánica 1/1982, de 5 de mayo, de protección civil del derecho al honor, a la intimidad personal y familiar y a la propia imagen LOPH»)). Teniendo en cuenta que en el caso que nos ocupa se trata de una clonación digital consentida por Caryn Marjorie y desarrollada por Wehumans, como ya expusimos en nuestro artículo sobre el Metaverso y Moda, la regulación contractual específica entre la influencer y la empresa desarrolladora sobre el alcance de la cesión de derechos de imagen por parte de Caryn jugará un papel crucial, al ser ahí donde se establecen los límites de la explotación de la imagen (comprensiva, conforme al art. 7 apartado 6 de la LOPH, de voz, imagen y nombre). En consecuencia, será imprescindible establecer de forma taxativa, clara y explícita el alcance de la cesión de los mencionados derechos de imagen.

3.       Protección jurídica en materia de derechos de autor

Respecto a la posible protegibilidad de los contenidos generados por CarynAI como obra, cabría analizar esta cuestión atendiendo a la protección jurídica atribuida a las obras originales conforme al art. 10 del Real Decreto Legislativo 1/1996, de 12 de abril, por el que se aprueba el texto refundido de la Ley de Propiedad Intelectual, regularizando, aclarando y armonizando las disposiciones legales vigentes sobre la materia («LPI»). Hasta la fecha, la posición mayoritaria es contraria a dotar de protección a las obras generadas por IA, como consecuencia de la falta del elemento subjetivo necesario para alcanzar dicha protección, puesto que no se manifiesta la participación de una persona natural (art. 5) en la consecución de la obra.

A este análisis debemos añadir lo expuesto en la Resolución del Parlamento Europeo, de 20 de octubre de 2020, sobre los derechos de propiedad intelectual para el desarrollo de las tecnologías relativas a la inteligencia artificial, donde se afirma que las obras producidas de manera autónoma por agentes artificiales y robots no deben poder acogerse a la protección mediante derechos de autor, a fin de respetar el principio de originalidad, que está unido a una persona física, y puesto que el concepto de «creación intelectual» conlleva la personalidad del autor.

En este mismo sentido y también con causa en la falta de elemento subjetivo, la Copyright Office USA (la oficina del Registro de la Propiedad Intelectual de EEUU), como ya expusimos en nuestro blog, descartó la solicitud de registro como obras protegibles de las imágenes individuales creadas con IA incluidas en un cómic (titulado “Zarya of the Dawn”). Según su argumentación, no cabe registrar como obras los productos generados por una máquina o proceso que opera al azar o de modo automático, sin que el humano que lo activa pueda predecir o guiar el resultado con suficiente precisión.

Por lo tanto, conforme al estado actual de la cuestión, los pronunciamientos y doctrina más reciente sobre la materia, los contenidos creados por CarynAI no serían protegibles como obra en nuestro país. Sin perjuicio de lo anterior, en la medida que CarynAI sea un software –y no un sistema a su vez desarrollado mediante IA–, el autor de CarynAI (en este caso, Wehumans) disfrutaría de la protección jurídica que la LPI otorga en los arts. 95 y ss. a los autores de programas de ordenador.

4.       Registro y protección jurídica como marcas de las clonaciones digitales de humanos generadas por IA

En primer lugar, cabe destacar que la normativa vigente no contempla de manera explícita las clonaciones digitales de humanos creadas con IA como bienes o servicios distinguibles mediante una marca registrada. Así, la Clasificación de Niza no prevé ninguna categoría específica para este tipo de “producto o bien digital”.

No obstante lo anterior, una de las aproximaciones más razonables para defender la posible protección del avatar CarynAI como marca para distinguir el clon digital, sería llevar a cabo una interpretación extensiva de la clase 9, que incorpora la categoría de bienes virtuales y NFTs de activos digitales. Acogiéndonos a esta interpretación, podría llegar a ser defendible encuadrar la protección de un retrato, dibujo, imagen o boceto digital de CarynAI a través de esta clase, al igual que, salvando las distancias, la Oficina de la Propiedad Intelectual de la UE («EUIPO») admitió la protección del semblante como marca del reconocido streamer Ibai Llanos, para fines tales como elementos de deporte, servicios de entretenimiento o diseño y desarrollo de equipos informáticos y de software.

Dicho esto, el art. 9 apartado a), de la Ley 17/2001, de 7 de diciembre, de Marcas (“LM”), impide el registro como marca del nombre civil o la imagen que identifique a una persona distinta del propio solicitante de la marca. En consecuencia, si buscáramos proteger el nombre de la modelo e influencer como representación digital, únicamente ella misma podría registrar la marca. Asimismo, el apartado b) del mismo precepto limita el registro como marca del nombre, apellido, seudónimo o cualquier otro signo que para la generalidad del público identifique a una persona distinta del solicitante.

En otro orden de consideraciones, en el supuesto en el que la clonación digital del humano se utilizase en el tráfico económico, el art. 37 de la LM establece que una marca no permitirá a su titular prohibir a un tercero hacer uso en el tráfico económico de su nombre o direcciones, cuando el tercero sea una persona física.

Por tanto, teniendo en cuenta lo expuesto anteriormente, existiría cierta dificultad y límites a la hora de defender la posible protección vía derecho de marcas de CarynAI, pero cabrían argumentos a favor de la misma.

Conclusiones

A medida que caminamos hacia un contexto donde se difuminan las fronteras entre lo físico y lo virtual, cada nuevo clon digital y aplicación tecnológica de IA lanzada al mercado sin su correspondiente análisis de riesgos, puede impactar en el patrimonio, los derechos y la vida de las personas. Ahora que nos encontramos en el apogeo de un futuro originado por la IA, cabe preguntarse: ¿de qué reglas y normas queremos dotarnos para poder tomar decisiones responsables, éticas y seguras, que den forma a nuestro mañana? ¿Estará la legislación a la altura? Desde este blog, seguiremos reflexionando sobre el Derecho, la IA y los futuros posibles que ya empiezan a estar y los que están por venir.

18 de septiembre de 2023