
Cada vez con mayor frecuencia nos llegan consultas de clientes que desarrollan productos o servicios apoyados en herramientas de inteligencia artificial y que, al momento de querer registrar, licenciar o proteger lo que esas herramientas generan, se encuentran con un interrogante que no siempre es fácil de responder. La pregunta de fondo es siempre la misma, aunque se formule de distintas maneras; si fue la máquina la que produjo la imagen, el texto, el código o la composición musical, ¿a quién le pertenece eso?
No se trata de una discusión meramente teórica o académica, la relación entre inteligencia artificial y propiedad intelectual involucra decisiones concretas que las empresas necesitan tomar, si pueden registrar como propia una marca generada por IA, si el código que produce un asistente automático les pertenece, si pueden impedir que un competidor use una creación similar generada por el mismo modelo, o si sus propias obras están siendo utilizadas sin autorización para entrenar los algoritmos que luego compiten con ellas.
Lo que viene ocurriendo a nivel global es que el desarrollo de la inteligencia artificial generativa avanzó mucho más rápido que el marco legal que debería encuadrarlo. Los riesgos legales de la inteligencia artificial se multiplican precisamente porque los sistemas normativos de la mayoría de los países fueron diseñados partiendo de una premisa que hoy está en crisis, y es que que detrás de toda creación protegible hay un autor humano.
El principio de autoría humana y sus límites
Los sistemas de protección de creaciones intelectuales de prácticamente todos los países comparten un punto de partida común: la protección del derecho de autor recae sobre creaciones originales realizadas por personas humanas. En Argentina, la Ley 11.723 protege las obras científicas, literarias y artísticas, pero presupone la existencia de un autor —una persona física— como titular originario de esos derechos. Lo mismo ocurre en la mayoría de las legislaciones comparadas.
Cuando un sistema de inteligencia artificial genera una imagen, un texto o una pieza de código, la cadena de autoría se vuelve difícil de trazar. El modelo fue entrenado con millones de obras preexistentes, recibe una instrucción del usuario (el prompt), y produce un resultado que no es una copia de ninguna obra particular pero que tampoco fue concebido en el sentido tradicional del término. La pregunta entonces es si ese resultado constituye una obra protegible y, en caso afirmativo, quién es su autor.
La Oficina de Copyright de Estados Unidos abordó esta cuestión en una serie de decisiones que fueron marcando una postura cada vez más definida: los contenidos generados exclusivamente por inteligencia artificial, sin intervención creativa humana sustancial, no son registrables como obras protegidas. El caso Tháler v. Perlmutter confirmó judicialmente este criterio al rechazar el registro de una obra visual generada íntegramente por un sistema de IA, estableciendo que la ley de copyright requiere autoría humana.
El gris de la intervención humana
Donde la discusión se vuelve más compleja es en los casos en los que la inteligencia artificial no actúa sola, sino como herramienta dentro de un proceso creativo dirigido por una persona. En la práctica, la mayoría de los usos profesionales de IA generativa involucran algún grado de intervención humana: la elaboración del prompt, la selección entre múltiples resultados, la edición posterior, la combinación de elementos o la integración del output dentro de una obra más amplia.
La propia Oficina de Copyright estadounidense reconoció esta zona gris al aceptar el registro parcial de la novela gráfica Zarya of the Dawn, protegiendo el texto y la disposición de las imágenes —atribuibles a la autora humana— pero excluyendo las imágenes individuales generadas por Midjourney. Este enfoque sugiere que lo protegible no es el output automático del modelo, sino la contribución creativa humana que lo rodea, lo selecciona o lo transforma.
Para las empresas, esto plantea un desafío práctico considerable en la intersección entre inteligencia artificial y propiedad intelectual. Si el grado de protección depende de cuánta intervención humana hubo en el proceso, resulta fundamental documentar ese proceso. Qué instrucciones se dieron, qué criterios de selección se aplicaron, qué modificaciones se realizaron sobre el resultado generado por la IA. Sin esa trazabilidad, demostrar la autoría humana en un eventual conflicto puede volverse extremadamente difícil.
El otro lado del problema. Las obras usadas para entrenar los modelos
Si la titularidad de lo que genera la IA es una cara del problema, la otra es igualmente conflictiva y tiene un vínculo directo con la protección de datos personales y con los derechos de los creadores originales. En materia de inteligencia artificial y propiedad intelectual, los modelos generativos no producen contenido de la nada: fueron entrenados con volúmenes masivos de texto, imágenes, música y código extraídos de internet, en muchos casos sin autorización explícita de los titulares de esos contenidos.
Las demandas judiciales contra empresas desarrolladoras de modelos de IA se están multiplicando. Autores, artistas, programadores, medios de comunicación y agencias fotográficas han iniciado reclamos en Estados Unidos y Europa alegando que sus obras fueron utilizadas sin consentimiento para entrenar modelos que luego generan contenido que compite directamente con el original. Este nuevo escenario para plataformas y creadores gira en torno a dos argumentos centrales: la reproducción no autorizada de obras protegidas y la creación de obras derivadas sin licencia.
La defensa de las empresas de IA suele apoyarse en la doctrina del fair use (uso justo) en el derecho estadounidense, argumentando que el entrenamiento de modelos constituye un uso transformativo de las obras originales. Pero esa defensa está lejos de ser pacífica. Los tribunales todavía no emitieron decisiones definitivas sobre este punto, y la respuesta podría variar según la jurisdicción, el tipo de obra involucrada y el grado en que el modelo reproduce elementos reconocibles de las obras de entrenamiento.
El panorama en Argentina
En Argentina no existe por el momento una regulación específica sobre IA y negocios digitales. La Ley 11.723 fue redactada en un contexto en el que la noción de autoría no humana simplemente no formaba parte del horizonte legislativo. Sin embargo, el marco normativo vigente ofrece algunas herramientas de análisis.
Por un lado, la exigencia de originalidad como requisito para la protección implica que el resultado debe reflejar decisiones creativas de una persona. Si la contribución humana fue mínima —por ejemplo, un prompt genérico que cualquier persona podría haber formulado—, resulta difícil sostener que el output constituye una obra original en los términos de la ley. Por otro lado, si una persona utilizó la IA como herramienta dentro de un proceso creativo más amplio y el resultado final refleja su visión artística o intelectual, el argumento de protección se fortalece.
En cuanto al uso de obras protegidas para entrenamiento de modelos, la ley argentina no contempla una excepción de uso justo equivalente a la del derecho estadounidense. Las excepciones al derecho de autor son taxativas y de interpretación restrictiva. Esto significa que la reproducción masiva de obras para entrenar un modelo comercial difícilmente pueda ampararse en alguna de las excepciones previstas, salvo que exista autorización del titular o se trate de obras en dominio público.
Contratos y licencias. Dónde se juega la partida en la práctica
Mientras el marco legal sobre inteligencia artificial y propiedad intelectual se acomoda a la nueva realidad, la mayoría de las definiciones concretas sobre titularidad y uso de contenidos generados por IA se están resolviendo en el plano contractual. Los términos de uso de las principales plataformas de IA generativa contienen cláusulas que asignan derechos sobre los outputs, establecen limitaciones de uso y definen quién asume responsabilidad en caso de reclamos de terceros.
Algunos proveedores ceden al usuario todos los derechos sobre el contenido generado. Otros retienen licencias de uso sobre los outputs o limitan los usos comerciales permitidos. Y en casi todos los casos, los términos de servicio incluyen cláusulas de indemnidad que trasladan al usuario la responsabilidad por eventuales infracciones a derechos de propiedad intelectual de terceros.
Para las empresas que integran IA en sus productos o procesos, revisar estos términos no es un detalle menor. Si el proveedor de la herramienta de IA retiene derechos sobre el output, la empresa podría estar construyendo parte de su propuesta de valor sobre activos que no le pertenecen. Y si los términos cambian —algo que, como vimos al analizar la dependencia de APIs de terceros, es perfectamente posible—, el impacto en el negocio puede ser significativo.
Riesgos concretos para empresas que usan IA generativa
Desde nuestra experiencia en Estudio Lexar, los riesgos más frecuentes que enfrentan las empresas en esta materia se concentran en algunos escenarios recurrentes que conviene tener identificados.
- Imposibilidad de registrar o proteger contenidos. Si una empresa genera gráficos, textos o diseños mediante IA sin intervención creativa suficiente, puede encontrarse con que esos contenidos no son registrables ante organismos de propiedad intelectual, quedando expuestos a la copia por parte de competidores sin posibilidad de reclamo.
- Reclamos de titulares de obras utilizadas en el entrenamiento. Si el modelo de IA que utiliza la empresa fue entrenado con obras protegidas sin autorización, existe el riesgo de que los titulares de esas obras dirijan sus reclamos no solo contra el desarrollador del modelo, sino también contra quienes explotan comercialmente los resultados.
- Generación de contenido sustancialmente similar a obras existentes. Los modelos de IA pueden producir outputs que se asemejan a obras protegidas incluidas en su conjunto de entrenamiento. Un ejemplo ilustrativo es el debate sobre la generación de imágenes en estilo Ghibli, donde la línea entre inspiración e infracción se vuelve difícil de trazar. Si una empresa publica o comercializa ese contenido sin verificación, podría enfrentar acciones por infracción de derechos de autor.
- Cláusulas contractuales que limitan la titularidad sobre el output. Muchas empresas asumen que el contenido generado con IA les pertenece automáticamente, sin verificar qué dicen los términos de uso del proveedor. En algunos casos, el proveedor retiene licencias sobre el output o prohíbe determinados usos comerciales.
- Exposición de información confidencial en el proceso de generación. Cuando se utiliza información propia, de clientes o de terceros como input para generar contenido, esa información puede quedar incorporada en los sistemas del proveedor, con implicancias en materia de confidencialidad y protección de datos que no siempre se evalúan adecuadamente.
Recomendaciones para empresas que integran IA en sus procesos
En un contexto donde las reglas sobre inteligencia artificial y propiedad intelectual están en formación y las respuestas definitivas del sistema legal todavía no llegaron, la gestión del riesgo pasa necesariamente por decisiones internas de cada organización.
- Documentar el proceso creativo. Si la empresa pretende registrar o proteger contenidos generados con asistencia de IA, resulta esencial dejar constancia de la intervención humana en cada etapa: los criterios de selección, las modificaciones realizadas, las decisiones creativas adoptadas sobre el output.
- Revisar los términos de uso del proveedor de IA. Antes de integrar una herramienta de IA generativa en un flujo productivo, es necesario verificar qué derechos otorga y retiene el proveedor sobre los outputs, qué responsabilidades asume y cuáles traslada al usuario.
- Establecer políticas internas de uso de IA. Definir qué tipo de información puede ingresarse en herramientas de IA, qué niveles de aprobación se requieren y qué usos comerciales están permitidos para los contenidos generados.
- Verificar los outputs antes de su publicación o comercialización. Implementar mecanismos de revisión para detectar similitudes con obras existentes antes de publicar o registrar contenido generado con IA, especialmente en industrias creativas.
- Incluir cláusulas específicas en los contratos con clientes y colaboradores. Los contratos de servicios, de desarrollo de software y de cesión de derechos deben contemplar expresamente el uso de herramientas de IA, definiendo quién asume la titularidad del resultado y qué garantías se ofrecen respecto de originalidad y no infracción.
Un marco legal en construcción
A nivel global, distintas jurisdicciones están ensayando respuestas diferentes. La Unión Europea, a través del AI Act, introdujo obligaciones de transparencia para los desarrolladores de modelos de IA generativa, incluyendo la obligación de publicar resúmenes de los datos de entrenamiento protegidos por derechos de autor. Reino Unido descartó una excepción amplia de text and data mining que hubiera permitido el entrenamiento sin autorización. China adoptó normas que exigen el uso de datos obtenidos legítimamente para el entrenamiento de modelos.
En Argentina, si bien todavía no hay legislación específica, el tema está ganando espacio en la agenda regulatoria. Mientras tanto, las empresas que operan en este campo deben navegar con las herramientas jurídicas existentes: la Ley 11.723, los principios generales del Código Civil y Comercial sobre responsabilidad y buena fe, y las normas de protección de datos personales como la Ley 25.326.
Lo que resulta claro es que la inteligencia artificial y propiedad intelectual van a seguir siendo un eje de tensión creciente. Aunque las reglas estén en proceso de adaptación, las decisiones que toman las empresas hoy —qué herramientas utilizan, cómo documentan sus procesos, qué contratos firman, qué derechos asumen y cuáles ceden— van a determinar su posición cuando el marco normativo se consolide.
Desde Estudio Lexar acompañamos a empresas de tecnología, startups y estudios creativos en el análisis de las implicancias legales del uso de inteligencia artificial. Asesoramos en la revisión de contratos con proveedores de IA, la protección de activos intangibles, el diseño de políticas internas de uso de IA y la estructuración de operaciones que involucren contenidos generados por sistemas automatizados.
Preguntas frecuentes sobre inteligencia artificial y propiedad intelectual
¿Se puede registrar como propia una obra generada por inteligencia artificial?
Depende del grado de intervención humana en el proceso creativo. Si la IA actuó de forma autónoma y la persona se limitó a ingresar un prompt genérico, es poco probable que el resultado sea registrable como obra protegida. En cambio, si hubo una contribución creativa humana sustancial —selección, edición, combinación, dirección artística—, el argumento de protección se fortalece. En cualquier caso, documentar el proceso es fundamental.
¿A quién le pertenecen los contenidos generados con herramientas de IA como ChatGPT o Midjourney?
La respuesta depende en primer lugar de los términos de uso de cada plataforma. Algunos proveedores ceden al usuario todos los derechos sobre el output, mientras que otros retienen licencias o imponen restricciones. En segundo lugar, depende de si el resultado califica como obra protegible bajo la legislación de propiedad intelectual aplicable, lo cual requiere autoría humana.
¿Pueden usar mis obras para entrenar un modelo de IA sin mi autorización?
Este es uno de los puntos más litigados a nivel global. En principio, la reproducción de obras protegidas requiere autorización del titular. Las empresas de IA argumentan que el entrenamiento constituye un uso transformativo amparado por excepciones legales, pero esa postura está siendo cuestionada en múltiples jurisdicciones. En Argentina, las excepciones al derecho de autor son taxativas y de interpretación restrictiva.
¿Qué precauciones debería tomar una empresa que usa IA generativa en su operatoria?
Las principales precauciones incluyen revisar los términos de uso del proveedor de IA, documentar la intervención humana en el proceso creativo, verificar los outputs antes de su publicación o comercialización, establecer políticas internas de uso de IA y adaptar los contratos con clientes y colaboradores para contemplar estas nuevas dinámicas. Cuanto más central sea la IA en el modelo de negocio, más importante es contar con un asesoramiento legal especializado desde el inicio.
Por: Dr. Andrés San Juan
Estudio Lexar