ÁREAS DE PRÁCTICA
INTELIGENCIA ARTIFICIAL Y NEGOCIOS DIGITALES
Cuando una empresa integra inteligencia artificial en su producto —ya sea consumiendo APIs de terceros, entrenando modelos propios o generando contenido automatizado—, las preguntas legales cambian. Quién responde si el output es incorrecto. Qué pasa con los datos que alimentan el modelo. Cómo se limita la responsabilidad en un SLA que no contempla este tipo de sistemas. Cómo se protege la propiedad intelectual sobre lo que genera la máquina. En Estudio Lexar trabajamos estos problemas con empresas tecnológicas, fintech y plataformas digitales, diseñando contratos y estructuras que se ajustan a cómo funcionan estos sistemas en la práctica, no a cómo los describe la teoría.
Cuando una empresa usa IA para generar textos, imágenes, código o contenido audiovisual, la pregunta inmediata es quién es titular de eso. La respuesta no es obvia: depende del modelo, de los términos de uso del proveedor, de los datasets utilizados y de cómo se integra el output en el producto final.
Asesoramos en:
- Titularidad de contenidos generados por IA y alcance de los derechos explotables.
- Licenciamiento de outputs generados por usuarios o por la propia empresa dentro de plataformas y productos.
- Riesgos por uso de datasets de entrenamiento que incluyan material protegido por derechos de terceros.
- Estructuración contractual para la explotación comercial de contenido generado con herramientas de IA.
Cuando una empresa incorpora funcionalidades de inteligencia artificial en su plataforma, app o servicio SaaS, los términos y condiciones existentes rara vez cubren lo que hace falta. Quién responde si el modelo le da una respuesta incorrecta al usuario. Qué nivel de precisión se compromete. Cómo se comunica que determinadas funcionalidades son automatizadas. Cómo se limita la responsabilidad sin vaciar de contenido la propuesta de valor.
Asesoramos en:
- Adecuación de términos y condiciones de uso para productos que integran funcionalidades de IA.
- Diseño de disclaimers, limitaciones de responsabilidad y cláusulas de uso aceptable vinculadas a outputs automatizados.
- Definición del alcance de las garantías ofrecidas al usuario sobre precisión, disponibilidad y confiabilidad del componente de IA.
- Estructuración contractual de modelos freemium, tiers de servicio y usos diferenciados según el nivel de automatización.
Un modelo de IA que procesa datos personales —sea para entrenamiento, fine-tuning o inferencia— activa obligaciones concretas bajo la normativa de protección de datos. El problema es que la mayoría de los contratos con proveedores de IA no distinguen esos escenarios ni asignan correctamente los roles de responsable y encargado.
Asistimos en:
- Definición de roles (responsable / encargado del tratamiento) en flujos que involucran modelos de terceros.
- Análisis del tratamiento de datos en procesos de entrenamiento, fine-tuning e inferencia.
- Evaluación de riesgos y base legal aplicable conforme a la Ley 25.326 y criterios de la AAIP.
- Diseño de políticas de privacidad y data processing agreements adaptados a sistemas basados en IA.
Contratar un modelo de IA —ya sea vía API, licencia o integración en un producto propio— implica negociar condiciones que los contratos de software tradicionales no contemplan: qué pasa con los datos que el cliente le envía al modelo, quién responde si el output genera un daño, qué niveles de disponibilidad se garantizan y qué ocurre si el proveedor cambia las condiciones de uso.
Asesoramos en:
- Revisión y negociación de contratos con proveedores de modelos, APIs y plataformas de IA.
- Análisis de cláusulas de limitación de responsabilidad, liability caps e indemnidades cruzadas.
- Evaluación de condiciones de uso, tratamiento de datos de entrada y propiedad sobre los outputs.
- Definición de SLAs, niveles de disponibilidad y compromisos de performance del servicio.
Productoras, distribuidoras, plataformas y creadores de contenido están integrando IA en sus flujos de trabajo. Eso genera preguntas concretas: si el contenido generado con IA es registrable, quién retiene los derechos cuando interviene una herramienta automatizada, y cómo se regulan esos usos frente a plataformas como YouTube o servicios de distribución digital.
Asesoramos en:
- Uso de herramientas de IA en producción de contenido audiovisual, editorial y digital.
- Protección de la autoría en entornos donde intervienen procesos automatizados de generación.
- Estructuración de la explotación comercial de contenido producido con asistencia de IA.
- Adecuación contractual frente a los términos de plataformas de distribución y redes sociales.
Cuando los equipos internos empiezan a usar ChatGPT, Copilot u otras herramientas de IA en su trabajo diario, la empresa necesita reglas claras. Qué información se puede cargar, qué tipo de outputs requieren revisión humana, cómo se documenta el uso y qué pasa si un empleado alimenta el modelo con datos confidenciales o activos sensibles.
Asesoramos en:
- Redacción de políticas internas de uso de herramientas de IA para empleados y colaboradores.
- Definición de reglas sobre carga de información confidencial, datos personales y activos protegidos.
- Lineamientos sobre revisión humana obligatoria, validación de outputs y usos permitidos por área.
- Integración de estas pautas en reglamentos internos, manuales de compliance y políticas corporativas.
Incorporar inteligencia artificial no es solo una decisión tecnológica. Cómo se estructuran los contratos con el proveedor del modelo, qué tratamiento se da a los datos de entrenamiento, quién asume el riesgo por resultados incorrectos y cómo se documenta internamente el uso de estas herramientas son definiciones jurídicas que condicionan la viabilidad del negocio. Acompañamos a empresas en ese proceso, con foco en que la arquitectura legal sea tan concreta como la técnica.