Mecanismos para la protección legal, ética y técnica de la Inteligencia Artificial
Los mecanismos para la protección legal, ética y técnica de la Inteligencia Artificial (IA) son multifacéticos y se basan en tres pilares fundamentales del derecho digital: la Propiedad Intelectual, la Protección de Datos y la Regulación. Estos mecanismos buscan proteger los activos, fomentar la confianza y mitigar los riesgos asociados con la autonomía y opacidad de los sistemas de IA.
A continuación, te detallo los principales mecanismos de protección de la IA:
I. Marco Regulatorio y Nivel de Riesgo
El mecanismo de protección más influyente a nivel internacional es el enfoque basado en riesgos establecido por el Reglamento de IA de la Unión Europea (AI Act). Este marco impone obligaciones y requisitos proporcionales al potencial de daño que un sistema de IA representa para los derechos fundamentales, la seguridad y el bienestar de las personas.
1. Clasificación y Prohibiciones
La protección se articula mediante la clasificación de los sistemas de IA en categorías de riesgo.
La clasificación y prohibición de los sistemas de Inteligencia Artificial (IA) se basan fundamentalmente en el nivel de riesgo que estos representan para la seguridad, la sociedad y los derechos fundamentales de las personas. Este enfoque jerárquico es central en el Reglamento de IA de la Unión Europea (EU AI Act), el cual clasifica las aplicaciones de IA en varias categorías y establece regulaciones proporcionales para cada una.
Sistemas de Riesgo Inaceptable: Prácticas Prohibidas
Esta categoría impone el nivel de riesgo más estricto y prohíbe explícitamente el desarrollo, la comercialización o el uso de aquellos sistemas que representen una amenaza clara o inaceptable para los derechos humanos o la seguridad.
Las prácticas de IA prohibidas incluyen, pero no se limitan a:
- Sistemas de Puntuación Social (Social Scoring): Se prohíbe el uso de sistemas de IA para evaluar o clasificar a personas o grupos a lo largo del tiempo basándose en su comportamiento social o características personales, lo que podría resultar en un trato perjudicial o desfavorable en contextos no relacionados con los datos originales.
- Manipulación Subliminal y Explotación de Vulnerabilidades: Se prohíben los sistemas diseñados para manipular el comportamiento humano de manera subliminal o engañosa, especialmente si esto altera sustancialmente el comportamiento de la persona o causa perjuicios físicos o psicológicos. También se prohíbe la explotación de vulnerabilidades de grupos específicos debido a su edad, discapacidad física o mental u otras condiciones de vulnerabilidad, con el fin de alterar sustancialmente su comportamiento.
- Vigilancia y Reconocimiento Biométrico Remoto: Se prohíbe la creación o ampliación de bases de datos de reconocimiento facial mediante la extracción no selectiva (scraping) de imágenes faciales de internet o sistemas de videovigilancia. También se prohíbe el uso policial de sistemas de identificación biométrica a distancia en tiempo real en espacios de acceso público, a menos que se aplique una excepción que requiera generalmente la autorización previa de una autoridad judicial o administrativa independiente.
- Reconocimiento de Emociones: Se prohíbe la utilización de sistemas de IA destinados a detectar emociones o intenciones en el ámbito laboral o educativo, salvo en casos limitados por razones médicas o de seguridad.
Sistemas de Alto Riesgo
Los sistemas clasificados como de alto riesgo no están prohibidos. Sin embargo, se consideran sistemas que son susceptibles de afectar los derechos fundamentales o la seguridad de las personas de manera significativa. Por esta razón, están sujetos a requisitos regulatorios estrictos antes de su comercialización y durante todo su ciclo de vida.
Un sistema siempre se considerará de alto riesgo si lleva a cabo la elaboración de perfiles de personas físicas.
Ejemplos de usos de Alto Riesgo (sujetos a requisitos rigurosos):
- Sectores Críticos: Sistemas que actúan como componentes de seguridad en la gestión y operación de infraestructuras críticas, como el suministro de agua, gas o electricidad.
- Educación y Empleo: Sistemas utilizados para determinar el acceso o admisión en centros educativos, para evaluar resultados de aprendizaje, o para la contratación, selección y evaluación de candidatos en el entorno laboral.
- Acceso a Servicios Esenciales: Sistemas usados para evaluar la solvencia, la calificación crediticia, o la elegibilidad para prestaciones y servicios públicos esenciales.
- Justicia y Aplicación de la Ley: Sistemas que asisten en el proceso judicial o la investigación criminal, o aquellos utilizados para determinar el riesgo de que una persona cometa un delito o reincida.
- Biometría: Cualquier sistema de identificación biométrica que no esté prohibido y que no tenga como único propósito verificar la identidad de una persona (ej. acceder a una aplicación bancaria).
Para estos sistemas se exige un sistema continuo de gestión de riesgos, rigurosas prácticas de gobernanza de datos, documentación técnica exhaustiva, supervisión humana y evaluaciones de conformidad. En algunos ámbitos, como la sanidad o los servicios públicos, se impone la obligación de realizar una evaluación de impacto sobre los derechos fundamentales.
Sistemas de Riesgo Limitado
Los sistemas clasificados como de riesgo limitado son aquellos que presentan un impacto moderado en los derechos fundamentales. Estos sistemas no están sujetos a requisitos tan estrictos como los de alto riesgo, pero tienen obligaciones especiales de transparencia.
La obligación principal es la de informar al usuario de que está interactuando con una IA, permitiéndole tomar decisiones informadas. Esta obligación de transparencia se aplica a herramientas como los chatbots y a las aplicaciones que permiten generar o manipular imágenes, sonidos o videos (deepfakes). En el caso de los deepfakes, es necesario que el contenido generado o manipulado sea marcado para ser reconocido como tal.
Sistemas de Riesgo Mínimo
La mayoría de las aplicaciones de IA caen en la categoría de riesgo mínimo. Estos sistemas (como filtros de spam o videojuegos asistidos por IA) no están regulados por la ley. En estos casos, se puede sugerir un código de conducta voluntario.
Modelos de IA de Uso General (GPAI)
Además de la clasificación por riesgo, se han creado reglas específicas para los modelos de IA de uso general (GPAI), también llamados modelos fundacionales (como ChatGPT). Estos modelos tienen obligaciones como:
- Establecer políticas que aseguren el cumplimiento de la legislación sobre derechos de propiedad intelectual.
- Elaborar y publicar resúmenes detallados del contenido utilizado para su entrenamiento.
Si un modelo GPAI representa un riesgo sistémico (por ejemplo, al tener capacidades de alto impacto o superar una capacidad de cálculo de $10^{25}$ FLOPs), el proveedor debe cumplir con obligaciones adicionales, incluyendo pruebas de resistencia y ciberseguridad avanzada.
2. Responsabilidad de los Operadores
La Ley de IA se aplica a los proveedores (quienes desarrollan el sistema y lo comercializan) y a los implementadores/usuarios (quienes lo utilizan).
- Proveedores de alto riesgo: Deben implementar políticas rigurosas de gobernanza de datos, mantener documentación técnica exhaustiva, llevar un registro de actividades para garantizar la trazabilidad, y cooperar con las autoridades reguladoras.
- Modelos de IA de uso general (GPAI): Sus proveedores tienen obligaciones como establecer políticas que respeten la legislación de derechos de autor de la UE y publicar resúmenes detallados de los conjuntos de datos de entrenamiento. Si representan un riesgo sistémico (generalmente definido por la capacidad de cálculo superior a $10^{25}$ FLOPs), tienen obligaciones adicionales de ciberseguridad y documentación de incidentes.
II. Blindaje Jurídico y Protección de Activos
Más allá de la regulación gubernamental, existen mecanismos de protección privada que son esenciales para el blindaje jurídico de los proyectos de IA.
1. Propiedad Intelectual (IP)
Dado que la IA es, en esencia, un software, está sujeta a derechos de autor. Los mecanismos de protección de activos intangibles de la IA incluyen:
- Registros: La protección requiere registros de propiedad industrial, patentes y derechos de autor para activos como dominios web, marcas registradas y el software y las licencias en sí. Esto confiere la titularidad, lo cual es fundamental para demostrar los derechos en el ámbito legal.
- Licencias: Son necesarias para el uso legal del software de IA. La titularidad del contenido generado por IA (texto, imágenes, voz, videos) no siempre pertenece al usuario y depende de la licencia que se esté pagando y el nivel de intervención humana.
2. Contratos y Confidencialidad
Los contratos son instrumentos clave para regular acuerdos privados entre las partes y evitar conflictos.
- Contratos de Confidencialidad (NDA): Cruciales con empleados, clientes y socios.
- Contratos de Servicios y Licencias: Regulan el uso legal del software de IA, tanto para uso interno (empleados) como externo (clientes).
- Términos y Condiciones (T&C): Imprescindibles para sitios web y aplicaciones, pues son la vía para establecer protocolos de protección de datos y políticas de privacidad transparentes.
- Cláusulas: Es importante incluir cláusulas de confidencialidad, cláusula penal y responsabilidad (civil y penal).
III. Medidas de Gobernanza, Ética y Supervisión
Estos mecanismos se centran en el compliance continuo y la integración de valores éticos y legales en la operación de la IA.
1. Transparencia y Explicabilidad
La transparencia y la explicabilidad son mecanismos de protección activa que generan confianza.
- IA Explicable (XAI): Se vuelve clave para garantizar que las decisiones algorítmicas puedan ser auditadas, comprendidas y, si es necesario, impugnadas por las personas afectadas. La transparencia algorítmica implica la publicidad sobre los propósitos, la estructura, las bases de datos y los mecanismos de participación humana.
- Supervisión Humana: Los sistemas de alto riesgo deben garantizar la vigilancia humana para asegurar un uso responsable y permitir la intervención o desactivación en caso de mal funcionamiento. Los usuarios tienen derecho a obtener intervención humana y a expresar su punto de vista.
- Trazabilidad: Se debe asegurar la trazabilidad del contenido (quién, cuándo y cómo se generó). Los sistemas de alto riesgo deberán permitir el registro automático de eventos a lo largo de su ciclo de vida.
2. Uso Ético de la Herramienta
La protección comienza con la instrucción que se da al sistema de IA (el prompt).
- El Prompt Correcto: Para que la interacción sea infalible, el prompt debe ser ético. Esto significa no pedir nada ilícito y no compartir información confidencial.
- Evitar Riesgos Éticos: Se deben evitar los deep fakes no consentidos, la desinformación, y el uso de IA que perpetúe sesgos algorítmicos o cause discriminación.
3. Educación y Protocolos Organizacionales
La educación del equipo es el punto de partida para el impulso y para evitar conflictos.
- Ciberseguridad y Ética Digital: Es necesaria la educación básica en ciberseguridad, protección de datos, y ética digital en el uso de herramientas y comunicaciones.
- Disclaimers: Incluir disclaimers en el pie de los correos para resguardar la información confidencial y declarar el cumplimiento de los protocolos de protección de datos.
- Prohibiciones Internas: Prohibir a los empleados compartir data susceptible de ser información confidencial con herramientas públicas como ChatGPT.
IV. Protección de Datos y Controles Técnicos
La protección de datos es vital, ya que la recopilación de datos es el gran negocio de la IA. Los sistemas de IA deben cumplir con normativas como el RGPD de la Unión Europea.
1. Gobernanza de Datos
- Calidad de los Datos: Los conjuntos de datos utilizados para el entrenamiento, la validación y el testeo deben ser relevantes, representativos, libres de errores y sesgos.
- Minimización y Anonimización: Se debe aplicar el principio de minimización (usar solo los datos estrictamente necesarios) y técnicas de anonimización o pseudonimización para reducir riesgos de reidentificación.
- Trazabilidad de Datos: Es crucial mapear el flujo completo de datos (entradas, transformaciones y resultados) para evaluar el impacto y aplicar medidas de protección.
2. Cumplimiento de Derechos ARCO
Es un requisito mantener la capacidad de cumplir con los derechos de acceso, rectificación, cancelación y oposición (ARCO) de los usuarios, lo que implica:
- Trazabilidad y Logging: Mantener logs de entrenamiento y versiones de datasets para saber qué datos usó el modelo y cómo.
- Protocolos Claros: Definir protocolos para responder a solicitudes dentro de los plazos legales.
3. Entornos de Experimentación
Para apoyar la innovación y la seguridad, se promueve el uso de espacios controlados de pruebas o sandboxes regulatorios. Estos son entornos seguros que permiten a los desarrolladores probar sus innovaciones bajo ciertas condiciones y con supervisión de las autoridades, con el objetivo de identificar y mitigar riesgos antes de la introducción al mercado.
4. Ciberseguridad
Se deben implementar medidas para garantizar la ciberseguridad y la integridad del sistema. Esto incluye:
- Cifrado: Cifrado en tránsito y en reposo.
- Prevención de Ataques: Medidas para prevenir y responder a la manipulación de los datos de entrenamiento (data poisoning), entradas diseñadas para confundir el modelo (como el prompt injection), y ataques a la confidencialidad.
- Control de Accesos: Implementación de control de accesos basado en roles (RBAC).
