Ir a noticias

IA

Cinco claves para entender el Reglamento Europeo de Inteligencia Artificial

Reglamento Europeo de Inteligencia Artificial

Las postrimerías de 2022 fueron cruciales para la democratización de la inteligencia artificial. El 30 de noviembre de ese año, OpenAI – una empresa especializada en la investigación y el desarrollo de sistemas informáticos y algoritmos capaces de imitar la inteligencia humana – lanzó ChatGPT. El éxito de este chatbot fue tan inmediato y fulgurante, que apenas cuatro días después contaba ya con más de un millón de usuarios, según la firma californiana. Más de un año y medio más tarde, el pasado 1 de agosto, entró en vigor el Reglamento Europeo de Inteligencia Artificial.

Bruselas comenzó a trabajar en él antes de que ChatGPT encendiera la chispa. Propuesta por la Comisión Europea en abril de 2021 y ratificada por el Parlamento Europeo y el Consejo en diciembre de 2023, esta normativa se centra en mitigar los riesgos potenciales de la inteligencia artificial para la salud, la seguridad y los derechos fundamentales de los ciudadanos. Asimismo, establece requisitos y obligaciones claras para desarrolladores e implementadores en cuanto a sus usos específicos. Estas son las claves de un reglamento cuya ambición es ser referente a nivel mundial.

¿Qué es la inteligencia artificial?

El Reglamento Europeo de Inteligencia Artificial define un sistema de inteligencia artificial como un programa que funciona de manera autónoma, es decir, sin necesidad de intervención humana constante. Este sistema utiliza datos que puede recibir de personas o de otras máquinas, y, a partir de ellos, deduce cómo alcanzar ciertos objetivos. Para hacerlo, emplea técnicas de aprendizaje automático o basadas en lógica y conocimiento. Como resultado, genera contenidos, predicciones, recomendaciones o decisiones que pueden influir en el entorno con el que interactúa.

¿A quién se aplica el Reglamento Europeo de Inteligencia Artificial?

El Reglamento Europeo de Inteligencia Artificial se aplica a cualquier proveedor que comercialice o utilice sistemas de inteligencia artificial en la Unión Europea, sin importar dónde esté ubicado el proveedor. Se aplica también a proveedores y usuarios de terceros países cuyos sistemas produzcan resultados que se utilicen en la UE, usuarios físicamente presentes o establecidos en la UE, y proveedores de estos sistemas y sus representantes autorizados, importadores y distribuidores.

¿Qué enfoque tiene?

El enfoque del Reglamento Europeo de Inteligencia Artificial está basado en el riesgo, por lo que a un riesgo más alto corresponderán normas más estrictas.

  • Riesgo mínimo. La mayoría de los sistemas de inteligencia artificial pueden ser utilizados sin complicaciones adicionales, ya que cumplen con la legislación vigente. Ejemplos de estos sistemas incluyen los videojuegos y los filtros de spam en correos electrónicos. Aunque no es obligatorio, los proveedores de estos sistemas pueden optar por seguir principios de inteligencia artificial confiable y adherirse a códigos de conducta voluntarios.
  • Riesgo específico de transparencia. Para generar confianza, es crucial que el uso de la inteligencia artificial sea transparente. Por ello, el Reglamento de Inteligencia Artificial impone requisitos específicos de transparencia para ciertas aplicaciones, especialmente aquellas donde existe un claro riesgo de manipulación, como los robots conversacionales o las ultrafalsificaciones. Los usuarios deben estar siempre informados de que están interactuando con una máquina.
  • Alto riesgo. Se consideran de alto riesgo aquellos sistemas de inteligencia artificial que podrían afectar negativamente la seguridad de las personas o sus derechos fundamentales. Ello incluye, por ejemplo, sistemas que deciden si alguien puede recibir un tratamiento médico, obtener un empleo o un préstamo para comprar un apartamento. También abarca aquellos sistemas utilizados por la policía para crear perfiles de personas o evaluar el riesgo de que cometan un delito, así como los que operan robots, drones o dispositivos médicos. Estos sistemas estarán supeditados a una serie de requisitos y obligaciones para acceder al mercado de la UE.
  • Riesgo inadmisible. Algunos usos de la inteligencia artificial se consideran tan perjudiciales que están prohibidos por oponerse a los valores de la UE, ya que vulneran los derechos fundamentales de la ciudadanía. Estos incluyen la manipulación de personas aprovechando sus vulnerabilidades, el uso de técnicas subliminales, la puntuación social con fines públicos o privados, la actuación policial predictiva basada solo en perfiles, la recolección masiva de imágenes faciales de internet o cámaras de seguridad para crear bases de datos, y el reconocimiento de emociones en el trabajo o en escuelas, salvo por razones médicas o de seguridad. También está prohibida la categorización biométrica para inferir datos sensibles como raza u orientación sexual, así como la identificación biométrica remota, en tiempo real, en espacios públicos por parte de la policía, salvo en casos excepcionales.

¿Cómo aborda los sesgos raciales y de género?

El Reglamento pone un gran énfasis en evitar que los sistemas de inteligencia artificial generen o perpetúen sesgos. Por ello, deben cumplir con nuevos requisitos que aseguran su solidez técnica y evitan resultados sesgados que afecten desproporcionadamente a grupos marginados.

Estos sistemas deben ser entrenados con datos representativos y tener mecanismos para detectar y corregir cualquier desigualdad. Asimismo, deben poder ser rastreados y auditados, conservando toda la documentación relevante, incluidos los datos de entrenamiento del algoritmo, lo que facilita investigaciones posteriores y garantiza que sean monitoreados continuamente.

¿Cómo se hará cumplir el Reglamento de Inteligencia Artificial y qué sanciones están previstas?

El Reglamento Europeo de Inteligencia Artificial establece un sistema de gobernanza en dos niveles: las autoridades nacionales supervisan el cumplimiento de las normas en sus países, mientras que la UE regula los modelos de uso general. Para asegurar coherencia y cooperación, se creará el Comité Europeo de Inteligencia Artificial, con apoyo de la Oficina Europea de Inteligencia Artificial, que aportará orientaciones estratégicas.

Habrá sanciones severas por incumplimientos, que varían según la gravedad:

  • 35 millones de euros o el 7% del volumen de negocios mundial por incumplimientos graves relacionados con los requisitos sobre datos.
  • 15 millones de euros o el 3% por incumplimiento de otras obligaciones.
  • 7,5 millones de euros o el 1,5% por proporcionar información incorrecta, incompleta o engañosa a las autoridades.

Para las pymes, se aplicará el importe menor de estos umbrales, mientras que para las grandes empresas se aplicará el importe mayor.