Ir a opiniones expertas

Inteligencia artificial

Un paso adelante hacia una inteligencia artificial fiable y segura

Ley de Inteligencia Artificial
Daniel Errea

Daniel Errea

Consultor en Proyectos Europeos

A veces la ficción no está tan lejos de la realidad. Las películas dibujan continuamente paradigmas en los que los robots y la inteligencia artificial acaban dominando la sociedad o transformando la realidad en algo distópico. Obviamente, esto dista mucho de ser cierto, pero la inteligencia artificial (IA) ha evolucionado rápidamente, impregnando numerosos aspectos de nuestras vidas, revolucionando industrias y transformando la forma en que interactuamos con la tecnología.

A medida que los sistemas de IA se vuelven cada vez más complejos e influyentes, sin embargo, surgen preocupaciones en torno a su fiabilidad. Cuestiones como la parcialidad, la falta de transparencia, la rendición de cuentas y los riesgos potenciales para los valores humanos han suscitado dudas sobre el desarrollo y despliegue responsables de la IA.

Para hacer frente a estas preocupaciones, los gobiernos y los organismos reguladores de todo el mundo están tomando medidas, y las instituciones europeas no son una excepción. A finales del mes pasado, el Parlamento Europeo adoptó su posición negociadora sobre una serie de normas que se agrupan en la llamada Ley de Inteligencia Artificial. Con ella irá a las conversaciones con los Estados miembros de las que saldrá el texto definitivo, con el objetivo de alcanzar un acuerdo a finales de este año.

La Ley de Inteligencia Artificial de la UE

Propuesta en abril de 2021 por la Comisión Europea, esta medida pretende crear un marco regulador armonizado para los sistemas de IA, promoviendo al mismo tiempo la innovación y defendiendo las normas éticas. A continuación, detallamos sus características.

Enfoque basado en el riesgo

La Ley clasifica los sistemas de IA en cuatro niveles de riesgo: riesgo inaceptable, alto, limitado y mínimo. Los sistemas de alto riesgo, como los utilizados en infraestructuras críticas, sanidad o cuerpos de seguridad, se enfrentarán a los requisitos más estrictos, en los que se incluyen transparencia, documentación y supervisión humana. Al adoptar este enfoque, la Ley garantiza que las medidas reguladoras sean proporcionales a los riesgos potenciales que plantean las diferentes aplicaciones de IA, centrando los esfuerzos en las áreas de alto riesgo y permitiendo al mismo tiempo la innovación en dominios donde este sea menor.

Prohibición de prácticas inaceptables de IA

Esta medida prohíbe de forma explícita ciertas prácticas de IA que se consideran inaceptables debido a su potencial para infringir derechos fundamentales o causar daños significativos. Entre ellas, se incluyen los sistemas que manipulan el comportamiento humano o utilizan técnicas subliminales, así como los que crean deepfakes con fines maliciosos. De esta forma, la Ley pretende salvaguardar los derechos de las personas y evitar el uso indebido de la IA.

Transparencia y explicabilidad

La Ley da prioridad a la transparencia y la explicabilidad para aumentar la confianza en los sistemas de IA. Establece que los usuarios deben ser informados cuando interactúan con alguno de ellos, de manera que sean conscientes de que no se encuentran frente a un ser humano sino a un sistema automatizado. Además, los sistemas de IA de alto riesgo deben proporcionar información detallada sobre sus capacidades y limitaciones. Estos requisitos permiten a los usuarios tomar decisiones informadas y fomentan la responsabilidad en torno al uso de los resultados producidos por la IA.

Gobernanza de los datos

Al reconocer la importancia de la calidad de los datos y la mitigación de sesgos, la Ley hace hincapié en que los datos deben ser transparentes y trazables y cumplir ciertos requisitos de calidad. De esta manera, fomenta el uso de conjuntos de datos diversos y de alta calidad para evitar los resultados sesgados y la discriminación.

Supervisión y rendición de cuentas

La Ley subraya también la importancia de la supervisión humana. Los sistemas de IA de alto riesgo deben contar con mecanismos adecuados de intervención y control humanos. Esto garantiza que las decisiones cruciales no dependan únicamente de los algoritmos de IA y que los humanos mantengan el control sobre los resultados. Los desarrolladores y proveedores de sistemas de IA deben responder de sus productos. El incumplimiento de la Ley puede dar lugar a multas sustanciales, lo que anima a los desarrolladores de IA a dar prioridad a las consideraciones éticas y asumir la responsabilidad del impacto social de sus tecnologías.

Compromiso en forma de oportunidades de financiación

La Comisión Europea destina 317,50 millones de euros en forma de subvenciones a proyectos innovadores en el ámbito de la IA, en el marco del cluster 4 del Pilar II de Horizon Europe. Este cuenta con convocatorias centradas en el desarrollo ético de las tecnologías digitales e industriales, en las que se capacita a los usuarios finales y a los trabajadores en el desarrollo de las tecnologías.

El objetivo de la Comisión Europea es desarrollar un entorno digital digno de confianza, basado en una internet más resistente, sostenible y descentralizada, dotar a los usuarios finales de un mayor control sobre sus datos y su identidad digital, y permitir nuevos modelos sociales y empresariales que respeten los valores europeos.

Los próximos pasos

La introducción de la Ley Europea de IA representará un hito importante en su regulación y la garantía de su fiabilidad, porque pretende proteger los derechos de las personas al tiempo que fomenta la innovación y la competitividad en Europa. El camino hacia una IA fiable, sin embargo, no terminará cuando estas normas sean adoptadas. Hay que dar algunos pasos más, los que detallamos a continuación.

  • Cooperación internacional: fomentar la cooperación y colaboración internacional entre gobiernos, organizaciones y expertos para establecer normas comunes y buenas prácticas para una IA fiable.
  • Directrices éticas: desarrollar y adoptar directrices éticas integrales que abarquen principios como la equidad, la transparencia, la responsabilidad, la privacidad y la solidez. La adhesión a estos principios fomentará la confianza entre los usuarios y las partes interesadas.
  • Pruebas y certificación sólidas: establecer procesos rigurosos de prueba y certificación para los sistemas de IA, especialmente los clasificados como de alto riesgo. Las evaluaciones exhaustivas del rendimiento, la fiabilidad y la seguridad de los sistemas de IA pueden ayudar a garantizar su fiabilidad y evitar posibles daños.
  • Investigación y desarrollo continuados: los avances en estas áreas contribuirán al perfeccionamiento de los sistemas de IA y abordarán posibles sesgos, errores o consecuencias no deseadas.
  • Concienciación y educación del público: capacitar a las personas para que tomen decisiones informadas sobre el uso de la IA y participen en debates sobre su impacto social. La alfabetización digital y el fomento de la comprensión contribuirán a un uso más responsable e informado de las tecnologías de IA.
  • Evaluación y adaptación continuas: evaluar periódicamente la eficacia y el impacto de la Ley Europea de Inteligencia Artificial y realizar las adaptaciones necesarias para hacer frente a los nuevos retos y avances tecnológicos.

Tomando estas medidas, podremos fomentar un ecosistema de IA fiable que beneficie a las personas, las organizaciones y la sociedad en su conjunto. La Ley Europea de Inteligencia Artificial sirve de base, pero requiere esfuerzos colectivos y un compromiso permanente para sortear las complejidades y garantizar que esta tecnología siga siendo una fuerza positiva. Juntos podemos forjar su futuro, dando prioridad a los valores humanos, la equidad y la transparencia, e inspirando confianza en la tecnología que está remodelando nuestro mundo.

Persona experta

Daniel Errea
Daniel Errea

Sede de Pamplona

Consultor en Proyectos Europeos