La IA ya tiene quien la regule

Hace unos cuatro meses, las autoridades europeas presentaron el primer proyecto de ley integral sobre inteligencia artificial a escala mundial, conocido como 'Reglamento de Inteligencia Artificial (IA)'. Ante la inmensidad de incógnitas que se abren con la evolución de esta tecnología, el reto era, por lo menos, intentar proteger los derechos fundamentales de las personas en el uso de la IA.

Sorprendentemente, dada la velocidad con la que en ocasiones hemos visto avanzar algunas iniciativas legislativas, este mismo 13 de marzo el Parlamento Europeo aprobó el nuevo reglamento de inteligencia artificial para garantizar la seguridad y los derechos de los ciudadanos. Este acuerdo es un primer paso que debe servir de precedente para una nueva norma mundial de regulación de la IA que podría llegar este mismo 2024 y que entraría en vigor en 2026.

El reglamento europeo pone en el centro el riesgo de la tecnología sobre los derechos fundamentales, la democracia, el estado de derecho y la sostenibilidad medioambiental. No quiere limitar el avance de la tecnología, con previsibles efectos beneficiosos, pero sí levantar ciertas líneas rojas cuando existen ciertos riesgos. Así establece una clasificación de los sistemas de IA según su nivel de riesgo. Hay tres categorías:

Riesgo inaceptable: los sistemas de IA que representan una amenaza directa para la seguridad pública, los derechos fundamentales o la privacidad. Su uso está estrictamente prohibido, salvo situaciones muy excepcionales.

Alto riesgo: incluye los sistemas de IA que podrían tener un impacto considerable en los derechos fundamentales de las personas, como aquellos relacionados con servicios y procesos que afectan a la salud, la seguridad o el empleo. Su uso está permitido, pero con salvaguardias adicionales y se monitorice su funcionamiento.

Bajo riesgo o riesgo inexistente: cuando no es ninguna de las anteriores. Es decir, se basa en la capacidad de decisión libre, informada, voluntaria e inequívoca de los ciudadanos para utilizar estas tecnologías como IA generativas.

Uno de los temas destacados es, cómo no, la biometría. La clave aquí es que el usuario conozca el sistema y decida libremente sobre su uso. Así, las aplicaciones de reconocimiento biométrico que supongan una participación activa y consciente del usuario, demostrando su conocimiento y aprobación, se considerarán de bajo riesgo. Este enfoque es muy importante, puesto que pone todo el peso en la importancia del consentimiento en la era digital.

En general, las organizaciones deben prever sistemas éticos y responsables que permitan el consentimiento informado e inequívoco de las personas, las cuales, además, tendrán que tener, igualmente, mecanismos de control y defensa de sus derechos sobre estos tratamientos.

Es un precedente de cómo se pueden regular tecnologías emergentes de forma efectiva y ética, sin sacrificar la innovación. Continuaremos dispuestos.

Artículos relacionados

Scroll al inicio