Las muchísimas derivadas que está ofreciendo el advenimiento de la inteligencia artificial (IA) en tantos y tantos ámbitos de nuestra sociedad está empezado a hacer levantar la voz a muchas personas sobre cómo utilizar esta tecnología. Recientemente, un millar de expertos han pedido directamente detenido el desarrollo de la inteligencia artificial alertados por sus avances, cuya figura más mediática es ChatGPT y GPT 4.
Podemos estar de acuerdo en que es el mayor avance del mundo en cuanto a software en década y la punta del iceberg de una cada vez más probable revolución tecnológica que se hace difícil ni siquiera definir. Estos expertos hablan directamente de detener los desarrollos o estaremos abocados a la destrucción de la civilización. Suena muy radical, pero a la velocidad que se mueve todo, ¿quién se atreve a negarlo rotundamente?
Como ocurre siempre, la tecnología corre a una velocidad muy superior a la posible regulación que podría enmarcarla para definir usos y excesos. Con el IA ese desfase es más sangriento todavía. El boom de esa tecnología ha sido exponencial. De nuevo, gobiernos e instituciones muestran su incapacidad para reaccionar y encontrar barreras o limitaciones para el sector.
La carta abierta de los expertos mundiales pide parar seis meses todos los desarrollos, de forma pública y verificable para hacer la reflexión de cómo, por qué y hasta dónde se debe trabajar en el IA. Si no, directamente, que se realice vía intervención de los gobiernos.
Algunos se lo han quitado al pie de la letra, como Italia. Su autoridad de protección de datos, el GPDP (Garante por la protezione dei dati personali), ha prohibido con efecto inmediato el uso de ChatGPT y ha bloqueado la herramienta de OpenAI por supuesta recopilación ilícita de datos personales. Asimismo ha comenzado una investigación en la compañía. Italia ha dicho que hasta que no cumpla con el RGPD europeo, no levantará la prohibición.
Las cuestiones planteadas por el GPDP italiano son esenciales. No se proporciona ninguna información al usuario de los datos recopilados y procesados por Chat GPT, no existe base jurídica adecuada en relación a la recopilación de datos personales y su tratamiento destinado a generar algoritmos, no existe ningún sistema de verificación de edad del usuario…
Con este precedente, otros han empezado a mirarlo, como España, donde la Agencia española de protección de datos (AEPD) ha iniciado de oficio también una investigación por un posible incumplimiento de la normativa. Y el tema se ha elevado ya al Comité europeo de protección de datos (EDPB, por sus siglas en inglés) para que valore el tratamiento global de datos y el impacto sobre los derechos de las personas. Es primer paso. Ver a qué velocidad se mueve, sin embargo. La privacidad de los datos es una pata sólo de las afectaciones normativas del IA, también deberá realizarse el abordaje de la transparencia y explicabilidad de los algoritmos, la ética, la equidad y no discriminación, y la responsabilidad de los sistemas de IA.