Es muy probable que en las últimas semanas, por cuestiones profesionales o por temas personales, nos hayamos sentido aludidos al alud de informaciones que han aparecido en los medios de comunicación y las redes sociales sobre los pasos de gigante que se están dando en el desarrollo de tecnología de inteligencia artificial (IA).
Sobre todo, por la impresionante presentación que ha hecho la empresa OpenAI de su chatbot GPT3, un generador de contenido capaz de responder a preguntas sobre cualquier tema (de momento sólo eventos de antes del 2021), programar, asistir, recomendar, crear, etc. También han aflorado los proyectos de Microsoft para poner voz a cualquier texto imitando cualquier voz humana, Valle, o el de Midjourney para crear imágenes e ilustraciones a partir de una descripción de texto. Obviamente, enseguida ha habido apoyos entusiastas y alarmados detractores, sobre todo en el ámbito de la creación artística, pero también en la educación y, en general, en muchos sectores que intuyen que el futuro puede ser radicalmente disruptivo en sus tareas diarias. ¿Todo lo podrá hacer una máquina, para qué servirá tal o cual otro lugar de ocupación, pues?
Miraremos por el tema que nos ocupa. Una aparición así con un manejo de información como éste debe impactar en la gestión de la protección de datos, por supuesto. Sin poder ser muy concretos todavía, que todo está por ver, un ejemplo de cómo la IA puede poner en riesgo la protección de datos en una empresa es mediante el uso de sistemas de reconocimiento facial, ya de moda. Si una empresa utiliza tecnología de reconocimiento facial para identificar a los clientes en una tienda o en un evento, es probable que recoja y almacene información personal, como las imágenes de las caras de los clientes. Otro ejemplo es el uso de la IA en el análisis de datos de los clientes. Si una empresa utiliza IA para analizar los datos de los clientes a fin de mejorar sus productos y servicios, es probable que trate una gran cantidad de información personal, como los datos de compra, el historial de navegación y las preferencias del cliente. Si esta información no está adecuadamente protegida, podría ser vulnerable a ataques cibernéticos, lo que podría exponer los datos personales a un riesgo de robo de identidad o fraudes. Además, la IA también podría procesar esta información de forma automatizada, lo que podría generar decisiones no deseadas o discriminatorias.
En ambos casos, es importante que las empresas tomen medidas para garantizar la seguridad y la privacidad de los datos, como la encriptación de los datos, la evaluación de riesgos, la monitorización continua de los sistemas de IA y la formación de los empleados sobre el uso ético y seguridad de los datos. En conclusión, estaremos en un proceso continuo de aprendizaje y mejora porque, y esto ya sabíamos, la tecnología va siempre unos pasos adelante de nuestros procesos y rutinas.