Actualidad

El Consejo de Transparencia y Protección de Datos anuncia una herramienta para el uso responsable de inteligencia artificial en las administraciones públicas

Se trata de una metodología que permitirá a las AAPP innovar con IA, garantizando el cumplimiento de la normativa de protección de datos y los derechos de la ciudadanía.

El Consejo de Transparencia y Protección de Datos de Andalucía ha desarrollado una metodología específicamente diseñada para ayudar a las administraciones públicas a implementar sistemas de inteligencia artificial de manera responsable y conforme a la normativa de protección de datos.

Así lo ha anunciado el director de la autoridad de control, Jesús Jiménez, durante su participación en la ‘V Conferencia Internacional Inteligencia Artificial ética e inclusiva’, organizada por la Universidad CEU Fernando III y la cátedra South EU Google Data Governance Chair en Sevilla, foro en el que ha destacado que esta iniciativa responde “a una necesidad creciente detectada durante las labores de supervisión del organismo”.

En este sentido, Jiménez ha añadido que las administraciones públicas están incorporando “cada vez más tecnologías de IA para mejorar sus servicios, si bien frecuentemente se encuentran con dificultades para aplicar el complejo marco normativo de protección de datos y garantizar los derechos de los ciudadanos”.

Igualmente, el director ha subrayado la “experiencia” del Consejo en la supervisión de estos proyectos, de destacada utilidad en aspectos especialmente relevantes, como el análisis de riesgos, la identificación de las bases de licitud del tratamiento, la gestión de proveedores tecnológicos y la participación del Delegado de Protección de Datos en el desarrollo de los mismos.

Una metodología que se adapta a cada proyecto
La metodología desarrollada funciona como una guía paso a paso que acompaña a los responsables públicos desde la concepción inicial del proyecto hasta su puesta en funcionamiento. Se adapta automáticamente al tipo y complejidad de cada proyecto.

Se aplicarán distintos niveles de supervisión, de modo que será diferente el control a un sistema simple de gestión documental frente a otro que tome decisiones sobre la posible adaptación curricular del alumnado o pretenda identificar a personas mayores en situación de soledad no deseada. La metodología procederá en función del riesgo real, es decir, a mayor impacto potencial, mayor nivel de supervisión, y viceversa.

El sistema comienza con unas preguntas claras sobre el tipo de proyecto, los datos que procesará y los colectivos afectados. Con estas respuestas, configura automáticamente qué pasos seguir y qué nivel de verificación es necesario, variando desde 40 controles para proyectos básicos hasta 178 para sistemas complejos.

Otra característica distintiva es su relación con el proceso de licitación pública. La protección de datos no debe ser algo que se añada al final del proyecto como una carga adicional, justo al contrario, debe estar integrada desde el primer momento, desde la redacción de los pliegos hasta la recepción del sistema.

La herramienta ayuda a identificar qué requisitos de protección de datos incluir en los pliegos, verificar durante la evaluación de ofertas si los proveedores proponen medidas adecuadas, y supervisar durante el desarrollo que se implementan correctamente las protecciones necesarias.

Aunque el objetivo principal es facilitar el cumplimiento de la normativa, la metodología promueve un enfoque de innovación responsable. Al exigir una reflexión sistemática sobre riesgos y medidas de protección, contribuye al desarrollo de sistemas de IA más robustos y confiables.

Casos prácticos

La metodología funciona de forma diferente en función del tipo de proyecto:

• Proyectos de complejidad baja: Un ayuntamiento que implemente un chatbot para responder consultas ciudadanas básicas podría completar el proceso verificando un conjunto reducido de medidas de protección específicas.

• Proyectos de alta complejidad: Una administración que desarrolle un sistema de IA para evaluar automáticamente solicitudes de ayudas sociales (que procesa datos sensibles y toma decisiones que afectan significativamente a los ciudadanos) deberá seguir un proceso más exhaustivo que incluye evaluación de sesgos algorítmicos, mecanismos de supervisión humana y procedimientos específicos para el ejercicio de derechos.

Puesta en marcha
El Consejo ya ha comenzado a aplicar de forma práctica elementos de esta metodología en las actuaciones inspectoras realizadas en el marco del vigente ‘Plan de Control e Inspección sobre Protección de Datos en el Sector Público Andaluz 2023-2025’, y servirá como referente para la elaboración de futuros planes de control e inspección.

Asimismo, se encuentra en fase final de desarrollo su concreción como herramienta práctica, que estará disponible para todas las administraciones públicas andaluzas durante el último trimestre del año. De la misma forma, será presentada mediante talleres prácticos monográficos dirigidos a sus respectivos equipos.

La metodología contempla todos los elementos necesarios para generar las evaluaciones de impacto en protección de datos requeridas por la normativa, reduciendo la carga de redacción manual y asegurando la coherencia de toda la documentación.

El objetivo es que esta herramienta se convierta en el estándar de referencia para el desarrollo responsable de IA en materia de protección de datos en el sector público andaluz, permitiendo que las administraciones puedan aprovechar todo el potencial de la inteligencia artificial manteniendo las máximas garantías para los derechos de los ciudadanos.

Más información sobre la metodología en este enlace.

WP to LinkedIn Auto Publish Powered By : XYZScripts.com
Scroll al inicio