Controles de protección de datos sobre la Inteligencia Artificial

Controles de protección de datos sobre la Inteligencia Artificial

La IA implica la capacidad de explotación de grandes volúmenes de datos a través del uso de algoritmos que permiten el análisis y segmentación de toda la información en base a los criterios que cada sistema establezca.

Antes de nada y para abordar este análisis debemos tener una noción, si quiera mínima,  de lo que es la inteligencia artificial (IA). La IA implica la capacidad de explotación de grandes volúmenes de datos a través del uso de algoritmos que permiten el análisis y segmentación de toda la información en base a los criterios que cada sistema establezca.

Está claro que, Réplicas De Relojes ante el riesgo de utilización de estas herramientas, dada su gran potencia, se deben establecer controles sobre tales sistemas, algoritmos, datos e informaciones.

En este sentido hay  que decir que no existen, a nivel general, estándares, criterios o controles que permitan evaluar, auditar, e incluso, certificar las aplicaciones de inteligencia artificial, sus objetivos y resultados. Y esta es una necesidad, que, sin duda, debemos reclamar nosotros, los usuarios,  pero también gestionar, coordinar y regularizar a nivel de la entidad u organismo responsable del sistema, pues son cada vez más los procesos, incluso esenciales y vitales  que se basan en este tipo de aplicaciones.

Recientemente  la Agencia Española de Protección de Datos (AEPD) ha publicado la  guía de auditoria de los sistemas de  IA con el fin de servir de referencia a la hora de establecer controles a los sistemas IA en relación, específicamente, con el tratamiento de datos personales.

Entre los controles que propone,  cabe destacar los  siguientes:

  • a) La identificación y transparencia del algoritmo utilizado.
  • b) La finalidad y fundamentos de desarrollo de la aplicación o sistema IA.
  • c) El aseguramiento en la gestión de los datos en cuanto a la calidad, origen de los mismos, y control del sesgo.
  • d) Procesos de verificación y validación de la aplicación, incluyendo aspectos tales como rendimiento, coherencia, estabilidad, robustez, trazabilidad, y por supuesto seguridad.

Se trata de controles que, sin duda, pueden ser de utilidad para validar las distintas aplicaciones de inteligencia artificial en pro de la protección de datos personales y la privacidad de los usuarios, pero se echa en falta  todavía que se regulen aspectos tan importantes como los siguientes:

  1. -  Que no suponen una exigencia generalizada ni va acompañado de certificaciones que garanticen su cumplimiento,
  2. - Que dichas aplicaciones y sistemas no están basadas en criterios éticos a favor de la sociedad, aspecto clave teniendo en cuenta que son cada día más las aplicaciones y sistemas de inteligencia artificial que se encuentran en procesos claves a nivel social y del día a día de las personas, y que, en caso de un uso poco ético o mal uso, pueden suponer  graves daños y perjuicios para las personas.

En definitiva,   estos son aspectos clave que se deben regular y estandarizar por los organismos competentes, y no dejarlos en manos y como responsabilidad propia de las entidades desarrolladoras y usuarias de estos sistemas de IA.