471 VISITAS
01.02.2021
¿A qué controles debería estar sometida la inteligencia artificial?
El 28 de enero se celebra el día internacional de la protección de datos personales y, por ende, de la privacidad, derecho sobre el que cada día debemos hacer mayores esfuerzos, como ciudadanos, entidades o administraciones públicas, para su protección.

En los últimos años se ha venido hablando del desarrollo y uso de sistemas que incorporan inteligencia artificial, en múltiples sectores y aplicaciones con el objetivo, en la mayoría de las ocasiones, de agilizar y facilitar procesos que van desde el conocimiento del cliente / usuario / consumidor, análisis de riesgos y detección de posibles fraudes, ayuda al diagnóstico médico, o simplemente, ayuda para la toma de decisiones. Como decíamos, la base de la inteligencia artificial se encuentra en la capacidad de explotación de grandes volúmenes de datos a través del uso de algoritmos que permiten el análisis y segmentación de toda la información en base a los criterios que cada sistema establezca.


Pero, ¿a qué controles están sometidos estos sistemas, sus algoritmos y, sobre todo, los datos e informaciones en los que se basan?


A priori es cada desarrollador y explotador quien decide y regula su sistema de inteligencia artificial en base a sus objetivos, y no existen, a nivel general, estándares, criterios o controles que permitan evaluar, auditar, e incluso, certificar las aplicaciones de inteligencia artificial, sus objetivos y resultados. Esta es una necesidad, que, sin duda, debemos reclamar en nuestro rol de usuario, pero también gestionar, coordinar y regularizar a nivel de la entidad u organismo responsable del sistema, pues son cada vez más los procesos, incluso esenciales y vitales en el día a día de las personas, que se basan en este tipo de aplicaciones.


Si bien y como indicábamos, no existe a nivel general un estándar o buenas prácticas que permitan evaluar el conjunto de los elementos del sistema de inteligencia artificial, en los últimos años sí se han ido desarrollando guías y buenas prácticas, que establecen criterios y controles que se propone aplicar a distintos elementos de la aplicación de inteligencia artificial.


En este sentido, y en relación con la protección de datos de carácter personal, podemos reseñar la guía de auditoria de sistemas IA que recientemente ha publicado la Agencia Española de Protección de Datos (AEPD), con el fin de servir de referencia a la hora de establecer controles a los sistemas IA en relación, específicamente, con el tratamiento de datos personales.


Entre los controles propuestos cabe destacar los relativos a; (i) la identificación y transparencia del componente (o algoritmo), (ii) la finalidad y fundamentos de desarrollo de la aplicación o sistema IA, (iii) el aseguramiento en la gestión de los datos en cuanto a la calidad, origen de los mismos, y control del sesgo, así como (iv) procesos de verificación y validación de la aplicación, incluyendo aspectos tales como rendimiento, coherencia, estabilidad, robustez, trazabilidad, y por supuesto seguridad.


Se trata de controles que, sin duda, pueden ser de utilidad para validar las distintas aplicaciones de inteligencia artificial en pro de la protección de datos personales y la privacidad de los usuarios, pero que pueden quedarse escasos, en cuanto que no suponen una exigencia generalizada ni va acompañado de certificaciones que garanticen su cumplimiento, ni que dichas aplicaciones y sistemas están basadas en criterios éticos a favor de la sociedad, aspecto clave teniendo en cuenta que son cada día más las aplicaciones y sistemas de inteligencia artificial que se encuentran en procesos claves a nivel social, y que, en caso de un uso poco ético o mal uso, pueden suponer, incluso, graves perjuicios para las personas.


Debemos, por tanto, desarrollar, regularizar y estandarizar, la previa evaluación y auditoria de sistemas, en pro de la protección de los derechos, incluso fundamentales, de las personas físicas, permitiendo también garantizar la protección de los intereses de las entidades e instituciones desarrolladoras y usuarias, aportando valor, en todo caso, al desarrollo económico y social, sin dejar, exclusivamente de la mano de la auto-responsabilidad y diligencia de dichas entidades la garantía de todos estos aspectos.


Fuente: Expansión
471 VISITAS
NOS ACOMPAÑAN
LINKS DE INTERÉS
EDITORIALES ANTERIORES
VER MAS
29.05.2018
Todo lo que debe saber un empresario sobre la nueva Ley de Defensa de la Competencia.