Los 8 algoritmos que usa la Administración Pública y que son vulnerables, según expertos

Oímos hablar de los algoritmos prácticamente a diario y en el mundo digital en el que vivimos ya no son una simple numeración matemática, sino que pueden ser utilizados para recoger datos o generar riesgos en la población.

Muchos de los procesos automáticos funcionan con algoritmos y en algunos parámetros como el género, las mujeres se están viendo afectadas y discriminadas a la hora de por ejemplo pedir una hipoteca o incluso de encontrar trabajo.

Uno de los mayores retos, por lo tanto, es el de regular estos algoritmos y a pesar de que llevan años hablando del tema, lo cierto es que ha habido propuestas como un reglamento de Inteligencia Artificial presentado por la UE, pero el debate sigue estando ahí.

Eticas, una de las consultoras especializa en auditoría algorítmica más potente en España, ha desarrollado un informe en el que incluye ocho algoritmos que son empleados por la Administración Pública.

La compañía fundada por Gemma Galdon, durante el año pasado llevó a cabo el Observatorio de Algoritmos de Impacto Social y en uno de los informes de la compañía, han sacado a la luz los algoritmos con más riesgos para los ciudadanos.

El primero de estos algoritmos es VioGén, que detecta el riesgo de reincidencia de los agresores de violencia de género aunque sigue sin conocerse cómo genera la puntuación de riesgo de un determinado individuo.

El algoritmo Ris Canvi también está en la lista y se utiliza desde hace más de doce años en las cárceles de Cataluña para calcular el porcentaje de reincidencia que tiene un preso una vez que vuelve a estar en libertad.

Otro es Tensor, que se trata de un proyecto europeo utilizado por policías de todo el mundo para detectar actividades terroristas como células o redes de radicalización. Se desconoce por quién es empleado y sus objetivos.

El algoritmo VeriPol te saltará en caso de que hayas llamado a la policía y no te lo haya cogido y lo más seguro es que este sistema te haya escuchado para analizar el tono de tu voz y ver si lo que dices es verdad o mentira.

Los sistemas de reconocimiento facial ya se emplean por la policía y precisamente en España, se creó una frontera inteligente entre África y Europa aunque debido a este tipo de modelos de reconocimiento, algunos colectivos sociales han exigido garantías.

ISSA es un chatbot que se usa en la Seguridad Social y según ha informado Eticas, está ofreciendo las mismas respuestas a los usuarios en función de como se expresen lo que podría llevar a la discriminación de algunos colectivos.

El algoritmo BOSCO se utiliza para regular el bono social del pago de la factura de la luz. Se encarga de revisar las solicitudes y es capaz incluso de decidir el resultado.

El último algoritmo de la lista es SEND@ que lo utilizan desde el Servicio Estatal Público de Empleo y que se encarga de buscar perfiles parecidos que buscan empleo y dar recomendaciones.

Desde Eticas pretenden que con el lanzamiento de estos algoritmos los ciudadanos sean conscientes de su presencia y de “lo influyentes que son en el día a día” y por ello, seguirán trabajando para crear un sistema de algoritmos justos y éticos para la sociedad.

Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.

Zircon - This is a contributing Drupal Theme
Design by WeebPal.