viernes, 9 de febrero de 2018

Algoritmos y Administración Pública: no a los robots supremacistas

Por Antonio Ansón.- Blog Trabajandomásporunpocomenos.-  Los algoritmos lo van a tomar todo. Lo están tomando todo. Pero, ¿son sus sesgos inevitables? Desgraciadamente, más inteligencia artificial no garantiza más libertad o igualdad. Nadie quiere un futuro de robots supremacistas, racistas o sexistas que amplifiquen lo peor de nuestras sociedades. La Administración Pública va a jugar un papel muy importante en la vigilancia de las condiciones en que la libertad y la igualdad pueden ser efectivas.

Los algoritmos y sus ¿inevitables? sesgos
En estos años estamos viendo el desarrollo de los algoritmos que nos acercan a la inteligencia artificial a una velocidad sorprendente -inesperada solo hace unos pocos años. También hemos podido leer sobre los sesgos que parecen acompañar a su evolución y que se ven amplificados por el algoritmo.

Los modelos predictivos amplifican los sesgos que contienen los datos. Así puede verse en el reciente estudio de la Universidad de Virginia Men Also Like Shopping (1). Un recomendable artículo de Javier Salas en El Pais (2), mostraba palpables ejemplos de cómo los sesgos están afectando  a los modelos predictivos actuales y las dificultades para detectarlos y corregirlos.

Más inteligencia artificial no garantiza más libertad o igualdad
La automatización de las sociedades avanzadas está siendo un fenómeno imparable que es visto con esperanza y con desconfianza a la vez. Los algoritmos de los que hablamos son esas sofisticadas instrucciones de programación que rigen el funcionamiento de los sistemas informáticos. Y los más sofisticados de ellos permiten que las máquinas puedan aprender a pensar por si mismas.

Pero, ¿que ocurriría si estos algoritmos que nos hacen la vida más fácil se equivocan en contra de un grupo, de una raza, de un género, de una legítima opción política, de una elección vital?

Virginia Eubanks presenta en su libro Automating Inequality (3) varios casos en que los servicios sociales en los Estados Unidos automatizaron la decisión sobre las solicitudes de asistencia, crearon un registro electrónico para las personas sin hogar o un modelo productivo sobre qué niños serían en el futuro víctimas de abusos. Las conclusiones fueron desoladoras, ya que estos nuevos sistemas mostraron una clara discriminación hacia las comunidades más pobres. La científica Cathy O’Neil piensa que el Big Data está aumentando la desigualdad y amenazando la democracia (Weapons of Math Destruction).

No podemos perder el control de nuestras democracias. La discriminación encubierta bajo el telón de la programación avanzada no es tolerable. Pero sin duda es una tarea imposible para el ciudadano individual enfrentarse a este tipo de ataque a sus libertades. En las democracias avanzadas la obligación de los poderes públicos es garantizar la libertad e igualdad del individuo y de los grupos en que se integra. Los poderes públicos ante esta situación deben utilizar sus potestades para garantizar que el principio de igualdad se hace  efectivo.

Corresponde a los poderes públicos promover las condiciones para que la libertad y la igualdad del individuo y de los grupos en que se integra sean reales y efectivas; remover los obstáculos que impidan o dificulten su plenitud y facilitar la participación de todos los ciudadanos en la vida política, económica, cultural y social (Artículo 9 de la constitución española de 1978)

¿Cual es el papel que pueden jugar los poderes públicos en el desarrollo de los algoritmos que afectan a los ciudadanos y a los grupos sociales? 
Quien tiene la responsabilidad de garantizar las condiciones para que la libertad y la igualdad de los individuos sean reales y efectivas,  tendrá que lidiar en breve con los algoritmos. Nada más fácil que disfrazar de neutralidad tecnológica la discriminación social. La Administración Pública tendrá un papel relevante en que la libertad individual y la igualdad no se vean perjudicadas por el avance de la automatización.

Recientemente hemos podido leer en The Economist un artículo (Are programs better than people at predicting reoffending?) preguntándose si los programas son mejores que las personas prediciendo la reincidencia (de un reo).  Por ahora los programas solo se acercan al buen juicio de las personas cuando usan pocas variables. Pero se abre el paso a que en el futuro sean juzgados por una máquina incluso temas tan delicados que afecten a derechos de la persona (la libertad de un detenido).

Entre este caso extremo y la realidad actual hay un enorme campo donde los algoritmos van a estar presentes: a la hora de resolver la concesión de una beca, en la admisión a una prueba de acceso, en la resolución de una reclamación, en la concesión de un beneficio social (como la prestación del paro), en las certificaciones administrativas y en muchas más que no es difícil de imaginar. Estamos en un momento en que la administración pública dispone de más datos y que, en breve, dispondrá de la tecnología y los algoritmos para hacer un uso eficaz de éstos.

Es crucial evitar que la neutralidad de la administración quede comprometida
Cuando estos algoritmos sean utilizados efectivamente por la administración, la transparencia y la rendición de cuentas deberá ser extrema para evitar la discriminación a través de sesgos basados en raza, género, religión o la más común, pobreza.
También la neutralidad en el aparato electoral y en las campañas electorales (pieza básica del engranaje) debe estar garantizada. Nos gustaría ver a los bots que contaminan el proceso democrático expulsados de las herramientas de comunicación social.

Conclusiones
La automatización está planteando un reto nuevo para los poderes públicos: evitar la discriminación enmascarada en los algoritmos.

La Administración Pública debe jugar un papel relevante en esta labor de defensa de la igualdad de los individuos y grupos sociales ante los avances tecnológicos. Nadie de buena voluntad puede querer un futuro de robots supremacistas, racistas o sexistas que amplifiquen lo peor de nuestras sociedades.

Creo que la protección de los ciudadanos frente a los sesgos discriminatorios presentes en los algoritmos es un ejemplo de los nuevos papeles acordes con los tiempos que la Administración Pública habrá de asumir. Sin embargo, aún falta preparación para enfrentarse a este reto: cuesta creer que los responsables de gestionar esto vayan a ser funcionarios por decimonónica oposición sin más bagaje ni preparación que un temario en ristre.

También te puede interesar:
_________________________________________________
(1) Men Also Like Shopping) Reducing Gender Bias Amplification Using Corpus-Level Constraints (2017, Hiao, Wang, Yatkar, Ordoñez)

No hay comentarios:

Publicar un comentario