Desafío: trata de lograr que tu sistema de IA sea más justo que un juez

//Desafío: trata de lograr que tu sistema de IA sea más justo que un juez

Desafío: trata de lograr que tu sistema de IA sea más justo que un juez

Desde hace varios años en Programamos hemos escrito sobre la importancia de que todos los estudiantes aprendan acerca de algoritmos e inteligencia artificial (IA) en la escuela. No porque creamos que todo el alumnado vaya a ser desarrollador de este tipo de sistemas en el futuro, si no porque ya vivimos rodeados de ellos y es fundamental que toda la sociedad sea capaz de reconocerlos, preguntar sobre ellos y cuestionarlos cuando su uso o comportamiento no sea el adecuado.

Uno de los ejemplos que siempre ponemos es el de COMPAS, un sistema de IA utilizado en los juzgados de Estados Unidos que ofrece a los jueces información sobre la posibilidad de que un detenido pueda cometer otro crimen antes de su juicio, y que los jueces usan para ayudarles a decidir si dejan al acusado en libertad o en la cárcel hasta el juicio. Este sistema saltó a las noticias hace un tiempo porque se comprobó que los acusados de raza negra tenían el doble de posibilidades que los de raza blanca de ser catalogados como alto riesgo.

Hoy os trasladamos un reto que han lanzado desde Technology Review, para que intentes lograr que tu algoritmo sea más justo que COMPAS. Se trata de una herramienta fantástica que nos puede ayudar a que seamos conscientes de cuán difícil es eliminar estereotipos raciales o de otros tipos en los algoritmos de IA, incluso cuando los datos que alimentan al propio algoritmo no contienen esta información. Y lo bueno de esta actividad interactiva es que permite llevarla al aula y jugar con los diferentes valores sin tener que saber nada de programación

 

¿Lograrás que tu solución sea más justa que COMPAS IA?

Desde nuestro punto de vista, este tipo de actividades son ideales para escuelas e institutos, puesto que introducen de manera natural la idea de que podemos y debemos cuestionarnos si las soluciones de IA con las que interactuamos están ofreciendo resultados justos, para que no sean tratadas como si fueran soluciones mágicas perfectas -que, lamentablemente, es el modo con el que una parte importante de la socidad se relaciona con ellas actualmente. De este modo estaremos acostumbrando a nuestro alumnado a exigir que los sistemas de IA ofrezcan transparencia sobre su proceso de toma de decisiones.

¿Te animas a acercar cuestiones éticas de la IA a tu aula?

La imagen de cabecera es una captura de pantalla
del propio artículo de Technology Review.

By | 2019-10-23T07:30:56+00:00 octubre 23, 2019|Tutoriales y recursos|1 Comment

About the Author:

Tras más de una década como profesor de informática decidí explorar otros caminos del mundo de la educación. Así, en los últimos años he trabajado en diferentes universidades para investigar sobre el desarrollo del pensamiento computacional, he participado en grupos de expertos y comisiones de trabajo internacionales, y he gestionado proyectos a gran escala en el Ministerio de Educación, entre otras iniciativas. Tras conseguir una visión más global, regreso al aula y a Programamos con el objetivo de seguir contribuyendo tanto desde la educación formal como la informal al avance de este campo.

One Comment

  1. […] el problema se produce por los datos utilizados para entrenar al sistema, tal como discutíamos hace unos días en este artículo sobre el sistema COMPAS, parece claro que hay que trabajar en mejorar estos datos de entrenamiento. Baeza-Yates y Peiró […]

Leave A Comment

Uso de cookies

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.

ACEPTAR
Aviso de cookies