Desde Programamos somos firmes defensores de que todo el mundo debería aprender a programar en la escuela, no porque queramos que todo el mundo se convierta en programador profesional, sino porque en el proceso de aprender a programar se desarrollan una serie de habilidades, como el pensamiento computacional, que son fundamentales para cualquier estudiante sin importar el campo en el que vaya a desarrollar su futuro profesional. En este artículo, sin embargo, vamos a tratar esta cuestión desde otro punto de vista, centrándonos en los algoritmos de inteligencia artificial que toman decisiones que afectan a la vida de todas las personas y que ponen en clara desventaja a aquellas que no conocen su funcionamiento.

En el libro Learner-centered design of computing education, Mark Guzdial hace una revisión en la que explica que C.P. Snow, en 1961, ya predijo que los algoritmos iban a dominar nuestro mundo, y que la gente que programase estos algoritmos lo haría sin la supervisión del resto de la sociedad, cuyas vidas estarían controladas por ellos. Las personas que no entiendan los algoritmos, decía Snow, no sabrán qué hacer ante ellos, preguntar sobre ellos ni luchar contra ellos.

En el artículo C.P. Snow keeps getting more right: Why everyone needs to learn about algorithms, Guzdial cita algunos ejemplos de una reciente noticia del New York Times (como el software que se utiliza en los juzgados de USA para evaluar el riesgo de reincidencia de un acusado, o el software usado por la policía para tratar de predecir cuáles son los puntos de la ciudad donde es más probable que se produzca un crimen), que ponen de manifiesto la intensidad con la que estos algoritmos de inteligencia artificial están ya afectando a nuestras vidas y lo van a hacer de forma mucho mayor en el futuro más próximo.

¿Y cuál es el problema con estos algoritmos? ¿Por qué deberíamos preocuparnos por ellos?

Uno de los problemas que se están produciendo es que estos algoritmos de inteligencia artificial aprenden y son entrenados con datos, y los datos pueden contener sesgos que pueden ser «aprendidos» por los algoritmos. Así, por ejemplo, si en un conjunto de datos que se use para entrenar un sistema de reconocimiento facial, todas las imágenes son de hombres de raza blanca, el resto de la población va a ser tratada como outliers, casos raros y atípicos. Así, se ha descubierto que los acusados de raza negra tienen el doble de probabilidad de ser erróneamente catalogados con un alto riesgo de reincidencia que los blancos en el sistema usado en los juzgados de Estados Unidos. Pero no solo hablamos de casos de discriminación por raza, también se están descubriendo casos de discriminación por sexo: las mujeres tienen menos probabilidades que los hombres de recibir anuncios de Google para puestos de trabajo con una alta remuneración.

Por tanto, vemos que se están incluyendo problemas de sexismo, racismo y otras formas de discriminación en los algoritmos de aprendizaje automático que subyacen a la tecnología detrás de muchos de estos sistemas de inteligencia artificial. Estos algoritmos tienen ya un impacto importante en nuestras vidas, y es una situación que irá a más en los próximos años (pensemos en los coches de conducción autónoma o en drones militares, por citar tan solo un par de ejemplos).

Por tanto, la enseñanza de la programación y la inteligencia artificial en las escuelas contribuiría a frenar este tipo de situaciones desde dos frentes. Por un lado, procurando que las personas que diseñen los algoritmos en el futuro sean lo más diversas posibles, tanto en sexo como en raza o en nivel social familiar. Y por otra parte, haciendo que toda la sociedad sea consciente de la existencia e impacto de estos algoritmos, entienda cómo funcionan, cómo se construyen y cómo deben utilizarse, de manera que se pueda luchar desde el conocimiento frente a los posibles errores en su desarrollo.

Imagen de cabecera: What is an algorithm?, Bobology.com