Este artículo es una traducción (en el que se han resumido algunos párrafos) del publicado en el blog de Microsoft Research por Jeannette M. Wing, vicepresidenta de este organismo y una de las autoras más influyentes en la promoción del pensamiento computacional.
«No en esta vida».
Eso es lo que dije cuando me preguntaron si alguna vez se enseñaría informática en las escuelas de EEUU. Era 2009, en el marco de un taller sobre pensamiento computacional organizado por National Academies.
Me alegra decir que estaba equivocada.
Han pasado 10 años desde que publiqué el artículo «Computational Thinking» en el número de Marzo de 2006 en Communications of the ACM. Para celebrar este aniversario, consideremos cuánto hemos avanzado.
Echemos la vista atrás hasta 2005. Desde la explosión de la burbuja punto-com ha habido un descenso constante e importante en el número de matriculados en informática, sin que se vea un final a esta tendencia. La comunidad informática se retorcía las manos, preocupada por la supervivencia de sus departamentos en los campus. Al contrario que muchos colegas, yo vi un futuro diferente, más de color de rosa para la informática. Vi que la informática iba a estar en todas partes.
Argumenté que el uso de conceptos, métodos y herramientas computacionales transformaría el comportamiento de todas las disciplinas, profesiones y sectores. Alguien con la habilidad de utilizar la informática de forma efectiva tendría una ventaja clara sobre alguien sin esta capacidad. Así, vi una gran oportunidad para la comunidad informática de enseñar a las futuras generaciones cómo piensan los informáticos. De ahí el término «pensamiento computacional».
Debo admitir que estoy sorprendida por cuánto hemos progresado en lograr esta visión: el pensamiento computacional será una habilidad esencial utilizada por todo el mundo a mitad del siglo XXI. Por fundamental me refiero a que será tan importante como la lectura, la escritura o la aritmética.
El tercer pilar del método científico
Yo sabía que en la ciencia y la ingeniería, la computación sería el tercer pilar del método científico junto a la teoría y la experimentación. Después de todo, los ordenadores ya se usaban para simular sistemas naturales y físicos grandes y complejos. Tarde o temprano, los científicos y los ingenieros de todos los campos reconocerían el poder de las abstracciones informáticas, como los algoritmos, los tipos de datos y los autómatas.
Y hoy, con la llegada de cantidades de datos masivas, investigadores de todas las disciplinas – incluyendo artes, humanidades y ciencias sociales – están descubriendo nuevo conocimiento utilizando métodos y herramientas computacionales.
En estos 10 años he visitado cerca de 100 facultades y escuelas universitarias de todo el mundo y he sido testigo de una transformación en la enseñanza universitaria. Ahora se ofrecen cursos de informática a estudiantes que no se van a graduar en esta disciplina. Estos cursos no son cursos de programación, sino que se centran en los conceptos fundamentales de la informática. En Harvard, el curso (CS50) es uno de los más populares, no solo en su campus, sino también en el campus de Yale, su rival. ¿Y qué me dicen de las matriculaciones en informática? ¡Están subiendo como la espuma!
Quizás el resultado más sorprendente y gratificante es ver lo que ocurre en la educación primaria y secundaria. Primero, los esfuerzos de Computing at School en Reino Unido llevaron al Departamento de Educación a incluir la asignatura de informática en los colegios de Inglaterra desde septiembre de 2014. Reino Unido fue uno de los primeros países en dar este paso, con un curriculum diseñado para que los niños aprendan a programar. No solo la vieja fórmula de conocer cómo funciona un ordenador. La normativa que marca el curriculum dice «una educación informática de alta calidad equipa a los alumnos para usar el pensamiento computacional y la creatividad para entender y cambiar el mundo».
Además, la BBC, en colaboración con Microsoft y otras empresas, diseñó la distribución de las placas BBC micro:bit. Un millón de estos pequeños dispositivos programables se están repartiendo este mes: uno para cada uno de los estudiantes de 11-12 años de Reino Unido, y para sus docentes.
En segundo lugar, Code.org es una organización sin ánimo de lucro, que se fundó en 2013, dedicada a la misión de ofrecer acceso a la educación de la informática para todo el mundo. Microsoft, junto a cientos de otras organizaciones, ayuda a financiar las actividades de code.org.
Tercero, por todo el mundo hay una corriente que con interés en enseñar informática en primaria y secundaria. Conozco los esfuerzos de Australia, Israel, Singapur y Corea del Sur. Y es muy probable que China pegue un empujón, también.
Informática para todos
Lo más gratificante para mí es la iniciativa del Presidente Obama para dar 4.000 millones de dólares en financiación para la enseñanza de la informática en las escuelas de USA como parte del proyecto Computer Science for All, anunciado el pasado 30 de enero. Esta iniciativa incluye 120 millones de la National Science Foundation, que se usará para entrenar a 9.000 docentes para que aprendan a integrar el pensamiento computacional en sus clases. Este ímpetu por enseñar informática a todo el mundo se debe, en parte, a las demandas de habilidades de informática del mercado de trabajo – situación que se da en todos los sectores, no solo en el tecnológico. Esto también lo vemos en Microsoft; nuestros clientes de todos los sectores, como los de la automoción, la fabricación, o el sector farmacéutico, acuden a Microsoft porque necesitan experiencia informática.
No obstante, aún quedan desafíos y oportunidades de investigación que abordar. El principal problema práctico es que no tenemos suficientes docentes de primaria y secundaria preparados para enseñar informática a sus estudiantes. Soy optimista y creo que, con el tiempo, solucionaremos este problema.
También hay preguntas de investigación que recomendaría que fueran estudiadas por científicos informáticos, en colaboración con las comunidades de ciencias cognitivas y educativas.
En primer lugar, ¿qué conceptos de la informática deberían ser enseñados, y cómo?
Consideremos una analogía con las matemáticas. Enseñamos números a niños de 5 años, álgebra a los de 12 y cálculo a los de 18. De algún modo hemos descubierto la progresión en los conceptos matemáticos, donde el aprendizaje de un nuevo concepto se construye sobre el entendimiento de conceptos previos, y donde la progresión refleja la progresión de la sofisticación matemática de los niños según van madurando.
¿Cuál es la progresión en informática? Por ejemplo, ¿cuándo es mejor enseñar recursión? […] ¿Es demasiado pronto para un alumno de 4º de primaria aprender el concepto general de algoritmo? Y yendo más allá, ¿hay conceptos de la informática que son innatos y no necesitan ser enseñados de modo formal?
En segundo lugar, necesitamos entender mejor cómo usar la tecnología informática en las aulas. Simplemente enviar ordenadores a una clase no es la forma más eficiente de enseñar informática. ¿Cómo podemos usar la tecnología para mejorar el aprendizaje y reforzar el entendimiento de los conceptos informáticos? ¿Cómo podemos usar la tecnología para medir el progreso y los resultados de aprendizaje a lo largo del tiempo? ¿Cómo podemos usar la tecnología para personalizar el aprendizaje de aprendices individuales, ya que cada uno de nosotros aprende a un ritmo distinto y tiene habilidades cognitivas diferentes?
Hemos hecho un progreso tremendo en inyectar el pensamiento computacional en la investigación y en la educación en todos los campos en los últimos 10 años. Y, aunque queda camino por recorrer, la ciencia, la industria y los gobiernos se encuentran alineados para conseguir la visión de hacer que el pensamiento computacional sea algo normal para todos.
Imagen de cabecera tomada de Microsoft Reporter.
Para saber más sobre pensamiento computacional:
[…] https://programamos.es/pensamiento-computacional-10-anos-despues/ […]