Un fantástico artículo en The Guardian, titulado «Educating Britain’s young people for the next industrial revolution«, ofrece un buen número de claves sobre cómo aterrizar las ciencias de la computación en los procesos educativos, y genera además auténtico pavor y desconfianza en el futuro cuando comparamos las iniciativas que están acometiendo en otros países con el paupérrimo estado de la educación en países como España.
Introducir las ciencias de la computación en el curriculum educativo implica, en primer lugar, diferenciar entre las tecnologías de la información y las ciencias de la computación como tales. Mientras las tecnologías de la información se ocupan de la aplicación de los sistemas informáticos para resolver problemas del mundo real, las ciencias de la computación tratan de comprender y explorar el mundo que nos rodea, tanto natural como artificial, en términos computacionales. Otorgar a la computación el rango de ciencia, al mismo nivel que la física, la química, la biología o las matemáticas, es lo que genera la gran diferencia: los cursos «que no cuentan para la media», la visión de simple «herramienta» para escribir, hacer presentaciones o calcular, o el foco en la aplicación práctica en lugar de en la conceptualización no van a llevarnos a ningún sitio. Mientras los responsables de la educación, desde el más alto nivel ministerial hasta el del profesorado de base, no entiendan esta diferencia, no estaremos preparados para tratar de obtener resultados concluyentes. Por un lado, las ciencias de la computación tienen que alcanzar su rango como ciencia. Por otro, las tecnologías de la información tienen que consolidarse como una herramienta metodológica utilizada de manera natural en el aprendizaje de todo el resto de disciplinas.
En el caso del Reino Unido, la integración curricular parte de un documento detallado al que ha contribuido un importante grupo de expertos, que abarca todos los niveles de la educación (desde los cinco años en adelante), que fue producido en el año 2012 y que, por supuesto, está siendo complicado implantar. Pero las complicaciones, por otro lado previsibles, no impiden que el cambio tenga todo el sentido del mundo: hablamos de una oportunidad enorme de creación de valor a través de la adaptación de la oferta de formación a la demanda de profesionales que necesitan las empresas de todo tipo. Para tratar de acomodar la transición, además lógicamente de ofrecer formación a los profesores, se pueden utilizar herramientas de diversos tipos que ofrezcan acceso a la educación a todos los niveles sociales, independientemente de su nivel de renta.
No me canso de escribir sobre el tema: metodológicamente, seguir basando la educación en el mismo tipo de procedimientos que usábamos en un mundo anterior a Google no tiene ningún tipo de sentido. Jugar a desarrollar las habilidades memorísticas o a utilizar herramientas anticuadas cuando la inmensa mayoría de los conocimientos que podemos necesitar en un momento dado están a un solo clic de distancia es sencillamente absurdo, como lo es desarrollar algún tipo de implicación emocional con metodologías que simplemente representaban la manera adecuada de hacer determinadas cosas… hace muchísimos años. Pero también lo es poner en el mercado alumnos que no tienen la menor idea de cómo funciona la tecnología en un mundo en el que están completamente rodeados de objetos programables.
Manejar nociones de hardware, software y diseño es una manera evidente de preparar a los alumnos para el entorno en el que, sin ningún genero de dudas, van a desarrollar toda su vida. Pero sobre todo, es intentar que la educación se convierta en lo que realmente debe ser: en una fuente de oportunidades para el futuro, a todos los niveles: el de las personas, el de las empresas, y el de los países. Ejemplos como los del Reino Unido, con ya varios años desde el inicio de su implantación, ofrecen oportunidades interesantísimas a otros países que quieran beneficiarse de su experiencia, aprender con cierta perspectiva y tratar de solventar algunos de los problemas encontrados en la implantación. Quienes se queden fuera, sea al nivel que sea, estarán perdiendo oportunidades y competitividad en el futuro.
This article is also available in English in my Medium page, “Education and technology go hand in hand«
Totalmente de acuerdo pero un detalle de menor importancia. En España y otros países (Francia por ejemplo) tenemos otro término: informática. No entiendo porqué algunos se empeñan en desterrar el término. «Ciencias de la computación» roza el anglicismo.
Para más información
http://es.m.wikipedia.org/wiki/Inform%C3%A1tica
Ok
Enrique, lo que tú crees que es un tecnología puntera y trascendental debido al uso que le damos cotidianamente, habrá sido relegada en el futuro de cualquier niño. No sirve de nada aprender a usar Altavista si Altavista – o Google- ya no existe cuando ese niño se incorpore a la Universidad.
Igual que no le sirvió a muchos niños aprender «Basic». Y los procesos operativos que implican el uso de la tecnología, no requieren de esa destreza, sino de la capacidad de conceptualizar ese aprendizaje.
Un niño que lee, sabrá usar cualquier tecnología futura. Un niño que solo entiende el conocimiento como algo instrumental, será alguien sin la capacidad de integrar nuevos aprendizajes.
Sería triste ver a un adulto tecnológicamente analfabeto porque solo sabe usar Google, cuando este ya no exista.
Antes de hablar del papel de la tecnología en la educación, deberíamos aprender sobre como se desarrolla el aprendizaje en la infancia y propiciar esa habilidad, no reducirla a un uso irreflexivo de herramientas tecnológicas.
Hay tecnologías de uso cotidiano que ya son el «pasado» en términos de avance tecnológico. Para más inri.
La computación no es una disciplina monolítica, sino que integra diferentes vertientes académicas, de un conjunto de ciencias poco relacionadas con la habilidad de manejar los «computadores actuales».
¿De verdad crees que el hardware o el software actual serán iguales para un niño? :)
Vuelve a leer el artículo, porque me parece que no lo has entendido. Enrique habla precisamente de dejar de enseñar la informática como una herramienta X en particular y en su lugar enseñar los conceptos que hay detrás de la tecnología que utilizamos a diario.
Disculpadme que no os dé una respuesta más amplia a todos, pero creo que conozco las ideas de Enrique, y él también conoce algunas de las mías, por anteriores comentarios.
Son más complementarias que opuestas. Él percibe que las tecnologías de la información pueden ser una asignatura lectiva y deben hacerse accesibles en el aula y yo, que no hay necesidad de que un niño de 5 años sepa usar un móvil. Y que seguramente se beneficiará de otras materias no relacionadas con la «tecnología palpable» de forma más enriquecedora.
Creo que estoy evangelizando con cierto tesón a Enrique y ya se comienzan a atisbar esos matices. :)
Hay conocimientos y «memorias» que ayudan a consolidar nuestra capacidad de interaccionar con la tecnología y comprenderla. Y que no se encuentran en el artefacto, sino en la capacidad de entender su naturaleza. De nada sirve usar Google si no entendemos como funciona su algoritmo, por ejemplo. O en qué se diferencia Google de otros sistemas de búsqueda.
Lo cierto es que seguro que coincidimos en que la educación utilitaria por lo general es una pésima base educativa.
El conocimiento está a menos de click de distancia.
Y si no que se lo pregunten a Berners-Lee o Larry Page, que nunca usaron Google.
#003 Menestro, justo con la diferencia entre Ciencias de la computación y Tecnologías de la computación Enrique esta tratando te empezar a desenredar ese problema.
Actualmente en España estudiamos «Tecnologías de la computación». Una clase de informática donde se enseñan a usar unas herramientas X. Que como ya viene reclamando desde hace mucho en este blog, a menudo están desfasadas y no permiten tener una visión más amplia fuera de los 4 programas de Microsoft.
Justo lo que propone en este artículo es una visión más amplia de la informática, lo que el llama «Ciencias de la computación» dejando el aprendizaje de esas herramientas al uso natural de la informática en la enseñanza.
Se me ocurre y corrígeme Enrrique si me equivoco, a algo tipo: usar un blog como parte de la clase de lengua. Editar la página en Inglés de tu ciudad de la wikipedia como parte de la clase de inglés etc.
Lo que podrían empezar a enseñar en España es a cómo tener criterio objetivo y en qué basarlo, aparte de generar argumentos y juicios válidos para tejer el anterior. Que de eso está la cosa muy malita.
Tradicionalmente los estudios han sido etiquetados como de ciencias o de letras. Creo que es una simplificación que empobrece el conocimiento y que tiende a mezclar categorías de conocimiento diferentes.
Las ciencias de la computación son un tipo de conocimiento que tienen una vigencia muy superior a la de los conocimientos sobre tecnología. La ciencia son conocimientos fundamentales de aplicación muy amplia. La tecnología son conocimientos de tipo práctico relativos a la soluciones concretas basadas en la ciencia.
No es lo mismo aprender algoritmos y estructuras de datos, teoría de autómatas que el el manejo de un sistema operativo o que el manejo de o el manejo de aplicaciones de informática.
Creo que el orden es importante. Primero hay que aprender ciencia y luego la tecnología.
Vuelvo a repetir que la informática tiene dos vertientes muy diferenciadas, una es la programación, que yo dejaría en clases optativas, pues hay a quien le atráe y a quien la rechaza frontalmente.
Y aquí discrepo de #003 MENESTRO. aunque el Basic esté totalmente superado, los conceptos que enseñaba son universales y aplicables a cualquier lenguaje de programación. Quien conozca BASIC tiene los fundamentos y mucho camino andado para dominar otro lenguaje diferente.
Por otra parte en la «enseñanza clásica» me enseñaron una serie de cosas que hoy se han quedado anticuadas, como el uso de tablas de logaritmos, el dibujo lineal con tinta china y tiralíneas, sin que ello suponga cambio de las virtudes y defectos del plan de estudios que seguí. Quedar desfasado es un riego inevitable y más en los tiempos que corren,
La única limitación que veo al BASIC es que solo contempla la programación lineal y no da nociones de programación orientada a objetos, que es lo que caracteriza a muchos lenguajes actuales, Yo hoy enseñaría SCRATCH, que si está orientado a objetos y es muy adecuado para niñ@s. (Que deseen programar, repito)
Sin embargo la otra vertiente, el uso de los ordenadores, debe ser enseñado a todos en la escuela, no concibo niño actual, que acabe el bachillerato y no sepa utilizar un ordenador. Como no soy enseñante, no se si eso se debe enseñar en asignaturas específicas o no. A mi en principio, (pero puedo estar equivocado), me parece suficiente introducirse el ordenador en la enseñanza, como se introduce el libro de texto o el bolígrafo como un elemento más, necesario e imprescindible para enseñar cualquier asignatura. El objetivo es que el estudiante se acostumbre a resolver sus dudas buscando en el ordenador, y en definitiva, que aprenda a moverse por Internet y utilizar en ordenador con toda naturalidad
El BASIC crea muy malos hábitos de programación. Es un desastre.
Yo recomendaría como lenguaje inicial el lenguaje Python.
#004 y #007 me evitan repetir(me) así que los subrayo (como me suena!)… y sumar por mi parte que los usadores de tablas de logaritmos aprendimos con ellas a sentirnos bien con la reglas de cálculo, y, por supuesto, el uso de regla de cálculo no impidió abrazar la calculadora (todo lo contrario!) antes de hacerse obsoleta(s)… lo malo no está en usar la tinta china y el tiralineas (hai que ver lo intensa que te hace la destreza organizativa mental el uso de la tinta china!) cuando toca, lo malo está en seguir como si el Renacimiento no llegara a la Península Ibérica… muy poca gente tiene asumido que existe un hilo conductor en todas las materias lingüísticas, sean idiomas de palabras, de números, de figuras icónicas, de notas musicales, de bits… a mi modesto entender se llama lenguaje, pero como a mi me encanta Góngora (y Quevedo) puedo estar muy desfasado!
Vivan los algoritmos acrátas por naturaleza! Un servidor quería apoyarse en Víctor y Gorki… no en sus correspondientes «celdas»!!
el reto, para mi, es conseguir crear una nuevo método de enseñanza que integre ambas visiones. En España aun nadie lo ha conseguido. Hay iniciativas, tangenciales a la educación tradicional, que suman, pero queda un larguísimo recorrido. Conocéis Rockbotic? Por ejemplo?
https://www.facebook.com/Rockbotic
Por si aporto algo…La actual ley de educación del PP ha eliminado horas de la asignatura de Tecnología de la ESO, pasando a ser optativa en vez de obligatoria.
Enrique, estoy de acuerdo con la idea de que también las ciencias de la computación deberían estar presentes en el currículo escolar, así como con el hecho de que debe consolidarse la presencia de las tecnologías de la información como apoyo a los procesos de aprendizaje de las demás disciplinas.
Diría, sin embargo, que cuando hables de educación no deberías perder de vista, entre otras cosas, lo siguiente:
1) El aprendizaje, según David Ausubel, puede ser por recepción (clase magistral) o por descubrimiento. Ninguno de los dos es realmente mejor que el otro. Pero tanto el aprendizaje por recepción como el por descubrimiento pueden ser memorísticos o significativos. Esto significa que podemos tener cuatro opciones:
a. Aprendizaje por recepción memorístico.
b. Aprendizaje por recepción significativo.
c. Aprendizaje por descubrimiento memorístico.
d. Aprendizaje por descubrimiento significativo.
Una mala educación se centra en las opciones a y c. Una buena, en las opciones b y d. Aunque no he asistido a tus clases en el IE, lo más probable es que sean un excelente ejemplo de aprendizaje por recepción significativo. Por otro lado, un buen taller universitario de investigación sería un ejemplo de aprendizaje por descubrimiento significativo.
2) Todo el tiempo estamos utilizando la memoria. Si no fuera así, no nos acordaríamos de quiénes somos, de las otras personas, de nuestra lengua y de todo aquello que nos sirve en la vida cotidiana y para desenvolvernos en la sociedad.
Cuando Ausubel diferencia entre aprendizaje memorístico y significativo, no está diciendo que la memoria no sea importante sino que lo que definitivamente no sirve es aprender las cosas como lo haría un loro (Amazona auropalliata). Lo que Ausubel ve como ideal es que cada nuevo conocimiento se integre de manera significativa con aquellos conocimientos que ya hemos adquirido anteriormente, que es lo que él denomina aprendizaje significativo. En ambos casos interviene la memoria, pero en el primero lo aprendido es inútil y lo segundo no.
Cuando yo estaba en la secundaria, tenía un profesor de inglés que nos hacía aprender los diálogos de nuestro texto escolar de memoria. Al igual que muchos de mis compañeros, al final del año escolar yo había logrado aprendérmelos todos y pasé el examen con excelente nota. Lo único malo es que ninguno comprendíamos realmente casi nada de lo que estábamos diciendo. Éramos capaces de repetir fielmente los diálogos de nuestro libro de inglés, pero no entendíamos lo que decíamos y había una probabilidad casi nula de que los utilizáramos de alguna manera en la vida real. Este es el aprendizaje memorístico del que habla Ausubel.
Por el contrario, el aprendizaje significativo del inglés lo tuve en el British Council de mi ciudad, donde evidentemente se trataba de usar la lengua en situaciones que simulaban las de la vida cotidiana y donde uno podía deducir los significados principalmente por el contexto o por la explicación del profesor en la lengua meta. Evidentemente también se usaba en este caso la memoria, pues de otro modo no recordaría ni una frase, pero el nuevo conocimiento no era arbitrario sino complementario al que poco a poco ya había ido adquiriendo. Este es el aprendizaje significativo de Ausubel.
3) Aunque muchos se llevarán las manos a la cabeza y otros dirán que ahí está el problema, el propósito principal de la educación no es formar personas para el mercado de trabajo sino formar ciudadanos críticos que sepan desenvolverse adecuadamente en un mundo con infinidad de desafíos.
Es evidente que la educación actual tampoco responde a este desafío, pero si no tenemos presente que el formar ciudadanos es lo primero, difícilmente llegaremos a buen puerto. Que ese ciudadano necesita de las nuevas tecnologías, por ejemplo, es muy claro, pero ya quisiera ver a más gente usando dichas tecnologías para acabar con la pobreza en el mundo que para aumentar la riqueza de las compañías que cotizan en Wall Street.
Cuando estalló la última crisis financiera en 2008, lo que más me sorprendió fue ver que las autoridades europeas no tenían ni idea de qué es lo que debían hacer. No sé si el problema era que unos habían sido formados para trabajar en el Mercadona, otros en el Carrefour y otros en el Aldi, pero la realidad es que yo solo veía gente bastante desorientada.
Es claro que las empresas necesitan gente capacitada, pero eso es algo que principalmente ellas mismas deben solucionar por medio de un trabajo conjunto con las escuelas de formación profesional. En Alemania, por ejemplo, mucha de la formación para el mercado laboral se hace cuando la persona ha terminado la educación obligatoria. Esta formación combina la capacitación durante unos tres años en una escuela profesional con el trabajo remunerado en una determinada empresa donde la persona ha decidido trabajar.
No olvidemos, además, que es mucho más fácil trabajar en Google, Facebook o Apple que solucionar la crisis actual en Siria, la violencia en México o el desempleo en España.