La incorporación de la tecnología a los procesos educativos ha sido y es siempre un reto muy complejo. Este artículo, que me temo va a ser largo, intenta reflexionar sobre ese proceso en el momento actual y en mi contexto personal, el de la educación superior.
A lo largo de los años, podemos recordar perfectamente las discusiones que generaron las calculadoras de bolsillo, Google o la Wikipedia en las clases, y cómo de injustificadas y absurdas las vemos ahora con un mínimo de perspectiva: a pesar de llevar varias generaciones utilizando calculadoras de bolsillo a partir de cierta edad, nadie se ha olvidado realmente de las matemáticas básicas, y los profesores que prohibían a sus alumnos recurrir a Wikipedia o citarla porque «cualquiera podía editarla» se ven ahora, cuando Wikipedia es ya de largo la mejor y la más completa enciclopedia de la historia de la humanidad, como auténticos cavernícolas.
Con ChatGPT, y a nivel de la educación superior, se repiten patrones similares. La primera oleada de universidades que, tras la aparición de ChatGPT en noviembre del año pasado decidieron prohibir su uso, bloquearlo en sus proxies y dotarse de herramientas de detección empiezan ya a darse cuenta de que esa actitud es absurda: ni resulta técnicamente sencilla (un alumno puede fácilmente conectarse con su smartphone y no usar la red de la institución, salvo que te conviertas en una insufrible versión del KGB), ni las supuestas herramientas de detección funcionan bien: ni ofrecen un diagnóstico infalible, ni permiten acusar a nadie salvo en casos estúpidamente evidentes como dejar un «como algoritmo generativo no puedo opinar sobre…» o el último párrafo que empieza con «En resumen…»
Cada vez es más evidente que tratar de prohibir ese tipo de herramientas generaría mucho más daño que beneficio: ante un recurso que los estudiantes utilizarán sin ninguna duda con total normalidad en su vida profesional, que las instituciones encargadas de prepararlos se dediquen a ignorarlo y esconderlo es a todas luces un absurdo total, y por supuesto, en IE University siempre tuvimos claro de qué lado estábamos en ese sentido. Cada vez más, la aproximación es no prohibirlo, sino introducirlo en las metodologías educativas para generar habilidades en su uso. Incluso Harvard recomienda cada vez más su introducción en el método del caso, aunque por el momento se limite a explicar a los profesores cómo usarlo para preparar mejor sus sesiones.
Cambiar la forma de educar para introducir los algoritmos generativos como especie de «asistentes de trabajo de lujo» parece tener cada vez más sentido: no en vano, Wikipedia supuso una forma de disponer de una enciclopedia cuasi-ilimitada y que devolvía resultados a golpe de clic, o Google evitó decenas de viajes a la biblioteca. Curiosamente, educar en su uso se convirtió en una de las formas de evitar los problemas derivados de esas herramientas: un alumno que use regularmente Wikipedia o Google en su educación, será sin duda menos susceptible de tomarlas como fuente única (y de hecho, tienden a profundizar más en las fuentes que Wikipedia cita) o de quedarse ciegamente con el primer resultado de una búsqueda en Google. En el uso de las herramientas, por supuesto, hay grados, y las universidades tenemos que asegurar que nuestros graduados son capaces de usarlas en «God mode», porque así es el compromiso de una educación superior capaz de generar ventajas a quienes optan por ella.
Sin embargo, hay un problema: a nadie se le escapa que hay dos formas de usar la tecnología, y que una de ellas ofrece un rendimiento de aprendizaje muy inferior a la otra. En teoría, los alumnos deberían recurrir a la algoritmia generativa como forma de mejorar su aprendizaje, de disponer de ese asistente fantástico capaz de extraer la información que precisan de manera más rápida, mejor o más completa. Pero nos encontramos un problema: en muchos casos, la función objetivo del alumno no es la de maximizar su aprendizaje, sino la de maximizar su calificación.
La competencia obsesiva por las notas, reforzada desde el propio sistema que ofrece mejores posibilidades a quienes terminan, por ejemplo, en la Dean’s list, en Phi Beta Kappa o entre los primeros de la promoción, hace que muchos alumnos, sobre todo los provenientes de países con sistemas ultracompetitivos como Corea del Sur o India, tiendan a utilizar herramientas como ChatGPT no tanto para aprender mejor, sino para lo que denominamos copiar, o cheating en los países anglosajones. Copiar consiste, como me temo que sabemos todos, en obtener una ventaja irregular de una herramienta o del sistema.
En el caso de la algoritmia generativa, los criterios sobre qué es copiar y que es utilizar razonablemente las herramientas no están suficientemente claros: en función de mi propio uso, tendería a pensar que recurrir puntualmente al algoritmo en busca de determinada información, de una forma de decir algo, de una explicación de un concepto o de una comprobación – es decir, como solemos definir la idea de «asistente» – es legítimo, pero solicitar, por ejemplo, un artículo completo y atribuírselo no lo es. Además, todas esas funciones, de la primera a la última, requieren un muy necesario paso adicional: la comprobación, que evita que los algoritmos generativos nos pasen por información los productos de sus no tan infrecuentes «alucinaciones».
¿Qué debe hacer un profesor? En primer lugar, no restringir el uso de las herramientas. Que las usen para lo que quieran, incluyendo cosas que no son para objetivos académicos, porque es la única manera de obtener una ventaja de la práctica. Pero en segundo, tratar de poner en valor la honestidad y, sobre todo, una cultura del esfuerzo: verificar que se usan adecuadamente para maximizar el aprendizaje, y no para tratar de engañarlo haciendo pasar como producto del intelecto del alumno lo que es simplemente una respuesta obtenida sin esfuerzo alguno. Fomentar que el algoritmo te ayude a mejorar tu razonamiento crítico, sin que se lo subcontrates completa e irresponsablemente.
En ese sentido, el enseñar a preguntar (no simplemente el llamado prompt engineering, sino algo bastante más conceptual, del tipo «qué diablos pretendo hacer») es importante y se aprende con la práctica. Pero lamentablemente, mi impresión tras muchos años es que es prácticamente imposible desligar la parte «materialista» de la función objetivo, la del alumno que pretende optimizar sus notas sin preocuparse – o despreciando – el aprendizaje como tal, mientras sigamos fomentando una enseñanza ultracompetitiva que, además, tiende a provennir de la presión social que genera el propio sistema e incluso a remunerar bien a quien la practica.
La solución no es sencilla, porque en muchos casos es la propia sociedad la que requiere que los alumnos de una institución estén ordenados en rankings, los que quieren fichar a quienes han logrado terminar en lo alto de una lista, aunque no necesariamente implique que hayan aprendido más o mejor. Las asociaciones normativas, por ejemplo, también pueden impedir a una universidad que experimente con las metodologías de calificación, y ser una fuerza difícil de contrarrestar que promueve un isomorfismo que nos perjudica a todos.
Desde mi propia metodología, el recurso a más evaluaciones grupales, por ejemplo, contribuye claramente a que se alineen la idea de aprender con la de obtener buenas notas, como también lo hacen las metodologías provenientes del desarrollo de software, como el sandboxing colaborativo o el redteaming. Pedir a los grupos, por ejemplo, que consigan que otros grupos vean – e intenten mejorar – sus trabajos antes de presentarlos, o pedirles que critiquen ferozmente los trabajos presentados (sin ser calificados por ello como «malos compañeros» por el grupo) son metodologías que tiendo a intuir mejoran ese proceso.
Pero en el fondo, mi duda sigue siendo si no deberíamos, en realidad, optar por otros sistemas de evaluación que no primen la simple obtención de una nota aislada que supuestamente «lo refleja todo», sino la consecución comprobable de unos objetivos de aprendizaje. Algo más complejo, que requeriría seguramente conocer bien a los alumnos como personas, entendiendo su origen, sus intereses, sus intenciones y su forma de pensar. Grupos posiblemente más pequeños, más tutorizados, con más relación personal con quienes intentamos provocar la dinámica de aprendizaje. Nada imposible, pero sí diferente de lo que actualmente hacemos. Hay que cambiar cómo enseñamos, y no creo que con unos pocos parches: es necesario un cambio de filosofía, de fondo.
¿Puede la incorporación de la algoritmia generativa, una herramienta potente que puede utilizarse muy bien o muy mal, ser el detonante de una reflexión en ese sentido? Francamente, me encantaría ser parte de ella.
This article is also available in English on my Medium page, «How are we going to use generative algorithms to improve higher education?»
Saludos
Mi mujer, docente universitaria de una titulación de Ciencias, después de que los alumnos usaran ChatGPT para la asignatura (copiaban y pegaban hasta el cuadro), ha decidido que este curso les va a proponer usarlo para resover algunos problemas y luego que hagan un estudio crítico del resultado, razonándolo para ver si está bien o mal resuelto por la IA.
Como experiencia personal con ChatGPT (y otros, como el integrado en Bing) he de decir que me llevé la desagradable sorpresa de que poniendo exactamente lo mismo en castellano y en inglés, en castellano lo resolvía mal y en inglés el resultado era el correcto. Supongo que es cuestión de tiempo y de alimentar la IA en otros idionmas, no sólo inglés.
En la barra de un bar se puede usar ChatGPT con un gran éxito. En la vida real, no.
Incluso los sistemas expertos, que no están basados en LLM (large Language Models), resultan insuficientes.
Así que, un chatbot generalista, que no tiene una orientación especializada en un tema como medicina o derecho, sino que establece una pauta conversacional, sin un sentido real, ni un filtro sobre los contenidos y argumentos que vierte en respuesta a un Prompt.
Básicamente, es un charlatán electrónico, sin conocimientos específicos sobre las materias que elabora en sus respuestas, por lo que puede argumentar cualquier perogrullada con total firmeza y convicción, aún sin tener una preparación específica en ese campo.
En Educación pasa lo mismo. Si los contenidos son aleatorios o fruto de una reflexión aleatoria, solo tenemos un abordaje superficial de los temas que aborde.
La educación es como un músculo, no importa lo que te enseñen, sino como eres capaz de formarte y los fundamentos que te permiten mejorar esa formación.
El título no te convierte en competente en una materia o profesión, pero la educación, te dota de una capacidad de análisis y percepción de un campo, que te permiten tener éxito en esa materia.
Los inexpertos no nacen, se hacen. Plagiando los trabajos de otros, con ChatGPT, por ejemplo.
Una universidad que permita ChatGPT será menos valorada que sus homólogas, por la baja calidad de su formación humana. Que es lo que se paga, en la Ivy League y en otras universidades de calidad.
Yo no uso ChatGPT y todo el mundo con el que trabajo, profesores, políticos, etc, etc, lo notan y lo valoran positivamente. En temas legales, tecnológicos, y lo que se tercie. Sé de lo que hablo.
El talento sigue siendo un activo intangible, invaluable, con Chat GPT o sin él. Los seres humanos tienen cualidades que no se pueden replicar. La estupidez, en sus diversas expresiones y formas, también es un buen ejemplo.
–
Mis 3 minutos.
Disclaimer
Mi sintaxis y algun parrafo descolgado mejoraría mucho en una caja de texto del prompt de Chatgpt, eso desde luego. Escribir en dos líneas visibles, no.
«Los inexpertos no nacen, se hacen. Plagiando los trabajos de otros, con ChatGPT, por ejemplo»
+1000 y me ahorro chascarrillos… (que haberlos los hay, y no miro a nadie)
Yo aconsejo a cualquiera, no solo a alumnos de bachillerato, que dediquen cierto tiempo a «jugar» con una AI, (yo lo h hago con ChapGPT, que es gratuita), y que la consideren lo que es, una herramienta maravillosa, pero solo una herramienta.
Herramienta como lo es un martillo. Si vas a clavar un clavo, usas un martillo, porque es mas cómodo y seguro que golpear con una piedra, pero el utilizar un martillo, no hace de ti un carpintero. Las AI, te van a facilitar tu trabajo intelectual, pero no van a hacerte un sabio.
En cuanto a la prohibición de utilizar la AI en la escuela, no me produce extrañeza. A mi me obligaron a aprender a escribir con palillero plumilla y tintero, cundo hacia decenios que se había inventado la pluma estilográfica. Luego me obligaron a utilizar pluma, cuando se había inventado el bolígrafo. Desde luego me prohibieron la calculadora, no solo en el colegio, sino incluso en la universidad. ahí había que utilizar la regla de cálculo. Y dedicamos tiempo y esfuerzo a pintar con tinta china y tiralíneas cuando ya existía el Auto CAD.
Hoy todas estas prohibiciones nos parecen absolutamente absurdas, como lo han sido las posteriores de no buscar en Internet y no utilizar Wikipedia, pero el mundo educativo siempre ha funcionado con retraso.
A mí me preocupa que la cultura general de todo el alumnado no ha dejado de bajar desde BUP/COU hasta niveles insospechadamente bajos.
Con este nivel actual, no sé bajo que criterios los alumnos aprenderán qué es verdad y que no, si ChatGPT o Bard lo dicen. No les hemos dado las herramientas para hacer un pensamiento crítico.
Si la algoritmia generativa se alimenta de Reddit (lo cual incluye los bulos de Reddit) entre otras fuentes… ¿cómo aseguras la calidad del output? Yo lo uso y abuso, pero es que he vivido sin él toda la vida y puedo comparar los resultados y contrastarlos con fuentes fiables. ¿Eso lo enseña la LOMLOE? Permíteme dudar
Y memorizar vs. buscar la info es el mundo de Yupi. Si yo aprendí las capitales europeas y sus ríos es para saber que hay un error si me dicen que el Po pasa por Moscú y que la capital de Dinamarca es Dublín.
Es que sería como hacer una carrera de arqueología a partir de la Wikipedia y películas, en lugar de ir a Pompeya y excavar la fuente.
La cosa es así de kafkiana:
Todos los expertos están de acuerdo en que los trabajadores del conocimiento serán sustituidos por gente que maneje la IA generativa si no se reciclan aprendiendo a manejarla
Puede que no se pierdan tantos puestos de trabajo como se dice, en eso hay mas discrepancia, pero que los que no sepan manejarla se van al paro , en eso hay unanimidad.
¿Y todavía se discute si se permite en la docencia o no?.
Puesto que en nada va a ser omnipresente lo mas lógico es que al menos haya una asignatura practica para aprender a manejarla , al menos básicamente , en las funciones mas relevantes y comunes para las que se le dará uso.
Si una calculadora, por similitud con una AI, proporcionara el resultado correcto el 80% de las veces, ¿sería una herramienta adecuada en la que basar nuestros cálculos? (yo, al menos, no me meto en un edificio que no hubiera calculado un arquitecto con lápiz y papel).
Educar en este escenario va a ser complicado, los alumnos no solo han de adquirir los mismos conocimientos que la AI facilita, si no que deben ser capaces de críticarlos y contrastarlos.
Pues, ahora mismo, no lo veo.
Donde esta la seguridad 100 % ¿En los libros de historia que se enseña en el Bachillerato?.¿En las clases de Filosofía?
Cuando estudiaba en el bachillerato, me contaban que el reino de León lo formaba, León, Zamora, Valladolid y Palencia y Castilla La Vieja era, Santander, Burgos, Soria, Logroño, Segovia y Ávila. ¿Era cierto al 100%?
Comparto nuestra experiencia en la enseñanza de la Ingeniería en Colombia utilizando ChatGPT.
Evidentemente los estudiantes acudieron a este recurso para la elaboración de ensayos sobre temáticas profesionales, pero la evidencia de la copia permitió abrir un espacio valioso para el debate ético. Pudimos reflexionar con ellos sobre el objetivo de su estudio dejando claro que no es la nota el factor con mayor ponderación.
De otro lado se hizo necesario volver a métodos más tradicionales de evaluación como el examen escrito presencial, y la sustentación verbal para valorar el logro de resultados de aprendizaje.
Curiosamente, ‘volver al pasado’ con estas técnicas y el uso de la IA como asistente de estudio ha brindado mejores resultados preliminares.
Creo que los centros de enseñanza, no importa si Bachillerato, Universidad o Master, deberían imbuir en el alumno la idea que allí se va para aprender y no para conseguir un título, que en principio, solo es un papel que indica que el centro de estudios opina que sabes.
Quien ha conseguido un título por métodos torticeros, no le vale de mucho si no ha aprendido. Como decía Marañón su primer día de clase «Yo os apruebo a todos, ya se encargará la vida de suspender al que no aprenda».
La experiencia que tengo, es que en todos los trabajos, les preocupa mucho que tipo de problemas sabes resolver y muy poco, que título tienes, salvo cuando el título es obligatorio por ley y aun así, ni Frank Lloyd Wright, ni Le Corbusier, ni Mies Van der Rohe, ni Buckminster Fuller, tenían el título de arquitectos, pero eso si, sabían construir casas.
Totalmente de acuerdo, pero hay un problema con eso. Cuando vas a buscar un trabajo te piden la titulación. Si los arquitectos que nombras hubiesen ido a pedir trabajo, por muy genios de la arquitectura que fueran (que lo eran) no se lo habrían dado.
En toda mi vida nadie me ha pedido jamás que el título, simplemente han creído lo que ponía en el curriculum y si no lo hubiera puesto igual les daba, por que lo que realmente les importaba era mi trayectoria profesional.
Enrique Dans es biólogo, y da clases de Tecnología, ¿Qué crees que a sus alumnos les importa, su titulación o lo que sabe hacer?.
Pues eso sería en tu época. Actualmente te piden primero la titulación y seguidamente la edad. si eres un senior, por muchos años de experiencia que arrastres, ya es que NI TE LLAMAN PARA UNA ENTREVISTA. A eso lo llamo TITULITIS y es una pena pero es así. Créeme.
En este pais hay 20 millones de personas que cotizan a la Seguridad Social, no puede ser que todos sean jóvenes.
A mi me han contratado en informática con mas de 55 años sin problema. claro que eso era hace 25 años ahora tengo 80. Pero desde entonces la media de edad en España no ha hecho mas que aumentar. Cuenta pensar que solo se contrate a jóvenes.
Enrique, en todo esto no hay que perder de vista que lo que se busca es que el estudiante entienda a fondo unos determinados contenidos y que los aprenda de manera significativa (no memorística) de modo que no solo se integren en su memoria a largo plazo sino que puedan en el futuro vincularse también con otros contenidos. Esto es algo a lo que ya me he referido anteriormente con mayor profundidad.
Si lo que quisieras es que los estudiantes aprendan a fondo sobre la crisis económica del Ecuador de fines de los años 90 podrías utilizar como referencia inicial lo que dice la Wikipedia o ChatGPT al respecto, pero casi enseguida deberías pasar a analizar los diversos artículos (de prensa y académicos) y los libros que se han escrito sobre este tema. Habría también que entrevistar a diferentes personas, desde algunos de los que padecieron la crisis hasta el mismísimo Jamil Mahuad. Lo más probable, Enrique, es que tú mismo no sepas casi nada sobre el «feriado bancario» ecuatoriano de 1999, pero que hayas escuchado sobre el «corralito» argentino de 2001, aunque el primero haya desembocado en un muy importante incremento de la migración hacia España que el segundo no produjo de una manera similar. En este caso, un estudio comparativo podría resultar también muy interesante. Es claro que ChatGPT, por ejemplo, podría ser de gran ayuda para enterarse de manera general sobre la mencionada crisis de 1999 o para ayudar a orientar algunos aspectos de la investigación, pero nadie se va a volver un verdadero experto en este ámbito si no es con una buena dosis de esfuerzo propio que conduzca hacia un aprendizaje significativo.
¿Cómo evaluar si el alumno ha aprendido a fondo sobre dicha crisis económica ecuatoriana? Pues a través de un riguroso examen escrito u oral. Entiendo perfectamente, Enrique, que uno desee métodos de evaluación más modernos y es algo que siempre he apoyado desde que estudiaba Ciencias de la Educación en Ecuador. Pero cuando cursaba la maestría en Alemania padecí el pragmatismo de uno de los mejores profesores que he tenido en mi vida y mi visión al respecto sufrió algunas modificaciones. Para este docente lo único que contaba era un duro examen final que no se prestaba para ningún tipo de divagación sino para sencillamente demostrar que uno había aprendido a fondo los contenidos de la materia. El asunto era tan complicado que solo si empezabas a estudiar a fondo el libro base desde el primer día del semestre tenías alguna posibilidad de aprobar la asignatura. Si comenzabas a preparar el examen solo quince días antes de presentarlo sencillamente no aprobabas.
En todo caso, Enrique, este es un tema extenso y si bien un profesor riguroso podría ser imprescindible cuando se trata de las materias centrales de una carrera universitaria, es claro que no lo es tanto en materias complementarias y menos aún si hablamos de la secundaria o la primaria donde entran en juego también otros factores. Me da la impresión, además, que tu clase tiene un número elevado de alumnos por lo que se trataría más bien de una lecture, cuando en realidad lo que tú en el fondo quisieras impartir es un seminar.
Lecture = Clase magistral
Seminar = Seminario
Luis, lo puse en inglés porque, por un lado, los enlaces llevan a artículos en dicha lengua y, por otro, porque la denominada lecture (o Vorlesung, en alemán) no coincide necesariamente con lo que en español se denomina clase magistral ni tampoco suele hacerlo con la denominada lección. En mi país he estado en muchas clases con el formato de seminar (o Seminar, en alemán) sin que nadie les haya dado el nombre de seminario, palabra que suele tener una connotación principalmente eclesial (aunque algunas facultades sí la usan en el sentido que tú mencionas). En todo caso, comparto la idea general de que hay que tratar de utilizar las palabras de nuestra lengua, especialmente en el caso del segundo término.
No, yo no doy lectures como tales. Yo aporto una cierta cantidad de información en los primeros minutos de una clase y genero discusión sobre ellas, teniendo en cuenta unos objetivos conceptuales a los que quiero llegar y que deben salir en la discusión. Es decir, dirijo la discusión dando la palabra a unos y otros, cortando la evolución de algunos temas y fomentando otros para tratar de llegar a unas conclusiones determinadas. Es un método del caso, pero en la mayor parte de las ocasiones, el caso es un «mini-caso», una compañía suficientemente conocida o una temática de actualidad sobre la que plantear las preguntas.
Sin animo de nada…
«fomentando otros para tratar de llegar a unas conclusiones determinadas»
Peligrosa esa frase… das a entender que les rediriges a donde tu quieres llegar… es decir, tus argumentos.
Yo la aclararia un poco mas… para «que no se diga»…
Eso no es el método socrático ?
Estoy de acuerdo con Mauricio. Empleo casi a diario chatGPT y el prompt enginering (o cómo formularle las peticiones) es clave. En última instancia, me parece que la solución pasa por exámenes escritos u orales, si quieres realmente verificar que el alumno ha aprendido la lección.
Un profesor, ante un alumno que emplee chatGPT sin prompt enginering, y que sea realmente vago, lo descubrirá con relativa facilidad. ChatGPT por ejemplo, tiende a emplear coletillas como «En resumen…» al final de las respuestas. Y también, si no cotejas lo que está diciendo, es posible que haya errores.
Dicho esto, un alumno, que en cambio, se trabaje las preguntas y sepa cómo pedirle chatGPT, creo que es realmente difícil de ser «cazado» por el profesor y en realidad, puede no haber entendido, ni haberse aprendido la lección. Por ejemplo, existen promtps determinados que ya se introducen y eliminan las coletillas que he mencionado anteriormente y que chatGPT emplea a menudo. Y esto es sólo lo básico, puedes sofisticar muchísimo cualquier prompt…
Por otro lado, creo que puede ser una herramienta excelente para estudiar y para aprender. También para que los profesores se preparen sus temarios y sus clases.
¿Con qué ideología se ha entrenado a un LLM? ¿Es un ofendidito o es un cavernícola?
No me preocupan los datos de entrenamiento si estos son variados y los desarrolladores han hecho un ajuste correcto para que el resultado sea neutro. El problema es confiar que se ha realizado correctamente por parte de la empresa encargada o han sido negligentes.
A la IA original le han aplicado una shell de aprendizaje reforzado, que en lenguaje común, viene a ser tu debes decir esto, y sobre estos temas no opinas.
El confiar una educación en ciertas materias como filosofía, política, historia,… a una única fuente no dice mucho a favor de quien sustente esas tesis, salvo que sea un hooligan del main stream. Una parte fundamental de la educación en humanidades es contrastar fuentes y cultivar el sentido crítico. Aunque un GPT no tuviera un sesgo intecionado, si va a en contra de la educación con mayúsculas.
Significa eso no utilizar y prohibir un GPT. Pues radicalmente no. GPT puede ser una herramienta magnífica utilizada correctamente en humanidades, como p.ej:
a) Obtener su valoración a un tema y comprobar su exactitud
b) Aprender a realizar preguntas(prompts) con profundidad para obtener más información. Algo que también aplica a un buscador normal
c) Obtener redacciones alternativas a lo que queremos decir.
d) Mejorar traducciones en una segunda lengua en la que no somos nativos
Resumiendo, y no soy GPT, es una herramienta que tiene una fiabilidad escasa hoy en día, pero es bueno acostumbrarnos a su uso en el aprendizaje, ya que su fiabilidad aumentará hasta tal punto que será bastante más dificil distinguir si no está metiendo bolas o no. Así que lo mejor es ir controlando sus avances, y tenerla hoy en día como el OkDiario de las IAs
Como ya comenté sobre la interacción del estamento profesoral con la «nuevas» tecnologías «del pasado reciente» (diapositivas), hoy vamos con un caso más apropiado, para comparar con la interacción con algoritmos.
¿Por qué hubo un tiempo (ahora ya no sé), en el que las editoriales (que podían) tenían dos líneas de libros de texto? Una pregunta sin malicia.
Simplemente, porque había dos tipos de profesores (aparte del que leía el periódico en clase) : los que seguían un libro de texto al pie de la letra (como auténticas pedradas explicativas o, simplemente, copieteo manuscrito puro y duro del texto libresco) y los que preferían brujulear por el libro, en busca de actividades, incluso simples y típicos ejercicios), que se acoplaran mejor al contexto educativo de «su» aula.
Así que un gasto doble, para que cuatro pirados (eran «tiempos LOGSE») nos permitiéramos navegar por las procelosas aguas de la sabiduría en lata de conserva llamada libro. De hecho se empezaron a publicar libritos «adjuntos», que fomentaban lectura y divagación a mayores.
Aún no existían medios tecnológicos para individualizar (contextualizar) aún más tu navegación (focopiadoras, diapositivas, retroproyector… y ya no digamos el ordenata primero, y luego la internet «demoníaca»). Esos medios que se proveía en principio el profesional, para luego, frente a un medievalismo predominante en el tejido educativo, se irían arrinconando en algún cuarto oscuro de los centros escolares. Y así fue, como esos amantes de la línea B editorial, fueran haciendo pinitos en tecnología pedagógica. Eso mirados con cierta rabia por «los otros», además de escuchar la típica letanía de «eso lo hacéis porque queréis». Incluso se nos achacaba no tener una vida propia, porque interactuar con la nueva tecnología, no se hace «mientras duermes».
Manda carallo, lo que había que aguantar de la línea A del Claustro (e incluso de los «lectores de periódico»… no confundir con «uso de la prensa en el aula»).
Y había que interactuar con el hard y el sotf, porque aparte de cutres folletos explicativos (maltraducidos), así como algún cursillo que la Administración Educativa/Domesticadora nos dejaba mendigar en el horario escolar (ah, la Catalunya preseparatista!)… todo era puta dinámica autodidacta.
Ensayo y error, que le llaman.
Y sí, el libro de texto línea B, no te daba muchas orientaciones. No es que te mintiera, como puede hacer un algoritmo (sus «programadores» solía ser gente de confianza), pero también te podías perder entre su maraña tecnológica de «soporte y mensaje».
Pero acabas por controlar el aparato y su soft, porque te iba en ello tu dignidad profesional (para ti y tu alumnado). La alternativa era ser usuario de la línea A.
Un autobús que siempre hacía las mismas paradas. Un profe conductor, salido de una uni (secundaria), que sigue haciendo lo mismo que le enseñaron a él en esa uni. Normalmente poco acorde con el contexto tecnológico del planeta. Y, lo peor, muy poco acorde con el contexto sociocultural del alumnndo que recibe su «lo que sea».
Y sí hacía controles periódicos sobre las destrezas que iba adquiriendo mi alumnado. Empezando por una pregunta «al profe», que les pedía hicieran el primer día de clase, nada más «mirarse las caras». Tal como si fuéramos simples algoritmos que empiezan a interactuar, más o menos libremente, pero que ya traen una carga de conocimientos previos a ese momento.
Pero muy lejos de mi esa satánica manía de «un examen final para demostrar que uno había aprendido todos los contenidos de la materia» (sic). Espero que en esos casos, por lo menos, a las chicas se les dea otra oportunidad si están «de regla». Y a los «más pobres» se les ayudara un poco a superara sus enormes dificultades de preparación, cuando esa Alemania (por ejemplo) estuviera bajo cero. O en el Mediterráneo, tuvieran que ayudar en la faenas agrícolas.
Y «por cierto», me hace coña que «las divagaciones de un alumno (o una IA) se puedan considerar poco oportunas en el proceso de interacción/enseñanza mutua. Quiero suponer que se refieren a «andar por los Cerros de Úbeda» y solamente «válido» en pleno examen superconcentrado. Como acabo de indicar antes y comentar en Quora, hace unos minutos, la tontería de una pregunta «no existe», solo la posible tontería del adulto que la contesta.
Una aclaración a un fallo garrafal de expresión : la preparación pretecnológica, no era en horario escolar (malia leva!), era en horario extraescolar… como todo lo «extra», salía del bolsillo del profe línea B.
Bastante de acuerdo, si es que no lo he entendido mal, que poder, podría ser.
Resolviendo el entresijo de, no te lo tomes a mal, tu exceso de perífrasis, y tu falta de concreción y síntesis, puedo y debo estar de acuerdo con tu comentario…
Ahora bien, no terminas de aclarar, si prefieres un alumno “memorizante” a uno que, aunque tenga peores resultados, se le vea que ha sido audaz en buscar las respuestas necesarias.
O simplificando, no sé si prefieres a uno que sepa usar de puta madre una calculadora, o a uno que se entretenga con lápiz y papel a resolver esos “algoritmos” que de ahí viene la palabra, para resolver una división, raíz cuadrada, la tangente, o una matriz.
No crees que saber utilizar ciertas herramientas, no esta extento, de saber como se llega a sus resultados?
Es mas valioso el trabajo de alguien que tira de IA, para obtener esos resultados (aunque sea poner comentarios en este blog, que de esos hay al menos uno), o es mas valioso quien ha sabido perder unos minutos de su tiempo en rebuscar la respuesta mas acertada?
De la educación a menores de edad…no me meto porque no he pensado en ello.
En cuanto a la universidad…las cosas en los 90 ya eran perfectas, gracias. A nadie se le ocurre reinventar la rueda, señores. Quizá añadamos alguna simulación visual de algún proceso que solo con las ecuaciones se entiende mal.
Chatgpt, perdona, es la mierda pura. No es una herramienta, es perder el tiempo para acabar volviendo al método natural, y correcto, intentando revertir el mal que haya producido la «pequeña desviación «.
Programación: en serio, léete el manual si vas a utilizar ese lenguaje/librería de manera seria. Si hay dificultades, stackoverflow u otro foro con especialistas de larga experiencia. Cultura general: Wikipedia al poder. Suma y sigue.