Un estudio llevado a cabo por Stanford demuestra que la llegada de algoritmos generativos como ChatGPT no ha significado un incremento significativo de su utilización con propósitos de fraude académico, es decir, para copiar. Los estudiantes, simplemente, han incorporado las funcionalidades de la algoritmia generativa como una herramienta más, y han comenzado a utilizarla como una fuente de información adicional que puede ahorrarles trabajo en determinados planteamientos.
Las conclusiones del estudio coinciden perfectamente con mis observaciones personales en IE University tras dos ediciones del MBA desde que ChatGPT comenzó a estar disponible: el uso de este tipo de herramientas, que en mi caso claramente aliento porque creo que la curva de aprendizaje para una utilización eficiente debe recorrerse durante el proceso formativo, se dedica a la obtención de ideas, a la búsqueda de fuentes y a algunos otros usos como el proofreading o revisión de textos escritos para eliminar errores tipográficos, ortográficos o gramaticales, pero no parte de la base de intentar defraudar al profesor, sino simplemente de aprovechar el potencial de la herramienta.
El número de casos en los que un alumno ha intentado hacer pasar textos íntegros generados por una herramienta de este tipo como suyos es, aparentemente, bastante escaso, y el hecho de que en una encuesta anónima afirmen exactamente eso permite intuir que, en efecto, los riesgos de terminar teniendo una generación de alumnos ignorantes porque subcontrataban sus procesos de producción a herramientas como ChatGPT es tan infundado como lo pudieron ser en su momento los miedos a que las calculadoras de bolsillo diesen lugar a una generación de alumnos que no supiesen ni las cuatro operaciones básicas. No ocurrió entonces, y tampoco parece estar ocurriendo ahora.
En la práctica, las noticias sobre «alucinaciones» generadas por este tipo de algoritmos, que se hicieron especialmente virales durante las primeras semanas tras su lanzamiento, parecen haber provocado que los alumnos no confíen en la herramienta lo suficiente como para tomar sus respuestas como verdades absolutas, sino que se limiten a utilizarla como guía o inspiración. En mi caso, que permito que mis alumnos utilicen cualquier herramienta y pido que me incluyan tanto las referencias utilizadas como, en el caso de recurrir a algoritmos generativos, su nombre y el prompt – lo que me permite valorar, además, el desarrollo de sus habilidades – observo una frecuencia de uso elevada, pero que resulta perfectamente compatible con un aprovechamiento académico a efectos de aprendizaje. De hecho, aprender a extraer partido a este tipo de herramientas es importante a la hora de poner en el mercado personas que van más allá de hacer una simple pregunta casual.
En mi caso, la objeción habitual es que, muy posiblemente, no es lo mismo trabajar, como es mi caso, con alumnos con una media de treinta años, seis o siete de experiencia y que desean, fundamentalmente, optimizar su aprendizaje con un elevado nivel de responsabilidad, que hacerlo, por ejemplo, con alumnos de otros niveles inferiores. Sin embargo, el estudio de Stanford toma como muestra más de cuarenta high schools, el equivalente al bachillerato en países como España, y las conclusiones son muy similares. De hecho, una de las conclusiones claras del estudio es que las decisiones de bloquear herramientas como ChatGPT en las redes de muchas instituciones académicas fueron preocupaciones sobredimensionadas y sin sentido.
Una vez más, la cuestión parece evidente: tratar de que la educación se desarrolle al margen del entorno tecnológico no tiene sentido, y lo que hay que hacer es tratar de integrar el curriculum académico con ese desarrollo tecnológico, para conseguir así no solo que los alumnos adapten sus procesos de aprendizaje, sino que además, aprendan a manejar esas herramientas con soltura. Ahora solo falta que alguien lo aplique a otras herramientas tecnológicas, como los smartphones, y empecemos a trabajar en su integración curricular a todos los niveles.
This article is also available in English on my Medium page, «Once again, fears that students would misuse new technologies are unfounded«
«En mi caso, que permito que mis alumnos utilicen cualquier herramienta y pido que me incluyan tanto las referencias utilizadas como, en el caso de recurrir a algoritmos generativos, su nombre y el prompt – lo que me permite valorar, además, el desarrollo de sus habilidades»
Estaria bien algun ejemplo, de esas respuestas y esos «prompts»… para poder comparar u objetar, claro…
Siempre tuve predilección por los profesores que permitían ir a los exámenes con lo que quisiéramos porque, como decía uno de ellos: «me da igual que tengas los libros, apuntes o lo que sea porque, si no has estudiado y trabajado la materia, te servirán de poco en el examen».
Lo que cuenta y lo que se debería primar cuando nos enseñan es que aprendamos a manejarnos con todas las herramientas que estén a nuestro alcance, desde nuestro propio coco hasta la inteligencia artificial (o como se quieran considerar), llamadas de teléfono, libros o lo que sea que nos lleva a dar con la solución al problema que tenemos delante.
Sin esa capacidad de «resolución adaptativa» somos poco más que «memorias con sentimientos».
Creo que una cosa, es que te permitan el empleo de todo tipo de herramientas, sean las que sean, para el desempeño de tu trabajo, y otra bastante (o muy diferente), es el uso de una herramienta, que pueda darte el trabajo por hecho… sin el mas minimo esfuerzo por tu parte.
Valorarias igual a un alumno, que pierde su tiempo en saber encontrar las fuentes para su trabajo, elaborar con su sentido critico, la resolucion del mismo gracias a esos datos, y exponer sus razones/teorias al respecto… que a uno que ha sabido hacer una pregunta a un CHAT y se la ha dado bordada…???
Si eres empresario, me compadezco de tu empresa de inutiles, que el dia que caiga internet, no sabran hacer la «O» con un canuto…
Por eso estoy esperando la respuesta de eDans…
LUA, ¿y si la valoración (para la contratación, considerar aprobado o lo que sea) se hace correctamente en ese «examen abierto con todos los recursos que quieras a tu disposición»? ¿No quedarían ahí filtrados esos que no saben desenvolverse?
Obviamente, eso requiere que el evaluador esté preparado para que esa valoración sea «adecuada», pero eso también existe ahora.
Si el que evalúa es un «inútil» que se limita a preguntar y valorar con mejor nota al que le repite como un lorito lo que ha memorizado durante meses o al que ha automatizado la resolución de problemas porque lleva meses haciendo los cien mil ejemplos de ejercicios que ha encontrado, tendrá un empleado que, cuando hayan pasado una decena de años, lo mismo está pez en las «cosas modernas».
No hace falta que se caiga internet para que una empresa se vaya al garete con gentecilla «inútil», simplemente que no haya calefacción o luz en el edificio, que no hayan podido ir al trabajo, que llegue un proyecto del que nadie ha oído hablar en la empresa, que la fagocite otra empresa más grande, que tengan que trabajar sin horario fijo…
No sé si es una comparación correcta, pero quien «sobrevive» es quien mejor se adapta al medio y si en el medio hay un «algo» por ahí que huele a «inteligencia artificial», quien mejor sobreviva conviviendo con ello, seguramente tendrá alguna ventaja.
Coincido. A ml en ingeniería no me dejaban ultilizar la calculadora, tenia que utilizar la regla de cálculo. Claro que también me enseñaron a escribir con palillero, plumilla tintero y secante
Se me prohibió el uso primero de la pluma fuente y luego del bolígrafo.
Enrique, la verdad es que el artículo del New York Times que enlazas dice que «[l]as trampas han sido rampantes durante mucho tiempo en las escuelas. En encuestas realizadas a más de 70.000 estudiantes de secundaria entre 2002 y 2015, el 64 por ciento dijo que había hecho trampa en un examen. Y el 58 por ciento dijo que había plagiado.»
Y luego afirma que «[s]egún los investigadores de Standford, desde la introducción de ChatGPT en 2022, la frecuencia general de estudiantes de secundaria que declara haber hecho trampas recientemente no ha aumentado.» No hay que olvidar, sin embargo, que según este artículo «[c]asi un tercio de los adolescentes dijeron que no habían oído ‘nada en absoluto’ sobre el chatbot (…) [y][o]tro 44% dijo haber oído hablar ‘un poco’ de él.»
Es que los dos tenéis razón: no es lo mismo un estudiante de máster/universidad, que en general han pagado una carretada de dinero por estar ahí, que unos chavales que están donde no quieren estar haciendo lo que no quieren hacer. ¯\_(ツ)_/¯
Totalmente de acuerdo. Muchos estudiantes de eso y bachillerato harán lo que sea por aprobar sin estudiar. En cambio en postgrados o universidad los estudiantes ya están ahí mayoritariamente porque lo desean y por lo tanto se lo toman de otra manera.
Los estudiantes de niveles «inferiores» hacen básicamente lo que aprenden de los adultos que los rodean… si copian a mansalva (y mienten…) es porque lo ven hacer, con disimulo o sin él, en sus adultos pseudotutores (incluidos padres).
Y si el alumnado sobrevive, en su mayoría (que algunos no lo consiguen), interactuando con el estamento docente, es señal de que son capaces de sobrevivir en la selva educativo/domesticadora, con más capacidad de la que se le admite por una mayoría del profesorado.
Y, por otra parte, si son capaces de interactuar con el establismenh profesoral, sin dejar la mente averiada, serán capaces de interactuar con cualquier algoritmo. A fin de cuentas un algoritmo actual de nivel medio, no siliconado, puede superar al docente medio que actualmente esté dando clase. Desde Educación Infantil (incluso!!) a la Universidad (sic). Aún teniendo sesgos de serie, siempre tendrá menos que el considerado Técnico en Transmisión de Conocimientos.