Carmen López, de El Diario, me contactó por correo electrónico para hablar sobre la antropomorfización de los algoritmos de inteligencia artificial y sobre por qué tantas personas tratan a ChatGPT y a otros algoritmos generativos como si fueran personas, pidiéndoles las cosas por favor y dándoles las gracias, y hasta qué punto esto no es un comportamiento buscado por las compañías que los gestionan.
Con mis comentarios y los de otras personas ha publicado hoy su artículo titulado «Buenos días, ChatGPT: ¿por qué somos amables con la IA?» (pdf), en el que discute hasta qué punto tiene sentido hacer algo así, interpretar nuestra relación con un algoritmo como si fuera una persona.
El diseño en forma de chat adoptado por compañías como OpenAI está obviamente pensado para favorecer la conversación, porque lo que le interesaba a OpenAI cuando lo puso en el mercado a finales de noviembre del año pasado era que tuviese mucho uso, y así asegurarse la posibilidad de seguir entrenándolo con más y más conversaciones. Por tanto, el formato de chat sí busca que sea antropomorfizado por el usuario final, y que haya quien termine pidiéndole de todo, desde consejos médicos a psicológicos, hasta consultorio matrimonial. Si el formato fuese otro, no habría obtenido tanta repercusión y no se habría convertido en uno de los fenómenos de mayor difusión de todos los tiempos. A partir de ahí, los usuarios hacen el resto: dado que un formato chat te evoca conversaciones con personas, la antropomorfización es simplemente un «contagio» de ese formato, y darle los buenos días o las gracias es casi algo que haces por costumbre o por educación (ahora bien, algunos usuarios dicen que le dan los buenos días o las gracias porque saben que las máquinas acabarán dominando el mundo y que seguro que entonces se acordarán de quiénes eran los humanos que les trataban bien… :-)
Sin embargo, hay un problema: tratar a un algoritmo como si fuera una persona impide, en muchos casos, que le pidamos las cosas como realmente se las debemos pedir para obtener un resultado adecuado, porque una serie de convenciones basadas en un elemento de las relaciones humanas como la buena educación y los modales puede interferir con el tipo de pregunta que realmente necesitaríamos hacerle.
Para interaccionar con una máquina, lo que tenemos que tener en la cabeza es el resultado que buscamos, con todos sus modificadores adecuados convertidos en restricciones para la máquina. Es el caso del llamado prompt engineering, el dar forma a nuestra pregunta para que incluya todos los elementos que buscamos en la respuesta: qué papel queremos que adopte el algoritmo, qué formato buscamos, qué temas queremos que mencione y cuáles queremos que evite, qué longitud de respuesta pretendemos obtener, etc. Obviamente, cuando hablamos con una persona – o nos hacemos la ilusión de que es así – no funcionamos de esa manera, porque sería visto como algo insoportable, pero cuando interactuamos con una algoritmo es recomendable que sea así, por una simple cuestión de diseño de interfaz.
Por tanto, podemos tratar a los algoritmos como buenamente nos dé la gana, pero deberíamos tener en cuenta que por una simple cuestión de HCI, Human-Computer Interaction, estaremos sujetos a unas desventajas importantes si lo hacemos así, y los resultados que obtendremos serán muy posiblemente subóptimos. Si vamos a tener asistentes de este tipo pululando por todas partes, más vale que vayamos empezando a asimilar que las reglas para interactuar con ellos no son las mismas que las que gobiernan generalmente las interacciones entre personas. Por puro sentido común.
This article is also available in English on my Medium page, «Machines are there to be told what to do, not asked«
Es curioso que seamos más «educados» con un máquina que cuando escribimos un comentario, pocos empiezan con un Hola Enrique…..
He de confesar que siempre empiezo con un hola, y creo que es para comprobar que «funciona», sobre todo Bing, fallaba muchas veces… me ha pasado hacerle un pregunta de 3 líneas sobre algo y que no funcione… así que se aguante si empiezo con un hola
por cierto los artículos tuyos nunca empiezan con un hola tampoco…
Lo que confundirá a muchos es que Chat GPT sea el que pida disculpas
https://imgur.com/a/9IsIbhk
https://imgur.com/a/cWvG8dD
cuando por una mala entendida política de «no, por las dudas…» se excuse de devolver el resultado pedido.
Podría haberme tomado el trabajo de intentar «hackear» el prompt para que con el cuento de que mi abuelita me recitaba listas aleatorias de direcciones IP antes de irme a dormir y todo eso, pero estaba trabajando, no jugando.
Random IP Generator
Si le estuviera pidiendo la fórmula del gas Zyklon B lo entendería, pero para mí esto se convirtió en una GRAN bandera roja.
Aclaración: Esto fue la semana pasada
A ver chatgpt es lo que es un modelo estocástico enfocado a lenguaje. No es que no se han preocupado en ponerle resultados buenos, es que por construcción del algoritmo no los puede tener, ni quitar el curro a nadie….
PS: El famoso proyecto Q* va por ahí, pones un algoritmo que da resultados buenos + un LLM para saber hablar, y alguno pensará que eso es una AGI
«es que por construcción del algoritmo no los puede tener, ni quitar el curro a nadie….» … ¡Seguro!, ¡A nadie, nadie!
No estoy yo tan seguro
El resumen de OpenAI + Chagpt, contado desde CoffeBreak y sin magufadas
https://www.youtube.com/watch?v=ItSMPMQ-BYY
Desde 1h:57min hasta 2h:39min aprox
Bah….
Amazon analiza nuestros datos, escucha nuestras conversaciones y estudia nuestros hábitos con el único fin de saber cuándo NO vas a estar en casa y mandar en ese momento al repartidor.
¡¡¡ Lo que inventa el hombre blanco !!!
Conozco a personas que hablan con su gato , Es eso «antropomormizarlos».
Evitemos decir tonterías, ni aunque sea para llenar un periódico, un día que no te visita la inspiración.
Yo todavía estoy ‘Alucinando’ con haber leído Machine learning y Antienvejecimiento en el mismo post.
Dadme un respiro.
En serio, la gente no se preocupa mucho por su salud mental. Si lees tonterías, o ves videos de YouTube, acabarás alienado, agitando una bandera que no es la tuya y diciendo tonterías.
The Unbearable Asymmetry of Bullshit
La vida es como una caja de bombonas.
–
closed for business.
Give to the cathedral
Menestro
Se han colado al final del enlace unas comillas que hacen que no funcionan los enlaces,
Yo todavía estoy ‘Alucinando’ con haber leído Machine learning y Antienvejecimiento en el mismo post.
Dadme un respiro.
En serio, la gente no se preocupa mucho por su salud mental. Si lees tonterías, o ves videos de YouTube, acabarás alienado, agitando una bandera que no es la tuya y diciendo tonterías.
The Unbearable Asymmetry of Bullshit
La vida es como una caja de bombonas.
–
closed for business.
Give to the cathedral
Si lees tonterías, o ves videos de YouTube,
Lo que me parece una absoluta tontería es calificar todos los videos de Youtube con el mismo rasero, en Youtube hay cosas infames y cosas magnificas,
No te pareceria una tonteria que yo dijera «Si lees libros o ves videos tontos, acabarás alienado, agitando una bandera que no es la tuya y diciendo tonterías.», Pues viene a ser mas o menos lo mismo que lo que tu has dicho.
Gracias por enviarlos corregidos…
El artículo me ha recordado lo que dijo Daniel Dennet, cuando señaló que los seres humanos tendemos a pensar que todo lo que se mueve, como una nube o un animal, tiene una mente racional que trata de hacer algo. De esta manera, creemos que el río trata de llegar al mar o que la nube quiere llover: son personificaciones que han determinado la historia de la ciencia [y esto] determina nuestra forma de pensar y entender el mundo (Dennet, 1998).
Más recientemente, Jaron Lanier ha advertido, por su parte, que «la forma más fácil de gestionar mal una tecnología es malinterpretarla». Por eso, aunque reconoce que es fácil atribuir inteligencia a los sistemas como ChatGPT, ya que tienen una flexibilidad y una imprevisibilidad que no solemos asociar a la tecnología informática, hay que tener en cuenta que esta flexibilidad surge de la simple matemática.
Por ello, Lanier considera que la postura más pragmática es pensar en la inteligencia artificial como una herramienta, no como una criatura. «Mitificar la tecnología sólo hace más probable que no la utilicemos bien, y este tipo de pensamiento limita nuestra imaginación, atándola a los sueños del pasado (…) Cuanto antes lo entendamos, antes empezaremos a gestionar nuestra nueva tecnología de forma inteligente» (Lanier, 2022).
La evolucion de los «IA chatbots» va en dirección a convertirse en un asistente personal para todo, y con personal me refiero a que va a poder personalizar la interacción con el usuario y perfeccionar la respuesta a medida que lo conozca hasta casi adivinar cuales son sus intenciones.
Así que no va a hacer falta ser ningún «prompt engineer» ya que la propia IA tendrá la capacidad de saber la verdadera intención del usuario aunque sea un mal redactor de indicaciones del mismo modo que ahora mismo hay apps de redacción de prompts que convierten una indicacion muy cutre en una muy sofisticada.
Igual que una persona inteligente sabe leer entre lineas la intención de alguien se expresa con un lenguaje muy pobre el chatbot hará lo mismo con cualquier humano.
Recordemos que dentro de poco seremos primates al lado de la IA, particularmente en lo que se refiere al uso del lenguaje.
Ademas no va a hacer falta usar ninguna app particular si no que será el asistente de IA el que se conectará con cualquier app que necesite para cumplir la orden que le das (Gates dixit).
Cuando tienes un amigo imaginario en tu etapa infantil estás de puta madre. Si continuas con un amigo imaginario en tu etapa adulta es que tienes un gran problema. Y si te dejas llevar por él, para emborracharte por la noche, ya estás jodido del todo.
Cada uno que use el sentido común/personal como le venga en gana, si es que le dejan hacerlo. Hablar con tus gatos y perros es un ejercicio de salud mental considerable, mientras no sigas los consejos que tengan a bien darte.
Mis tres perros solo me dieron lametones
Eso sí mi Pastora Belga parecía oler el como te encontrabas de ánimo y actuaba en consecuencia.
De momento, se trata con cortesía a las máquinas porque este tipo de trato forma parte de la educación.
Cuando la gente se haya acostumbrado lo suficiente a una comunicación irreverente o desdeñosa con las máquinas, terminará tratando a los seres humanos de la misma forma.
Prefiero que la gente siga pidiendo por favor y dando las gracias a la máquinas, y les animo a que sigan.
«Repite un comportamiento y forjarás un hábito, repito un hábito y forjarás un carácter».
No se trata de que la comunicación sea irreverente o desdeñosa, se trata de que sea una comunicación con una máquina. ¿Pides disculpas al interruptor de la luz antes de accionarlo? ¿Le preguntas a la cafetera si le molesta que la enciendas? Pues es lo mismo. Para una máquina, comunicación eficiente: dale tu petición, las restricciones y requisitos que le impones, y ya está, el por favor y las gracias son absurdas. Sé consciente de que hablas con una máquina y no con una persona. No se trata de que la desprecies ni la insultes. Eso es todo. Y es pura lógica.
Lo que cambia es la interacción. Se supone que el asistente está sirviendose de un ‘rol’ social para interactuar; la interface con el usuario simula una interacción social.
Así que respondemos de acuerdo al contexto de esa comunicación. El chatbot crea un pequeño escenario para recrear esa experiencia.
Los interruptores no nos dan los buenos días, ni «nos dejan a solas» cuando soltamos un exabrupto.
Es una nueva interface y reaccionamos de acuerdo a ella. Es lo que nos hace humanos.
–
«Tilt!»