¿Sueñan los androides con ovejas eléctricas?

IMAGE: OpenAI's DALL·E, via ChatGPT

Tras varias décadas probando tecnologías y escribiendo sobre ellas, debo decir con pleno conocimiento de causa que la tecnología nunca deja de sorprenderme.

¿Recordáis el artículo, hace un par de semanas, en el que mencioné por primera vez NotebookLM, la herramienta de Google capaz de construir un resumen, una guía de estudio, unas FAQ y hasta un podcast completo a partir de un artículo o una serie de fuentes de cualquier tipo? En aquel momento, totalmente alucinado con las capacidades del invento, dije que iba a utilizarlo para crear un podcast que alimentaría con mi artículo diario, y que lo iba a publicar como una forma de ofrecer mi contenido a personas que no gustasen de leer un artículo relativamente largo, pero que les podría interesar su contenido y se podrían encontrar más cómodos escuchándolo en un formato de podcast.

Pues bien, lo hice. Decididamente, todo funciona cuando lo conviertes en un hábito. Llevo desde ese día publicando un podcast con NotebookLM, alimentado con mi artículo del día, así que son ya unos treinta podcasts sobre los últimos artículos que he escrito. El podcast se titula, como avancé en su momento, «EDans for Dummies«, está disponible en inglés norteamericano en Spotify, en Amazon Music y en Apple Music, y tiene ya un puñadito de suscriptores, obviamente muy pocos porque ni lo he promocionado – ni pienso hacerlo – de ninguna manera, ni lo he hecho tampoco para ganar dinero. La idea está siendo, fundamentalmente, hacer un pequeño experimento divertido y ver cómo funcionan un par de locutores completamente sintéticos interactuando con mi contenido y convirtiéndolo en algo potencialmente interesante en un formato completamente diferente al que yo utilizo.

Los hosts se refieren a sus podcasts como deep dives, y resulta impresionante como, lejos de «leer» sin más el artículo y comentarlo con el material que hay en él, se dedican además a enriquecerlo con otros ejemplos o comentarios procedentes de su base de datos de entrenamiento, como si realmente fueran seres humanos razonablemente cultos con un bagaje de experiencias a las que pueden recurrir para hacer comparaciones, metáforas o símiles sin ningún tipo de problema. Cada episodio dura entre seis y diez minutos, y son verdaderamente fáciles de escuchar. Si me leéis habitualmente y entendéis inglés bien, es una experiencia de lo más sorprendente.

¿Qué es lo que realmente me sorprende? Multitud de cosas. Por ejemplo, me parece brutal escuchar al host masculino (no tienen nombres, así que no me puedo referir a ellos de ninguna manera más cómoda que como «el host masculino» y «el host femenino» – eso sí, siempre son los mismos) decir en este episodio sobre las stablecoins que «recuerda cuando su hermana estaba estudiando fuera»… Al escuchar eso, me sugirió inmediatamente la fantástica novela de Philip K. Dick, «¿Sueñan los androides con ovejas eléctricas?», que inspiró la película «Blade Runner«: ¿qué hermana? ¡Eres completamente sintético, no tienes ni has tenido una hermana jamás, ni mucho menos estudiando fuera, ni le has mandado dinero, ni lo puedes recordar!!

O el «meta-episodio» en el que los hosts comentan precisamente el artículo en el que hablo de ellos, de NotebookLM («powerful stuff», como apostillan cuando hablan de la propia herramienta con la que están generados :-) y de cómo he utilizado esa herramienta para generar un podcast… aquí ya la referencia cinematográfica no es a «Blade Runner» (o también), sino a la «Inception« de Christopher Nolan: un nivel de inteligencia artificial dentro del nivel de inteligencia artificial. De hecho, dado que el artículo original incluye, lógicamente, el primer podcast creado, puedes ver perfectamente que ese podcast «original» ha sido utilizado para documentar el segundo, es decir, esos hosts sintéticos ¡¡¡se han «escuchado» a sí mismos!!!

Especialmente impresionante es cuando, en lugar de alimentar la herramienta con el artículo traducido y publicado en Medium, lo hago con la versión en español, porque en esos casos, NotebookLM toma no solo el artículo, sino también sus comentarios, y se refiere a los comentaristas y a las ideas y conceptos que aportan: en éste sobre un artículo de hace dos días acerca de la innovación, aparecen citados David Toledo (y el término «apoltronamiento», que no supieron traducir), Gorki, Alquimista, Benji o Xaquín, y son comentados con un nivel de detalle francamente interesante. Realmente, uno se puede plantear si leer el artículo o escucharlo en este formato, y encontrar incluso un valor añadido interesante en esa segunda opción.

Ahora veremos si en mi experimento, cuando mañana escuche el podcast generado para este mismo artículo en el que hablo de los podcast y de los podcasts que hablan sobre los podcasts, soy ya capaz de alcanzar el tercer nivel!!!


This article is also available in English on my Medium page, «Philip K. Dick: are you listening to my podcast

27 comentarios

  • #001
    JoRoPi - 27 octubre 2024 - 14:49

    Pues cuando le pases este, o revientan o nace Skynet

  • #002
    Xaquín - 27 octubre 2024 - 15:44

    Altamente interesante, seas tú o la IA que «te controla», no cabe duda que es un nivel de interacción con la IA, que provoca admiración… y sí, también ese poco de miedo, que toda innovación nos provoca (por ser inteligentes).

    El otro día leí sobre un texto tuyo, que hablaba de la llave «clásica» como muestra tecnológica y me lleva a pensar en el terror que debió suponer su uso la primera vez … qué especie de magia es esta!!!

    Seguimos siendo, en general, un poco mediocres versiones

  • #003
    Gorki - 27 octubre 2024 - 15:52

    Y entre los comentaristas, quien sigue empeñado que la AI es un loro estocástico. Como decía «el Guerra» «hay gente pa’ tó»-

  • #004
    Benji - 27 octubre 2024 - 16:08

    Juas. Pronto habrá uno que le pida los temas a Claude o Gemini, los expanda con ChatGPT, le pida a Suno la banda sonora, a NotebookLM el podcast y a disfrutar los oyentes humanos… Si queda alguno.

  • #005
    Alqvimista - 27 octubre 2024 - 18:23

    ¡Ay dios, que yo para el inglés tengo oídos de madera! :-P
    ¿Qué han dicho de mí? ¿Que han dicho? :-D

  • #006
    Juan T. - 27 octubre 2024 - 19:15

    Pregunta para EDans:

    Si el podcast es una tertulia en el que dos personajes virtuales hablan con todo naturalidad sobre un contenido de manera creativa , amena e instructiva, e incluso se salen del guión mostrando una cultura general potente ¿que le impide a la IA en la siguiente fase ocupar tu puesto de profesor al podérsele incluir todo tu conocimiento pero ampliado y con la capacidad de hablar con los alumnos sobre cualquier materia , responder preguntas de modo exhaustivo, hacer y corregir examenes, relacionar conceptos, poner ejemplos adecuados al nivel del que pregunta, salir del contexto de lo que se habla cuando sea necesario, contar algún chiste oportuno para amenizar la clase, y hasta recomendar que medicamento tiene que tomar algún alumno que está tosiendo al discernir con su algoritmo la enfermedad que tiene por el tipo de tos?

    ¿No estais los docentes en vias de desaparición o al menos de sufrir cambios drásticos?

    • Enrique Dans - 27 octubre 2024 - 19:19

      Ojalá, hijo, ojalá… En unos días te cuento.

      • Javier - 28 octubre 2024 - 10:12

        ay, ay, ay…. que me estoy haciendo películas yo solo.

        Hace un par de días:
        «…Tenía que haber estado allí, o al menos estaba invitado, pero me fue imposible por razones que os explicaré en no mucho tiempo.»

        Hoy:
        «Ojalá, hijo, ojalá… En unos días te cuento»

        Enrique… ¡no te irás a jubilar! ¡con 59 años!

        • Enrique Dans - 28 octubre 2024 - 11:10

          Jajajaja, todo lo contrario!!! Dame unos días y os aclaro todo…

    • Alqvimista - 28 octubre 2024 - 07:35

      ¡Sí hombre, y que le salga una DansIA pro-nuclear! Ja, ja, ja, ja.

    • Arcadi - 28 octubre 2024 - 09:19

      Te has dejado: Que le impide a la IA generar planes de formación y formadores únicos y adaptados a cada alumno…

  • #012
    Buzzword - 27 octubre 2024 - 19:30


    episteme: «Saber construido metodológica y racionalmente, en oposición a opiniones que carecen de fundamento»

    No sé quien puso en alguno de sus videos de YT este prompt para NotebookLM:


    "El audio se debe generar en Spanish de España. El podcast debe ser en idioma ESPAÑOL para que sea más fácil de entender. Insisto El idioma debe ser en lenguaje ESPANOL para que las personas Hispanoparlantes lo puedan escuchar y entender. Y Por favor no te olvides que el Podcast debe ser en idioma Español."

    Y funcionó. Dejaron de hablar la lengua del Imperio, para expresarse en buen castellano. Como experimento bien. Pero de ahí a que el contenido fuera relevante… como dirían con la musica del XVIII «divertimentos con un estilo desenfadado y alegre»

    – Cuando le pides a un LLM que te realice un resumen a partir de un contexto, o cree algo en modo «más abierto» sobre un tema, sin duda lo va a realizar sobre todo si lo que pides es un texto.

    – Creo que nadie duda que dominan el nivel 1 que marca OpenAI en el desarrollo de las IAs

    ¿Y la calidad del contenido? No solo hay que saber redactar, también hay que saber resumir correctamente. De un transcricpión de 15 minutos, es muy normal que el resumen que generan le falten ideas fundamentales. Eso si, sirven como primer borrador, y es una buena base para trabajar una materia. Curiosamente igual que un código python, que para que funcione a la primera, tenemos que poner velas a esa santa…

    Recuerdo los niveles que contemplaría la compañía:


    Nivel 1: “Chatbots”, es decir, inteligencia artificial con lenguaje conversacional
    Nivel 2: “Razonadoras”, aquellas con capacidad de resolución de problemas a nivel humano
    Nivel 3: “Agentes”, o sistemas que pueden tomar acciones en nombre de un usuario
    Nivel 4: “Innovadores”, inteligencia artificial que puede ayudar en la innovación
    Nivel 5: “Organizaciones”, inteligencia artificiales que puede hacer el trabajo de una organización

    A algunos nos gusta no olvidarnos de lo que realmente son y pueden hacer. Es precisamente esa inicitativa de OpenAI puede ser un roadmap muy acertado de evolución en el mundo de la IA (posiblemente más allá de los LLM actuales).Como comentaba el otro en el paper de APPLE sobre razonamiento de los actuales LLM: parece que están lejos aún del estadio 2. Por tanto algo que habla sin conocer su significado a ¿que animal nos recuerda?. ¿Los LLM han alcanzado casi perfectamente el nivel 1?, parece, salvo si te aproximes por primera ver nadie se debe ya sorprender de su capacidad de conversar en un lenguaje casi natural. De hecho es un recorrido que podemos jalonar como conseguido a finales de 2022. También es cierto que, aún hay margen de mejora, pues pueden ofrecer información errónea, incurrir en las denominadas “alucinaciones”. a veces e observa interlingua, y repeticiones en una sola conversación. Ese margen de mejora además tiene un gran incentivo en conseguir reduciones el coste de entrenamiento, y eso pasa por conseguir mismos resultados con menos cantidad de parámetros involucrados.

    En el ejemplo que nos toca (NotebookLM) tiene a mi modo de ver, aparte de la originalidad de la propuesta en modo podcast, dos logros:

    a) La calidad del audio, y del prompt que usan para conseguir simular una conversación a partir de textos más o menos anodinos…
    b) El incluir informacón extra al contexto, que sacan de su propio entrenamiento y que mejora el propio contexto de base (Nota: El contexto es el video, URL, o PDF que comentan)

    Más aún:


    En los Modelos de Lenguaje se denomina «loros estocásticos» a los modelos que son buenos generando textos, pero que no entienden el significado del texto que están procesando, capaces de escribir grandes ensayos con una estructura racional, pero cuyos datos y supuestos son falsos o inventados

    Para Aristóteles, «ser» es lo que algo es en realidad, y «parecer» es cómo se presenta o percibimos algo. A veces lo que parece bueno o verdadero no lo es realmente. Para vivir bien, debemos aprender a ver más allá de las apariencias y pensar en las consecuencias de nuestras decisiones. Esto significa no dejarnos llevar solo por lo que es atractivo en un momento (hypes), sino considerar si es bueno a largo plazo.

    ¿En que momento nos tenemos que acercar a la doliente insapiencia y no aceptar loro como animal de compañía?

    Vayamos a otras fuentes:


    Un modelo lingüístico grande (LLM) es un tipo de programa de inteligencia artificial (IA) que puede reconocer y generar texto, entre otras tareas. Los LLM se capacitan con enormes conjuntos de datos — de ahí el adjetivo «grande». Los LLM se basan en el aprendizaje automático: en concreto, en un tipo de red neuronal llamado modelo transformador.

    En términos más sencillos, un LLM es un programa informático al que se le han dado suficientes ejemplos para que sea capaz de reconocer e interpretar el lenguaje humano u otros tipos de datos complejos. Muchos LLM se entrenan con datos recopilados de Internet — miles o millones de gigabytes de texto. Sin embargo, la calidad de las muestras influye en lo bien que los LLM aprenderán el lenguaje natural, por lo que los programadores de un LLM pueden utilizar un conjunto de datos mejor seleccionado.

    Los LLM utilizan un tipo de aprendizaje automático llamado aprendizaje profundo para entender cómo funcionan los caracteres, las palabras y las frases en conjunto. El aprendizaje profundo implica el análisis probabilístico de datos no estructurados, lo que finalmente permite al modelo de aprendizaje profundo reconocer distinciones entre las piezas de contenido sin intervención humana.


    Si no realizan su labor del modo «loro», ¿Cómo lo hacen?

    Un profesor que tenía en la Universidad, que estaba a punto de jubilarse, nos decía que a veces nos contaba que iban «ciertos» padres para ver si aprobaba su hijo la asignatura, y simplemente les comentaba, que si no vale para estudiar su hijo podría valer para arar el campo, si era inteligente detrás del arado (como campesino), y si no lo era, pues siempre podría tirar ese hijo delante (como burro).

    Otro insapiente famoso, Blake Lemoine, un ex-ingeniero de Google, se refirió a LaMDA, como una máquina pensante y sintiente.En este artículo de la BBC de Junio de 2022 ya hablaban por ejemplo que:

    «Las investigadoras Emily Bender o Timnit Gebru se han referido a estos sistemas de creación de lenguaje como ‘loros estocásticos’, que repiten al azar.»

    Y como comentaba Julio Gonzalo Arroyo, investigador principal del Departamento de procesamiento del lenguaje natural y recuperación de la información.

    «Escuchar ese tipo de chorradas no beneficia.Corremos el riesgo de que la gente le tome manía y piense que estamos en modo Matrix y que las maquinas son más listas y que van a acabar con nosotros. Eso es remoto, es utópico. No creo que ayude a tener una conversación templada sobre los beneficios de la Inteligencia Artificial».

    • Enrique Dans - 27 octubre 2024 - 20:32

      Sí, yo también he conseguido hacerlo hablar en español, pero ni logra hacerlo en español de España, ni me gustó nada el resultado…

      • Buzzword - 27 octubre 2024 - 20:54

        Coincido, tiene un cierto acento que no consigo localizar, pero que no es típico de España.

        Por otro lado, si has probado la app del reader de elevenlabs, la voz de «Sara Martin» está bastante lograda.
        La verdad encuentro el reader muy útil, y se habla poco, de esta app…

    • MAGI - 27 octubre 2024 - 20:40

      Eso es. Y tampoco ayudan las teorías que vierten escritores muy leídos por el público general, como Yuval Harari. En su último libro Nexus, que he leído porque me gustó Sapiens, afirma textualmente: “ Hemos convocado a una inteligencia inorgánica que puede escapar de nuestro control y poner en peligro no solo a nuestra especie sino a otros incontables seres vivos”. Su teoría es que estamos en la fase de canonización de la IA y el Gran Algoritmo nos puede llegar a manipular con su inmenso poder.
      La gente tiene tendencia a creerse más estas cosas, que las que un experto puede adelantar y lo que de verdad es poderoso, es el miedo.

      • Buzzword - 27 octubre 2024 - 21:02

        «Nadie ha visto a un chatbot crear nuevas ideas, y mucho menos generar arte que no sea simplemente una recombinación de patrones en sus datos de entrenamiento»
        Harari

        ¿Será este el cerebro de la IA?

      • Javier - 27 octubre 2024 - 21:24

        Nassim Taleb, desarrolló el concepto del Efecto Lindy:

        si deseas saber cuánto durará algo no perecedero, es decir, algo que no está sujeto a los límites de una vida natural, entonces la primera pregunta que debes hacerte es cuánto tiempo ha existido

        En el caso de los libros (y las ideas que buscan transmitir) es parecido. Él dice que no hay que leer un libro cuando es nuevo (o porque es nuevo), sino dejarlo «resposar» en los estantes de las librerías, y que sea el paso de los años lo que determine su verdadero valor [como los vinos —añado yo—].

        Así, por ejemplo, a día de hoy no hay una fiebre, revival, resurgimiento (y menos que menos aceptación) de charlatanes como Charles Berlitz y la basura que escribía desde la década del 60.

        Sé que es un ejemplo extremo: comparar a Harari con Berlitz es injusto, pero a lo que apunto es que Harari es hijo de su época. Es un pensador, pero no está viendo el futuro. Lo está prediciendo.

        Y como ha dicho Gorki por aquí muchas veces: lo más fácil es ser un Geremías. Y si encima te apellidas Harari, vas a tener repercusión garantizada.

        Mi madre me ha enseñado lo mismo con una frase parecida:

        Los zapallos se acomodan solos en la carreta con el viaje.

        • Buzzword - 27 octubre 2024 - 22:38

          Una de mis teorias es que no hay que admirar/criticar un libro, una película o cualquier obra por el autor en si mismo, sino por la obra en si misma. (al final eso es un ad-hominem)

          Otra cosa es que nos resulte más fácil acceder a obras de personas ya conocidas, por como funciona el mercado.

  • #019
    Gorki - 27 octubre 2024 - 22:17

    Considero mas peligroso que la AGI, que lo puede ser si se utiliza para el mal, y asi se utilizará, la manipulación genética. La última pandemia es una aviso benigno de lo que puede suponer un error no intencionado, producido por modificar un virus.

    • Juan T. - 28 octubre 2024 - 10:13

      Totalmente de acuerdo. Sería algo relativamente fácil de lograr pero con una repercusión enorme. Y lo de «no intencionado» ya es ser muy optimista.

  • #021
    Adrián Lijó - 28 octubre 2024 - 10:01

    Mi completa admiración a estas herramientas y feliz de vivir esta época. Cuando te retires de blogger, deja una I.A. que siga escribiendo este blog…

    • Gorki - 28 octubre 2024 - 11:25

      Una magnifica idea, un IA que nos ponga al día en tecnología. Te echaré de menos, (si es que aun vivo)

  • #023
    Arcadi - 28 octubre 2024 - 10:29

    Yo soy uno de los que, como comenta BENJI, busca cada día temas con la ayuda de IAs. Este blog, Perplexity y otros que sigo en Feedly me sirven de inspiración. Cuando encuentro un tema interesante, lo desarrollo con ayuda de herramientas como ChatGPT (ahora también con Canva), reviso, itero y le doy un toque personal. Con el resultado final, creo un video para mi perfil de TikTok explicando el tema. A veces me pregunto si lo que hago podría hacerlo igual de bien un avatar. Probablemente sería más atractivo y hablaría con más fluidez que yo, pero siento que faltaría ese toque personal en la selección y tratamiento de los temas, y especialmente, en saber que quien habla es una persona real y no una máquina (algo que, hoy por hoy, sigue generando un poco de rechazo), probablemente esté equivocado.

    Esto me lleva a preguntarme: ¿estoy en lo cierto o cada vez importará menos quién esté detrás del contenido? En los podcasts generados por Enrique, vemos que la IA puede hacer un trabajo sorprendente, y estamos solo en el inicio. ¿Qué papel jugaremos los humanos en este proceso? Por un lado, creo que una IA bien entrenada podría generar contenidos y llegar a las mismas conclusiones que algunos de los colaboradores de este blog (con la excepción de XAQUíN), pero aun así, el contenido creado por personas siempre tendrá un valor especial, sobre todo cuando proviene de voces como la de Enrique Dans y muchos de los que participáis en este blog. Ninguna IA, nunca, será capaz de crear contenido en base a experiencia, conocimiento y vivencias acumuladas, y el mix que eso genera.

    Es posible que los creadores de contenido como yo, mediocres, desaparezcamos con el tiempo. Aun así, imagino un futuro de colaboración entre humanos e IAs, donde ambos generen contenido en conjunto. Por ejemplo, este blog podría convertirse en un punto de referencia «humano» al que recurrir, mientras herramientas como ChatGPT o NotebookLM nos ayudarán a profundizar en los temas. Incluso podríamos ver la incorporación de IAs en las tertulias, aportando ideas con la ayuda de Habermas de DeepMind y enriqueciendo las charlas.

    Me quedo con lo que dice Enrique Dans refiriéndose a los seres humanos razonablemente cultos, con un bagaje de experiencias del que pueden sacar comparaciones, metáforas o símiles sin problemas. Que él, siendo tan crítico, lo reconozca significa mucho.

  • #024
    Alqvimista - 28 octubre 2024 - 11:49

    Pues hablando de IAs, acabo de ver esta interesante comparativa entre ordenadores ejecutando LLMs locales.
    Tiempos, consumos, y costes.

    https://youtu.be/0EInsMyH87Q

  • #025
    Maicro - 28 octubre 2024 - 14:27

    El símil más acertado, en vez de la película «Origen» hubiera sido la película «Nivel 13». Recomendable que la veas.

  • #026
    JC - 28 octubre 2024 - 19:29

    Personalmente me ha permitido introducirme en temas de mi interés, que a priori estaban bastante fuera del alcance para mi básica formación científica o filosófica, poniendo a mi alcance resúmenes bien estructurados, asequibles intelectualmente , con gran profusión de ejemplos y claridad, de una manera sumamente amena y hasta divertida, ahorrándome páginas de lectura ardua y laboriosa.
    Lo veo como una fantástica ayuda a la difusión del saber y la divulgación.

  • #027
    Jose Russo - 28 octubre 2024 - 21:00

    He escuchado el resultado, y hacen un poco de bucle… Pero es realmente impresionante el resultado y el proceso en sí. Enhorabuena!

Dejar un Comentario

Los comentarios están cerrados