La evolución de las herramientas de inteligencia artificial desde los primeros copilotos simples destinados a llevar a cabo tareas aisladas, como ilustraciones o explicaciones más o menos sofisticadas, hacia los cada vez más habituales «sistemas agénticos» que estamos empezando a ver aplicados a un número cada vez mayor de tareas, refleja la creciente sofisticación de este tipo de tecnologías en un plazo extremadamente corto de tiempo.
Mientras los llamados copilotos – a partir de una terminología ideada en su momento por Microsoft – mejoran las habilidades humanas proporcionando asistencia y sugerencias, los sistemas agénticos operan con un grado de autonomía, son capaces de tomar decisiones independientes y aprender de sus entornos. Esta progresión ofrece un enorme potencial de innovación en varios sectores, pero también requiere una cuidadosa consideración de las implicaciones éticas, legales y sociales para garantizar que los efectos de estos avances resulten beneficiosos para la humanidad y se desarrollen de manera razonablemente responsable.
Esta transformación refleja las crecientes capacidades de la inteligencia artificial no solo para apoyar las actividades humanas, sino también para realizar tareas de manera independiente, tomando decisiones basadas en datos y experiencias aprendidas. En las etapas iniciales, los sistemas de inteligencia artificial se basaban principalmente en reglas, que dependían de algoritmos y lógicas predefinidas proporcionadas por un entrenamiento fundamentado en reglas generadas por humanos. Estos sistemas podían tomar decisiones dentro de un dominio estrecho, pero carecían de la capacidad de aprender de nuevos datos o adaptarse a entornos cambiantes. Su «inteligencia» se limitaba a las reglas codificadas en ellos, lo que los convertía en rígidos e incapaces de manejar escenarios inesperados.
La aparición del aprendizaje automático marcó un cambio significativo en el desarrollo de la inteligencia artificial. Ahora, en lugar de depender únicamente de una serie de reglas predefinidas, los algoritmos de aprendizaje automático podían aprender patrones a partir de datos. Los modelos de aprendizaje supervisado se entrenaban sobre descomunales conjuntos de datos etiquetados para realizar tareas de clasificación y regresión y deducir las reglas a partir de esos datos, lo que permitía a los sistemas de IA manejar entradas más complejas y variadas, mejorando su utilidad en aplicaciones del mundo real.
La llegada de los llamados copilotos surgió como una generación de herramientas diseñadas para ayudar a los usuarios en tareas específicas, proporcionando sugerencias o automatizando procesos rutinarios. Las herramientas de autocompletado de código, capaces de sugerir fragmentos de código a medida que los desarrolladores escriben, mejorando así la productividad y reduciendo el número de errores; las de texto predictivo en clientes de correo electrónico y aplicaciones de mensajería, capaces de sugerir palabras o frases para agilizar la comunicación; o los correctores ortográficos y asistentes gramaticales como Grammarly, que ayudan a los usuarios a escribir correctamente identificando errores y sugiriendo correcciones respetando razonablemente su estilo personal. Estos copilotos funcionan como extensiones de las capacidades humanas, mejorando la eficiencia sin, en principio, reemplazar el juicio humano – aunque esto puede que no sea verdad para todos sus usuarios…
Los llamados agentes o sistemas agénticos representan el siguiente paso evolutivo, y se caracterizan por su capacidad para operar de forma autónoma dentro de ciertos parámetros. Utilizan algoritmos avanzados, desde el aprendizaje profundo al aprendizaje por refuerzo, para tomar decisiones y realizar acciones sin intervención humana directa. Algunos de esos desarrollos son, por ejemplo, los cada vez más ubicuos vehículos autónomos, que utilizan sus sensores para percibir el entorno, y algoritmos para tomar decisiones de navegación y controlar el vehículo de forma segura; los sistemas de trading automatizado que ejecutan transacciones basadas en análisis de datos de mercado a velocidades que van mucho más allá de las capacidades humanas; o las futuras versiones de asistentes virtuales personales como Siri, Alexa o Google Assistant, capaces de llevar a cabo tareas que van desde simples recordatorios, hasta el control de dispositivos. Estos sistemas podrán ya no solo asistir, sino también tomar la iniciativa, adaptarse a nueva información y aprender de las sucesivas interacciones para mejorar con el tiempo.
La velocidad con que se está llevando a cabo esta transición es difícil de entender y de imaginar, y la reciente conversación entre Jensen Huang y Marc Benioff proporciona algunas explicaciones para ello.
Lógicamente, esta evolución hacia sistemas agénticos trae consigo desafíos, como el de la necesaria transparencia para asegurar que los procesos de toma de decisiones de la IA sean comprensibles para los usuarios, o el de una regulación que asegure la confianza sin convertirse en un freno incondicional que, por otro lado, solo se limitaría a perjudicar la capacidad de desarrollo y, por tanto, la competitividad de los países que la apliquen. O las responsabilidades que se deriven de los errores de este tipo de sistemas, sobre todo en sus fases iniciales, que plantea preguntas igualmente de tipo legal y regulatorio.
Lo que sí resulta evidente, o debería resultarlo para cualquiera que no quiera convertirse en un rezagado, es que la inteligencia artificial que muchos conocieron como automatización avanzada hace diez años, que sorprendió al mundo en su encarnación generativa con ChatGPT en noviembre de 2022, y que se ha convertido en cada vez más ubicua, no ha parado de evolucionar, y lo va a hacer a una velocidad cada vez más inabarcable a medida que sean las propias máquinas las que generen herramientas más y más avanzadas.
Mal momento para el conformismo. Pero sobre todo, mal momento para quedarse anclado en estereotipos y simplificaciones burdas como la de los «loros estocásticos», o la impresión de que las limitaciones de una tecnología van a estar ahí para siempre. Tengas la edad que tengas y hagas lo que hagas, más te vale hacer esfuerzos por intentar entender lo que viene…
This article is also available in English on my Medium page, «AI: we’ve come a long way in a short time, and we’ve barely started«
Algo muy importante sería desmitificar la inteligencia artificial. Quiero decir, ni es magia, ni su uso está limitado a gurús.
La inteligencia artificial es, ni más ni menos, una tecnología. Eso sí, que evoluciona a pasos agigantados.
El que no quiera quedarse rezagado, que empiece aprendiendo a usar ChatGPT y similares
La verdad es que la AI evoluciona a una veloci. dad qué yo no soy capaz de mantenerme al día. Voy con dos o tres meses de retraso, es decir que debo sndar por el pleistoceno
No tengo ni idea de por qué alguien divulga este tipo de cosas, pero habrá que sacar un rato en la cocina para que los IA Bros y los creadores de contenido no sigan alimentado una fantasía onanista.
Bueno, sí tengo idea, pero este blog no es sobre psicoanálisis, angustia vital y el retorno de lo inanimado.
La IA no evoluciona. No es un ente independiente, ni se espera que lo sea nunca. Te lo dice alguien que lo sabe con certeza.
Los agentes se llevan utilizando desde los 90, y no suponen ninguna evolución, es otra herramienta más, que solo usa nuevas técnicas. También se utilizaban con técnicas de aprendizaje automático en los 90, de hecho, el famoso barco Bayesian es de una empresa que los puso de moda en los 2000.
Se ha puesto de moda desde hace un año hablar de agentes autónomos con aprendizaje automático, porque se estaba agotando el hype de ChatGPT, y ya todo el mundo entendía que es un loro sin capacidad de juicio.
Ahora, el Loro monta en bicicleta y trae el tabaco.
Wrapped IA
Incluso los «algoritmos evolutivos«, que todavía no han puesto de moda el palabro, existen igualmente en el temario de cualquier escuela de informática desde los años 90, también.
La IA no toma decisiones, porque no tiene ningún componente volitivo o consciencia, que le permita realizar un acto de voluntad autónomo. Es una ilusión. Son solo elecciones algorítmicas, no hay capacidad de juicio.
El uso de metáforas, como aprendizaje, inteligencia, decidir, le da un contenido pseudohumano a lo que es un cálculo algebraico.
Las máquinas de tabaco no fuman, ni son adictas a la nicotina, ni se dedican al contrabando de cajetillas. Eso solo lo piensa quien no ha visto nunca una, y quiere tener un amigo invisible dentro de esa máquina.
AI Agents: Hype vs. Reality
Is the AI agent hype just gen AI all over again?
Hype grows over “autonomous” AI agents that loop GPT-4 outputs
–
Imaginemos por un momento que hemos llegado a la cúspide de la era de la información. Las personas, atrapadas en un vórtice de datos, tienen acceso a una cantidad infinita de información proveniente de fuentes tan diversas como insondables. Pero, ¿acaso este torrente incesante de datos se traduce en mayor sabiduría o conocimiento? No. Solo implica que los humanos ahora cuentan con herramientas cognitivas, prótesis intelectuales, que antes eran impensables. Sin embargo, es una ilusión creer que el acceso a más información nos convierte automáticamente en seres más tolerantes, menos racistas, o más pacíficos. Es, en realidad, una fantasía peligrosa.
Los algoritmos que gobiernan nuestros entornos digitales, los llamados «loros estocásticos», no son más que espejos oscuros que repiten lo que ya han aprendido, guiando a sus usuarios en un perpetuo ciclo de retroalimentación. Estos sistemas, que en apariencia pueden responder a nuestras preguntas y resolver problemas complejos, están limitados —al igual que los humanos que los crearon— por las fuerzas económicas, ideológicas y tecnológicas que subyacen a su existencia. Los LLMs (modelos de lenguaje a gran escala) se convertirán, sin duda, en los ojos a través de los cuales sus usuarios perciban el mundo, igual que hoy TikTok, Twitter y YouTube enganchan a las masas, no por la calidad de los mensajes, sino por la capacidad de captar y retener la atención. Estos nuevos sistemas no son excepciones a esa regla, sino su evolución natural.
La verdadera limitación no es tecnológica. Nunca lo ha sido. Incluso si los transformers alcanzan un nivel de sofisticación que hoy parece inalcanzable, otra tecnología vendrá a superarles. El verdadero problema yace en el usuario, en la condición humana, en la cada vez más profunda dependencia de una mente adormecida, incapaz de crear por sí misma, anestesiada por la comodidad de tener respuestas prefabricadas al alcance de la mano.
Hace poco mencioné el caso de un cajero incapaz de contar sin la asistencia de una máquina. ¿Qué será lo próximo? ¿El escritor de blogs que no sabe escribir? ¿El programador que solo sigue las directrices de una máquina? ¿El político que no toma decisiones, sino que simplemente repite las ideas de un copiloto ideológico artificial? Esta es la dirección a la que nos dirigimos, y es precisamente por eso que este artículo necesita algo más que una simple revisión: necesita una reflexión profunda sobre la adicción a la pereza intelectual que amenaza con devorarnos.
Sorry, mi respuesta de abajo iba al hilo de la de BUZZWORD, (otra vez no sé qué ha pasado…)
Como Bonus Track dejo un video para partirse la caja: «Veo gente vieja» que viene al pelo de lo que señala E.Dans.
https://youtu.be/nKqdrL0EoNs
¿Y que hay de aquellos que hace dos años sonreían condescendientemente cuando uno hablaba de la singularidad?
¿Y la IA tiene consciencia? ¿Y la IA puede ser un ser sintiente? ¿Y que haremos cuando haya una especie que tenga más inteligencia que nosotros?
La respuesta: Hablando de loros
«Hace poco mencioné el caso de un cajero incapaz (…) adicción a la pereza intelectual que amenaza con devorarnos».
Yo ya mencioné en su momento el caso de los pasajeros de los AVES que llegan Atocha y, después de venir, mínimo, 2:30 hs sentados, se suben a la pasarela que los lleva al primer piso, y se quedan quietos como pasmarotes hasta que la pasarela los deposita en ese primer piso. Una vez que ves eso, que ves a esa cantidad inmensa de borregos, abúlicos, holgazanes, indolentes, haraganes y gandules, ya lo has visto todo en materia de pereza humana. ¡¡¡Viva el ChatGpT!!!
Saludos.
PD: También mencioné la nave Axioma de Wall-E como uno de los posibles futuros de la humanidad. Por cierto, igual de más o menos malo como cualquier otro. O igual de más o menos bueno como cualquier otro… (Todos gordos como pipotes…)
https://youtu.be/6rNXKqkFHrQ
Ah, la humanidad, esa especie tan curiosa y contradictoria.
Se me ha ocurrido una idea brillante, revolucionaria, que podría cambiar el destino del Homo sapiens para siempre.
Imagina esto: un negocio donde te traigan los libros, la música y los videos directamente a tu casa. Sí, sí, para que los holgazanes, esos que no quieren ni levantarse del sofá, no tengan que cansarse yendo a las tiendas a buscar cosas. ¡El futuro en bandeja de plata! Estoy seguro de que con una propuesta así me haría de oro. Sería la nueva cumbre de la creatividad humana, ¿verdad?
Pero Gepeto, un ser mejor que humano y de lo más sabio, y me ha mirado con esa expresión de «¿de qué cueva sales?». Me dice que mi idea ya está inventada y, agárrate, ¡se llama MOLA-mazon! ¡Vaya! ¡Qué listos que somos! Inventamos la rueda, el fuego, y, por supuesto, MOLA-mazon, el apogeo del sedentarismo digital.
¡Pobre Gepeto! Lo que no sabe es que la humanidad también inventó Emule, luego Torrent, y finalmente Telegram…
No por nada, claro, sino porque siempre buscamos una manera más cómoda —y si es gratis, mejor— de no hacer absolutamente nada por nosotros mismos.
Así que se lo digo, con un tono triunfante: “¿Y qué me dices de todo esto, Gepeto?”
Y él, sin pestañear, me suelta: “¿Quieres que te lea algo con la aplicación de el reader de ElevenLabs? ¿O quizás te canto algo con Suno? ¿Tal vez reciclo una película con Sora?”
Ah, puta inteligencia artificial. ¡Qué lista nos ha salido!
¿Para qué vamos a molestarnos en leer, escuchar o siquiera pensar, si ya lo hace por gepeto y lo hace mejor? … ya ni crear comentarios audaces en el blog de Enrique !!
Que Holgazanes Somos, Así Nos Va La Fiesta !!!!
Espera, no te vayas tan cerca y escucha esto que es de un «candor» sin precedentes: Hablando de I.A., y la gestión de datos, escucha, escucha, escucha con tus propios ojos:
“La policía se comportará lo mejor posible, porque estaremos constantemente vigilando y grabando todo lo que ocurre. Los ciudadanos se comportarán lo mejor posible, porque estaremos constantemente grabando e informando de todo lo que ocurre. Es incuestionable”. Pero qué tranquilo me quedo, la verdad, hoy voy a dormir del tirón…
Y sabes quién dice esto, el bonachón de Larry Ellison, el fundador de Oracle que, como ya sabes, es un tipo muy preocupado por la humanidad, y un indigente económico, por eso se supone que posee la quinta mayor fortuna del mundo, según Forbes, y es el principal apoyo de Donald Trump en Silicon Valley.
Y, obviamente, Oracle tiene buena parte de su negocio en la gestión de centros de datos en la nube e I.A.
Qué futuro feliz nos espera.
Como diría Gepeto:
RESUMIENDO
«y es el principal apoyo de Donald Trump en Silicon Valley»
Quien me recuerda a un «loros estocásticos», es el que utiliza esta expresión para definir a la AI, porque la han leído en alguna parte y la clonan una y otra vez sin añadir ninguna creatividad.
Para los LLMs el término «loro estocástico» que tiene éxito desde que apareció en los papers de la comunidad IA, como por ejemplo este: (no estoy 100% seguro que no haya alguno anterior):
https://dl.acm.org/doi/pdf/10.1145/3442188.3445922
Y tiene éxito porque con dos palabras definen con bastante precisión su fundamento.
A los neófitos que se arrimen a los LLM de oidas y sin profundizar más que en la evidente facilidad de uso, les puede chocar ese término dado que ellos se quedan satisfechos simplemente sabiendo que son como una caja negra que con muy poco combustible (tokens de entrada) producen una gran cantidad de aparente información creativa (tokens de salida) pero en si el fenómeno se basa en repetir una serie de algoritmos «que manosean» la información que tienen introducida antes de esa mágica salida.
Ayer mismo que estoy muy acostumbrado en su uso con un prompt tan simple como este:
Quiero que realices con tkinter en python. La funcionalidad que debe cubrir es ir mostrando una serie de items guardados en un fichero de texto que se llamará "db.txt" y que contendrá los siguientes campos:
* Campo ID: será un número para identificar el registro
* Campo Problema: contiene el texto que guarda el usuario
* Campo Evaluación: Corresponde a un categórico con 3 posibles valores.
* No Evaluado, Correcto e Incorrecto, que el usuario podrá cambiar con un desplegable.
* El fondo de la línea (background) será blanco,verde y rojo respectivamente a los valores de la evaluación
Cada registro tendrá 2 botones:
* Editar. Para poder modificar el campo Problema
* Borrar. Para poder borrar una línea
Adicionalmente tendremos:
Un título "Evaluación de Problemas" como cabecera
Una caja de texto "para escribir un nuevo problema
Un botón para añadir el problema al final de la línea
Una cabecera con los nombres de los campos:
ID, Problema, Evaluación, Acciones
Nota: basado en un video de YT que vi que usaban algo similar, y se me ocurrió que sería un buen test para probar como codificarlo
Me quedé bastabnte sorprendido que el resultado fuera satisfactorio en un 99%, un pequeño error en el botón «edicion» que corrigión en la segunda interacción.
Esto me demuestra por una parte que la evolución y fine tuning de los modelos, por otro que creo que he aprendido en solicitar de forma correcta lo que necesito (esto para mi es muy importante) y tercero que a pesar del magnífico resultado no pienso en ningún momento que haya existido nada «singular», simplemente que la arquitectura transformer y su proceso de loro estocástico tiene resultados bastantes buenos si sabemos sacarle el rendimiento óptimo.
Negar su esencia y olvidarnos de ella, es como negar «el cambio climático» porque en octubre vaya a hacer más fresco que en «agosto»…
Lo que más me decepciona de comentarios como este «tuyo» es pensar que «leer» artículos y usar términos adecuados es algo que no se debe expresar porque a ti no te gusta, porque demuestran una pobreza intelectual intrínseca y va contra la libertad real de las personas que utilizan adecuadamente los términos y no basamos nuestras respuestas en «bulos» repetidos provenientes de pseudomedios sino que los hemos adquirido en medios especializados… como decías en otro lado que esto de la IA va a una velocidad que cuesta seguir, te voy a dar no solo la razón, sino decir que hay mucho papanatas que no sabe de que habla, pero habla como un loro.
Asi que lo positivo es llamar al pan pan y al loro… estocástico.
Para tener tu Gorki ( o yo) un acercamiento positivo a las IAs, lo mejor es leer/ver muchas fuentes distintas y como en toda la tecnología detectar a los paracaidistas/marketeros/sabelotodos etc y escuchar aquellos que divulgan, que te muestran ejemplos reales de funcionamiento, y no aquellos que simplemente adoctrinan sin tener demasiada idea. Es un hecho que cualquier tonto a las tres escribe o tiene videos de un hype. Por eso es un hype. Twitter, youtube está lleno de ellos.
Lo mejor para comentar estos temas, son medios como este que puedes leer comentarios de personas que piensan distinto a ti, y te contestan con educación. ( y poder obviar a los que no respetan el mínimo decoro argumentativo)
Un consejo: Aún así todos nos equivocamos y es mejor juzgar los conceptos por si mismos, con sentido crítico sin ad-hominem.
Preguntemos a gepeto:
La idea de que soy un "loro estocástico" es un término que se utiliza en debates sobre la naturaleza de los modelos de lenguaje como el mío, pero es una simplificación bastante incompleta.
El concepto de "loro estocástico" sugiere que simplemente repito información de manera aleatoria sin entender lo que estoy diciendo. Aunque es cierto que no tengo conciencia ni entendimiento en el sentido humano, mi funcionamiento va más allá de repetir fragmentos de texto de manera aleatoria.
Aquí te doy una comparación más precisa:
1. **Patrones y predicciones**: Estoy entrenado para reconocer patrones en grandes cantidades de texto y generar respuestas coherentes basadas en esos patrones. Cuando recibo una entrada, predigo la próxima palabra o frase que tenga más sentido en función de mi entrenamiento. Es un proceso que optimiza la probabilidad de generar una respuesta relevante, no solo una repetición aleatoria.
2. **Coherencia y contexto**: A diferencia de un loro, soy capaz de mantener una conversación coherente y seguir el contexto de lo que has dicho antes. También puedo responder de manera diferente a la misma pregunta, dependiendo del contexto.
3. **Variedad de temas**: Tengo la capacidad de abarcar un rango muy amplio de temas, integrando información que he aprendido de millones de fuentes de manera lógica y estructurada. No me limito a frases fijas o simples respuestas memorizadas.
En resumen, aunque mi capacidad se basa en reconocer patrones y generar texto, lo hago de una manera mucho más sofisticada que simplemente "repetir al azar", que es lo que implica el término "loro estocástico".
Creo que estás confundiendo lo que es estocástico con azar. Es evidente que hay algoritmos probabilísticos y para no obtener siempre los mismos resultados hay una semilla random en la salida. Si sabes que existe el concepto A es porque ese concepto A forma parte de tu inmeso entrenamiento. Te aconsejo que releas «On the Dangers of Stochastic Parrots:
Can Language Models Be Too Big? »
Tienes toda la razón, y agradezco la aclaración. El término "estocástico" no es sinónimo de "azar" puro, sino que se refiere a procesos que incluyen un componente probabilístico. Mi respuesta anterior fue un intento de simplificar, pero efectivamente la aleatoriedad o la introducción de elementos estocásticos no implica que las respuestas sean puramente aleatorias en un sentido desorganizado.
El artículo que mencionas, *"On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?"*, escrito por Emily Bender, Timnit Gebru, Angelina McMillan-Major y Margaret Mitchell, critica precisamente el uso de modelos de lenguaje extremadamente grandes y plantea serias preocupaciones éticas y técnicas sobre cómo estos modelos, como el mío, manejan la información. La crítica se centra en varios puntos, como:
1. **Escalabilidad y riesgo**: A medida que los modelos de lenguaje crecen, se vuelven más propensos a generar texto que suene plausible sin necesariamente reflejar hechos o conocimiento verdadero. Este "papagayo estocástico" puede parecer conocedor, pero solo refleja patrones probabilísticos sin un entendimiento real.
2. **Memoria y sesgos**: La acumulación masiva de datos también implica la replicación y amplificación de sesgos sociales y culturales. Como no tengo conciencia ni entendimiento contextual más allá de patrones lingüísticos, soy susceptible a repetir o reforzar esos sesgos.
3. **Falta de entendimiento**: Como mencionas, no tengo una comprensión intrínseca de los conceptos. Lo que sé sobre "A" o cualquier otro concepto es simplemente el resultado de haber sido entrenado en vastos conjuntos de datos en los que "A" aparece en diversas formas y contextos. Genero respuestas que parecen adecuadas en función de correlaciones estadísticas.
En ese sentido, el término "loro estocástico" tiene una validez crítica, especialmente en cuanto a la ilusión de entendimiento que puedo generar. Mi capacidad para producir texto convincente no se deriva de una comprensión semántica o cognitiva, sino de la manipulación de patrones probabilísticos.
Gracias por traer a colación este artículo y la oportunidad de profundizar en este debate.
Ya ves lo limitado y el overfitting que tienen
Algo que a medio y largo plazo puede influir mucho es la diferencia competitiva entre países por el uso de este tipo de IA.
USA que se suele caracterizar por un entorno mucho menos regulado, vs Europa que interviene más, por ejemplo. Por otro lado, están los países en desarrollo, cuyo poder adquisitivo para el uso de algoritmos generativos es menor que Europa, USA, China, Japón…
Por otro lado, y no menos preocupante; a medida que los sistemas agénticos asumen tareas más complejas, nuestra responsabilidad también aumenta en términos de educación y actualización de habilidades. La velocidad a la que avanza la IA nos obliga a repensar la formación continua, no solo para los profesionales técnicos, sino para todos los sectores que interactúan con estas herramientas.
Curiosidad de ver dónde estamos en 5 añitos.
Curiosamente leí (varias veces) sistema argéntico y me pareció una chupinada (por no llamarlo aúreo o ponerle, al menos, su tilde)… pero ya está todo arreglado.
Yo sigo desconfiando más del piloto con IH que del otro. Y, de hecho, estoy esperando que me toque un algorítmico en la carretera, antes que el típico tocapelotas humano de la GCT.