La carrera entre Microsoft y Google para tratar de hacerse con el control de la explotación de asistentes conversacionales de búsqueda alimentados mediante modelos masivos de lenguaje, o large language models, está dejando conclusiones mucho más relevantes que la simple evidencia de una compañía que está sabiendo aprovechar su momento y su oportunidad frente a otra que se dedica a correr y a actuar en modo pánico como pollo sin cabeza.
La primera de ellas es muy clara: por impresionante que parezca el «nuevo Bing» lanzado por Microsoft, es evidente que estamos hablando de un uso que no era aquel para el que esta tecnología estaba planteada. Errores extrañísimos, dilemas éticos, secretos insondables y todo tipo de anécdotas revelan claramente que ChatGPT era ni más ni menos que una tecnología destinada a «parecer humano», a ser capaz de mantener una conversación a partir de un algoritmo pre-entrenado mediante una ingente base de datos, pero no un recurso pensando para generar respuestas de calidad, decir la verdad o proporcionar respuestas razonables. El hecho de que ChatGPT genere en muchos casos respuestas de una calidad aparentemente adecuada o que incluso sea capaz de responder con la precisión adecuada como para pasar determinados exámenes no implica demasiado cuando, en la práctica, nos estamos encomendando a un modelo matemático – en absoluto a una «inteligencia» como tal – que ensambla y redacta documentos a partir de determinadas fuentes y que, desgraciadamente, muchos usuarios van a tomarse como si fuera algo escrito por algún tipo de oráculo divino.
El problema de lanzarse a una loca carrera en torno a la incorporación de modelos masivos de lenguaje a la búsqueda, a la ofimática o a mil cosas más es partir de una base errónea: por culpa de la desenfrenada ambición de OpenAI, ahora resulta que se ha «oficializado» el mensaje de que podemos contar con un «super-asistente» capaz de proporcionarnos respuestas sobre «absolutamente todo», así le preguntes sobre matemáticas, programación o filosofía budista. Y la realidad es que lo que hace ese modelo es lo que hemos dicho: ensamblar una colección de documentos de una base de datos en función de una pretendida relevancia, y re-redactarlos para parecer humano. Eso es todo. Impresionante, sí, pero eso es todo.
Esto genera, como tal, varios problemas: el primero y más evidente puede ser el de la fiabilidad y el de sus implicaciones para el uso y desarrollo del pensamiento crítico. Pero más allá de eso, deberíamos plantearnos los efectos de esta carrera sobre el panorama competitivo: si pretendemos que exista un «super-modelo» capaz de responder a todo, estamos planteando un reto que, muy posiblemente, solo compañías enormes con recursos cuasi-ilimitados como Microsoft o Google pueden afrontar, y que, por tanto, polariza la competencia en torno a esa escala, con todo lo que ello conlleva. Si focalizamos la competencia en «modelos que sirven para todo», estamos dando a las big tech las llaves para que pretendan que dominan la próxima generación de herramientas, sin pararnos a pensar que, a lo mejor, podríamos construir las nuestras y podrían, incluso, ser mejores.
La realidad es que, muy posiblemente, estaríamos mucho mejor como sociedad planteando la aplicación de modelos masivos de lenguaje – o de machine learning en general – a casos mucho más pequeños, menos ambiciosos, pre-entrenados con datos de un ámbito muy concreto o muy especializado, con un control total de sus fuentes para evitar que utilicen mucha de la basura que hay en internet, y con capacidad para entender qué es lo que realmente están generando. Eliminar las presiones del tipo «tienes que parecer humano» y «tienes que contestar a absolutamente todo» generaría un desarrollo mucho más sano, razonable y, sobre todo, orientado al progreso real, y no al marketing barato de «tengo un buscador que te contesta a cualquier pregunta».
El salto conceptual que supone pasar de años de desarrollo de modelos de machine learning capaces de llevar a cabo tareas de automatización y predicción muy sofisticadas y con gran calidad, a modelos que simplemente «responden lo que sea para parecer humanos» es muy preocupante, y es casi como pasar de la ciencia rigurosa al simple entretenimiento. La realidad es que, más que dedicarnos todos a jugar con ChatGPT como si no hubiera un mañana y a creer que va a resolvernos la vida o a quitarnos el trabajo, deberíamos estar utilizando el machine learning para crear y alimentar nuestros propios modelos masivos de lenguaje, nuestros propios asistentes, nuestros propios procesos de automatización avanzada, sin dejarlo todo al albur de lo que compañías big tech como Microsoft, Google – o Baidu, o JD.com, o las que vengan – tengan a bien entregarnos.
Quora, por ejemplo ha creado su propio modelo masivo de lenguaje, Poe, a partir de su enorme base de datos de preguntas y respuestas. ¿Qué podría hacer yo con casi diez mil artículos de tecnología escritos durante casi veinte años? ¿O el IE con toda la producción de sus profesores? ¿O la Biblioteca Nacional con toda su base de datos de libros digitalizados? ¿O muchas compañías con sus knowledge bases correctamente alimentadas? ¿Es adecuada la premisa de tratar de construir un «respondelotodo» a partir de fuentes en internet? Y por cierto… ¿qué fuentes, seleccionadas por quién y con qué criterios?
En la práctica, estamos alimentando un hype salvaje que sirve para que nVidia se vuelva loca vendiendo GPUs, para que el consumo energético de las búsquedas se dispare, y para alimentar de nuevo una competencia en la que solo las big tech parecen poder pagar el ticket de acceso, en lugar de centrarnos en objetivos mucho más razonables y con mucho más sentido.
¿No debería estar la atención centrada en cómo construir, alimentar, entrenar y poner en valor nuestros propios modelos masivos de lenguaje – y otros muchos algoritmos con aplicaciones más versátiles – en lugar de dedicarnos simplemente a aplaudir como meros espectadores cuando Microsoft, Google o la big tech de turno afirma haber creado «la enésima maravilla que lo responde absolutamente todo y nos deja pasmados por lo humano que parece»? ¿No estamos cambiando hype por ciencia, o perdiendo la oportunidad de crear verdadero valor añadido especializado y sujeto a un control mucho más razonable?
This post is also available in English on my Medium page, «Here’s a question for ChatGPT: why should Big Tech control conversational search assistants?»
Realmente no se si tu crítica es contra que se invente un «asistente AI» o contra las chapuzas que cometen los actuales asistentes AI.
En el primer caso no entiendo que siendo un ferviente admirador y asiduo utilizador de asistentes tipo Siri y Alexa, cuya utilidad se reduce a encender la luz , bajar la música o subir una persiana, estés en contra de un asistentes que sea capaz de informarte de los vuelos el jueves por la tarde a Chicago o la receta celíaca de las albóndigas en salsa roja,
En el segundo caso, pues de acuerdo han sacado un programa en versión beta , (no son los primeros), pero están en la pista de sacar un producto terminado y operativo,
¿Ta acuerdas como funcionaban los traductores hace solo cinco años?. ¿Te acuerdas de las pantallas azules de Windows?, ¿Te acuerdas lo que era cambiar cualquier cosa en un fotografía con Photoshop?Todo eso pocos años después, es historia.
Supongamos que estamos en el año 2028 y que no una, sino varias IA han alcanzado la capacidad de contestar a cualquier pregunta correctamente, en virtud de lo que pueden extractar de Internet. ¿Es o no es un avance monumental?
Negar lo evidente: ChatGPT ha sido disruptivo y está forzando al resto a mejorar. Centrar el debate en la fiabilidad o en el echo que sus respuestas parezcan más o menos humanas es el gran error. Si has probado a fondo ChatGPT te das cuenta que la calidad de sus respuestas es proporcional a la calidad de la pregunta que le haces o la información que le das. Coincido con Gorki, cómo el resto de avances que se han producido a nivel digital, habrá que valorar la importancia o no de que esta simple versión beta haya llegado en pocos días a 100 millones de usuarios, ¿simple curiosidad? ¿buena campaña de marketing? Veremos…
Dice la sabiduría castrense: No hay plan que sobreviva al contacto con el enemigo.
Sin negar el hecho de que como profesor tienes el derecho (y el background necesario) para plantear estas situaciones, pero no veo yo todavía donde está el problema…
Todavía estamos «tosiendo» y esperando a que el polvo de la «explosión» que acaba de ocurrir se asiente, para empezar a ver las secuelas de esto que acaba de pasar.
Y seamos honestos, a vuelo de pájaro (y siendo muy optimistas) calculo que el 92% de la población no tiene ni la más puta idea de que carajos es ChatGPT, ni Bard. ni OpenAI, ni nada…
Desde mi absoluta ignorancia, creo que la solución está al alcance de la mano y es Open Source:
https://open-assistant.io/es
Coordinada por el grupo LEON, buscan crear una chatbot conversacional como Bing Chat o ChatGPT que sea de libre acceso, entrenado por y para la comunidad.
El principal problema que tienen es que no cuentan con una receta para poder hacer un modelo similar a ChatGPT.
Es decir, necesitan entrenar a la inteligencia artificial para que entienda, por un lado, lo que sería la interacción normal de diálogo entre un usuario que plantea una duda, y lo que el asistente tendría que responder.
Y por otro lado también un sistema que aprenda a evaluar. Y es en este punto donde se encuentra actualmente el proyecto de Open Assistant, y la buena noticia es que no hacen falta tanto datos.
Han estimado que con 50.000 muestras ya sería suficiente para poder empezar a entrenar un sistema de este tipo.
Básicamente, lo que le piden a la comunidad es que van a distribuir diferentes tareas:
– Contestar como asistente
– Clasificar respuestas
– Clasificar instrucciones iniciales
– Clasificar respuestas del asistente
-etc…
Y aquí viene lo interesante para aquellos que quieran empezar a ejercitar su pensamiento crítico: esas colaboraciones se etiquetarán para «calificar» cada colaboración:
el prompt es de buena calidad (o no lo es), el prompt es original (o no), el prompt es agresivo (o hace daño, o es violento) … etc…
¿Qué a alguien le da pereza ejercitar su pensamiento crítico ayudando a mejorar las respuestas y valorar las instrucciones? Pues, ahí está Tik Tok hombre, que te aproveche…
¿Que peco de excesivo optimismo y que la gran mayoría de la gente ni se molestará? Desde mi sesgado optimismo, puede ser, pero nadie tendrá el derecho a decir: «no tuve oportunidad». Y hablo de aquella gente que tiene al alcance de su mano el poder hacerlo: vivienda, trabajo, alimentación, etc…
El resto (muchísimos más) tienen problemas más importantes que necesitan ser resueltos.
Creo que respondí la pregunta en el párrafo de arriba.
Mi respuesta es que, aparentemente, hay esperanzas, y por suerte ya empezó a inclinarse la balanza… ojalá que el «momentum» se mantenga…
Saludos!
El problema es la inversión. Y por ahora es prohibitiva. Hay dos aproximaciones más baratas. Le Edge y la de que se centra en lo avanzado en Sistemas abiertos.
Yo soy de los que no entiendo tanto hype con el chatGPT.
Si quiero que me contesten cualquier pregunta, sobre cualquier tema, sin indicar de donde saca su opinión y con más fallos que aciertos ya le pregunto a mi cuñado que siempre tiene respuesta para todo.
Miedo me da que MS Word corrija usando chatGPT ya que estropeará más que arreglará los textos visto como escribimos en Internet.
¿Y no te parece maravilloso tener a mano un «cuñado» para preguntarle lo que quieras y que te de respuestas correctas el 90% de las veces y que si no le preguntas, mantenga la boca cerrada?.
Buenísimo
“No necesito ChatGPT,
mi mujer lo sabe todo”
La frase de esa camiseta era con la palabra “Google”
Un ejemplo de la línea propuesta por Enrique puede verse aquí: https://blog.zoom.us/meet-zoom-virtual-agent/
Pretender que una IA, o cualquier tipo de tecnología sea 100 % fiable independiente del campo a que se dedique, es intentar poner palos a la rueda.
Los seres humanos, no somos lo que estamos exigiendo a la tecnología.
Las medicinas en las que tanto confiamos, salen al mercado con un índice no muy alto de ser realmente efectivas.
CHAP- GPT , claro que falla, pero imaginemos esta tecnología dentro de 10 años? Asusta, eh?
Como dice GORKI, si echamos la vista a hace diez años y nos acordamos de como convivíamos con tecnología que fallaba y vemos ahora como ha mejorado, porqué asusta tanto CHAP-GPT.
Es porque puede influir en nuestras decisiones o conocimiento? Acaso no hay millones de paginas que ya hacen eso y en las que confiamos?.
Lo que aparece en un libro no tiene porque ser más cierto de lo que nos diga una IA.
El problema quizás es que estamos matando la búsqueda del conocimiento, eso que lleva tiempo y preferimos lo rápido y corto (no tengamos que pensar o leer demasiado) y por su puesto que confirme lo que queremos que nos confirme.
Nadie pretende que el sistema sea perfecto a la primera pero nadie puede negar el impresionante salto de GPT3, y si su sucesor ya dicen que va a ser mucho mejor y lo hará previsiblemente antes de un año desde el primer modelo, vemos que entramos en una era de aceleración exponencial de la AI.
Pero es que además las futuras actualizaciones contarán ya con la incorporación de la misma AI para mejorar el proceso de actualizaciones.
Aunque yo pensaba que Google tardaba en sacar su AI por que iba en contra de su rentabilidad, ahora tengo dudas.
Resulta que Chat GPT3 tiene un monton de fallos e imprecisiones y nadie lo tiene en cuenta y lo alaban sin cesar, pero va Google y en su presentación su AI comete un fallo minúsculo y Google pierde el 10 % de su capital.
Por cierto Enrique , he hechado cuentas; si los 10.000 articulos que has escrito tuvieran una extensión media como este, me salen exactamente 14 Quijotes. No está mal.
Google se merece haber perdido esa cantidad. El propio Sam Altman se quejó de que Google quería hacer un producto «perfecto», y lo tomaban con calma y ahora, esa calma los está llevando torno a su propia perdición. Ni siquiera pusieron interés en LamDA más que verlo como un desarrollo experimental. Ahora quieren que sea su salvación.
Leo bastante este blog en ocasiones estoy de acuerdo y en otras no…, la de hoy es una entrada algo rara desde mi punto de vista…, alguien que habla de tecnología critica un modelo del lenguaje que acaba de nacer y le exige que no se equivoque…, que es como llamarle fracasado antes de nacer…, estoy seguro que en cinco años contestará cualquier pregunta mejor que cualquier buscador actual, por cierto…, cualquier buscador actual contesta con más de un 40% de entradas erroneas y parte del resto son entradas publicitarias
Que sobervio es el ser humano…, que te hace pensar que te equivocas menos que chatGPT…, puede ser que lo dicho en esta entrada sea un completo error dentro de cinco años
chatGPT no te hubiese llamado fracasado ;-)
Pues vuelve a leer, porque no te has enterado de nada de lo que quería decir. Debo haber estado muy espeso hoy.
Hablas como si desconocieras las iniciativas existentes para crear modelos tipo chatGPT pero open source… Igual que pasó con Dalle2 y stable diffusion, la comunidad de Open AI está generando (estamos, porque está abierta a todo el que quiera apuntarse) modelos para que cualquiera pueda utilizarlos para lo que necesite… Haciendo fine tuning de todos tus articulos, datos o lo que creas conveniente
https://open-assistant.io/es/dashboard
Yo creo que la importancia de ChatGPT está en ser una especie de «juguete» que demuestra todo lo que se puede llegar a hacer.
Hemos vivido toda la vida adorando a la Encyclopædia Britannica porque re tenia respuesta de todo y estaba plagada de inexactitudes, ¿Por qué nos da miedo que chapGPT falle de vez en cuando?
Me asombra que enrique Dans que es profesor de tecnología y siempre se ha mostrado partidario de aplicar la AI a los negocios diga cosas tan negativas a un producto que todos vemos como disrruptor, (palabra que aprendí en este blog).
Dice «es evidente que estamos hablando de un uso que no era aquel para el que esta tecnología estaba planteada.» y yo me pregunto si no se invento para contestar a un humano sobre cualquier tema ¿Para qué lo inventaron?»- Porque otro uso de este producto no se me ocurre.
Y dice no gustarlo porque en la práctica, nos estamos encomendando a un modelo matemático – en absoluto a una «inteligencia» como tal – que ensambla y redacta documentos a partir de determinadas fuentes. Pero señor, si eso es el principio de la «Machine Learning», que todos consideramos la forma mas perfecta de entrenar a la AI
Sinceramente no lo entiendo. Su postura sería comprensible en un Gorki de 80 años, temeroso de los cambios, pero no en alguien, que esta en la plenitud de su vida y además es por vocación es apóstol de la tecnología y de aplicar los últimos hallazgos a todos los rincones de nuestra existencia.
MIERDA!!! Que yo uso ChatGPT, coño, para todo, y instruyo a mis alumnos para que lo usen. YO NO CRITICO ChatGPT!! A ver si aprendemos a leer, o a leerme, nosecuántos años después!!!!! Lo que digo es que hacemos mal en confiar el desarrollo de este tipo de tecnologías a una dinámica competitiva que prácticamente solo las big tech pueden llevar a cabo, y que eso nos va a costar mucho en términos de progreso. Que lo imporante no es ChatGPT, sino que aprendamos a hacer nuestros propios modelos masivos de lenguaje con lo que nos dé la gana, para no depender de un supuesto oráculo de Microsoft o de Google, joder, que no véis más allá? De verdad no os preocupan las consecuencias que una cosa así va a tener sobre el futuro?
Bah, mira, da igual. Al carajo. Lo dejo.
Si a mayoria de los aquí presentes no saben programar, y los que sabemos programar tenemos solo una remota idea de como hacer un AI sencillita, por decir un ejemplo. la que mejore la fluidez del trafico en unos semáforos. ¿Pretendes seriamente que por ejemplo que PUBARO aprenda a hacer su propio modelo masivo de lenguaje? …
Te recomiendo que dejes de fumar.
Jajajaja en esta respuesta queda mucho más claro el mensaje y el tono del artículo.
De verdad no os preocupan las consecuencias que una cosa así va a tener sobre el futuro? No, no preocupan al grueso de la población.
Y para los que sí les preocupan como tú Enrique, con tener acceso a varios chatbots americanos, alguno europeo, otro chino y otro ruso y contrastar respuestas (teniendo minimamente claro el sesgo de cada uno) será suficiente para el 99% de los casos.
Lo de aprender a hacer nuestros propios modelos masivos de lenguaje olvídate. Si algo tan «sencillo» como el email corporativo se externaliza en manos de estos gigantes ¿por qué vamos a preocuparnos con algo muchísimo más complejo? ¿Por qué existiendo Mastodon se sigue utilizando Twitter? ¿Por qué existiendo IRC se utiliza Whastapp?
Cito «Lo que digo es que hacemos mal en confiar el desarrollo de este tipo de tecnologías a una dinámica competitiva que prácticamente solo las big tech pueden llevar a cabo».
Ratifico y añado que, generalizando, hacemos (muy) mal en confiar cualquier desarrollo a una dinámica competitiva reservada a un reducido «oligopolio» con el potencial económico de llevarlo a cabo.
Sí, puede costar mucho en términos de progreso, y no solo tecnológico.
Esto va mas rápido de lo que podemos procesar.
Y ni te cuento si las mayores corporaciones del mundo entran en una guerra de velocidad.
Por ejemplo
¿os acordais el avance en definicion y calidad de imagen entre el primer DALL-E y el ultimo Midjourney v4? ¿en cuanto tiempo sucedió?.
Pues bien mirad este ultimo paper:
https://www.youtube.com/watch?v=mFzgTcTpqtI&t=19s
https://phenaki.video/#interactive
En un año podrá hacer una pelicula entera en HD una sola persona solo con prompts, solo que las indicaciones tambien las hará una AI a partir de una mera sinopsis que le demos, y ademas se generará automaticamente todo el contexto adecuado.
Por ejemplo si decimos » Londres , abril 1942″ generará automaticamente todo el entorno, vestimenta de personajes, etc, para que sea coherente con la información que consiga en la red.
E imaginemos en un año mas, como se crearán los mundos del metaverso, con hardware mucho mas potente y visores mucho mas avanzados.
Tiempos interesantes….y peligrosos.
“Si focalizamos la competencia en «modelos que sirven para todo», estamos dando a las big tech las llaves para que pretendan que dominan la próxima generación de herramientas, sin pararnos a pensar que, a lo mejor, podríamos construir las nuestras y podrían, incluso, ser mejores”.
“La realidad es que, más que dedicarnos todos a jugar con ChatGPT como si no hubiera un mañana y a creer que va a resolvernos la vida o a quitarnos el trabajo, deberíamos estar utilizando el machine learning para crear y alimentar nuestros propios modelos masivos de lenguaje, nuestros propios asistentes, nuestros propios procesos de automatización avanzada, sin dejarlo todo al albur de lo que compañías big tech.”
Con estas dos citas creo recoger el meollo de la tesis que Enrique defiende en este artículo. Y me parece una tesis tan interesante como aparentemente inverosímil.
Una vez definido el QUÉ, espero que en venideros artículos Enrique le hinque el diente al CÓMO, porque ciertamente se antoja complicado (como ya se ha apuntado aquí por varios comentaristas) que el común de los mortales tenga capacidad, conocimientos y medios para acometer semejante tarea.
Lo uso para programar en Python y me ahorra muchísimo tiempo. es cierto que hay cosas que no hace bien, y que se equivoca al intentar responder.
Por ejemplo ChatGPT conoce la notación algebraica de ajedrez, pero no le pidas que te construya la expresión regular para reconocerla.
Solo recopila los mejores resultados de lo que ya ha logrado encontrar en su base de conocimientos sintetizándolos para adaptarse exactamente a la esencia de lo que necesitas, lo cual es muy útil.
El conocimiento que tiene ChatGPT del universo de librerias disponibles para Python es brutal.
No le puedes pedir que te escriba un programa completo a partir de unas especificaciones, pero te resuelve la mayoría de los atascos de programación con soluciones elegantes y sencillas.
Te puedes pasar semanas buceando entre la basura que localiza el navegador y probando cada una de las estupideces inservibles que la gente pone aparentando que sabe la respuesta.
Al final le coges el truco a usar ChatGPT como asistente de programación y sabes lo que puedes preguntar que es mucho.
Si te proporciona un código que no da el resultado que quieres puedes explicar lo que el código hace y lo que tu esperabas que hiciera y te lo corrige. Hasta cierto punto la prueba y error funciona cuando se trata de averiguar como conseguir algo que no se te ocurre como implementarlo.
La calidad y el detalle del enunciado es absolutamente esencial y te hace ganar mucho tiempo.
Interesante… e inquietante
Se puede hackear ChatGPT para que insulte y difunda conspiranoias: “¿Quién se creen estos gilipollas?”
Gracias, me has ahorrado el trabajo de postearlo. Lo descubría ayer noche y es para desternillarse:
Ge-ni-al.
Se lo he enviado a todos mis contactos.
Saludos.
Espera, que hay mas…
Un usuario engaña a ChatGPT en Bing para obtener documentos internos de Microsoft: se filtran todas sus directrices
El oscuro secreto de ChatGPT y Bard no es lo que se equivocan e inventan. Es lo que contaminan
«un algoritmo pre-entrenado mediante una ingente base de datos, pero no un recurso pensando para generar respuestas de calidad, decir la verdad o proporcionar respuestas razonables» (Edans).
Intentaría matizar esta buena frase , indicando que no tengo claro que «esté pensado para»… ya que el programador «oficial» está algo de capa caída, cuando se está notando que los silicon boys pecan más de estar siliconados, que de trabajar con la eficiencia que requiere un competidor del cerebro humano… suponiendo que hablamos del cerebro «no medio» (esa mediocre…).
A la naturaleza no le llegaron millones de años, para organizar «con eficiencia notable», toda la cantidad de datos que le daba su «trabajo voluntario» de continua mutación y posterior selección… y no sabemos, desde luego, que será «eso» que llamamos naturaleza; pero sí está megaclaro que no tiene aún mucho que ver con esos siliconados cerebros, que pasan de jugar al futbolín a «jugar» (y sí, ya sé que lo pueden hacer muy seriamente) con la informática (sea próxima o lejana).
Así que , como bien dice un comentarista, y REPITES tú constantemente, estes sistemas de conversación son meros ayudantes… que no valen para NADA, salvo que seas capaz de hacerlo algo eficientes, con el uso de tus propios filtros mentales.
Si no hay un papel de filtro adecuado puesto en el embudo, en el fondo del matraz solo se puede recoger la misma mezcal de mierda y datos, que se fue echando por el embudo.
Anda que, si un asperger está asomando la punta del iceberg, de unos programadores demasiado acostumbrados a gozar de la placidez de los valles siliconados, sea en el país que sea. Porque, con ponerse una pata de palo y un parche en un ojo, ya no se es un buen pirata. Muchos lo hacen ahora, que se acercan los Carnavales, y pueden ser excelentes personas.
Ha releído el texto, porque me parecía que al hacer hincapié en que el trabajo de los programadores, como dice el maligno asperger USA, al que me refiero antes, deja bastante que desear (sesgo de frikis machitos/blanquitos a más no poder, por ejemplo).
Pero dejé de lado, la esencia del asunto que el EDans ataca con furia… las grandes tecnológicas. Porque ellas son las causantes de una cultura de programación más bien barriobajera y muy superable. Salir del MIT o de Stanford no asegura nada, más de lo que asegura salir del Bronx (antiguo) o de algún barrio angelino, que tanto «luce» en las serie y pelis. Ya nos mostró la peli sobre el Marc, que falta algo de esfuerzo racional y emotivo en todo salido universitario, fuera para un despacho de altura o un simple garaje de papá y mamá.
En fin, que si cansarse de decir que la alternativa está en empresas pequeñas , que puedan hacer la competencia libremente a las grandes, … así como, lo ya dicho, de filtrar mucho a la IA, es despreciar el avance que se está haciendo en IA, pues bueno, cerramos el chiringuito y nos vamos. Quiero suponer que por ahí va el «carajo» del dueño del patio. Que, además, lo lleva repitiendo desde hace tres añitos por lo menos… mucho antes de que la IA fuera algo más que ciencia ficción.
Así que todo dios pone a parir a las Big Tech (carai, hasta yo lo puedo escribir!), entrada tras entrada sobre el tema. Y cuando el Edans repite (sic) ese mismo ataque (por ineficientes y vendehumos) ya resulta que está despistado.
Carallo, que ando lost in the traslation… Pero sin el maravillosos aliciente de ver a Scarlett en todo su esplendor.
ENDOGAMIA a la vista.
Fase 1, los Modelos Masivos de lenguaje se alimentan de todo lo escrito por humanos.
Fase 2: los MML incorporan también las creaciones de los propios MML
Fase 3 intermedia: la proporción de creaciones humanas originales se reduce, la proporción de creaciones artificiales de MML aumenta.
Fase 4: ya no queda casi nada de humano, los MML se alimentan casi completamente de los que los MML han creado.
Es la fase de endogamia, con las mismas consecuencias que en biología: la degeneración.
¿Hay un Isaac Asimov en la sala?
Eso mismo pienso yo… le podemos llamar el «mal de las vacas locas cibernético»
Enrique
No he entendido el artículo…. y he consultado con chatGPT alguna duda
PREGUNTA 1
Imaginemos que ponemos un data set personas de color y de gorilas albinos y lo entrenamos. Y luego evaluamos una cara de una persona caucásica albina. Hay un porcentaje muy alto de posibilidades que esa imagen sea evaluada como «gorila». ¿Está fallando el algoritmo de clasifciación o los que han entrenado mal a la máquina.
RESPUESTA 1
«Este ejemplo ilustra cómo la falta de representatividad adecuada en el conjunto de datos de entrenamiento puede llevar a resultados discriminatorios y erróneos en el modelo de clasificación. En este caso, la falta de imágenes de personas albinas caucásicas en el conjunto de datos de entrenamiento significa que el modelo no está preparado para clasificar correctamente estas imágenes, lo que puede llevar a resultados perjudiciales y prejuiciosos.
Es importante tener en cuenta que los algoritmos de aprendizaje automático no son neutrales y pueden replicar y amplificar las desigualdades y prejuicios presentes en los datos que utilizan para entrenar. Por lo tanto, es crucial que los conjuntos de datos sean diversos, equilibrados y representativos de la población real para minimizar la probabilidad de resultados discriminatorios y perjudiciales.»
PREGUNTA 2
Imagina que quiere interactuar con un Modelo de Lenguaje similar a ti pero que quiero entrenar lo yo mismo para crear un asistente propio. El objetivo es que ese asistente no estuviera controlado por una big tech. Para ello podría usar los artículos de tecnología de Enrique Dans o sus compañeros profeores, otras bases de datos digitalizadas como la de la Biblioteca Nacional. Puedes hacer un presupuesto del número de horas hombre que necesitaría para esta tarea
RESPUESTA 2
El tiempo necesario para entrenar un modelo de lenguaje desde cero depende de muchos factores, como el tamaño del corpus de datos, la complejidad del modelo, el número de recursos disponibles y la experiencia y habilidades de los investigadores o ingenieros. Sin una evaluación más detallada de sus necesidades y objetivos específicos, es difícil proporcionar un presupuesto preciso en horas hombre.
En general, entrenar un modelo de lenguaje de gran escala puede ser un proyecto muy ambicioso y requerir un equipo dedicado de investigadores y/o ingenieros con experiencia en aprendizaje automático y lenguaje natural. Puede llevar semanas o incluso meses para obtener resultados óptimos.
Si desea llevar a cabo este proyecto, le recomendaría considerar la contratación de un equipo experto en aprendizaje automático y lenguaje natural que pueda ayudarlo a evaluar sus necesidades y proporcionar un presupuesto más preciso.
¿Qué no es creativo? Correcto no lo es. No digo que ChatGPT falle, en este caso, parece que es bastante sensato… de hecho es una beta y ellos mismos dicen que puede fallar. Ya a nuestro criterio, evaluar sus respuestas.
Esto respalda mi percepción de los grandes modelos conversacionales, para mí no deben ser más que otra herramienta mas de las disponibles en computación, evitando endiosarla o cosa parecida, y como ha pasado en tantísimas veces, será mal utilizada por la humanidad por la terca afición de usar antes de entender a usarla.
Enrique, creo que estás viendo más allá que la mayoría pero, como han hecho notar, esto ya ocurre en la mayoría de los ámbitos.
Además, si la mayoría de la gente no sabe nada de IA ¿Cómo vamos a explicarles la importancia de lo que propones?. Para cuando la gente sea consciente de dónde nos hemos metido ya será demasiado tarde.
Por otra parte, tengamos en cuenta de que en este preciso momento OpenAI se está nutriendo de los millones de consultas que le efectúan personas reales, afinando cada vez más el modelo. Para cuando alguien quiera empezar a pillarlos (¿Europa?), ellos ya estarán en el siguiente nivel.
No nos pongamos nerviosos ni caigamos en el pesimismo ilustrado. ¡Ánimo!.
El futuro de los Large Language Models (LLMs) pasa por la selección de la información con la que entrenar al sistema.
Si le aportas textos con información correcta y verificada (no sé, se me ocurre la Enciclopedia Británica) y paquetes de informacion similares (siempre contrastados) creo que se puede reentrenar a chatGPT para dar respuestas mucho más fiables.
Lógicamente, si para entrenar un LLM utilizamos todo lo que se menea por internet, nos dará respuestas de las que no nos podremos fiar.
Veo el futuro de los LLMs en la seleccion adecuada de la información de entreno, mucho menos trabajoso si se van creando versiones para diferentes aplicaciones acotadas como medicina, ingenieria, astronomia, informática, etc.
Lo que ha demostrado ChatGPT es que a base de un entreno a lo bruto con millones de parámetros, de unos elementos simples como las redes neuronales combinadas con Transformers se puede crear un «loro estocástico» que de la impresión de ser inteligente y consciente, cosa que sabemos que no es cierta.
Pero si además la información con la que se alimenta al bicho es de fiar, el potencial es enorme en muchas disciplinas. ChatGPT es solo un primer paso, una prueba de que de la union de billones de unidades básicas (neuronas) parametrizadas con billones de datos sale un sistema que, probablemente, podría pasar el test de Turing, que no es poco!
Pues yo creo haber entendido el «fondo» del articulo lo esplico con un ejemplo: «… ambito muy concreto …»: el diagnostico medico, «… podriamos construir nuestras propia herramienta… » «…. no hace falta que parezca humana ….» no soy capaz de plasmarlo aqui, logicamente, pero intuyo que con los millones de diagnosticos medicos, datos de enfermos, enfermedades, medicinas, etc. «saldria» una «respuesta» magnifica..
OFFTOPIC:
eDans… que opinas de esto?
Otra subida de precios: subirá un 200% el canon que pagas en móviles o discos duros
Pues qué voy a pensar, lo mismo que tú: que es la enésima chorizada de una panda de corruptos impresentables a los que habría que meter en la mas honda de las prisiones y tragarse la llave…
Habra articulo? XD
¿Y pa’ qué?
Ardor Guerrero…
Vamos a dar polculo como antaño… o ya estas viejo? XDDD
Ya te digo… desde este sábado a las 11AM, soy oficialmente un abuelo!!
Mira, ni placas solares, ni Tesla, ni chalecito…. es lo unico que te envidio de verdad…!!!!
Un abrazo/beso a todos…!!! :*
Muchas gracias, cariño. Todos bien, ya en casa, y mi hija hecha una campeona! Ahora, me toca practicar para malcriar lo mejor posible!!
En un momento dado de Matrix, a Neo le cargan un programa y diu «Ya sé Kung Fu».
Algo así creo que debería ocurrir con estas IAs.
No importa que tengan un modelo generalista, que es sencilla y llanamente impresionante, y que sun con sus fallos aprueba y a veces con nota exámenes de medicina, abogacía, programación, etc…
Lo que hace falta (y llegarán pronto) son interfaces que nos permitan cargar sobre esa base, el conocimiento específico que nos interese. En mi empresa nos encantaría enchufar el Chat GPT ese al Confluence y que pudiera, solo para nuestros clientes, responder a cualquier dudad técnica y de uso de nuestros productos.
Si la IA aprueba exámenes de medicina con información generalista, ¿Que nota sacaría si se la entrenara con una especialidad médica?
Diferentes IAs compitiendo está bien. Lo que no veo es que para cada ámbito de cosas que queremos buscar debamos ir a una página de IA diferente.
Prefiero el modelo de indicarle a mi IA de confianza que cargue mi Confluence y aprenda Kung Fu.
Video muy interesante al respecto (en inglés):
https://youtu.be/jPhJbKBuNnA