Hace algunos años, una noticia recorrió los mentideros tecnológicos: dos ordenadores de Facebook en los que se estaba probando un algoritmo para la negociación con humanos habían inventado su propio idioma, y los investigadores de la compañía, supuestamente aterrados, los habían tenido que desconectar.
La noticia no solo era un fake de libro, sino que era una completa estupidez: simplemente, el algoritmo se dedicaba a repetir tantas veces una palabra como unidades de ella quería negociar, lo que lo convertía en absolutamente inútil para la negociación con humanos (¡buena suerte si quieres comprar diez mil bolígrafos, porque te van a dar las uvas!). Los investigadores, simplemente, habían abandonado el proyecto al darse cuenta de que no iba a servir para nada. Sin embargo, la noticia falsa cayó en terreno abonado: basta que digas «algoritmo», «inteligencia artificial» o algún término parecido, para que la cultura popular pase inmediatamente a pensar en Terminators y en ordenadores acabando con la humanidad.
Ahora, ha sido Sundar Pichai, una persona supuestamente inteligente, el que ha alimentado el enésimo bulo: que uno de sus algoritmos ha aprendido «por su propia cuenta» a hablar bengalí. De nuevo, una fake news de libro, como podemos comprobar si simplemente buscamos la frase y vemos el tipo de publicaciones amarillas y sensacionalistas que la reseñan. ¿Qué pasó? Que Sundar Pichai dijo algo sobre lo que estaba mal informado en una entrevista de 60 Minutes, que un algoritmo había aprendido a hablar bengalí sin haber sido entrenado para ello (cuando, en realidad, sí lo fue en una versión anterior), y a partir de ahí, la idea ficticia de que un algoritmo es capaz de aprender un idioma por su cuenta corre como reguero de pólvora y llega hasta a El Hormiguero, donde un iluminado se dedica supuestamente a «solucionar tus dudas tecnológicas» (o a crearte más, en realidad).
No, por supuesto que los algoritmos no van por el mundo aprendiendo idiomas por su cuenta. Centremos la cuestión, por favor: un algoritmo hace aquello que le programas que haga. No tiene conciencia, no tiene inteligencia, no tiene más objetivo que el que define su programación, y no se puede programar como «acaba con la humanidad» ni nada parecido. Dejémonos de estupideces: la inteligencia artificial no es ni inteligencia – es un conjunto de funciones estadísticas – ni mucho menos, artificial – no hay nada más natural que los datos que nosotros mismos generamos. A base de llamarla «inteligencia artificial» y de compartir estupideces y mentiras, solo vamos a conseguir que un cierto número de personas sin criterio para identificar las noticias falsas se mantengan, en función de miedos infundados, alejadas de una tecnología que sin duda va a marcar la próxima etapa de la evolución humana, la forma en la que trabajaremos y en la que haremos muchas más cosas.
Es urgente, y repito y en mayúsculas, URGENTE, que las personas aprendan a usar algoritmos. Que hablen con Alexa, con Google Assistant, con Siri, con ChatGPT, con Perplexity.ai o con quien quieran, que será por falta de algoritmos. Que aprendan a preguntar, que no es tan fácil como parece, que se den cuenta de la diferencia entre preguntar en un idioma o en otro, de preguntar de una manera o de otra, de hacer ingeniería con las preguntas para incluso introducir personajes, crear dicotomías o infinitas posibilidades más, y que se familiaricen con unas herramientas cuya barrera de entrada va a disminuir cada vez más. Dentro de muy poco tendremos algoritmos personales educados por nosotros mismos para todo, y sin embargo, habrá unos cuantos pobres ignorantes que seguirán sin acercarse a ellos y sin utilizarlos por miedo a que los asesinen mientras duermen.
Cuando veas noticias como esas, párate a pensar antes de compartirlas, o mejor aún, haz un poco de investigación por tu cuenta. Es la única manera de hacer las cosas mínimamente bien.
This article is also available in English on my Medium page, «From the creators of ‘they invented their own language’, comes ‘it taught itself to speak Bengali’»
«Dentro de muy poco tendremos algoritmos personales educados por nosotros mismos para todo.» Totalmente de acuerdo, creo que en un futuro muy cercano los conocimientos en Blockchain/Smart Contracts y Machine Learning supondrán una ventaja competitiva incontestable a nivel corporativo y también a nivel personal, hasta el punto de que ya tardamos en incluirlos en los planes de estudio. También pensaba que en breve habría un post sobre Microsoft Copilot, pero se está haciendo de rogar ;-)
La frase
«El algoritmo se dedicaba a repetir tantas veces una palabra como unidades de ella quería negociar…»
Puede parecer a los ojos de un neófito pues lo que nos cuentas. De hecho esta explicación nunca la he leído por ahí….
Los humanos comenzaron a usar las cantidades de una forma similar, al principio el hombre necesitó palabras para decir cuántas personas había en una cueva, cuantos animales en un determinado lugar, o a qué distancia estaba la caza. Obviamente la necesidad estaba ahí. Las tribus menos desarrolladas tienen palabras para expresar la cantidad de uno, dos y normalmente muchos. Usaban piedras, dedos, tablillas, etc etc… como la IA no tiene manitas… pues es como el amigo de Bertin que no sabía inglés y pedía one beer, one beer, one beer, oner beer, y asi hasta el oo….
En definitiva que nos encontramos ante algo que tu llamas FAKE, y los transhumanistas llamarían emergencia. Como empieza una AGI? pues comunicándose como puede… es una cualidad emergente o es que tenemos el vicio de ver cualidades humanas e intencionalidad a las máquinas ???
No solo nos invaden los chinos, también los robots !!!
PS: Mi respuesta es clara, anda que no falta para la AGI pero cuartomilenistas estamos rodeados !!!
Desde que me hablaron de chapGPT estoy haciendole preguntas y en general salvo casos contados , las respuestas son bastantes sensatas, (sal vo que no lo sean y yo no lo haya detectado).
Lo que no he encontrado en ellas es nada espectacular. Es decir la respuesta es similar a la que habria alcanzado yo con ayuda de Google mirando seis o siete respuestas de las dadas por le buscador, Por tanto creo que es un aparato muy útil, pero muy lejos de ser innovador, o creativo.
Hoy me ha dado mi hermana para que lo utilice para despertar la «visión lateral». Es decir, los humanos funcionamos con prejuicios, o sea que no tenemos que preguntarnos siempre para que valen las cosas porque un juicio previo (prejuicio) nos lo indica.
Si vemos un tenedor, pensamos que es para pinchar la comida y eso nos quita a la mayoría tratar de darlo otro uso, pero hay quien supera los prejuicios y ven un trozo de hierro de determinada forma y encuentra otros usos. Por ejemplo estos 42 usos que he encontrado en Pinterest
tenedor usos diferentes
Ya que chapGPT no tiene prejuicios, ¿Podrá utilizarse para mejorar mi «visión lateral» del mundo?.- Hay que probarlo
He probado la «visión lateral» de chatGPT y los resultados no han sido muy brillantes
¿Qué puedo hacer con un tenedor?
Hay muchas cosas que puedes hacer con un tenedor. Aquí te doy algunas ideas:
Comer: la función principal del tenedor es ayudarte a comer. Puedes usar para comer alimentos como arroz, ensaladas, pasta, verduras, etc.
Cocinar: el tenedor también puede ser útil en la cocina. Puedes usar para mezclar ingredientes.
Pinchar: puedes usar el tenedor para pinchar alimentos como carnes, pescados, frutas y verduras, para darles la vuelta mientras los cocinas.
Decorar: si quieres hacer presentaciones de alimentos más elaborados, puedes usar el tenedor para decorar tus platos con salsas, cremas, hierbas y especias.
Limpiar: el tenedor también puede ser útil para limpiar objetos pequeños y difíciles de alcanzar, como las teclas de un teclado de computadora, los huecos de un cepillo de dientes, entre otros.
Jugar: puedes usar un tenedor para jugar juegos como el juego de la patata caliente, en el que los jugadores pasan un objeto caliente entre ellos usando tenedores.
Artesanía: puedes utilizar el tenedor como herramienta para hacer manualidades, como hacer pompones, tejer, o incluso como base para crear tu propio joyero.
Aflojar nudos: si tienes un nudo muy apretado en algún objeto, puedes utilizar los dientes del tenedor para aflojarlo con cuidado.
Escarbar: si necesita remover tierra o cualquier otro material suelto, el tenedor puede ser una herramienta útil para hacerlo.
Reparar: si necesita ajustar alguna pieza pequeña o delicada, puede usar el tenedor como una herramienta de reparación.
Defensa personal: aunque no es lo más común, en caso de emergencia, el tenedor puede ser usado como un objeto de defensa personal. Si no tienes nada más a mano para defenderte, puedes utilizar el tenedor para atacar a un agresor.
Hacer música: si raspas los dientes del tenedor a lo largo de los bordes de un vaso o taza, puedes crear sonidos musicales similares a los de un xilófono.
Actividades de aprendizaje: los tenedores también pueden ser usados como herramientas de aprendizaje para niños pequeños. Puedes utilizarlos para enseñarles a contar, clasificar objetos por su forma o tamaño, o para practicar habilidades motoras finas.
Escultura de alimentos: si eres un artista culinario, puedes usar el tenedor para tallar y esculpir alimentos, como hacer surcos en un pepino
Escultura de alimentos: si eres un artista culinario, puedes usar el tenedor para tallar y esculpir alimentos, como hacer surcos en un pepino o en una zanahoria para darle una apariencia más decorativa.
Crear patrones: los tenedores también pueden ser utilizados para crear patrones interesantes en alimentos como papas fritas o en pasteles. Simplemente presione el tenedor en la superficie de los alimentos para crear patrones como líneas, círculos o cuadros.
Acomodar la ropa: puedes utilizar el tenedor para acomodar la ropa en el tendedero, especialmente para objetos pequeños como calcetines o ropa interior.
Marcadores: puedes usar un tenedor como marcador temporal para recordar cuánto tiempo ha pasado desde que comenzaste una tarea o proyecto.
Proporcionar estabilidad: los tenedores pueden ser utilizados para proporcionar estabilidad a objetos pequeños, como por ejemplo un huevo mientras se cuece en agua caliente, para evitar que se mueva y se rompa.
Arreglos florales: si no tienes un florero a mano, puedes usar un tenedor para crear pequeños arreglos florales en vasos o tazas.
Manualidades con niños: los tenedores pueden ser una excelente herramienta para hacer manualidades con los niños. Puedes usar para hacer dibujos, crear formas con plastilina, hacer estampados en tela, entre otras cosas.
Mezclar bebidas: si necesitas mezclar una bebida y no tienes una cuchara a mano, puedes usar un tenedor para mezclarla.
Separar pelos: si tienes una mascota
Dentro de muy poco tendremos algoritmos personales educados por nosotros mismos
¿Conoce alguien un curso online que enseñe a educar algoritmos? ¿ Por ejemplo a que chapGPT conteste educadamente, pero con firmeza, a los vendedores telefónicos que te quieren cambiarte de compañía?
Es que, ni yo se hacerlo.
Hola Gorki!
Como ahora el tema de chatGPT en general y la IA en particular está en boca de todos, hay cientos de tutoriales en Youtube sobre los mejores “promts” para que chatGPT te de las respuestas de la forma que tú quieras.
Pero más allá de chatGPT están apareciendo modelos como ALPACA (desarrollado en Standford) que permiten usar sistemas como LLama (de Meta) y entrenarlos básicamente con un portátil para tareas específicas, como la atención al cliente.
Alpaca es una aproximación muy inteligente que aprovecha un LLM ya entrenado y gratuito como Llama para luego entrenar chatGPT con promts generados con LLama sobre el tema de interés.
Tienen su página web con un “open paper” donde explican su aproximación y la multitud de aplicaciones que se abren con un grado de computación mínimo. Hablan de un coste de personalización de menos de 600€ y que se puede realizar “desde un macbook air en unas pocas horas”…
Un abrazo!
Desde luego, no voy a pagar 600 euros para que mi algoritmo personalizado «atienda» a los pelmazos, que por obligación, tienen que ofertarme un cambio de compañía a la hora de la sobremesa.
Pero si que me interesa mucho, conocer como se «educa» a chatGPT para que conteste lo que sea, de forma personalizada. Habrá que mirar lo que ofrecen. Gracias.
Echale un vistazo a esto… igual te ayuda… :P
Este MICRO PC Chino ejecuta una SÚPER INTELIGENCIA ARTIFICIAL casera (Cómo ChatGPT)
Aunque… como es chino… a lo mejor os salen sarpullidos… XDDD
(esto SI es Tecnologia e Innovacion… solo que no lleva una manzana, y no la salsa rosa de un desvario de un CEO) XDDD
Para ponernos mas o menos «serios» con el tema…
Nvidia, presenta un soft para «poner orden» con las alucinaciones de las IA’s…
Right on Track: NVIDIA Open-Source Software Helps Developers Add Guardrails to AI Chatbots
Es decir, añade unas «barreras virtuales», para evitar que los chats hablen de lo que no deben…
Y si, podemos abrir debate sobre los sesgos y demas…
Muy buena… XDDD
Muchos políticos siquiera saben que es una función estadística y les falla incluso la aritmética. En ellos la inteligencia parece más que artificial, sino ilusoria.
Uno de los motivos para seguir tus interesantes artículos, Enrique, es lo que aprendes de ellos:
Justo hace 24h que vi la entrevista al CEO de Google en “60 minutes” afirmando que su sistema había aprendido espontáneamente Bengalí, lo cual me sorprendió mucho pero me lo tragué, tanto por el personaje que lo afirmaba como el programa en el que salía.
Leyendo el artículo de hoy ya me ha quedado claro que fué un error de Sundar..
Mil gracias!
La noticia, Enrique, la vi hace unos días en BBC Mundo y lleva por título Qué es la misteriosa “caja negra” de la inteligencia artificial que desconcierta a los expertos (y por qué aún no entendemos cómo aprenden las máquinas). Las puntualizaciones que haces sobre el algoritmo que supuestamente ha aprendido a hablar en bengalí me parecen muy importantes, pero el artículo va más allá y entra dentro del famoso concepto de caja negra, término que también en el pasado se ha usado con respecto a las dificultades para entender de manera completa el funcionamiento del cerebro humano. Dice el artículo de la BBC al respecto:
Opino que el centro del asunto, al menos en el artículo de la BBC, es el concepto de caja negra. A mí la verdad es que ChatGPT, a diferencia de lo que le ha ocurrido a otras personas, no me ha parecido sorprendente. Lo único que me preocupa del asunto de la caja negra no es de ninguna manera que Terminator vaya a aparecer para acabar con nosotros sino que estos sistemas se vuelvan tan complejos que puedan cometer errores difíciles de predecir.
Por otro lado, a muchos nos gustaría que el algoritmo de Google llegue a ser realmente un excelente traductor del idioma bengalí. El propio Rabindranath Tagore discutía algunos aspectos de sus propias traducciones al inglés y desde hace mucho tiempo se ha comentado que sus poemas son mucho mejores en bengalí que en inglés. Y aunque ninguna inteligencia artificial va a resolver la imposibilidad práctica de traducir toda la esencia de un poema, es probable que con su ayuda podamos obtener mejores traducciones. Sería interesante, también, ver si puede obtener un resultado en la versión en español que efectivamente sea mejor que la célebre traducción de Zenobia Camprubí de Jiménez.
«A mí la verdad es que ChatGPT, a diferencia de lo que le ha ocurrido a otras personas, no me ha parecido sorprendente»
Me quedo con esto…
Lo único que me preocupa del asunto de la caja negra no es de ninguna manera que Terminator vaya a aparecer para acabar con nosotros sino que estos sistemas se vuelvan tan complejos que puedan cometer errores difíciles de predecir.
…y con esto… :P
El primer robot pintor que yo he conocido es AARON programado en Basic por Harold Cohen., en base a introducir todas las normas de pintura que se enseñan en una academia de pintura, sobre composición, claro/oscuros, perspectiva, compensación de tonos de color,… pero dejando siempre un cierto grado aleatorio de seguimiento de las normas.
A AARON se le daba como entrada una imagen , por ejemplo una fotografia, y en base a ese input generaba una imagen de ouput, que ni el mismo creador estaba seguro con que criterios lo había generado, porque la aleatoriedad daba unos resultados sorprendentemente imprevistos.
La «obra pictórica» de AARON se ha visto en exposiciones de mucho museos de pintura puedes verlo buscando en Google imagenes con el prompt «AARON robot pintor Harold Cohen»
Si haces una caja negra, con, (según dicen), miles de parámetros y entre estos hay cierto uso aleatorio y aplicación de estadísticas bayesianas, nadie, ni los creadores del algoritmo, podrán seguir la traza de lo que ocurra en la caja negra.
AARON WIKIPEDIA
Gorki, no había escuchado nunca hablar sobre AARON y es definitivamente interesante. Me hizo recordar inmediatamente el cuento Light Verse de Isaac Asimov, cuya versión en español se titula Versos iluminados. Si no lo conoces, dale un vistazo, que seguro que te llama la atención.
Totalmente de acuerdo, en especial el concepto de caja negra, con las incógnitas que conlleva y la total inseguridad de qué va a contestar.
Eso sí, a mi ChatGPT sí que me impresiona. Y más que tecnológicamente, cómo concepto: que unas unidades muy simples como las ANN combinadas con Transformers y, eso sí, millones de unidades entrenadas con billones de datos puedan producir textos tan coherentes y cada vez más exactos. En el fondo, no deja de ser una metáfora de cómo parece que funciona el cerebro.
Con eso no digo que estos sistemas sean inteligentes ni que por supuesto tengan consciencia, pero que la suma de billones de elementos simples con infinidad de datos de entrenamiento tenga ese comportamiento es algo que se debe estudiar a fondo. Si más no, para que deje de ser una caja negra…
Chipiron, hace poco más de un mes el New York Times publicaba un artículo titulado How Siri, Alexa and Google Assistant Lost the A.I. Race. La verdad es que el salto que da ChatGPT con respecto a dicho trío de asistentes virtuales es realmente significativo y eso para mí es muy claro.
Mis impresiones iniciales, sin embargo, no han sido muy favorables, pues no ha resultado muy «sabio» a la hora de contestar un par de preguntas sencillas sobre geografía latinoamericana o de resolver un problema matemático de cuarto de primaria. Sé que se trata de una apreciación subjetiva y yo mismo he logrado que me explique de manera suficientemente didáctica lo que es un fideicomiso, por ejemplo. Es claro que hay mucho potencial en estos chatbots y que se trata de algo realmente importante.
El tema de la caja negra, sin embargo, me parece que debería tratarse con seriedad. Entender a fondo cómo funcionan estos sistemas de inteligencia artificial no es un asunto menor, especialmente si en el futuro fueran a asumir tareas críticas. Las empresas buscan resultados inmediatos para impresionar al público y conseguir clientes, pero esto no puede hacerse a costa de la seguridad.
“Es urgente, y repito y en mayúsculas, URGENTE, que las personas aprendan a usar algoritmos. Que hablen con Alexa, con Google Assistant, con Siri, con ChatGPT, con Perplexity.ai o con quien quieran, que será por falta de algoritmos. Que aprendan a preguntar, que no es tan fácil como parece, que se den cuenta de la diferencia entre preguntar en un idioma o en otro, de preguntar de una manera o de otra, de hacer ingeniería con las preguntas para incluso introducir personajes, crear dicotomías o infinitas posibilidades más, y que se familiaricen con unas herramientas cuya barrera de entrada va a disminuir cada vez más”.
También en su día fue urgente que, cuando apareció la escritura, las personas aprendieran a leer, por las evidentes ventajas sociales que ello conllevaba.
La aparición de la escritura provocó además que comenzáramos a pensar en otros términos y de manera diferente. Hasta su generalización, el habla oral (con sus elipsis, paráfrasis, repeticiones e interrupciones del discurso) constituía la única forma de pensar (pensamiento holístico). Ya el lenguaje escrito, intrínsecamente más estructurado y organizado, trajo como consecuencia una forma de pensar mucho más compartimentalizada. Mucha gente pasó o tendió a hablar como se escribe.
No hace falta ser un lince para darse cuenta que lo que esta familiarización con los algoritmos que fomenta el artículo de hoy puede traernos, es precisamente que mucha gente tienda cada vez más a pensar como las máquinas.
Pero… ¿no se trataba de que las maquinas pensaran como nosotros?
Así es como se ve a sí misma la IA GPT-4 :P
I used GPT-4 to describe itself. Then I used its description to generate an image, a video based on this image and a soundtrack.
Tools I used: GPT-4, Midjourney, Kainber AI, Mubert, RunwayML
This is the description I used that GPT-4 had of itself as a prompt to text-to-image, image-to-video, and text-to-music. I put the video and sound together in RunwayML.
This is how GPT-4 sees and hears itself
A mí no me preocupa nada la inteligencia artificial. A mí lo que me preocupa es lo que pueda llegar a hacer con ella la estulticia natural.
Tratando de no desentonar con el contexto de los mucho que da de si un cerebro siliconada, vamos com mi granito de arena (SiO2 puro).
Parece ser que una variedad de ordenadores han decidido autoidentificarse como ordenadores en transición hacia ordenadores desordenados. A los ordenados habrá que lalamarle sSIN y los otros TRASNS.
Además hay una variante de trans, que piensa eliminar el sistema binario y dialogar solo con ceros.
Están intentando cuadrar un código, basado solo en el uso de ceros. No saben muy bien como, porque hay otro subgrupo, que defiende ser mejor el uno, por eso de ser «únicos».
Parece imposible, pero dentro de la humanidad, empieza a haber división, al decantarse por un tipo u otro de ordenador. Los de la manzanita prefieren el modo «cero». Pero los del puerro, se apuntan más al «uno». Estos últimos dicen que simplifica mucho, sobre todo volviendo al estilo romano.
Las redes sociales están tan abarrotadas de silicona, que casi parecen ser una vela de cera, ardiendo a todo trapo. Pobre algoritmo manipulador, que se le quema todo lo quemable…
Llamar a una AI algoritmo es un poco erróneo Enrique. En realidad es mas bien un conjunto de capas de funciones no-lineales que aproximan una solución a un problema de minimización con respecto a un conjunto limitado de observaciones estadísticas (los datos de entrenamiento). En realidad «el algoritmo» se escribe solo, a base de propagar derivadas de una función coste (vamos que ningún humano está escribiendo un agoritmo)