Todo indica que la alerta roja desencadenada en Google por el lanzamiento y rapidísima escalada en popularidad de ChatGPT, con sus fundadores no solo acudiendo al rescate sino incluso haciendo code requests, va a generar noticias más pronto que tarde: concretamente, el próximo miércoles 8 de febrero.
La escalada armamentística que ha supuesto el lanzamiento en abierto de la herramienta de OpenAI, con Microsoft decidida a relanzar su motor de búsqueda Bing con una versión más rápida de ChatGPT en las próximas semanas, ha llevado a Google no solo a anunciar la incorporación de este tipo de funcionalidades basadas en chatbots a veinte de sus productos, sino además, a hacer una demo de su motor de búsqueda con prestaciones similares para conseguir ponerse al nivel, que será lo que probablemente presenten este miércoles. Hasta ChatGPT, todos los movimientos de las big tech con respecto al machine learning reflejaban prudencia: ahora, es una auténtica estampida.
La inversión de casi cuatrocientos millones de dólares de Google en Anthropic, una compañía de las múltiples que han surgido en este entorno fundada por ex-empleados de OpenAI con un producto similar a ChatGPT, llamado Claude (aún en beta cerrada), podría dirigirse en esta dirección: añadir un asistente que de alguna manera resuma los resultados de una búsqueda en un texto obtenido a través de ellos.
¿Cuáles son los problemas de una aproximación como esta? En primer lugar, uno muy claro: coste. Generar las respuestas que nos entregan este tipo de motores conversacionales da lugar a un fuerte consumo de recursos de computación que hay que llevar a cabo en la nube, en una que, además, no se alimenta de vapor de agua. De hecho, se calcula que una parte muy sustantiva de la contribución de Microsoft a ChatGPT no fue en forma de dinero en metálico, sino de derechos de uso de Azure. Pero claro, no es lo mismo financiar un motor conversacional como ChatGPT, por muy viral que se haya hecho, que intentar hacer lo mismo con toda una Google lanzada a tumba abierta a proporcionar respuestas similares a miles de millones de usuarios ávidos por probarlas y experimentar con ellas.
En segundo lugar, fiabilidad. Que ChatGPT, un motor conversacional enfocado no a decirte la verdad ni a ser infalible, sino simplemente a «parecer humano», cometa errores en muchas ocasiones y diga auténticas tonterías, de las que generalmente «se arrepiente» si se las haces ver, es una cosa. Ni es crítico para nadie más que para el torpe que interpreta lo que dice como verdad absoluta, ni OpenAI, básicamente una recién llegada, tenía gran cosa que perder en ese sentido. Pero ¿qué ocurre si las búsquedas de Google, alimentadas por artículos en una red en la que obviamente hay de todo, empiezan a generar resultados estrambóticos o directamente risibles?
Nadie dice que Google sea infalible y, obviamente, no lo es, pero una cosa es que te conteste con enlaces en los que tú mismo decides hacer clic a tu propio riesgo, y otra cosa que te formule un texto contestándote que resulte estar plagado de errores. Ahí, Google no compite en igualdad de condiciones: tiene un prestigio y una fiabilidad que defender, y no puede arriesgarse a tratarlo de manera ligera. Y además, tampoco es tan sencillo, en Large Language Models pre-entrenados, obtener una respuesta fiable a partir de los resultados de una búsqueda, más aún cuando muchos de los resultados, para ser relevantes, deben provenir de páginas recientes.
Y en tercer lugar, responsabilidad. ¿Qué impacto puede tener llevar las búsquedas en la red a una nueva época en la que muchos usuarios ya no eligen entre distintas posibilidades en función de criterios como el prestigio de la fuente, la relevancia del titular o del snippet, o la posición en la página de resultados, sino que simplemente se leen un texto de respuesta? ¿Cuántas personas harían, entre otras cosas, clic en los primeros resultados de Google, los que ahora aparecen con un mínimo rótulo que dice «Anuncio»? ¿Cuánto podrían descender los ingresos de la compañía si comienzan a utilizar un modelo que no promueve el clic entre los resultados, sino que ofrece algún tipo de respuesta redactada? ¿Y cuántos usuarios renunciarían ya completamente al uso del pensamiento crítico?
Muchas de las respuestas a esto las vamos a tener este miércoles, cuando Google, a eso de las 14:30 hora de Madrid, anuncie sus planes en este sentido. Veremos por dónde salen.
This post is also available in English on my Medium page, «Google readies to meet the ChatGPT challenge»
Como dije en otro momento, dudo mucho que Google no haya tenido algo en elaboración, y sobre el cual no han puesto mucho los reflectores luego del escandalo de las investigadoras y el sesgo racial dentro de la empresa, la unica diferencia es que ahora estan corriendo, ya sea integrando una compra o acelerando algo que iba con calma, pero nada desde 0.
El detalle a tener en cuenta es quien lo incorporara primero como una funcionalidad o mejora de un producto existente, por mas que MS haya dicho que lo vaya a aplicar en Bing, de momento que ha hecho es habilitar el Azure Open AI para los usuarios de Azure interesados, MS esta corriendo con alguna ventaja, pero aun Google tiene todo el margen para recuperar el tiempo perdido, este verano se ve calientito.
preguntando a chatGPT directamente:
How should google react to chatGPT?
As an AI language model developed by OpenAI, I do not have control over how companies like Google react to my existence. However, Google and other technology companies may choose to utilize AI language models like me in various applications, such as virtual assistants or customer service chatbots, to enhance their products and services. Additionally, they may also conduct research and development in this field to advance the state of AI and language processing technology.
La falta de fiabilidad no es problema, Basta que Google indique previamente a la respuesta, «Hay cierta probabilidad de que esta respuesta sea falsa», para traspasar al usuario la responsabilidad de aceptarla o no.
Ahora lo que veo complejo es quien paga el coste, Si por aceptar la respuesta, no hago clik en una de las direcciones que me muestra Google, es probable que Google se quede sin cobrar, tanto el hecho de hacer click en un enlace promocionado, como por los cliks en los posibles anuncios Adsenes y Adworks que esa página soporte,
Si a esto añadimos que hay un sobrecoste de procesamiento, nos vamos al problema numero uno de Internet ¿Quien paga? ¿Serán suficientes tus, (ya conocidos ), datos para pagar la fiesta? ,
Puede que no i que por ello Google sienta la tentación de pasar a ser un servicio con cuota. ¿Entraremos en una nueva fase de lucha por conseguir abonados a muy buenos servicios , pero no gratuitos? Por lo pronto chatGPT es de pago.
Siempre le quedaran soluciones de este tipo (y no las descarto):
Buscas: Teorema de Pitagoras
Respuesta:
En matemáticas, el teorema de Pitágoras (que solía comprar en Alcampo) es una relación en geometría euclidiana entre los tres lados de un triángulo rectángulo. Afirma que el área del cuadrado (las baldosas que venden en Leroy Merlin también lo son) cuyo lado es la hipotenusa (el lado opuesto al ángulo recto) es igual a la suma de las áreas de los cuadrados cuyos lados son los catetos (y para no ser un cateto Librería Antunez)
XDDD
… hablando de enmierdar internet XDD…
Tu riete… insisto, no lo descarto… XDDD
(con sus enlaces correspondientes, claro)
Code request o pull request?
Feria de un mercado de ganado 1858:
Que dicen en el NYT que el martes trae el señorito una mula nuevo
Quia, hasta que no lo veamos, agua de borrajas
Es que es tímida, mientras la Chata dice el Verge, que está triunfando en los pajares. Mucho palique tiene… Ya está vendiendo sus favores a buen precio.
Jodo con los podencos costumbristas como mueven el rabito cuando ven de lejos al amo, todos esperando a la nueva
Un paso más hacia El Planeta de los Simios, salvo que los nuevos simios serán sistemas diversos y variados de Inteligencia Artificial.
No lo voy a probar pero seguro que a la pregunta «¿por qué se desarrolló la Inteligencia Artificial?», chatGPT contestaría algo como «para suplir la estupidez humana».
Para mi las AI tipo ChatGPT, van a ser como la Wikipedia, muy útil, pero nadie te garantiza que la respuesta sea correcta. La diferencia es que Wikipedia no tiene dueño y los errores que tiene son aleatorios, unos en una dirección y otros en la contraria. Pero las IA tipo chapGPT si tiene dueño y nada te asegura, que los errores que cometan no vengan sesgados en la dirección que al dueño le convenga.
No se si Google ya se estaba preparando o no para esto, de todas maneras es muy probable, que si no hubiera salido chat GPT, hubiera tardado más de lo que tardará en mover ficha, la competencia siempre es buena, luego veremos cómo acaba.
Mientras la IA ha demostrado que tiene bazas para convertirse en una tecnología disruptiva y ha impulsado a compañías como OpenAI, que ya ha captado el interés —y la cartera— de Microsoft. Su motor conversacional ChatGPT ha logrado de hecho un hito: convertirse en la plataforma de Internet con un crecimiento más acelerado, superando a TikTok o Facebook.
El problema de Meta no es haber perdido 13.000 millones en el metaverso: es no haberlos invertido en la IA
Internet nació como una herramienta para compartir conocimientos. Veremos como acaba.
Esperemos que no se convierta en un cubo de basura, lleno de información falsa o sesgada y que como única posibilidad de acceso a información fiable, sean servidores restringidos de pago.
Para la plebe……..morralla.
Realmente crees que la herramienta de Google superará a CharGPT?