Google y el dilema del robot borracho

IMAGE: OpenAI's DALL·E, via ChatGPT

Se vienen problemas para Google: en su última presentación, en el Google I/O, anunció la incorporación de resultados de su algoritmo generativo, Gemini, a sus resultados de búsqueda, en forma de lo que ha dado en llamar «AI Overviews».

Empezando el pasado 14 de mayo, muchos millones de usuarios del motor de búsqueda en los Estados Unidos comenzaron a recibir esas respuestas como parte de sus páginas de resultados, y muchos millones más lo empezarán a hacer pronto en todo el mundo.

Pero esto, que parecería una gran innovación y una reacción de la compañía al cada vez más pujante desarrollo de la IA generativa, conlleva un problema potencialmente muy importante: que mientras las respuestas que Google entrega en forma de enlaces a otras páginas, en las que actúa como mero distribuidor de información, están protegidas por la conocida (y polémica) Sección 230 de la Communications Decency Act of 1996, las respuestas que Google elabora mediante su propio algoritmo generativo, Gemini, no lo están. En ese caso, las respuestas no forman parte de algo que la compañía simplemente distribuye, sino que son creadas por una herramienta propiedad de la propia compañía.

Y dada la tendencia de los algoritmos generativos a «emborracharse» de manera habitual con correlaciones a menudo vagas, ridículas o directamente espurias y generar lo que algunos han dado en llamar incorrectamente «alucinaciones», esto puede terminar desencadenando problemas y responsabilidades bastante complejas.

¿Qué ocurre cuando un algoritmo generativo, por ejemplo, se inventa que un presentador de radio recibe dinero de una organización que defiende el uso de armas? Pues que, lógicamente, el presentador denuncia a la compañía por difamación, y como es lógico dado que la afirmación no era en absoluto cierto, gana el caso. Eso le ha ocurrido a OpenAI, primera compañía en lanzar masivamente un algoritmo generativo que alcanzó una enorme popularidad, y le ha supuesto ya varios casos de este tipo. ¿Pero qué ocurre cuando quien lanza la herramienta y la vincula a su producto principal es Google, propietaria del motor de búsqueda que usan constantemente millones de personas? Por simple lógica estadística, nos vamos a empezar a encontrar resultados de este tipo con una frecuencia relativamente elevada, y muchos de los que las reciban, posiblemente, estarán en situación de considerarlo un hecho denunciable.

Aunque se ha progresado en este ámbito, las respuestas disparatadas o simplemente falsas suponen un enorme desafío para las compañías que desarrollan algoritmos generativos, debido fundamentalmente a la naturaleza probabilística de estos modelos y a las complejidades inherentes al lenguaje humano. Los sistemas basados en post-moderación pueden, posiblemente pero no siempre, reducir la incidencia de los resultados más populares o habituales, pero para otros, es preciso recurrir a una retroalimentación humana que no siempre está dispuesta a simplemente hacer una corrección, sino que directamente denuncia a quien generó el resultado. El refuerzo del aprendizaje de los modelos puede llegar a ser una solución, pero ni es sencilla, ni mucho menos rápida o universal. Y un simple disclaimer en forma de letra pequeña bajo las respuestas tampoco sirve.

El dilema de Google es claro, y lo anticipamos hace ya tiempo: se llama «el dilema del innovador», lo describió maravillosamente bien Clayton Christensen en su libro, y alude a lo que le suele ocurrir al líder de un mercado cuando intenta innovar: que las consecuencias de los cambios se pueden sobredimensionar, tanto para lo bueno como para lo malo. Si no incorpora algoritmia generativa a su búsqueda, verá como otros competidores lo hacen y le empiezan a robar cuota de mercado. Pero si lo hace, está poniendo al mando de la nave a un robot con cierta tendencia a emborracharse, con todo lo que ello puede conllevar cada vez que sus ocurrencias atropellen a alguien y lo que maneja no es un utilitario en forma de startup o de compañía pequeña, sino un camión descomunal. Por no citar los posibles efectos reputacionales si esas respuestas llegan a interpretarse como que afectan a determinadas cuestiones sensibles.

No parece que Google lo tenga fácil Google, aunque no hacer nada, obviamente, tampoco era una solución. Veremos cómo sale de esta.


This article is also available in English on my Medium page, «Google and the drunken robot dilemma«

10 comentarios

  • #001
    Javier - 19 mayo 2024 - 13:32

    Confieso que no he probado el servicio, pero que hayan tardado cero-coma-nada en hasta crear una extensión en Google Chrome que elimina los resultados generados por IA

    Hide Google AI Overviews

    …y que además tiene 5/5 estrellas… ¡ouch! eso tiene que doler…

  • #002
    Dedo-en-la-llaga - 19 mayo 2024 - 16:33

    Wuaaaala!!! Los que somos un poquito famosos nos vamos a forrar.

  • #003
    Gorki - 19 mayo 2024 - 18:11

    Está utilizando un programa en pruebas que puede dar respuestas erróneas. Si no desea participar en las pruebas, oprima este botón.

    Pues no nos ha tenido Google con programas en versión beta

  • #004
    Xaquín - 19 mayo 2024 - 20:12

    No veo porque la IA del Tío Google vaa ser peor que la IH de un tal Losantos, por poner un solo ejemplo de Tíos, a los que no conviene ni tener en la mesa de al lad, tomando café… ya no digamos al ubicuo Villarejo Cotilla.

  • #005
    Chipiron - 20 mayo 2024 - 09:43

    Para nada soy un especialista en leyes. Por eso, lo que no entiendo, es cómo un buen disclaimer, claro, conciso y que tengas que aceptar para tener una respuesta de Gemini, no les proteja del tema.

    En otras palabras: tú haces la búsqueda; te devuelve las típicas respuestas Googlelianas y te pregunta: «Quiere usted la opinión de Gemini sabiendo que es aleatoria y que no podemos garantizar que se atenga a la realidad?» Y con esa advertencia tu aceptas o no proceder, sabiendo que la respuesta es pura aletoriedad y ellos puedan estar protegidos.

    Me estoy refiriendo a un «disclaimer» de 3 líneas en el que CLARAMENTE te diga que lo que va a soltar Gemini es puramente estadístico y aleatorio, que puede no tener nada que ver con la realidad (lo cual me recuerda a películas que añaden esa aclaración en los créditos finales). Y que tengas que aceptar «si, soy consciente, entiendo que el resultado es aleatorio pero quiero proceder a recibir una respuesta de Gemini».

    Pues eso, si se repite por activa y por pasiva que el motor de Gemini es aleatorio y que no se puede controlar si sus respuestas se ajustan a la realidad, y tu aceptas que lo entiendes y que aún así quieres dicha respuesta, dónde está el problema?

    Saludos!

    • expatriado - 20 mayo 2024 - 10:08

      En mi opinión el problema no es para el que ha usado el servicio, sino para la gente implicada en la pregunta.

      Si yo le pregunto a la IA, «Cuentame algo de Chipiron», y me contesta que es un defraudador de impuestos condenado en firme, yo nopuedo quejarme de esa respuesta, pero a lo mejor a ti no te haria mucha gracia.

      En realidad el problema es tambien para Google, que no puede decir que es un mero transmisor de informacion de terceros, sino que ha generado esa informacion.
      Al menos es como lo entiendo.

      • Chipiron - 20 mayo 2024 - 11:51

        Hola EXPA, entiendo tu punto de vista. Pero si antes de recibir la respuesta de GEMINI se advierte por activa y por pasiva que puede no ser correcta y que, de hecho, hasta cierto punto es aleatoria, aunque no me haga gracia a mi la respuesta Google no está afirmando que Chipiron sea un defraudador.

        Yo lo veo un poco como los informativos que hablan de «presunto violador», «presunto terrorista», «presunto asesino» para curarse en salud, pues aún no ha habido una sentencia en firme sobre lo que acaba de suceder en el lugar del crimen.

        Saludos!

  • #008
    AlbertoV - 20 mayo 2024 - 11:18

    El problema radica en que la mayoría de la gente cree que lo que devuelven estas IA es información cuando no lo es.
    ¿Puede acertar? Si , muchas veces, pero nunca sabrás si lo que te dice es cierto o no.
    ¿alguien utilizaría una calculadora que falla ‘solo’ el 5% de las veces? Yo no

    • Gorki - 20 mayo 2024 - 12:11

      ¿Nunca has hecho un cálculo a ojo? – Yo si

      • F3r - 20 mayo 2024 - 14:13

        No es lo mismo. El ojo acierta el 100% de las veces, con un error grande.
        Chatgpt falla el 5% de las veces, y no puedes cuantificar cuándo.

Dejar un Comentario

Los comentarios están cerrados