El Financial Times presenta un algoritmo generativo en modo chatbot, Ask FT, desarrollado a partir del Claude de Anthropic y entrenado con varias décadas de sus propios artículos, poniendo de manifiesto la lógica de la IA generativa: que quien tenga datos, debe ponerlos en valor, bien sea vendiéndolos a un tercero (como es el caso de Reddit en los Estados Unidos, de Prisa en España o de Le Monde en Francia) o utilizándolos él mismo para alimentar algoritmos capaces de generar servicios o propuestas interesantes.
En el caso del Financial Times, que cuenta con un archivo histórico de 135 años de noticias económicas o con trascendencia sobre la economía con una reputación muy positiva y ganada a pulso, plantearse utilizar esas noticias para dar respuesta a preguntas de los usuarios es algo que tiene, simplemente, toda la lógica del mundo. La elección de Claude, el algoritmo creado por Anthropic, no es tampoco casual: desde sus inicios, la compañía se planteó hacer su algoritmo muy eficiente a la hora de ingerir y procesar grandes cantidades de texto.
A partir de ahí, cabe plantearse, en primer lugar, el valor que obtiene la compañía, más allá de encontrarse con miles de usuarios intentando obtener resultados más o menos «pintorescos» o «absurdos» y divirtiéndose compartiéndolos en redes sociales. Todo algoritmo generativo tiene casos habituales de las llamadas «alucinaciones» que se corresponden simplemente con correlaciones bajas que no representan relaciones reales, pero que el algoritmo interpreta como tales, y ese efecto se magnifica cuando muchos usuarios directamente se dedican a «buscarle las cosquillas».
La respuesta a esa pregunta debe comenzar con una reflexión acerca de la evolución de la búsqueda, que particularmente en entornos especializados deviene cada vez más en interfaces conversacionales a las que el usuario puede plantear preguntas directas y encontrarse con respuestas razonadas, redactadas y convenientemente fundamentadas, en lugar de con simplemente punteros a los que dirigirse, que en muchos casos son referencias tangenciales, para tener que llevar a cabo el trabajo de síntesis ellos mismos.
En segundo lugar, cabe pensar en un factor muchas veces subestimado: el aprendizaje institucional que tiene lugar cuando una compañía desarrolla e implanta herramientas de este tipo. Conseguir que las herramientas algorítmicas sean vistas por las compañías como algo cercano, razonablemente accesible y que puede ser perfectamente desarrollado in-house es un beneficio muy significativo, particularmente para compañías que se benefician enormemente de una cultura de permanente actualización en sus trabajadores como es el caso de un medio de información. Tener contacto habitual con algoritmos generativos propios puede hacer que muchos empleados apliquen su lógica a otros campos en los que se consideran especialistas, y que planteen desarrollos con un potencial, en muchos casos, muy relevante.
Es lo que llevamos viendo desde el inicio de la era de la algoritmia generativa: las compañías deben plantearse su actividad en torno a los repositorios de datos que poseen, entender qué valor potencial pueden llegar a tener en función del estado en el que estén (nivel de calidad, digitalización o etiquetado), y tratar de desarrollar algoritmos que sean capaces de materializar ese valor en forma de propuestas interesantes. Si no lo haces, ya lo sabes: serás como aquellos que, a finales de la década de los ’90s o a principios de este siglo aún decían aquello de «¿y yo para qué diablos necesito internet?»
This article is also available in English on my Medium page, «No in-house AI, no comment«
Trabajo con Enablon, una herramienta que acumula millones de datos de seguridad y salud perfectamente etiquetados y clasificados en muchos idiomas y con alcance global.
Tengo que confesar que me encantaría hincarle el diente con un datalake alimentado por todas las empresas que compartan su info para poder generar un enorme «lessons learned» (lecciones aprendidas) para todos en su sector, a para pedirle a la LLM que te genere unas buenas prácticas basadas en tu sector, geografía, localización, cultura, etc.
Por ejemplo, muchos de nuestros clientes tienen plantas industriales o petroquímicas o minas en Italia y en Angola. Las prácticas de seguridad son universales pero la vigilancia de su seguimiento es distinto. Una LLM podría avisar a los supervisores de Angola sobre la necesidad de controlar más que en Italia.
O la IA podría generar unas auditorías o inspecciones de la leche, con todo lo que sabe.
En fin, le veo el potencial… pero parezco el único
Benji, yo también comparto la visión que expresa.
Si te parece conversamos en hola@kioai.com
Una vez que se inventó el automóvil el petróleo pasó a ser el oro del siglo XX.
Una vez inventada la IA generativa , los datos serán el petróleo del siglo XXI
Y ¿para qué diablos necesito una rueda?… supongo fue una de las primeras preguntas que se planteó el sabihondo de la tribu, ante dicho descubrimiento/invento. Nada mejor que infravalorar lo que te presentan, para seguir contando con el aplauso del público adicto.
Luego la dimensión tiempo ya va pasando y…
Os noto muy preocupados por la falta de interacción positiva del «apoyado», en función de los buenos resultados del «apoyo». Pero la idiosincracia del periolisto nos está demostrando que nos cuenta bulos en sus artículos, ya desde antes de inventarse/descubrirse la IA.
Más que nada por la mediocridad que se manifiesta en el día día, con ele uso de la IH. Y sin llegar hasta Gaza o Moscú, simplemente en Madrid. O el actual terror a las pantallas digitales.
Hasta hace poco el problema era solo el programador del algoritmo (que si sesgos, trabajo siliconado…)… y ahora el problemón somos nosotros mismos, que no estamos preparados (?) para interactuar con una IH (por ejemplo, en un centro escolar)… ¿Por qué nos irá mejor ( o debe ser más preocupante) nuestra mediocridad en la interacción con una IA?
Imaginemos un sistema LLM realizando una determinada tarea y que de alguna manera somos capaces de tener una métrica de su desempeño.
Entonces ejecutamos en ese sistema ciertas rutinas al final de esa experiencia, lo pasamos a producción (tal y como hacen con ChatGPT, Gemini, o el mismo Claude). Y partir de ese momento se le deja aislado con lo que ha aprendido. Es obvio que a partir de ese momento ya no es una sistema que aprende simplemente es un producto que da respuestas de acuerdo a su programación, y no podemos afirmar que es inteligente sino simplemente un ejecutor de prompts, que ya no mejora. (Ver definición de Tom Mitchell)
Claude 3 con el fine tuning del banco de datos tipo FT para negocios, y muchos otros, en sentido estricto llegará a un límite, y después deberemos de decir un realista: «ya dejó de aprender», por lo que no podemos asumir que es una IA generativa que sigue aprendiendo de la experiencia, si podremos darle entrenamientos incrementales, pero con información que ya conoce !!
E incluso con esas experiencias nuevas, si no mejora la métrica de desempeño, tampoco estaría aprendiendo. Al final antes o después el conseguir que esa IA mejore con la experiencia, puede llegar a ser una asíntota no alcanzable al menos a un costo razonable….
Con esta tecnología (transformers) y con las bases de datos que sean significativas (mixtures of expertise) llegaremos a un momento que la IA ya no mejorará. Y al ritmo que van las cosas puede ser bastante pronto en(5 años?). En ese momento se cae por supuesto el mito de la AGI y no digamos lo de la inteligencia exponencial… y llegaremos a un nuevo escalón a superar de ese invierno que se avecina al menos con estas IAs. No parece que este camino nos lleva a consciencias, ni a un futuro tipo cuarto milenio. Más bien parece que serán nuestros ayudantes, y que nos facilitarán la ejecución guiada de tareas, lo cual no está mal.
Me gustaría equivocarme !