¿Qué es exactamente formar a tus empleados en inteligencia artificial?

IMAGE: OpenAI's DALL·E, via ChatGPT

A medida que más compañías van comprobando que el uso de la inteligencia artificial como asistente por parte de sus empleados los hace más productivos y es susceptible de generar posibles ventajas competitivas interesantes y ayudar a clarificar redundancias si es que existen, surge la necesidad de formar a esos empleados en el uso de ese tipo de herramientas, pero sin que parezca estar todavía muy claro en qué debe basarse esa formación.

Por el momento, llevados por compañías como Microsoft con su Copilot o Google con su Gemini, ese uso de la inteligencia artificial consiste fundamentalmente en aprender a utilizar asistentes generativos para tareas sobre todo administrativas, desde escribir un correo o una carta a hacer una presentación o una hoja de cálculo. Un uso no especialmente sofisticado y más parecido a lo que son «las clases de ofimática» de hace años, en las que, simplemente, las herramientas se han hecho levemente más sofisticadas.

Eso parece estar llevando a que muchas compañías crean estar formando a sus empleados en inteligencia artificial cuando, en realidad, les están dando versiones más o menos glorificadas de habilidades en el llamado prompt engineering, en cuatro recetas básicas para aprender a pedirle cosas de manera eficiente a un asistente generativo. Y si bien, para alguien carente de experiencia en inteligencia artificial, aprender prompt engineering puede parecer algo similar a aprender ciencia de cohetes, la realidad es que el prompt engineering es algo no solo sumamente trivial, sino que, además, será pronto bastante innecesario, dado que nuestros prompts serán optimizados por los propios algoritmos.

Recordémoslo: lo que las big tech quieren es que veamos la inteligencia artificial como algo terriblemente sofisticado, complejísimo y que hay que pedirles a ellas en forma de productos a los que nos suscribimos. Pero la realidad es que la inteligencia artificial tiene barreras de entrada muchísimo más bajas de lo que nos quieren contar, y que la competitividad de tu compañía no estará en ser capaz de utilizar lo mejor posible las herramientas que te proporcionen las big tech, sino en la creación y el desarrollo de tus propios algoritmos, entrenados con tus propios datos generados por tu actividad empresarial. Que no te engañen.

¿En qué debe consistir el entrenamiento en inteligencia artificial que proporcionamos a nuestros empleados? Básicamente, en que aprendan a diferenciar la tecnología de la magia, lo que permite entender tanto sus posibilidades como sus limitaciones. Partir de desarrollos básicos de machine learning sin necesidad de programar ayuda a los empleados a entender qué hace exactamente un algoritmo, a visualizar la importancia de los datos y a hacerse con rudimentos básicos de estadística, o cuando menos, a refrescarlos.

A partir de ahí, pasar del machine learning a la algoritmia generativa es simplemente cuestión de entender las posibilidades de los modelos masivos de lenguaje, para así darse cuenta de que, si bien nos pueden parecer espectaculares, su rendimiento es muy inferior a lo esperable dadas las ingentes cantidades de datos que precisan para su entrenamiento. Entender los dimensionamientos habituales en algoritmia generativa ayuda a que entiendan qué es realista pedir y qué no lo es, y a que sean capaces de plantear, por ejemplo, rediseños de productos o de servicios para incorporar prestaciones nuevas que los hagan más competitivos de manera razonable. Algo que no te van a enseñar, mucho me temo, en «la academia de la esquina».

Entender qué es un RAG, una LoRA o un thin wrapper frente a lo que supone el desarrollo completo de un modelo hará que nuestros empleados puedan conceptualizar muchas cuestiones fundamentales en inteligencia artificial: no se trata de que sean capaces de crear modelos, sino de que entiendan qué hay en ellos, qué tipo de limitaciones tienen, qué hace que cometan errores o qué permite hacerlos cada vez más sólidos. Y eso implica no simplemente saber escribir peticiones más o menos sofisticadas, que es una perfecta chorrada, sino entender fundamentos básicos de qué es la inteligencia artificial, qué hace y qué podemos plantearnos con ella. Ese tipo de habilidades son las que harán a tu compañía más sofisticada y posiblemente más competitiva, no simplemente un fino barniz o maquillaje de prompt engineering como si tuvieran que «aprender a hablar de nuevo» para pedirle cosas a algún tipo de «inteligencia superior».

Recordemos la tercera ley de Clarke, «cualquier tecnología lo suficientemente avanzada es indistinguible de la magia». Nuestro trabajo es que nuestros empleados dejen de ver magia donde únicamente hay tecnología, y que aprendan lo mejor posible a entender cómo funciona y qué pueden esperar de ella. Eso es todo.


A revised version of this article was published at IE Insights, «Showing workers what’s behind the curtain of AI«

A version of the original article in Portuguese is also available, «Mostrar aos trabalhadores o que está por detrás da cortina da IA«

17 comentarios

  • #001
    Benji - 3 junio 2024 - 11:58

    Yo trabajo en prevención de accidentes usando los reportes de años previos. Teniendo en cuenta que tengo clientes con 6 000 incidentes, 20 000 no conformidades, etc, debería ser suficiente para que una ML pueda sacar ciertas estadísticas por instalación/fábrica.

    Pero luego veo la cantidad de datos que necesita GPT-4o para funcionar y no tengo ni para la cúspide de la cresta de la punta del extremo superior del zénit del iceberg

    • Enrique Dans - 3 junio 2024 - 12:04

      Es que esa es la confusión más habitual. Con el volumen de datos que mencionas, puedes hacer ma-ra-vi-llas en machine learning con modelos predictivos sofisticados. Pero no necesitas hacer nada generativo, y de hecho, en ese tema, todo lo generativo te sobra. No quieres un modelo de automatización sofisticada que pueda alucinar, por ejemplo, o que hable en lenguaje humano. Con que hable estadísticamente te sobra. Y en esa diferencia (enorme) y en esa confusión entre modelos de machine learning y modelos generativos están intentando pescar las big tech, tanto a nivel de mercado como de reguladores, diciendo eso de «esto es muy sofisticado y muy peligroso, dejadnos a nosotras que sabemos lo que hacemos». Sí, ya. Saben mucho.

    • Pere Vilás - 4 junio 2024 - 11:51

      Hazte una hoja de cálculo y quítale el 20% de los datos (filas) al azar. Pásaselo al GPT y dile que te haga un modelo predictivo de conformidad por fábrica. Después pídele que te prediga la conformidad de algunas de las filas que quitaste a ver si acierta o no.

      Es este tipo de «inteligencia artificial» el que hay que enseñar en las empresas.

      Creo que es el sentido del artículo de Enrique.

  • #004
    Javier - 3 junio 2024 - 13:30

    No digo que lo tengas que hacer hoy, pero: ¿podrías recomendar un libro para el público de a pié? Digo, algo así como «IA for Dummies» (qué ni sé si existe ni si será bueno o no) pero que sea accesible para el lego, y que haga lo que un buen libro debe hacer: dejar al lector con ganas de más.

    • f3r - 3 junio 2024 - 16:53

      Deep learning book, del MIT. Pero no es para dummies porque nunca puede serlo.

      • Javier - 3 junio 2024 - 17:03

        Se agradece

  • #007
    Lua - 3 junio 2024 - 14:36

    Si una IA te tiene que redactar una carta, déjalo… no vales para tu puesto porque no tienes dotes de comunicación.

    Si una IA te tiene que hacer una sucesión estadística, que puedes hacer con un Excel, 10 clicks y 5 minutos (y de los 10, 6 son para ponerlo “bonito”, déjalo… vas a perder mas tiempo.

    SI tienes que hacer un “curso para saber preguntar a una IA”, déjalo, porque tu iniciativa y capacidad para resolver problemas, es poco menos que la de un escarabajo pelotero…

    Pasado el hype, y una vez las cosas van volviendo a su “normalidad”, ese temor que sobrevoló por todos los departamentos de todas las empresas, por mas que gurús y comunicadores se empeñen, no tiene sentido. Al menos en el corto y medio plazo, nadie va a perder su puesto de trabajo. Quizás quienes están en el mundo de la ilustración o del audiovisual, si serán más temerosos. Mas adelante (2/3 años) igual sí.

    Los cursos de Prompt engineering, son tan saca cuartos como lo fueron en su momento los de Community Manager, en que, si no tienes esas “dotes de comunicación”, ya puedes ir haciendo cursos… como el que tiene los pies planos y se empeña en hacer los 400mts lisos. Si no sabes “detectar” cual es tu problema, y como enfrentarlo, en poco te ayudara una IA (sin perder más tiempo del necesario). Tienen que enseñarte a hacer preguntas?

    Dicho esto, a una IA, la que sea, se le puede permitir un ligero margen de error… digamos del 0,5% incluso del 1%… todo lo que esté por encima, ya la invalida. Y ya estamos viendo en que márgenes se mueve. Quien crea (empresario) que para ahorrarse cuatro duros, puede poner a un auxiliar administrativo a llevar una contabilidad o hacer un desarrollo “solo porque tiene IA”, lo va a pasar mal…

    La IA (que no el algoritmo, que manía con ponerle ese nombre), esta avanzando a pasos agigantados, y si, cada vez es mejor. Pero le queda un recorrido que va a muy lejano en el tiempo. Digan lo que digan las Big’s, que lo único que quieren, son suscripciones para mantener el tinglado (y sacarse unos cuartos).

    ps.- Menospreciar “lo que son «las clases de ofimática» de hace años”… es un poco no solo menospreciar la labor de otros profesores, sino desconocer que en muchas empresas, ese “cursillo de mindunguis de 100h”, aumenta la productividad en un 500%…. y sin IA.

  • #008
    El mismo que viste y calza - 3 junio 2024 - 15:20

    El año de Linux en el escritorio.
    El año del coche autónomo en las carreteras.
    La IA que te lee el pensamiento. Que hace lo que quieres hacer antes incluso de que se te ocurriera hacerlo. Esto es sarcasmo.

    LLevamos 20 años con esa milonga que nos dicen las tecnológicas Un bluff más. Utiles? Sí. Pero muy lejos de lo que pretenden hacernos creer. Es como si el payaso de Musk estuviera detrás de todo ello. Y no os equivoquéis, todas tienen su payaso propio generador de expectativas falsas.

  • #009
    El mismo de antes - 3 junio 2024 - 15:40

    Prompt engineering: Conjunto de instrucciones absurdas innecesarias para algo que se llama inteligente, si realmente lo fuera. Intentan evitar el fracaso de la máquina por sus propias deficiencias y al mismo tiempo la frustación del que la usa. De paso generan dinero a un montón de cantamañanas con una mano delante y otra atrás que de repente encuentran trabajo. Aunque va a ser temporal y pronto regresarán al paro.

  • #010
    Xaquín - 3 junio 2024 - 16:10

    Cito, sin escribirla, la última frase de la entrada.

    Y me repito : ¿qué diferencia hay entre enseñar a lidiar con una IH y enseñar a lidiar con una IA?

    Aparte ciertos matices , que pueden ser vitales desde luego, (no por ahora) en relación con las llamadas alucinaciones. Que la mente humana tiene con ayuda química y la IA las tendrá sin ese tipo de ayuda. Pero sí, con las alucinaciones que empiece a divisar por las IH que le toque auditar.

    Porque el rollo Skynet (algo también dicen en Yo, robot), no es que una IA se vuelva «loca», porque sí, se «vuelve loca» porque aprenderá de las mentes humanas que existe ese tipo de salida mental (alucinar) a su inteligente alcance.

    Y no cabe duda que el mediocre humano que somos, no parará hasta hacer que la IA toque con sus extremidades virtuales la necesidad, tan humana (mediocre) de poder. Entonces veremos si la ciencia ficción también es ciencia o solo ficción.

  • #011
    f3r - 3 junio 2024 - 17:03

    Pues siento discrepar al 100% contigo Enrique (imagino que será porque hablas de aplicaciones ultra-simples, o yo qué sé…)

    Uno puede coger la arquitectura de una persona (o varias), mezclarlas, usarlas para tus bases de datos y, voilà, puede que funcione. Ahora bien, si de repente no te funciona: ESTÚDIATE la carrera de data science, física y/o matemáticas desde cero para entender por qué a ti no te va y al que hizo el repositorio de github sí le iba.

    Te hablo del nivel de que mis doctorandos (de 3er año) están cogiendo arquitecturas exitosas de otros investigadores (p. ej. superresolución) y de internet (pix2pix, SRDensenet), y cuando de repente le cambias el ámbito, el tipo de imagen, el tamaño, etc, de repente no sale lo que te esperas. POR SUPUESTO: las redes entrenadas tienen una cantidad de triquiñuelas que lo flipas que han sido masajeadas para un problema concreto durante meses hasta que a UNOS EXPERTOS les ha funcionado.

    Volviendo A.C.Clarke: lo que sí sería magia es que una herramienta matemática avanzadísima, fruto del resultado de décadas de investigación en signal processing y en estadística la pudiera manejar cualquier imbécil sin estudios.

    • Enrique Dans - 3 junio 2024 - 17:35

      No, no hablo de aplicaciones ultra-simples, hablo de machine learning. Y cualquiera, absolutamente cualquiera, puede tomar unos datos de prácticamente cualquier proceso, limpiarlos un poco, normalizar los que no estén normalmente distribuidos, y pasarlos por un programa que le ayude a crear modelos predictivos. Es más, lo puede hacer en pocos clics. Obviamente, si de lo que hablamos es de procesos complejísimos, pues será complejo, porque la complejidad estaba en el proceso, no en el algoritmo. No hace falta estudiar data science, física o matemáticas: hace falta conocer bien los procesos que quieres predecir, simular o modelizar, pero superada esa barrera, lo demás es bastante sencillo. Si sabes estadística, obviamente, mejor, y sobre todo, menos posibilidades de cagarla. Pero no le pongamos misticismo a lo que no lo tiene.

      • f3r - 5 junio 2024 - 15:24

        No estaría de más que pusieras ejemplos, porque no veo que hayas rebatido nada…

  • #014
    Carlos - 3 junio 2024 - 19:32

    A veces vengo a este blog con fines puramente terapéuticos. El filtrado de sinsentidos que hay que hacer a día de hoy en todo tipo de medios es tan grande que uno termina con la sensación de que la sociedad está perdiendo el norte muy seriamente… Así que me paso por aquí a leerte hablando con sentido y conocimiento y oye, que a gusto me quedo.
    Lástima que mis conocimientos solo me den para intuir el porqué de muchas de las cosas que están sucediendo. Con los tiempos tan apasionantes que corren… cuanto exceso de chorradas por favor

  • #015
    Gorki - 4 junio 2024 - 12:18

    En la medida que conozco, (que es muy escasa), como se está utilizando ya y de forma habitual la Ai en las empresas, es como «atajo» para adquirir un conocimiento puntual que se precisa la empresa, conocimiento que si no existiera la AI, se alcanzarìa, pero con mas esfuerzo,

    Son preguntas del tipo , «proveedores de cemento en Rumanía», «eventos y festivales populares que se celebaran en Écija», «clubs femeninos de balonvolea», «importador de electrodomésticos en África del Sur»,…
    A todas estas preguntas puedes hallar las respuestas por los medios tradicionales, pero la Ai te ahorra mucho esfuerzo y tiempo en conseguir una respuesta.

  • #016
    Fer hierro - 4 junio 2024 - 23:19

    Es un buen varapalo para las academias de barrio y también para las personitas de a pie que estamos intentando aprender inteligencia artificial. En lugar de despreciar la labor educativa y los esfuerzos que estamos realizando algunos para aprender prompts, genial que nos recomiendes qué debemos hacer y dónde aprender para no ser arrastrados por la ola ai. Gracias

  • #017
    El hombre que ríe - 6 junio 2024 - 05:42

    Como se observa en la imagen del articulo, «formar empleados en IA» se refiere a los oficinistas genéricos de una oficina genérica en un trabajo genérico de gestión. Pero en realidad la IA tiene usos útiles en manufacturas y fabricación donde el uso de procedimientos y diseños estandarizados son fácilmente convertibles en LoRAs para evitar tener que dar a los obreros un manual impreso y semanas para estudiarlo.

    Asi en lugar de asustar a los oficinistas (que ya es un trabajo obsoleto incluso antes de la existencia de LoRas), tenemos que mencionar como implementarlo en manufacturas, donde las personas puedan ser asistidos por la IA

Dejar un Comentario

Los comentarios están cerrados