El uso de un asistente doméstico inteligente como Amazon Echo o Google Home tiende a ser, por lo general, bastante repetitivo: uno suele acostumbrarse a la serie de comandos que utiliza habitualmente y tiende a hacer uso casi siempre de los mismos: sea preguntar cosas, poner música, apagar y encender luces, apuntar cosas en la lista de la compra, poner alarmas o avisos, etc., lo normal es que un usuario se quede con una pequeña parte de las funcionalidades de su dispositivo, y tenga pocas ocasiones para descubrir otras posibilidades nuevas.
Algunas funciones resultan claramente obvias, y en muchos casos, forman parte de las prestaciones originales que nos llevaron a instalar el dispositivo en primer lugar. Otras funciones vienen de la mano de dispositivos adicionales: si adquieres, por ejemplo, una cámara, un sistema de riego, un controlador para la televisión o unas bombillas, tenderás seguramente a buscar la pegatina de «funciona con Alexa», y en cuanto instales el aparato en cuestión, meterás sus comandos asociados en tus rutinas. De hecho, para los fabricantes de muchos dispositivos, la idea de posibilitar que sean accionables desde un asistente doméstico de este tipo empieza a configurarse como un atributo cada vez más importante de cara a ciertos segmentos de mercado.
Lo que resulta más difícil es enterarse de otras posibilidades adicionales, o incluso pensar en desarrollarlas. Por lo general, los algoritmos que permiten llevar a cabo esas funcionalidades provienen de la compañía que comercializa el asistente inteligente (Amazon, Google, Apple, Baidu, etc.) y se despliegan de manera completamente unidireccional. Algunos usuarios llegan a crear sus propios comandos, conjuntos de instrucciones conocidos como rutinas, para cuando, por ejemplo, se van a la cama, que apagan todas las luces de una planta y encienden las del dormitorio, o cuestiones similares, pero ese es, básicamente, el nivel de sofisticación alcanzado: una agrupación de comandos predefinidos.
Eso, sin embargo, podría empezar a cambiar: según una nota publicada por Amazon hace algunas semanas, sus dispositivos podrían estar preparándose para ser entrenados por sus usuarios, y para adquirir nuevas funcionalidades derivadas de procesos bidireccionales. Un usuario, por ejemplo, podría llegar a «explicar» a su dispositivo qué entiende por una configuración determinada: si le dices que ponga las luces en modo cena, el dispositivo podría pedirte que definieses qué entiendes por modo cena, y tú podrías explicarle que quieres que baje todas las luces de la habitación salvo las que están encima de la mesa para poder ver lo que vas a comer. El dispositivo se aprendería esa configuración definida por el usuario, y podría utilizarla posteriormente.
La idea de una «teachable Alexa» con cuyos algoritmos el usuario puede interactuar o definir puede resultar bastante interesante, y es un paso más en la personalización de este tipo de dispositivos. Los hogares que adoptan este tipo de asistentes están viendo cómo, partiendo de unas funcionalidades muy básicas, evolucionan hacia posibilidades más sofisticadas a medida que instalan más dispositivos: hace tiempo que tengo varias Alexas en casa, tengo también varias cámaras Ring, pero solo ayer me di cuenta que, derivado del hecho de tener (también desde hace tiempo) un Amazon Fire TV pinchado en la televisión podía, con un solo comando, pedirle que me mostrase la cámara de la puerta de entrada en la televisión antes de abrir la puerta, o la del jardín si he oído un ruido. Si además puedo contar con que Alexa «se aprende» algunas de mis peticiones o me permite definirlas, las posibilidades, obviamente, crecen, y la propuesta de valor lo hace también.
Por otro lado, resulta interesante ver cómo evoluciona nuestro cerebro cuando interactuamos de manera habitual con una inteligencia artificial: algunos creen que tener un dispositivo de este tipo simplemente «nos convierte en más vagos» porque le pedimos que nos encienda o apague las luces en vez de levantarnos a hacerlo, cuando la realidad es que te enseña a formular tus peticiones, a pensar en modos de acceso a la información, o incluso a escribir algunos comandos de forma sencilla. En la práctica, es la manera de «re-cablear» nuestro cerebro para prepararnos para un mundo en el que este tipo de asistentes o las rutinas de automatización de tareas serán, sin duda, cada vez más ubicuas y dotadas de cada vez mayores funcionalidades. A pesar de su supuesta sencillez, es completamente normal que una persona sin entrenamiento en su uso incurra en numerosos errores, como tratar de conversar con normalidad en lugar de utilizar el comando de activación al principio de cada frase, proporcionarle comandos sin sentido, o completamente ininteligibles.
La idea de bidireccionalidad, de que los algoritmos puedan ser entrenados por el propio usuario, ofrece posibilidades muy interesantes y puede ser una base para el desarrollo de nuevas funcionalidades que incrementen la propuesta de valor percibida, y un paso más en nuestra interacción con este tipo de dispositivos, que en la mayor parte de los casos se reduce a un esquema «petición – respuesta». Si empezamos a incluir diálogos en varias fases, como los necesarios para «explicar» lo que hemos querido decir con algo para que el dispositivo «se lo aprenda para otras veces», las posibilidades pueden ampliarse bastante. Añade algunos incentivos para compartir este tipo de «algoritmos mejorados», y puedes encontrarte con un ecosistema sensiblemente más valioso. Será cosa de empezar a jugar y a probar lo que da de sí…
This article was also published in English on Forbes, «Isn’t about time you started teaching your digital home assistant some new tricks?«
Enrique, hace como dos años tuve la posibilidad de probar estos dispositivos de Amazon y Google en una tienda de productos electrónicos alemana y realmente me decepcionaron. Ninguno de los dos entendía lo que decía sin antes haberle dado la misma orden al menos cinco veces. Si estos aparatos tienen dificultades para entender a un extranjero que habla alemán (y creo que mi acento es suficientemente bueno), veo difícil que la opción «teachable» sea realista a corto plazo. ¿O es que acaso estos aparatos en los dos últimos años han mejorado sustancialmente? ¿Qué experiencias tienes al respecto? ¿Entienden estos dispositivos en España los diferentes acentos hispanohablantes o solamente los de algunas regiones? ¿O es que hay que entrenarlos para que entiendan tu voz, como pasa con algunos programas de dictado? Y si así fuera, ¿es posible lograr que entiendan los diferentes acentos de un hogar hispano-argentino, por ejemplo?
En mi caso nos encontramos con que la comprensión de lo que decimos es muy buena, y hemos probado a hablarle tanto en español – con acento, según me dicen razonablemente neutro en el caso de mi familia – como en inglés (con acento de españoles hablando inglés californiano, en mi caso, y algo más British el de Susana). Los problemas que nos dan tanto Alexa como Google Home son de otros tipos, pero no de comprensión de lo que decimos. Entiendo que en alemán pueda ser más difícil, pero en español la verdad es que lo hacen muy bien. Con otros acentos del español no te lo puedo decir porque no tengo la experiencia, no sé si habrá alguien por aquí que lo haya experimentado. Pero en nuestro caso, no solo nos entiende muy bien, sino que lo hace incluso cuando estamos a cierta distancia o con la televisión encendida. El único entrenamiento nos lo pidió para ser capaz de diferenciar las voces y asignarlas a cada usuario, pero antes de hacerlo, la comprensión ya era muy buena.
¿Qué problemas nos da? Que de vez en cuando se ponga a hablar solo, sin que le hayamos pedido nada (más veces Google Home que Alexa), posiblemente porque oiga algo en la tele o crea entender su palabra de activación, que duplique avisos sin razón aparente (que en el caso de las cámaras se convierte a veces en un castigo), o que si se corta la luz, se pongan todas en posición de encendido. En general, detallitos. Lo que sí puedo decir es que cuando estamos en nuestra otra casa, en la que no tenemos este tipo de cacharrería, la echamos bastante de menos…
Pura curiosidad ¿Han entrado alguna vez en conversacion Alexa y Ok Google?
Seria curioso que uno madara al otro apagar la luz y que este mandara al otro encenderla, como los «Useless Box»
¡Animo!, a amaestrar a tu pet, a ver si consigues que te traiga el periódico digiotal en la boca todas las mañanas.
La vas a hacer feliz a Bezos. ante pagaba, (mal), a la gente en el Amazon Mechanical Turk, ahora consigue que el trabajo lo hagan gratis sus propios clientes que le compraron un chisme a medio domesticar,.
Este tio es de un inteligencia fuera de lo común. No tien un pelo de tonto, (ni de listo, debe ser el precio a pagar)
A ver, es lo que tiene la tecnología. Los algoritmos se entrenan así, no hay otra forma de hacerlo. Y si me hace la vida más cómoda, la verdad es que no solo no me importa… es que me gusta ver el proceso! Pero sí, estoy de acuerdo con que Bezos es un tío extremadamente listo.
Yo hecho de menos una inteligencia artificial 2 que haga de interface entre la inteligencia artificial 1 y los que somos vagos para programar dichos algoritmos o para gente como mi madre de 92 años que se asusta con las instrucciones de una minipimer…y que entienda el acento murciano ¡
Estoy con Enrique que es un paso hacia el buen camino. Muy pequeñito. Pero en fin. Grande para el marketing de estos cacharros por lo que leemos….
Al final las rutinas son macros que pones en la app del cacharro, juntando comandos básicos y eres capaz de ponerle un nombre. Por ejemplo una rutina puede llamarse «Alexa, buenos dias» y tu has definido en el app del bicho ejecute varios comandos de forma secuencia: encender una luz, encender el enchufe de la máquina de café, decirte la temperatura y poner una cadena de radio..
Pero sigue todo cerrado: Solo funcionan los dispositivos smart (homologados por la marca y que paguen su royalty, que no es gratis) para que no les coman los chinos, cerrado a poder usar por ejemplo altavoces bluetooth genéricos, la tele si no pasa por caja no funciona, hasta los enchufes y bombillas. Y el API para poder generar dispositivos smart no lo abren.. TODO POR LA PASTA !!!
Ahora el gran avance de la humanidad, es que esa definición simplona la vas a poder hacer por voz, y básicamente ese el aprendizaje que ha merecido este artículo de innovación.
Y no estamos trabajando en lo que Bezos quiere gratis. Estamos haciendo casos de uso a nuestra conveniencia…o sea macros (modo estudio = pon la luz del estudio y al 50% de potencia) Muy simple todo, y que no ponga en peligro el ecosistema.
La Alexa y el Echo me la traen al pairo. Pero noto importancia no que avanzas en el texto, sobre la interacción con un algoritmo inteligente.
Desde luego tengo claro, que conversar con un Wally de la vida o un futuro C-3PO, puede resultar más relevante, desde el punto de vista intelectual, que con muchos seres humanos en versión mediocre de homo sapiens.
A fin de cuentas, como pasa con el alumnado, lo esencial está en el toma y daca. No hay interacción productiva, si no se da con eficiencia el proceso de emitir/recibir (en doble sentido).
La verdad es que cuando voy a ver a alguien que tiene un cacharrito de estos pienso: ¡otro geek de la vida…!, y me río por lo bajini.
Yo empezaré a interesarme por los asistentes AI cuando se parezcan a HAL 9000.
Como veis el tema de la inteligencia artificial general o “general AI” frente al narrow AI. Creéis que GPT-3 de OpenAI aporta algo nuevo?
Cada vez nos iremos acoplando más a estas tecnologías, personalmente yo he sido parte de esto, al principio no encontraba un fin para Google Home pero hace un par de meses comencé a darle un uso bastante útil, el tema de los recordatorios.
Interesante artículo Enrique, saludos!