Me llamó poderosamente la atención como hace algunas semanas, una noticia aparentemente simple, que Amazon estaba retirando su tecnología sin líneas de caja de los supermercados, se convirtió en un sinsentido absoluto y en, básicamente, una estupidez al pasar por los teclados de algunos periodistas irresponsables.
¿Qué hay de verdad en las barbaridades que se han escrito sobre el tema? En primer lugar, Amazon no abandona en absoluto esa tecnología: simplemente, ha visto que si bien funciona muy bien en tiendas pequeñas, como las Amazon Go en las que se lanzó originalmente en enero de 2018, su aplicación tiene más problemas cuando hablamos de un gran supermercado, en donde no es que no funcione, sino que sus posibilidades pueden ser mejoradas. ¿Por qué? Simplemente, porque es muy distinto ir a una tienda de conveniencia y comprar cuatro cosas mal contadas, que hacer una gran compra y llenar todo un carro. En el primer caso, todo te da igual: buscas conveniencia, entrar, coger lo que quieres, e irte sin hacer cola. En el segundo, en cambio, tienes interés por saber, por ejemplo, cuánto vas gastando, y puedes beneficiarte de funcionalidades como, por ejemplo, que te orienten con una pantalla a la hora de buscar un producto por los diferentes pasillos.
Precisamente por eso, Amazon decidió llevar a cabo, para sus supermercados grandes, una transición de su tecnología para pasar a los llamados «carritos inteligentes», los llamados Dash Carts, que permiten a los clientes saltarse la línea de cajas y embolsar directamente sus compras sobre la marcha, pero para un nivel de compras mayor. Amazon, además, en su tradición de convertir en plataforma todo lo que desarrolla, ofrece esta misma tecnología a otras cadenas de supermercados.
Hasta aquí, todo normal: tras probar una tecnología, decides que es adecuada para tiendas pequeñas y vas a seguir usándola en ellas, y que para tiendas más grandes prefieres incorporar esa misma tecnología a un soporte más ambicioso que iba a estar ahí de todas las maneras, el carrito de la compra.
Sin embargo, algunos periodistas irresponsables y profundamente ignorantes tenían su propia versión de los hechos: dado que la noticia coincide con el despido de mil trabajadores en India, se inventa que esos trabajadores eran los que la compañía dedicaba a «espiar» a los clientes de los supermercados a través de las cámaras, y que por tanto, lo único que había hecho Amazon era llevarse la línea de cajas a otro sitio.
La frase no tiene desperdicio:
«Though it seemed completely automated, Just Walk Out relied on more than 1,000 people in India watching and labeling videos to ensure accurate checkouts. The cashiers were simply moved off-site, and they watched you as you shopped.«
(Aunque parecía completamente automatizado, Just Walk Out dependía de que más de 1000 personas en India vieran y etiquetaran videos para garantizar pagos precisos. Los cajeros simplemente fueron trasladados fuera del sitio y lo observaban mientras compraba.)
Escribir semejante estupidez revela una ignorancia tal sobre el funcionamiento de la inteligencia artificial, que el supuesto profesional que firma la noticia debería ser puesto directamente de patitas en la calle: lo único que los empleados en India hacían era, como en toda aplicación de inteligencia artificial, revisar algunos de los vídeos capturados en las tiendas para, completamente a posteriori, clarificar las dudas y mejorar el entrenamiento del algoritmo en casos límite. En algoritmos complejos en los que las posibilidades son múltiples, es completamente necesario disponer de personas que revisen y corrijan los casos en los que el comportamiento del cliente genera algún tipo de duda o error. En ningún caso se trata de que los empleados en India estén actuando como si fueran «cajeros en remoto», espiando al cliente en tiempo real y haciendo la cuenta de lo que va comprando, como la frase utilizada por el periodista claramente implica. De hecho, semejante idea, considerando la escala de las tiendas de Amazon, es simplemente ridícula, como lo es el que la compañía ofreciese esa tecnología a otros competidores. Más que ridículo, es absurdo.
Una nota de prensa publicada por Amazon posteriormente, al ver la dimensión de la estupidez colectiva y el lío que se estaba formando en torno a una idea tan ridícula e infundada, aclara todos estos términos y explica la realidad. No, ni la tecnología ha fracasado, ni dependía de mil indios mirándote por las cámaras, ni la compañía estaba «haciendo trampas» de ningún tipo. Simplemente, había un imbécil que jamás debería estar informando sobre tecnología y que desconoce que los algoritmos hay que entrenarlos, y que en lugar de estudiar, estaba aporreando las teclas. Una irresponsabilidad tanto del supuesto profesional, como del medio que le permite publicar esas estupideces. Y sobre todo, una llamada al lector para que ejercite un mínimo el sentido común cuando lee noticias de tecnología. O, tal y como están las cosas y viendo el nivel de algunos de los que ejercen la responsabilidad de informarnos, cuando lea sobre cualquier otra cosa.
This article is also available in English on my Medium page, «Never let the facts get in the way of a good story«
Joder… de tamaña estupidez solo me puedo reír… y recordar el famoso chiste sobre los mil y un indios (nativos USA) que venían hacia el fuerte… cuando le preguntsron al vigía por la exactitud dada… este dijo que eran por lo menos mil… y el que venía delante de todos… así funciona la IH de este tipo de periolistos…
Y aún podemos tirar otra conclusión, esta mucho más importante, de este notición dobre los 2.000 pares de ojos indios, que vigilsban la compra en los super de Amazon…
Y tiene relación con el gran dilema (falso) de si IA o IH.., cuando las empresas saben usar su IH para hacer eficiente el uso de la IA… y siempre desde un pudto de vista humanista… está claro que existen caminos de avance … como dices tu muy bien, solo hay que observar las cámaras y analizar el mecanismo comprador en cada contexto… en fin, más de lo mismo.
¿Amazon despide mil empleados en la India? – Parece ser que si.
¿Amazon cierra tiendas sin cajero? – Parece ser que si,
¿Esos dos asi untos están relacionados? – Unos dicen que si, y otros que no.
¿Y tu que opinas? – No tengo ni idea si esta relacionado o no. A mi no me gusta hacer cola, pero me conformo, cuando crece la cola en las cajas, con que transformen reponedores en cajeros, como hacen en Mercadona, que tampoco me parece mala solución.
Según lo que dice Enrique estaban relacionados, porque estos indios se dedicaban a revisar los vídeos para ver si el algoritmo había cometido errores en algunos casos dudosos (eso es lo que he entendido).
El error del chico es que en vez de entender que los indios revisaban los vídeos para comprobar el algoritmo, entendió que ellos eran los que llevaban la cuenta en las compras.
Probablemente sea un chico/a normal que por algún motivo estaría mal ese día y el editor o quien revise esto en la publicación no hizo bien su trabajo.
Hay que pensar que en determinados estados, vamos un poco en piloto automático (depresión, eventos traumáticos, drogas, etc…) y podemos cometer errores en la comunicación, en este caso, ha sucedido que el revisor tampoco ha hecho bien su trabajo.
También puede ser que no tuviese mucha idea de tecnología, pero me inclino más a pensar que aporreo las teclas sin pasar lo que escribía por la CPU.
El chico no es tal chico, es supuestamente un periodista tecnológico con experiencia, con nombre y apellidos. Pero tiene una cierta tendencia al sensacionalismo, y aquí creyó, porque no tiene ni maldita idea de IA ni de entrenamiento de algoritmos, que había encontrado la historia de su vida: «¡WOW, Amazon ha estado engañando a todo el mundo!!!». Deberían despedirlo inmediatamente por imbécil e irresponsable.
Si eso es así… Vaya nivel Maribel…
Hay un problema de falta de credibilidad general y el gusto por el morbo o el cotilleo.
Supongamos que nos creemos una versión la que sea de una noticia. En política es muy claro, lo han dicho los mios… y si es algo que perjudica a los otros.
En el caso de Amazon como tiene un histórico de falta de ética, mentiras, esquiroles, despidos, etc entonces lo que sucede es que es una compañía con su credibilidad puesta a cero…
¿Os acordais hace años cuando iban a comprar un montón de furgonetas eléctricas? Pues cerca de mi entorno hay un hub de ellos, nunca he visto una… ¿cherrypicking? o marketing para tontos de la marca
¿os acordais cuando el spot del orgulloso trabajador en sus almacenes? Pues era publicidad para contrarrestar las numerosas noticias de las condiciones de trabajo, la persecución a que haya sindicatos, a los repartidores que van con sus tartanas y cobran una mierda, etc etc más marketing corporativo para presumir de lo que no son.
Asi que sale una noticia FAKE ( que lo sea es lo de menos) de una tiendas que desde el principio se veía que no iban a ningún lado, en un Super de verdad, el que compras 25 artículos, lo del RF es la idea peregrina del que asó la manteca, y con el tiempo tienen que recular y cambiar el sistema. en ese entorno de parida tecnológica,
Y a mucha gente el que haya 1000 indios vigilando es bastante creible, y lo malo no es que no lo sea, es que las condiciones que tiene Amazon, de credibilidad están bajo cero, y es en primera instancia lo que lo hace creible.
Dicho lo cual es peor del asunto es tanta justificación e intentar pasar por ser la esposa virginal del emperador de Roma, cuando la gente tiene en mente que es la esposa Mesalina, la reina del vicio.
Asi que el periodista ha dicho una parida, si.
Pero lo malo es que es creible. No que lo sea o no lo sea. Ese es el verdadero error de Amazon, no entender que pasa por Mesalina y no por una virgen vestal.
Dicho esto es un FAKE, pero me importa poco que lo sea o no. me resbala Amazon y más sus excusas.
¿Qué es lo de los 1000 indios?
FAKE
Si la desinformación por parte de los periodistas solo se diese en el ámbito de la tecnología, iríamos bien.
Tomar como fuente fiable una nota de prensa de una compañía,…. Pues qué quieres que te diga,…
De acuerdo esos 1000 teletrabajadores de la India, no espiaban lo que comprabas en una tienda sin cajero.
¿A qué se dedicaban? Según cuentan en Amazon «revisar algunos de los vídeos capturados en las tiendas para, completamente a posteriori, clarificar las dudas y mejorar el entrenamiento del algoritmo»
¿ Mil teletrabajadores para revisar algunos videos? – Muy barata debe andar la mano de obra en la India
Bien, normalmente, cuando hay una situación de «doble spiderman» Peter Parker se va a dar un paseo, es una de las cosas que tiene internet; los farsantes han encontrado un medio ambiente propicio.
La realidad es la realidad, salvo que un «auténtico» experto diga lo contrario.
La cifra que lo aclara todo es sencilla: De cada 1000 ventas, 700 tenían que ser revisadas, porque el algoritmo no podía etiquetar correctamente los productos adquiridos, ni hacer el cálculo de la compra por sí solo.
Es decir, no funcionaba con la precisión que se le requería (revisión de 50 de cada 1000).
Y un buen porcentaje de esas revisiones, acababan en una aprobación manual para emitir el ticket, lo que explicaba la tardanza, a veces de horas, en aparecer el cargo en la App.
Amazon Fresh kills “Just Walk Out” shopping tech—it never really worked – Ron Amadeo @ Ars Technica
Lo ha confirmado Amazon. Y solo hay que saber leer inglés y abrir el paywall
¿Qué por qué? La explicación es sencilla a nivel técnico, pero hay otra mucho más sencilla y asequible al común de los mortales.
Porque una cosa es predicar y otra dar trigo.
–
Disclaimer
A mí me pagan por el trigo y por el molino. No por los rezos, ni por poner caras en Youtube.
Para los que tengan curiosidad técnica, es un problema que viene de los años 90 y es similar en la VR.
Los algoritmos de machine learning no pueden crear una identidad única para cada objeto, que es algo que las personas aprenden de niños, y es la base de los trucos de magia, cuando una carta pasa de una posición a otra de la baraja y no entendemos como se ha producido la transición.
Es lo mismo que hace Tamariz (Su hija es mucho más majica)
Los algoritmos siguen sin ser buenos en el reconocimiento contextual, cuando no hay un objeto definido o se produce un desplazamiento discontinuado. El algoritmo todavía no puede inferir si está viendo un único objeto o son dos diferentes cuando pierde la trayectoria del mismo.
A muchas personas les pasa lo mismo con la ironía, o los giros conceptuales. se mueven en esquemas rígidos de significados. Una cosa solo significa «una cosa».
Se suponía, que en un contexto rígido como el de un supermercado ( o el ajedrez, Go, reconocimiento facial, etc.) con posiciones fijas en todos los anaqueles, se paliaría esa falta de información de continuidad de una referencia. Pero no ha sucedido así.
La «continuidad» o Rácord es diferente para los algoritmos de inteligencia artificial. Es también una de las causas de las incoherencias de ChatGPT, que se contradice a sí mismo, si se le plantea la misma cuestión de dos formas diferentes en la misma conversación.
Y sí, pagan por resolver esas cosas. Detectar imbéciles.
–
En su día dije DOS cosas: no fue SOLO UN chico… Fueron bastante más que SOLO UN chico…
Si todo era mentira, pues ese es al nivel que habíamos llegado.
Y de regalo, Bonus Track: dije que por extrañas casualidades, me he ido enterando de cosas de esa misma empresa que a más de uno se le iban a caer los ojos y los güebos al suelo, y dejaría lo de los 1.000 indios, incluso de ser cierto, en un cuentito para leerle a los niños pequeños antes de dormir… «Había una vez una empresa malísima que tenía esclavizados a mil indios de ojos muy saltones que…», ja, ja, ja,…
Saludos.