Los viejos captchas con todas sus estrategias, desde la de leer textos distorsionados hasta la de «selecciona todos los cuadrados que contengan algo«, pasando por los de «mueve esta regleta» o «haz clic aquí», están cada vez más dejando de funcionar. La inteligencia artificial convencional, incluso antes de llegar los nuevos sistemas agénticos, ya es perfectamente capaz de resolver unas pruebas que, en muchas ocasiones, ya resultan más complejas para los humanos que para los propios bots.
Sin embargo, la necesidad de discernir cuándo un usuario o el tráfico que genera es realmente humano o proviene de algún tipo de bot sigue siendo fundamental: los bots se utilizan para todo tipo de fraudes, desde simular tráfico no genuino o enviar spam, hasta generar reviews de producto o manipular encuestas pasando por simular comportamientos colectivos.
El método más razonable de intentar evitar el problema, recurrir a la biometría, genera también sus propios problemas de seguridad que precisan de desarrollos tecnológicos complejos, lo que convierte el problema en algo cada vez más paradójico: si cada vez creamos máquinas capaces de hacer más de las cosas que antes solo era capaz de hacer una persona, ¿cómo vamos a poder identificar correctamente a los usuarios humanos verdaderos y separarlos de los sistemas automatizados que pretenden suplantarlos?
El problema fue anticipado, curiosamente, por uno de las grandes figuras en el desarrollo de la inteligencia artificial, Sam Altman, cuando participó en la fundación de Tools for Humanity, ahora conocida como World, con el fin de desarrollar herramientas que permitiesen probar la condición de humana de una persona sin revelar sus datos personales. Una propuesta sin duda compleja, que requiere un desarrollo metodológico muy avanzado con el fin de permitir la captación de un dato único, en su caso los patrones del iris, pero no almacenarlos de ninguna manera que pueda permitir un mal uso o algún tipo de apropiación indebida.
Un extremo que la Agencia de Protección de Datos de Baviera, BayLDA, ha pretendido asegurar demandando a la compañía que eliminase los datos de los usuarios que había recopilado, para encontrarse simplemente con que la compañía ya lo había hecho anteriormente de manera voluntaria, que ya no tenía nada que eliminar, y que dispone ya de un método más sofisticado, más eficiente y que supone una mayor garantía de privacidad. Esto lleva de nuevo el examen a la casilla de salida: la humanidad necesita, sin ningún género de dudas, métodos que permitan demostrar la calidad de humano de sus miembros, esos métodos deben ser desarrollados a la mayor prontitud, antes de que el problema se convierta en acuciante, y además, deben cumplir con todas las garantías y proporcionar algún tipo de incentivo adecuado para fomentar su rápida adopción.
Lo que no deberíamos hacer, decididamente, es ignorar el problema o cruzarnos de brazos a esperar. Pronto, la facilidad para crear falsos seres humanos capaces de generar problemas potenciales será total, estará al alcance de cualquier irresponsable, y nos encontraremos con toda una legión de situaciones que requieran esas soluciones. Aunque muchos no lo crean, tenemos prisa. ¿Alguien va a dedicarse a plantear más cascabeles que poner a ese gato?
Si una maquina puede controlar tu ritmo cardiaco y tu nivel de glucosa, parece sencillo que pueda discernir lo que es un ser humano de un programa de ordenador. No se me ocurre en este momento de que forma. pero no creo que sea muy difícil comprobar si el interlocutor es humano o no.
Si ponen una IA para saltarse los obstáculos…
Este video viene al pelo: Chema hablando de Cibercriminales con IA
https://www.youtube.com/watch?v=bBAAjNhUGIk
PS: Ya, ya , ya se que se pasa mucho la mano por su propio lomo, pero es como Rufian tiene su gracia !!
Se crean soluciones a problemas, que a su vez crearán nuevos problemas que requerirán nuevas soluciones.
Debo de ser medio robot porque a menudo me cuesta horrores pasar los captcha.
Si es posible eliminarlos eso que ganaremos, aunque la solución de Sam Altman que propone Enrique me parece peor que el problema: imaginemos que tiene éxito y se convierte en algo masivo, ¿qué impediría a la empresa seguir el típico camino de «enshittificación» y pasar de ofrecer valor a los usuarios a dárselo a los accionistas mediante cuotas abusivas y cualquier otro tipo de extorsión que se les ocurra? ¿alguien podría prescindir de un sistema que garantiza que es quien dice ser?
Pues eso.