Sí, el de la foto es Abraham Lincoln. Y sí, la foto está coloreada a partir de un original, lógicamente, en blanco y negro.
Pero es que además, ahora podemos ver la fotografía animada: un algoritmo se ha encargado de superponer a la fotografía el contenido de otro vídeo, en el que otra persona locuta un anuncio de MyHeritage. Para ello, se ha utilizado tecnología de D-ID, una compañía israelí a uno de cuyos fundadores, Gil Perry, conocí hace un par de años en Netexplo, y de la que ya hablé en alguna otra ocasión. El resultado, en este caso específico, es aún un poco «sintético», pero la posibilidad de poner a la figura histórica que se te pase por la imaginación a grabar un anuncio para tu compañía es algo que, no me cabe la menor duda, nos vamos pronto a hartar de ver explotado en un buen montón de ocasiones.
La tecnología utilizada se explica perfectamente en este otro vídeo, en el que varias fotografías estáticas – una de ellas la del propio Perry – son animadas mediante lo que se denomina un driver video, y pasan a replicar de manera sumamente convincente no solo el movimiento de los labios que conlleva la vocalización de sus palabras, sino también otra serie de gestos faciales.
Hablamos, claramente, de la posibilidad de tomar cualquier imagen, y superponer sobre ella cualquier gesto en animaciones que pueden resultar muy convincentes, con todo lo que ello conlleva: desde una foto de un familiar que conviertes en animada y pasa a proyectar una evocación con una fuerza muchísimo mayor que una imagen estática, hasta los consabidos deep fakes, pero también cuestiones que van mucho más allá, desde eliminar la imagen de una persona cuya identidad se quiere proteger cuando hace una confesión o unas declaraciones, hasta utilizar actores – vivos o muertos – para crear planos que nunca han rodado, o incluso generar para ellos una vocalización en otro idioma que resulte natural cuando pasan por un proceso de doblaje.
En otro vídeo, el CEO de la empresa de ciberseguridad biométrica y comportamental BioCatch lleva a cabo una supuesta «entrevista» al conocido ladrón de bancos Willie Sutton, muerto hace más de cuarenta años, partiendo simplemente de una fotografía suya.
Ya no hablamos simplemente de deepfakes: ahora hablamos de la posibilidad de tomar la imagen de cualquiera, lo que más nos identifica visualmente como personas, y manipularla con relativa sencillez haciendo que replique los gestos que en un vídeo hace otra persona. Tras años tratando de entender la esencia de la biometría, ahora hemos pasado ya a la posibilidad de aplicar deep learning para tomar cada uno de sus componentes sus componentes y recrear con ellos imágenes sintéticas razonablemente creíbles, con sus muecas, con las arrugas de su cara si se ríe o gesticula, lo que abre nuevas posibilidades… de todo tipo.
El avance de la biometría y del deep learning es sencillamente brutal. Hemos sabido no solo abrir el juguete, sino que además, hemos entendido cómo funciona, y ahora podemos aplicarlo a cualquier cosa que nos dé la gana. Como sociedad, es posible que nos lleve un cierto tiempo entender que todo este tipo de manipulaciones sintéticas son ya no solo posibles, sino además, razonablemente sencillas.
This article is also available in English on my Medium page, «How facial recognition and deep learning can bring the dead back to life… and so, so much more«
Yo estoy deseando ver peliculas modernas protagonizadas por Gregory Peck y Rita Hayword.
Lo que pasa es que esto que ha saltado a la fama en este momento tiene ya años de antigüedad. En este blog he presentado por dos veces un par de videos en el que implantaban en la cara. la cara de otra persona y no solo eso, podian masculinizarlo o femeninizarlo lo que quisieran.
En la otra hacian moverse a una figua de acuerdo con los movimientos de un actor de carne y hueso combinando ambas técnicas seria posible repetir «Pretty Woman» con Paul Newman y Marilin Monroe.
Veré si encuetro esos videos.
Aaquí están
Captura del movimiento
https://youtu.be/q4eSKdAj3oM
Morphing de la cara
https://youtu.be/nice6NYb_WA
Éste es más casero, pero da el pego:
https://fbook.cc/3MLW
El primero que vi y me impacto fue uno de Wyoming en su programa diario, comenzaba bailando suavecito, y terminaba haciendo unas piruetas increíbles. Impactante.
Casi vomito un enlace a Facebook
Una foto de Enrique, unos audios , y dar clase el becario con la voz del profe….te van a hacer eterno…
Buen punto el de usar una figura histórica. Ya se había hablado del uso de estas técnicas «deepfake» para resucitar actores o para el porno (no me lo quiero ni imaginar combinado con la realidad virtual o mixta) pero este uso en concreto, con una figura histórica, podría hacer que cuando recreemos esos pasajes de nuestra historia, como en una película, ya no volvamos a usar un actor, sino que directamente cojamos las fotos y vídeos de ese personaje histórico y lo insertemos en la pantalla.
Está claro que estamos en los inicios de estás técnicas, pero tengo pocas dudas de que en menos de una década nos será indistinguible de la realidad. Aquí la regulación será muy importante para evitar el desastre, me imagino a los adolescentes haciendose bulling montando deepfake videos de compañeros y seguro que algunos inventan cosas peores.
Solo que va a suceder lo contrario de lo que dices, cuanta mas perfección se consiga en la simulación menos se lo va a creer la gente…….es mas, no se lo van a creer aunque sea un video real.
Pero sí, conociendo a los adolescentes, la mas guapa de la clase……..
Te refieres al uncanny valley? No crees que si se consigue una plasmación igual a la real, la gente va a preferir,!por ejemplo, un The Crown interpretado a imagen y semejanza de la misma Reina Isabel, con sus mismos gestos, que cambiar de actriz según pasan las décadas?.
Como bien señalas, pronto veremos muchos más de estos. Aunque si tuviera que escoger un ejemplo, salvando las diferencias técnicas, creo que es mucho más ilustrativo (y creíble) el anuncio de Mahou con Lola Flores ;)
Anuncia Cruzcampo, no Mahou.
Justo esta mañana he estado probando esto:
Deep Nostalgia de My Heritage…
Los resultados, son asombrosos
Creo que este «dominio» de la expresión facial tan solo está rascando en la superficie de lo que vamos a alcanzar con la IA. Imaginaos un futuro en la que una IA pueda crear un avatar que sea como tú, no solo que tenga tu misma presencia o gestos, sino que hable y parezca pensar como tú. Podrían basarse en imágenes, videos o los datos en general que tengan de ti, incluso en el futuro, los que hayan tomado directamente de tu cerebro a lo Neuralink.
Con ello, podríamos tener «un» profesor Dans hasta la eternidad, o tu familiar más querido con el que «seguir» hablando o quien sea, recreado con un detalle que va mucho más lejos que su imagen.
Nada más apropiado que el contacto físico y real con las personas para cerrar negocios. ¿Telefono, email, whatsapp, videollamada? vamos hombre…. puedes estar con el enemigo.