*

Bienvenidos a la era del deepfake, o cuando tus selfies de Instagram son utilizadas para superponer tu rostro de manera realista sobre el cuerpo de una actriz porno en un video

Como dice una nota de Motherboard que reporta este fenómeno: "We are all fucked" (todos estamos cogidos). En los últimos meses ha irrumpido en Internet lo que le sigue al "celebrity fake porn", luego de que usuarios de Reddit y otros sitios empezaran a usar un algoritmo que emplea machine learning para cambiar el rostro de una persona y superponerlo al de otra en un video. Por ejemplo, poner el rostro de Gal Gadot, Taylor Swift o Scarlett Johansson (todas ellas celebridades que han sufrido "deep fakes") sobre el de una actriz porno durante toda la duración de un video. Y actualmente ya ni siquiera se necesita conocimiento de programación para crear estos videos, ya que un usuario creó una app que simplifica el proceso. Las implicaciones de esto son realmente escabrosas.

Los videos, llamados deep fakes, aún no son perfectos, y dejan la impresión de algo raro, un no sé qué que salta un poco, algo robótico en los movimientos del rostro, pero de todas maneras se acercan asombrosamente a la verosimilitud, al punto de que la "falsedad" podría confundirse con sólo una falta de ancho de banda o un leve pixeleo. Si una celebridad ve estos videos en los que aparece debe de sentir algo sumamente perturbador, una especie de glitch ontológico. Por si fuera poco, evidentemente la calidad de los mismos sólo podrá mejorar en los siguientes años con la optimización de la inteligencia artificial que ya se está usando para crearlos.

La forma en la que estos deepfakes funcionan es relativamente sencilla. Los creadores de estos videos emplean software de reconocimiento facial que les dice qué actores o actrices porno se parecen a la persona con la que quieren hacer el cambio de rostro (algo que ha sido llamado "doppelbanger"). Para esto ya existen varias aplicaciones disponibles que son fáciles de usar. Una vez que se ha hecho el match de cara con el cuerpo, los usuarios pueden buscar en sitios de porno videos del actor o actriz elegido y empezar a hacer el "face-swap" o cambio de rostro, cuadro por cuadro.

Por el momento esto parece estar dominado por el porno de celebridades, hacer cumplir la fantasía masturbatoria de las masas, lo cual en sí es algo violatorio de la imagen, pero ya hay indicios de algo más. Usuarios de los foros de deepfakes dicen que ya han creado videos de una chica con la que iban en la escuela, usando 380 fotos de Instagram y Facebook. Hemos llegado al momento en el que las selfies que subes a Internet se pueden convertir en videos porno hardcore en apenas 3-5 horas de edición. Esto abre toda un caudal de "revenge porn".

El otro gran problema que se avecina son los videos fake de políticos circulando como las más convincentes fake news. Pronto podremos ver videos de Donald Trump declarando la guerra y asegurando la destrucción de Corea del Norte, México, Canadá o cualquier otro país, o aceptando que en realidad es gay. Cualquier cosa. Esto nos recuerda un artículo anterior en el que analizamos cómo el mundo en el que vivimos se parece más al imaginado por Philip K Dick que al de Orwell, un mundo en el que "humanos falsos generarán realidades falsas y se las venderán a otros otros seres humanos, convirtiéndolos, eventualmente, en falsificaciones de sí mismos". La caja de Pandora del "fake" está abierta. 

Wired señala que además, en términos legales, en Estados Unidos no hay mucho que una persona promedio pueda hacer. A diferencia de una foto desnuda hackeada de la nube, en este caso no se puede demandar a alguien por exponer los detalles íntimos de tu vida, y es que hay todo tipo de lagunas al respecto, porque no es tu cuerpo el que aparece. Técnicamente no eres tú en el video. Por otro lado, se podría objetar que es censura bajar estos videos, ya que son "arte". Existe la opción para las celebridades de demandar por "mala apropiación" de su imagen, pero esto sólo en el caso de que sea usada con fines comerciales. Como cuando, por ejemplo, la foto de una celebridad es usada para la publicidad de un club de strippersWe are all fucked.