En las últimas semanas, el interés por la inteligencia artificial ha cobrado un interés renovado al menos por dos tipos de aplicaciones de uso abierto y masivo que, entre otros efectos, han dejado ver el nivel de avance y sofisticación que esta tecnología ha adquirido.
El primero ejemplo lo dieron las aplicaciones que mostraron la capacidad de la inteligencia artificial para generar imágenes de estilo “artístico” a partir de una simple instrucción. El segundo es el ampliamente probado y referido ChatGPT, una herramienta enfocada en responder preguntas (pues se trata de un bot conversacional) pero que, al hacerlo, puede elaborar textos con un nivel de complejidad que ha provocado lo mismo la admiración que el escándalo de muchos.
En este contexto, una de las primeras conclusiones que parecen imponerse ya, aun con lo incipiente del fenómeno, es que la inteligencia artificial se volverá una presencia constante en nuestras vidas, muy probablemente cada vez con mayor campo de acción.
Los textos que leamos en Internet, las imágenes que pueblen nuestro panorama visual, las interacciones que hagamos en tratos incidentales y sin mucha trascendencia (en el sector de los servicios, por ejemplo, en los bancos u otros ámbitos afines), poco a poco y quizá inevitablemente serán el resultado de la acción en las sombras de un bot, a quien quizá creeremos humano de tan refinada que estará la similitud entre el hombre y la máquina, pero que, en el fondo, no será más que un mecanismo inerte y si acaso bien programado operando.
De los muchos problemas que este escenario plantea, uno del que se ha hablado poco es el de la suplantación de identidad. Si ya la inteligencia artificial es capaz de crear imágenes prácticamente idénticas a la fotografía de una persona real, si otro programa puede poner en movimiento esta imagen y uno más imitar una voz humana, ¿qué impide que, actuando en conjunto, la falsa imagen de una persona pueda realizar una videollamada y engañar a otros, quienes, sin saberlo, crean que hablan con su conocido, su familiar, su amigo o su compañero de trabajo? Y por lo demás, a juzgar por lo que ha ocurrido en los últimos meses, si el acceso a este tipo de tecnologías será cada vez más masivo, ¿qué impide que dicho escenario de suplantación de identidad no pueda ser montado por una persona cualquiera, usando dispositivos relativamente sencillos y al alcance?
Un primer ejemplo de esta posibilidad, que ya no es sólo una fantasía propia de la ciencia ficción, ocurrió durante una transmisión en vivo de un streamer estadounidense conocido como Atrioc, quien es conocido por su actividad de videojuegos en línea, la cual deja ver a sus seguidores en el mismo momento en que ocurre a través de la plataforma Twitch.
Durante una de estas sesiones, sucedida el 30 de enero pasado, Atrioc mostró quizá involuntariamente la pantalla de su computadora a sus seguidores, lo cual podría ser del todo normal o trivial y quizá pudo no haber tenido mayor trascendencia.
Sin embargo, un usuario de reedit notó que en el navegador de Internet de Atrioc había pestañas abiertas en páginas de un tipo muy particular de contenido pornográfico. No el “habitual” de Internet (lo que sea que eso signifique), sino de sitios especializados en generar imágenes de desnudos falsas a partir de fotografías de personas reales con ayuda de la inteligencia artificial, en este caso sirviéndose de la tecnología conocida como “deepfake”.
Al ser señalado, el streamer hizo una transmisión disculpándose, en buena medida porque las reacciones a la denuncia fueron especialmente frontales, sobre todo por parte de colegas de su actividad, mujeres, cuyas fotografías y videos al parecer fueron usadas por Atrioc para generar imágenes pornográficas, por supuesto sin ningún consentimiento de por medio.
Cabe mencionar que esta situación no es del todo nueva pues los deepfakes pornográficos son un contenido común en Internet, que se genera desde hace varios años y que ha inundado la red.
Con todo, este podría ser el primer incidente que pone de relieve esa posibilidad de que la imagen que vemos de una persona –banal, familiar o pornográfica– sea ahora el simulacro generado por un programa.