Inteligencia artificial que puede escribir textos falsos es considerada demasiado peligrosa
Medios y Tecnología
Por: Jimena O. - 03/01/2019
Por: Jimena O. - 03/01/2019
Los últimos 3 años en Internet han estado dominados por la incipiente conciencia del peligro de las fake news y la persuasión de votantes o consumidores a través de algoritmos que se alimentan en tiempo real de su información para manipular su conducta en línea. Este riesgo, que algunos consideran que atenta contra la democracia y la autonomía, podría tener un nuevo actor con el desarrollo de programas que logran escribir artículos que pueden hacerse pasar fácilmente por escritos por humanos, hasta un punto indistinguible o casi indistinguible.
Hace un par de semanas la plataforma OpenAI anunció que estaba preocupada por el potencial uso nocivo de su modelo GPT2, que ha sido llamado "deep fake para textos". La compañía, que tiene a Elon Musk entre sus inversionistas, dijo que no hará pública la información de su investigación por miedo a que esta tecnología tenga ramificaciones negativas. El modelo GPT2 es capaz de generar texto plausible una vez que se le ha alimentado con un texto, algo así como una idea a desarrollar que conecta con otra información.
El sistema se diferencia de otros programas en que mantiene el mismo tema y sintaxis y crea pasajes estándar que parecen redactados por una persona. Esta plataforma se entrenó con más de 10 millones de artículos. Por una parte, esto es altamente interesante, pues este modelo puede realizar tareas como traducir y resumir textos. Pero por otro lado tiene un potencial que aunque podemos imaginar a dónde podría llevar, realmente es casi ilimitado en las posibilidades de usos que se le pueden dar para engañar y manipular. Por ejemplo, el sistema puede generar innumerables reseñas positivas o negativas de productos. Podría producir innumerables mensajes de spam, e incluso estudiar bases de datos para generar correos que busquen estafar a las personas. O teorías de la conspiración, o textos orientados a provocar a ciertos grupos sociales o políticos. Podría producir sitios enteros de fake news o de información con fines propagandísticos.
Aunque esta cautela es bienvenida, por otro lado es evidente que esta tecnología en algunos años será desarrollada por otras personas y probablemente pueda ser usada con fines nocivos. Así que es importante prepararnos y educarnos. Lo que parece indudable es que estamos llegando a un punto en el que la tecnología que creamos está capacitada para rapazmente explotar algunas de nuestras vulnerabilidades mentales y nuestro nivel moral e intelectual como civilización no está a la altura para salvaguardar los usos de esta tecnología, lo cual es preocupante. Parece que vivimos en los tiempos que Philip K. Dick imaginó:
Las realidades falsas crearán humanos falsos. O bien, los seres humanos falsos generarán realidades falsas y luego las venderán a otros seres humanos, convirtiéndolas, eventualmente, en falsificaciones de sí mismos. Así que terminamos con humanos falsos inventando realidades falsas y luego vendiéndolas a otros humanos falsos.