*

Un concurso supuestamente objetivo de belleza deviene un desastre cuando el algoritmo juez refleja un cierto racismo

Se suele decir que la belleza está en el ojo de quien la percibe y esto incluso parece trasladarse a la inteligencia artificial o a los algoritmos que buscan emular la inteligencia humana.

Hace unos días se celebró el primer concurso internacional de belleza en el cual los jueces fueron máquinas que supuestamente debieron de tomar marcos de referencia de data objetiva, como simetría facial, imperfecciones faciales como arrugas y cosas similares. Así, el software Beauty.AI juzgó a más de 6 mil personas de cien países para determinar los rostros más representativos de un concepto informático puro de "belleza humana".

Así la teoría, pero después de analizar los resultados los creadores del proyecto notaron algo un poco inquietante. A Beauty.AI algoritmos no le gustan las personas de piel oscura: la inteligencia artificial no celebra la diversidad. Los 44 ganadores fueron casi todos blancos, algunos asiáticos y sólo uno de piel oscura, pese a que hubo una importante participación de India y África. 

Al parecer los algoritmos reflejan los sesgos y prejuicios culturales de la misma sociedad, la cual finalmente es su universo de análisis y cuyos miembros son los que los programan. 

The Guardian señala que existen algunos antecedentes en este sentido. El chatbot Tay de Microsoft empezó a emplear lenguaje racista y a promover una ideología neonazi en Twitter; el algoritmo del news feed de Facebook "empujó" en los trending topics noticias sensacionalistas y falsas, incluyendo una nota de un hombre que se masturbaba con un sándwich de pollo.

Según Alex Zhavoronkov, de Beauty.AI, el problema probablemente viene de que las bases de datos tomadas en cuenta para idear el estándar de belleza no reflejan de manera equitativa a las minorías. Esto es un problema estructural que puede existir en todo tipo de algoritmos predictivos, ya que la programación y el mismo vaciado de la data refleja los profundos prejuicios de los seres humanos, muchos de los cuales son inconscientes. Así, la neutralidad y la objetividad de las máquinas es solamente una cómoda ilusión –nada se escapa de la visión del creador, al menos no hasta que las máquinas tengan una existencia verdaderamente autónoma y puedan autoactualizarse–, algo que, por otro lado podría ser sumamente peligroso. En este caso esto se acentúa aún más, ya que la belleza es de suyo un tema altamente subjetivo, influenciado por paradigmas socioculturales y por una programación mediática aspiracional; así, el algoritmo es cruelmente sincero en reflejar la realidad políticamente incorrecta de nuestra percepción (si bien se trata de percepción manipulada por la propaganda).

Imagen: The Guardian