*

X
Este track "jazzero" fue compuesto entre una máquina pensante y un músico humano; el resultado es bastante extraño

Entre lo emocionante y lo aterrador, así está siendo el proceso en el cual la inteligencia artificial va sumando habilidades a su acervo. Si bien con un poco de suerte, mucha precaución y una agenda ética, la calidad de vida de la humanidad podría elevarse significativamente gracias a las máquinas pensantes, es evidente que también se corre un riesgo, y uno grande, al estarlas dotando de inteligencia y facultades diversas. 

En todo caso, y en lo que vamos comprobando hacia dónde apunta este vasto campo de desarrollo, hoy ya podemos "disfrutar" de composiciones musicales creadas por una inteligencia artificial. Se trata de una pieza obra del FlowComposer del Computer Science Labs de Sony. Esta mente artificial puede hilar notas y tonos, aunque aún no considera en ese proceso el efecto que las diferentes combinaciones que crea puede tener en el oído, y menos en el ánimo, de un humano.

Actualmente el proceso creativo de FlowComposer consiste en que éste crea la melodía y los acordes básicos y luego un humano, el francés Benoit Carré, hace los arreglos y compone la letra.

A continuación la pieza "The Ballad of Mr Shadow", que recuerda pinceladas de Duke Ellington, Cole Porter y George Gershwin.

Un concurso supuestamente objetivo de belleza deviene un desastre cuando el algoritmo juez refleja un cierto racismo

Se suele decir que la belleza está en el ojo de quien la percibe y esto incluso parece trasladarse a la inteligencia artificial o a los algoritmos que buscan emular la inteligencia humana.

Hace unos días se celebró el primer concurso internacional de belleza en el cual los jueces fueron máquinas que supuestamente debieron de tomar marcos de referencia de data objetiva, como simetría facial, imperfecciones faciales como arrugas y cosas similares. Así, el software Beauty.AI juzgó a más de 6 mil personas de cien países para determinar los rostros más representativos de un concepto informático puro de "belleza humana".

Así la teoría, pero después de analizar los resultados los creadores del proyecto notaron algo un poco inquietante. A Beauty.AI algoritmos no le gustan las personas de piel oscura: la inteligencia artificial no celebra la diversidad. Los 44 ganadores fueron casi todos blancos, algunos asiáticos y sólo uno de piel oscura, pese a que hubo una importante participación de India y África. 

Al parecer los algoritmos reflejan los sesgos y prejuicios culturales de la misma sociedad, la cual finalmente es su universo de análisis y cuyos miembros son los que los programan. 

The Guardian señala que existen algunos antecedentes en este sentido. El chatbot Tay de Microsoft empezó a emplear lenguaje racista y a promover una ideología neonazi en Twitter; el algoritmo del news feed de Facebook "empujó" en los trending topics noticias sensacionalistas y falsas, incluyendo una nota de un hombre que se masturbaba con un sándwich de pollo.

Según Alex Zhavoronkov, de Beauty.AI, el problema probablemente viene de que las bases de datos tomadas en cuenta para idear el estándar de belleza no reflejan de manera equitativa a las minorías. Esto es un problema estructural que puede existir en todo tipo de algoritmos predictivos, ya que la programación y el mismo vaciado de la data refleja los profundos prejuicios de los seres humanos, muchos de los cuales son inconscientes. Así, la neutralidad y la objetividad de las máquinas es solamente una cómoda ilusión –nada se escapa de la visión del creador, al menos no hasta que las máquinas tengan una existencia verdaderamente autónoma y puedan autoactualizarse–, algo que, por otro lado podría ser sumamente peligroso. En este caso esto se acentúa aún más, ya que la belleza es de suyo un tema altamente subjetivo, influenciado por paradigmas socioculturales y por una programación mediática aspiracional; así, el algoritmo es cruelmente sincero en reflejar la realidad políticamente incorrecta de nuestra percepción (si bien se trata de percepción manipulada por la propaganda).

Imagen: The Guardian