*

X
Un concurso supuestamente objetivo de belleza deviene un desastre cuando el algoritmo juez refleja un cierto racismo

Se suele decir que la belleza está en el ojo de quien la percibe y esto incluso parece trasladarse a la inteligencia artificial o a los algoritmos que buscan emular la inteligencia humana.

Hace unos días se celebró el primer concurso internacional de belleza en el cual los jueces fueron máquinas que supuestamente debieron de tomar marcos de referencia de data objetiva, como simetría facial, imperfecciones faciales como arrugas y cosas similares. Así, el software Beauty.AI juzgó a más de 6 mil personas de cien países para determinar los rostros más representativos de un concepto informático puro de "belleza humana".

Así la teoría, pero después de analizar los resultados los creadores del proyecto notaron algo un poco inquietante. A Beauty.AI algoritmos no le gustan las personas de piel oscura: la inteligencia artificial no celebra la diversidad. Los 44 ganadores fueron casi todos blancos, algunos asiáticos y sólo uno de piel oscura, pese a que hubo una importante participación de India y África. 

Al parecer los algoritmos reflejan los sesgos y prejuicios culturales de la misma sociedad, la cual finalmente es su universo de análisis y cuyos miembros son los que los programan. 

The Guardian señala que existen algunos antecedentes en este sentido. El chatbot Tay de Microsoft empezó a emplear lenguaje racista y a promover una ideología neonazi en Twitter; el algoritmo del news feed de Facebook "empujó" en los trending topics noticias sensacionalistas y falsas, incluyendo una nota de un hombre que se masturbaba con un sándwich de pollo.

Según Alex Zhavoronkov, de Beauty.AI, el problema probablemente viene de que las bases de datos tomadas en cuenta para idear el estándar de belleza no reflejan de manera equitativa a las minorías. Esto es un problema estructural que puede existir en todo tipo de algoritmos predictivos, ya que la programación y el mismo vaciado de la data refleja los profundos prejuicios de los seres humanos, muchos de los cuales son inconscientes. Así, la neutralidad y la objetividad de las máquinas es solamente una cómoda ilusión –nada se escapa de la visión del creador, al menos no hasta que las máquinas tengan una existencia verdaderamente autónoma y puedan autoactualizarse–, algo que, por otro lado podría ser sumamente peligroso. En este caso esto se acentúa aún más, ya que la belleza es de suyo un tema altamente subjetivo, influenciado por paradigmas socioculturales y por una programación mediática aspiracional; así, el algoritmo es cruelmente sincero en reflejar la realidad políticamente incorrecta de nuestra percepción (si bien se trata de percepción manipulada por la propaganda).

Imagen: The Guardian

 

 

Estudio explica que Twitter es una caja de resonancia política. ¿Será un medio realmente democrático?

Medios y Tecnología

Por: pijamasurf - 09/09/2016

La red social funciona como una caja de resonancias, donde los usuarios sólo escuchan (con distintos matices) el eco de sus propias opiniones.

Las redes sociales son un medio muy interesante para analizar las opiniones y adherencias políticas de sus usuarios, quienes se informan y comparten puntos de vista con personas alrededor del mundo en torno a temas de interés mundial. ¿Pero se trata de medios realmente democráticos, definiendo estos como medios donde todas las voces sean escuchadas y la discusión fluya hacia un mejor entendimiento común de la organización social?

Un nuevo estudio publicado en Politics Analysis parece contradecir la función democrática de las redes sociales, específicamente de Twitter. El autor, Pablo Barberá, de la Universidad del Sur de California, explica que el 85% de los retweets con orientación política provienen de usuarios con posiciones ubicadas en el mismo espectro político. Es decir, que Twitter parece funcionar en su gran mayoría como una caja de resonancia de las opiniones similares, donde en contraste, las opiniones radicalmente distintas a las nuestras nunca pasarán por nuestro TL.

En el estudio, Barberá escribe: "Los individuos son expuestos cada vez mas únicamente a la información que refuerza sus puntos de vista previos, evitando así la confrontación de opiniones. Esto genera un ambiente de caja de resonancia, por llamarlo de alguna forma, que fomenta el extremismo y la polarización política." Según el especialista, las conversaciones en Twitter están dominadas por usuarios claramente identificados con polos extremos de la política, de derechas o izquierdas.

¿Pero no es parte de la responsabilidad de cada ciudadano informarse y contrastar sus propias opiniones con las de aquellos con quienes no están de acuerdo? Por desgracia, este estudio es consistente con una gráfica del ingeniero Gilad Lotan (el genio de la data detrás de compañías como SocialFlow y bitly) que representa las tendencias en el flujo de información en Twitter después del bombardeo de una escuela de Naciones Unidas en Bait Hanoun en 2014. Las redes sociales, o al menos Twitter, parecen radicalizar las tendencias discursivas de los espectros políticos, de modo que los de extrema izquierda nunca se enterarán de qué opinan los de extrema derecha, lo cual está en contra de la noción democrática de que todos tienen derecho a dar su opinión a condición de que todos los demás les presten atención.