*

X
Los residuos electrónicos alcanzan cifras exorbitantes cada año, y están envenenando a poblaciones empobrecidas que lucran con el reciclaje

Todas las imágenes: Kai Loeffelbein/laif

Vivir en la era de la información trae consigo importantes cambios sociales y culturales que pueden ser muy positivos, pero según el último reporte de las Naciones Unidas sobre residuos electrónicos, también se crea un nuevo flujo de basura y desechos, los cuales están envenenando personas en China y el sureste asiático.

¿Qué ocurre cuando te deshaces de tu computadora, tu tablet, tu viejo smartphone, incluso tus audífonos o los cables periféricos? Seguramente crees que todo termina cuando te compras dispositivos nuevos, pero los viejos probablemente van a terminar en un basurero en Asia o África, donde serán reciclados manualmente por personas expuestas a intoxicación por plomo y otros materiales.

La ONU estima que para el 2018 se producirán anualmente casi 50 millones de toneladas cúbicas de desechos electrónicos, tomando en cuenta que durante 2016 se han producido más de 30 millones ya. 

Millones de estas toneladas de desechos llegaban a Guiyu, un distrito de la provincia de Guangdong, al sur de China, que llegó a ser descrita como la capital mundial de los desechos electrónicos. Estudios en la población infantil de Guiyu encontraron niveles anormales de plomo en la sangre, además de que muchas mujeres inhalaban residuos de la fundición de tarjetas madre y piezas reciclables, lo que elevó la alarma para que el gobierno abriera nuevos centros de reciclado con condiciones más seguras para los trabajadores.

WasteAid, una organización no lucrativa de reciclaje de desechos electrónicos con sede en Inglaterra, cree que “las metas de desarrollo sustentable no pueden alcanzarse a menos que la administración de desechos sea una prioridad. A nuestro parecer, la administración decente de desechos es un derecho básico y queremos que los gobiernos de todo el mundo se tomen este asunto con mucha más seriedad. En 2012 sólo el 0.2% de la ayuda internacional fue a parar en la mejora de la administración de desechos sólidos —simplemente no basta.”

Via The Guardian.

Te podría interesar:
Un concurso supuestamente objetivo de belleza deviene un desastre cuando el algoritmo juez refleja un cierto racismo

Se suele decir que la belleza está en el ojo de quien la percibe y esto incluso parece trasladarse a la inteligencia artificial o a los algoritmos que buscan emular la inteligencia humana.

Hace unos días se celebró el primer concurso internacional de belleza en el cual los jueces fueron máquinas que supuestamente debieron de tomar marcos de referencia de data objetiva, como simetría facial, imperfecciones faciales como arrugas y cosas similares. Así, el software Beauty.AI juzgó a más de 6 mil personas de cien países para determinar los rostros más representativos de un concepto informático puro de "belleza humana".

Así la teoría, pero después de analizar los resultados los creadores del proyecto notaron algo un poco inquietante. A Beauty.AI algoritmos no le gustan las personas de piel oscura: la inteligencia artificial no celebra la diversidad. Los 44 ganadores fueron casi todos blancos, algunos asiáticos y sólo uno de piel oscura, pese a que hubo una importante participación de India y África. 

Al parecer los algoritmos reflejan los sesgos y prejuicios culturales de la misma sociedad, la cual finalmente es su universo de análisis y cuyos miembros son los que los programan. 

The Guardian señala que existen algunos antecedentes en este sentido. El chatbot Tay de Microsoft empezó a emplear lenguaje racista y a promover una ideología neonazi en Twitter; el algoritmo del news feed de Facebook "empujó" en los trending topics noticias sensacionalistas y falsas, incluyendo una nota de un hombre que se masturbaba con un sándwich de pollo.

Según Alex Zhavoronkov, de Beauty.AI, el problema probablemente viene de que las bases de datos tomadas en cuenta para idear el estándar de belleza no reflejan de manera equitativa a las minorías. Esto es un problema estructural que puede existir en todo tipo de algoritmos predictivos, ya que la programación y el mismo vaciado de la data refleja los profundos prejuicios de los seres humanos, muchos de los cuales son inconscientes. Así, la neutralidad y la objetividad de las máquinas es solamente una cómoda ilusión –nada se escapa de la visión del creador, al menos no hasta que las máquinas tengan una existencia verdaderamente autónoma y puedan autoactualizarse–, algo que, por otro lado podría ser sumamente peligroso. En este caso esto se acentúa aún más, ya que la belleza es de suyo un tema altamente subjetivo, influenciado por paradigmas socioculturales y por una programación mediática aspiracional; así, el algoritmo es cruelmente sincero en reflejar la realidad políticamente incorrecta de nuestra percepción (si bien se trata de percepción manipulada por la propaganda).

Imagen: The Guardian