Una vez más la polémica se cierne en torno a la inteligencia artificial y los posibles sesgos que presenta: en esta ocasión se ha acusado de racismo a Twitter, específicamente de que su algoritmo de recorte de imágenes prefiere mostrar las personas blancas antes de las personas con color de piel más oscuro. De hecho, muchos usuarios han publicado sus experimentos para saber si el algoritmo de la red social verdaderamente tiene un sesgo racial.
Acusan de racismo a Twitter por su forma de tratar las imágenes de personas
Como sabes el algoritmo de Twitter recorta de forma automática las imágenes adjuntas a las publicaciones, y sabemos que muchas veces deja de lado el contenido importante en ellas. Sin embargo este fin de semana se ha acusado de racismo a Twitter ya que varios usuarios notaron que, en imágenes en las que se muestran personas con diferentes tonalidades de piel, Twitter decide mostrar aquellas con piel más clara tras el recorte automático.
A primera vista se verá una imagen normal duplicada, pero al hacer clic en ella, verás la versión sin recortar que puede incluir otros detalles, como personas con tonalidades de piel más oscuras dentro de la misma imagen. En el experimento algunos usuarios han mezclado el orden de las personas para destacarlas como parte central de la imagen, pero los resultados aparentemente son los mismos:
https://twitter.com/bascule/status/1307440596668182528
https://twitter.com/bascule/status/1307454928806318080
Let me try pic.twitter.com/e6zlJ9QozQ
— Unicorn (@unicornwingss) September 20, 2020
De hecho algunos usuarios han utilizado personajes de ficción, animados e incluso animales, con resultados sorprendentemente parecidos:
I wonder if Twitter does this to fictional characters too.
Lenny Carl pic.twitter.com/fmJMWkkYEf
— Jordan Simonovski (@_jsimonovski) September 20, 2020
I tried it with dogs. Let's see. pic.twitter.com/xktmrNPtid
— – M A R K – (@MarkEMarkAU) September 20, 2020
Pero ¿es verdad que el algoritmo de Twitter está diseñado para tener un sesgo racial? Algunos usuarios piensan que más bien depende de otros factores que no se enfocan en el color de la piel, ya que han utilizado diferentes métodos encontrando resultados inconsistentes con la acusación de racismo a Twitter:
Does Twitter's thumbnail-picker algorithm systematically prefer white faces over Black ones?
I did an experiment. It's not conclusive, but in my experiment with pictures of Barack Obama, Raphael Warnock, George W. Bush and Donald Trump, the hypothesized pattern didn't appear. pic.twitter.com/2ddcPR5CPi
— Jeremy B. Merrill (@jeremybmerrill) September 20, 2020
testing pic.twitter.com/xqHcOpz3Yg
— garry (@garrynewman) September 20, 2020
De hecho, el director de diseño de Twitter, Dantley Davis, comentó en un tuit que la elección del recorte de las fotografías que se comparten en la red social toma en cuenta el brillo de fondo de las imágenes, y ahí puede estar oculta la razón por la que el algoritmo elige una imagen sobre otra.
https://twitter.com/dantley/status/1307720190805696513
Por otro lado, en un hilo en Twitter, Bianca Kastl, una desarrolladora de Alemania, explicó que el algoritmo de Twitter podría estar recortando la imagen en función de una prominencia, es decir, un punto o parte importante de una imagen, que es probable que desees mirar primero cuando la veas.
[Tweet “¿El algoritmo de #Twitter es racista? Te contamos todo sobre las pruebas que varios usuarios han realizado para tratar de comprobarlo.”]
Esta teoría está respaldada por un blog de Twitter que en 2018 explicaba que su red neuronal construida para recortar imágenes estuvo en un tiempo orientada a detectar rostros, pero este enfoque no funcionó para las imágenes que no tenían una cara, así que la red social cambió a un algoritmo basado en la prominencia.
Give me a break, I'll explain in a while what was unprecise about it, where my estimations were right and where a possible biased component in twitters algorithm is.
— Bianca Kastl (@bkastl) September 21, 2020
No es la primera vez que sucede: ¿son racistas los algoritmos de reconocimiento facial?
Sin embargo, esta no es la primera vez que hay una polémica en torno a un posible sesgo racial en la forma en la que se muestran las imágenes en internet: una de estas denuncias la realizó en 2017 el medio BBC, que compartió el descubrimiento de Johanna Burai, una diseñadora gráfica que en 2015 notó que tras buscar una imagen de manos humanas en los principales buscadores, como Bing y Google, se encontraban en los primeros resultados exclusivamente manos de personas blancas.
Resultados de imágenes de la búsqueda “Manos” en Google, 2017.
Imagen: BBC
Lo mismo sucedió al buscar el término “bebés”, en el que los primeros resultados inequívocamente eran fotografías de bebés de piel blanca.
Resultados de búsqueda de imágenes para el término “Bebés” en Bing, 2017.
Imagen: BBC
En aquel entonces Google aseguró que sus resultados de búsqueda de imágenes eran “un reflejo del contenido de toda la web, incluyendo la frecuencia con la que aparecen los tipos de imágenes y la forma en que se describen vía online”, y que dichos resultados no estaban conectados con cierto tipo de valores.
Pero hay más precedentes: en 2016 Joy Boulamwini, estudiante de posgrado en el Instituto de Tecnología de Massachusetts (MIT), creó la Liga de la Justicia Algorítmica (AJL por las siglas en inglés de Algorithmic Justice League) ya que en ocasiones en las que intentaba utilizar un software de reconocimiento facial para un proyecto, no pudo utilizar su rostro ya que ella tiene piel oscura.
Captura de pantalla del vídeo de Joy Boulamwini en la que tuvo que usar una máscara blanca para que el sistema de reconocimiento facial la reconociera.
“Descubrí que utilizar una máscara blanca facilitó el funcionamiento del algoritmo de reconocimiento del rostro”, aseguró Boulamwini, quien había tenido que pedirle ayuda a un compañero de habitación de piel más clara ayuda para utilizar uno de estos sistemas.
Gender Shades: la unión por crear una inteligencia artificial con precisión fenotípica
En su investigación, llamada Gender Shades, Boulamwini encontró que los sistemas de inteligencia artificial comerciales de grandes empresas de tecnología (como IBM o Microsoft) mostraban un severo sesgo especialmente marcado hacia mujeres con piel más oscura, quienes eran erróneamente etiquetadas como hombres, o en algunos casos el sistema ni siquiera era capaz de detectarlos, incluso llegando a tasas del 50% de fallos, como puedes ver en su vídeo:
El estudio que respalda el Instituto de tecnología de Massachusetts (MIT, por sus siglas en inglés) señala que para evitar este tipo de sesgo racial en la inteligencia artificial, se debe nutrir con muchas más imágenes representativas de la diversidad humana a estos sistemas, con el fin de informarlos mejor sobre los subgrupos y tener una precisión fenotípica (en relación con los diversos tonos de piel) mucho más acertada.
Y esto es algo parecido a lo que probablemente esté sucediendo en Twitter: mientras la inteligencia artificial se entrena con menos fotos de gente de piel oscura se seguirán generando estos problemas que pueden derivar en grandes complicaciones.
Imagen: Depositphotos
Mantente informado de las noticias más relevantes en nuestro canal de Telegram