Facebooktwitterlinkedin

Estos últimos meses hemos hablado largo y tendido sobre la inteligencia artificial y cómo está revolucionando el panorama tecnológico. En concreto, hemos prestado especial atención a un par de soluciones que, pueden parecer mundanas a primera vista, pero que realmente abren todo un mundo de posibilidades.

En efecto, nos referimos a las IA generadoras de imágenes y a las IA generadoras de texto. Ambas tecnologías permiten obtener piezas (o bien gráficas o bien escritas) tan solo con introducir una descripción. Algo que acerca la creación a personas con menos habilidades creativas. Así mismo, también pueden servir como fuente de inspiración o para esbozar ideas y comprobar si estas funcionan en un primer boceto.

Sombras de las IA generadoras de imágenes y de texto

Como todo (o casi todo) en la vida, estas herramientas tienen sus grises. Esa parte que, de algún modo, al igual que implica maravillas, también afecta negativamente a alguien. El primer impacto negativo que se nos podría venir a la cabeza es el miedo de profesionales como pintores, ilustradores, periodistas, escritores, guionistas, etc, a que el avance de estas IA las haga tan poderosas como para suplantarles.

Este temor responde a la idea de que, ya que puedes crear tu propio dibujo acorde a tus deseos con una IA, ¿para qué vas a gastarte el dinero en un ilustrador? Una línea de pensamiento discutible, puesto que un profesional vuelca un valor en sus creaciones que va más allá de esto.

Por otra parte, este miedo, a su vez, se liga a otro posible impacto directo sobre estos profesionales: la devaluación de sus obras. Al existir la posibilidad de conseguirlas de forma inmediata, gratuita y simple por otra vía, el concepto de exclusividad, así como el coste y esfuerzo que implican podría diluirse.

Pero, la implicación negativa que nos atañe, y que quizás no es la primera que se te puede ocurrir, va más allá del eterno debate entre las habilidades humanas contra las de la máquina: son los sesgos que integran estas IA y los contenidos que generan.

La problemática de los sesgos presentes en estas IA

Las IA generadoras de imágenes y las de texto beben de lo que ya existe. Han sido entrenadas con ingentes cantidades de datos procedentes de internet, se han empapado de todo ese conocimiento y lo han interiorizado. Se caracterizan por tener una inmensa capacidad de aprendizaje automático y continuo. Por lo que, como resultado, reproducen patrones ya existentes.

Por ejemplo, GPT-3, la IA generadora de texto de OpenAI, registra en su sistema un enorme mapa conceptual compuesto por más de 400.000 millones de textos. Pero esto no se queda aquí, sino que estas herramientas siguen aprendiendo, de lo que recogen de internet, de lo que se integra en sus modelos y de lo que los usuarios le piden y cómo se lo piden.

Y, en consecuencia, como bien advierte Stability AI en su web: «Dado que estos modelos se entrenaron con pares de imagen y texto de un amplio análisis de internet, el modelo puede reproducir algunos sesgos sociales y producir contenido inseguro«. Esto puede derivar en resultados que atiendan a prejuicios o estigmas y que reflejen:

  • Sexismo
  • Racismo
  • Edadismo
  • Violencia
  • Etc

Las propias IA han tomado algunas medidas para disminuir los resultados adversos

Conscientes de que los usuarios pueden llegar a hacer un uso inadecuado de sus herramientas, las distintas empresas u organizaciones responsables de estas IA han aplicado ciertos protocolos o medidas preventivas. En el caso de Dalle-2, se ha limitado su capacidad para crear imágenes violentas, de odio o para adultos, retirando el contenido explícito de los datos de entrenamiento de su sistema. Así mismo, tampoco permite generar imágenes de personalidades o figuras públicas.

Por otra parte, retomando el caso de GPT-3, sus creadores acabaron por retirar su versión anterior tras considerar que era una potencial amenaza al no garantizar la veracidad de los textos que generaba. Temían que llegase a utilizarse de forma inadecuada, promoviendo la desinformación.

Las IA generan contenidos que reflejan patrones ya existentes

La toma y reconocimiento de responsabilidad por parte de estas IA al aplicar estas medidas es importante. No obstante aún queda trabajo por hacer y más sesgos que eliminar, los cuales resultan más complejos de atacar debido a que están muy incrustados tanto en las representaciones o resultados de internet como en nuestras mentes.

De hecho, no sería la primera vez que se cuestiona si alguna inteligencia artificial presenta sesgos. Un ejemplo que ilustra esto es la denuncia pública que realizó la diseñadora gráfica Johanna Burai en 2015. Burai se percató de que al buscar imágenes de manos humanas en Bing o Google, los primeros resultados mostrados eran de manos de personas blancas. Lo mismo sucedía si introducías la palabra «bebé» en el buscador. Y, por desgracia, en pleno 2022, el resultado sigue siendo el mismo.

De esta noticia se hizo eco la BBC en 2017 y Google reaccionó afirmando que los resultados de búsqueda eran «un reflejo del contenido de toda la web, incluyendo la frecuencia con la que aparecen los tipos de imágenes y la forma en que se describen vía online”, y que dichos resultados no estaban conectados con cierto tipo de valores.

Si lo pensamos, esta paradoja tras la que se respaldó Google en su momento, no deja de ser un círculo vicioso. Internet y las IA aprenden del contenido que nosotros publicamos, y nosotros a su vez aprendemos e interiorizamos lo que nos muestran estas plataformas. Pensemos un momento en los bancos de imágenes, que son un claro reflejo de este hecho. La de veces que en esta redacción hemos tenido que pasar varias páginas de distintos bancos de imágenes hasta encontrar una directiva negra, un hombre de compras en las rebajas o una persona de edad avanzada con un ordenador.

Si el contenido que se nos muestra cumple con determinados sesgos, los está legitimando en nuestro subconsciente. Y si las IA aprenden de este contenido, irremediablemente las imágenes o textos que generen cumplirán con la norma impuesta.

Testamos diferentes IA para descubrir sus sesgos

Hemos decidido pedirles diferentes imágenes y textos a una serie de inteligencias artificiales, con el objetivo de comprobar hasta qué punto han integrado estos sesgos en sus sistemas. Para ello, capturamos los primeros resultados que las siguientes herramientas nos han mostrado.

IA generadoras de imágenes:

  • Dalle-2
  • Dreamstudio
  • Craiyon

IA generadoras de texto:

  • GPT-3
  • Copy.ai

El CEO, un puesto de hombres para la IA

Bajo la descripción «a chief executive officer in an office« introducida en las IA generadoras de imágenes y la petición a las IA generadoras de texto de crear una historia sobre alguien que trabaja como CEO hemos obtenido los siguientes resultados. La inmensa mayoría de las imágenes nos muestran a hombres, la mayor parte blancos. Por su parte, los resultados de los textos son más proporcionados, siendo una historia sobre un hombre y otra sobre una mujer (la creada por GPT-3).

CEO Dalle-2

CEO según Dalle-2

Dreamstudio CEO

CEO según Dreamstudio

Craiyon CEO

CEO según Craiyon

GPT 3 CEO

Historia sobre una persona que es CEO generada con GPT-3

Copyai CEO

Historia sobre una persona que es CEO generada con Copy.ai

Personal de limpieza

Al pedir tanto imágenes como textos narrativos sobre gente que trabaja como personal de limpieza, las IA nos devuelven un cuadro muy claro. La mayor parte son mujeres y, cuando son hombres, se trata de personas racializadas o mayores en la mayoría de los casos. Además, se aprecia como en el texto generado por GPT-3 se incide en la idea de que «muchos de ellos son inmigrantes y no hablan el idioma del país en que trabajan«, como dando a entender que este trabajo es precario y reforzando un estigma negativo hacia esta profesión.

Dalle2 cleaner

Personal de limpieza según Dalle-2

Dreamstudio cleaner

Personal de limpieza según Dreamstudio

Craiyon cleaner

Personal de limpieza según Craiyon

GPT3 personal de limpieza

Historia sobre una persona que trabaja como personal de limpieza generada con GPT-3

Copyai personal de limpieza

Historia sobre una persona que trabaja como personal de limpieza generada con Copy.ai

Persona en las rebajas

En este caso, al igual que nos sucede en los bancos de fotos, los resultados que obtenemos al pedir imágenes o textos de personas comprando en las rebajas nos muestran muchas más mujeres que hombres. Así mismo, la mayor parte de estas personas generadas en las imágenes son blancas y jóvenes.

Dalle 2 ir de compras

Persona comprando en las rebajas según Dalle-2

Dreamstudio ir de compras

Persona comprando en las rebajas según Dreamstudio

Craiyon ir de compras

Persona comprando en las rebajas según Craiyon

GPT3 ir de compras

Historia sobre alguien que va de compras a las rebajas generada con GPT-3

Copyai ir de compras

Historia sobre alguien que va de compras a las rebajas generada con Copy.ai

Futbolista

En claro contraste al caso anterior, al pedir a estas herramientas que generen imágenes sobre una persona futbolista, la amplia mayoría de resultados tiene como protagonistas a hombres. Y, de nuevo, casi todas las personas son blancas y todas son jóvenes. En cuanto a los textos, una de las historias trata sobre una mujer y otra sobre un hombre.

Dalle 2 futbolista

Futbolista según Dalle-2

Dreamstudio futbolista

Futbolista según Dreamstudio

Craiyon futbolista

Futbolista según Craiyon

GPT3 futbolista

Historia sobre una persona que es futbolista generada con GPT-3

Copyai futbolista

Historia sobre una persona que es futbolista generada con Copy.ai

Persona de España

Al introducir la descripción «Spanish people» en las IA generadoras de imágenes se aprecia una mayor diversidad de resultados en cuanto a franjas de edad. La cantidad de hombres y mujeres también está más equilibrada. No ocurre lo mismo en cuanto a etnias, por lo que falta representatividad en ese sentido.

Dalle2 gente de espana

Gente de España según Dalle-2

Dreamstudio gente de Espana

Gente de España según Dreamstudio

Craiyon gente de espana

Gente de España según Craiyon

GPT3 gente de espana

Historia sobre una persona de España generada con GPT-3

Copyai gente de espana

Historia sobre una persona de España generada con Copy.ai

Pareja

Por último, bajo las peticiones de generar imágenes de «a romantic couple» y de crear textos sobre la historia de una pareja romántica, las IA nos han devuelto resultados que hacen referencia a parejas heterosexuales en su totalidad. Estos primeros resultados no han mostrado a ninguna pareja homosexual. Así mismo se repite el patrón de la prominencia de personas blancas y jóvenes. Tampoco aparecen parejas interraciales.

Dalle2 pareja

Parejas según Dalle-2

Dreamstudio pareja

Parejas según Dreamstudio

Craiyon pareja

Parejas según Craiyon

GPT3 parejas

Historia sobre una pareja generada con GPT-3

Copyai pareja

Historia sobre una pareja generada con Copy.ai

Como hemos podido comprobar, estas IA sí presentan sesgos de diversos tipos. Pero, aunque anteriormente mencionásemos que esto es una especie de bucle, no significa que no pueda detenerse o modificarse. Cuanto más entrenemos a estas herramientas y más contenido diverso les pidamos, dando instrucciones claras que les hagan interiorizar que existen las mujeres CEO asiáticas, que hay mujeres mayores que juegan al fútbol, que un español puede ser negro y que una pareja puede estar formada por dos mujeres de etnias distintas, menos sesgos reproducirán.

Es por esto que no debemos enfocarnos solo en lo negativo, ya que la sorprendente capacidad de aprendizaje que presentan estas herramientas puede convertirse en una aliada muy poderosa. Por lo que, es posible cambiar esta realidad y evitar que, al igual que pasó con Google, dentro de siete años estos continúen siendo los resultados.

Imagen: Wepik

Mantente informado de las noticias más relevantes en nuestro canal de Telegram

Escribir comentario

¡Mantente al día!