Tecnología

El racismo y el sexismo de la Inteligencia Artificial van en aumento

Los algoritmos creados para la IA han demostrado sexismo y racismo. Metro investiga cómo se podría solucionar este problema

La presencia de sesgos sexistas y racistas en la Inteligencia Artificial ha sido documentada por varios expertos en los últimos años. Sin embargo, un nuevo estudio revela que el problema podría ser aún mayor.

Un estudio realizado por investigadores de las universidades estadounidenses Carnegie Mellon y George Washington descubrió que los modelos de visión por ordenador no supervisados aprenden automáticamente sesgos raciales, de género e interseccionales.

La investigación descubrió que los sistemas de IA estudiados eran más propensos a generar imágenes sexualizadas de mujeres, mientras que creaban imágenes profesionales de hombres. Esos mismos algoritmos también ponían rasgos positivos en las imágenes de personas con piel más clara y rasgos negativos en las personas con tonos de piel más oscuros o de origen no europeo.

Recomendados

Los expertos creen que los sesgos racistas y sexistas tienen su origen en la información utilizada para entrenar los algoritmos, que regularmente son creados por humanos.

«Estos sesgos y estereotipos están presentes en los datos utilizados para entrenar los algoritmos de IA (por ejemplo, un gran corpus de texto extraído de Internet). Desde la perspectiva del algoritmo, estos sesgos son patrones estadísticos que puede aprender y explotar para hacer predicciones. Por eso muchos estereotipos acaban integrándose en los algoritmos de IA», explica a Metro James Zou, profesor de ciencia de los datos biomédicos y de informática en la Universidad de Stanford.

Sin embargo, aunque estos sesgos no sean generados por la Inteligencia Artificial, esta tecnología puede propagar estereotipos perjudiciales.

«Estas tecnologías de IA pueden propagar los sesgos en los datos, y a medida que se despliegan más ampliamente, esto puede realmente amplificar los estereotipos dañinos existentes. Esto es especialmente preocupante en aplicaciones sensibles de IA como la sanidad o las finanzas», añadió Zou.

Los expertos creen que el papel de los programadores es hacer más para evitar el racismo y el sexismo generalizados en la Inteligencia Artificial.

«Los programadores pueden ser conscientes del racismo y el sexismo y hacer esfuerzos para superar estos problemas», concluyó Londa Schiebinger, historiadora de la Universidad de Stanford que estudia el género y la ciencia.

«Hay varios enfoques técnicos en los que nosotros y nuestros colegas estamos trabajando para mitigar el sesgo en la IA. En primer lugar, podemos preprocesar los datos de entrenamiento para que sean más representativos de las diversas poblaciones».
James Zou, profesor de ciencias de los datos biomédicos y ciencias de la computación en la Universidad de Stanford, Estados Unidos.

ENTREVISTA

Londa Schiebinger
historiadora de la Universidad de Stanford que estudia el género y la ciencia

P: ¿Por qué la IA ha resultado ser racista y sexista?

  1. Este tipo de comportamientos de la IA pueden atribuirse al racismo y al sexismo estructurales de la sociedad (no a los humanos específicos que crean los algoritmos). El sexismo y el racismo están incrustados en el lenguaje, los datos, etc., creados por los humanos en general.

P: ¿Qué impacto pueden tener estos sesgos en los usuarios?

  1. Las desigualdades sociales actuales se amplían en el futuro. Lo que quiero decir es que este sesgo de género inconsciente del pasado amplifica la desigualdad de género en el futuro. Cuando un programa de traducción utiliza por defecto el «él dijo», refuerza el estereotipo de que los hombres son intelectuales activos al eliminar a una mujer en este papel. Esto aumenta la frecuencia relativa del pronombre masculino en la web, lo que puede revertir los avances hacia la igualdad de género que tanto ha costado conseguir.

P: ¿Se ha intentado solucionar el problema?

  1. Resulta que, aunque Google quiso arreglar el problema ya en 2012, no ha podido hacerlo; el mes pasado publicó una modesta corrección. A menudo es más difícil arreglar algo una vez que la plataforma básica está establecida. Es importante destacar que Google translate está creando el futuro (la tecnología, es decir, nuestros dispositivos, programas y procesos, dan forma a las actitudes, los comportamientos y la cultura humanos). En otras palabras, los prejuicios del pasado se perpetúan en el futuro, incluso cuando los gobiernos, las universidades y las propias empresas han aplicado políticas para fomentar la igualdad. Así que la gran pregunta es: «¿Cómo pueden los humanos intervenir en los procesos automatizados para crear la sociedad que queremos?».

P: ¿Cuál sería tu planteamiento?

  1. Acabar con el racismo y el sexismo en la sociedad. Potenciar la equidad social. Obviamente, el problema está en las sociedades humanas y en las desigualdades estructurales, no simplemente en las máquinas. La IA puede amplificar los prejuicios humanos, ese es el problema.

Cuatro ejemplos de racismo y sexismo en AI

Google Translate
Cuando Google Translate convierte los artículos de noticias escritos en español al inglés, las frases que se refieren a las mujeres suelen cambiarse por «él dijo» o «él escribió».

Cámaras
El software diseñado para alertar a las personas que utilizan cámaras Nikon cuando la persona que están fotografiando parece parpadear tiende a interpretar que los asiáticos siempre parpadean.

Algoritmo de palabras
El algoritmo de palabras, un popular algoritmo utilizado para procesar y analizar grandes cantidades de datos del lenguaje natural, caracteriza los nombres europeos americanos como agradables y los afroamericanos como desagradables.

Asistentes de voz
Un informe de la UNESCO critica que la mayoría de los asistentes de voz tienen nombres femeninos y personalidades sumisas y afirma que esto se debe a que apenas hay mujeres trabajando en los equipos técnicos que desarrollan estos servicios y otras herramientas digitales de vanguardia.

Tags

Lo Último


Te recomendamos