Un sesgo es el efecto psicolĂłgico que se deriva de un “atajo” en el procesamiento mental. Esta orientaciĂłn o direcciĂłn cognitiva, lleva a una distorsiĂłn de lo que cabrĂa esperar de un proceso racional. Los sesgos pueden ser de raza, de clase, de orientaciĂłn sexual, de gĂ©nero y otras fuentes más de diversidad humana. Se han documentado más de 50 tipos de sesgos en los que caemos todos de forma inconsciente y automática, siempre que interpretamos un suceso o explicamos la realidad.
Nadie se salva de este efecto porque, a pesar de que los sesgos, al igual que los estereotipos, están en la base de las discriminaciones e intolerancias, la verdad es que tienen una función evolutiva y defensiva. Ellos nos permiten orientarnos en entornos complejos, de alta incertidumbre, facilitando los procesos de pensamiento para tomar decisiones rápidamente. Pero sus efectos, cuando no se les gestiona adecuadamente, puede generar decisiones mal fundamentadas e injusticias, sobre todo cuando se trata de temas complejos.
Lejos de pensar que la inteligencia artificial (IA), se basa en datos frĂos, lĂłgica y matemática, y que está desprovista de subjetividades o parcialidades en sus procesos, existe evidencia de que las máquinas reproducen sesgos, aprenden sexismo, machismo, racismo y las tendencias de las fuentes de donde se alimentan. El concepto que sobre IA publica el Diccionario de la Real Academia da cuenta de un proceso que lo muestra como asĂ©ptico e impoluto “Disciplina cientĂfica que se ocupa de crear programas informáticos que ejecutan operaciones comparables a las que realiza la mente humana, como el aprendizaje y el razonamiento lĂłgico”.
Pero no existe algo asà como “datos neutros”, aunque pueda parecerlo, ya que los mismos parten de algoritmos que son construidos por personas con sus propias tendencias, prejuicios y sesgos, por lo que al aplicarlo en la IA se repiten los mismos comportamientos sociales predominantes que observamos en la vida real. Las máquinas aprenden de los humanos, y los humanos somos subjetivos.
Es una ilusiĂłn pensar que los datos de los cuales se dispone en el diseño y alimentaciĂłn de procesos que involucran los proyectos de IA, son diversos y representativos de todas las realidades a pesar de contar con altos volĂşmenes de ellos. A menudo, la data proviene de los grupos que están en el poder, o con caracterĂsticas de vida homogĂ©neas, que no representan la generalidad de reacciones y pensamientos globales, y esto, asĂ como otros factores que veremos a continuaciĂłn, ya preconfigura un sesgo importante.
Diferentes estudios lo demuestran
La OrganizaciĂłn de las Naciones Unidas para la Cultura, las Ciencias y la EducaciĂłn (UNESCO) publicĂł en 2019 el informe “ I’d Blush if I Could: closing gender divides in digital skills through education” (Me sonrojarĂa si pudiera: cerrando brechas de gĂ©nero en la esfera digital a travĂ©s de la educaciĂłn). En el mismo se demuestran que “los sesgos de gĂ©nero que persisten en los conjuntos de datos, algoritmos y dispositivos de capacitaciĂłn de la inteligencia artificial tienen el potencial de propagar y reforzar estereotipos de gĂ©nero perjudiciales. Estos sesgos de gĂ©nero pueden estigmatizar y marginar aĂşn más a las mujeres a escala mundial”.
Una vez más, la historia de rezago de las mujeres en todos los ámbitos de la vida econĂłmica, polĂtica y social se repite en el campo de las nuevas tecnologĂas, muy especialmente en el ámbito laboral debido a la automatizaciĂłn del empleo, por ejemplo. Ya el Fondo Monetario Internacional hace muchos años comprobĂł que las mujeres son más desplazadas que los hombres debido a la automatizaciĂłn en los procesos de reclutamiento y selecciĂłn, lo cual tiene un efecto negativo en la autonomĂa financiera de las mujeres, dado que la mayor parte de las posiciones automatizables (administraciĂłn, oficina, caja, contabilidad) son ocupadas por mujeres, en reflejo del estereotipo que supone que las mujeres son mejores para dar apoyo administrativo.
Un ejemplo de cĂłmo estos mismos estereotipos y sesgos de gĂ©nero siguen presentes en las nuevas aplicaciones de la IA, son los chatbots de las webs o asistentes virtuales con nombre y voz de mujer: Alexa de Amazon, Cortana de Microsoft, Siri de Apple, Google Assistant, Eva de Vueling y muchas otras. En su creaciĂłn se parte del estereotipo de que el rol de las mujeres es asistir y proveer ayudas y soluciones. Asimismo, en la creaciĂłn de robots femeninas, estas usualmente son hipersexualizadas, destacando y exagerando áreas del cuerpo de las mujeres, dándole aspecto sensual; una especie de fantasĂa masculina sobre el ideal de ser mujer.
La evidencia es tan abrumadora que, la empresa Gartner, una de las empresas consultoras y de investigaciĂłn de las tecnologĂas de la informaciĂłn más importantes a nivel mundial, predice que para 2022, el 85% de los proyectos de IA darán resultados errĂłneos debido a sesgos en los datos o algoritmos, o en los equipos que los gestionan.
En el espacio digital también hay brechas
La brecha digital de gĂ©nero es un indicador que mide la desigualdad existente entre mujeres y hombres en cuanto al acceso a las TIC (tecnologĂas de la informaciĂłn y la comunicaciĂłn).
En la UniĂłn Europea la brecha digital de gĂ©nero en actividades de programaciĂłn era de 8 puntos en 2014: “las mujeres solo representan el 12% de los autores de artĂculos en las principales conferencias sobre machine learning y el 13,83% de los que se escriben en general sobre inteligencia artificial”. Por otro lado, un estudio realizado en 2017 demostrĂł que “sĂłlo el 13% de las altas posiciones ejecutivas en empresas tecnolĂłgicas dedicadas a la inteligencia artificial son ocupadas por mujeres, y, si nos centramos en el sub ámbito del lenguaje informático, el porcentaje cae hasta el 5%”.
En LatinonamĂ©rica de acuerdo con la organizaciĂłn “Crack The Code”, hay escasez de participaciĂłn de mujeres en disciplinas de ciencias, tecnologĂa, ingenierĂa y matemáticas, ocupando Ăşnicamente el 20% de los cargos relacionados a esta industria.
En esta misma lĂnea, se ha encontrado que las mujeres conforman solo el 12% de los investigadores en IA y que solamente un 2% de las patentes en este sector son generadas por mujeres, segĂşn una reciente publicaciĂłn de la UNESCO y la coaliciĂłn EQUALS, que se dedica a promover la igualdad de gĂ©nero en el sector de la tecnologĂa. Informan que actualmente “sĂłlo hay un 30% de mujeres trabajando en el mundo de la tecnologĂa, pero esa cifra incluye a una gran cantidad de asistentes y empleadas que no influyen directamente sobre su creaciĂłn y contenido”.
En otro reciente informe de la UNESCO “Para ser inteligente, la revolución digital debe ser inclusiva” (2021) se calcula que menos del 1% de las solicitudes que reciben las empresas que contratan expertos en IA y ciencia de datos son de mujeres: “Las mujeres y las niñas tienen cuatro veces menos probabilidades de tener conocimientos de programación informática y trece veces menos probabilidades de registrar patentes tecnológicas. También es menos probable que tengan acceso a puestos de dirección en empresas tecnológicas”.
Por lo tanto, para reducir las brechas que inducen a pensar de manera sesgada, es fundamental que las mujeres formen parte de las estrategias de formaciĂłn y capacitaciĂłn en las TICs y las carreras STEM (ciencias, tecnologĂa, ingenierĂa y matemáticas, por sus siglas en inglĂ©s), potenciar su alfabetizaciĂłn digital y al mismo tiempo visibilizar su presencia en estas posiciones, para mostrar que la programaciĂłn y las ciencias “duras” no tienen que ser exclusivamente asuntos varoniles.
El uso de la Inteligencia Artificial puede promover la igualdad de género
La IA puede tener un impacto diferenciado sobre hombres y mujeres, por lo que aplicar perspectiva de género en todos los procesos involucrados en el “machine learning”, es fundamental para no reforzar inequidades y exclusiones.
Si se aplica perspectiva de gĂ©nero en la IA mitigando los sesgos presentes en los procesos de pensamiento envueltos en estos desarrollos, la misma tecnologĂa puede contribuir a disminuir la desigualdad entre hombres y mujeres, al detectar e identificar las causas que la originan y proponer soluciones que eviten incurrir en decisiones sesgadas.
Para ello es importante crear equipos más diversos en el desarrollo de IA, donde las mujeres no sean una minorĂa. Este paso es importante si se quiere incorporar una perspectiva más amplia en el diseño, desarrollo y aplicaciĂłn. Sin duda, la presencia de las mujeres puede influir sobre la manera en que las tecnologĂas están creadas y el tipo de pensamiento que se usa en las aplicaciones de inteligencia artificial.
Estos equipos a su vez deben formarse en transversalizaciĂłn de igualdad de gĂ©nero para que apliquen este enfoque cuando analizan datos y sean capaces de mirar sus propios sesgos con el fin de mitigarlos. Puede ayudar contar un lĂder de “gender balance” en la estructura organizacional, con la funciĂłn de vigilar para que no se creen algoritmos viciados y se audite con frecuencia los procesos para evitar incurrir en estas distorsiones y sus indeseables efectos. Usar lenguaje inclusivo y no genĂ©rico masculino en los protocolos de interacciĂłn es fundamental para evitar la exclusiĂłn que se deriva de un modo de hablar que invisibiliza a las mujeres sistemáticamente.
Necesitamos más mujeres que participen y lideren activamente el proceso de diseño de la robĂłtica e inteligencia artificial para que estas tecnologĂas reflejen de manera incluyente, la diversidad de pensamiento, experiencias y visiones de ambos sexos.