Aunque la inteligencia artificial existe hace muchos años, en los últimos meses cobró un furor sin precedentes. Con el lanzamiento de Chat GPT de OpenAI, se desenvolvió algo así como una carrera tecnológica entre los grandes de la industria. Las compañías están desesperadas por incorporar más y más de estas herramientas para no quedarse atrás. Así es como la inteligencia artificial va permeando en todos los rubros: maneja sistemas de bancos, hospitales, procesos de reclutamiento de empresas y hasta entidades gubernamentales. Pero antes de poner a la inteligencia artificial a tomar decisiones cada vez más complejas, deberíamos recordar que estas herramientas son creadas y programadas por personas con sus propios sesgos y no son tan objetivas, perfectas ni imparciales como nos gustaría creer.
“La máquina la hace el hombre y es lo que el hombre hace con ella” dice Jorge Drexler en una canción. Y esta frase se aplica perfectamente a uno de los problemas que tenemos hoy con la inteligencia artificial. Quienes diseñan y desarrollan estas máquinas son, abrumadoramente, hombres. “Si los sistemas no son desarrollados por equipos diversos, es menos probable que se encarguen de las necesidades de usuarios diversos” dice un artículo de la UNESCO titulado “Los efectos de la IA en la vida laboral de las mujeres”. Es problemático que las tecnologías que le van a dar forma a nuestros futuros sean diseñadas por un grupo poco representativo de la sociedad. Pero, ¿cómo llegamos hasta acá? ¿Por qué las mujeres están infrarrepresentadas en la industria de la tecnología? Empecemos por el principio.
La máquina la hace el hombre
A esta altura es ridículo pensar que se trata de una falta de interés o disposición. Hay cientos de ejemplos de mujeres que hicieron avances importantísimos en tecnología (¿Ada Lovelace no les suena?) pero que consistentemente fueron borradas de la historia. Mariana Costa, co-fundadora y presidenta de Laboratoria, considera que es un problema de educación cultural: “Es como si no fuera un trabajo para las mujeres y esa mentalidad ya empieza a ser impuesta desde la niñez”.
Según un estudio elaborado en 2020 por el Observatorio Nacional de las Telecomunicaciones y la Sociedad de la Información de España, menos del 20% de las vacantes tecnológicas están ocupadas por mujeres. En Argentina, aunque el 60% de las personas que estudian en la universidad son mujeres, en carreras de ciencia y tecnología, representan apenas el 15%.
Para garantizar la igualdad de oportunidades, es fundamental que desde la educación inicial se estimule tanto a niñas como a niños en estos campos, incorporando las historias de mujeres científicas en la currícula y utilizando términos ambiguos en cuanto al género. Esto también es importante en los procesos de reclutamiento: ¿cómo esperamos que las mujeres se sientan convocadas cuando todas las ofertas de trabajo están redactadas en términos exclusivamente masculinos?
Se trata de un rubro tan masculinizado que si buscas “ingeniera de datos” en Google, te sugiere que es un error de tipeo y en que en realidad querías decir “ingeniería de datos”. Los miles de resultados de cursos, artículos y ofertas de trabajo utilizan exclusivamente el término “ingeniero de datos”. Puede parecer algo pequeño, pero son muchas cosas pequeñas como estas las que contribuyen a crear un sentido común de que la tecnología no es un rubro para las mujeres.
Y es lo que el hombre hace con ella
¿Alguna vez te preguntaste por qué la mayoría de los asistentes robóticos (como Alexa o Siri) tienen voz de mujer? No es casualidad. Como tampoco es casualidad que un algoritmo aprenda a asociar imágenes de artefactos domésticos con mujeres. O que las herramientas de IA califiquen las fotos de mujeres como más sexualmente sugerentes que las de los hombres. “Los algoritmos no son otra cosa que opiniones encriptadas en un código” dice Cathy O’Neill. Es evidente que los sesgos de quienes programan y diseñan estas herramientas se ven reflejados en las tecnologías.
En otros casos, el problema no es tanto los sesgos de los programadores sino nuestra propia historia. Gemma Galdón, auditora de algoritmos y fundadora de Eticas Research and Consulting explica que, por ejemplo, para decidir a quién darle una hipoteca, el algoritmo se nutrirá de datos históricos: “Sobre la base de estos datos tendrán más posibilidades los hombres que las mujeres, porque se nos han concedido menos históricamente y porque el sistema nos asigna un perfil de riesgo”.
En 2018, Amazon tuvo que dar marcha atrás con una herramienta de IA que estaba utilizando para optimizar los procesos de reclutamiento. El problema era que el algoritmo se había entrenado mayormente con currículums de hombres y aprendió a priorizar estos y penalizar a los que contenían la palabra “mujer”.
Nuestros datos también reflejan nuestra historia de injusticia con las mujeres y otras minorías. Y este es un problema más difícil de solucionar. “No podemos arreglar los algoritmos introduciendo mejores datos porque no hay mejores datos” dice la periodista experta en IA, Meredith Broussard. La tecnología no puede enmendar las injusticias del sistema. “El problema subyacente es la sociedad”, dice Broussard.
Hacia una IA más inclusiva
Los datos hablan de cómo fuimos, pero no de cómo queremos ser. Para construir modelos de inteligencia artificial que no sigan perpetuando injusticias, es necesario que primero tomemos consciencia de esta problemática. Si le entregamos la riendas a la IA para que tome decisiones basándose en nuestro pasado sin ningún tipo de filtro, nuestro futuro no va a ser mucho mejor ¿y no es ese el punto? ¿construir un futuro mejor?
Para Broussard, eso significa también tomar la decisión de no utilizar la inteligencia artificial para algunos procesos particularmente sensibles. Da como ejemplo el uso de la tecnología de reconocimiento facial por parte de las fuerzas policiales: Broussard considera que este es un uso muy riesgoso ya que puede llevar a arrestos injustos. “No es el fin del mundo si no usas una computadora para algo. No se puede asumir que un sistema tecnológico es bueno sólo porque existe”. Así que una primera conclusión que podríamos tomar es que estas tecnologías se deben aplicar con mucha precaución y criterio y que incluso a veces conviene prescindir de ellas.
Por otro lado, como ya mencionamos antes, es importante incentivar la incorporación de mujeres y otras minorías en el sector para que nuestras tecnologías estén desarrolladas con perspectivas diversas, para usuarios diversos.
En este sentido, es fundamental el trabajo de organizaciones públicas y privadas que estén comprometidas con la inclusión. Chicas en Tecnología y Mujeres en Tecnología (MeT) son dos organizaciones que brindan capacitaciones, charlas, iniciativas, espacios de trabajo y oportunidades para mujeres y diversidades en tecnología. En el sector privado, empresas como Globant y Moove It ofrecen capacitaciones y otras iniciativas para mujeres en todo el mundo.
Sobre todas las cosas, como dijo la secretaria de Estado de Digitalización e Inteligencia Artificial de España, Carme Artigas: “Es imprescindible que no bajemos la guardia. No podemos dejar al 51% de nuestro talento femenino fuera del diseño de un modelo de país y de un medio global que está aún por desarrollarse”.
Y tenemos que tratar el tema con la seriedad que merece. Actualmente Chat GPT -la herramienta de inteligencia artificial más popular del mundo- incluye el siguiente disclaimer a su producto: “Ocasionalmente puede producir instrucciones dañinas o contenido sesgado”. No podemos seguir tomando el “contenido sesgado” como un accidente aceptable de una máquina imperfecta. La discriminación sexista no es un “bug” del sistema, un mero error a corregir: es un problema de derechos humanos.
¿Ustedes qué piensan? ¡Escuchamos sus comentarios!
- ¿La IA es sexista? - marzo 29, 2023
- Elizabeth Holmes, Sam Bankman-Fried y el enorme riesgo de lo ‘nuevo’ - diciembre 5, 2022
- El Metaverso, ¿la nueva frontera tecnológica? - noviembre 25, 2022
¿Qué te pareció este artículo?
What do you think about this post?