Igualdad de género y diversidad en la IA
Da la impresión de, además de estar desaprovechando el potencial haciendo preguntas un tanto absurdas, estamos poniendo en el mismo costal a todas las aplicaciones de inteligencia artificial generativa y estamos concediéndole cierta objetividad a sus respuestas
“¿Qué pasaría si la humanidad se queda sin internet por un día, según la IA?”; “¿Cuál es la mejor película de Silvia Pinal, según la IA?”; “Los 5 lugares de Edomex en donde no deberías pararte porque es peligroso, según la IA”; “¿Cuándo se debe poner el arbolito de Navidad según la IA?” Estos son algunos encabezados de notas publicadas en medios de comunicación en los días recientes. Da la impresión de, además de estar desaprovechando el potencial haciendo preguntas un tanto absurdas, estamos poniendo en el mismo costal a todas las aplicaciones de inteligencia artificial generativa y estamos concediéndole cierta objetividad a sus respuestas.
Sin embargo, hay maneras de problematizar esto, como ocurrió en un texto de David Gilbert en la revista Wired, que se titula “Le preguntamos a distintos chatbots cuál era el IQ más alto, sus respuestas fueron racistas”. Recordemos que estas herramientas se basan en modelos de lenguaje, que analizan cantidades masivas de datos publicados en internet, identifican los patrones y aprenden sus lógicas, por eso se habla de aprendizaje automático. Por lo mismo, la información generada tiende a reproducir lo que hay. En este sentido, la reproducción de información sostiene las lógicas dominantes, no necesariamente las más justas.
El reporte Hacia la Igualdad Sustantiva en la Inteligencia Artificial: Política Transformadora de IA para la Igualdad de Género y la Diversidad, liderado por Paola Ricaurte y Benjamin Prud’homme, señala que: “Los sistemas de IA no son neutrales. Reproducen los modelos del mundo, los valores culturales, los conocimientos y los lenguajes de los contextos en los que se conciben, con lo que reproducen o amplifican las desigualdades sistémicas basadas en el género, la raza, la etnia, las capacidades, la clase social y la educación, entre otras”.
Por eso hay respuestas generadas por aplicaciones de inteligencia artificial que incluyen sesgos de género y también sesgos geopolíticos, como el racismo señalado en algunas respuestas, pero también la invisibilización de las mujeres, la comunidad LGBT+, entre otras. Con ello se refuerzan las desigualdades en la información, que se suman a otras desigualdades en el acceso a la tecnología.
Para hacer frente a estas lógicas, el reporte antes mencionado busca “fortalecer la capacidad de los Estados y otras partes interesadas para fomentar ecosistemas de IA inclusivos, equitativos y justos”. A partir de una revisión de casos, aporta recomendaciones prácticas para cuidar y formular políticas públicas de igualdad de género y diversidad en la IA. Estas recomendaciones incluyen cuatro ejes: 1) Diseño inclusivo e innovación democrática; 2) participación significativa de los grupos marginados en la gobernanza de la IA; 3) transparencia y rendición de cuentas para la prevención de daños; 4) es el acceso efectivo a la justicia.
Esfuerzos como este nos recuerdan que, en medio de la sofisticación tecnológica, debemos tener presente siempre que trabajamos con personas y debemos garantizar que se respete su dignidad.
*El reporte Towards Real Diversity and Gender Equality in AI: Evidence-Based Promising Practices and Recommendations está disponible en: https://gpai.ai/projects/responsible-ai/towardsrealdiversityandgenderequalityinai/towards-substantive-equality%20in-artificial-intelligence_Transformative-AI-policy-for-gender-equality-and-diversity.pdf
Las ideas aquí expresadas pertenecen solo a su autor, binoticias.com las incluye en apoyo a la libertad de expresión.