26 de octubre de 2023. La Fundación CERMI Mujeres, con la colaboración del Comité Español de Representantes de Personas con discapacidad (CERMI), ha expresado su demanda centrada en que “la Inteligencia Artificial sea la gran aliada de
- Así lo ha manifestado la Fundación CERMI Mujeres durante la jornada ‘Algoritmos: discriminación contra las mujeres’
- Una jornada que ha contado con la ponencia marco de Tasia Aránguez Sánchez, profesora de Filosofía del Derecho de la Universidad de Granada
26 de octubre de 2023. La Fundación CERMI Mujeres, con la colaboración del Comité Español de Representantes de Personas con discapacidad (CERMI), ha expresado su demanda centrada en que “la Inteligencia Artificial sea la gran aliada de la inclusión”.
Así lo ha manifestado la Fundación CERMI Mujeres durante la sesión, que se celebró en formato virtual este miércoles y en el marco del Ciclo de debates ‘Delete Capacitismo’ del CERMI, y que se desarrolla con el apoyo del Ministerio de Derechos Sociales y Agenda 2030, dentro de su convocatoria de subvenciones con cargo al 0.7% de actividades de interés social.
En concreto, esta jornada ha abordado el impacto de los sesgos de género en los algoritmos, que pueden dar lugar a una discriminación contra las mujeres en diferentes ámbitos, como el empleo, la educación o la salud.
El debate ha contado con una ponencia marco de Tasia Aránguez Sánchez, profesora de Filosofía del Derecho de la Universidad de Granada, que ha analizado los fundamentos teóricos de los sesgos de género en los algoritmos. Para ello, ha definido qué son los algoritmos y qué es la inteligencia artificial y tras la definición, ha señalado que “los algoritmos, que no son entes vivos, son sexistas es porque son un reflejo de la sociedad porque actúan a partir de una base de datos y ahí es donde se cuelan los sesgos sexistas”.
Aránguez también ha resaltado la falta de paridad y la escasa presencia de las mujeres con discapacidad en internet. Al respecto, la experta ha debatido sobre si es prudente confiar en la autorregulación de las empresas en los sesgos de estos algoritmos y, tras poner de relieve algunos casos reales de empresas con sesgos de género en los algoritmos, ha concluido que, probablemente, las empresas “no sean las mejores garantes de la ética tecnológica”.
La experta también ha explicado que considerar al hombre como sujeto universal es otro tipo de sesgo de género en los algoritmos y ha puesto ejemplos que ignoran una variable correlativa o algoritmos que aumentan el sexismo de las personas usuarias.
Aránguez también ha puesto de manifiesto el acoso sexual y violaciones como otro problema relacionado con el sexismo en los algoritmos.
Otro aspecto que ha destacado la ponente del sexismo de los algoritmos es la cosificación sexual de la inteligencia artificial presente en muchos videojuegos porque, según ha advertido Aránguez, “los que diseñan o programan, en su mayoría, son varones”. Ante ello, Aránguez ha alertado de que “los algoritmos carecen de la flexibilidad de la inteligencia humana, son rígidos por lo que no tienen sentido común” y, por ello, ha añadido que “es muy importante que colectivos como CERMI puedan participar o auditar los algoritmos de las administraciones públicas o de empresas para que las personas con discapacidad no se vean excluidas”.
En su intervención, Aránguez ha avisado de que, por el momento, “falta regulación” y que “las políticas públicas no están haciendo demasiado para hacer frente a los sesgos sexistas de los algoritmos”. “Muchas empresas tienen códigos éticos y auditorías internas, pero no tienen sanciones si lo incumplen”, ha denunciado.
A continuación, un panel de personas expertas ha debatido sobre las implicaciones de los sesgos de género en los algoritmos para las mujeres. El panel ha estado formado por, Concepción Díaz Robledo, presidenta de la Fundación CERMI Mujeres; y Pilar Villarino Villarino, directora ejecutiva del CERMI, y ha estado moderado por la Coordinadora de la Fundación CERMI Mujeres, Isabel Caballero.
Díaz Robledo ha manifestado su preocupación por que “este tipo de datos que existen en los algoritmos vinculados a las mujeres con discapacidad estén cargados de estos prejuicios y estereotipos” y que, a juicio de Díaz, “sería una carga añadida para las mujeres y niñas con discapacidad”.
Seguidamente, Villarino ha recordado que CERMI lleva trabajando desde hace tiempo en una estrategia de transformación digital y un plan de algoritmos sociales y de inclusión que sirve como marco de orientación para que “la inteligencia artificial tenga un rostro social y acoja la diversidad humana sin ningún tipo de sesgos ni exclusiones”.
El plan, según ha explicado Villarino, está diseñado con líneas estratégicas para combatir el capacitismo y pone el foco en la importancia de medir el impacto negativo en las personas con discapacidad, impulsar procesos de auditoría de algoritmos. “En definitiva, lo importante es realizar desde las organizaciones de la sociedad civil una labor de incidencia para evitar esta discriminación vinculada a la inteligencia artificial”, ha concluido.