CÓD.N07-S04-B-36 ONLINE

Detección de sesgos de género en inteligencia artificial en el ámbito tecnológico, científico y mediático

En la era del big data y de los algoritmos y a las puertas de una aclamada cuarta revolución industrial comienzan a vislumbrarse los riesgos de la inteligencia artificial (IA) en numerosos sectores: la pérdida de empleo o las armas, son las que más reflexiones ocupan, aunque, la equidad es constituye una preocupación cada vez mayor. Los modelos de aprendizaje automático se utilizan para apoyar la toma de decisiones en aplicaciones de alto riesgo, como préstamos hipotecarios, contratación y sentencias. El Foro Económico y Mundial alerta del escaso análisis con perspectiva de género para conocer cómo afectarán estos avances a la vida de las mujeres, tanto en el ámbito público como en el privado y desde UNESCO se reclama una mayor presencia de mujeres en las investigaciones que se desarrollan con IA, la incorporación de «auditorías algorítmicas» para mapear y etiquetar las fuentes de esta discriminación para crear estrategias para repararlo y prevenirlo, y la financiación de estudios para identificar los tipos, dimensiones y severidad del sesgo de género en estas aplicaciones.

En los escasos experimentos existentes, varias científicas han pronosticado un dramático retroceso en materia de igualdad entre mujeres y hombres, poniendo el foco en el aprendizaje automático (machine learning), en el aprendizaje profundo (deep learning) y el Natural Language System (NLS). En el caso de los NLSs se confirma que si se construye un sistema inteligente que aprende lo suficiente sobre las propiedades del lenguaje para poder entenderlo y producirlo, en el proceso también adquirirá asociaciones culturales históricas, algunas de ellas negativas.

En este proyecto se aborda de forma empírica una de las consecuencias sociales de la revolución tecnológica y pretende dar respuesta a las necesidades detectadas identificando y analizando las prácticas y los discursos en torno a los sesgos de género en IA por tres agentes: empresas y centros de investigación que producen sistemas de inteligencia artificial en España, aplicaciones desarrolladas por empresas extranjeras que operan en territorio nacional, haciendo especial hincapié en las aplicaciones del ámbito de la comunicación (asistentes personales de voz, sistemas de recomendación, entre otros) y de los medios de comunicación. Todo ello se realizará teniendo en cuenta la perspectiva de género en ciencia y con un enfoque multidisciplinar.

Los resultados pretenden aportar soluciones para evitar que estas tecnologías aumentan la brecha de género y, además, generen conciencia crítica en el sector empresarial, mediático y en las audiencias, que contribuya a la consecución de una sociedad más justa e igualitaria. Se espera que los resultados repercutan en el diseño de políticas públicas y legislativas en esta materia. Por último, se prevé tener un alto impacto en la sociedad, favorecido por el momento actual que están viviendo los feminismos en el mundo y especialmente en España desde las manifestaciones de 2018.

(*) Proyecto financiado por la Agencia Estatal de Investigación (Identificación de sesgos de género en inteligencia artificial. Prácticas y discursos tecnológicos, científicos y mediáticos /  PID2019-106695RB-I00 / AI-GENBIAS /10.13039/501100011033 ).

Palabras clave

algoritmos Big Data GÉNERO inteligencia artificial Medios de comunicación

Ponencia Online

Documentación de apoyo a la presentación ONLINE de la ponencia

Ver el video en youtube


Firmantes

Los autores de la ponencia

profile avatar

TERESA Sandoval MARTIN

Ver Perfil

profile avatar

Clara Sainz de Baranda Andújar

Ver Perfil

profile avatar

Leonardo Alberto La Rosa Barrolleta

Ver Perfil


Preguntas y comentarios al autor/es

Hay 4 comentarios en esta ponencia

    • profile avatar

      Clara Souto Galván

      Comentó el 11/12/2020 a las 16:27:55

      Os felicito por el proyecto tan interesante y necesario que estás llevando a cabo, está muy bien estructurado y muy completo, espero que os vaya muy bien. El proyecto en sí, me parece una avance en esta situación de desigualdad, para dar visibilidad por lo menos a otra situación de discriminación en la que se encuentran las mujeres, pero ¿en qué consisten las medidas de acción que queréis adoptar en cuanto a los medios de comunicación? un saludo y enhorabuena.

      Responder

      • profile avatar

        Clara Sainz de Baranda Andújar

        Comentó el 11/12/2020 a las 21:05:25

        Gracias Clara. Primero tenemos que sacar conclusiones sobre la información que publican en este ámbito y las entrevistas a editoras de igualdad. En mi experiencia, los medios necesitan de formación específica y sobre todo de cómo construir sus agendas, las fuentes. Hay que entender que sus propios sistemas de documentación ya tienen sesgos de género que habría que corregir. Además de guías, la transferencia es esencial y se conseguirá con la formación. Un saludo

        Responder

    • profile avatar

      Paloma González Díaz

      Comentó el 10/12/2020 a las 09:27:57

      Enhorabuena por el proyecto. Me parece especialmente interesante y crucial en nuestros días. Creo que el uso de la visualización de datos puede ser crucial a la hora de mostrar los resultados del estudio. ¿Han pensado ya en cómo se modulará esa base de datos? ¿Cuál será el sistema de recepción de los mismos? ¿qué información básica contendrá? Me encantaría seguir el proyecto y ver sus resultados.

      Responder

      • profile avatar

        Clara Sainz de Baranda Andújar

        Comentó el 11/12/2020 a las 21:11:44

        Gracias Paloma. Para nosotras es clave una buena visualización de datos. Estamos al inicio del proyecto y como entenderás las ideas evolucionarán dependiendo de los resultados obtenidos y de conseguir que las empresas se impliquen. En breve tendremos la página web montada donde empezaremos a difundir los primeros resultados. Estos no solo llegarán al mundo académico, también a la empresa y a la ciudanía. Esperamos que sean de su interés. Un saludo

        Responder


Deja tu comentario

Lo siento, debes estar conectado para publicar un comentario.