Cerrar panel

Cerrar panel

Cerrar panel

Cerrar panel

'Bots' sin sesgos de género para una sociedad más igualitaria

Mientras los ‘bots’ cuenten con sesgos de género, continuarán contribuyendo a perpetuar la desigualdad de la mujer. Por esta razón, en BBVA Next Technologies, la empresa de ‘software’ avanzado de BBVA, están trabajando para reducir este tipo de sesgos y que la tecnología se convierta en una palanca fundamental para acortar la brecha de género.

En BBVA Next Technologies consideran que la tecnología debe estar al servicio de las personas y por eso, el equipo de su Laboratorio de Innovación organizó un encuentro el 5 de marzo, dentro de sus actividades para celebrar el día de la mujer, en el que explicaron cómo reducir sesgos de género en la IA y diseñar ‘bots’ más igualitarios.

“Necesitamos tecnología feminista que impulse la igualdad para cuestionar patrones y sesgos que alimentan la desigualdad y perpetúan estereotipos, para trabajar por equilibrar la balanza y construir un mundo más justo, y para velar por la representación de la diversidad y la igualdad de oportunidades”, explicaba Marta Salas Cerezo, diseñadora de BBVA Next Technologies.

Con este objetivo presentó el ‘Feminist Bot Design Canvas’, un proceso de diseño creado desde el Laboratorio de Innovación que propone diferentes aspectos a tener en cuenta a la hora de crear un ‘bot’:

  • La usuaria/o: Hay que preguntarse por las fortalezas u obstáculos de la persona para la que se diseña y “así el diseño será mucho más potente que abordando necesidades demasiado universales”, comentaba Salas Cerezo.
  • El sesgo del equipo: Es importante establecer un momento de reflexión sobre cuál es la visión del equipo que está creando el ‘bot’ y cómo afecta ésta al diseño. Es decir, tomar conciencia de cuáles son sus creencias, su clase, su estatus, etc... y vigilar cómo todo esto puede estar sesgando esas decisiones.
  • El propósito: Establecer la conexión entre la persona y el ‘bot’ y preguntarse cuál es su fin último.
  • El ‘bot’: Por un lado, hay que definir su personalidad, que deberá estar al servicio del propósito, y pensar si es conveniente que tenga género. Y por otro, establecer cómo serán sus respuestas, teniendo en mente que debe recordar que no es una persona, por cuestiones éticas, y que es muy importante que responda ante los comentarios inapropiados. Un ejemplo de ‘bot’ que lo hace es Pillow, que ayuda a mantener un bienestar mental positivo. Si al ofrecer consejos para dormir mejor Pillow obtiene una respuesta inadecuada por parte del usuario, su respuesta es la siguiente: “No te pongas así, solo intento ayudar. Entiendo que estés cansado, pero no deberías pagarlo ni conmigo ni con nadie”.
feminist_canvas_BBVANext_design_bot

‘Feminist Bot Design Canvas’, un proceso de diseño creado desde el Laboratorio de Innovación de BBVA Next Technologies.

Este diseño pretende luchar contra “el sesgo de género que la tecnología tiene interiorizado desde su construcción y que hace inevitable que sus respuestas tengan el género en cuenta”, explicaba Ira Manzano, diseñadora de producto de BBVA Next Technologies, que a su vez añadía que esta situación “se produce principalmente porque los datos con los que se trabaja están sesgados desde un principio”.

Yolanda de la Hoz, investigadora de IA de BBVA Next Technologies, se situaba en el origen del problema y comentaba que éste reside en que “los seres humanos poseen multitud de sesgos cognitivos de los que no somos conscientes y que se transfieren fácilmente a los sistemas inteligentes que aprenden de nosotros a partir de los datos”, lo que hace que los algoritmos se vean inevitablemente afectados. Una situación que se agrava por el hecho de que el sector tecnológico haya contado con un punto de vista mayoritariamente masculino a lo largo de su historia.

Estos sesgos se pueden apreciar actualmente de forma muy clara en los asistentes virtuales más populares, como Siri, Alexa o Cortana, todos con nombres y voz de mujer, y programados para ejecutar órdenes. Un factor que fácilmente puede pasar desapercibido y que, sin embargo, tiene graves consecuencias tal y como señala una agencia de la ONU. En concreto, la UNESCO afirma que“el hecho de asignar géneros femeninos a estos asistentes está ayudando a afianzar los estereotipos de género”.

Reducir sesgos en la IA

Para reducir los sesgos en esta tecnología, explicaba de la Hoz, “es esencial prestar mucha atención a los datos”, como ya se ha mencionado anteriormente. También comentó la importancia de entrenar los modelos para que sean capaces de identificar y corregir sus propios sesgos, ya que normalmente están diseñados para generalizar a través de los datos.

Por eso es fundamental aplicar ciertos filtros en estos modelos y tener en mente cuál es su aplicación, es decir, con qué propósito se está diseñando, ya que “no es lo mismo diseñar modelos en los que la toma de decisión está en manos del humano, que diseñarlos para que los 'bots' tomen decisiones sin apenas intervención humana, como ocurre en los sistemas autónomos”, comentaba de la Hoz.

Para la investigadora, la clave está en “involucrar a científicos de datos en los procesos para evitar riesgos e invertir en investigación y en equipos de desarrollo multidisciplinares que también cuenten con perfiles como psicólogos o lingüistas”.

Resumen del encuentro ofrecido por el equipo del Laboratorio de Innovación de BBVA Next Technologies en el que hablaron de los sesgos de géneros en el desarrollo de 'bots' y cómo solucionarlos.

Para finalizar el encuentro y dar ejemplo, Sandra Juárez Puerta, investigadora de BBVA Next Technologies en la disciplina HCI (Human Computer Interaction), explicó a los asistentes a través de un taller cómo funcionaba IWomen (Important Women), el ‘chatbot’ feminista que el equipo desarrolló para la ocasión y cuyo objetivo es eliminar los sesgos en distintos ámbitos profesionales. Su funcionamiento consiste en que cuando la persona le pregunta sobre referentes en ámbitos como la pintura, la medicina, el cine o la tecnología, el 'chatbot' responde con nombres de referentes femeninos, gracias a que estos están incluidos en la base de datos con la que trabaja.

Este proyecto busca servir de referencia e inspirar a los desarrolladores a crear asistentes virtuales más igualitarios que no trasladen los sesgos de género a las nuevas tecnologías.