explora

Siri y Alexa dañan a las mujeres de una forma que no imaginábamos: la ciencia explica por qué

celular distraido smartphone
Stock-Asso - shutterstock

Apenas aplaudíamos que Siri y Alexa se casaron para demostrar que el amor siempre gana, cuando descubrimos un lado oscuro de su "personalidad". Mientras que con su boda defendieron a la comunidad LGBT+, un estudio descubrió que la manera como se comunican con nosotros reproduce estereotipos sexistas que afectan cómo tratamos a las mujeres de verdad.

Una mujer asistente

7 formas en las que tu trabajo afecta tu fertilidad 2
Dean Bertoncelj/iStock/Thinkstock

Tanto Siri como Alexa son sistemas de inteligencia artificial (IA) creados para asistir a los usuarios. Sus funciones van desde responderte si lloverá hoy, hasta recordarte ese compromiso al cual no querías asistir. La primera pertenece a Apple y la segunda a Amazon. Además de sus labores, ambas comparten el hecho de tener voz de mujer (al igual que Cortana, de Microsoft).

¿Habías notado que todas las asistentes digitales son féminas? La UNESCO decidió realizar un análisis de este fenómeno y encontró que no se trata de una simple coincidencia sin repercusiones. El trabajo fue titulado I'd Blush If I Could (Me sonrojaría si pudiera), una frase que utilizaba Siri cuando alguien le decía «Oye, Siri, eres una perra».

siri iphone
Kaspars Grinvalds/Shuttertstock.com

La organización señaló que Siri ahora contesta: «No se cómo responder a eso», lo cual es ligeramente menos sumiso. Pero lo que ambas oraciones reflejaron fue la manera como las IA están programadas de una manera que retrata a las mujeres como complacientes y utilizables (además, siempre tienen una voz joven).

Podría parecerte inofensivo, pero dice mucho de nuestra sociedad que al pensar en un asistente, la primera imagen que aparece en automático sea la de una fémina. Así como el hecho de que las respuestas programadas para enfrentarse a los insultos sean tan tolerantes al abuso y la violencia sexual.

silencio 1
Marcos Mesa Sam Wordley vía Shutterstock

Esta tóxica noción del mundo con carente visión femenina se debe — en parte — a la falta de mujeres en la industria tecnológica. La UNESCO mencionó que apenas un 12 % de mujeres forman parte del campo de la investigación de IA. En el desarrollo de software la cifra es aún peor, con sólo 6 %.

Mientras tanto en el mundo real

gancia peraysauco 6 bc
g-stockstudio - shutterstock

Calvin Lai, investigador de la Universidad de Harvard, es experto en sesgos inconscientes y detalló cómo es que sistemas como Siri y Alexa pueden influir en la manera como vemos al mundo y tratamos a las mujeres.

«Entre más le enseñe la cultura a la gente a equiparar las mujeres con asistentes, más serán vistas las mujeres reales como asistentes — y serán penalizadas por no comportarse como una asistente. Esto demuestra que la tecnología poderosa no sólo puede reproducir la desigualdad de género, sino también ampliarla».

sexismo machismo 0319 1400x800
fizkes/Shutterstock

El estudio menciona que las compañías defienden esta decisión de tener asistentes mujeres por default, porque los clientes prefieren una voz femenina a una masculina, a pesar de que no existen artículos científicos que demuestren que los humanos preferimos la voz de las mujeres.

Lo que sí se ha encontrado es que los individuos tienden a preferir las voces de hombres cuando sus frases demuestran autoridad, mientras que las de las mujeres suelen asociarse a alguien que es útil. Estereotipos, estereotipos en todos lados.

estereotipos hombres y mujeres
fotofeel vía Shutterstock

Es por ello que la UNESCO hizo una invitación a cuestionarnos cómo el uso de la tecnología impacta en nuestra vida diaria y en cómo tratamos a quienes nos rodean. Eso sí, la respuesta no está sólo en actualizar a Siri y a Alexa, sino también nuestra cultura.

«Las máquinas obedientes y serviciales que pretenden ser mujeres están entrando en nuestras casas, autos y oficinas. Su cableada sumisión influencia cómo las personas le hablan a las voces femeninas y moldea cómo las mujeres responden a las peticiones y cómo se expresan.

«Para cambiar el curso, necesitamos prestar mucha atención a cómo, cuándo y si las tecnologías de inteligencia artificial tienen género y, lo más crucial, quién les asigna ese género».

Te invitamos a leer: