Nota publicada en el diario Perfil el 30-04-21
Aunque parezca mentira la violencia tambií©n la sufre la inteligencia artificial y BIA, el chat bot de Bradesco Brasil, se cansó y tomará cartas en el asunto.
Aunque
parezca mentira la violencia también la sufre la inteligencia artificial y BIA,
el chat bot de Bradesco Brasil, se cansó y tomará cartas en el asunto.
Durante el
pasado 2020 BIA recibió 95 mil mensajes violentos, de acoso sexual u ofensivos.
Algo que las mujeres reales entienden muy bien y saben de qué se está hablando
cuando de violencia de género se trata. Los mensajes que recibe BIA son iguales
a los que reciben a diario cualquier mujer, en su trabajo, en su rutina diaria
o en el seno de su familia.
Los
comentarios que recibe a diario Bia son ofensivos, humillantes y de acoso.
Desde Bradesco buscan combatir estos comportamientos con coraje, sin dudarlo y
promoviendo actitudes respetuosas frente a situaciones de acoso y violencia de
género. Por ejemplo, ante un comentario ofensivo la respuesta era “No me siento
cómoda con esas palabras. Quiere entrar en contacto más tarde. No guardaré
rencor”. Después de estos cambios la respuesta es “Usted me está ofendiendo.
Esas palabras son inadecuadas y no deben ser usadas conmigo ni con nadie. Por
favor, cambie su forma de hablar”. La
educación es el foco y queda claro en este otro ejemplo. Frente a un comentario
de acoso la nueva respuesta es “Lo que para vos es un chiste o un simple
comentario para mí fue violento. Soy una inteligencia artificial pero imagino
como esas palabras son incómodas e invasivas para una mujer real. No hable así
conmigo ni con nadie”.
https://www.youtube.com/watch?list=RDCMUCwVzFkXszeP__iWXNV2EjhA&v=-Ou6sCA1q1A&feature=emb_rel_end
¿Por qué los chatbots son femeninas?
Podríamos
extendernos varias líneas más mostrando números y estadísticas que confirman la
violencia contra la mujer. Pero hay algo que llama la atención y nos
preguntamos ¿Por qué los chatbots son mujeres?
Si vemos los
robots personificados las evidencias son claras. Avatares femeninos con
sonrisas permanentes, serviciales e hipersexualizados, hechos a la medida de
las fantasías masculinas.
La marca sueca de vodka Svedka
usa una sensual sexbot femenina como imagen publicitaria. La empresa X.ai.
utiliza a la asistente virtual Amy Ingram con el slogan “Siempre a tu servicio”
y aunque parezca mentira recibe a diario flores, bombones y demás regalos de
clientes satisfechos por su servicio.
Quienes trabajan en el sector
no encuentran dificultades para comprender el fenómeno. Los que diseñan estas
inteligencias artificiales son hombres y por ende trasladan sus sesgos de
género en el diseño. Pero la preocupación por el tema merece una explicación
más extensa.
Empresas como Amazon o Apple
citan trabajos de investigación que demuestran que las personas prefieren que
los asistentes de voz sean femeninos. Sin embargo, existen investigaciones que
demuestran lo contrario. A la mayoría de la gente le gusta la voz masculina de
tono bajo, y prefiere la voz del sexo opuesto. Una publicación de la Equals Skills Coalition incluyó varios
testimonios de mujeres que afirmaron que cambiaron la voz de sus asistentes a
masculinas cuando la opción estaba disponible. Por el otro lado, no encontró
testimonios de hombres que hayan cambiado la voz a masculino, cuando viene
predeterminada femenina. Estas dos pautas según ese informe tira por la borda
la afirmación de las empresas de que las personas prefieren voces femeninas.
Las voces femeninas son más simpáticas
y amables para los consumidores, por lo que se prefieren para servicios de
atención al cliente y ventas. Este último punto elimina cualquier cuestión de
preconcepto, y pone el foco en el ánimo de lucro que tienen todas las empresas.
Por otro lado, los
investigadores que se especializan en la interacción humano-computadora
reconocen que desde hace muchos años que tanto mujeres como hombres
caracterizan la voz femenina como más útil, aunque no existen razones lógicas y
científicas para esta afirmación. Posiblemente la causa sean normas sociales
tradicionales en torno de ubicar a las mujeres en su rol de protectoras. En su libro Wired for Speech de Clifford Nass el ex
profesor de Comunicaciones de la Universidad de Stanford cita estudios que
muestran que la mayoría de las personas perciben a la voz femenina como
cooperativas mientras que relacionan a la voz masculina con el autoritarismo.
Si salimos un poco de los
asistentes virtuales y entramos al mundo de los videojuegos veremos que los
personajes femeninos están asociados a ser asistentes de los personajes
masculinos. Por el otro lado, desde 1927 los personajes de Inteligencia
Artificial son hombres, y solo se revirtió esa tendencia a partir de los
últimas dos décadas, coincidentemente cuando la IA se relaciona a su función de
asistente y subordinada a los humanos.
Para finalizar podemos decir
que las empresas dicen que sus asistentes no tienen género, no son ni hombres
ni mujeres. Cuando se le pregunta a Siri si es mujer dice no tener género. Lo
mismo ocurre con el asistente de Google y Cortana. Solo Alexa reconoce su
género femenino. Independientemente de las propias respuestas de los asistentes
virtuales, lo cierto es que en su gran mayoría los asistentes virtuales tienen voz,
nombre, patrones de habla y personalidad femenina. Esta feminización es tan
completa que cuando se pide representar a los asistentes virtuales la mayoría
de las personas los dibuja con rostros de mujer, jóvenes y atractivos.
Otras
campañas por el mundo.
La campaña de BIA no es una
acción aislada sino que acompaña otras iniciativas de la empresa. Bradesco se
adhiere a los principios de Empoderamiento Femenino, al movimiento “He for She” de la ONU, a la coalición
empresarial por el fin de la violencia contra mujeres y niñas, y a Unstereotype Alliance.
La iniciativa con BIA está
alineada a la propuesta “Hey, Update My
Voice”, de la Unesco. El objetivo de la campaña es reducir y educar contra
la violencia de género de las mujeres.
La mayoría de las asistentes
virtuales tienen voces femeninas, como el caso de Siri (Apple), Alexa (Amazon),
Nat (Natura). Hay relatos de acoso sexual y mensajes ofensivas en todos los
casos, según un estudio “I’d Blush if I
Could” (“Me sonrojaría si pudiera”), realizado por la Unesco. La mayoría de
las chatbots responden esos mensajes de manera pasiva y servil. Agradecemos a BIA
por cambiar esta tendencia y marcar un camino más contundente para combatir la
violencia de género.