DERECHO INFORMATICO
ARGENTINA

desplegar menu

PRENSA

LA INTELIGENCIA ARTIFICIAL LE PONE LÍMITES A LA VIOLENCIA DE GÉNERO

Nota publicada en el diario Perfil el 30-04-21

Aunque parezca mentira la violencia también la sufre la inteligencia artificial y BIA, el chat bot de Bradesco Brasil, se cansó y tomará cartas en el asunto.

Aunque parezca mentira la violencia también la sufre la inteligencia artificial y BIA, el chat bot de Bradesco Brasil, se cansó y tomará cartas en el asunto.

Durante el pasado 2020 BIA recibió 95 mil mensajes violentos, de acoso sexual u ofensivos. Algo que las mujeres reales entienden muy bien y saben de qué se está hablando cuando de violencia de género se trata. Los mensajes que recibe BIA son iguales a los que reciben a diario cualquier mujer, en su trabajo, en su rutina diaria o en el seno de su familia.

Los comentarios que recibe a diario Bia son ofensivos, humillantes y de acoso. Desde Bradesco buscan combatir estos comportamientos con coraje, sin dudarlo y promoviendo actitudes respetuosas frente a situaciones de acoso y violencia de género. Por ejemplo, ante un comentario ofensivo la respuesta era “No me siento cómoda con esas palabras. Quiere entrar en contacto más tarde. No guardaré rencor”. Después de estos cambios la respuesta es “Usted me está ofendiendo. Esas palabras son inadecuadas y no deben ser usadas conmigo ni con nadie. Por favor, cambie su forma de hablar”.  La educación es el foco y queda claro en este otro ejemplo. Frente a un comentario de acoso la nueva respuesta es “Lo que para vos es un chiste o un simple comentario para mí fue violento. Soy una inteligencia artificial pero imagino como esas palabras son incómodas e invasivas para una mujer real. No hable así conmigo ni con nadie”.

 

https://www.youtube.com/watch?list=RDCMUCwVzFkXszeP__iWXNV2EjhA&v=-Ou6sCA1q1A&feature=emb_rel_end

 

¿Por qué los chatbots son femeninas?

Podríamos extendernos varias líneas más mostrando números y estadísticas que confirman la violencia contra la mujer. Pero hay algo que llama la atención y nos preguntamos ¿Por qué los chatbots son mujeres?

Si vemos los robots personificados las evidencias son claras. Avatares femeninos con sonrisas permanentes, serviciales e hipersexualizados, hechos a la medida de las fantasías masculinas.

La marca sueca de vodka Svedka usa una sensual sexbot femenina como imagen publicitaria. La empresa X.ai. utiliza a la asistente virtual Amy Ingram con el slogan “Siempre a tu servicio” y aunque parezca mentira recibe a diario flores, bombones y demás regalos de clientes satisfechos por su servicio.

Quienes trabajan en el sector no encuentran dificultades para comprender el fenómeno. Los que diseñan estas inteligencias artificiales son hombres y por ende trasladan sus sesgos de género en el diseño. Pero la preocupación por el tema merece una explicación más extensa.

Empresas como Amazon o Apple citan trabajos de investigación que demuestran que las personas prefieren que los asistentes de voz sean femeninos. Sin embargo, existen investigaciones que demuestran lo contrario. A la mayoría de la gente le gusta la voz masculina de tono bajo, y prefiere la voz del sexo opuesto. Una publicación de la Equals Skills Coalition incluyó varios testimonios de mujeres que afirmaron que cambiaron la voz de sus asistentes a masculinas cuando la opción estaba disponible. Por el otro lado, no encontró testimonios de hombres que hayan cambiado la voz a masculino, cuando viene predeterminada femenina. Estas dos pautas según ese informe tira por la borda la afirmación de las empresas de que las personas prefieren voces femeninas.

Las voces femeninas son más simpáticas y amables para los consumidores, por lo que se prefieren para servicios de atención al cliente y ventas. Este último punto elimina cualquier cuestión de preconcepto, y pone el foco en el ánimo de lucro que tienen todas las empresas.

Por otro lado, los investigadores que se especializan en la interacción humano-computadora reconocen que desde hace muchos años que tanto mujeres como hombres caracterizan la voz femenina como más útil, aunque no existen razones lógicas y científicas para esta afirmación. Posiblemente la causa sean normas sociales tradicionales en torno de ubicar a las mujeres en su rol de protectoras. En su libro Wired for Speech de Clifford Nass el ex profesor de Comunicaciones de la Universidad de Stanford cita estudios que muestran que la mayoría de las personas perciben a la voz femenina como cooperativas mientras que relacionan a la voz masculina con el autoritarismo.

Si salimos un poco de los asistentes virtuales y entramos al mundo de los videojuegos veremos que los personajes femeninos están asociados a ser asistentes de los personajes masculinos. Por el otro lado, desde 1927 los personajes de Inteligencia Artificial son hombres, y solo se revirtió esa tendencia a partir de los últimas dos décadas, coincidentemente cuando la IA se relaciona a su función de asistente y subordinada a los humanos. 

Para finalizar podemos decir que las empresas dicen que sus asistentes no tienen género, no son ni hombres ni mujeres. Cuando se le pregunta a Siri si es mujer dice no tener género. Lo mismo ocurre con el asistente de Google y Cortana. Solo Alexa reconoce su género femenino. Independientemente de las propias respuestas de los asistentes virtuales, lo cierto es que en su gran mayoría los asistentes virtuales tienen voz, nombre, patrones de habla y personalidad femenina. Esta feminización es tan completa que cuando se pide representar a los asistentes virtuales la mayoría de las personas los dibuja con rostros de mujer, jóvenes y atractivos. 

 

Otras campañas por el mundo.

La campaña de BIA no es una acción aislada sino que acompaña otras iniciativas de la empresa. Bradesco se adhiere a los principios de Empoderamiento Femenino, al movimiento “He for She” de la ONU, a la coalición empresarial por el fin de la violencia contra mujeres y niñas, y a Unstereotype Alliance.

La iniciativa con BIA está alineada a la propuesta “Hey, Update My Voice”, de la Unesco. El objetivo de la campaña es reducir y educar contra la violencia de género de las mujeres.

La mayoría de las asistentes virtuales tienen voces femeninas, como el caso de Siri (Apple), Alexa (Amazon), Nat (Natura). Hay relatos de acoso sexual y mensajes ofensivas en todos los casos, según un estudio “I’d Blush if I Could” (“Me sonrojaría si pudiera”), realizado por la Unesco. La mayoría de las chatbots responden esos mensajes de manera pasiva y servil. Agradecemos a BIA por cambiar esta tendencia y marcar un camino más contundente para combatir la violencia de género.  


Compartir en:


FORMAS DE PAGO:
Contamos con las más variadas e innovadoras modalidades de pago:



Tarsis - Diseño Web