martes, julio 1, 2025
Sin resultados
Ver todos los resultados
pacozea.com
  • Noticias
    • CDMX
    • Estados
    • Nacional
    • Internacional
  • Op-ed
  • Cultura
  • Espectáculos
    • Teatro
    • Cine
  • Viral
  • Ciencia
  • Tecnología
    • Inteligencia Artificial
  • Deportes
  • Noticias
    • CDMX
    • Estados
    • Nacional
    • Internacional
  • Op-ed
  • Cultura
  • Espectáculos
    • Teatro
    • Cine
  • Viral
  • Ciencia
  • Tecnología
    • Inteligencia Artificial
  • Deportes
Sin resultados
Ver todos los resultados
pacozea.com

La UNESCO señala que Siri y Alexa refuerzan estereotipos sexistas de sumisión

mayo 22, 2019
Share on FacebookShare on Twitter

Te puedeinteresar

Es Guanajuato un ejemplo de atención integral a víctimas: Libia Dennise

Es Guanajuato un ejemplo de atención integral a víctimas: Libia Dennise

junio 30, 2025
Colapsa túnel de huachicol en Hidalgo; hay un lesionado

Colapsa túnel de huachicol en Hidalgo; hay un lesionado

junio 30, 2025

La UNESCO ha determinado que la mayoría de los asistentes digitales como Siri y Alexa, han sido diseñados con perfiles femeninos que refuerzan estereotipos sexistas

Los cada vez más populares asistentes digitales como Siri y Alexa, que responden con voz de mujer y están diseñados como ayudantes femeninas, están reforzando los estereotipos sexistas, según un informe de UNESCO publicado este miércoles.

La gran mayoría de los asistentes -como Siri de Apple, Alexa de Amazon y Cortana de Microsoft- están diseñados para ser vistos como femeninos, desde sus nombres hasta sus voces y personalidades, explicó el documento.

Asimismo, están programados para ser sumisos y serviles, incluso para responder de forma cortés a los insultos, lo que significa que refuerzan los prejuicios de género y normalizan el acoso sexista, de acuerdo con investigadores del organismo.

Como ejemplo, el estudio destacó que Siri estaba programado previamente para responder a los usuarios que la llamaban “puta” diciendo “Me sonrojaría si pudiera”.

“La sumisión de Siri ante el abuso de género, así como el servilismo expresado por muchos otros asistentes digitales proyectados como mujeres jóvenes, proporciona una potente muestra sobre los sesgos de género codificados en los productos tecnológicos”, indicó.

Apple, Amazon y Microsoft no estuvieron disponibles de inmediato para comentar el reporte.

Una portavoz de Microsoft dijo anteriormente que la compañía evaluó las opciones de voz para Cortana y halló que “una voz femenina respalda mejor nuestro objetivo de crear un asistente digital”.

Los asistentes de voz se han integrado rápidamente en la vida cotidiana de muchas personas y ahora representan casi una quinta parte de todas las búsquedas en internet, señaló el informe, que argumenta que pueden tener un impacto cultural significativo.

A medida que la tecnología de voz llega a más comunidades en todo el mundo, la feminización de los asistentes digitales puede ayudar a que los sesgos de género se afiancen y propaguen.

“El mundo debe prestar mucha más atención a cómo, cuándo y si las tecnologías de IA (inteligencia artificial) tienen género y, lo que es más importante, quién lo define”, señaló Saniye Gulser Corat, directora de la Unesco para la igualdad de género.

El informe instó a las compañías a tomar medidas, como dejar de poner voz femenina por defecto a los asistentes digitales, explorando opciones de género neutras y programaciones que desalienten el uso de insultos y lenguaje abusivo basados ​​en el género.

Un equipo de creativos ideó la primera voz de asistente digital neutral de género a principios de este año en un intento por evitar reforzar los estereotipos sexistas.

El informe fue bien recibido por los grupos de mujeres y la portavoz de Womankind, Maria Vlahakis, dijo que prestó una “atención más que necesaria” al sesgo de género en los algoritmos.

“Estos algoritmos perpetúan los estereotipos de género y el comportamiento sexista y misógino y reflejan las desigualdades estructurales de género más amplias en la tecnología”, aseguró.

Contenido relacionado

¿Conversas con Alexa? Los empleados de Amazon te están escuchando

Etiquetas: AlexaAmazonCortanamachistasexistaSiriUNESCO

Notas Relacionadas

Es Guanajuato un ejemplo de atención integral a víctimas: Libia Dennise
Estados

Es Guanajuato un ejemplo de atención integral a víctimas: Libia Dennise

junio 30, 2025

La Gobernadora contó con la presencia de Jaime Rochín, titular de la Comisión Estatal de Atención Integral a Víctimas, en...

Colapsa túnel de huachicol en Hidalgo; hay un lesionado
Estados

Colapsa túnel de huachicol en Hidalgo; hay un lesionado

junio 30, 2025

Un hombre quedó atrapado tras el derrumbe de un paso subterráneo clandestino en Tlanalapa; será investigado por robo de hidrocarburos....

Muere abuelito tras atragantarse con pancita en Juárez
Estados

Muere abuelito tras atragantarse con pancita en Juárez

junio 30, 2025

Comía en un tianguis cuando comenzó a asfixiarse; pese a los intentos por ayudarlo, perdió la vida en el lugar....

Ataque armado deja una gasolinera baleada y varios muertos en Sinaloa
Estados

Ataque armado deja una gasolinera baleada y varios muertos en Sinaloa

junio 30, 2025

Un enfrentamiento entre civiles armados en Elota habría provocado el ataque a una estación de servicio; también se reportan víctimas...

Cargar más

Notas recientes

  • Es Guanajuato un ejemplo de atención integral a víctimas: Libia Dennise junio 30, 2025
  • EU reabre frontera al ganado mexicano tras control sanitario junio 30, 2025
  • Colapsa túnel de huachicol en Hidalgo; hay un lesionado junio 30, 2025

Categorías

  • Noticias
  • Op-ed
  • Cultura
  • Espectáculos
  • Viral
  • Ciencia
  • Tecnología
  • Deportes

© 2024 Paco Zea Todos los derechos reservados

Sin resultados
Ver todos los resultados
  • Noticias
    • CDMX
    • Estados
    • Nacional
    • Internacional
  • Op-ed
  • Cultura
  • Espectáculos
    • Teatro
    • Cine
  • Viral
  • Ciencia
  • Tecnología
    • Inteligencia Artificial
  • Deportes