MUNDO
30 de marzo de 2022
Google reduce los resultados picantes en un 30% para búsquedas como 'adolescente latina'

OAKLAND, California, (Reuters) - Cuando la actriz estadounidense Natalie Morales realizó una búsqueda en Google de "adolescente latina" en 2019, describió en un tuit que todo lo que encontró fue pornografía.
Su experiencia puede ser diferente ahora.
La unidad de Alphabet Inc (GOOGL.O) redujo los resultados explícitos en un 30 % durante el año pasado en las búsquedas de "adolescente latina" y otras relacionadas con el origen étnico, la preferencia sexual y el género, Tulsee Doshi, jefe de producto del equipo responsable de IA de Google, dijo a Reuters el miércoles.
Doshi dijo que Google había lanzado un nuevo software de inteligencia artificial, conocido como BERT, para interpretar mejor cuando alguien buscaba resultados atrevidos o más generales.
Además de "adolescente latina", otras consultas que ahora muestran resultados diferentes incluyen "la chef lesbiana", "dormitorio universitario", "instructora de yoga latina" y "autobús lesbiana", según Google.
"Todo ha sido un conjunto de resultados demasiado sexualizados", dijo Doshi, y agregó que esos resultados de búsqueda históricamente sugerentes fueron potencialmente impactantes para muchos usuarios.
Morales no respondió de inmediato a una solicitud de comentarios a través de un representante. Su tuit de 2019 decía que había estado buscando imágenes para una presentación y había notado un contraste en los resultados para "adolescente", que describió como "todas las cosas normales de los adolescentes"
y pidió a Google que investigara.
El gigante de las búsquedas ha pasado años abordando los comentarios sobre contenido ofensivo en sus herramientas publicitarias y en los resultados de las búsquedas de "hot" y "ceo". También eliminó los resultados sexualizados de "Chicas negras" después de que un artículo de 2013 de la autora Safiya Noble expresara su preocupación por las representaciones dañinas.
Google agregó el miércoles que en las próximas semanas usaría una IA llamada MUM para comenzar a detectar mejor cuándo mostrar recursos de apoyo relacionados con el suicidio, la violencia doméstica, la agresión sexual y el abuso de sustancias.
MUM debe reconocer los "puntos críticos de suicidio de Sídney" como una consulta para lugares de salto, no viajes, y ayudar con preguntas más largas, que incluyen "¿por qué me atacó cuando dije que no lo amo?" y "formas más comunes en que se completa el suicidio". Google dijo.