Google, entre acusaciones de racismo antiblanco y antisemitismo

Una serie de correos internos desvelados por 'The Daily Wire' demuestran incidentes antisemitas dentro de la compañía, que se suman a las críticas de su último producto de inteligencia artificial.

Google puso en revisión su nueva herramienta de inteligencia artificial tras la lluvia de acusaciones en su contra por discriminación. Hasta nuevo aviso, los usuarios no podrán pedirle a Gemini que cree imágenes de seres humanos.

"Algunas de las imágenes generadas son inexactas o incluso ofensivas", reconoció el vicepresidente senior de la tecnológica Prabhakar Raghavan, que también agradeció "los comentarios de los usuarios" y lamentó las fallas en el sistema.

Raghavan identificó el viernes dos causas detrás del problema. "En primer lugar, nuestro ajuste para garantizar que Gemini mostrara un rango de personas no tuvo en cuenta casos que claramente no deberían mostrar un rango", explicó. Por ejemplo, al pedir imágenes de parejas heterosexuales, la IA respondía también con ilustraciones de parejas homosexuales. Si se pedían de parejas blancas, aparecían parejas negras.

En segundo lugar, "el modelo se volvió mucho más cauteloso de lo que pretendíamos y se negó por completo a responder a ciertas preguntas, interpretando erróneamente algunas preguntas muy anodinas como sensibles". En este caso, Gemini se negaba a crear imágenes de personas blancas.

Otra crítica frecuente fue que en busca de diversidad, la IA habría generado resultados históricamente inexactos, como padres fundadores negros o soldados nazis diversos:

Aunque reconoció que los errores llevaron a la creación de imágenes "embarazosas y erróneas", Raghavan no aludió a las críticas de que el sesgo parecía perjudicar a ciertos grupos específicos, como los mencionados anteriormente: personas blancas y parejas heterosexuales. Tampoco se refirió a las acusaciones de que Gemini no hacía más que replicar prejuicios de sus creadores, tanto en su diseño como en la información de la que se alimentaba.

"No puedo prometer que Gemini no genere ocasionalmente resultados embarazosos, inexactos u ofensivos, pero sí puedo prometer que seguiremos tomando medidas siempre que detectemos un problema", aseguró el alto ejecutivo.

¿Antisemitismo?

A aquellas acusaciones de discriminación en su flamante producto de IA, se han sumado otras por antisemitismo. Aunque no especificaron a qué resultados se referían, voceros de la compañía reconocieron el problema y prometieron que derivarán a quien consulte sobre la guerra al buscador de Google.

Usuarios criticaron a la empresa por resultados textuales de Gemini, como que los sucesos del 7 de octubre se encuentran "disputados" o cuestionar que haya habido asesinatos durante esos ataques, sugiriendo las palabras "fatalidad" o "muertos" en cambio y poniendo en entredicho la cifra de muertos.

Las acusaciones de actitudes anti-judías no acaban allí. The Daily Wire publicó este viernes una serie de correos internos que demostrarían conductas contra los judíos, como las palabras "liberen a Palestina, maten a todos los judíos" escritas a mano en un volante en oficinas de la tecnológica en Nueva York o el ataque a un empleado que intentó fotografiar a una persona que estaba repartiendo octavillas en favor de los palestinos dentro de las oficinas de Londres.

Una portavoz de la empresa consultada por el medio reconoció los incidentes y aseguró que en los últimos meses habían adoptado "medidas contra las personas que violaron nuestras políticas en el lugar de trabajo". Sin embargo, un empleado citado por el mismo medio aseguró que no se sentía seguro y criticó que no se conociesen resultados de la investigación.