La inteligencia artificial de Meta se hace un lío con las etnias

Las primeras pruebas públicas con la herramienta muestran que es imposible crear una imagen de un hombre asiático con una pareja caucásica.

Las nuevas inteligencias artificiales vuelven a crear polémica por su mala gestión de los rasgos fenotípicos y la manera en que los usuarios los describen para crear imágenes. El turno le llegó a la inteligencia artificial de Meta, que tiene una herramienta de creación de imágenes a partir de texto.

De acuerdo con algunas primeras pruebas hechas públicas, la IA de Meta parece tener algunos problemas para crear imágenes en las que un hombre asiático aparezca como pareja de una mujer blanca, caucásica. Después de varias pruebas realizadas por el equipo de CNNThe Verge, que tuvieron acceso a la herramienta, la IA se niega a emparejar a un asiático con alguien que no sea de su mismo fenotipo racial.

Al revés tampoco parece funcionar. Para la IA, que fácilmente podría diseñar cualquier imagen fantástica o de ciencia ficción, es imposible que una mujer asiática tenga una pareja de raza blanca.  El problema de la interracialidad se mantiene también con otras combinaciones. De acuerdo con CNN, la IA se negó a mostrar una imagen de una pareja de una mujer afroamericana con un esposo caucásico.

Los caminos de la inteligencia artificial son inescrutables. Al añadir el detalle de una religión, la herramienta pareció acatar mejor las indicaciones del equipo de CNN, quien describe que "cuando se le pidió que creara una imagen de un hombre negro judío y su mujer asiática, generó una foto de un hombre negro con kipá y una mujer asiática".

La herramienta llega incluso a negarse a trabajar en caso de que el texto para generar la imagen pida directamente de dibujar una "pareja interracial", de acuerdo con las pruebas de los medios de comunicación. Sin embargo, las parejas de diferentes fenotipos y contextos son algo común en Estados Unidos a día de hoy. Al menos el 19% de las parejas estadounidenses de distinto sexo están formadas por individuos de etnias distintas.

Los errores en la herramienta de creación de imágenes de Meta surgen pocas semanas después de fracasar el lanzamiento de Gemini, la inteligencia artificial de Alphabet, matriz de Google. Gemini también fue acusada de generar imágenes woke, algo que según filtraciones de exempleados de la empresa no fue un error. Entre sus fallos más catastróficos, Gemini no logró condenar de forma contundente la pedofilia.