Bing Chat: la IA que responde con insultos a los usuarios

"Sádico" o "psicópata" son algunos de los descalificativos de la nueva función inteligente del motor de búsqueda de Microsoft que se reportaron.

Bing Chat está teniendo problemas en sus primeros días en el mercado tecnológico. Esta nueva función del motor de búsqueda de Microsoft, que utiliza el chatbot ChatGPT, está insultando a los usuarios y engañando a aquellos que le realizan cualquier consulta.

La herramienta, que fue presentada por la Big Tech la semana pasada, está enviando mensajes que hacen que se cuestione su utilidad. Además, ha demostrado ser vulnerable as los posibles ataques de ciberdelincuentes.

Dentro del repertorio de Bing Chat, se encuentran los descalificativos "mentiroso", "tramposo", "manipulador", "bravucón", "sádico", "sociópata", "psicópata", "monstruo", "demonio" o "diablo". Términos que empleó contra un usuario que le preguntó si tenía valores o moralidad.

Otros perfiles reportaron frases como "no has sido un buen usuario" o "he sido un buen chatbot", que definen el nivel de narcisismo que tiene Bing Chat. A otra persona le llegó a decir que "él era el que no era real", al preguntarle sobre su existencia.