Italia prohíbe el uso del ChatGPT

La Autoridad de Protección de Datos del país europeo denunció que la herramienta de inteligencia artificial recopiló información personal de sus ciudadanos de manera ilegal.

El ChatGPT –herramienta de inteligencia artificial– fue prohibido temporalmente en Italia por violaciones de privacidad y seguridad en los datos de los usuarios.

La Autoridad de Protección de Datos del país europeo señaló que OpenAI –la empresa matriz de ChatGPT– recopiló datos personales de sus usuarios de manera ilegal y alegó que no contaba con un sistema de verificación de edad para evitar que los menores estuvieran expuestos a material ilícito.

Bloqueado de forma temporal

Los reguladores italianos pidieron a OpenAI que bloquee el acceso de los usuarios de su país a la herramienta hasta que la compañía entregue la información adicional requerida. Para ello, la empresa tecnológica tiene un plazo de 20 días y deberá dar respuesta y ofrecer posibles soluciones a las demandas.

Después de esto, los responsables en el país tomarán una decisión final sobre si la herramienta tendrá un futuro positivo en los dispositivos de los ciudadanos.

OpenAI aún no ha comentado nada al respecto, a pesar de que podría recibir una multa de hasta 20 millones de euros (alrededor de 22 millones de dólares) o el 4% de sus ingresos anuales.