Meta anuncia que identificará las imágenes realizadas por IA en sus plataformas

La compañía aseguró que "en los próximos meses" los usuarios sabrán si las imágenes que ven en Facebook, Instagram y Threads se han generado por inteligencia artificial.

Meta anunció este martes que identificará las imágenes realizadas por IA en sus plataformas. De esta forma, la compañía aseguró que "en los próximos meses" los usuarios sabrán si las imágenes que ven en sus redes sociales se han generado mediante esta tecnología y, así, evitar problemas de cara a las elecciones presidenciales que tendrán lugar en noviembre de este año.

El encargado de desvelar la noticia fue el responsable de asuntos internacionales de la Big Tech, Nick Clegg. Él aseguró, mediante un blog de la compañía, que la prioridad de Meta es precisamente identificar las imágenes que se han generado con este tipo de tecnología:

En los próximos meses etiquetaremos las imágenes que los usuarios publiquen en Facebook, Instagram y Threads, siempre y cuando podamos detectar los indicadores, conformes a las normas de la industria, que revelan que son generadas por IA.

Recuerda AFP que la Big Tech ya identifica las imágenes generadas con la ayuda de su propia herramienta, Meta IA, lanzada en diciembre. Sin embargo, la intención de la multinacional es poder ofrecer la misma información con fotografías realizadas por otras empresas como Google, OpenAI, Microsoft, Adobe, Midjourney o Shutterstock.

Estamos creando herramientas líderes en el sector capaces de identificar marcadores invisibles a escala -en concreto, la información "generada por IA" de las normas técnicas C2PA e IPTC- para poder etiquetar imágenes de Google, OpenAI, Microsoft, Adobe, Midjourney y Shutterstock a medida que ponen en marcha sus planes para añadir metadatos a las imágenes creadas por sus herramientas.

El año electoral, clave para el desarrollo de la herramienta de Meta

Estas etiquetas, asegura Clegg, estarán disponibles "en todos los idiomas compatibles con cada aplicación", para evitar cualquier tipo de desinformación. El anuncio se produce en un momento clave. Casi la mitad de la población mundial deberá pasar por las urnas este año y preocupa especialmente el empleo de estas imágenes en las próximas elecciones presidenciales que tendrán lugar en Estados Unidos el próximo mes de noviembre.

También intentan evitar situaciones como la que vivió la cantante Taylor Swift recientemente. La artista vio como una imagen falsa suya, creada con IA, desnuda falsa se hacia viral, llegando a verse 47 millones de veces en la red social X.

Una situación que Meta intentará que no se repita con el desarrollo de su nueva herramienta. Sin embargo, afirmó Nick Clegg a AFP, son conscientes de que este etiquetado "no eliminará" la producción de imágenes falsas aunque esperan que sí se minimice "dentro de los límites de lo que la tecnología permite actualmente":

No es perfecto, la tecnología aún no está completamente desarrollada, pero de todas las plataformas es el intento más avanzado hasta ahora para proporcionar transparencia de forma significativa a miles de millones de personas en todo el mundo. Espero sinceramente que al hacer esto y liderar el camino, alentemos al resto de la industria a trabajar juntos y tratar de desarrollar los estándares técnicos comunes que necesitamos.