Descubren cientos de imágenes con contenido sexual infantil en plataformas de IA

El Stanford Internet Observatory (SIO) reveló que "los modelos entrenados con este conjunto de datos, conocido como LAION-5B, se están utilizando para crear imágenes de desnudos fotorrealistas generadas por IA".

El Stanford Internet Observatory (SIO) reveló en una investigación que descubrió cientos de casos de imágenes con contenido de abuso sexual infantil en un conjunto de datos de Inteligencia Artificial de generación o creación de imágenes ("como Stable Diffusion"):

Una investigación encontró cientos de imágenes conocidas de material de abuso sexual infantil (CSAM) en un conjunto de datos abierto utilizado para entrenar modelos populares de generación de imágenes de IA, como Stable Diffusion (...) Los modelos entrenados con este conjunto de datos, conocido como LAION-5B, se están utilizando para crear imágenes de desnudos fotorrealistas generadas por IA, incluido CSAM.

El estudio explicó que "los rápidos avances en el aprendizaje automático generativo permiten crear imágenes realistas que facilitan la explotación sexual infantil utilizando modelos de generación de imágenes de IA de código abierto".

Ml Training Data Csam Report-2023!12!20 by Veronica Silveri on Scribd

El equipo de investsgadores de Stanford utilizó datos del "Centro Nacional para Niños Desaparecidos y Explotados y trabajó con el Centro Canadiense para la Protección Infantil para proporcionar una validación de los hallazgos por parte de terceros".

Según el informe: "Es un desafío limpiar o detener la distribución de conjuntos de datos distribuidos públicamente, ya que han sido ampliamente difundidos. Los conjuntos de datos futuros podrían utilizar herramientas de detección disponibles gratuitamente para evitar la recopilación de CSAM conocido". Gracias a la investigación, todo el material encontrado actualmente esta siendo eliminado de internet.