Descubren cientos de imágenes con contenido sexual infantil en plataformas de IA
El Stanford Internet Observatory (SIO) reveló que "los modelos entrenados con este conjunto de datos, conocido como LAION-5B, se están utilizando para crear imágenes de desnudos fotorrealistas generadas por IA".
El Stanford Internet Observatory (SIO) reveló en una investigación que descubrió cientos de casos de imágenes con contenido de abuso sexual infantil en un conjunto de datos de Inteligencia Artificial de generación o creación de imágenes ("como Stable Diffusion"):
El estudio explicó que "los rápidos avances en el aprendizaje automático generativo permiten crear imágenes realistas que facilitan la explotación sexual infantil utilizando modelos de generación de imágenes de IA de código abierto".
Ml Training Data Csam Report-2023!12!20 by Veronica Silveri on Scribd
El equipo de investsgadores de Stanford utilizó datos del "Centro Nacional para Niños Desaparecidos y Explotados y trabajó con el Centro Canadiense para la Protección Infantil para proporcionar una validación de los hallazgos por parte de terceros".
Según el informe: "Es un desafío limpiar o detener la distribución de conjuntos de datos distribuidos públicamente, ya que han sido ampliamente difundidos. Los conjuntos de datos futuros podrían utilizar herramientas de detección disponibles gratuitamente para evitar la recopilación de CSAM conocido". Gracias a la investigación, todo el material encontrado actualmente esta siendo eliminado de internet.