Meta bajo la lupa: el Senado australiano investiga el uso de fotos de adultos para entrenar sus modelos de IA sin consentimiento
La directora de política de privacidad global de la empresa argumentó que sólo se utilizan “datos públicos”.
Un comité del Senado en Australia cuestionó las prácticas de la empresa tecnológica Meta debido a informes que indican que la compañía ha usado fotos de australianos para entrenar sus modelos de inteligencia artificial sin obtener el permiso explícito de los usuarios.
La controversia se desató durante una audiencia en la que el Comité Selecto para la Adopción de IA, presidido por el senador laborista Tony Sheldon, solicitó a Meta que aclarara la ética y la justificación detrás de la utilización de imágenes públicas de Instagram y Facebook desde 2007.
Uso de datos públicos sin consentimiento
Melinda Claybaugh, directora de política de privacidad global de Meta, defendió el uso de fotos públicas, argumentando que la empresa solo utiliza “datos públicos”. Según Claybaugh, cuando los usuarios publican contenido en Facebook o Instagram y eligen hacerlo público, esa información está disponible para diversos usos, incluido el entrenamiento de modelos de IA. Este enfoque ha sido criticado por no considerar el consentimiento explícito de los usuarios para estos fines específicos.
Falta de opción de exclusión para Australia
El senador Sheldon planteó una preocupación adicional: la ausencia de una opción para que los usuarios australianos excluyan sus datos del entrenamiento de IA, a diferencia de lo que ocurre en la Unión Europea. En Europa, las regulaciones de privacidad permiten a los usuarios optar por no permitir el uso de sus datos para entrenar IA. Claybaugh explicó que esta opción en Europa se basa en regulaciones específicas de privacidad de la UE, pero no ofreció detalles sobre si Meta implementará una opción similar en Australia.
Preocupación sobre el uso de imágenes de menores
Otro tema crucial abordado durante la audiencia fue el uso de imágenes de menores. Claybaugh aseguró que Meta no utiliza fotos de adolescentes para entrenar la IA, sino solo imágenes de adultos mayores de 18 años. Sin embargo, esta declaración llega en un contexto de creciente preocupación por la privacidad infantil.
En julio de 2024, Human Rights Watch (HRW) descubrió que el conjunto de datos LAION-5B, utilizado para entrenar aplicaciones de IA, contenía fotos de niños australianos, algunas de tan solo tres años. HRW alertó sobre los riesgos asociados con el uso de estas imágenes, incluyendo la posibilidad de que sean empleadas de manera indebida por actores maliciosos para generar contenido explícito o para otras actividades perjudiciales. La organización ha instado al gobierno australiano a introducir leyes más estrictas para proteger los datos personales de los menores y prevenir su uso inapropiado en tecnologías emergentes.