OpenAI prohibió a su personal denunciar riesgos relacionados con la seguridad
Un grupo de denunciantes presentó una queja ante la Comisión de Bolsa y Valores, y solicitó una investigación sobre las prácticas de la empresa de inteligencia artificial.
Un grupo de denunciantes presentó una queja de OpenAI ante la Comisión de Bolsa y Valores (SEC), solicitando una investigación exhaustiva sobre las prácticas de la empresa de inteligencia artificial. Alegan que la compañía les impidió alertar a los reguladores sobre los riesgos que su tecnología podría representar para la humanidad.
En una carta de siete páginas, los denunciantes explicaron que OpenAI ha impuesto acuerdos de empleo y confidencialidad muy estrictos en los que obligan a sus empleados a renunciar a sus derechos a recibir compensación por denunciar irregularidades a menos que obtuvieran el consentimiento previo de la empresa para informar a las autoridades.
El texto destaca que estos acuerdos violan leyes federales diseñadas para proteger a los denunciantes, permitiéndoles reportar actividades ilícitas sin temor a represalias.
"Estos contratos enviaron el mensaje de 'no queremos que los empleados hablen con los reguladores federales'. No creo que las empresas de inteligencia artificial puedan desarrollar tecnología segura y de interés público si se protegen del escrutinio y la disidencia", expresó uno de los denunciantes, que prefirió permanecer en el anonimato.
En la carta, los denunciantes pidieron a la SEC actuar de manera "rápida y agresiva" para abordar estos acuerdos ilegales. Asimismo, solicitaron que la SEC exija a OpenAI presentar todos los contratos de empleo y confidencialidad, y que notifique a todos los empleados actuales y pasados sobre sus derechos a denunciar de manera confidencial y anónima.
Stephen Kohn, abogado de los denunciantes, subrayó la necesidad de que los empleados de OpenAI hablen: "En términos de supervisión de la IA, estamos en el comienzo. Necesitamos que los empleados den un paso adelante y que OpenAI sea abierta".
En respuesta, Hannah Wong, portavoz de OpenAI, declaró: "Nuestra política de denuncia de irregularidades protege los derechos de los empleados a realizar divulgaciones protegidas. Además, creemos que es esencial un debate riguroso sobre esta tecnología y ya hemos realizado cambios importantes en nuestro proceso de salida para eliminar las condiciones de no desprestigio".
Preocupaciones crecientes sobre la seguridad y la transparencia
La queja surge en medio de preocupaciones de que OpenAI, originalmente fundada como una organización sin fines de lucro con una misión altruista, está priorizando las ganancias sobre la seguridad.
Los acuerdos de confidencialidad estrictos han sido un punto de fricción pues los reguladores temen que estos términos silencien a los empleados que podrían alertar sobre prácticas cuestionables en el sector tecnológico, especialmente en un contexto donde los algoritmos pueden influir negativamente en elecciones, salud pública y seguridad infantil.
Llamado a la acción
El senador Chuck Grassley expresó en una declaración: "Las políticas y prácticas de OpenAI parecen tener un efecto amedrentador sobre el derecho de los denunciantes a hablar y recibir la compensación que les corresponde por sus divulgaciones protegidas. Para que el Gobierno federal se mantenga un paso por delante de la inteligencia artificial, los acuerdos de confidencialidad de OpenAI deben cambiar".