Varios extrabajadores de OpenAI, preocupados por el "imprudente" dominio que intenta llevar a cabo la compañía
Los expertos aseguran que la inteligencia artificial general podría ser hasta tan o incluso más inteligente que los seres humanos.
Varios extrabajadores de OpenAI firmaron esta semana una carta en la que aseguraron estar preocupados por el "imprudente" dominio que intenta llevar a cabo la compañía en su búsqueda de desarrollar la siguiente generación de inteligencia artificial.
Denominada inteligencia artificial general (IAG), esta tecnología podría ser hasta tan o incluso más inteligente que los seres humanos. De esta forma, la IAG podría no sólo reproducir acciones que los humanos realizan de forma cotidiana, como escribir o dibujar (algo que, por cierto, ya realiza la IA generativa) sino que también tendría la capacidad de comprender la complejidad y el contexto de sus acciones.
Este era el trabajo que estaba desarrollando Carroll Wainwright. Él pertenecía al equipo de alineamiento práctico y superalineamiento, sector que controla que los modelos más avanzados de OpenAI sean seguros y vayan en consonancia con los valores humanos cuando decidió renunciar a su puesto de trabajo.
No le daba miedo la tecnología, que aún considera que está lejos de ser una realidad. Lo que verdaderamente le aterrorizaba era la mentalidad que estaba adquiriendo la compañía respecto a la tecnología, tal y como aseguró Wainwright al medio Vox:
La transparencia y la protección, principales peticiones de los expertos en IAG
No es el único. El ex investigador de la división de gobernanza de OpenAI, Daniel Kojotajlo, es otra de las personas que dejaron su trabajo tras ver el cambio de mentalidad de la compañía. El experto, que también era uno de los organizadores del grupo, habló con The New York Times y aseguró que la empresa estaba siendo imprudente: "OpenAI está realmente entusiasmado con la construcción de la IAG, y están compitiendo imprudentemente para ser los primeros en lograrlo", afirmó.
Ellos son algunos de los expertos que firmaron una carta manifestando su preocupación por el "imprudente" dominio que está intentando lograr la compañía. Así, miembros como el ex ingeniero de investigación de OpenAI, William Sanders, o un ex empleado de Google Deep Mind fueron algunos de los que rubricaron la misiva en la que y pedían tanto a OpenAI como al resto de las grandes empresas de inteligencia artificial que fueran más transparentes y aplicasen más protección a esta tecnología:
OpenAI se defiende
Por su parte, Lindsey Held, portavoz de OpenAI negó que la compañía hubiese cambiado sus valores. Mediante un comunicado remitido al NYT, la representante de la compañía tecnológica aseguró que estaban "orgullosos" de su trabajo y que creen en su "enfoque científico para abordar el riesgo":