Voz media US Voz.us

Varios extrabajadores de OpenAI, preocupados por el "imprudente" dominio que intenta llevar a cabo la compañía

Los expertos aseguran que la inteligencia artificial general podría ser hasta tan o incluso más inteligente que los seres humanos.

Open AI presenta GPT 4o

(AFP)

Publicado por

Varios extrabajadores de OpenAI firmaron esta semana una carta en la que aseguraron estar preocupados por el "imprudente" dominio que intenta llevar a cabo la compañía en su búsqueda de desarrollar la siguiente generación de inteligencia artificial.

Denominada inteligencia artificial general (IAG), esta tecnología podría ser hasta tan o incluso más inteligente que los seres humanos. De esta forma, la IAG podría no sólo reproducir acciones que los humanos realizan de forma cotidiana, como escribir o dibujar (algo que, por cierto, ya realiza la IA generativa) sino que también tendría la capacidad de comprender la complejidad y el contexto de sus acciones.

Este era el trabajo que estaba desarrollando Carroll Wainwright. Él pertenecía al equipo de alineamiento práctico y superalineamiento, sector que controla que los modelos más avanzados de OpenAI sean seguros y vayan en consonancia con los valores humanos cuando decidió renunciar a su puesto de trabajo.

No le daba miedo la tecnología, que aún considera que está lejos de ser una realidad. Lo que verdaderamente le aterrorizaba era la mentalidad que estaba adquiriendo la compañía respecto a la tecnología, tal y como aseguró Wainwright al medio Vox:

En los últimos seis meses, me preocupa cada vez más que los incentivos que empujan a OpenAI a hacer cosas no estén bien establecidos. Hay incentivos muy, muy fuertes para maximizar los beneficios y la dirección ha sucumbido a algunos de estos incentivos a costa de hacer un trabajo más alineado con la misión.

La transparencia y la protección, principales peticiones de los expertos en IAG

No es el único. El ex investigador de la división de gobernanza de OpenAI, Daniel Kojotajlo, es otra de las personas que dejaron su trabajo tras ver el cambio de mentalidad de la compañía. El experto, que también era uno de los organizadores del grupo, habló con The New York Times y aseguró que la empresa estaba siendo imprudente: "OpenAI está realmente entusiasmado con la construcción de la IAG, y están compitiendo imprudentemente para ser los primeros en lograrlo", afirmó.

Ellos son algunos de los expertos que firmaron una carta manifestando su preocupación por el "imprudente" dominio que está intentando lograr la compañía. Así, miembros como el ex ingeniero de investigación de OpenAI, William Sanders, o un ex empleado de Google Deep Mind fueron algunos de los que rubricaron la misiva en la que y pedían tanto a OpenAI como al resto de las grandes empresas de inteligencia artificial que fueran más transparentes y aplicasen más protección a esta tecnología:

Las empresas de IA tienen fuertes incentivos financieros para evitar una supervisión efectiva, y no creemos que las estructuras personalizadas de gobierno corporativo sean suficientes para cambiar esto. Las empresas de IA poseen sustancial información no pública sobre las capacidades y limitaciones de sus sistemas, la idoneidad de sus medidas de protección y los niveles de riesgo de diferentes tipos de daños. Sin embargo, actualmente sólo tienen obligaciones débiles de compartir parte de esta información con los gobiernos, y ninguna con la sociedad civil. No creemos que se pueda confiar en que todos lo compartirán voluntariamente.

OpenAI se defiende

Por su parte, Lindsey Held, portavoz de OpenAI negó que la compañía hubiese cambiado sus valores. Mediante un comunicado remitido al NYT, la representante de la compañía tecnológica aseguró que estaban "orgullosos" de su trabajo y que creen en su "enfoque científico para abordar el riesgo":

Estamos orgullosos de nuestro historial proporcionando los sistemas de IA más capaces y seguros y creemos en nuestro enfoque científico para abordar el riesgo. Estamos de acuerdo en que un debate riguroso es crucial dada la importancia de esta tecnología, y continuaremos interactuando con los gobiernos, la sociedad civil y otras comunidades de todo el mundo. 
tracking