¿Qué es Q*, el proyecto secreto de OpenAI que podría “amenazar a la humanidad”?
Todavía no hay una explicación oficial del porqué la junta directiva despidió a su CEO, Sam Altman, para después reincorporarlo tan solo días más tarde.
Tras más de cinco días frenéticos donde el futuro de OpenAI estuvo realmente en entredicho, todavía hay muchas dudas sobre qué pasó realmente con el brevísimo despido de su CEO, Sam Altman, quien regresó a la compañía triunfalmente el martes, en su mismo cargo, luego de que la enorme mayoría de los empleados se solidarizaran con él y lo respaldaran a través de una amenaza de renuncia masiva.
Ahora Altman, aparentemente airoso del intento de despido en su contra, trabajará con una junta directiva renovada y formada por Bret Taylor (presidente), Larry Summers y Adam D'Angelo.
El inicio de los acontecimientos tuvo su apogeo el viernes, cuando Altman fue despedido por la anterior junta directiva a través de un duro pero vago comunicado donde se lo acusaba de no ser lo suficientemente sincero con los miembros directivos.
Más allá de que el desenlace de la historia llega hasta allí, la duda inicial se mantiene: ¿Por qué la anterior junta directiva había despedido, en un movimiento inesperado, al CEO de la empresa de inteligencia artificial más importante del mundo por fallas comunicacionales?
Algunos reportes periodísticos plantean la posibilidad de que el despido no se debió simplemente a esa razón, sino que surgió por preocupaciones de seguridad relacionadas al Q*, un proyecto secreto de OpenAI que, según investigadores de la compañía, podría amenazar a la humanidad.
¿Qué es exactamente Q*?
El martes, luego de que el carismático Altman volviera a la empresa como director ejecutivo tras incluso haber pactado su incorporación a Microsoft, dos fuentes anónimas dijeron a Reuters que varios investigadores de la compañía escribieron una carta al consejo de administración antes de que Altman fuera despedido.
Esto investigadores habían advertido de un poderoso descubrimiento de inteligencia artificial que, según explicaron, podría amenazar a la humanidad: el Q*, pronunciado Q-Star.
Según las fuentes, el descubrimiento de esta inteligencia fue clave para que la anterior junta directiva optara por el despido de Altman, generando un terremoto en Silicon Valley y el mundo de la tecnología.
“Las fuentes citaron la carta como uno de los factores de una larga lista de quejas de la junta que condujeron al despido de Altman, entre las que se encontraban las preocupaciones por la comercialización de avances antes de comprender las consecuencias”, se lee en el reportaje de Reuters.
Según el reporte, algunos investigadores piensan que el Q* puede suponer un gran avance en la búsqueda de la reconocida como “Inteligencia Artificial Fuerte” (AGI, por sus siglas en inglés), o como lo define OpenAI: sistemas autónomos que superan a los humanos en la mayoría de las tareas de valor económico.
Reuters explicó que este nuevo modelo cuenta con grandes recursos informáticos y, según los investigadores, fue capaz de resolver problemas matemáticos básicos, al nivel de los estudiantes de primaria, algo que generó mucho optimismo entre los investigadores.
Sin embargo, la potencia de esta herramienta también genera preocupación, pues los investigadores consideran que las operaciones matemáticas son la frontera del desarrollo de estas tecnologías de inteligencia artificial.
Según detalló Reuters, actualmente, este tipo de tecnologías son buenas para escribir o traducir idiomas al predecir la siguiente palabra basándose en estadísticas. No obstante, las respuestas a las preguntas pueden variar bastante debido a que las propias respuestas a ciertas inquietudes pueden ser más subjetivas. No obstante, que una IA pueda hacer calculo matemático, donde solo hay una respuesta correcta, implica automáticamente que esta tecnología tendrá una capacidad de razonamiento similar a la inteligencia humana. Una situación que podría llevar a las AGI a tener la capacidad de generalizar, aprender, comprender y tener una impresionante capacidad de adaptabilidad.
Por ello, los investigadores plantearon a la anterior junta directiva de OpenAI sus preocupaciones y el peligro potencial para la humanidad que representan este tipo de inteligencias, según informaron a Reuters las fuentes anónimas, que no especificaron cuales son los problemas de seguridad específicos planteados en la carta.
Hasta ahora, no hay mucha información disponible sobre el proyecto Q*, pero según el reporte, OpenAI reconoció a sus empleados la existencia de esta tecnología y también anticipó a los propios trabajadores que saldrían publicadas algunas historias en los medios sobre la misma.
Más preocupaciones sobre Q*
El lunes pasado, Ilya Sutskever, uno de los prominentes miembros de la anterior junta directiva de OpenAI (ya apartado de su puesto), publicó un post en la red social X a propósito de la polémica: “Lamento profundamente mi participación en las acciones de la junta. Nunca tuve la intención de dañar OpenAI. Me encanta todo lo que hemos construido juntos y haré todo lo que pueda para reunir la empresa”.
Esa publicación llamó la atención del magnate dueño de X y Tesla Elon Musk, quien respondió: “¿Por qué tomó una medida tan drástica? Si OpenAI está haciendo algo potencialmente peligroso para la humanidad, el mundo necesita saberlo”.
El miércoles, el propio Musk publicó un posteo en X citando el artículo de Reuters sobre Q* acompañado del mensaje: “¡Extremadamente preocupante!”.
Altman vs. la anterior junta directiva y el apoyo de Silicon Valley al CEO
El diario The New York Times arrojó luz sobre la relación compleja que mantenían Sam Altman y la anterior junta directiva hasta el repentino despido del pasado viernes.
De acuerdo con el reporte, mientras Altman estaba más enfocado en la expansión y comercialización de la compañía, los miembros de la junta directiva querían equilibrar esa energía ampliando la seguridad en la tecnología que desarrollan.
De hecho, una de las últimas discusiones clave que tuvo Altman y un miembro de la junta directiva estuvo relacionado al tema seguridad y fue determinante para el despido momentáneo del propio CEO de OpenAI.
De acuerdo con el NYT, Helen Toner, miembro del consejo y directora de estrategia del Centro de Seguridad y Tecnologías Emergentes de la Universidad de Georgetown, coescribió un artículo para el centro de Georgetown donde, según la visión de Altman, criticó las medidas en materia de seguridad de OpenAI para mantener seguras sus tecnologías de IA. En ese mismo artículo, Toner elogió a Anthropic, actualmente el mayor rival de OpenAI, por sus esfuerzos de seguridad.
Altman optó por reprender en un correo electrónico a Toner, alegando que su artículo era peligroso para la empresa, especialmente porque la Comisión Federal de Comercio mantiene una investigación contra OpenAI por el uso de datos para desarrollar sus tecnologías.
Toner, según el Times, no aceptó la reprenda de Altman y defendió su artículo como un documento académico que abordaba los diferentes retos que tienen las empresas y países que desarrollan inteligencia artificial.
El desencuentro entre Toner y Altman generó un fuerte cortocircuito, según el NYT, y los altos dirigentes de OpenAI, incluido el propio Sutskever, debatieron si la miembro de la junta directiva debía ser expulsada.
No obstante, contra todo pronóstico, Sutskever, quien según el Times está preocupado de que la IA destruya la humanidad, se puso del lado de Toner y la junta directiva finalmente optó por echar a Altman.
Ahora, no era la primera vez que Altman se había enfrentado a un intento de despido, reveló el diario neoyorquino.
En 2021, ya Sutskever y Altman habían tenido conflictos luego de que otro científico de alto nivel de Inteligencia Artificial dejara OpenAI para ir a trabajar con Anthropic.
“Ese científico y otros investigadores acudieron a la junta para tratar de expulsar al Sr. Altman. Después de fracasar, se dieron por vencidos y se marcharon”, confirmaron tres fuentes anónimas al NYT.
Si bien en esta ocasión la junta directiva sí dio el paso de apartar a Altman, un reportaje de Financial Times reveló cómo los grandes jerarcas de Silicon Valley y varios inversores de capital de riesgo operaron activamente durante los últimos días para reincorporar al carismático CEO de OpenAI.
Según el reporte, la antigua junta directiva no contó con el poder de Altman para convencer a la opinión pública y moldear la narrativa a su favor. Además, las presiones tanto internas como externas fueron demasiado pesadas como no volver a incorporar a Altman y arriesgar el futuro de Open AI, cuya junta directiva, según los estatutos de la empresa, debería velar en última instancia por la seguridad de la humanidad en general y no de los inversores.