El creador de ChatGPT cree que la IA llevará a la humanidad a un mundo mejor... o a lo peor

Mientras continúa desarrollando sistemas de Inteligencia Artificial para "romper el capitalismo", Altman reconoce que tiene un búnker preparado para escenarios apocalípticos... incluido el ataque de sus creaciones a la humanidad.

Sam Altman, CEO de OpenAI, la compañía que creó ChatGPT, confía en que la inteligencia artificial acabará por "romper el capitalismo" y encontrará un sistema socioeconómico mejor y más justo. No obstante, alerta de los riesgos que su desarrollo puede provocar para la humanidad y reconoce que tiene preparado un bunker totalmente equipado para sobrevivir a cualquier tipo de desgracia apocalíptica. Incluyendo, claro está, que uno de sus sistemas de IA decida que la raza humana es el problema y deba ser erradicada...

En declaraciones a Forbes, Altman destacó que no es anticapitalista. "Creo que el capitalismo es increíble. Me encanta el capitalismo. De todos los sistemas malos que hay en el mundo, éste es el mejor, o el menos malo, que hemos encontrado hasta ahora", analizó. Eso sí, como algo provisional hasta que aparezca un sistema mejor. Algo en lo que confía en que la IA colabore de manera importante. "Espero que encontremos una forma mejor. Y creo que si la AI realmente sucede, puedo imaginar todas estas formas en que rompe el capitalismo".

Una tecnología para mirar el futuro, no el pasado

El dueño de ChatGPT considera que su creación no ha venido a sustituir a ningún otro tipo de tecnología, sino que son diferentes y cada una tiene su terreno. Aunque reconoce que programas de IA podría sustituir a las búsquedas orgánicas de los buscadores tradicionales en el futuro, cree que la clave es buscar nuevas utilidades y posibilidades, sin centrarse en lo que ya existe.  "No creo que ChatGPT [sustituya a las búsquedas]. Pero creo que algún día un sistema de IA podría hacerlo. Más que eso, sin embargo, creo que la gente está perdiendo totalmente la oportunidad si se centra en las noticias de ayer. Me interesa mucho más pensar en lo que viene más allá de la búsqueda", apuntó.

En su objetivo de mejorar el mundo, Altman indicó que deben trabajar por hacer más seguros cada uno de sus hitos antes de exponerlos al público. Más aún, de dejarlos con el código abierto para que otras personas puedan trabajar a partir del punto donde ellos lo entregan. "Queremos ofrecer API cada vez más potentes a medida que seamos capaces de hacerlas más seguras. Seguiremos haciendo cosas de código abierto, como hicimos con CLIP (una red neuronal visual lanzada en 2021). El código abierto es realmente lo que llevó al auge de la generación de imágenes. Más recientemente, hemos abierto Whisper y Triton (reconocimiento automático de voz y lenguaje de programación). Así que creo que se trata de una estrategia múltiple para sacar cosas al mundo, equilibrando los riesgos y beneficios de cada cosa en particular.

Equilibrio entre avances y seguridad

Para el CEO de OpenAI, lo mejor que ha visto creado a partir de ChatGPT es "el hecho de poder resumir artículos completos o largos hilos de correo electrónico me ha resultado mucho más útil de lo que pensaba. Además, la posibilidad de hacer preguntas esotéricas sobre programación o de ayudar a depurar código me hace sentir como si tuviera un programador superbrillante con el que hablar", señaló.

Por el lado contrario, lo que más miedo le da hasta ahora ha sido la utilización de su creación para hacer daño a terceras personas. Dentro de sus usos inadecuados, le preocupa especialmente el porno por venganza. "Definitivamente he estado observando con gran preocupación la generación de porno de venganza que ha estado ocurriendo con los generadores de imágenes de código abierto. Creo que está causando un daño enorme y predecible", respondió.

Temor por el mal uso de la IA

Sobre la responsabilidad de los creadores en el mal uso de sus productos, o sobre la legislación que debe aplicarse para prevenirlos y castigarlos, Altman es partidario de una combinación de ambos, aunque es consciente de la dificultad.

Creo que ambas cosas. Está la cuestión de dónde queremos regularlo. En cierto sentido, sería genial si pudiéramos señalar a esas empresas y decirles: "Oye, no puedes hacer estas cosas". Pero creo que la gente va a abrir modelos de código abierto a pesar de todo, y en su mayoría va a ser genial, pero habrá algunas cosas malas que sucedan. Las empresas que están construyendo en la parte superior de ellos, las empresas que tienen la última relación con el usuario final, van a tener que tener alguna responsabilidad, también. Creo que la responsabilidad y la rendición de cuentas serán conjuntas.

Un búnker para sobrevivir al apocalipsis... y a la IA

Por si acaso, Altman reconocía en otra entrevista que está bien preparado para un escenario apocalíptico, provocado por la aparición de "un virus sintético letal, una guerra nuclear... o que una IA comience a atacar a los humanos". "Intento no pensar demasiado en ello, pero tengo armas, oro, yoduro de potasio, antibióticos, baterías, agua, máscaras antigás de las Fuerzas de Defensa israelíes y un gran trozo de tierra en Big Sur al que puedo volar", explicó.