Sam Altman advierte sobre el futuro de la IA: desde ataques cibernéticos hasta armas biológicas
Altman lanzó una de las advertencias más contundentes hasta ahora sobre los riesgos de la inteligencia artificial avanzada.

Sam Altman.
El CEO de OpenAI, Sam Altman, lanzó una de las advertencias más contundentes hasta ahora sobre los riesgos de la inteligencia artificial avanzada: modelos cada vez más potentes podrían ser utilizados por grupos terroristas para crear nuevos patógenos y ejecutar ataques cibernéticos de gran escala.
En una entrevista con Axios, el pasado 6 de abril, Altman aseguró que estas amenazas ya no pertenecen al terreno de la especulación.
Sociedad
El hombre que atacó la casa de Sam Altman intentaba matar al director de Open IA, según los fiscales
Williams Perdomo
“Ya no es algo teórico —o no lo será por mucho tiempo— que grupos puedan intentar crear nuevos patógenos usando estos modelos”, advirtió. “Creo que es totalmente posible que veamos un ciberataque que sacuda al mundo este mismo año”, dijo.
OpenAI es una compañía tecnológica estadounidense dedicada al desarrollo de sistemas avanzados de inteligencia artificial, incluyendo modelos capaces de generar texto, imágenes y código, con aplicaciones que van desde la productividad hasta la investigación científica.
Riesgos reales: del ciberespacio al laboratorio
Altman identificó dos amenazas inmediatas derivadas del avance acelerado de la IA: ataques cibernéticos masivos y el uso indebido de herramientas tecnológicas para fines biológicos.
Según explicó, los próximos modelos podrían facilitar tareas altamente complejas, reduciendo las barreras técnicas para actores malintencionados, desde Estados hostiles hasta organizaciones terroristas.
“En el próximo año veremos amenazas significativas en el ámbito cibernético que tendremos que mitigar”, señaló. “Las mismas herramientas que pueden curar enfermedades también podrían ser utilizadas para diseñar nuevas”, explicó.
El empresario subrayó que la tecnología puede prometer avances médicos sin precedentes, pero también abre la puerta a riesgos que antes estaban limitados a laboratorios altamente especializados.
Una carrera tecnológica sin freno
Las declaraciones de Altman llegan en un momento en que empresas como OpenAI lideran una carrera global por desarrollar sistemas de “superinteligencia”, con implicaciones económicas, sociales y de seguridad.
El propio ejecutivo reconoció que el ritmo de innovación supera la capacidad de adaptación de gobiernos e instituciones.
“Sentimos una urgencia real. Queremos que este debate se tome en serio y comience cuanto antes”, afirmó. “Esto es algo increíble, emocionante y también aterrador al mismo tiempo”, añadió.
Regulación y el futuro del sistema
Más allá de las amenazas inmediatas, Altman también planteó la necesidad de redefinir el marco económico y regulatorio ante el impacto de la inteligencia artificial.
Desde impuestos a la automatización hasta nuevas formas de redistribución de riqueza, el CEO de OpenAI sostiene que el modelo actual podría no ser suficiente para enfrentar los cambios que vienen.
Sin embargo, explica Axios, sus propuestas también han generado escepticismo, ya que provienen de uno de los principales impulsores de la misma tecnología que advierte sobre sus riesgos.
Política
Nueva York regula el uso de la inteligencia artificial en sus escuelas públicas
Diane Hernández
Política
Florida investiga a OpenAI: crece la preocupación por el impacto de ChatGPT en los menores
Diane Hernández