El CEO de OpenAI pide intervención del gobierno: "La inteligencia artificial puede salir bastante mal"
Sam Altman dijo que su peor temor es que la industria de la tecnología cause un daño significativo al mundo.
Este martes el CEO de OpenAI, Sam Altman, habló ante el subcomité Judicial del Senado acerca de la importancia de que el gobierno regule la inteligencia artificial (IA) para mitigar los riesgos que podría causar.
El experto explicó que con el rápido desarrollo de la tecnología también van a surgir nuevos peligros, por lo que afirmó que es necesario que se creen regulaciones para las empresas que trabajan en este tipo de inteligencia.
“Mi peor temor es que nosotros, la industria de la tecnología, causemos un daño significativo al mundo”, dijo, resaltando que eso podría ocurrir de muchas formas distintas. “Si esta tecnología sale mal, puede salir bastante mal”, agrego.
Altman comentó que era muy probable que la IA afectara los empleos en gran medida, y reconoció que aún no se puede predecir exactamente el nivel del impacto. “Tratamos de ser muy claros al respecto, y creo que requerirá una asociación entre la industria y el gobierno, pero principalmente la acción del gobierno para descubrir cómo queremos mitigar eso”, manifestó.
El CEO incluso sugirió crear un marco de seguridad global basado en un conjunto de estándares y pruebas específicas antes de que la IA se despliegue por el mundo. “Requeriríamos auditorías independientes por parte de expertos que puedan decir que el modelo cumple o no con los umbrales de seguridad establecidos”, dijo.
El experto también señaló que el desarrollo de la tecnología podría llevar a la desinformación y a la manipulación en gran escala.
Gigantes de la tecnología pidieron frenar el desarrollo de la IA
La preocupación de los expertos en tecnología por el rápido desarrollo de la inteligencia artificial hizo que personas como Elon Musk, CEO de Tesla; Steve Wozniak,k co-fundador de Apple y Yoshua Bengio, premio Turing 2018, se unieran junto a más de mil firmantes para pedir que los grandes laboratorios de IA hicieran una pausa para regular el desarrollo y el uso de las nuevas tecnologías.
“La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra, y debería planificarse y gestionarse con el cuidado y los recursos adecuados”, señaló la carta de los expertos.