Elon Musk reveló sus conversaciones con Obama sobre la inteligencia artificial

El magnate y fundador de Tesla se refirió a los peligros de IA y recordó cuando habló con el expresidente sobre su posible regulación.

Elon Musk alertó recientemente sobre los peligros que la inteligencia artificial puede representar para la humanidad. En efecto, vaticinó un gran avance para la próxima década y reveló una conversación que tuvo al respecto con Barack Obama, a quien le aconsejó regular la tecnología.

El magnate sudafricano confesó el domingo que solo tuvo una reunión formal con el expresidente. La misma tuvo lugar en el año 2015 en el restaurante Spruce, luego de que ambos participaran en una cumbre de seguridad cibernética en la Universidad de Stanford.

Musk abordó el tema en Twitter, cuando respondió a una publicación del desarrollador de software Mckay Wrigley, quien había escrito que la IA continuaría experimentando un "crecimiento exponencial" en los próximos años y que sacudiría a los escépticos “como un asteroide”.

"Lo vi suceder desde mucho antes de la GPT-1, por eso intenté advertir al público durante años. La única reunión individual que tuve con Obama como presidente no la utilicé para promocionar Tesla o SpaceX, sino para fomentar la regulación de la IA", respondió el empresario en la red social del pajarito, de la que actualmente es propietario. Quien fuera el presidente número 44 de los Estados Unidos también visitó en 2010 las operaciones de SpaceX en Cabo Cañaveral, Florida.

Acerca de los desafíos que trae la inteligencia artificial, Musk firmó una carta abierta acompañado de cientos de líderes en la industria tecnológica.  El documento contó con el aval del cofundador de Ripple, Chris Larsen, elcofundador de Pinterest, Evan Sharp, el excandidato presidencial, Andrew Yang y académicos de la Universidad de Stanford y la Universidad de Harvard.

"Tales decisiones no deben delegarse en líderes tecnológicos no elegidos. Los potentes sistemas de IA solo deben desarrollarse cuando tengamos la certeza de que sus efectos serán positivos y sus riesgos gestionables. Esta confianza debe estar bien justificada y aumentar con la magnitud de los efectos potenciales de un sistema”, profesó el documento.

"Esta pausa debe ser pública y verificable, e incluir a todos los actores clave. Si esta pausa no puede realizarse rápidamente, los gobiernos deberían intervenir e instituir una moratoria. Los laboratorios de IA y los expertos independientes deberían aprovechar esta pausa para desarrollar y aplicar conjuntamente una serie de protocolos de seguridad compartidos para el diseño y desarrollo de IA avanzada, rigurosamente auditados y supervisados por expertos externos independientes. Estos protocolos deberían garantizar que los sistemas que se adhieran a ellos sean seguros más allá de toda duda razonable”, sumó la misiva.