Voz media US Voz.us

Florida investiga a OpenAI: crece la preocupación por el impacto de ChatGPT en los menores

La decisión fue impulsada por el fiscal general del estado, James Uthmeier, quien advirtió sobre el alcance masivo de esta tecnología y la necesidad de controles más estrictos ante su creciente uso por parte de niños y adolescentes.

Imagen del logo de Open AI y ChatGPT

Imagen del logo de Open AI y ChatGPTAFP

Diane Hernández
Publicado por

La Fiscalía de Florida abrió una investigación formal contra OpenAI, la empresa responsable de ChatGPT, en un movimiento que podría marcar un punto de inflexión en la regulación de la inteligencia artificial en el país. El foco está puesto en determinar si la plataforma ha permitido la exposición de menores a contenidos nocivos y si su uso podría estar vinculado a riesgos para la seguridad pública y nacional.

La decisión fue impulsada por el fiscal general del estado, James Uthmeier, quien advirtió sobre el alcance masivo de esta tecnología y la necesidad de controles más estrictos ante su creciente uso por parte de niños y adolescentes.

Sospechas sobre impacto en menores y seguridad pública

Según la oficina del fiscal, existen indicios de que el chatbot podría estar relacionado con episodios graves que involucran a menores, incluidos casos de autolesiones y suicidio. Aunque no se han presentado pruebas concluyentes, la investigación busca esclarecer si hubo algún grado de influencia o facilitación por parte de la herramienta.

Uthmeier también vinculó el debate con un caso de alto impacto: el tiroteo ocurrido el 17 de abril de 2025 en la Universidad Estatal de Florida. De acuerdo con sus declaraciones, el presunto autor, identificado como Phoenix Ikner, habría utilizado ChatGPT antes del ataque, que dejó dos muertos y cinco heridos.

A estas preocupaciones se suma un componente geopolítico. El fiscal alertó sobre el posible acceso de actores extranjeros, particularmente el gobierno de China, a datos procesados por la plataforma, lo que —según sostuvo— podría comprometer la seguridad nacional de Estados Unidos.

En un mensaje publicado en la red social X, Uthmeier afirmó que la inteligencia artificial debe servir para "complementar, apoyar y hacer avanzar a la humanidad", y no para generar riesgos existenciales o facilitar actividades delictivas.

Respuesta de OpenAI y defensa de su tecnología

Desde OpenAI rechazaron las acusaciones y defendieron sus estándares de seguridad. Un portavoz de la compañía destacó que más de 900 millones de personas utilizan ChatGPT cada semana para tareas cotidianas como el aprendizaje de nuevas habilidades o la gestión de trámites sanitarios.

La empresa subrayó que el sistema está diseñado para interpretar las intenciones de los usuarios y responder de manera segura, y aseguró que continúa perfeccionando sus mecanismos de protección. Además, confirmó que colaborará plenamente con las autoridades de Florida durante el proceso investigativo.

Un proceso abierto con posibles consecuencias legales

Por el momento, la Fiscalía no ha detallado el alcance total de la investigación, aunque fuentes oficiales indicaron que podrían emitirse citaciones judiciales en el curso de las diligencias. El objetivo central es determinar si OpenAI implementó medidas efectivas para evitar la exposición de menores a contenidos inapropiados y prevenir el uso malicioso de su tecnología.

Este caso podría sentar un precedente importante en la supervisión estatal de las empresas de inteligencia artificial, en un contexto de creciente presión regulatoria sobre el sector.

Regulación en marcha: leyes, tensiones políticas y vacío federal

La investigación se produce en paralelo a un avance legislativo en Florida. El gobernador Ron DeSantis promulgó el 1 de abril el Proyecto de Ley 245, que actualiza la normativa sobre contenidos digitales y establece nuevas herramientas para perseguir delitos de abuso infantil vinculados a tecnologías emergentes.

​Entre otros puntos, la ley incorpora el término "material de abuso sexual infantil" para reemplazar expresiones anteriores y contempla escenarios en los que dichos contenidos puedan ser generados mediante inteligencia artificial.

​Sin embargo, el intento de avanzar hacia una regulación más amplia enfrentó obstáculos. Una propuesta para crear una 'Declaración de Derechos de la IA', impulsada por el propio DeSantis, fue aprobada en el Senado estatal pero bloqueada en la Cámara de Representantes. El presidente de ese cuerpo, Daniel Pérez, argumentó que la regulación de la inteligencia artificial debería abordarse a nivel federal.

​Esta postura coincide con la visión del presidente Donald Trump, quien ha defendido una estrategia nacional unificada para el control de estas tecnologías.

Iniciativas paralelas y presión internacional

En paralelo al inicio de la investigación, OpenAI presentó un nuevo marco de acción para la protección infantil, elaborado junto al Centro Nacional para Niños Desaparecidos y Explotados y el Grupo de Trabajo sobre IA de la Alianza de Fiscales Generales.

El documento propone actualizar los marcos legales estatales y prohíbe explícitamente que sistemas de inteligencia artificial generen contenido ilegal o dañino, independientemente de las solicitudes de los usuarios. También busca establecer protocolos claros de cooperación entre empresas tecnológicas y autoridades.

Un debate que trasciende fronteras

El caso en Florida refleja una discusión más amplia que atraviesa a Estados Unidos y otros países: cómo equilibrar el desarrollo acelerado de la inteligencia artificial con la protección de los usuarios, especialmente los más vulnerables.

Con una adopción global sin precedentes y millones de interacciones diarias, herramientas como ChatGPT plantean desafíos regulatorios complejos. La investigación en curso no solo examina responsabilidades específicas, sino que también anticipa un escenario en el que la supervisión de la IA será cada vez más estricta y determinante para su futuro.

tracking