Voz media US Voz.us

Nueva York regula el uso de la inteligencia artificial en sus escuelas públicas

El objetivo central es garantizar que la IA se utilice como una herramienta de apoyo al aprendizaje, sin reemplazar el rol fundamental de los docentes ni la interacción humana.

Imagen referencial de un estudiante

Imagen referencial de un estudianteAFP

Diane Hernández
Publicado por

La ciudad de Nueva York ha dado un paso decisivo al publicar nuevas directrices para el uso de la inteligencia artificial (IA) en su sistema de escuelas públicas, el más grande del país. La iniciativa, impulsada por el Departamento de Educación de la Ciudad de Nueva York, busca establecer un marco claro, seguro y ético para integrar estas tecnologías en el aula.

El objetivo central es garantizar que la IA se utilice como una herramienta de apoyo al aprendizaje, sin reemplazar el rol fundamental de los docentes ni la interacción humana. La normativa surge en un contexto de rápida expansión tecnológica, acompañado de preocupaciones entre familias y educadores sobre sus riesgos y límites.

Además, el documento fue elaborado con la participación de más de 1.000 miembros de la comunidad educativa, reflejando un enfoque colaborativo y una visión compartida sobre el uso responsable de estas herramientas.

Propósito: innovación con responsabilidad

Las directrices establecen que la IA debe complementar la enseñanza, no sustituirla. Se enfatiza que el juicio profesional de los educadores sigue siendo insustituible y que el desarrollo del pensamiento crítico en los estudiantes debe prevalecer sobre la dependencia de sistemas automatizados.

La política también responde a la necesidad de preparar a los alumnos para un entorno laboral y social donde la IA ya forma parte del día a día, sin ignorar los riesgos asociados como errores, sesgos o uso indebido de datos.

El sistema de "semáforo": qué está permitido y qué no

Uno de los elementos más destacados de la normativa es la implementación de un sistema de clasificación tipo semáforo, diseñado para orientar el uso de la IA en las escuelas:

Luz roja (prohibido):

Se prohíbe el uso de IA en decisiones críticas sobre estudiantes, como calificaciones, disciplina, asesoramiento emocional o definición de trayectorias académicas. Estas aplicaciones se consideran de alto riesgo para la equidad y la privacidad.

Luz amarilla (uso con precaución):

Permite el uso de IA bajo supervisión docente. Incluye actividades como investigación, proyectos creativos, redacción de comunicaciones o manejo de datos escolares, siempre con criterios éticos y revisión humana.

Luz verde (uso permitido):

Autoriza el uso de IA en tareas administrativas y de apoyo, como planificación de clases, generación de ideas, traducción de materiales no sensibles y organización de contenidos.

Este modelo busca equilibrar la innovación con la protección de los estudiantes, facilitando decisiones claras para docentes y administradores.

Implementación gradual y consulta pública

La política no se aplicará de forma inmediata en su totalidad. El plan contempla una implementación progresiva en varias fases hasta junio de 2026.

Un elemento clave es la apertura de un periodo de consulta pública de 45 días, durante el cual padres, docentes y otros actores podrán enviar comentarios y sugerencias. Este proceso permitirá ajustar la normativa antes de su versión definitiva.

Reacciones: entre el entusiasmo y la preocupación

La iniciativa ha generado opiniones diversas. Algunos padres, incluidos grupos como Parents for AI Caution in Educational Spaces, han expresado preocupación por la rapidez en la implementación y la falta de mecanismos sólidos para fomentar una alfabetización digital crítica.

Entre los principales temores se encuentran:

  • La posible dependencia excesiva de herramientas automatizadas.
  • La pérdida de habilidades cognitivas esenciales.
  • El uso de estudiantes como "campo de prueba" para nuevas tecnologías.

Algunos estudiantes, especialmente de niveles iniciales, también han manifestado preferencia por entornos educativos con menor presencia de IA.

La postura oficial: la IA no reemplaza a los docentes

Desde las autoridades educativas, el mensaje es claro: la IA no sustituirá a los maestros. Según el canciller escolar Kamar H. Samuels, estas herramientas deben servir para optimizar tareas y permitir que los docentes se concentren en lo más importante: el acompañamiento educativo y el desarrollo del pensamiento crítico.

​Muchos profesores coinciden en que la IA puede ser útil como asistente en la planificación y organización, pero insisten en que la decisión pedagógica final siempre debe recaer en el ser humano.

Privacidad y control: requisitos estrictos

El uso de IA en las escuelas estará sujeto a estrictos controles. Todas las herramientas deberán pasar por el sistema de evaluación ERMA (Enterprise Request Management Application), que verifica el cumplimiento de normativas como la FERPA y la legislación educativa del estado de Nueva York.

Entre los requisitos clave se incluyen:

  • Prohibición de usar datos de estudiantes para entrenar modelos.
  • Obligación de transparencia por parte de proveedores.
  • Evaluación de sesgos algorítmicos y su impacto en la equidad.

Solo las herramientas aprobadas podrán utilizarse con información de alumnos o personal.

Un modelo con impacto global

Con esta iniciativa, Nueva York se posiciona como referente en la regulación educativa de la inteligencia artificial. La política no solo aborda los desafíos actuales, sino que también sienta las bases para un modelo educativo adaptado a la era digital.

​El desafío, según coinciden expertos, será encontrar el equilibrio entre aprovechar el potencial de la IA y preservar los valores fundamentales de la educación: el pensamiento crítico, la interacción humana y la equidad.
tracking