Ethics Hub • Preguntas frecuentes

Preguntas frecuentes — Ética y uso responsable de la IA en las escuelas

Respuestas claras y prácticas para docentes, directivos, estudiantes y familias. Estas preguntas frecuentes se centran en la toma de decisiones éticas (no solo en las normas) y complementan las listas de verificación y las plantillas de la sección Herramientas de decisión escolar.

Nota: Las leyes y los requisitos normativos varían según el país y la región. Use estas preguntas frecuentes junto con las políticas de su escuela y la normativa local aplicable.

Encuentre respuestas rápidamente
No hay coincidencias. Intente con una palabra más amplia (p. ej., “datos”, “evaluación”, “gobernanza”).
A) Primeros pasos
1¿La IA en educación es “buena” o “mala”?Primeros pasos

La IA no es ni puramente buena ni puramente mala. Lo que importa es el propósito, el contexto, las salvaguardas y la cultura de aprendizaje que genera. La misma herramienta puede apoyar la equidad y el aprendizaje, o debilitarlos, según cómo se utilice.

2¿Cuál es la forma más simple de pensar la ética en el uso escolar de la IA?Primeros pasos

Pregunte: ¿quién se beneficia?, ¿quién resulta perjudicado?, ¿qué se vuelve invisible? y ¿quién es responsable? Después decida qué debe seguir siendo una responsabilidad humana.

3¿La “IA ética” consiste solo en cumplir la ley?Primeros pasos

No. El cumplimiento normativo es esencial, pero la ética también incluye confianza, equidad, bienestar, transparencia e integridad pedagógica: lo que sus decisiones enseñan al alumnado sobre la responsabilidad.

4¿Las escuelas deberían prohibir la IA para evitar problemas?Primeros pasos

Las prohibiciones generales suelen empujar su uso a la clandestinidad y hacen perder oportunidades de aprendizaje. Un enfoque más sólido es el uso responsable guiado: límites claros, salvaguardas apropiadas para la edad y alfabetización explícita en IA.

5¿Cuál es el mayor error ético que cometen las escuelas con la IA?Primeros pasos

Tratar la IA como un atajo para los productos finales (vigilando las “trampas”) en lugar de rediseñar el aprendizaje para proteger el pensamiento, la autonomía y la confianza.

B) Estudiantes, aulas y aprendizaje
6¿A qué edad se debería permitir a los estudiantes usar IA?Estudiantes y aprendizaje

Una base sólida es: últimos años de primaria: uso supervisado con límites claros. Desde secundaria básica en adelante: uso mayormente independiente con salvaguardas, enseñanza explícita y responsabilidad. Lo más importante es la madurez evolutiva y la capacidad de la escuela para enseñar un uso seguro y responsable.

7¿Qué significa en la práctica “IA como extensión cognitiva”?Estudiantes y aprendizaje

La IA debería apoyar el pensamiento (generar opciones, formular preguntas, ofrecer andamiaje, dar retroalimentación) en lugar de reemplazarlo (dar respuestas finales, redactar ensayos completos o resolver todo sin razonamiento).

8¿Cómo evitamos que los estudiantes se vuelvan dependientes de la IA?Estudiantes y aprendizaje

Utilice rutinas de “esfuerzo primero” (intentarlo primero y luego pedir pistas), pida evidencia del proceso (borradores, reflexión, explicaciones orales) y diseñe tareas en las que la IA no pueda completar por sí sola el pensamiento central.

9¿Se debería exigir a los estudiantes que declaren el uso de IA?Estudiantes y aprendizaje

En muchos casos sí, especialmente cuando la IA influyó de manera sustancial en el trabajo. Las normas de declaración pueden ser simples y apropiadas para la edad.

10¿Cuál es un formato simple de declaración/atribución que los estudiantes pueden usar?Estudiantes y aprendizaje

Ejemplos:

  • “La IA me ayudó con la lluvia de ideas y el esquema. La redacción final es mía.”
  • “La IA me ayudó a mejorar la claridad y la gramática; las ideas y la evidencia son mías.”
  • “Usé IA para generar preguntas de práctica; las resolví de forma independiente.”
11¿Es ético usar IA para apoyo lingüístico o accesibilidad?Estudiantes y aprendizaje

Sí, y muchas veces es muy beneficioso, cuando favorece la inclusión. La clave es tener claridad sobre el objetivo de aprendizaje y sobre qué evidencia de aprendizaje sigue siendo necesaria.

12¿Qué no deberían introducir nunca los estudiantes en herramientas de IA?Estudiantes y aprendizaje

Como regla general: nombres completos, direcciones, números de teléfono, información de salud o de orientación, datos de protección infantil, registros escolares confidenciales o datos identificables de otras personas.

13¿Se puede usar IA para SEL o apoyo al bienestar en clase?Estudiantes y aprendizaje

Puede apoyar consignas de reflexión y práctica de habilidades, pero las escuelas deberían evitar presentar la IA como terapeuta o como apoyo emocional principal. Siempre deben mantenerse límites claros y vías de apoyo humano.

C) Evaluación, autoría e integridad académica
14¿Usar IA es automáticamente “hacer trampa”?Evaluación

No automáticamente. Depende del objetivo de aprendizaje de la tarea y de las expectativas de la escuela. El foco ético debería ser: ¿el uso de IA falsea la evidencia del aprendizaje?

15¿Deberíamos usar herramientas de detección de IA?Evaluación

Úsenlas con cautela, si es que se usan. La detección no es lo suficientemente fiable como para tratarla como prueba. Si se utiliza, debería funcionar solo como disparador de una conversación, nunca como veredicto.

16¿Cuál es una mejor alternativa a la detección?Evaluación

El diseño de la evaluación: puntos de control de borradores, escritura en clase, defensa oral, registros del proceso, reflexión, tareas contextualizadas/personalizadas e iteración.

17¿Cómo evaluamos con justicia si los estudiantes tienen un acceso desigual a la IA?Evaluación

Las escuelas pueden reducir la inequidad ofreciendo acceso durante el horario escolar, enseñando una alfabetización compartida en IA y evaluando la evidencia del aprendizaje y del proceso, no solo el acabado final.

18¿Pueden los estudiantes presentar arte, código o textos generados por IA como “su trabajo”?Evaluación

Solo si la tarea lo permite y la contribución se declara con honestidad. Muchas escuelas usan categorías como: Original / Asistido por IA / Generado por IA, con criterios claros y declaración obligatoria.

19¿Cómo manejamos éticamente un caso de uso indebido sospechado?Evaluación

Aplique el debido proceso: reúna evidencia del aprendizaje (borradores, entrevistas, conversaciones), trate al estudiante con dignidad y enfóquese en reparar el aprendizaje. Evite el “juicio por algoritmo” (tomar la detección como prueba).

D) Privacidad de datos, seguridad y prácticas de proveedores
20¿Qué significa “minimización de datos” en el uso escolar de la IA?Privacidad

Recopilar y usar solo la menor cantidad de datos necesaria para un propósito educativo legítimo. Evite cargar en herramientas información identificable o sensible de estudiantes, salvo que esté explícitamente aprobado y protegido.

21¿Los prompts y chats se consideran datos?Privacidad

Sí. Los prompts pueden contener información personal y pueden almacenarse o registrarse según la herramienta. Las escuelas deberían asumir que los prompts son sensibles, salvo que la herramienta garantice lo contrario.

22¿El personal puede subir trabajos de estudiantes a herramientas de IA para obtener retroalimentación?Privacidad

Solo cuando la escuela haya aprobado la herramienta, los términos de privacidad sean aceptables y el personal siga reglas de “no datos sensibles”. Es preferible usar herramientas o configuraciones que reduzcan la retención y limiten los usos secundarios.

23¿Qué preguntas deberíamos hacer siempre a los proveedores?Proveedores

Como mínimo:

  • ¿Qué datos se recopilan y almacenan? ¿Durante cuánto tiempo?
  • ¿Quién puede acceder a ellos? ¿Se pueden eliminar?
  • ¿Se usan los datos para entrenamiento o mejora del producto?
  • ¿Qué estándares de seguridad y procedimientos ante incidentes existen?
  • ¿Qué controles existen para menores de edad y para uso escolar?
24¿Las escuelas deberían permitir herramientas de IA “gratuitas”?Proveedores

“Gratis” muchas veces significa que los datos o la exposición son el costo. Las escuelas deberían aplicar la misma lista ética de verificación sin importar el precio y ser especialmente cuidadosas con herramientas que no tengan salvaguardas claras de nivel escolar.

25¿Qué es un caso de uso de IA de “alto riesgo” desde la perspectiva de la privacidad?Privacidad

Cualquier caso que involucre menores y además incluya: perfilado, reconocimiento de emociones, analítica conductual, datos sensibles de bienestar o herramientas que registren/retengan por defecto las interacciones estudiantiles.

E) Seguridad, desinformación y protección
26¿Cuál es el mayor riesgo de seguridad en el uso de IA en el aula?Seguridad

La desinformación expresada con seguridad (alucinaciones) y la exposición a contenido inapropiado. Ambos requieren enseñanza explícita: hábitos de verificación + barreras de protección.

27¿Cómo enseñamos la verificación de manera práctica?Seguridad

Exija rutinas de “Afirmación–Evidencia–Fuente”: que los estudiantes destaquen afirmaciones y vinculen cada una con fuentes fiables. Enseñe que la IA es un punto de partida para investigar, no una autoridad.

28¿Deberían los estudiantes usar IA para temas de salud, autolesión o temas peligrosos?Seguridad

Las escuelas deberían tratar estos temas como dominios de alto riesgo: restringir su uso, exigir supervisión adulta y apoyarse en recursos profesionales verificados. Asegúrese de que las vías de escalamiento para protección estén claras.

29¿Qué pasa si un estudiante revela daño o angustia en una interacción con IA?Protección

Trátelo como una cuestión de protección. Siga los procedimientos establecidos por su escuela: apoye al estudiante, documente de manera mínima, eleve el caso al responsable de protección correspondiente y revise la guía de uso de la herramienta.

30¿Qué debería hacer una escuela después de un incidente con IA?Protección

Responder en tres niveles:

  • apoyo al estudiante y protección
  • documentación y comunicación
  • mejora del sistema (configuración, formación, elección de herramientas, actualización de políticas)
F) Transparencia y comunicación con las familias
31¿Las escuelas deberían informar a las familias cuando se usa IA?Familias

Sí: la transparencia protege la confianza. Las familias deberían comprender los propósitos, las salvaguardas y los límites, especialmente cuando hay datos estudiantiles involucrados o la IA afecta las experiencias de aprendizaje.

32¿Qué deberíamos decir a las familias que están preocupadas por la IA?Familias

Reconozca sus preocupaciones, explique las salvaguardas (privacidad, supervisión, límites) y enfatice que la escuela enseña un uso responsable. Ofrezca un canal claro para preguntas y comentarios.

33¿Qué pasa si las familias quieren que su hijo o hija no participe?Familias

Siempre que sea posible, ofrezca alternativas, especialmente en herramientas optativas. Para plataformas esenciales, brinde una explicación clara del propósito y las salvaguardas, y explore adaptaciones razonables.

34¿Deberíamos identificar la retroalimentación docente asistida por IA?Familias

Muchas veces sí, al menos a nivel general (“borrador asistido por IA, revisado por el docente”). El objetivo no es restar valor al trabajo docente, sino fortalecer la transparencia y la confianza.

G) Gobernanza, responsabilidad y coherencia institucional
35¿Quién debería aprobar las herramientas de IA y los nuevos casos de uso?Gobernanza

Las escuelas deberían definir con claridad los derechos de decisión entre liderazgo, pedagogía, TI/protección de datos y protección infantil. “Cada persona elige sus propias herramientas” suele generar inconsistencia y riesgo.

36¿Cómo evitamos la inconsistencia entre docentes y departamentos?Gobernanza

Establezca una base mínima común (herramientas aprobadas, normas de declaración, reglas de privacidad, requisitos de supervisión humana) y permita flexibilidad docente dentro de esa base.

37¿Qué significa “human-in-the-loop” en las escuelas?Gobernanza

La IA puede redactar o sugerir, pero las personas deben revisar y seguir siendo responsables, especialmente en calificaciones, asignación, disciplina, juicios sobre bienestar y comunicaciones oficiales con estudiantes.

38¿Con qué frecuencia deberían revisarse las herramientas de IA?Gobernanza

Al menos una vez al año y siempre que una herramienta cambie sus términos, sus prácticas de datos o su funcionalidad principal. Las escuelas también deberían revisar después de incidentes o preocupaciones recurrentes.

H) Dilemas reales de IA y aprendizaje estudiantil
39¿Por qué enseñar dilemas reales de IA (autos, reconocimiento facial, deepfakes) en la escuela?Dilemas

Porque revelan los mismos principios éticos que el alumnado necesita para el uso escolar de la IA: privacidad, equidad, responsabilidad, manipulación y gobernanza, a través de situaciones memorables y relevantes.

40¿Cuál es el objetivo de discutir dilemas: encontrar la “respuesta correcta”?Dilemas

No. El objetivo es el razonamiento ético: identificar tensiones, justificar decisiones y proponer salvaguardas o diseños de política que reduzcan el daño sin perder valor.