Ethics Hub • Preguntas frecuentes
Preguntas frecuentes — Ética y uso responsable de la IA en las escuelas
Respuestas claras y prácticas para docentes, directivos, estudiantes y familias. Estas preguntas frecuentes se centran en la toma de decisiones éticas (no solo en las normas) y complementan las listas de verificación y las plantillas de la sección Herramientas de decisión escolar.
Nota: Las leyes y los requisitos normativos varían según el país y la región. Use estas preguntas frecuentes junto con las políticas de su escuela y la normativa local aplicable.
1¿La IA en educación es “buena” o “mala”?Primeros pasos
La IA no es ni puramente buena ni puramente mala. Lo que importa es el propósito, el contexto, las salvaguardas y la cultura de aprendizaje que genera. La misma herramienta puede apoyar la equidad y el aprendizaje, o debilitarlos, según cómo se utilice.
2¿Cuál es la forma más simple de pensar la ética en el uso escolar de la IA?Primeros pasos
Pregunte: ¿quién se beneficia?, ¿quién resulta perjudicado?, ¿qué se vuelve invisible? y ¿quién es responsable? Después decida qué debe seguir siendo una responsabilidad humana.
3¿La “IA ética” consiste solo en cumplir la ley?Primeros pasos
No. El cumplimiento normativo es esencial, pero la ética también incluye confianza, equidad, bienestar, transparencia e integridad pedagógica: lo que sus decisiones enseñan al alumnado sobre la responsabilidad.
4¿Las escuelas deberían prohibir la IA para evitar problemas?Primeros pasos
Las prohibiciones generales suelen empujar su uso a la clandestinidad y hacen perder oportunidades de aprendizaje. Un enfoque más sólido es el uso responsable guiado: límites claros, salvaguardas apropiadas para la edad y alfabetización explícita en IA.
5¿Cuál es el mayor error ético que cometen las escuelas con la IA?Primeros pasos
Tratar la IA como un atajo para los productos finales (vigilando las “trampas”) en lugar de rediseñar el aprendizaje para proteger el pensamiento, la autonomía y la confianza.
6¿A qué edad se debería permitir a los estudiantes usar IA?Estudiantes y aprendizaje
Una base sólida es: últimos años de primaria: uso supervisado con límites claros. Desde secundaria básica en adelante: uso mayormente independiente con salvaguardas, enseñanza explícita y responsabilidad. Lo más importante es la madurez evolutiva y la capacidad de la escuela para enseñar un uso seguro y responsable.
7¿Qué significa en la práctica “IA como extensión cognitiva”?Estudiantes y aprendizaje
La IA debería apoyar el pensamiento (generar opciones, formular preguntas, ofrecer andamiaje, dar retroalimentación) en lugar de reemplazarlo (dar respuestas finales, redactar ensayos completos o resolver todo sin razonamiento).
8¿Cómo evitamos que los estudiantes se vuelvan dependientes de la IA?Estudiantes y aprendizaje
Utilice rutinas de “esfuerzo primero” (intentarlo primero y luego pedir pistas), pida evidencia del proceso (borradores, reflexión, explicaciones orales) y diseñe tareas en las que la IA no pueda completar por sí sola el pensamiento central.
9¿Se debería exigir a los estudiantes que declaren el uso de IA?Estudiantes y aprendizaje
En muchos casos sí, especialmente cuando la IA influyó de manera sustancial en el trabajo. Las normas de declaración pueden ser simples y apropiadas para la edad.
10¿Cuál es un formato simple de declaración/atribución que los estudiantes pueden usar?Estudiantes y aprendizaje
Ejemplos:
- “La IA me ayudó con la lluvia de ideas y el esquema. La redacción final es mía.”
- “La IA me ayudó a mejorar la claridad y la gramática; las ideas y la evidencia son mías.”
- “Usé IA para generar preguntas de práctica; las resolví de forma independiente.”
11¿Es ético usar IA para apoyo lingüístico o accesibilidad?Estudiantes y aprendizaje
Sí, y muchas veces es muy beneficioso, cuando favorece la inclusión. La clave es tener claridad sobre el objetivo de aprendizaje y sobre qué evidencia de aprendizaje sigue siendo necesaria.
12¿Qué no deberían introducir nunca los estudiantes en herramientas de IA?Estudiantes y aprendizaje
Como regla general: nombres completos, direcciones, números de teléfono, información de salud o de orientación, datos de protección infantil, registros escolares confidenciales o datos identificables de otras personas.
13¿Se puede usar IA para SEL o apoyo al bienestar en clase?Estudiantes y aprendizaje
Puede apoyar consignas de reflexión y práctica de habilidades, pero las escuelas deberían evitar presentar la IA como terapeuta o como apoyo emocional principal. Siempre deben mantenerse límites claros y vías de apoyo humano.
14¿Usar IA es automáticamente “hacer trampa”?Evaluación
No automáticamente. Depende del objetivo de aprendizaje de la tarea y de las expectativas de la escuela. El foco ético debería ser: ¿el uso de IA falsea la evidencia del aprendizaje?
15¿Deberíamos usar herramientas de detección de IA?Evaluación
Úsenlas con cautela, si es que se usan. La detección no es lo suficientemente fiable como para tratarla como prueba. Si se utiliza, debería funcionar solo como disparador de una conversación, nunca como veredicto.
16¿Cuál es una mejor alternativa a la detección?Evaluación
El diseño de la evaluación: puntos de control de borradores, escritura en clase, defensa oral, registros del proceso, reflexión, tareas contextualizadas/personalizadas e iteración.
17¿Cómo evaluamos con justicia si los estudiantes tienen un acceso desigual a la IA?Evaluación
Las escuelas pueden reducir la inequidad ofreciendo acceso durante el horario escolar, enseñando una alfabetización compartida en IA y evaluando la evidencia del aprendizaje y del proceso, no solo el acabado final.
18¿Pueden los estudiantes presentar arte, código o textos generados por IA como “su trabajo”?Evaluación
Solo si la tarea lo permite y la contribución se declara con honestidad. Muchas escuelas usan categorías como: Original / Asistido por IA / Generado por IA, con criterios claros y declaración obligatoria.
19¿Cómo manejamos éticamente un caso de uso indebido sospechado?Evaluación
Aplique el debido proceso: reúna evidencia del aprendizaje (borradores, entrevistas, conversaciones), trate al estudiante con dignidad y enfóquese en reparar el aprendizaje. Evite el “juicio por algoritmo” (tomar la detección como prueba).
20¿Qué significa “minimización de datos” en el uso escolar de la IA?Privacidad
Recopilar y usar solo la menor cantidad de datos necesaria para un propósito educativo legítimo. Evite cargar en herramientas información identificable o sensible de estudiantes, salvo que esté explícitamente aprobado y protegido.
21¿Los prompts y chats se consideran datos?Privacidad
Sí. Los prompts pueden contener información personal y pueden almacenarse o registrarse según la herramienta. Las escuelas deberían asumir que los prompts son sensibles, salvo que la herramienta garantice lo contrario.
22¿El personal puede subir trabajos de estudiantes a herramientas de IA para obtener retroalimentación?Privacidad
Solo cuando la escuela haya aprobado la herramienta, los términos de privacidad sean aceptables y el personal siga reglas de “no datos sensibles”. Es preferible usar herramientas o configuraciones que reduzcan la retención y limiten los usos secundarios.
23¿Qué preguntas deberíamos hacer siempre a los proveedores?Proveedores
Como mínimo:
- ¿Qué datos se recopilan y almacenan? ¿Durante cuánto tiempo?
- ¿Quién puede acceder a ellos? ¿Se pueden eliminar?
- ¿Se usan los datos para entrenamiento o mejora del producto?
- ¿Qué estándares de seguridad y procedimientos ante incidentes existen?
- ¿Qué controles existen para menores de edad y para uso escolar?
24¿Las escuelas deberían permitir herramientas de IA “gratuitas”?Proveedores
“Gratis” muchas veces significa que los datos o la exposición son el costo. Las escuelas deberían aplicar la misma lista ética de verificación sin importar el precio y ser especialmente cuidadosas con herramientas que no tengan salvaguardas claras de nivel escolar.
25¿Qué es un caso de uso de IA de “alto riesgo” desde la perspectiva de la privacidad?Privacidad
Cualquier caso que involucre menores y además incluya: perfilado, reconocimiento de emociones, analítica conductual, datos sensibles de bienestar o herramientas que registren/retengan por defecto las interacciones estudiantiles.
26¿Cuál es el mayor riesgo de seguridad en el uso de IA en el aula?Seguridad
La desinformación expresada con seguridad (alucinaciones) y la exposición a contenido inapropiado. Ambos requieren enseñanza explícita: hábitos de verificación + barreras de protección.
27¿Cómo enseñamos la verificación de manera práctica?Seguridad
Exija rutinas de “Afirmación–Evidencia–Fuente”: que los estudiantes destaquen afirmaciones y vinculen cada una con fuentes fiables. Enseñe que la IA es un punto de partida para investigar, no una autoridad.
28¿Deberían los estudiantes usar IA para temas de salud, autolesión o temas peligrosos?Seguridad
Las escuelas deberían tratar estos temas como dominios de alto riesgo: restringir su uso, exigir supervisión adulta y apoyarse en recursos profesionales verificados. Asegúrese de que las vías de escalamiento para protección estén claras.
29¿Qué pasa si un estudiante revela daño o angustia en una interacción con IA?Protección
Trátelo como una cuestión de protección. Siga los procedimientos establecidos por su escuela: apoye al estudiante, documente de manera mínima, eleve el caso al responsable de protección correspondiente y revise la guía de uso de la herramienta.
30¿Qué debería hacer una escuela después de un incidente con IA?Protección
Responder en tres niveles:
- apoyo al estudiante y protección
- documentación y comunicación
- mejora del sistema (configuración, formación, elección de herramientas, actualización de políticas)
31¿Las escuelas deberían informar a las familias cuando se usa IA?Familias
Sí: la transparencia protege la confianza. Las familias deberían comprender los propósitos, las salvaguardas y los límites, especialmente cuando hay datos estudiantiles involucrados o la IA afecta las experiencias de aprendizaje.
32¿Qué deberíamos decir a las familias que están preocupadas por la IA?Familias
Reconozca sus preocupaciones, explique las salvaguardas (privacidad, supervisión, límites) y enfatice que la escuela enseña un uso responsable. Ofrezca un canal claro para preguntas y comentarios.
33¿Qué pasa si las familias quieren que su hijo o hija no participe?Familias
Siempre que sea posible, ofrezca alternativas, especialmente en herramientas optativas. Para plataformas esenciales, brinde una explicación clara del propósito y las salvaguardas, y explore adaptaciones razonables.
34¿Deberíamos identificar la retroalimentación docente asistida por IA?Familias
Muchas veces sí, al menos a nivel general (“borrador asistido por IA, revisado por el docente”). El objetivo no es restar valor al trabajo docente, sino fortalecer la transparencia y la confianza.
35¿Quién debería aprobar las herramientas de IA y los nuevos casos de uso?Gobernanza
Las escuelas deberían definir con claridad los derechos de decisión entre liderazgo, pedagogía, TI/protección de datos y protección infantil. “Cada persona elige sus propias herramientas” suele generar inconsistencia y riesgo.
36¿Cómo evitamos la inconsistencia entre docentes y departamentos?Gobernanza
Establezca una base mínima común (herramientas aprobadas, normas de declaración, reglas de privacidad, requisitos de supervisión humana) y permita flexibilidad docente dentro de esa base.
37¿Qué significa “human-in-the-loop” en las escuelas?Gobernanza
La IA puede redactar o sugerir, pero las personas deben revisar y seguir siendo responsables, especialmente en calificaciones, asignación, disciplina, juicios sobre bienestar y comunicaciones oficiales con estudiantes.
38¿Con qué frecuencia deberían revisarse las herramientas de IA?Gobernanza
Al menos una vez al año y siempre que una herramienta cambie sus términos, sus prácticas de datos o su funcionalidad principal. Las escuelas también deberían revisar después de incidentes o preocupaciones recurrentes.
39¿Por qué enseñar dilemas reales de IA (autos, reconocimiento facial, deepfakes) en la escuela?Dilemas
Porque revelan los mismos principios éticos que el alumnado necesita para el uso escolar de la IA: privacidad, equidad, responsabilidad, manipulación y gobernanza, a través de situaciones memorables y relevantes.
40¿Cuál es el objetivo de discutir dilemas: encontrar la “respuesta correcta”?Dilemas
No. El objetivo es el razonamiento ético: identificar tensiones, justificar decisiones y proponer salvaguardas o diseños de política que reduzcan el daño sin perder valor.