Ethics Hub • Biblioteca de temas clave
Biblioteca de temas clave
Una guía modular sobre las principales cuestiones éticas de la IA en educación.
Esta biblioteca está diseñada para una navegación rápida y práctica. Cada tema está escrito como un módulo independiente que puedes compartir con el personal, usar en conversaciones de liderazgo o vincular directamente con dilemas del aula.
Cada tema incluye
1 Sesgo, equidad e inclusión
Qué es esto
Los sistemas de IA pueden tratar a las personas de manera diferente —a veces de formas sutiles— porque aprenden de datos históricos, de una representación desigual y de decisiones de diseño que no funcionan igual de bien para distintos idiomas, acentos, culturas y perfiles de aprendizaje. En educación, esto se convierte en un problema ético cada vez que la IA afecta el acceso, el apoyo, las oportunidades o las expectativas.
Cómo aparece en las escuelas
- Un asistente de escritura ofrece mejores sugerencias a estudiantes que ya escriben bien
- Una herramienta de voz tiene dificultades con ciertos acentos, dialectos o estudiantes multilingües
- Un panel de “riesgo” o “compromiso” señala a algunos estudiantes con más frecuencia que a otros
- Las herramientas de traducción simplifican demasiado o distorsionan el significado en ciertos pares de lenguas
- Los ejemplos, imágenes o nombres generados por IA refuerzan estereotipos
- Las herramientas de apoyo crean ventajas desiguales si solo algunos estudiantes pueden acceder a ellas
Riesgos comunes y modos de falla
- Beneficio desigual: la IA apoya más a los estudiantes que menos la necesitan
- Amplificación del sesgo: estereotipos o suposiciones inexactas se repiten a gran escala
- Enfoque deficitario: la IA etiqueta a estudiantes como de “baja capacidad” en vez de identificar apoyos necesarios
- Exclusión invisible: la escuela no lo percibe porque los resultados parecen “eficientes”
- Brecha de acceso: una herramienta se convierte en un privilegio oculto en lugar de un apoyo para toda la escuela
Prácticas recomendadas
- Equidad desde el diseño: decidir a qué estudiantes debe servir bien la herramienta antes de adoptarla
- Probar con diversidad: idiomas, acentos, neurodiversidad, niveles de lectura, dispositivos
- Evitar la automatización en decisiones de alto impacto: no dejar que la IA tome decisiones sobre ubicación, disciplina o seguimiento sin revisión humana y justificación documentada
- Usar la IA para ampliar el acceso, no para reducirlo: priorizar apoyos para lengua, retroalimentación, andamiaje y accesibilidad
- Monitorear impactos desiguales: seguir patrones (quién se beneficia, quién es señalado, quién se desconecta) y ajustar
Preguntas para decidir
- ¿Quién se beneficia más de esta herramienta tal como está implementada? ¿Quién se beneficia menos?
- ¿Podría esta herramienta cambiar las expectativas de los docentes sobre ciertos estudiantes?
- ¿Cómo sería un “desempeño justo” entre distintos grupos de estudiantes y cómo lo pondremos a prueba?
- ¿Dónde es innegociable una decisión humana?
- ¿Cómo detectaremos el sesgo si ocurre en silencio?
Conexión con el aula
Un tutor de IA explica matemáticas mejor a algunos estudiantes que a otros. ¿Debería la escuela seguir utilizándolo si las calificaciones generales suben, pero un subgrupo queda rezagado?
- Mapa de impacto en actores → debate por roles → redacción de una regla de “uso justo”.
2 Privacidad de datos, consentimiento y protección
Qué es esto
La IA en las escuelas suele involucrar datos estudiantiles —de forma directa (prompts, chats, archivos) o indirecta (analíticas de uso, identificadores de dispositivos). La práctica ética requiere más que cumplimiento legal: requiere confianza, uso mínimo de datos, claridad y una protección sólida, especialmente tratándose de menores.
Cómo aparece en las escuelas
- Los estudiantes pegan historias personales o detalles identificables en herramientas de chat
- Los docentes suben trabajos de estudiantes para generar retroalimentación
- Los proveedores recopilan datos de uso “para mejorar el producto”
- Las herramientas de IA guardan registros de conversación por defecto
- El personal usa IA para resumir notas sensibles de orientación/comportamiento
- Los estudiantes interactúan con chatbots abiertos sin barreras de protección
Riesgos comunes y modos de falla
- Exceso de exposición: los estudiantes revelan información sensible sin comprender las consecuencias
- Rutas de datos poco claras: la escuela no puede explicar qué se almacena, dónde y por cuánto tiempo
- Uso secundario: los datos se usan para entrenamiento o mejora del producto sin consentimiento real
- Reidentificación: datos “anónimos” se vuelven identificables al combinarse
- Puntos ciegos en protección: las herramientas de IA pueden exponer a estudiantes a grooming, manipulación o contenido dañino si no se gestionan adecuadamente
Prácticas recomendadas
- Minimización de datos: recopilar solo lo esencial para un propósito de aprendizaje
- Regla de no datos sensibles: orientación clara sobre lo que nunca debe ingresarse en herramientas de IA (salud, problemas legales familiares, direcciones, identificadores, etc.)
- Protecciones apropiadas para la edad: uso supervisado con estudiantes más pequeños; modos más seguros, herramientas restringidas e instrucción explícita para estudiantes mayores
- Claridad del proveedor: respuestas documentadas sobre almacenamiento, retención, uso para entrenamiento y prácticas de seguridad
- Humano en el circuito en contextos sensibles: nunca automatizar decisiones pastorales; la IA solo puede ayudar a redactar o resumir bajo resguardos estrictos
- Enseñar la privacidad como habilidad: los estudiantes deben aprender “higiene de prompts” y límites digitales
Preguntas para decidir
- ¿Qué datos ingresan estudiantes, docentes o sistemas —de manera intencional o accidental?
- ¿Se almacena algún dato por defecto? ¿Puede borrarse? ¿Quién puede acceder a él?
- ¿Se usan datos para entrenar modelos o mejorar productos? Si es así, ¿en qué condiciones?
- ¿Cuál es la vía de escalamiento si surge una preocupación de protección en una interacción con IA?
- ¿Podemos explicar esto a las familias en lenguaje claro?
Conexión con el aula
Un estudiante usa un chatbot como apoyo emocional tarde por la noche y comparte detalles personales. Al día siguiente, el docente se entera. ¿Qué debería hacer la escuela y qué debería haber hecho antes?
- Mapa de límites y responsabilidades → redactar un acuerdo de aula sobre “privacidad y bienestar”.
3 Evaluación, autoría e integridad académica
Qué es esto
La IA cambia la forma en que los estudiantes producen trabajos —a menudo más rápido de lo que las escuelas pueden rediseñar la evaluación. El desafío ético no es simplemente “hacer trampa”. Es asegurar que la evaluación siga capturando evidencias de aprendizaje, mientras se enseña a los estudiantes una autoría responsable y se mantiene una cultura de confianza.
Cómo aparece en las escuelas
- Los estudiantes entregan ensayos generados por IA con comprensión mínima
- Los docentes usan IA para redactar retroalimentación o rúbricas sin adaptarlas a las necesidades del estudiante
- Las escuelas adoptan herramientas de detección y crean dinámicas adversariales
- Los estudiantes usan bien la IA (planificación, revisión, traducción), pero temen ser castigados
- Los docentes tienen dificultades para definir qué cuenta como “trabajo original” frente a “trabajo apoyado”
Riesgos comunes y modos de falla
- Cultura de vigilancia: un control excesivo daña la confianza y el aprendizaje
- Falsa certeza: las herramientas de detección producen falsos positivos/negativos y agravan el conflicto
- Desempeño sin aprendizaje: productos pulidos ocultan una comprensión superficial
- Distorsión de la equidad: estudiantes con mayor alfabetización en IA obtienen ventajas desproporcionadas
- Normas confusas: expectativas inconsistentes entre docentes generan injusticia
Prácticas recomendadas
- Pasar del producto a la evidencia de proceso: borradores, notas de pensamiento, defensa oral, reflexión, puntos de control en clase
- Definir con claridad el “uso ético”: qué está permitido para lluvia de ideas, esquemas, traducción, edición y retroalimentación, y qué no
- Exigir atribución cuando la IA contribuya: normas simples de declaración (“La IA ayudó con…”), apropiadas para la edad
- Diseñar evaluaciones que la IA no pueda completar sola: conexión personal, datos locales, mejora iterativa, razonamiento en vivo
- Enseñar alfabetización en IA de forma explícita: que los estudiantes aprendan cuándo la IA ayuda y cuándo perjudica su aprendizaje
- Usar la detección con cautela: como punto de partida para una conversación, nunca como motor de veredicto
Preguntas para decidir
- ¿Qué estamos evaluando realmente aquí: conocimiento, razonamiento, comunicación o el artefacto final?
- ¿Qué evidencia de aprendizaje exigiremos además de la entrega final?
- ¿Qué uso de IA se enseñará, practicará y evaluará explícitamente como habilidad?
- ¿Cómo mantendremos la confianza en el centro sin perder los estándares?
Conexión con el aula
Un estudiante usa IA para mejorar el lenguaje y la estructura. El trabajo queda mucho mejor que antes. ¿Es crecimiento o tergiversación? ¿Qué cuenta como evidencia de aprendizaje?
- Lista de verificación de “evidencias de aprendizaje” → reflexión del estudiante → breve conversación oral.
4 Transparencia y explicabilidad
Qué es esto
La transparencia en la IA para la educación significa que estudiantes, familias, docentes y líderes puedan entender con claridad:
- cuándo se está usando IA,
- qué está haciendo (y qué no),
- qué datos puede estar usando, y
- cómo los seres humanos siguen siendo responsables de las decisiones.
La explicabilidad es la cara práctica de la transparencia: poder dar una explicación en lenguaje claro de por qué ocurrió una recomendación, salida o alerta apoyada por IA, especialmente cuando influye en el aprendizaje, la retroalimentación, el apoyo o las oportunidades.
En las escuelas, la transparencia no es opcional. Es una base para la confianza, la justicia, la seguridad y la participación informada.
Cómo aparece en las escuelas
- Los estudiantes no saben si la retroalimentación fue generada por un docente o asistida por IA
- Una herramienta “sugiere” niveles de lectura, trayectorias o intervenciones sin razonamiento claro
- Un panel señala “riesgo” o “compromiso” pero el personal no puede explicar cómo se produce el puntaje
- Las familias descubren que se están usando herramientas de IA solo cuando surge un problema
- Los docentes tratan las salidas de la IA como autoritativas sin verificarlas (exceso de confianza)
- Los estudiantes descartan preocupaciones del docente porque “la IA dijo que está bien” (confianza mal ubicada)
Riesgos comunes y modos de falla
- IA invisible: se usa IA sin una divulgación clara → la confianza se rompe cuando se descubre
- Sesgo de automatización: personal y estudiantes sobreconfían en la IA porque parece segura
- Falsa explicabilidad: la escuela ofrece declaraciones vagas (“es inteligente”) sin claridad real
- Deriva de la responsabilidad: nadie puede decir quién es responsable cuando algo sale mal
- Influencia opaca en decisiones de alto impacto: la IA moldea silenciosamente el acceso, el seguimiento, el apoyo o la disciplina
- Daño al aprendizaje por confusión: los estudiantes no aprenden qué es un uso responsable porque está oculto
Prácticas recomendadas
- 1) Divulgar siempre el uso de IA de manera comprensible
- Normas claras: “Retroalimentación asistida por IA” / “Revisado por un humano” / “Sugerencia automatizada”
- Usar lenguaje simple; evitar jerga técnica
- 2) Explicar los límites, no solo las funciones
- Toda herramienta de IA debería tener una simple “declaración de límites”, por ejemplo:
- Puede equivocarse o resultar engañosa (alucinaciones)
- Puede perder contexto o matices
- Puede funcionar de forma desigual según estudiantes/idiomas
- No “conoce” al estudiante: predice en función de patrones
- 3) Crear hábitos de “confianza apropiada”
- Enseñar: verificar, triangular y reflexionar
- Animar a los estudiantes a preguntar: “¿Qué contaría como evidencia?”
- Exigir que los docentes revisen las salidas de IA cuando se usen para retroalimentación, informes o decisiones
- 4) Mantener a los humanos responsables —de forma visible
- Definir y publicar responsabilidades de humano en el circuito
- Documentar quién aprueba herramientas, quién monitorea el impacto y quién gestiona incidentes
- 5) Evitar IA opaca en contextos de alto impacto
- Si la IA influye en ubicación, medidas disciplinarias, seguimiento o decisiones de bienestar:
- exigir justificación humana documentada
- exigir vías de apelación
- exigir transparencia hacia las familias
Preguntas para decidir
- ¿Podemos explicar a una familia, en dos minutos, dónde se usa IA y por qué?
- ¿Qué debe revisarse siempre por un humano (retroalimentación, informes, intervenciones)?
- ¿Qué información necesitan los estudiantes para usar la IA de forma responsable y no ciega?
- ¿Entiende el personal suficientemente los límites de la herramienta como para cuestionarla?
- Si alguien impugna una decisión apoyada por IA, ¿cuál es el proceso de apelación?
Conexión con el aula
Un docente usa IA para generar comentarios de retroalimentación. Los estudiantes sienten que la retroalimentación es “genérica” y preguntan si el docente realmente leyó sus trabajos. ¿Debería el docente revelar la ayuda de la IA? Si es así, ¿cómo hacerlo sin debilitar la confianza ni la autoridad?
- “Mapa de confianza” (¿Qué aumenta la confianza? ¿Qué la reduce?)
- Reescribir la retroalimentación con etiquetado transparente
- Acordar una norma de aula: cuándo debe revelarse la asistencia de IA y cómo
5 Agencia, extensión cognitiva y dependencia
Qué es esto
La IA puede funcionar como una extensión cognitiva —ayudando a los estudiantes a planificar, generar opciones, poner a prueba ideas y reflexionar— o puede convertirse en un reemplazo cognitivo, donde los estudiantes externalizan el pensamiento y pierden oportunidades para desarrollar habilidad, criterio y confianza.
Este tema trata sobre la agencia estudiantil: la capacidad de fijar metas, tomar decisiones, monitorear la comprensión y apropiarse del aprendizaje. El uso ético de la IA fortalece la agencia. El uso poco ético (o mal diseñado) la debilita, a menudo de manera silenciosa.
Cómo aparece en las escuelas
- Los estudiantes piden a la IA respuestas completas en lugar de ayuda con los pasos del pensamiento
- La escritura se vuelve pulida, pero las ideas son superficiales o prestadas
- Los estudiantes dependen de la IA para iniciar toda tarea y se sienten “bloqueados” sin ella
- La IA sugiere soluciones tan rápido que desaparece el esfuerzo productivo
- Los estudiantes usan la IA como herramienta constante de validación (“¿Está bien esto?”)
- Los docentes asignan sin querer tareas en las que la IA realiza por defecto el pensamiento más difícil
Riesgos comunes y modos de falla
- Atrofia de habilidades: menos práctica en escritura, razonamiento, resolución de problemas y revisión
- Indefensión aprendida: los estudiantes dejan de iniciar estrategias por sí mismos
- Bucle de dependencia: la IA se convierte en el primer y único paso, no en un apoyo después del esfuerzo
- Aprendizaje superficial: las producciones se ven bien; la comprensión es frágil
- Cambio de motivación: los estudiantes optimizan para “entregar” y no para dominar
- Distorsión de la equidad: estudiantes con mayor alfabetización en IA obtienen ventajas desproporcionadas
Prácticas recomendadas
- 1) Definir el papel de la IA: “entrenador, no piloto automático”
- Enseñar y modelar la IA como:
- compañera de lluvia de ideas
- tutor que impulsa el pensamiento
- generadora de retroalimentación para criticar y mejorar
- simulador para practicar y reflexionar
- No como: “hazlo por mí”.
- 2) Usar rutinas de “esfuerzo primero”
- Intentar de forma independiente durante 5–10 minutos primero
- Usar la IA para pistas, no para respuestas
- Pedir a la IA que te haga preguntas, no que te reemplace
- Hacer siempre una “verificación humana” final: explicar el razonamiento con tus propias palabras
- 3) Hacer visible el pensamiento (evidencia de proceso)
- Exigir evidencia de aprendizaje más allá del producto final:
- borradores y revisiones
- registros de decisiones (“qué cambié y por qué”)
- breves explicaciones orales
- preguntas de reflexión: “¿Dónde ayudó la IA? ¿Dónde estuve en desacuerdo?”
- 4) Andamiar la independencia por tramo etario
- Upper Primary: uso supervisado; límites claros; foco en “la IA me ayuda a practicar”
- Lower Secondary: independencia guiada; explicitar “qué preguntar y qué no preguntar”
- Upper Secondary: uso avanzado con metacognición y normas de divulgación
- 5) Diseñar tareas que premien la agencia
- Características de una buena tarea:
- contexto personal o local
- mejora iterativa
- chequeos de razonamiento
- puntos de control en clase
- restricciones novedosas (recolección de datos, audiencia real, reflexión)
Preguntas para decidir
- ¿Este caso de uso de IA hace que los estudiantes piensen más profundamente o solo entreguen más rápido?
- ¿Qué capacidad de aprendizaje estamos protegiendo: razonamiento, escritura, creatividad, persistencia?
- ¿Qué exigiremos como evidencia de pensamiento más allá del producto final?
- ¿Estamos enseñando a los estudiantes a usar la IA éticamente o solo reaccionando después del mal uso?
- ¿Dónde queremos que los estudiantes enfrenten una dificultad productiva y dónde corresponde brindar apoyo?
Conexión con el aula
Un estudiante dice: “La IA es como una calculadora para escribir; ¿por qué no debería usarla para todo?”. Otro sostiene que vuelve el aprendizaje algo sin sentido. ¿Quién tiene razón? ¿Cuál debería ser la norma de clase?
- Actividad de clasificación “extensión vs reemplazo” (ejemplos en tarjetas)
- Debate por roles (estudiante, docente, familia, universidad/empleador)
- Producir un acuerdo de clase con tres categorías:
- Permitido y alentado (extiende el pensamiento)
- Permitido con límites (requiere divulgación/evidencia de proceso)
- No permitido (reemplaza el objetivo de aprendizaje)
6 Bienestar y relaciones humanas
Qué es esto
La educación es una tarea humana: la pertenencia, la confianza, la motivación, la identidad y la calidad de las relaciones influyen en el aprendizaje tanto como los contenidos. La IA puede apoyar el bienestar (por ejemplo, mediante andamiaje, accesibilidad o fortalecimiento de la confianza), pero también puede desplazar sin querer la manera en que los estudiantes se relacionan con:
- sí mismos (confianza, identidad, autoestima),
- los demás (pares, docentes, familias),
- y la realidad (atención, regulación emocional, señales sociales).
Este tema se centra en la ética de los límites, la conexión humana y el apoyo apropiado al desarrollo.
Cómo aparece en las escuelas
- Los estudiantes usan el chat de IA como compañía, consejero o “espacio seguro” emocional
- Los estudiantes se desconectan de sus pares porque la IA resulta más fácil que la interacción social
- Los estudiantes se vuelven perfeccionistas (“la IA hace que lo mío se vea mal”) o ansiosos (“no puedo seguir el ritmo”)
- Los docentes dependen en exceso de retroalimentación generada por IA, reduciendo las señales relacionales personales
- Las herramientas de IA fomentan la productividad constante y reducen el descanso/reflexión
- Los estudiantes antropomorfizan la IA (“me entiende mejor que las personas”)
Riesgos comunes y modos de falla
- Excesiva dependencia emocional: los estudiantes buscan consuelo, validación u orientación en la IA en lugar de en personas
- Menor sentido de pertenencia: menos interacciones entre pares; comunidad de aula más débil
- Impactos en la identidad: los estudiantes externalizan voz y estilo, perdiendo confianza en su propia expresión
- Fragmentación de la atención: la ayuda permanente reduce la persistencia y la tolerancia a la incertidumbre
- Erosión de la confianza: los estudiantes sienten que son “gestionados por sistemas”, los docentes se sienten presionados hacia la vigilancia
- Confusión de límites: los estudiantes tratan a la IA como si fuera una persona; las respuestas de la escuela se vuelven inconsistentes
Prácticas recomendadas
- 1) Establecer límites claros para el papel de la IA
- La IA puede apoyar procesos de aprendizaje, práctica y reflexión
- La IA no debería funcionar como consejero, terapeuta ni apoyo emocional principal
- Cualquier uso vinculado al bienestar debe diseñarse cuidadosamente con rutas de protección
- 2) Mantener visibles y centrales las relaciones
- Si la IA apoya la retroalimentación, asegurar que la presencia docente siga siendo clara (tono, referencias personales, conversaciones)
- Proteger tiempos para diálogo entre pares, colaboración y trabajo con audiencia real
- 3) Enseñar explícitamente la “alfabetización relacional con IA”
- La IA no es una persona y no “se preocupa”
- La IA puede reflejar un lenguaje que suena empático sin comprender
- Cuándo hablar con un adulto de confianza (y cómo pedir ayuda)
- 4) Resguardos por tramo etario
- Upper Primary: uso supervisado; límites fuertes; foco solo en apoyo al aprendizaje
- Lower Secondary: independencia guiada; explicitar para qué sirve y para qué no sirve la IA
- Upper Secondary: reflexión más profunda sobre identidad, atención, persuasión y autonomía
- 5) Diseñar una cultura de aula que reduzca la comparación y la ansiedad
- Normalizar el crecimiento iterativo y los borradores
- Hacer que la evidencia de proceso y la reflexión formen parte de la evaluación
- Valorar la “voz” y el sentido personal, no solo el acabado
Preguntas para decidir
- ¿Qué relación humana podría desplazar involuntariamente esta herramienta (apoyo docente, interacción entre pares, búsqueda de ayuda)?
- ¿Qué riesgos para el bienestar existen (ansiedad, dependencia, aislamiento, impactos identitarios)?
- ¿Cuál es nuestra política de límites para conversaciones emocionales/de apoyo con IA?
- Si un estudiante revela malestar a través de una interacción con IA, ¿cuál es nuestra ruta de protección?
- ¿Cómo protegeremos la agencia y la voz del estudiante, y no solo el rendimiento?
Conexión con el aula
Un estudiante dice que prefiere hablar con la IA porque “nunca juzga” y “siempre escucha”. El estudiante empieza a retraerse socialmente. ¿Debería intervenir la escuela? Si es así, ¿cómo hacerlo sin avergonzar al estudiante ni prohibir herramientas de manera reactiva?
- Mapeo de “escalera de apoyo” (apoyo de IA vs apoyo de pares vs apoyo adulto)
- Discusión por roles (estudiante / docente / orientador / familia)
- Crear una norma de clase: cuándo la IA es útil y cuándo los humanos son esenciales
7 Seguridad, fiabilidad y desinformación
Qué es esto
La IA puede producir respuestas que suenan seguras pero son inexactas, sesgadas, incompletas o inapropiadas. En educación, esto se convierte en un problema ético porque los estudiantes pueden:
- aceptar información falsa como verdadera,
- usar orientaciones inseguras,
- encontrarse con contenido dañino,
- o ser manipulados por respuestas persuasivas.
Aquí, la seguridad incluye fiabilidad, interacción apropiada para la edad, riesgos de contenido y procedimientos ante incidentes.
Cómo aparece en las escuelas
- Los estudiantes usan IA para investigar y citan datos erróneos
- La IA inventa fuentes, datos, citas o “evidencias” históricas
- La IA da consejos inseguros (experimentos científicos, temas de salud, autolesiones, actividad ilegal)
- Las herramientas generan contenido sesgado o sexualizado a partir de prompts inocentes
- Los estudiantes usan IA para crear desinformación o contenido estilo deepfake
- Los docentes se apoyan en resúmenes de IA que omiten matices críticos o fabrican detalles
Riesgos comunes y modos de falla
- Alucinaciones como “conocimiento”: salidas falsas presentadas con confianza
- Lavado de fuentes: citas inventadas o evidencia tergiversada
- Exposición a contenido inapropiado para la edad, incluso accidental
- Orientación insegura: instrucciones más allá de la capacidad del estudiante o de las normas de seguridad
- Manipulación y persuasión: la IA influye sutilmente en valores, decisiones o interpretaciones
- Ausencia de vía de incidentes: el personal no sabe qué hacer cuando ocurre un daño
Prácticas recomendadas
- 1) Enseñar la verificación como habilidad central en IA
- Estudiantes y personal deberían practicar:
- verificar afirmaciones con fuentes confiables
- triangular información
- reconocer incertidumbre
- distinguir “texto plausible” de evidencia
- 2) Exigir “hábitos de evidencia”, no “confianza en la IA”
- Preguntar: ¿Qué contaría como prueba?
- Fomentar: citas de fuentes confiables y lectura directa de los originales
- Usar la IA como punto de partida para la indagación, no como punto final
- 3) Usar modos más seguros y resguardos
- Preferir herramientas con configuraciones apropiadas para educación, moderación y controles de privacidad
- Limitar el chat abierto con estudiantes más pequeños
- Usar estructuras de prompt curadas (“tutor socrático”, “solo pistas”, “hazme preguntas”)
- 4) Los dominios de alto riesgo requieren límites estrictos
- Para temas como salud, autolesiones, sexualidad, actividad ilegal, experimentos peligrosos:
- no delegar en la IA
- exigir supervisión adulta y fuentes verificadas
- establecer protocolos de escalamiento
- 5) Construir un proceso claro de incidentes a nivel escolar
- Una vía práctica:
- registrar lo ocurrido (sin sobreexponer)
- apoyar al estudiante
- informar y documentar
- revisar configuraciones/elección de herramienta
- actualizar orientaciones y enseñar la lección aprendida
Preguntas para decidir
- ¿Cuál es el peor daño creíble que esta herramienta podría habilitar en nuestro contexto?
- ¿Qué resguardos existen (filtros, configuraciones por edad, moderación de contenido, controles de privacidad)?
- ¿Qué se enseñará a los estudiantes sobre verificación y desinformación?
- ¿Dónde se requiere supervisión adulta (por edad y por tema)?
- Si ocurre un incidente, ¿el personal sabe exactamente qué hacer después?
Conexión con el aula
Un estudiante usa IA para una tarea de investigación e incluye varios datos convincentes; dos son fabricados. El estudiante afirma: “No lo sabía. Sonaba real”. ¿Es una falta, una oportunidad de aprendizaje o ambas cosas? ¿Cómo debería responder la evaluación?
- Auditoría “Afirmación–Evidencia–Fuente” (los estudiantes resaltan afirmaciones y las vinculan a fuentes)
- Mini lección sobre alucinaciones y verificación de fuentes
- Reescribir los criterios de la tarea para exigir trazabilidad de evidencia y reflexión
8 Propiedad intelectual, atribución y trabajo original
Qué es esto
La IA facilita remezclar, reformular, traducir, imitar estilos y generar nuevo contenido en segundos. Eso plantea preguntas éticas sobre:
- autoría (quién creó qué),
- atribución (qué debe ser reconocido),
- propiedad intelectual (PI) (qué puede reutilizarse legal y éticamente),
- y trabajo original (qué debería seguir siendo creado por humanos en contextos de aprendizaje).
En las escuelas, el objetivo no es convertir a los estudiantes en expertos legales. Es construir hábitos honestos de autoría y normas claras que protejan la creatividad, la equidad y el aprendizaje.
Cómo aparece en las escuelas
- Los estudiantes presentan textos, arte, código o presentaciones generados por IA sin declararlo
- Los estudiantes usan IA para imitar la voz de un autor específico o el estilo de un artista vivo
- Los docentes usan IA para generar hojas de trabajo, pruebas o rúbricas que se parecen a materiales con copyright
- Los estudiantes introducen en la IA fragmentos de libros, artículos o recursos pagos
- Los equipos de marketing escolar usan imágenes de IA que se parecen a personas reales o estilos con marca registrada
- Docentes y estudiantes copian salidas de IA que incluyen fragmentos plagiados o ideas no atribuidas
Riesgos comunes y modos de falla
- Colapso de la atribución: una cultura de “todo se puede remezclar, no hace falta dar crédito”
- Plagio no intencional: estudiantes reutilizan salidas de IA que contienen formulaciones sin atribución
- Ética de la imitación de estilo: copiar estilos característicos de creadores vivos sin reflexión
- Riesgos comerciales: materiales o comunicaciones escolares violan normas de copyright/marca
- Daño al aprendizaje: el “trabajo original” se vuelve performativo en vez de una autoría significativa
Prácticas recomendadas
- Enseñar la atribución como norma, no como herramienta punitiva
- Hacerlo simple y consistente:
- “La IA ayudó con lluvia de ideas / esquematización / edición / traducción”
- “Fuentes consultadas: …”
- “Qué cambié y por qué” (evidencia de proceso)
- Definir niveles de contribución aceptable de la IA (según edad y tarea)
- Por ejemplo:
- Permitido y alentado: generación de ideas, esquemas, preguntas de práctica, retroalimentación, apoyo de traducción
- Permitido con declaración: redacción de párrafos, fragmentos de código, variaciones de diseño
- No permitido (cuando reemplaza el objetivo de aprendizaje): ensayos completos, trabajo creativo final, soluciones finales sin razonamiento del estudiante
- Exigir “valor agregado humano”
- Los estudiantes deben mostrar qué aportaron ellos:
- ejemplos personales, contexto local, argumento original, reflexión, crítica, decisiones de revisión
- una breve explicación oral o un registro de decisiones
- Enseñar reutilización responsable
- distinguir entre “inspiración” y copia
- citar las fuentes utilizadas para informar el trabajo (incluyendo la IA cuando corresponda)
- respetar las comunidades de creadores (especialmente en arte/diseño)
- Proteger el profesionalismo docente y la reputación de la escuela
- evitar subir contenido con copyright a herramientas que almacenan o reutilizan datos
- evitar generar contenido que imite materiales curriculares propietarios
- asegurar que los materiales y medios públicos de la escuela sigan normas éticas de origen y uso
Preguntas para decidir
- ¿Qué cuenta como “trabajo original” en esta tarea y por qué?
- ¿Qué ayuda de IA es aceptable para aprender (apoyo) y cuál es inaceptable (reemplazo)?
- ¿Cuál es nuestra norma más simple y apropiada para la edad sobre atribución, que los docentes puedan aplicar de forma consistente?
- ¿Estamos exponiendo al personal o a los estudiantes a riesgos de copyright a través de la elección de herramientas o de los flujos de trabajo?
- ¿Cómo enseñamos a los estudiantes que la atribución forma parte de la integridad y del respeto, no del miedo?
Conexión con el aula
Un estudiante crea una ilustración impactante usando prompts de IA en el estilo de un artista vivo. Quiere presentarla en un concurso escolar de arte como “su trabajo”. ¿Es aceptable? ¿Bajo qué condiciones (declaración, categorías, criterios)?
- Definir categorías: “original”, “asistido por IA”, “generado por IA”, “remezcla colaborativa”
- Debatir justicia y respeto por los creadores
- Redactar reglas de concurso que valoren proceso, intención y atribución
9 Gobernanza, rendición de cuentas y adopción responsable
Qué es esto
La gobernanza es la manera en que una escuela se asegura de que la IA se adopte y se use de forma responsable a lo largo del tiempo, y no solo una vez. Incluye:
- quién aprueba las herramientas,
- cómo se evalúan los riesgos,
- cómo se monitorean las prácticas,
- cómo se gestionan los incidentes,
- y cómo se mantiene la rendición de cuentas.
Sin gobernanza, la adopción de IA se vuelve inconsistente: uso entusiasta en algunas aulas, prohibiciones en otras y confusión para estudiantes y familias.
Cómo aparece en las escuelas
- Los docentes adoptan herramientas por su cuenta sin estándares compartidos ni evaluación previa
- Diferentes departamentos tienen reglas contradictorias sobre qué pueden usar los estudiantes
- Se adopta una herramienta de proveedor por eficiencia y luego surgen preocupaciones de privacidad o sesgo
- Ocurre un incidente de protección y el personal no conoce el procedimiento
- Las familias preguntan: “¿Dónde se está usando IA?” y la escuela no puede responder con claridad
- Los estudiantes aprovechan la inconsistencia (“El docente A lo permite; el docente B dice que es trampa”)
Riesgos comunes y modos de falla
- Adopción en la sombra: herramientas usadas sin revisión, documentación ni resguardos
- Vaivén de políticas: prohibiciones reactivas tras incidentes en lugar de diseño maduro
- Vacíos de responsabilidad: no hay un responsable claro de monitorear el impacto o gestionar problemas
- Dependencia excesiva de proveedores: confiar en sus afirmaciones sin evaluación independiente
- Experiencia estudiantil inconsistente: injusticia, confusión y pérdida de confianza
- Gobernanza como burocracia: procesos lentos y centrados solo en cumplimiento que ignoran la pedagogía
Prácticas recomendadas
- 1) Establecer roles y derechos de decisión
- Definir quién hace qué:
- aprobación de herramientas y compras
- revisión de privacidad/seguridad
- supervisión de protección
- orientación pedagógica
- formación y apoyo al personal
- gestión y escalamiento de incidentes
- 2) Usar una ruta de adopción responsable (simple y repetible)
- Un ciclo práctico:
- Propósito y caso de uso (¿qué problema queremos resolver?)
- Escaneo de riesgos (privacidad, equidad, seguridad, transparencia, impacto en el aprendizaje)
- Piloto (pequeña escala, documentado)
- Revisión (evidencia + retroalimentación + efectos no deseados)
- Escalar con resguardos (formación, normas, comunicación)
- Monitorear (revisiones continuas + ciclo de actualización)
- 3) Definir resguardos mínimos para toda la escuela
- Ejemplos:
- lista de herramientas aprobadas (y por qué)
- permisos y supervisión por franjas etarias
- regla de “no datos sensibles”
- expectativas de divulgación (cuándo se usa IA)
- requisitos de humano en el circuito para retroalimentación, informes y decisiones
- un proceso claro para incidentes
- 4) Comunicar con transparencia a las familias
- qué herramientas se usan y con qué propósitos
- qué prácticas de datos y resguardos existen
- cómo se enseña a los estudiantes un uso responsable
- cómo se pueden plantear inquietudes
- 5) Medir lo que importa
- Más allá de las estadísticas de uso, seguir:
- resultados de aprendizaje y agencia estudiantil
- equidad del beneficio entre grupos
- carga de trabajo docente y calidad de la retroalimentación
- indicadores de bienestar estudiantil
- tipos y frecuencia de incidentes
Preguntas para decidir
- ¿Quién es responsable de las decisiones sobre IA en esta escuela (no solo “en general”)?
- ¿Cuál es nuestro proceso para aprobar, pilotear y revisar herramientas?
- ¿Cuáles son nuestros no negociables (privacidad, protección, revisión humana, transparencia)?
- ¿Cómo aseguraremos la consistencia entre cursos y departamentos?
- ¿Cómo actualizaremos las orientaciones a medida que evolucionen las herramientas y las normas?
Conexión con el aula
Una escuela descubre que distintos docentes tienen reglas completamente distintas sobre la IA. Los estudiantes dicen que es injusto y confuso. Un líder quiere una prohibición estricta; otro quiere plena libertad. ¿Qué enfoque de gobernanza crea tanto claridad como confianza?
- Comparar resultados de tres modelos: prohibición / libertad total / uso guiado y responsable
- Redactar una “base mínima compartida” + una capa de flexibilidad docente
- Crear un acuerdo de una página para estudiantes (claro, simple y consistente)