Ethics Hub • Herramientas para la toma de decisiones institucionales

Herramientas para la toma de decisiones institucionales

Recursos prácticos para que las escuelas adopten la inteligencia artificial de manera responsable, transparente y segura

Las decisiones institucionales vinculadas con el uso de inteligencia artificial no deberían quedar libradas al entusiasmo individual, a promesas comerciales ni a respuestas reactivas posteriores a un incidente. Esta página reúne herramientas prácticas para que los equipos directivos y el personal escolar puedan evaluar herramientas y usos pedagógicos de IA, desarrollar pilotos acotados y seguros, comunicarse con claridad con las familias y sostener mecanismos de supervisión y rendición de cuentas en el tiempo.

Estas herramientas buscan promover criterios consistentes en toda la institución, preservando al mismo tiempo el espacio necesario para la creatividad pedagógica y la autonomía profesional docente.

En esta página
5.1 Lista de verificación para la evaluación ética

Esta lista puede utilizarse antes de adoptar una herramienta, aprobar un nuevo caso de uso o ampliar una práctica ya existente. Resulta aplicable tanto a:

  • Herramientas (aplicaciones, plataformas o funcionalidades), como a
  • Actividades (por ejemplo, una secuencia o tarea pedagógica con apoyo de IA planificada por un docente)
APropósito y valor educativo
  • ¿Qué problema se busca resolver y por qué la IA aporta valor en este caso?
  • ¿Cuál es el beneficio esperado: mejora en la calidad del aprendizaje, mayor equidad, reducción de carga, accesibilidad, personalización, seguridad?
  • ¿Cómo se evidenciará el éxito en términos observables o medibles?
Señal de alerta: la IA aporta velocidad o presentación, pero debilita el pensamiento, la agencia o la calidad de las relaciones pedagógicas.
BUsuarios y contexto de uso
  • ¿Quiénes utilizarán esta herramienta o actividad: estudiantes, docentes, familias, personal administrativo?
  • ¿Para qué edades está pensada y qué grado de supervisión requiere?
  • ¿Funciona adecuadamente en distintos idiomas, acentos, perfiles neurodiversos y dispositivos?
Señal de alerta: su uso seguro depende de altos niveles de alfabetización digital o beneficia solo a determinados grupos.
CDatos, privacidad y seguridad
  • ¿Qué datos se ingresan o generan (prompts, archivos, historiales, analíticas, identificadores)?
  • ¿Se requieren datos personales o sensibles de estudiantes? Si es así, ¿es estrictamente necesario?
  • ¿Dónde se almacenan los datos, durante cuánto tiempo y quién puede acceder a ellos?
  • ¿Pueden eliminarse? ¿Se utilizan para entrenamiento o mejora del producto?
No negociable: los datos sensibles de menores no deben ingresarse en herramientas de IA de propósito general.
DSeguridad y protección
  • ¿Qué tipos de resultados problemáticos podrían producirse (desinformación, contenido inapropiado, manipulación, indicaciones inseguras)?
  • ¿Qué resguardos ofrece la herramienta (filtros, modo seguro, restricciones, mecanismos de reporte)?
  • ¿Existe una vía clara de actuación ante incidentes vinculados con protección y cuidado?
Señal de alerta: no existe un procedimiento claro ante incidentes o el personal desconoce cómo responder.
ETransparencia y confianza
  • ¿La escuela puede explicar con claridad a estudiantes y familias cuándo y cómo se utiliza IA?
  • ¿Las producciones asistidas por IA se identifican cuando corresponde?
  • ¿Existe una explicación sencilla sobre los límites de la herramienta y la posibilidad de error?
Señal de alerta: la IA se utiliza de manera invisible o sus resultados se interpretan como definitivos o incuestionables.
FEquidad y sesgos
  • ¿Podrían producirse resultados desiguales o injustos para distintos grupos?
  • ¿La herramienta genera ventajas diferenciales por acceso, capacidad de prompting o disponibilidad de funciones premium?
  • ¿Hay mecanismos previstos para monitorear impactos desproporcionados?
Señal de alerta: se realizan afirmaciones de neutralidad u objetividad sin evidencia suficiente.
GSupervisión humana
  • ¿Qué decisiones requieren siempre revisión humana (evaluación, agrupamientos, disciplina, bienestar, derivaciones)?
  • ¿Quién es responsable por las decisiones influenciadas por IA?
  • ¿Qué registros o evidencias respaldan la revisión de dichas decisiones?
Señal de alerta: la IA pasa a cumplir, de hecho, el rol de tomadora de decisiones.
HIntegridad pedagógica y agencia estudiantil
  • ¿La herramienta amplía el pensamiento del estudiante o lo reemplaza?
  • ¿Qué evidencias de proceso se requerirán (borradores, reflexión, defensa oral, hitos de seguimiento)?
  • ¿Cómo enseñará la institución el uso responsable de IA de forma explícita?
Resultado sugerido de la evaluación: ✅ Aprobar  |  ✅ Aprobar solo como piloto  |  ⚠ Aprobar con condiciones  |  ❌ No aprobar
5.2 Guía de adopción responsable (Propósito → Piloto → Evaluación → Escalamiento)

Un recorrido institucional replicable para orientar la adopción de cualquier herramienta de IA o caso de uso significativo.

1
Definir propósito y alcance
  • Declaración de propósito: “Utilizamos IA para ________, con el fin de ________.”
  • Definir expresamente para qué no se utilizará la IA, especialmente en decisiones de alto impacto.
  • Precisar edades, destinatarios y nivel de supervisión requerido.
2
Realizar un análisis preliminar de riesgos

Valorar el caso de uso en relación con privacidad y datos, protección, equidad, transparencia, integridad del aprendizaje y supervisión humana.

3
Implementar un piloto acotado y documentado
  • Desarrollar el piloto con un número limitado de cursos, equipos o áreas.
  • Establecer un plazo definido (por ejemplo, entre 4 y 8 semanas).
  • Proveer orientaciones al personal, guiones de uso y reglas claras sobre datos que no deben ingresarse.
  • Definir de antemano qué evidencias se recogerán.
4
Evaluar evidencias y experiencia de uso

Recoger información sobre:

  • impacto en el aprendizaje y en la calidad del trabajo pedagógico
  • impacto en la carga laboral docente
  • efectos en la equidad (quiénes se beneficiaron y quiénes encontraron barreras)
  • incidentes, errores o situaciones de riesgo
  • percepción de estudiantes y familias (claridad, confianza, inquietudes)
5
Tomar decisiones y, si corresponde, escalar

Si se decide avanzar:

  • actualizar lineamientos y propuestas de formación
  • definir normas institucionales de uso
  • elaborar comunicaciones transparentes para las familias
  • formalizar requisitos de supervisión humana
  • establecer una frecuencia de monitoreo institucional
6
Monitorear, revisar y actualizar
  • realizar revisiones periódicas o renovaciones anuales
  • utilizar incidentes y aprendizajes para ajustar políticas
  • seguir los cambios en herramientas, comportamientos y condiciones de uso
5.3 Plantillas institucionales

Despliega cualquier plantilla, cópiala y adapta los campos entre corchetes según tu contexto institucional.

AComunicación a las familias (nota de transparencia)Expandir
Asunto: Uso de herramientas de inteligencia artificial en [Nombre de la Escuela] Estimadas familias: En [Nombre de la Escuela], utilizamos determinadas herramientas con capacidades de inteligencia artificial para apoyar el aprendizaje y algunos procesos institucionales, en coherencia con nuestro compromiso con el bienestar estudiantil, la privacidad y una enseñanza de alta calidad. Finalidad del uso: La inteligencia artificial puede utilizarse para apoyar tareas como la redacción de devoluciones, el acompañamiento lingüístico, la práctica diferenciada, la síntesis de materiales de aprendizaje o la mejora de la eficiencia administrativa, siempre con un propósito pedagógico u operativo claro. Lo que esto no implica: La inteligencia artificial no reemplaza el criterio profesional docente, las relaciones humanas ni la responsabilidad institucional. No se utiliza para tomar decisiones finales de alto impacto sobre estudiantes sin revisión humana y sin mecanismos de rendición de cuentas. Privacidad y protección: Aplicamos criterios de minimización de datos y orientaciones claras para estudiantes y personal. No deben ingresarse datos personales sensibles en herramientas de IA de propósito general. Asimismo, revisamos las prácticas de privacidad de los proveedores y utilizamos resguardos acordes con la edad y el nivel de autonomía de los estudiantes. Transparencia y aprendizaje: La escuela enseña explícitamente a los estudiantes a utilizar la IA de manera responsable, incluyendo la verificación de información, la protección de la privacidad y la distinción entre usos que amplían el pensamiento y usos que lo reemplazan. Si desean realizar consultas, expresar inquietudes o conocer más sobre las herramientas utilizadas y los resguardos implementados, pueden comunicarse con [Rol/Correo electrónico] o visitar: [https://centerforai.education/ethics/]. Atentamente, [Nombre, Cargo]
BAcuerdo de uso aceptable para estudiantes (IA)Expandir
Acuerdo de uso de inteligencia artificial para estudiantes — [Nombre de la Escuela] Objetivo: Utilizar la inteligencia artificial para fortalecer el aprendizaje, la creatividad y la toma de decisiones responsables. Me comprometo a: Utilizar la IA como apoyo para aprender, practicar, recibir sugerencias o mejorar mi trabajo, y no como un atajo que reemplace mi pensamiento. Proteger la privacidad: no ingresar información personal, sensible o identificatoria sobre mí o sobre otras personas. Verificar la información: revisar afirmaciones importantes utilizando fuentes confiables. Actuar con honestidad académica: seguir las reglas del curso respecto de atribución y declaración cuando la IA haya contribuido a mi trabajo. Utilizar la IA con respeto: no usarla para acosar, engañar, suplantar identidades ni crear contenido dañino. No haré lo siguiente: Entregar trabajos generados por IA como si fueran completamente propios cuando la tarea busque evaluar mi pensamiento. Usar IA para producir desinformación, deepfakes o contenidos dañinos. Compartir información privada de la escuela o de otros estudiantes en herramientas de IA. Si tengo dudas sobre qué está permitido, consultaré antes de actuar. Firma del estudiante: _______ Fecha: _______ Docente/Tutor: _______ (Complemento opcional por edad: ejemplos de “Permitido / Permitido con declaración / No permitido”).
CProtocolo de datos y privacidad para el personalExpandir
Protocolo institucional de datos y privacidad en IA — [Nombre de la Escuela] 1) Minimización de datos: Las herramientas de IA deben utilizarse únicamente cuando exista un propósito educativo u operativo claro y cuando los datos involucrados sean estrictamente necesarios. 2) Prohibición de ingreso de datos sensibles o identificatorios: No deben ingresarse identificadores personales de estudiantes, datos de salud, información legal o financiera familiar, registros de bienestar o protección, ni documentos confidenciales en herramientas de IA de propósito general, salvo autorización expresa y uso dentro de entornos seguros. 3) Uso exclusivo de herramientas aprobadas: El personal deberá utilizar únicamente herramientas incluidas en la lista institucional aprobada para tareas que involucren trabajos estudiantiles o información escolar. 4) Almacenamiento y retención: Siempre que sea posible, se desactivará la retención de historiales, se evitarán registros innecesarios y se respetarán las normas institucionales de conservación y eliminación de información. 5) Condiciones del proveedor: Debe revisarse si las entradas se utilizan para entrenamiento o mejora del producto. En caso afirmativo, la aprobación deberá ser explícita y documentada. 6) Respuesta ante incidentes: Ante una salida inapropiada, exposición de datos o una preocupación vinculada con protección o bienestar, se deberá: – interrumpir el uso inmediatamente – documentar el incidente en la medida necesaria – informar a [Rol designado] – seguir los procedimientos institucionales correspondientes – revisar configuraciones, lineamientos o decisiones de uso
DRequisitos de supervisión humana (no negociables)Expandir
Requisitos de supervisión humana — [Nombre de la Escuela] La inteligencia artificial puede colaborar en tareas de redacción, síntesis, generación de opciones o formulación de sugerencias. Sin embargo, los siguientes aspectos deben ser siempre revisados y aprobados por una persona calificada: Siempre con revisión humana: – decisiones de evaluación y calificación – decisiones de agrupamiento, derivación o trayectoria – medidas disciplinarias – decisiones vinculadas con protección y bienestar – comunicaciones oficiales sobre estudiantes (informes, derivaciones, referencias) – cualquier recomendación que pueda afectar de manera sustantiva las oportunidades de un estudiante Responsabilidades humanas: – verificar afirmaciones fácticas en contextos de alto impacto – revisar la pertinencia, equidad y adecuación cultural y etaria – asegurar que las decisiones sean explicables y revisables – documentar el criterio utilizado cuando la IA haya influido en un resultado
Sugerencia: estas plantillas pueden enlazarse desde el manual del personal, el portal de familias o los materiales de inducción institucional. Conviene mantenerlas breves, coherentes y actualizadas cuando cambian las herramientas o los criterios de uso.
5.4 Casos de uso frecuentes: resguardos recomendados

Esta sección busca ayudar al personal a pasar de la pregunta “¿podemos utilizar IA?” a una más pertinente: “¿cómo la utilizamos de manera responsable en este contexto?”

DevolucionesCorrecciónTrabajo docente

Caso de uso 1 — Apoyo para devoluciones y corrección

Usos adecuados: redactar comentarios de devolución, generar ejemplos de referencia, sugerir próximos pasos.

Resguardos:

  • la versión final debe ser revisada por el docente
  • evitar el uso de datos sensibles
  • preservar la voz profesional del docente
  • solicitar evidencias de proceso por parte del estudiante

Evitar:

  • calificación automatizada sin revisión
  • utilizar la IA como árbitro final en disputas o reclamaciones
TutoríaPrácticaAndamiaje

Caso de uso 2 — Tutoría y práctica

Usos adecuados: tutoría basada en pistas, preguntas de práctica, recuperación activa, andamiajes adaptativos.

Resguardos:

  • verificar la calidad del contenido
  • utilizar configuraciones seguras
  • establecer límites apropiados a la edad
  • enseñar hábitos de verificación y contraste

Evitar:

  • chat abierto sin delimitación para estudiantes pequeños
  • dependencia de la IA en contextos de alto impacto
ChatbotsAsistentes de cursoApoyo

Caso de uso 3 — Chatbots de aula

Usos adecuados: preguntas frecuentes, apoyo con glosarios, aclaración de consignas, orientación de recursos.

Resguardos:

  • identificar con claridad que se trata de un sistema de IA
  • delimitar su alcance y propósito
  • ofrecer siempre una vía para consultar a una persona
  • monitorear errores y posibles desinformaciones

Evitar:

  • presentarlo como fuente de autoridad final
  • habilitar consejos personales
  • utilizarlo para acompañamiento emocional o de bienestar
AnalíticasPatronesApoyo

Caso de uso 4 — Analíticas de aprendizaje

Usos adecuados: detectar patrones que orienten apoyos, visibilizar carga de trabajo, apoyar decisiones de asignación de recursos.

Resguardos:

  • no etiquetar estudiantes como “de alto riesgo” sin contexto ni revisión
  • utilizar los resultados como insumo para la indagación humana, no como conclusión automática

Evitar:

  • seguimiento automatizado con consecuencias disciplinarias
  • puntajes opacos o no explicables
  • perfilamiento invisible para estudiantes o familias
ContenidosDiferenciaciónPublicación

Caso de uso 5 — Generación de contenidos

Usos adecuados: redactar materiales, adaptar niveles de lectura, producir variantes, generar ejemplos o apoyos comunicacionales.

Resguardos:

  • verificar precisión y calidad
  • revisar sesgos, inclusión y adecuación cultural
  • respetar derechos de autor y atribución
  • evitar cargar materiales propietarios o confidenciales

Evitar:

  • publicar contenidos sin revisión
  • replicar recursos protegidos por copyright
  • utilizar IA para imitar voces, identidades o estilos de forma engañosa
Práctica sugerida: vincular cada caso de uso con la Lista de verificación para la evaluación ética anterior y dejar registro institucional de la decisión adoptada (Aprobar / Piloto / Con condiciones / No aprobar).