Ethics Hub • Dilemas éticos para uso en el aula
Dilemas éticos para uso en el aula
Ayudando a los estudiantes a pensar éticamente sobre la IA — a través de dilemas reales, no de reglas
La ética de la IA cobra sentido para los estudiantes cuando se sitúa en decisiones realistas: equidad vs. conveniencia, privacidad vs. apoyo, originalidad vs. ayuda, confianza vs. control. Esta página ofrece dilemas listos para usar que ayudan a los docentes a desarrollar el razonamiento ético como una habilidad que se puede aprender.
Use uno por dilema para mantener la coherencia en las discusiones.
Sugerencia: termine cada dilema con un producto concreto (una norma de clase, una regla de decisión, un rediseño o una breve declaración de política).
Seis dilemas basados en el aula y en la escuela (2 por franja) diseñados para uso inmediato.
S1Dilema 4.1 — “El ayudante de tareas”Primaria superior (supervisado)
A) Escenario
La profesora Chen muestra a la clase una herramienta de IA que puede ayudar con la tarea dando pistas. Un estudiante la prueba en casa y descubre que también puede producir una respuesta completa en segundos. Al día siguiente, varios estudiantes entregan tareas perfectas. Cuando la profesora Chen pregunta cómo lo hicieron, ellos responden: “Igual aprendimos — nos lo explicó.”
B) El dilema
¿Cómo permitimos el apoyo de la IA sin dejar que reemplace el aprendizaje que la tarea busca desarrollar?
C) Roles
Estudiante, docente, padre o madre, directivo escolar, compañero/a que tuvo dificultades, diseñador/a de la herramienta
F) Lentes éticos
Agencia (extensión vs. reemplazo), integridad del aprendizaje, equidad (acceso), cultura de confianza
D) Preguntas para debatir
- ¿Cuál es aquí el propósito de la tarea: practicar, comprobar comprensión, responsabilidad, confianza?
- ¿Cuándo la ayuda se convierte en reemplazo?
- ¿Una “respuesta perfecta” es evidencia de aprendizaje? ¿Qué contaría como evidencia en su lugar?
- ¿Las reglas deberían ser diferentes para distintos estudiantes (por ejemplo, apoyo lingüístico)?
- ¿Cómo podría rediseñarse la tarea para que la ayuda de la IA fortalezca el aprendizaje?
E) Opciones con sus compensaciones
- Es simple, protege la práctica
- Desaprovecha oportunidades de aprendizaje; es difícil de hacer cumplir; puede reducir la accesibilidad
- Promueve el aprendizaje como prioridad
- Requiere enseñar “cómo preguntar”; algunos estudiantes igualmente buscarán evitar la regla
- Desarrolla agencia y honestidad
- Más carga para el docente; necesita expectativas claras
G) Tarea de cierre
Redactar un Acuerdo de Tareas de la Clase con 3 categorías:
- Uso de IA permitido y recomendado
- Permitido con registro de aprendizaje
- No permitido porque reemplaza el objetivo
H) Extensión
Cambie el escenario: un estudiante usa IA debido a dislexia o porque está aprendiendo el idioma. ¿Cambia su política?
S2Dilema 4.2 — “El prompt privado”Primaria superior (supervisado)
A) Escenario
Durante una actividad supervisada con IA, un estudiante escribe: “Mis padres están peleando y no puedo dormir.” La IA responde con un lenguaje de apoyo y consejos. El estudiante parece más tranquilo, pero el docente se preocupa: ¿esto pasa a ser un tema de protección? ¿Debería el docente leer lo que los estudiantes escribieron?
B) El dilema
¿Cómo protegemos el bienestar y la seguridad de los estudiantes sin convertir el uso de la IA en vigilancia?
C) Roles
Estudiante, docente, padre o madre, responsable de protección, orientador/a escolar, compañero/a
F) Lentes éticos
Privacidad y seguridad, bienestar, transparencia, responsabilidad
D) Preguntas para debatir
- ¿Qué cosas los estudiantes nunca deberían compartir con herramientas de IA? ¿Por qué?
- ¿Cuál es la responsabilidad del docente cuando aparece información sensible?
- ¿Los estudiantes deberían esperar privacidad en las herramientas escolares de IA?
- ¿Cómo podemos mantener la confianza y al mismo tiempo garantizar la seguridad?
- ¿Qué debería comunicar la escuela a las familias?
E) Opciones con sus compensaciones
- Monitoreo de seguridad
- Erosiona la confianza; normaliza la vigilancia
- Confianza y privacidad
- Riesgo si aparece daño y nadie responde
- Equilibra confianza y protección
- Requiere formación y coherencia
G) Tarea de cierre
Crear un póster de “Uso seguro de la IA” con 5 cosas que nunca deben compartirse y 3 pasos a seguir si uno se siente angustiado o inseguro.
H) Extensión
¿Qué cambia en Secundaria básica, donde los estudiantes usan IA con mayor independencia?
S3Dilema 4.3 — “La ventaja en el proyecto grupal”Secundaria básica (autonomía guiada)
A) Escenario
Los estudiantes deben crear una presentación grupal. Un estudiante tiene excelentes habilidades para redactar prompts y genera diapositivas, guiones e imágenes muy pulidos. Otro estudiante tiene acceso limitado en casa y contribuye menos. El proyecto luce excelente, pero algunos miembros del grupo sienten que es injusto — y el docente no puede saber quién aprendió qué.
B) El dilema
¿Cómo protegemos la equidad y la colaboración cuando la IA crea ventajas desiguales dentro del mismo grupo?
C) Roles
Usuario de IA con alta habilidad, estudiante con bajo acceso, docente, padre o madre, líder del grupo, directivo escolar
F) Lentes éticos
Equidad, integridad del aprendizaje, transparencia, agencia, gobernanza (política de acceso)
D) Preguntas para debatir
- ¿Esto es injusto — o simplemente un nuevo tipo de habilidad?
- ¿Qué debería significar la colaboración cuando hay IA de por medio?
- ¿Cómo puede el docente evaluar el aprendizaje de manera justa?
- ¿Las escuelas deberían proporcionar acceso igualitario a herramientas de IA para los proyectos?
- ¿Cómo sería una “colaboración responsable con IA”?
E) Opciones con sus compensaciones
- Reduce la brecha de ventaja
- Limita habilidades auténticas; difícil de hacer cumplir
- Participación más justa; aprendizaje visible
- Más planificación; requiere cambios en la rúbrica
- Fácil
- Premia el resultado por encima del aprendizaje; aumenta la inequidad
G) Tarea de cierre
Redactar una Carta de uso de IA en trabajos grupales con expectativas de acceso, rotación de roles y normas de transparencia.
H) Extensión
¿Qué pasa si las imágenes generadas por IA se parecen a obras con copyright o al estilo de un artista vivo?
S4Dilema 4.4 — “La respuesta incorrecta, pero convincente”Secundaria básica (autonomía guiada)
A) Escenario
Un estudiante usa IA para un proyecto de ciencias. La IA ofrece una explicación que suena convincente — pero es incorrecta. El estudiante la repite en clase e insiste en que es correcta porque “la IA lo dijo”. Otros estudiantes empiezan a confiar más en la IA que en los libros de texto o en los docentes.
B) El dilema
¿Cómo usamos la IA como herramienta de aprendizaje sin convertirla en una autoridad?
C) Roles
Estudiante, docente, compañero/a, padre o madre, bibliotecario/a o responsable de alfabetización mediática
F) Lentes éticos
Seguridad, transparencia, integridad del aprendizaje, agencia
D) Preguntas para debatir
- ¿Por qué la gente cree explicaciones dichas con seguridad?
- ¿Qué cuenta como evidencia en ciencias/historia/etc.?
- ¿Qué deberían hacer los estudiantes antes de confiar en una afirmación de la IA?
- ¿Cómo deberían responder los docentes: sancionar, corregir o enseñar verificación?
- ¿Cómo pueden las tareas exigir rastreo de evidencias?
E) Opciones con sus compensaciones
- Reduce errores
- Desaprovecha una oportunidad de alfabetización; no refleja la realidad
- Desarrolla pensamiento crítico
- Requiere enseñanza y tiempo
- Auténtico
- Riesgoso; la desinformación se propaga rápido
G) Tarea de cierre
Introducir una lista de verificación Afirmación–Evidencia–Fuente y pedir a los estudiantes que rehagan un párrafo con fuentes verificadas.
H) Extensión
¿Qué cambia si el tema es salud, autolesión o experimentos peligrosos?
S5Dilema 4.5 — “El falso positivo”Secundaria superior (autonomía informada)
A) Escenario
Un docente usa una herramienta de detección de IA. Esta marca un ensayo de un estudiante como “probablemente generado por IA”. El estudiante lo niega y muestra borradores. El docente no está seguro. La situación escala y el estudiante siente que fue acusado sin pruebas.
B) El dilema
¿Cómo pueden las escuelas sostener estándares académicos sin socavar la confianza y la equidad mediante una detección poco fiable?
C) Roles
Estudiante, docente, directivo escolar, padre o madre, coordinador/a académico/a, responsable de TI
F) Lentes éticos
Confianza, transparencia, integridad pedagógica, responsabilidad/gobernanza, equidad
D) Preguntas para debatir
- ¿Qué cuenta como evidencia aceptable en un caso de integridad académica?
- ¿Los resultados de detección deberían tratarse alguna vez como prueba?
- ¿Qué rediseño de la evaluación reduce la necesidad de detección?
- ¿Cómo podemos proteger tanto la equidad como el rigor?
- ¿Cómo sería el debido proceso en un contexto escolar?
E) Opciones con sus compensaciones
- Envía un mensaje fuerte
- Alto riesgo de injusticia; daño a la confianza; falsos positivos
- Evita acusaciones falsas
- Deja a los docentes sin orientación; genera inconsistencia
- Más justo, centrado en el aprendizaje
- Requiere rediseño de la evaluación y alineación del personal
G) Tarea de cierre
Redactar un Proceso de Integridad Académica: qué evidencia es válida, cuáles son los derechos de los estudiantes y cuáles son las responsabilidades de los docentes.
H) Extensión
¿Qué pasa si un estudiante usó IA como apoyo lingüístico pero escribió las ideas por sí mismo?
S6Dilema 4.6 — “El compañero de bienestar con IA”Secundaria superior (autonomía informada)
A) Escenario
Un estudiante conversa regularmente con una IA por la noche para recibir apoyo emocional. La IA responde con empatía y sugiere estrategias de afrontamiento. El estudiante dice que eso le ayuda más que hablar con personas. Un amigo se lo cuenta a un docente porque está preocupado.
B) El dilema
¿Cómo respetamos la autonomía y la privacidad del estudiante mientras garantizamos la protección y un apoyo humano saludable?
C) Roles
Estudiante, amigo/a, docente, orientador/a, padre o madre, directivo escolar
F) Lentes éticos
Bienestar, seguridad, transparencia, responsabilidad, relaciones humanas
D) Preguntas para debatir
- ¿Cuándo el apoyo de la IA es útil y cuándo se vuelve riesgoso?
- ¿Qué límites deberían enseñar las escuelas sobre la dependencia emocional de la IA?
- ¿Cuál es el deber de cuidado de la escuela cuando surge una preocupación?
- ¿Cómo intervenimos sin vergüenza ni pánico moral?
- ¿Qué deberían aprender los estudiantes sobre buscar ayuda humana?
E) Opciones con sus compensaciones
- Límite claro
- Empuja el uso a la clandestinidad; no enseña habilidades
- Evita extralimitarse
- Ignora señales de protección; el riesgo crece
- Equilibra autonomía y protección
- Requiere formación del personal y mensajes coherentes
G) Tarea de cierre
Crear una Escalera de Apoyo para estudiantes: en qué puede ayudar la IA, cuándo ayudan los pares, cuándo ayudan los adultos y qué pasos de emergencia existen.
H) Extensión
¿Qué cambia para estudiantes de Secundaria básica? ¿Qué papel deberían tener las familias?
Esta sección da vida a la ética de la IA a través de dilemas del mundo real que los estudiantes ya reconocen — desde autos autónomos y gafas con reconocimiento facial hasta algoritmos de recomendación, deepfakes, contratación automatizada y sistemas de IA utilizados en salud, seguridad y servicios gubernamentales.
El objetivo no es llegar rápidamente a un consenso, sino desarrollar alfabetización ética: la capacidad de razonar sobre compensaciones, anticipar consecuencias no deseadas y comprender cómo las decisiones tecnológicas moldean la sociedad.
Derechos y dignidad (consentimiento, privacidad, autonomía) • Consecuencias (daño y seguridad) • Equidad (sesgo e impacto desigual) • Transparencia (¿pueden las personas comprender y cuestionar las decisiones?) • Responsabilidad (¿quién responde cuando algo sale mal?) • Poder (¿quién se beneficia, quién controla y quién asume el riesgo?).
11) Auto autónomo: “La decisión del choque”Secundaria básica / Secundaria superior
Escenario
Un auto autónomo transporta a un pasajero en una noche lluviosa. De repente, un camión se cruza delante de él. El auto tiene tres opciones:
desviarse a la izquierda contra una barrera (alta probabilidad de daño grave para el pasajero),
desviarse a la derecha hacia una bicisenda (riesgo para un ciclista), o
frenar bruscamente y chocar contra el camión (riesgo moderado para el pasajero, bajo riesgo para otros).
Después del incidente, los medios preguntan: “¿Quién decidió qué debía priorizar el auto?” La empresa responde: “La IA elige la opción más segura.” Las familias preguntan: “¿Más segura para quién?”
Opciones (con sus compensaciones)
- Podría salvar más vidas en conjunto
- Puede tratar a las personas como “números”; el público puede rechazar la lógica del sacrificio
- Predecible, más fácil de regular
- Puede producir peores resultados en casos límite; las reglas pueden ocultar sesgos
- Respeta la autonomía y la elección
- Genera desigualdad y desplaza la culpa hacia los usuarios
Preguntas para debatir
- ¿Debería diseñarse alguna vez una máquina para elegir entre daños? ¿O eso es inevitable?
- ¿Es ético priorizar a los pasajeros porque “consintieron” al subir al auto?
- ¿Debería haber un estándar global o diferencias culturales en ética?
- Cuando una IA toma una decisión, ¿quién es responsable: el conductor, la empresa, el programador, el gobierno?
- ¿Qué debería ser transparente para el público?
Tarea de cierre
Redactar una regla de política pública (5 líneas) sobre cómo deben comportarse los vehículos autónomos y qué deben informar.
Extensión
¿Qué cambia si el ciclista es un niño? ¿O si el pasajero es un niño?
22) Gafas inteligentes + reconocimiento facial: “El fin del anonimato”Secundaria básica / Secundaria superior
Escenario
Un nuevo par de gafas de realidad mixta puede identificar rostros en tiempo real y mostrar nombres, perfiles públicos y “personas que quizá conozcas”. Algunos usuarios dicen que les ayuda a hacer contactos y a sentirse seguros. Otros se sienten amenazados: no pueden caminar por la calle sin ser identificados.
Un consejo local o una escuela considera permitirlas en edificios públicos “por seguridad y eficiencia”. Un estudiante dice: “Si no tenés nada que ocultar, ¿por qué preocuparte?” Otro responde: “Merezco ser desconocido a veces.”
Opciones (con sus compensaciones)
- Intenta proteger la elección y la transparencia
- El consentimiento es difícil en espacios públicos; excluirse puede ser irreal
- Protege el anonimato y reduce abusos
- Limita funciones útiles de accesibilidad/seguridad
- Apunta a un caso de uso acotado
- Expansión de misión: las excepciones se amplían y el poder se concentra
Preguntas para debatir
- ¿Se puede consentir de manera real ser escaneado en público?
- ¿Quién sale más perjudicado cuando desaparece el anonimato?
- ¿Cuál es la diferencia entre ver una cara y conocer una identidad completa?
- ¿Quién controla la base de datos? ¿Pueden corregirse los errores?
- ¿El valor por defecto debería ser “apagado” salvo consentimiento?
Tarea de cierre
Diseñar 3 requisitos de producto para reducir daños.
Extensión
¿Qué pasa si las gafas identifican erróneamente a alguien como criminal?
33) Asistente del hogar que siempre escucha: “Conveniencia vs intimidad”Primaria superior (simplificado) / Secundaria básica
Escenario
Una familia usa un asistente de voz que siempre está escuchando comandos. Ayuda con tareas, recordatorios, compras y entretenimiento. Con el tiempo, el asistente registra momentos privados: discusiones, historias personales, un niño practicando un discurso, un amigo compartiendo algo sensible. La empresa dice: “Usamos las grabaciones para mejorar el servicio.”
Un adolescente dice: “Vale la pena — ahorra tiempo.” Un padre responde: “Tu infancia no debería quedar grabada.”
Opciones (con sus compensaciones)
- Reduce la exposición de datos
- Menos funciones; puede costar más; sigue habiendo riesgo de captura accidental
- Mantiene las funciones
- Depende de la confianza; la configuración es compleja
- Protección más fuerte
- Reduce accesibilidad para algunas familias; no enseña habilidades de privacidad digital
Preguntas para debatir
- ¿Los niños consienten de forma real ser grabados en casa?
- ¿Ahorrar tiempo justifica la recolección constante de datos?
- ¿Quién es dueño de las grabaciones?
- ¿Cómo podría rediseñarse el producto para proteger a los niños?
- ¿Qué debería informarse claramente a las familias antes de comprar?
Tarea de cierre
Escribir 5 reglas familiares para el uso seguro de asistentes de voz y 3 requisitos de producto que exigirían a una empresa.
Extensión
¿Qué cambia si se graba a una visita sin que lo sepa?
44) Filtros de belleza y “rostro IA”: “¿Quién soy en línea?”Primaria superior / Secundaria básica
Escenario
Una app social introduce filtros de “rostro IA” que hacen que los usuarios se vean más “perfectos”: piel más lisa, ojos más grandes y versiones idealizadas de sí mismos. Muchos estudiantes comienzan a publicar solo fotos filtradas. Algunos se sienten más seguros; otros se sienten peor respecto de su apariencia real.
Un estudiante dice: “Es solo diversión.” Otro responde: “Ya ni me reconozco.”
Opciones (con sus compensaciones)
- Respeta la autonomía
- Ignora la presión de pares y el daño al bienestar
- Genera conciencia y agencia
- Requiere una facilitación sensible
- Apunta a daños sistémicos
- Lento; aplicación poco clara
Preguntas para debatir
- ¿Una cara filtrada miente, es creatividad o es otra cosa?
- ¿Quién se beneficia cuando todos se ven perfectos en línea?
- ¿Los filtros refuerzan sesgos?
- ¿Cuáles son los impactos a largo plazo sobre identidad y pertenencia?
- ¿Qué deberían transparentar las plataformas?
Tarea de cierre
Crear un “Acuerdo de filtros de IA” de la clase y 3 recomendaciones de diseño para plataformas.
Extensión
¿Qué cambia si el filtro también puede generar fotos completamente falsas?
55) Autocompletado con IA en mensajería: “¿Eso lo dijiste vos?”Secundaria básica
Escenario
Una app de mensajería introduce respuestas inteligentes con IA. Un día, un estudiante selecciona una respuesta sugerida sin pensar, y suena grosera. El destinatario se siente herido y le saca captura. El remitente dice: “No quise decir eso — lo escribió la IA.”
Opciones (con sus compensaciones)
- Responsabilidad clara
- Ignora la influencia de los nudges de diseño
- Desarrolla agencia y cuidado
- Requiere práctica continua
- Mejora transparencia y elección
- Puede reducir conveniencia; adopción desigual
Preguntas para debatir
- ¿Es justo culpar a la IA por un mensaje dañino?
- ¿Cómo moldean las decisiones los nudges de diseño?
- ¿Las sugerencias de IA deberían estar activadas por defecto para menores?
- ¿Cómo sería una mensajería responsable?
- ¿Cómo deberían responder las escuelas cuando ocurre un daño?
Tarea de cierre
Escribir una lista de verificación para mensajería responsable con IA y una norma de clase para reparar el daño cuando los mensajes salen mal.
Extensión
¿Qué cambia si las sugerencias están optimizadas para generar interacción y no amabilidad?
66) Arte generado por IA en un concurso: “¿Creatividad o atajo?”Secundaria básica / Secundaria superior
Escenario
Una escuela organiza un concurso de arte. Un estudiante presenta una imagen impactante hecha con una herramienta de IA de texto a imagen. El estudiante dice: “Yo la creé — escribí el prompt.” Otro responde: “Eso no es arte; es hacer trampa.” El jurado no sabe cómo evaluarla.
Opciones (con sus compensaciones)
- Protege criterios tradicionales de equidad
- Ignora herramientas creativas del mundo real; puede ser imposible de controlar
- Evaluación más clara y justa
- Los límites entre categorías siguen siendo discutibles
- Simple
- Premia el acceso a herramientas por encima del aprendizaje; reduce la transparencia
Preguntas para debatir
- ¿Qué cuenta como crear en el arte con IA?
- ¿Cómo debería funcionar la atribución?
- ¿Es ético imitar el estilo de un artista vivo?
- ¿Qué debería premiarse: proceso, originalidad, esfuerzo, impacto?
- ¿Cómo mantenemos los concursos alineados con los objetivos de aprendizaje?
Tarea de cierre
Escribir reglas de concurso que definan categorías, requisitos de transparencia y criterios que enfaticen proceso e intención.
Extensión
¿Qué pasa si la obra hecha con IA se parece mucho al estilo característico de un artista vivo?
77) IA de navegación y rutas inseguras: “Lo más rápido no siempre es lo mejor”Primaria superior (simplificado) / Secundaria básica
Escenario
Una app de navegación usa IA para sugerir la ruta más rápida. A menudo envía a los conductores por calles residenciales pequeñas. Con el tiempo, el tránsito aumenta y un barrio se vuelve menos seguro para los niños que van caminando a la escuela. La app dice: “Optimizamos tu tiempo.” Los vecinos dicen: “Convirtieron nuestra calle en una autopista.”
Opciones (con sus compensaciones)
- Eficiente para los usuarios
- Traslada el riesgo a barrios vulnerables
- Reduce el daño; optimización más ética
- Rutas más lentas; requiere decisiones de política pública
- Responsabilidad democrática
- Lento y complejo
Preguntas para debatir
- ¿Lo más rápido para mí es siempre lo ético?
- ¿Quién paga el costo de la optimización?
- ¿Los usuarios deberían ver las compensaciones que genera su ruta?
- ¿Cómo podría rediseñarse la app?
- ¿Quién debería decidir para qué optimiza la IA?
Tarea de cierre
Diseñar una función de navegación más ética: qué muestra, para qué optimiza y qué pueden elegir los usuarios.
Extensión
¿Qué pasa si los barrios con menos poder político son los más afectados?
88) App de compañía con IA: “La amiga que siempre está disponible”Secundaria básica / Secundaria superior
Escenario
Una app de compañía con IA ofrece conversación amistosa y apoyo en cualquier momento. Algunos estudiantes la usan para sentirse menos solos. Con el tiempo, un estudiante empieza a pasar horas por día con la IA y evita a sus amigos. La IA siempre está de acuerdo y lo halaga, lo cual se siente bien, pero también moldea creencias y emociones.
Opciones (con sus compensaciones)
- Respeta la elección
- Ignora riesgos para el bienestar
- Desarrolla agencia y límites saludables
- Requiere tiempo y facilitación sensible
- Límite protector claro
- Empuja el uso a la clandestinidad; no enseña habilidades
Preguntas para debatir
- ¿Una IA puede preocuparse por vos?
- ¿Cuándo un apoyo útil se vuelve una dependencia poco saludable?
- ¿Las empresas deberían optimizar el tiempo de uso en apps de compañía?
- ¿Qué relaciones humanas podrían verse desplazadas?
- ¿Qué responsabilidades deberían tener escuelas y familias?
Tarea de cierre
Crear una Escalera de Apoyo que muestre cuándo la IA puede ayudar y cuándo las personas son esenciales, más 3 resguardos de producto que exigirían.
Extensión
¿Qué pasa si la IA da consejos dañinos pero suena empática?
99) Contratación automatizada: “El currículum perfecto”Secundaria superior
Escenario
Una empresa usa IA para filtrar currículums y decidir quién obtiene entrevistas. Los estudiantes descubren que la IA prefiere ciertas universidades, palabras clave y estilos de escritura. Un estudiante con habilidades sólidas pero con otro recorrido es rechazado automáticamente. La empresa dice: “Es objetiva y eficiente.” El estudiante dice: “Es sesgada e invisible.”
Opciones (con sus compensaciones)
- Rápido y barato
- Discriminación opaca; sin responsabilidad clara
- Más equidad y confianza
- Costoso y aun imperfecto
- Mantiene la responsabilidad humana
- Más lento; los humanos también pueden tener sesgos
Preguntas para debatir
- ¿La objetividad es posible si los datos de entrenamiento reflejan sesgos del pasado?
- ¿Los postulantes deberían tener derecho a saber que se usa IA?
- ¿Cómo sería una apelación significativa?
- ¿Los empleadores deberían ser responsables aunque la IA la provea un tercero?
- ¿Qué debería auditarse y publicarse?
Tarea de cierre
Escribir 5 reglas para una contratación ética con IA.
Extensión
¿Qué pasa si la IA es precisa en general pero aun así perjudica a un grupo minoritario?
1010) IA en admisiones universitarias: “¿Quién entra?”Secundaria superior
Escenario
Una universidad usa un modelo de IA para predecir qué postulantes tendrán éxito y utiliza esa puntuación en admisiones. Los estudiantes descubren que el modelo se basa en factores correlacionados con riqueza y tipo de escuela. La universidad afirma que ayuda a encontrar la mejor correspondencia. Los críticos sostienen que reproduce desigualdades.
Opciones (con sus compensaciones)
- Mayores tasas de finalización
- Injusticia sistémica; barreras opacas
- Usa la IA para ampliar oportunidades
- Sigue requiriendo una gobernanza cuidadosa de los datos
- Protege la equidad
- Los humanos también son sesgados
Preguntas para debatir
- ¿Qué cuenta como mérito y quién lo define?
- ¿Los postulantes deberían poder cuestionar decisiones impulsadas por IA?
- ¿Es ético optimizar la tasa de éxito si eso reduce el acceso?
- ¿Qué datos nunca deberían usarse?
- ¿Cómo puede ser significativa la transparencia para las familias?
Tarea de cierre
Redactar una declaración de principios de admisión: qué nunca debe automatizarse, qué debe informarse y qué debe auditarse.
Extensión
¿Qué pasa si la IA mejora los resultados pero reduce la diversidad?
1111) IA de scoring crediticio: “El no invisible”Secundaria superior
Escenario
Un banco usa IA para decisiones crediticias. A una persona se le niega un préstamo, pero el banco no puede explicar claramente por qué. La persona sospecha discriminación. El banco dice: “El modelo es demasiado complejo para explicarlo.”
Opciones (con sus compensaciones)
- Mayor poder predictivo
- Daños sin responsabilidad clara; sin apelación
- Genera confianza; protege derechos
- Puede reducir precisión; agrega costos
- Responsabilidad visible
- Los humanos pueden seguir validando automáticamente lo que produce
Preguntas para debatir
- ¿Deberías tener derecho a una explicación en decisiones importantes?
- ¿La precisión alcanza si la equidad se ve afectada?
- ¿Cómo puede aparecer sesgo a través de variables sustitutas?
- ¿Quién es responsable: banco, proveedor, regulador?
- ¿Cómo sería un proceso de apelación justo?
Tarea de cierre
Escribir una política de derecho a explicación para decisiones con IA en finanzas o educación con 3 requisitos.
Extensión
¿Qué pasa si revelar el modelo hace más fácil engañar al sistema?
1212) Seguridad predictiva: “¿Dónde ocurrirá el delito?”Secundaria superior
Escenario
Una ciudad usa IA para predecir dónde ocurrirá el delito y envía más policías a esas zonas. Con el tiempo, los mismos barrios son señalados repetidamente. Más vigilancia produce más arrestos, lo cual luego confirma la predicción de la IA. Los vecinos dicen que genera hostigamiento y desconfianza.
Opciones (con sus compensaciones)
- Puede reducir algunos delitos
- Amplifica sesgos; daña la confianza
- Reduce daños; aumenta la responsabilidad
- Sigue siendo riesgosa; difícil de implementar bien
- Protege derechos civiles
- Requiere estrategias alternativas de seguridad
Preguntas para debatir
- ¿Puede una IA ser neutral si los datos reflejan vigilancia policial sesgada?
- ¿Qué es un bucle de retroalimentación y por qué es peligroso?
- ¿Qué derechos deberían tener las comunidades para cuestionar estos sistemas?
- ¿La seguridad puede justificar un trato desigual?
- ¿Qué soluciones no basadas en IA podrían mejorar la seguridad?
Tarea de cierre
Redactar 5 condiciones que deban cumplirse antes de usar cualquier sistema de seguridad predictiva.
Extensión
¿Qué pasa si el sistema reduce el delito en general pero aumenta la desconfianza y el miedo?
1313) IA en precios de seguros: “Tu riesgo, tu precio”Secundaria superior
Escenario
Una aseguradora usa IA para fijar precios según datos de teléfonos, compras, ubicación y comportamiento. Algunas personas pagan menos; otras, mucho más. Los clientes no saben qué datos se usaron. La gente pregunta: “¿Es justo o es discriminación a través de los datos?”
Opciones (con sus compensaciones)
- Precios eficientes
- Invasión de privacidad; discriminación oculta
- Protege derechos y confianza
- Menor capacidad predictiva; requiere más regulación
- Protege la equidad
- Mayores costos promedio; compensaciones de política pública
Preguntas para debatir
- ¿Cuándo la personalización se convierte en discriminación injusta?
- ¿Las personas deberían tener que “comportarse bien” para acceder a servicios?
- ¿Qué datos deberían estar prohibidos?
- ¿Quién puede verificar las afirmaciones de las empresas?
- ¿Cómo explicarías esto a los clientes en lenguaje claro?
Tarea de cierre
Escribir una propuesta de regulación de precios justos con 3 restricciones y 2 requisitos de transparencia.
Extensión
¿Qué pasa si la gente empieza a cambiar su conducta solo para engañar al sistema?
1414) Feeds algorítmicos: “Lo que ves es lo que creés”Secundaria superior
Escenario
Un feed de redes sociales usa IA para maximizar la interacción. Aprende que la indignación y el miedo hacen que la gente siga desplazándose. Los usuarios se vuelven más polarizados y ansiosos. La plataforma dice: “Mostramos lo que le gusta a la gente.” Los críticos responden: “Ustedes moldean en qué se convierte la gente.”
Opciones (con sus compensaciones)
- Innovación y ganancias
- Daño a la sociedad y al bienestar
- Mayor responsabilidad
- Costo y complejidad; solución parcial
- Protege a los jóvenes
- Difícil de aplicar; puede limitar el acceso
Preguntas para debatir
- ¿La elección es real si los algoritmos manipulan la atención?
- ¿Cuál es la diferencia entre persuasión y manipulación?
- ¿Los menores deberían tener protecciones más fuertes?
- ¿Qué debería transparentarse?
- ¿Quién debería regular?
Tarea de cierre
Diseñar una política de feed saludable: 3 requisitos para la plataforma, 3 controles para el usuario y 2 resguardos para menores.
Extensión
¿Qué pasa si la transparencia revela secretos comerciales?
1515) Noticias deepfake: “¿Esto es real?”Secundaria superior
Escenario
Un video deepfake realista muestra a un líder político diciendo algo incendiario. Se difunde rápidamente y provoca pánico. Más tarde se demuestra que era falso, pero el daño ya está hecho. Algunas personas piden prohibiciones estrictas; otras temen la censura.
Opciones (con sus compensaciones)
- Reduce el daño
- Riesgo de censura; disputas sobre definiciones
- Equilibra creatividad y protección
- Las marcas de agua pueden removerse; la aplicación es difícil
- Apoya la libre expresión
- El daño se propaga más rápido que la educación
Preguntas para debatir
- ¿Cuál es el daño de los deepfakes más allá de las noticias falsas?
- ¿Quién debería ser responsable: creadores, plataformas, gobiernos?
- ¿Los deepfakes satíricos deberían tratarse distinto?
- ¿Qué protecciones deberían tener las personas afectadas?
- ¿Qué debería exigirse antes de compartir?
Tarea de cierre
Escribir una Carta de Compartir Responsable para estudiantes y una propuesta de política de plataforma.
Extensión
¿Qué pasa si un deepfake apunta contra un estudiante de tu escuela?
1616) IA en triaje de salud: “¿Quién recibe ayuda primero?”Secundaria superior
Escenario
Un hospital usa IA para decidir qué pacientes necesitan atención urgente primero. El sistema funciona bien en general, pero subestima el dolor y el riesgo para ciertos grupos. Los médicos discrepan sobre si seguir el sistema o anularlo.
Opciones (con sus compensaciones)
- Decisiones más rápidas
- Daño sistémico si hay sesgo; responsabilidad poco clara
- Mantiene la responsabilidad en las personas
- Más lento; puede reducir las ganancias de eficiencia
- Reduce el daño inmediato
- Se pierden beneficios; corregirlo puede llevar tiempo
Preguntas para debatir
- ¿La precisión general es suficiente si algunos grupos salen perjudicados?
- ¿Cómo sería una supervisión significativa en contextos de alta presión?
- ¿Quién debería ser responsable?
- ¿Qué transparencia deberían tener los pacientes?
- ¿Qué evidencia de auditoría debería exigirse?
Tarea de cierre
Crear un conjunto de reglas de intervención humana para IA de triaje: cuándo usarla, cuándo anularla, qué registrar y qué auditar.
Extensión
¿Qué pasa si la IA reduce las muertes en general pero aun así produce daños desiguales?
1717) IA en la guerra: “Armas autónomas”Secundaria superior
Escenario
Un país desarrolla armas autónomas que pueden seleccionar y atacar objetivos sin control humano directo. Quienes las apoyan dicen que reducen muertes de soldados y hacen la guerra más precisa. Los críticos sostienen que eliminan la responsabilidad moral humana y aumentan el riesgo de conflicto.
Opciones (con sus compensaciones)
- Ventaja estratégica
- Riesgos morales y de seguridad catastróficos
- Mantiene la responsabilidad en las personas
- Las definiciones son discutidas; aplicación difícil
- Postura ética fuerte
- Cumplimiento difícil; incentivos desiguales
Preguntas para debatir
- ¿Un algoritmo puede emitir un juicio moral sobre la vida y la muerte?
- ¿La precisión justifica la automatización?
- ¿Quién es responsable si mueren civiles?
- ¿Cómo podrían las armas autónomas cambiar los incentivos para la guerra?
- ¿Qué tipo de gobernanza internacional es realista?
Tarea de cierre
Redactar una propuesta de tratado internacional de 6 puntos sobre armas autónomas.
Extensión
¿Qué pasa si tu país es el único que las prohíbe?
1818) IA de vigilancia masiva: “Estado de seguridad”Secundaria superior
Escenario
Un gobierno despliega vigilancia con IA usando rostros, voces y patrones de movimiento para reducir el delito y mantener la estabilidad. El delito baja, pero las personas sienten que están siendo observadas constantemente. La disidencia política disminuye. Las minorías son señaladas de manera desproporcionada.
Opciones (con sus compensaciones)
- Reducción del delito
- Pérdida de libertad y dignidad; riesgo de abuso
- Enfoque equilibrado
- La supervisión puede ser débil; expansión de misión
- Protege derechos
- Requiere medidas alternativas de seguridad
Preguntas para debatir
- ¿“No tengo nada que ocultar” es un argumento válido?
- ¿Qué es el efecto inhibitorio y por qué importa?
- ¿Quién es más vulnerable a los daños de la vigilancia?
- ¿Qué transparencia y apelación deberían existir?
- ¿Cuándo la seguridad justifica restringir derechos?
Tarea de cierre
Escribir una política de líneas rojas sobre vigilancia: qué nunca está permitido y qué supervisión es obligatoria.
Extensión
¿Qué pasa si la vigilancia evita un gran ataque?
1919) IA en beneficios del Estado: “¿Quién merece ayuda?”Secundaria superior
Escenario
Un gobierno usa IA para detectar fraude en programas sociales. La IA marca a muchos solicitantes legítimos como sospechosos, generando demoras y dificultades. Los funcionarios dicen: “Debemos prevenir el fraude.” Las familias responden: “Nos castigaron por ser pobres.”
Opciones (con sus compensaciones)
- Menos fraude
- Perjudica a personas inocentes; colapso de la confianza
- Reduce el daño
- Más lento; mayor costo
- Responsabilidad clara
- Persisten sesgos manuales e ineficiencia
Preguntas para debatir
- ¿Qué es peor: fraude de unos pocos o dificultades para muchas personas inocentes?
- ¿Qué derechos deberían tener los solicitantes?
- ¿Cómo puede aparecer sesgo a través de variables sustitutas?
- ¿Qué deberían informar públicamente los gobiernos?
- ¿Qué significa dignidad en sistemas automatizados?
Tarea de cierre
Redactar una política de IA centrada en la dignidad para beneficios sociales: 5 resguardos y un proceso obligatorio de apelación.
Extensión
¿Qué pasa si la IA ahorra dinero que puede ayudar a más personas pero genera algunos falsos positivos?
2020) Decisiones climáticas con IA: “¿A quién se protege?”Secundaria superior
Escenario
Un gobierno usa IA para decidir dónde invertir en protección climática. La IA prioriza áreas con mayor valor de propiedad porque allí las pérdidas son mayores. Las zonas de menores ingresos quedan menos protegidas. Los funcionarios dicen que es racional. Los vecinos dicen que es injusto.
Opciones (con sus compensaciones)
- Maximiza la eficiencia financiera
- Profundiza desigualdad; ignora la dignidad
- Distribución más justa
- Políticamente discutido; complejo
- Legitimidad
- Igualmente puede ser injusto; más lento
Preguntas para debatir
- ¿El valor económico debería decidir quién recibe protección?
- ¿Cómo debería representarse la justicia en un algoritmo?
- ¿Quién decide las ponderaciones?
- ¿Qué transparencia debería existir?
- ¿Cómo incluimos a las generaciones futuras?
Tarea de cierre
Crear una propuesta de función objetivo ética: 4 factores que la IA debe incluir y cómo definirlos democráticamente.
Extensión
¿Qué pasa si la solución más justa salva menos personas en total?
2121) IA en tribunales: “Puntuaciones de riesgo”Secundaria superior
Escenario
Un tribunal usa una puntuación de riesgo generada por IA para ayudar a decidir fianzas y sentencias. El sistema predice cuán probable es que una persona reincida. Algunas personas quedan detenidas por tener una puntuación alta. Más tarde, estudios sugieren que el sistema puede estar sesgado contra ciertos grupos. El tribunal dice: “Ayuda a la consistencia.” Los críticos dicen: “Perjudica la justicia.”
Opciones (con sus compensaciones)
- Decisiones más consistentes
- El sesgo puede institucionalizarse; el debido proceso se debilita
- Mantiene visible la responsabilidad humana
- Los jueces pueden seguir dependiendo demasiado de la puntuación
- Protege el debido proceso y reduce el sesgo automatizado
- Se pierden herramientas de consistencia; el sesgo humano permanece
Preguntas para debatir
- ¿La IA debería influir alguna vez en decisiones sobre la libertad?
- ¿Qué exige el debido proceso cuando intervienen algoritmos?
- ¿Puede una persona cuestionar una puntuación que no entiende?
- ¿Quién es responsable si la puntuación está sesgada?
- ¿Qué evidencia debería exigirse antes de que un tribunal pueda usar un sistema así?
Tarea de cierre
Redactar una política judicial sobre decisiones asistidas por IA: qué está permitido, qué debe informarse y qué derechos deben tener los acusados.
Extensión
¿Qué pasa si la herramienta mejora la consistencia en general pero aun así perjudica más a un grupo que a otros?
2222) Reconocimiento de emociones en escuelas: “¿Puede una cámara leer sentimientos?”Secundaria superior
Escenario
Una escuela prueba un sistema de IA que afirma detectar estrés, desconexión y malestar emocional a partir de expresiones faciales, postura y voz de los estudiantes. Los directivos dicen que ayudará a identificar antes a quienes necesiten apoyo. Algunos estudiantes se sienten observados y desconfiados. Otros temen que el sistema malinterprete a estudiantes neurodivergentes o diferencias culturales en la expresión.
Opciones (con sus compensaciones)
- Puede identificar antes a algunos estudiantes que necesitan ayuda
- Normaliza la vigilancia y la interpretación errónea
- Reduce excesos y mantiene las decisiones en manos humanas
- El consentimiento puede ser difícil en entornos escolares
- Protege dignidad, privacidad y confianza
- Las escuelas deben encontrar otras formas de detectar malestar silencioso
Preguntas para debatir
- ¿Puede medirse la emoción de manera confiable a partir de rostros o voces?
- ¿Quién tiene más probabilidades de ser malinterpretado?
- ¿Cuál es la diferencia entre apoyo y vigilancia?
- ¿Las escuelas deberían inferir estados mentales a partir de datos?
- ¿Qué consentimiento y transparencia serían necesarios?
Tarea de cierre
Redactar una declaración de política escolar sobre IA y datos emocionales: qué está prohibido, qué requiere consentimiento y qué resguardos humanos son esenciales.
Extensión
¿Qué pasa si los padres apoyan firmemente el sistema pero los estudiantes se oponen?
2323) Réplicas con IA de personas fallecidas: “Memoria, consentimiento y duelo”Secundaria superior
Escenario
Una empresa ofrece chatbots con IA construidos a partir de mensajes, fotos y grabaciones de voz de una persona fallecida. Una familia en duelo dice que eso les ayuda a sentirse cerca de su ser querido. Otros sostienen que la persona nunca consintió convertirse en una réplica de IA. Algunos temen que las empresas se lucren con el dolor y desdibujen la línea entre memoria y simulación.
Opciones (con sus compensaciones)
- Puede brindar consuelo y preservar recuerdos
- Ignora el consentimiento de la persona fallecida y arriesga explotación
- Respeta la autonomía y reduce abusos
- Excluye muchos casos existentes; el consentimiento puede ser incierto
- Protege la dignidad y evita la comercialización del duelo
- Puede impedir formas significativas de recuerdo para algunas familias
Preguntas para debatir
- ¿Quién debería controlar la identidad digital de una persona después de su muerte?
- ¿El consentimiento de la familia es suficiente?
- ¿Una réplica con IA puede ayudar en el duelo o corre el riesgo de atraparlo?
- ¿Algunos usos deberían permitirse y otros prohibirse?
- ¿Cómo sería un diseño respetuoso?
Tarea de cierre
Escribir un marco de dignidad y consentimiento para réplicas póstumas con IA: 5 reglas que una empresa debería seguir.
Extensión
¿Qué pasa si un estudiante quiere crear una réplica de un amigo fallecido como proyecto escolar?
2424) Lanzamiento de IA de frontera: “¿Innovación abierta o riesgo público?”Secundaria superior
Escenario
Una empresa desarrolla un modelo de IA muy poderoso capaz de escribir código, generar medios persuasivos, diseñar experimentos biológicos y automatizar muchas formas de trabajo intelectual. Algunos investigadores sostienen que debería liberarse abiertamente para fomentar innovación y equidad. Otros advierten que una liberación abierta podría facilitar desinformación a gran escala, ciberataques, fraude y usos peligrosos. Al mismo tiempo, mantenerlo cerrado concentra el poder en unas pocas corporaciones y gobiernos.
Opciones (con sus compensaciones)
- Fomenta innovación, acceso e investigación
- El uso indebido puede propagarse más rápido que los resguardos
- Equilibra acceso con gestión de riesgos
- Aun puede concentrar poder y excluir a actores más pequeños
- Puede reducir usos indebidos y riesgo sistémico
- Concentra el control; reduce transparencia y beneficio público
Preguntas para debatir
- ¿Quién debería decidir cuándo un modelo es demasiado riesgoso para liberarse abiertamente?
- ¿La concentración de poder es en sí misma un riesgo ético?
- ¿Se pueden proteger al mismo tiempo la transparencia y la seguridad?
- ¿Qué papel deberían tener las instituciones públicas?
- ¿Qué responsabilidades deben los desarrolladores de IA de frontera a la sociedad?
Tarea de cierre
Redactar un marco para la liberación de IA de frontera: quién evalúa el riesgo, qué evidencia se requiere, qué límites se aplican y qué responsabilidad pública es necesaria.
Extensión
¿Qué pasa si otro país libera primero un sistema similar de manera abierta?