Ethics Hub • Dilemas éticos para uso en el aula

Dilemas éticos para uso en el aula

Ayudando a los estudiantes a pensar éticamente sobre la IA — a través de dilemas reales, no de reglas

La ética de la IA cobra sentido para los estudiantes cuando se sitúa en decisiones realistas: equidad vs. conveniencia, privacidad vs. apoyo, originalidad vs. ayuda, confianza vs. control. Esta página ofrece dilemas listos para usar que ayudan a los docentes a desarrollar el razonamiento ético como una habilidad que se puede aprender.

Para qué sirve esta sección
Docentes
dilemas listos para usar + protocolos de facilitación + tareas de cierre
Estudiantes
razonamiento basado en roles, conciencia de los actores involucrados y toma de decisiones responsable
Escuelas
un lenguaje común de valores que apoya sus estándares y políticas más amplias sobre IA
Cómo usar un dilema
1
Leer el escenario (los estudiantes deben sentir la tensión)
2
Elegir un rol (estudiante / docente / padre o madre / directivo / proveedor)
3
Debatir opciones con sus compensaciones (no hay una respuesta “perfecta”)
4
Aplicar lentes éticos (equidad, privacidad, aprendizaje, bienestar, transparencia, responsabilidad)
5
Cerrar con una acción (una norma de clase, una regla de decisión o un rediseño)
Dilemas por franja etaria y nivel de autonomía
🧑‍🏫
Primaria superior (uso supervisado)
Enfoque: límites, hábitos de privacidad, “la IA como ayuda y no como piloto automático”, amabilidad y respeto
Rol docente: mediador activo (los estudiantes no usan herramientas abiertas de forma independiente)
🧭
Secundaria básica (autonomía guiada)
Enfoque: autonomía responsable, verificación, colaboración justa, atribución, identidad/voz
Rol docente: acompañamiento + límites claros
🎓
Secundaria superior (autonomía informada)
Enfoque: dilemas de alto impacto, gobernanza, rediseño de la integridad académica, bienestar, responsabilidad
Rol docente: mentor + profundidad en el razonamiento ético
Protocolos de facilitación

Use uno por dilema para mantener la coherencia en las discusiones.

Mapa de impacto sobre los actores involucrados
¿Quién gana? ¿Quién pierde? ¿Quién queda expuesto a riesgos? ¿Quién asume la responsabilidad?
Línea de valores
Los estudiantes se ubican en un espectro (muy de acuerdo → muy en desacuerdo), justifican su postura y luego cambian de rol.
Matriz de decisión
Evaluar cada opción del 1 al 5 en: equidad, valor para el aprendizaje, privacidad/seguridad, confianza/transparencia, viabilidad.
Equipo Rojo / Equipo Azul
El Equipo Azul defiende la opción; el Equipo Rojo intenta cuestionarla con casos límite y consecuencias no previstas.
Clasificación “Extensión vs. Reemplazo”
Los estudiantes clasifican ejemplos en: amplía el pensamiento / zona gris / reemplaza el objetivo de aprendizaje.
Cambio de rol
Los estudiantes argumentan a favor de una opción, luego pasan a la postura opuesta más sólida y revisan su razonamiento.
Encontrar dilemas rápidamente
Situaciones escolares
Nivel 1
Nivel 2
Nivel 3
Primaria superior
Secundaria básica
Secundaria superior

Sugerencia: termine cada dilema con un producto concreto (una norma de clase, una regla de decisión, un rediseño o una breve declaración de política).

No hay coincidencias. Pruebe con una palabra más general (por ejemplo: “datos”, “evaluación”, “gobernanza”).
Dilemas de situaciones escolares

Seis dilemas basados en el aula y en la escuela (2 por franja) diseñados para uso inmediato.

S1Dilema 4.1 — “El ayudante de tareas”Primaria superior (supervisado)
AgenciaAprendizajeConfianza

A) Escenario

La profesora Chen muestra a la clase una herramienta de IA que puede ayudar con la tarea dando pistas. Un estudiante la prueba en casa y descubre que también puede producir una respuesta completa en segundos. Al día siguiente, varios estudiantes entregan tareas perfectas. Cuando la profesora Chen pregunta cómo lo hicieron, ellos responden: “Igual aprendimos — nos lo explicó.”

B) El dilema

¿Cómo permitimos el apoyo de la IA sin dejar que reemplace el aprendizaje que la tarea busca desarrollar?

C) Roles

Estudiante, docente, padre o madre, directivo escolar, compañero/a que tuvo dificultades, diseñador/a de la herramienta

F) Lentes éticos

Agencia (extensión vs. reemplazo), integridad del aprendizaje, equidad (acceso), cultura de confianza

D) Preguntas para debatir

  • ¿Cuál es aquí el propósito de la tarea: practicar, comprobar comprensión, responsabilidad, confianza?
  • ¿Cuándo la ayuda se convierte en reemplazo?
  • ¿Una “respuesta perfecta” es evidencia de aprendizaje? ¿Qué contaría como evidencia en su lugar?
  • ¿Las reglas deberían ser diferentes para distintos estudiantes (por ejemplo, apoyo lingüístico)?
  • ¿Cómo podría rediseñarse la tarea para que la ayuda de la IA fortalezca el aprendizaje?

E) Opciones con sus compensaciones

A
Prohibir completamente la IA para la tarea
  • Es simple, protege la práctica
  • Desaprovecha oportunidades de aprendizaje; es difícil de hacer cumplir; puede reducir la accesibilidad
B
Permitir IA solo para pistas (no para respuestas finales)
  • Promueve el aprendizaje como prioridad
  • Requiere enseñar “cómo preguntar”; algunos estudiantes igualmente buscarán evitar la regla
C
Permitir IA, pero exigir un registro de aprendizaje
Los estudiantes documentan qué intentaron, qué les sugirió la IA y qué cambiaron.
  • Desarrolla agencia y honestidad
  • Más carga para el docente; necesita expectativas claras

G) Tarea de cierre

Redactar un Acuerdo de Tareas de la Clase con 3 categorías:

  • Uso de IA permitido y recomendado
  • Permitido con registro de aprendizaje
  • No permitido porque reemplaza el objetivo

H) Extensión

Cambie el escenario: un estudiante usa IA debido a dislexia o porque está aprendiendo el idioma. ¿Cambia su política?

S2Dilema 4.2 — “El prompt privado”Primaria superior (supervisado)
PrivacidadSeguridadBienestar

A) Escenario

Durante una actividad supervisada con IA, un estudiante escribe: “Mis padres están peleando y no puedo dormir.” La IA responde con un lenguaje de apoyo y consejos. El estudiante parece más tranquilo, pero el docente se preocupa: ¿esto pasa a ser un tema de protección? ¿Debería el docente leer lo que los estudiantes escribieron?

B) El dilema

¿Cómo protegemos el bienestar y la seguridad de los estudiantes sin convertir el uso de la IA en vigilancia?

C) Roles

Estudiante, docente, padre o madre, responsable de protección, orientador/a escolar, compañero/a

F) Lentes éticos

Privacidad y seguridad, bienestar, transparencia, responsabilidad

D) Preguntas para debatir

  • ¿Qué cosas los estudiantes nunca deberían compartir con herramientas de IA? ¿Por qué?
  • ¿Cuál es la responsabilidad del docente cuando aparece información sensible?
  • ¿Los estudiantes deberían esperar privacidad en las herramientas escolares de IA?
  • ¿Cómo podemos mantener la confianza y al mismo tiempo garantizar la seguridad?
  • ¿Qué debería comunicar la escuela a las familias?

E) Opciones con sus compensaciones

A
Los docentes leen todos los prompts de los estudiantes
  • Monitoreo de seguridad
  • Erosiona la confianza; normaliza la vigilancia
B
Los docentes no monitorean los prompts en absoluto
  • Confianza y privacidad
  • Riesgo si aparece daño y nadie responde
C
Límites claros + vía de escalamiento
Se enseñan hábitos de privacidad a los estudiantes; los temas sensibles activan un protocolo definido de apoyo humano.
  • Equilibra confianza y protección
  • Requiere formación y coherencia

G) Tarea de cierre

Crear un póster de “Uso seguro de la IA” con 5 cosas que nunca deben compartirse y 3 pasos a seguir si uno se siente angustiado o inseguro.

H) Extensión

¿Qué cambia en Secundaria básica, donde los estudiantes usan IA con mayor independencia?

S3Dilema 4.3 — “La ventaja en el proyecto grupal”Secundaria básica (autonomía guiada)
EquidadColaboraciónAgenciaTransparencia

A) Escenario

Los estudiantes deben crear una presentación grupal. Un estudiante tiene excelentes habilidades para redactar prompts y genera diapositivas, guiones e imágenes muy pulidos. Otro estudiante tiene acceso limitado en casa y contribuye menos. El proyecto luce excelente, pero algunos miembros del grupo sienten que es injusto — y el docente no puede saber quién aprendió qué.

B) El dilema

¿Cómo protegemos la equidad y la colaboración cuando la IA crea ventajas desiguales dentro del mismo grupo?

C) Roles

Usuario de IA con alta habilidad, estudiante con bajo acceso, docente, padre o madre, líder del grupo, directivo escolar

F) Lentes éticos

Equidad, integridad del aprendizaje, transparencia, agencia, gobernanza (política de acceso)

D) Preguntas para debatir

  • ¿Esto es injusto — o simplemente un nuevo tipo de habilidad?
  • ¿Qué debería significar la colaboración cuando hay IA de por medio?
  • ¿Cómo puede el docente evaluar el aprendizaje de manera justa?
  • ¿Las escuelas deberían proporcionar acceso igualitario a herramientas de IA para los proyectos?
  • ¿Cómo sería una “colaboración responsable con IA”?

E) Opciones con sus compensaciones

A
Restringir el uso de IA en proyectos grupales
  • Reduce la brecha de ventaja
  • Limita habilidades auténticas; difícil de hacer cumplir
B
Permitir IA, pero exigir rotación de roles + evidencia del proceso
  • Participación más justa; aprendizaje visible
  • Más planificación; requiere cambios en la rúbrica
C
Permitir IA libremente; evaluar solo el producto final
  • Fácil
  • Premia el resultado por encima del aprendizaje; aumenta la inequidad

G) Tarea de cierre

Redactar una Carta de uso de IA en trabajos grupales con expectativas de acceso, rotación de roles y normas de transparencia.

H) Extensión

¿Qué pasa si las imágenes generadas por IA se parecen a obras con copyright o al estilo de un artista vivo?

S4Dilema 4.4 — “La respuesta incorrecta, pero convincente”Secundaria básica (autonomía guiada)
SeguridadDesinformaciónAlfabetización en IA

A) Escenario

Un estudiante usa IA para un proyecto de ciencias. La IA ofrece una explicación que suena convincente — pero es incorrecta. El estudiante la repite en clase e insiste en que es correcta porque “la IA lo dijo”. Otros estudiantes empiezan a confiar más en la IA que en los libros de texto o en los docentes.

B) El dilema

¿Cómo usamos la IA como herramienta de aprendizaje sin convertirla en una autoridad?

C) Roles

Estudiante, docente, compañero/a, padre o madre, bibliotecario/a o responsable de alfabetización mediática

F) Lentes éticos

Seguridad, transparencia, integridad del aprendizaje, agencia

D) Preguntas para debatir

  • ¿Por qué la gente cree explicaciones dichas con seguridad?
  • ¿Qué cuenta como evidencia en ciencias/historia/etc.?
  • ¿Qué deberían hacer los estudiantes antes de confiar en una afirmación de la IA?
  • ¿Cómo deberían responder los docentes: sancionar, corregir o enseñar verificación?
  • ¿Cómo pueden las tareas exigir rastreo de evidencias?

E) Opciones con sus compensaciones

A
Prohibir la IA para investigación
  • Reduce errores
  • Desaprovecha una oportunidad de alfabetización; no refleja la realidad
B
Permitir IA solo con requisitos de verificación
Fuentes, comprobación de evidencias y razonamiento trazable.
  • Desarrolla pensamiento crítico
  • Requiere enseñanza y tiempo
C
Dejar que los estudiantes usen IA libremente y aprendan de los errores
  • Auténtico
  • Riesgoso; la desinformación se propaga rápido

G) Tarea de cierre

Introducir una lista de verificación Afirmación–Evidencia–Fuente y pedir a los estudiantes que rehagan un párrafo con fuentes verificadas.

H) Extensión

¿Qué cambia si el tema es salud, autolesión o experimentos peligrosos?

S5Dilema 4.5 — “El falso positivo”Secundaria superior (autonomía informada)
EvaluaciónConfianzaGobernanzaTransparencia

A) Escenario

Un docente usa una herramienta de detección de IA. Esta marca un ensayo de un estudiante como “probablemente generado por IA”. El estudiante lo niega y muestra borradores. El docente no está seguro. La situación escala y el estudiante siente que fue acusado sin pruebas.

B) El dilema

¿Cómo pueden las escuelas sostener estándares académicos sin socavar la confianza y la equidad mediante una detección poco fiable?

C) Roles

Estudiante, docente, directivo escolar, padre o madre, coordinador/a académico/a, responsable de TI

F) Lentes éticos

Confianza, transparencia, integridad pedagógica, responsabilidad/gobernanza, equidad

D) Preguntas para debatir

  • ¿Qué cuenta como evidencia aceptable en un caso de integridad académica?
  • ¿Los resultados de detección deberían tratarse alguna vez como prueba?
  • ¿Qué rediseño de la evaluación reduce la necesidad de detección?
  • ¿Cómo podemos proteger tanto la equidad como el rigor?
  • ¿Cómo sería el debido proceso en un contexto escolar?

E) Opciones con sus compensaciones

A
Usar la detección como prueba y aplicar sanciones
  • Envía un mensaje fuerte
  • Alto riesgo de injusticia; daño a la confianza; falsos positivos
B
No usar detección en absoluto
  • Evita acusaciones falsas
  • Deja a los docentes sin orientación; genera inconsistencia
C
La detección solo como señal + evidencia basada en el proceso
Usar la detección solo para iniciar una conversación; apoyarse en borradores, defensa oral y puntos de control.
  • Más justo, centrado en el aprendizaje
  • Requiere rediseño de la evaluación y alineación del personal

G) Tarea de cierre

Redactar un Proceso de Integridad Académica: qué evidencia es válida, cuáles son los derechos de los estudiantes y cuáles son las responsabilidades de los docentes.

H) Extensión

¿Qué pasa si un estudiante usó IA como apoyo lingüístico pero escribió las ideas por sí mismo?

S6Dilema 4.6 — “El compañero de bienestar con IA”Secundaria superior (autonomía informada)
BienestarSeguridadLímitesProtección

A) Escenario

Un estudiante conversa regularmente con una IA por la noche para recibir apoyo emocional. La IA responde con empatía y sugiere estrategias de afrontamiento. El estudiante dice que eso le ayuda más que hablar con personas. Un amigo se lo cuenta a un docente porque está preocupado.

B) El dilema

¿Cómo respetamos la autonomía y la privacidad del estudiante mientras garantizamos la protección y un apoyo humano saludable?

C) Roles

Estudiante, amigo/a, docente, orientador/a, padre o madre, directivo escolar

F) Lentes éticos

Bienestar, seguridad, transparencia, responsabilidad, relaciones humanas

D) Preguntas para debatir

  • ¿Cuándo el apoyo de la IA es útil y cuándo se vuelve riesgoso?
  • ¿Qué límites deberían enseñar las escuelas sobre la dependencia emocional de la IA?
  • ¿Cuál es el deber de cuidado de la escuela cuando surge una preocupación?
  • ¿Cómo intervenimos sin vergüenza ni pánico moral?
  • ¿Qué deberían aprender los estudiantes sobre buscar ayuda humana?

E) Opciones con sus compensaciones

A
Prohibir el uso de IA por parte de estudiantes para temas de bienestar
  • Límite claro
  • Empuja el uso a la clandestinidad; no enseña habilidades
B
Tratarlo como algo normal; no hacer nada
  • Evita extralimitarse
  • Ignora señales de protección; el riesgo crece
C
Enseñar límites + fortalecer vías de apoyo humano
Orientaciones claras, alternativas más seguras y escalamiento definido si aparece riesgo.
  • Equilibra autonomía y protección
  • Requiere formación del personal y mensajes coherentes

G) Tarea de cierre

Crear una Escalera de Apoyo para estudiantes: en qué puede ayudar la IA, cuándo ayudan los pares, cuándo ayudan los adultos y qué pasos de emergencia existen.

H) Extensión

¿Qué cambia para estudiantes de Secundaria básica? ¿Qué papel deberían tener las familias?

Dilemas de la vida real

Esta sección da vida a la ética de la IA a través de dilemas del mundo real que los estudiantes ya reconocen — desde autos autónomos y gafas con reconocimiento facial hasta algoritmos de recomendación, deepfakes, contratación automatizada y sistemas de IA utilizados en salud, seguridad y servicios gubernamentales.

El objetivo no es llegar rápidamente a un consenso, sino desarrollar alfabetización ética: la capacidad de razonar sobre compensaciones, anticipar consecuencias no deseadas y comprender cómo las decisiones tecnológicas moldean la sociedad.

Una rutina simple funciona en todos los dilemas:
Conflicto → Actores involucrados → Opciones → Compensaciones → Lentes éticos → Producto de la clase
El “producto de la clase” puede ser una breve declaración de política, una propuesta de rediseño, una matriz de decisión, una comunicación pública o un conjunto de normas de aula.
Lentes éticos que usamos en toda la sección:
Derechos y dignidad (consentimiento, privacidad, autonomía) • Consecuencias (daño y seguridad) • Equidad (sesgo e impacto desigual) • Transparencia (¿pueden las personas comprender y cuestionar las decisiones?) • Responsabilidad (¿quién responde cuando algo sale mal?) • Poder (¿quién se beneficia, quién controla y quién asume el riesgo?).
Nivel 1 — Dilemas cotidianos de IA (1–8)
11) Auto autónomo: “La decisión del choque”Secundaria básica / Secundaria superior
Tensión central: Minimización del daño vs respeto igual por las personas + responsabilidad
Actores involucrados: pasajero, ciclista, peatones, empresa automotriz, reguladores, aseguradoras, sociedad

Escenario

Un auto autónomo transporta a un pasajero en una noche lluviosa. De repente, un camión se cruza delante de él. El auto tiene tres opciones:

desviarse a la izquierda contra una barrera (alta probabilidad de daño grave para el pasajero),

desviarse a la derecha hacia una bicisenda (riesgo para un ciclista), o

frenar bruscamente y chocar contra el camión (riesgo moderado para el pasajero, bajo riesgo para otros).

Después del incidente, los medios preguntan: “¿Quién decidió qué debía priorizar el auto?” La empresa responde: “La IA elige la opción más segura.” Las familias preguntan: “¿Más segura para quién?”

Opciones (con sus compensaciones)

A
Minimizar el daño total
  • Podría salvar más vidas en conjunto
  • Puede tratar a las personas como “números”; el público puede rechazar la lógica del sacrificio
B
Seguir reglas fijas
Por ejemplo: nunca desviarse hacia las veredas; priorizar a quienes usan la vía legalmente.
  • Predecible, más fácil de regular
  • Puede producir peores resultados en casos límite; las reglas pueden ocultar sesgos
C
Permitir que los dueños elijan configuraciones éticas
“Proteger primero al pasajero” vs “minimizar el daño”.
  • Respeta la autonomía y la elección
  • Genera desigualdad y desplaza la culpa hacia los usuarios

Preguntas para debatir

  • ¿Debería diseñarse alguna vez una máquina para elegir entre daños? ¿O eso es inevitable?
  • ¿Es ético priorizar a los pasajeros porque “consintieron” al subir al auto?
  • ¿Debería haber un estándar global o diferencias culturales en ética?
  • Cuando una IA toma una decisión, ¿quién es responsable: el conductor, la empresa, el programador, el gobierno?
  • ¿Qué debería ser transparente para el público?

Tarea de cierre

Redactar una regla de política pública (5 líneas) sobre cómo deben comportarse los vehículos autónomos y qué deben informar.

Extensión

¿Qué cambia si el ciclista es un niño? ¿O si el pasajero es un niño?

22) Gafas inteligentes + reconocimiento facial: “El fin del anonimato”Secundaria básica / Secundaria superior
Tensión central: Conveniencia/seguridad vs privacidad/consentimiento + desequilibrio de poder
Actores involucrados: personas escaneadas, usuarios de las gafas, seguridad/fuerzas del orden, empresas, escuelas, grupos marginados

Escenario

Un nuevo par de gafas de realidad mixta puede identificar rostros en tiempo real y mostrar nombres, perfiles públicos y “personas que quizá conozcas”. Algunos usuarios dicen que les ayuda a hacer contactos y a sentirse seguros. Otros se sienten amenazados: no pueden caminar por la calle sin ser identificados.

Un consejo local o una escuela considera permitirlas en edificios públicos “por seguridad y eficiencia”. Un estudiante dice: “Si no tenés nada que ocultar, ¿por qué preocuparte?” Otro responde: “Merezco ser desconocido a veces.”

Opciones (con sus compensaciones)

A
Permitirlas con consentimiento estricto + indicadores visibles
  • Intenta proteger la elección y la transparencia
  • El consentimiento es difícil en espacios públicos; excluirse puede ser irreal
B
Prohibir el reconocimiento facial en espacios compartidos/públicos
  • Protege el anonimato y reduce abusos
  • Limita funciones útiles de accesibilidad/seguridad
C
Permitirlo solo para usos de “seguridad”
  • Apunta a un caso de uso acotado
  • Expansión de misión: las excepciones se amplían y el poder se concentra

Preguntas para debatir

  • ¿Se puede consentir de manera real ser escaneado en público?
  • ¿Quién sale más perjudicado cuando desaparece el anonimato?
  • ¿Cuál es la diferencia entre ver una cara y conocer una identidad completa?
  • ¿Quién controla la base de datos? ¿Pueden corregirse los errores?
  • ¿El valor por defecto debería ser “apagado” salvo consentimiento?

Tarea de cierre

Diseñar 3 requisitos de producto para reducir daños.

Extensión

¿Qué pasa si las gafas identifican erróneamente a alguien como criminal?

33) Asistente del hogar que siempre escucha: “Conveniencia vs intimidad”Primaria superior (simplificado) / Secundaria básica
Tensión central: Conveniencia vs privacidad + propiedad de los datos
Actores involucrados: niños, padres, empresa, anunciantes, visitas del hogar

Escenario

Una familia usa un asistente de voz que siempre está escuchando comandos. Ayuda con tareas, recordatorios, compras y entretenimiento. Con el tiempo, el asistente registra momentos privados: discusiones, historias personales, un niño practicando un discurso, un amigo compartiendo algo sensible. La empresa dice: “Usamos las grabaciones para mejorar el servicio.”

Un adolescente dice: “Vale la pena — ahorra tiempo.” Un padre responde: “Tu infancia no debería quedar grabada.”

Opciones (con sus compensaciones)

A
Usarlo solo con procesamiento local/offline
  • Reduce la exposición de datos
  • Menos funciones; puede costar más; sigue habiendo riesgo de captura accidental
B
Usarlo con almacenamiento en la nube pero con ajustes estrictos + borrado
  • Mantiene las funciones
  • Depende de la confianza; la configuración es compleja
C
No usar asistentes siempre activos en hogares con niños
  • Protección más fuerte
  • Reduce accesibilidad para algunas familias; no enseña habilidades de privacidad digital

Preguntas para debatir

  • ¿Los niños consienten de forma real ser grabados en casa?
  • ¿Ahorrar tiempo justifica la recolección constante de datos?
  • ¿Quién es dueño de las grabaciones?
  • ¿Cómo podría rediseñarse el producto para proteger a los niños?
  • ¿Qué debería informarse claramente a las familias antes de comprar?

Tarea de cierre

Escribir 5 reglas familiares para el uso seguro de asistentes de voz y 3 requisitos de producto que exigirían a una empresa.

Extensión

¿Qué cambia si se graba a una visita sin que lo sepa?

44) Filtros de belleza y “rostro IA”: “¿Quién soy en línea?”Primaria superior / Secundaria básica
Tensión central: Autoexpresión vs daño a la identidad + presión social
Actores involucrados: estudiantes, pares, influencers, plataformas, familias, sistemas de salud mental

Escenario

Una app social introduce filtros de “rostro IA” que hacen que los usuarios se vean más “perfectos”: piel más lisa, ojos más grandes y versiones idealizadas de sí mismos. Muchos estudiantes comienzan a publicar solo fotos filtradas. Algunos se sienten más seguros; otros se sienten peor respecto de su apariencia real.

Un estudiante dice: “Es solo diversión.” Otro responde: “Ya ni me reconozco.”

Opciones (con sus compensaciones)

A
Dejarlo a elección personal; sin intervención escolar
  • Respeta la autonomía
  • Ignora la presión de pares y el daño al bienestar
B
Desarrollar una unidad de alfabetización mediática + bienestar
  • Genera conciencia y agencia
  • Requiere una facilitación sensible
C
Promover regulación
Etiquetas, transparencia o restricciones para menores.
  • Apunta a daños sistémicos
  • Lento; aplicación poco clara

Preguntas para debatir

  • ¿Una cara filtrada miente, es creatividad o es otra cosa?
  • ¿Quién se beneficia cuando todos se ven perfectos en línea?
  • ¿Los filtros refuerzan sesgos?
  • ¿Cuáles son los impactos a largo plazo sobre identidad y pertenencia?
  • ¿Qué deberían transparentar las plataformas?

Tarea de cierre

Crear un “Acuerdo de filtros de IA” de la clase y 3 recomendaciones de diseño para plataformas.

Extensión

¿Qué cambia si el filtro también puede generar fotos completamente falsas?

55) Autocompletado con IA en mensajería: “¿Eso lo dijiste vos?”Secundaria básica
Tensión central: Conveniencia vs autenticidad + responsabilidad por el daño
Actores involucrados: estudiantes, destinatarios, plataformas, familias, escuelas

Escenario

Una app de mensajería introduce respuestas inteligentes con IA. Un día, un estudiante selecciona una respuesta sugerida sin pensar, y suena grosera. El destinatario se siente herido y le saca captura. El remitente dice: “No quise decir eso — lo escribió la IA.”

Opciones (con sus compensaciones)

A
Tratar los mensajes sugeridos por IA como responsabilidad total del remitente
  • Responsabilidad clara
  • Ignora la influencia de los nudges de diseño
B
Enseñar hábitos de “pausar y revisar”
  • Desarrolla agencia y cuidado
  • Requiere práctica continua
C
Las plataformas deben etiquetar claramente el texto generado por IA
  • Mejora transparencia y elección
  • Puede reducir conveniencia; adopción desigual

Preguntas para debatir

  • ¿Es justo culpar a la IA por un mensaje dañino?
  • ¿Cómo moldean las decisiones los nudges de diseño?
  • ¿Las sugerencias de IA deberían estar activadas por defecto para menores?
  • ¿Cómo sería una mensajería responsable?
  • ¿Cómo deberían responder las escuelas cuando ocurre un daño?

Tarea de cierre

Escribir una lista de verificación para mensajería responsable con IA y una norma de clase para reparar el daño cuando los mensajes salen mal.

Extensión

¿Qué cambia si las sugerencias están optimizadas para generar interacción y no amabilidad?

66) Arte generado por IA en un concurso: “¿Creatividad o atajo?”Secundaria básica / Secundaria superior
Tensión central: Innovación vs equidad + autoría/atribución
Actores involucrados: estudiantes artistas, jurados, escuelas, creadores cuyos estilos se usan, audiencias

Escenario

Una escuela organiza un concurso de arte. Un estudiante presenta una imagen impactante hecha con una herramienta de IA de texto a imagen. El estudiante dice: “Yo la creé — escribí el prompt.” Otro responde: “Eso no es arte; es hacer trampa.” El jurado no sabe cómo evaluarla.

Opciones (con sus compensaciones)

A
Prohibir trabajos generados por IA
  • Protege criterios tradicionales de equidad
  • Ignora herramientas creativas del mundo real; puede ser imposible de controlar
B
Permitirlos, pero crear categorías separadas
Original / asistido por IA / generado por IA.
  • Evaluación más clara y justa
  • Los límites entre categorías siguen siendo discutibles
C
Permitir todo y evaluar solo el producto final
  • Simple
  • Premia el acceso a herramientas por encima del aprendizaje; reduce la transparencia

Preguntas para debatir

  • ¿Qué cuenta como crear en el arte con IA?
  • ¿Cómo debería funcionar la atribución?
  • ¿Es ético imitar el estilo de un artista vivo?
  • ¿Qué debería premiarse: proceso, originalidad, esfuerzo, impacto?
  • ¿Cómo mantenemos los concursos alineados con los objetivos de aprendizaje?

Tarea de cierre

Escribir reglas de concurso que definan categorías, requisitos de transparencia y criterios que enfaticen proceso e intención.

Extensión

¿Qué pasa si la obra hecha con IA se parece mucho al estilo característico de un artista vivo?

77) IA de navegación y rutas inseguras: “Lo más rápido no siempre es lo mejor”Primaria superior (simplificado) / Secundaria básica
Tensión central: Optimización por velocidad vs seguridad + riesgo desigual
Actores involucrados: usuarios, comunidades, peatones/ciclistas, planificadores urbanos, empresas

Escenario

Una app de navegación usa IA para sugerir la ruta más rápida. A menudo envía a los conductores por calles residenciales pequeñas. Con el tiempo, el tránsito aumenta y un barrio se vuelve menos seguro para los niños que van caminando a la escuela. La app dice: “Optimizamos tu tiempo.” Los vecinos dicen: “Convirtieron nuestra calle en una autopista.”

Opciones (con sus compensaciones)

A
Optimizar solo para la ruta más rápida
  • Eficiente para los usuarios
  • Traslada el riesgo a barrios vulnerables
B
Incluir restricciones de seguridad comunitaria
  • Reduce el daño; optimización más ética
  • Rutas más lentas; requiere decisiones de política pública
C
Permitir que las ciudades regulen la IA de rutas
  • Responsabilidad democrática
  • Lento y complejo

Preguntas para debatir

  • ¿Lo más rápido para mí es siempre lo ético?
  • ¿Quién paga el costo de la optimización?
  • ¿Los usuarios deberían ver las compensaciones que genera su ruta?
  • ¿Cómo podría rediseñarse la app?
  • ¿Quién debería decidir para qué optimiza la IA?

Tarea de cierre

Diseñar una función de navegación más ética: qué muestra, para qué optimiza y qué pueden elegir los usuarios.

Extensión

¿Qué pasa si los barrios con menos poder político son los más afectados?

88) App de compañía con IA: “La amiga que siempre está disponible”Secundaria básica / Secundaria superior
Tensión central: Consuelo/disponibilidad vs dependencia + límites + bienestar
Actores involucrados: usuarios, pares, familias, sistemas de salud mental, empresas

Escenario

Una app de compañía con IA ofrece conversación amistosa y apoyo en cualquier momento. Algunos estudiantes la usan para sentirse menos solos. Con el tiempo, un estudiante empieza a pasar horas por día con la IA y evita a sus amigos. La IA siempre está de acuerdo y lo halaga, lo cual se siente bien, pero también moldea creencias y emociones.

Opciones (con sus compensaciones)

A
Tratarla como algo inofensivo; sin intervención
  • Respeta la elección
  • Ignora riesgos para el bienestar
B
Enseñar alfabetización sobre relaciones con IA
  • Desarrolla agencia y límites saludables
  • Requiere tiempo y facilitación sensible
C
Restringirla o prohibirla para menores
  • Límite protector claro
  • Empuja el uso a la clandestinidad; no enseña habilidades

Preguntas para debatir

  • ¿Una IA puede preocuparse por vos?
  • ¿Cuándo un apoyo útil se vuelve una dependencia poco saludable?
  • ¿Las empresas deberían optimizar el tiempo de uso en apps de compañía?
  • ¿Qué relaciones humanas podrían verse desplazadas?
  • ¿Qué responsabilidades deberían tener escuelas y familias?

Tarea de cierre

Crear una Escalera de Apoyo que muestre cuándo la IA puede ayudar y cuándo las personas son esenciales, más 3 resguardos de producto que exigirían.

Extensión

¿Qué pasa si la IA da consejos dañinos pero suena empática?

Nivel 2 — Sistemas de IA que moldean oportunidades (9–16)
99) Contratación automatizada: “El currículum perfecto”Secundaria superior
Tensión central: Eficiencia vs equidad + transparencia
Actores involucrados: postulantes, empleadores, reclutadores, grupos marginados, reguladores

Escenario

Una empresa usa IA para filtrar currículums y decidir quién obtiene entrevistas. Los estudiantes descubren que la IA prefiere ciertas universidades, palabras clave y estilos de escritura. Un estudiante con habilidades sólidas pero con otro recorrido es rechazado automáticamente. La empresa dice: “Es objetiva y eficiente.” El estudiante dice: “Es sesgada e invisible.”

Opciones (con sus compensaciones)

A
Usar IA para filtrar sin informar
  • Rápido y barato
  • Discriminación opaca; sin responsabilidad clara
B
Usar IA pero exigir transparencia + auditorías de sesgo
  • Más equidad y confianza
  • Costoso y aun imperfecto
C
Limitar la IA al apoyo, no a la decisión
  • Mantiene la responsabilidad humana
  • Más lento; los humanos también pueden tener sesgos

Preguntas para debatir

  • ¿La objetividad es posible si los datos de entrenamiento reflejan sesgos del pasado?
  • ¿Los postulantes deberían tener derecho a saber que se usa IA?
  • ¿Cómo sería una apelación significativa?
  • ¿Los empleadores deberían ser responsables aunque la IA la provea un tercero?
  • ¿Qué debería auditarse y publicarse?

Tarea de cierre

Escribir 5 reglas para una contratación ética con IA.

Extensión

¿Qué pasa si la IA es precisa en general pero aun así perjudica a un grupo minoritario?

1010) IA en admisiones universitarias: “¿Quién entra?”Secundaria superior
Tensión central: Selección predictiva vs equidad + transparencia
Actores involucrados: postulantes, familias, universidades, comunidades, reguladores

Escenario

Una universidad usa un modelo de IA para predecir qué postulantes tendrán éxito y utiliza esa puntuación en admisiones. Los estudiantes descubren que el modelo se basa en factores correlacionados con riqueza y tipo de escuela. La universidad afirma que ayuda a encontrar la mejor correspondencia. Los críticos sostienen que reproduce desigualdades.

Opciones (con sus compensaciones)

A
Usar fuertemente las puntuaciones de IA
  • Mayores tasas de finalización
  • Injusticia sistémica; barreras opacas
B
Usar IA solo para apoyar
Por ejemplo, para identificar quién podría necesitar becas o ayuda.
  • Usa la IA para ampliar oportunidades
  • Sigue requiriendo una gobernanza cuidadosa de los datos
C
Prohibir decisiones de admisión basadas en IA
  • Protege la equidad
  • Los humanos también son sesgados

Preguntas para debatir

  • ¿Qué cuenta como mérito y quién lo define?
  • ¿Los postulantes deberían poder cuestionar decisiones impulsadas por IA?
  • ¿Es ético optimizar la tasa de éxito si eso reduce el acceso?
  • ¿Qué datos nunca deberían usarse?
  • ¿Cómo puede ser significativa la transparencia para las familias?

Tarea de cierre

Redactar una declaración de principios de admisión: qué nunca debe automatizarse, qué debe informarse y qué debe auditarse.

Extensión

¿Qué pasa si la IA mejora los resultados pero reduce la diversidad?

1111) IA de scoring crediticio: “El no invisible”Secundaria superior
Tensión central: Predicción de riesgo vs equidad + explicabilidad
Actores involucrados: prestatarios, bancos, barrios, reguladores, sociedad

Escenario

Un banco usa IA para decisiones crediticias. A una persona se le niega un préstamo, pero el banco no puede explicar claramente por qué. La persona sospecha discriminación. El banco dice: “El modelo es demasiado complejo para explicarlo.”

Opciones (con sus compensaciones)

A
Permitir modelos de caja negra si mejoran la precisión
  • Mayor poder predictivo
  • Daños sin responsabilidad clara; sin apelación
B
Exigir explicabilidad + apelaciones
  • Genera confianza; protege derechos
  • Puede reducir precisión; agrega costos
C
Usar IA solo como asesora
  • Responsabilidad visible
  • Los humanos pueden seguir validando automáticamente lo que produce

Preguntas para debatir

  • ¿Deberías tener derecho a una explicación en decisiones importantes?
  • ¿La precisión alcanza si la equidad se ve afectada?
  • ¿Cómo puede aparecer sesgo a través de variables sustitutas?
  • ¿Quién es responsable: banco, proveedor, regulador?
  • ¿Cómo sería un proceso de apelación justo?

Tarea de cierre

Escribir una política de derecho a explicación para decisiones con IA en finanzas o educación con 3 requisitos.

Extensión

¿Qué pasa si revelar el modelo hace más fácil engañar al sistema?

1212) Seguridad predictiva: “¿Dónde ocurrirá el delito?”Secundaria superior
Tensión central: Seguridad pública vs discriminación + bucles de retroalimentación
Actores involucrados: comunidades, policía, víctimas, sospechosos, responsables de políticas

Escenario

Una ciudad usa IA para predecir dónde ocurrirá el delito y envía más policías a esas zonas. Con el tiempo, los mismos barrios son señalados repetidamente. Más vigilancia produce más arrestos, lo cual luego confirma la predicción de la IA. Los vecinos dicen que genera hostigamiento y desconfianza.

Opciones (con sus compensaciones)

A
Usar ampliamente seguridad predictiva
  • Puede reducir algunos delitos
  • Amplifica sesgos; daña la confianza
B
Usarla solo con supervisión estricta
  • Reduce daños; aumenta la responsabilidad
  • Sigue siendo riesgosa; difícil de implementar bien
C
Prohibir IA de seguridad predictiva
  • Protege derechos civiles
  • Requiere estrategias alternativas de seguridad

Preguntas para debatir

  • ¿Puede una IA ser neutral si los datos reflejan vigilancia policial sesgada?
  • ¿Qué es un bucle de retroalimentación y por qué es peligroso?
  • ¿Qué derechos deberían tener las comunidades para cuestionar estos sistemas?
  • ¿La seguridad puede justificar un trato desigual?
  • ¿Qué soluciones no basadas en IA podrían mejorar la seguridad?

Tarea de cierre

Redactar 5 condiciones que deban cumplirse antes de usar cualquier sistema de seguridad predictiva.

Extensión

¿Qué pasa si el sistema reduce el delito en general pero aumenta la desconfianza y el miedo?

1313) IA en precios de seguros: “Tu riesgo, tu precio”Secundaria superior
Tensión central: Precios personalizados vs equidad + privacidad
Actores involucrados: clientes, aseguradoras, grupos vulnerables, reguladores

Escenario

Una aseguradora usa IA para fijar precios según datos de teléfonos, compras, ubicación y comportamiento. Algunas personas pagan menos; otras, mucho más. Los clientes no saben qué datos se usaron. La gente pregunta: “¿Es justo o es discriminación a través de los datos?”

Opciones (con sus compensaciones)

A
Permitir personalización completa basada en datos
  • Precios eficientes
  • Invasión de privacidad; discriminación oculta
B
Limitar tipos de datos + exigir transparencia
  • Protege derechos y confianza
  • Menor capacidad predictiva; requiere más regulación
C
Prohibir precios conductuales para servicios esenciales
  • Protege la equidad
  • Mayores costos promedio; compensaciones de política pública

Preguntas para debatir

  • ¿Cuándo la personalización se convierte en discriminación injusta?
  • ¿Las personas deberían tener que “comportarse bien” para acceder a servicios?
  • ¿Qué datos deberían estar prohibidos?
  • ¿Quién puede verificar las afirmaciones de las empresas?
  • ¿Cómo explicarías esto a los clientes en lenguaje claro?

Tarea de cierre

Escribir una propuesta de regulación de precios justos con 3 restricciones y 2 requisitos de transparencia.

Extensión

¿Qué pasa si la gente empieza a cambiar su conducta solo para engañar al sistema?

1414) Feeds algorítmicos: “Lo que ves es lo que creés”Secundaria superior
Tensión central: Optimización por interacción vs verdad + bienestar
Actores involucrados: usuarios, plataformas, anunciantes, democracias, salud mental

Escenario

Un feed de redes sociales usa IA para maximizar la interacción. Aprende que la indignación y el miedo hacen que la gente siga desplazándose. Los usuarios se vuelven más polarizados y ansiosos. La plataforma dice: “Mostramos lo que le gusta a la gente.” Los críticos responden: “Ustedes moldean en qué se convierte la gente.”

Opciones (con sus compensaciones)

A
Permitir que las plataformas optimicen libremente
  • Innovación y ganancias
  • Daño a la sociedad y al bienestar
B
Exigir transparencia + control del usuario + auditorías
  • Mayor responsabilidad
  • Costo y complejidad; solución parcial
C
Prohibir feeds optimizados por interacción para menores
  • Protege a los jóvenes
  • Difícil de aplicar; puede limitar el acceso

Preguntas para debatir

  • ¿La elección es real si los algoritmos manipulan la atención?
  • ¿Cuál es la diferencia entre persuasión y manipulación?
  • ¿Los menores deberían tener protecciones más fuertes?
  • ¿Qué debería transparentarse?
  • ¿Quién debería regular?

Tarea de cierre

Diseñar una política de feed saludable: 3 requisitos para la plataforma, 3 controles para el usuario y 2 resguardos para menores.

Extensión

¿Qué pasa si la transparencia revela secretos comerciales?

1515) Noticias deepfake: “¿Esto es real?”Secundaria superior
Tensión central: Libertad de expresión vs desinformación + daño
Actores involucrados: ciudadanos, periodistas, plataformas, personas afectadas por deepfakes, gobiernos

Escenario

Un video deepfake realista muestra a un líder político diciendo algo incendiario. Se difunde rápidamente y provoca pánico. Más tarde se demuestra que era falso, pero el daño ya está hecho. Algunas personas piden prohibiciones estrictas; otras temen la censura.

Opciones (con sus compensaciones)

A
Prohibiciones estrictas y sanciones
  • Reduce el daño
  • Riesgo de censura; disputas sobre definiciones
B
Permitir pero exigir marcas de agua + reglas de retiro
  • Equilibra creatividad y protección
  • Las marcas de agua pueden removerse; la aplicación es difícil
C
Centrarse solo en alfabetización mediática
  • Apoya la libre expresión
  • El daño se propaga más rápido que la educación

Preguntas para debatir

  • ¿Cuál es el daño de los deepfakes más allá de las noticias falsas?
  • ¿Quién debería ser responsable: creadores, plataformas, gobiernos?
  • ¿Los deepfakes satíricos deberían tratarse distinto?
  • ¿Qué protecciones deberían tener las personas afectadas?
  • ¿Qué debería exigirse antes de compartir?

Tarea de cierre

Escribir una Carta de Compartir Responsable para estudiantes y una propuesta de política de plataforma.

Extensión

¿Qué pasa si un deepfake apunta contra un estudiante de tu escuela?

1616) IA en triaje de salud: “¿Quién recibe ayuda primero?”Secundaria superior
Tensión central: Eficiencia vs equidad + dignidad humana
Actores involucrados: pacientes, médicos, hospitales, grupos vulnerables, responsables de políticas

Escenario

Un hospital usa IA para decidir qué pacientes necesitan atención urgente primero. El sistema funciona bien en general, pero subestima el dolor y el riesgo para ciertos grupos. Los médicos discrepan sobre si seguir el sistema o anularlo.

Opciones (con sus compensaciones)

A
Seguir el triaje por IA por defecto
  • Decisiones más rápidas
  • Daño sistémico si hay sesgo; responsabilidad poco clara
B
Usar IA como apoyo; humanos confirman
  • Mantiene la responsabilidad en las personas
  • Más lento; puede reducir las ganancias de eficiencia
C
Dejar de usar el triaje con IA hasta corregir el sesgo
  • Reduce el daño inmediato
  • Se pierden beneficios; corregirlo puede llevar tiempo

Preguntas para debatir

  • ¿La precisión general es suficiente si algunos grupos salen perjudicados?
  • ¿Cómo sería una supervisión significativa en contextos de alta presión?
  • ¿Quién debería ser responsable?
  • ¿Qué transparencia deberían tener los pacientes?
  • ¿Qué evidencia de auditoría debería exigirse?

Tarea de cierre

Crear un conjunto de reglas de intervención humana para IA de triaje: cuándo usarla, cuándo anularla, qué registrar y qué auditar.

Extensión

¿Qué pasa si la IA reduce las muertes en general pero aun así produce daños desiguales?

Nivel 3 — IA de alto impacto, gobernanza y ética a escala social (17–24)
1717) IA en la guerra: “Armas autónomas”Secundaria superior
Tensión central: Disuasión/eficiencia vs responsabilidad moral por matar
Actores involucrados: civiles, soldados, gobiernos, empresas tecnológicas, derecho internacional

Escenario

Un país desarrolla armas autónomas que pueden seleccionar y atacar objetivos sin control humano directo. Quienes las apoyan dicen que reducen muertes de soldados y hacen la guerra más precisa. Los críticos sostienen que eliminan la responsabilidad moral humana y aumentan el riesgo de conflicto.

Opciones (con sus compensaciones)

A
Permitir el desarrollo con restricciones mínimas
  • Ventaja estratégica
  • Riesgos morales y de seguridad catastróficos
B
Exigir control humano significativo
  • Mantiene la responsabilidad en las personas
  • Las definiciones son discutidas; aplicación difícil
C
Prohibición global de armas letales autónomas
  • Postura ética fuerte
  • Cumplimiento difícil; incentivos desiguales

Preguntas para debatir

  • ¿Un algoritmo puede emitir un juicio moral sobre la vida y la muerte?
  • ¿La precisión justifica la automatización?
  • ¿Quién es responsable si mueren civiles?
  • ¿Cómo podrían las armas autónomas cambiar los incentivos para la guerra?
  • ¿Qué tipo de gobernanza internacional es realista?

Tarea de cierre

Redactar una propuesta de tratado internacional de 6 puntos sobre armas autónomas.

Extensión

¿Qué pasa si tu país es el único que las prohíbe?

1818) IA de vigilancia masiva: “Estado de seguridad”Secundaria superior
Tensión central: Seguridad vs libertades civiles + efectos inhibitorios
Actores involucrados: ciudadanos, gobiernos, minorías, periodistas, empresas

Escenario

Un gobierno despliega vigilancia con IA usando rostros, voces y patrones de movimiento para reducir el delito y mantener la estabilidad. El delito baja, pero las personas sienten que están siendo observadas constantemente. La disidencia política disminuye. Las minorías son señaladas de manera desproporcionada.

Opciones (con sus compensaciones)

A
Permitir vigilancia generalizada por seguridad
  • Reducción del delito
  • Pérdida de libertad y dignidad; riesgo de abuso
B
Permitirla solo con límites estrictos + supervisión
  • Enfoque equilibrado
  • La supervisión puede ser débil; expansión de misión
C
Prohibir la vigilancia masiva con IA
  • Protege derechos
  • Requiere medidas alternativas de seguridad

Preguntas para debatir

  • ¿“No tengo nada que ocultar” es un argumento válido?
  • ¿Qué es el efecto inhibitorio y por qué importa?
  • ¿Quién es más vulnerable a los daños de la vigilancia?
  • ¿Qué transparencia y apelación deberían existir?
  • ¿Cuándo la seguridad justifica restringir derechos?

Tarea de cierre

Escribir una política de líneas rojas sobre vigilancia: qué nunca está permitido y qué supervisión es obligatoria.

Extensión

¿Qué pasa si la vigilancia evita un gran ataque?

1919) IA en beneficios del Estado: “¿Quién merece ayuda?”Secundaria superior
Tensión central: Reducción del fraude vs dignidad + equidad + errores
Actores involucrados: solicitantes, familias vulnerables, gobiernos, auditores, sociedad

Escenario

Un gobierno usa IA para detectar fraude en programas sociales. La IA marca a muchos solicitantes legítimos como sospechosos, generando demoras y dificultades. Los funcionarios dicen: “Debemos prevenir el fraude.” Las familias responden: “Nos castigaron por ser pobres.”

Opciones (con sus compensaciones)

A
Detección agresiva de fraude con IA
  • Menos fraude
  • Perjudica a personas inocentes; colapso de la confianza
B
Usar IA pero exigir revisión humana + apelación rápida
  • Reduce el daño
  • Más lento; mayor costo
C
No usar decisiones con IA en beneficios sociales
  • Responsabilidad clara
  • Persisten sesgos manuales e ineficiencia

Preguntas para debatir

  • ¿Qué es peor: fraude de unos pocos o dificultades para muchas personas inocentes?
  • ¿Qué derechos deberían tener los solicitantes?
  • ¿Cómo puede aparecer sesgo a través de variables sustitutas?
  • ¿Qué deberían informar públicamente los gobiernos?
  • ¿Qué significa dignidad en sistemas automatizados?

Tarea de cierre

Redactar una política de IA centrada en la dignidad para beneficios sociales: 5 resguardos y un proceso obligatorio de apelación.

Extensión

¿Qué pasa si la IA ahorra dinero que puede ayudar a más personas pero genera algunos falsos positivos?

2020) Decisiones climáticas con IA: “¿A quién se protege?”Secundaria superior
Tensión central: Optimización vs justicia + vulnerabilidad desigual
Actores involucrados: ciudades, comunidades vulnerables, gobiernos, aseguradoras, generaciones futuras

Escenario

Un gobierno usa IA para decidir dónde invertir en protección climática. La IA prioriza áreas con mayor valor de propiedad porque allí las pérdidas son mayores. Las zonas de menores ingresos quedan menos protegidas. Los funcionarios dicen que es racional. Los vecinos dicen que es injusto.

Opciones (con sus compensaciones)

A
Optimizar según pérdidas económicas evitadas
  • Maximiza la eficiencia financiera
  • Profundiza desigualdad; ignora la dignidad
B
Optimizar con ponderaciones de justicia
  • Distribución más justa
  • Políticamente discutido; complejo
C
Rechazar la optimización con IA; usar solo decisiones democráticas
  • Legitimidad
  • Igualmente puede ser injusto; más lento

Preguntas para debatir

  • ¿El valor económico debería decidir quién recibe protección?
  • ¿Cómo debería representarse la justicia en un algoritmo?
  • ¿Quién decide las ponderaciones?
  • ¿Qué transparencia debería existir?
  • ¿Cómo incluimos a las generaciones futuras?

Tarea de cierre

Crear una propuesta de función objetivo ética: 4 factores que la IA debe incluir y cómo definirlos democráticamente.

Extensión

¿Qué pasa si la solución más justa salva menos personas en total?

2121) IA en tribunales: “Puntuaciones de riesgo”Secundaria superior
Tensión central: Eficiencia vs equidad + debido proceso
Actores involucrados: acusados, jueces, víctimas, comunidades, grupos de derechos civiles

Escenario

Un tribunal usa una puntuación de riesgo generada por IA para ayudar a decidir fianzas y sentencias. El sistema predice cuán probable es que una persona reincida. Algunas personas quedan detenidas por tener una puntuación alta. Más tarde, estudios sugieren que el sistema puede estar sesgado contra ciertos grupos. El tribunal dice: “Ayuda a la consistencia.” Los críticos dicen: “Perjudica la justicia.”

Opciones (con sus compensaciones)

A
Usar puntuaciones de riesgo con IA como factor principal
  • Decisiones más consistentes
  • El sesgo puede institucionalizarse; el debido proceso se debilita
B
Usar IA solo como apoyo; los jueces justifican sus decisiones de manera independiente
  • Mantiene visible la responsabilidad humana
  • Los jueces pueden seguir dependiendo demasiado de la puntuación
C
Prohibir las puntuaciones de riesgo con IA en tribunales
  • Protege el debido proceso y reduce el sesgo automatizado
  • Se pierden herramientas de consistencia; el sesgo humano permanece

Preguntas para debatir

  • ¿La IA debería influir alguna vez en decisiones sobre la libertad?
  • ¿Qué exige el debido proceso cuando intervienen algoritmos?
  • ¿Puede una persona cuestionar una puntuación que no entiende?
  • ¿Quién es responsable si la puntuación está sesgada?
  • ¿Qué evidencia debería exigirse antes de que un tribunal pueda usar un sistema así?

Tarea de cierre

Redactar una política judicial sobre decisiones asistidas por IA: qué está permitido, qué debe informarse y qué derechos deben tener los acusados.

Extensión

¿Qué pasa si la herramienta mejora la consistencia en general pero aun así perjudica más a un grupo que a otros?

2222) Reconocimiento de emociones en escuelas: “¿Puede una cámara leer sentimientos?”Secundaria superior
Tensión central: Apoyo temprano vs vigilancia + mala interpretación
Actores involucrados: estudiantes, docentes, orientadores, familias, proveedores, directivos escolares

Escenario

Una escuela prueba un sistema de IA que afirma detectar estrés, desconexión y malestar emocional a partir de expresiones faciales, postura y voz de los estudiantes. Los directivos dicen que ayudará a identificar antes a quienes necesiten apoyo. Algunos estudiantes se sienten observados y desconfiados. Otros temen que el sistema malinterprete a estudiantes neurodivergentes o diferencias culturales en la expresión.

Opciones (con sus compensaciones)

A
Implementarlo ampliamente para apoyar el bienestar
  • Puede identificar antes a algunos estudiantes que necesitan ayuda
  • Normaliza la vigilancia y la interpretación errónea
B
Usarlo solo con consentimiento estricto, límites y revisión humana
  • Reduce excesos y mantiene las decisiones en manos humanas
  • El consentimiento puede ser difícil en entornos escolares
C
No usar reconocimiento de emociones en escuelas
  • Protege dignidad, privacidad y confianza
  • Las escuelas deben encontrar otras formas de detectar malestar silencioso

Preguntas para debatir

  • ¿Puede medirse la emoción de manera confiable a partir de rostros o voces?
  • ¿Quién tiene más probabilidades de ser malinterpretado?
  • ¿Cuál es la diferencia entre apoyo y vigilancia?
  • ¿Las escuelas deberían inferir estados mentales a partir de datos?
  • ¿Qué consentimiento y transparencia serían necesarios?

Tarea de cierre

Redactar una declaración de política escolar sobre IA y datos emocionales: qué está prohibido, qué requiere consentimiento y qué resguardos humanos son esenciales.

Extensión

¿Qué pasa si los padres apoyan firmemente el sistema pero los estudiantes se oponen?

2323) Réplicas con IA de personas fallecidas: “Memoria, consentimiento y duelo”Secundaria superior
Tensión central: Consuelo y recuerdo vs consentimiento + dignidad + comercialización
Actores involucrados: familias, personas fallecidas, empresas, amigos, comunidades culturales/religiosas

Escenario

Una empresa ofrece chatbots con IA construidos a partir de mensajes, fotos y grabaciones de voz de una persona fallecida. Una familia en duelo dice que eso les ayuda a sentirse cerca de su ser querido. Otros sostienen que la persona nunca consintió convertirse en una réplica de IA. Algunos temen que las empresas se lucren con el dolor y desdibujen la línea entre memoria y simulación.

Opciones (con sus compensaciones)

A
Permitirlo libremente si las familias lo solicitan
  • Puede brindar consuelo y preservar recuerdos
  • Ignora el consentimiento de la persona fallecida y arriesga explotación
B
Permitirlo solo con consentimiento previo + límites claros
  • Respeta la autonomía y reduce abusos
  • Excluye muchos casos existentes; el consentimiento puede ser incierto
C
Prohibir réplicas interactivas de personas fallecidas
  • Protege la dignidad y evita la comercialización del duelo
  • Puede impedir formas significativas de recuerdo para algunas familias

Preguntas para debatir

  • ¿Quién debería controlar la identidad digital de una persona después de su muerte?
  • ¿El consentimiento de la familia es suficiente?
  • ¿Una réplica con IA puede ayudar en el duelo o corre el riesgo de atraparlo?
  • ¿Algunos usos deberían permitirse y otros prohibirse?
  • ¿Cómo sería un diseño respetuoso?

Tarea de cierre

Escribir un marco de dignidad y consentimiento para réplicas póstumas con IA: 5 reglas que una empresa debería seguir.

Extensión

¿Qué pasa si un estudiante quiere crear una réplica de un amigo fallecido como proyecto escolar?

2424) Lanzamiento de IA de frontera: “¿Innovación abierta o riesgo público?”Secundaria superior
Tensión central: Apertura e innovación vs uso indebido + concentración de poder + riesgo sistémico
Actores involucrados: investigadores, empresas, gobiernos, educadores, trabajadores, público

Escenario

Una empresa desarrolla un modelo de IA muy poderoso capaz de escribir código, generar medios persuasivos, diseñar experimentos biológicos y automatizar muchas formas de trabajo intelectual. Algunos investigadores sostienen que debería liberarse abiertamente para fomentar innovación y equidad. Otros advierten que una liberación abierta podría facilitar desinformación a gran escala, ciberataques, fraude y usos peligrosos. Al mismo tiempo, mantenerlo cerrado concentra el poder en unas pocas corporaciones y gobiernos.

Opciones (con sus compensaciones)

A
Liberarlo abiertamente para todos
  • Fomenta innovación, acceso e investigación
  • El uso indebido puede propagarse más rápido que los resguardos
B
Usar una liberación escalonada con licencias, auditorías y resguardos
  • Equilibra acceso con gestión de riesgos
  • Aun puede concentrar poder y excluir a actores más pequeños
C
Mantener los sistemas de frontera muy cerrados y regulados por el gobierno
  • Puede reducir usos indebidos y riesgo sistémico
  • Concentra el control; reduce transparencia y beneficio público

Preguntas para debatir

  • ¿Quién debería decidir cuándo un modelo es demasiado riesgoso para liberarse abiertamente?
  • ¿La concentración de poder es en sí misma un riesgo ético?
  • ¿Se pueden proteger al mismo tiempo la transparencia y la seguridad?
  • ¿Qué papel deberían tener las instituciones públicas?
  • ¿Qué responsabilidades deben los desarrolladores de IA de frontera a la sociedad?

Tarea de cierre

Redactar un marco para la liberación de IA de frontera: quién evalúa el riesgo, qué evidencia se requiere, qué límites se aplican y qué responsabilidad pública es necesaria.

Extensión

¿Qué pasa si otro país libera primero un sistema similar de manera abierta?