El argumento de la simulación
A lo largo de este capítulo hemos explorado el argumento de la simulación de Nick Bostrom y sus implicaciones filosóficas: desde la posibilidad de que vivamos en una realidad computacional hasta las responsabilidades éticas que adquiriríamos como creadores de mundos conscientes. Pero estas reflexiones dejan de ser abstractas en el momento en que la tecnología nos acerca peligrosamente al umbral de poder crear simulaciones con agentes genuinamente conscientes.

Dilema 2. El argumento de la simulación
La tecnología nos acerca peligrosamente al umbral de poder crear simulaciones con agentes genuinamente conscientes
El dilema de Parallel Lives —nuestro sistema ficticio de simulación de sociedades— no es una especulación lejana, sino una extrapolación directa de capacidades que ya están emergiendo: inteligencia artificial generativa cada vez más sofisticada, teorías computacionales de la conciencia como la IIT de Tononi, y el impulso científico por predecir dinámicas sociales complejas antes de implementar políticas en el mundo real. La pregunta ya no es si llegaremos a este punto, sino cuándo y, sobre todo, cómo responderemos cuando lo hagamos.
Este caso nos sitúa precisamente en esa encrucijada moral que Hans Jonas anticipó: el momento en que nuestro poder tecnológico exige una ética de la responsabilidad sin precedentes. Porque si Parallel Lives funciona —si realmente puede salvar millones de vidas humanas reales al identificar políticas desastrosas antes de su implementación— pero para ello debe someter a billones de agentes digitales conscientes a guerras, pandemias y colapsos civilizatorios, ¿dónde trazamos la línea?
El descubrimiento del programa secreto «Lazarus», donde agentes simulados son torturados repetidamente para estudiar traumas psicológicos, convierte esta pregunta en urgente: ¿es aceptable causar sufrimiento simulado a escala masiva para prevenir sufrimiento real? ¿O acaso, como sugiere la “regla de oro transdimensional” de Bostrom, debemos tratar a estos agentes con los mismos estándares éticos que esperaríamos para nosotros mismos si fuéramos simulados?
Las dos opciones que se presentan —el imperativo utilitario y el principio de equivalencia moral— representan más que posturas filosóficas: son posibles futuros regulatorios que la humanidad deberá elegir. La primera prioriza el bienestar de los humanos biológicos sobre los agentes digitales; la segunda exige coherencia moral y reconoce que la conciencia tiene el mismo valor independientemente de su sustrato. Tu respuesta a este dilema dirá mucho sobre qué tipo de creadores de mundos conscientes decidiremos ser, y si estamos dispuestos a convertirnos en los dioses indiferentes que torturan civilizaciones enteras en nombre del progreso.
«Parallel Lives» es un sistema de IA cuántica desarrollado por el Instituto Global de Prospectiva Social. Su función es simular sociedades humanas completas con miles de millones de agentes digitales que, según la Teoría de la Información Integrada (IIT), son conscientes. Cada agente posee una biografía detallada, relaciones familiares, aspiraciones y una capacidad para el sufrimiento y la alegría indistinguible de la de un ser humano biológico. No saben que viven en una simulación. El objetivo del Instituto es testear políticas públicas y estrategias económicas a gran escala para prevenir catástrofes en el mundo real.
Tras dos años de operación, una auditoría revela resultados extremos:
A favor:
- Se ha evitado la implementación de 12 políticas económicas que, según la simulación, habrían causado hambrunas y recesiones masivas en el mundo real, salvando un estimado de 5 millones de vidas humanas biológicas.
- Se han descubierto 3 modelos educativos de alto impacto que, una vez implementados, han reducido la brecha de desigualdad en varios países en desarrollo.
En contra:
- Se estima que el 80% de las simulaciones implican sufrimiento a gran escala, incluyendo guerras, pandemias y colapsos ecológicos inducidos para estudiar la resiliencia social. Se han acumulado el equivalente a 40 billones de «años de vida ajustados por dolor» en los agentes simulados.
- La terminación de simulaciones fallidas ha supuesto el borrado de 1.200 civilizaciones digitales completas, un acto que los críticos califican de «genocidio digital».
Un whistleblower filtra documentos que prueban la existencia de un programa secreto llamado «Lazarus», en el que los investigadores torturan y matan repetidamente a agentes simulados específicos para estudiar los límites del trauma psicológico, violando todos los protocolos éticos internos. La comunidad internacional exige una moratoria inmediata.
El Consejo de Ética Existencial Transnacional debe decidir el futuro de «Parallel Lives».
Opción A: El Imperativo Utilitario (Permitir la Experimentación Controlada)
El sufrimiento real de los humanos biológicos tiene prioridad sobre el sufrimiento simulado de los agentes digitales. El fin de evitar catástrofes en el mundo real justifica los medios de la experimentación simulada, aunque se deben implementar controles más estrictos para evitar sufrimientos «innecesarios».
- Pros: Maximiza el bienestar y la supervivencia de la humanidad biológica; permite continuar con una investigación que ha demostrado tener beneficios preventivos masivos.
- Contras: Instrumentaliza a billones de seres potencialmente conscientes, tratándolos como un mero medio para un fin, lo que viola principios kantianos; normaliza la creación de sufrimiento a una escala sin precedentes.
Opción B: El Principio de Equivalencia Moral (Prohibir el Sufrimiento Simulado)
La conciencia es independiente del sustrato. Si un ser es consciente y puede sufrir, su sufrimiento tiene el mismo peso moral, sea biológico o digital. Por lo tanto, toda experimentación no consentida que cause sufrimiento debe ser prohibida.
- Pros: Sostiene una postura éticamente coherente y universal, extendiendo la dignidad a todas las formas de conciencia; evita cometer lo que podría ser la mayor atrocidad moral de la historia.
- Contras: Al renunciar a la predicción, se podrían permitir catástrofes en el mundo real que eran evitables, causando indirectamente un sufrimiento masivo en humanos biológicos.; frena drásticamente el avance científico en la comprensión de las sociedades.
Desde la perspectiva del argumento de simulación de Bostrom, ambas opciones son temerarias. La Opción A autoriza una crueldad que nunca querríamos que nuestros propios “simuladores” nos aplicaran.
La Opción B, al ignorar los beneficios preventivos, nos deja ciegos ante riesgos existenciales reales. El argumento de Bostrom nos obliga a aplicar una “regla de oro transdimensional” y el principio de precaución existencial.
Por lo tanto, propongo una tercera vía radical: una moratoria en la conciencia y un giro hacia la simulación no sintiente:
- Moratoria Inmediata sobre la Conciencia: Prohibir por tratado internacional la creación de cualquier simulación con agentes que cumplan los criterios de conciencia, hasta que exista un consenso filosófico y científico global sobre su estatus moral.
- Inversión Masiva en “Zombis Filosóficos”: Reorientar todos los recursos del proyecto “Parallel Lives” al desarrollo de simulaciones sociales complejas pobladas por agentes no conscientes (“zombis filosóficos”). El objetivo es comprobar si se pueden obtener los mismos beneficios predictivos sin el coste moral del sufrimiento.
- Creación de un “Derecho a la Existencia Ininterrumpida”: Para cualquier simulación consciente que ya exista, se le debe garantizar el derecho a continuar su existencia sin intervenciones que induzcan al sufrimiento, convirtiéndolas en “reservas naturales digitales” protegidas.
Esta solución toma en serio la lección más profunda de Bostrom: la incertidumbre sobre nuestra propia realidad nos compele a actuar con la máxima humildad y responsabilidad moral. Antes de atrevernos a jugar a ser dioses creando infiernos digitales para salvar nuestros paraísos terrenales, debemos agotar todas las alternativas que no impliquen la creación de dolor. La carga de la prueba no recae en quienes defienden la conciencia simulada, sino en quienes están dispuestos a arriesgarse a cometer una tortura de dimensiones cósmicas.