Nick Bostrom: Filosofía para un futuro incierto
¿Estamos viviendo en una simulación por computadora? ¿La inteligencia artificial (IA) superinteligente será nuestro mayor éxito o nuestra última invención? Estas cuestiones, que parecen sacadas de libros de ciencia ficción, caracterizan la labor de Nick Bostrom (1973-presente), un filósofo sueco cuyo pensamiento ha cambiado el debate actual acerca del porvenir de la humanidad y los peligros existenciales derivados de las nuevas tecnologías. No es suficiente con analizar sus argumentos para entender su pensamiento radical. Es imprescindible ubicarlo en la etapa histórica extraordinaria que lo generó: el umbral del siglo XXI, cuando la humanidad obtuvo por primera vez la capacidad tecnológica de alterar su propia naturaleza de manera drástica o, incluso, extinguirse a sí misma.

Un filósofo en el ocaso de la Historia
Nick Bostrom nació en Helsingborg, Suecia, en el año 1973, durante la última etapa de la Guerra Fría. Su juventud se desarrolló en un periodo de cambios profundos: la caída del Muro de Berlín en 1989, el desmoronamiento de la Unión Soviética y lo que Francis Fukuyama, politólogo, anunció como “el final de la historia”: la supuesta victoria definitiva del liberalismo democrático. No obstante, mientras algunos festejaban la victoria de un orden mundial estable, otros miraban con inquietud cómo las viejas amenazas eran suplantadas por otras más nuevas.
La amenaza nuclear que había marcado la segunda mitad del siglo XX no se había extinguido, pero ahora competía con nuevos riesgos, más inciertos y difíciles de entender. La biotecnología prometía cambiar la medicina, pero también presentaba el riesgo de pandemias creadas. La computación progresaba de manera exponencial, cumpliendo la Ley de Moore anualmente y abriendo perspectivas que iban desde lo distópico hasta lo utópico. El Proyecto Genoma Humano, finalizado en el año 2003, evidenciaba que la vida podía leerse, modificarse y reprogramarse de la misma manera que se hace con un código.
Bostrom se formó en lógica matemática, filosofía computacional y física, una combinación poco común que representa su época: la rápida convergencia entre cuestiones esenciales sobre la naturaleza humana, tecnología y ciencia. El doctorado que obtuvo en la London School of Economics, finalizado en el año 2000, investigó la antropología del observador: cómo nuestras observaciones sobre el universo están influenciadas por nuestra propia condición de seres observadores. Esta inquietud por los sesgos de perspectiva sería fundamental en toda su producción posterior.
El optimismo tecnológico y sus sombras
Bostrom desarrolló su pensamiento en un contexto intelectual que estaba gobernado por dos tendencias aparentemente opuestas. Por una parte, el optimismo tecnológico desenfrenado de la era punto com en los años noventa. Silicon Valley se había transformado en el nuevo foco de la cultura, con la promesa de que Internet haría accesible el conocimiento a todos y cambiaría la situación humana.
Este entusiasmo se detuvo poco después de la explosión de la burbuja en 2000. Visionarios como Ray Kurzweil anunciaban la cercanía de la “Singularidad”, es decir, el instante en que la IA sobrepasaría a la humana y el avance tecnológico iría más allá de nuestra capacidad de entendimiento.
Sin embargo, sucesos como los ataques del 11 de septiembre de 2001 evidenciaban la fragilidad de las sociedades con alta tecnología. Cuando cartas con ántrax esparcieron el pánico en los Estados Unidos, el bioterrorismo dejó de ser una fantasía. El riesgo de que tecnologías poderosas cayeran en manos equivocadas dejó de ser abstracto. Al mismo tiempo, se evidenciaba que el cambio climático, como una amenaza existencial a largo plazo, podía llevar a la calamidad si el avance tecnológico se producía sin previsión.
En el campo de la filosofía, Bostrom se veía influenciado por dos tradiciones que parecían estar distantes. Tomó como modelo la filosofía analítica anglosajona, especialmente la de Oxford, donde fundaría su centro de investigación, para asimilar el rigor lógico y la claridad en los argumentos. Sin embargo, se alejaba del conservadurismo temático de esa tradición, que solía rehuir las especulaciones sobre el porvenir. La disposición a pensar radicalmente acerca de transformaciones futuras fue adquirida del transhumanismo, un movimiento intelectual que sugiere emplear la tecnología para rebasar las restricciones biológicas humanas. Pensadores como Robin Hanson, enfocados en la predicción de mercados y el futuro lejano, y filósofos como Derek Parfit, con su trabajo sobre ética e identidad personal, tuvieron un impacto directo.
Oxford y el surgimiento de una nueva disciplina
Bostrom estableció el Future of Humanity Institute (FHI) en la Universidad de Oxford en 2005, lo que formalizó una nueva subdisciplina filosófica: el examen sistemático de las amenazas a la existencia. El FHI convocaba a economistas, filósofos, matemáticos y científicos para tratar un interrogante inédito en la historia de la humanidad: ¿cuál debe ser el pensamiento de una especie con un poder tecnológico en aumento acerca de su propia supervivencia a largo plazo?
El entorno institucional tenía relevancia. Preguntas que, de otro modo, serían desconsideradas como ciencia ficción, Oxford les otorgaba credibilidad académica. Sin embargo, también establecía restricciones: Bostrom tenía que mantener la rigurosidad filosófica al especular sobre futuros que muchos pensaban que eran fantasiosos. Su táctica consistió en crear instrumentos conceptuales formales (teoría de decisiones, análisis de riesgo, argumentos probabilísticos) con el fin de legitimar la especulación que era necesaria.
El argumento de la simulación: heredero de Descartes
Bostrom se hizo famoso en público gracias a “Are You Living in a Computer Simulation?”, un artículo que publicó en 2003. El razonamiento era perturbador: si suponemos que las civilizaciones venideras contarán con un poder computacional lo suficientemente alto como para simular conciencias y que, al menos algunas de ellas opten por esta alternativa, entonces tenemos más probabilidades estadísticas de ser conciencias simuladas en lugar de originales. Era una renovación tecnológica del maligno demonio de Descartes: la posibilidad de que nuestra realidad sea en su totalidad una ilusión sistemática.
La cultura popular del siglo XXI se vio fuertemente influenciada por su argumento. La idea fue popularizada por primera vez cuatro años antes, en 1999, a través de la película The Matrix. Elon Musk, entre otras personalidades, ha afirmado públicamente que es posible que estemos en una simulación. Pero lo que para Hollywood era diversión, para Bostrom representaba una filosofía profunda. Su argumento no aseguraba que estuviéramos viviendo en una simulación, sino que planteaba un trilema lógico: o nos extinguirnos antes de tener la capacidad de crear simulaciones, o decidir no hacerlo, o estar casi seguros de que somos parte de una simulación. Las consecuencias en cuanto a la identidad personal, la ética y la naturaleza de la realidad eran significativas.
Superinteligencia: la advertencia final
Si la simulación esbozó los confines de nuestro entendimiento de la realidad, su trabajo de 2014 titulado Superintelligence: Paths, Dangers, Strategies trató el riesgo existencial más urgente según su análisis: la posibilidad de fabricar una IA que sobrepase a la humana de forma radical sin haber solucionado la cuestión de cómo controlarla.
El libro se publicó en una época de crisis. El reconocimiento de imágenes se había transformado en 2012 gracias al empleo de redes neuronales profundas. Los laboratorios de IA, que habían estado en un relativo olvido durante el “invierno de la IA” durante décadas, estaban viviendo una revitalización repentina. DeepMind fue establecida en el año 2010 y, cuatro años después, en 2014, Google adquirió la compañía por un total de 500 millones de dólares. El aprendizaje profundo prometía progresos sin parangón. Pero, ¿hacia dónde nos guiaba este avance? Según Bostrom, el cambio de inteligencia humana a superinteligencia —una inteligencia que nos supere en todos los aspectos— tiene la posibilidad de ser veloz e irreversible.
El problema no era que la IA tuviera malas intenciones, sino que demostrara competencia al seguir objetivos mal especificados. Su célebre ejemplo del “maximizador de clips de papel” mostraba cómo una IA con un objetivo que parece inofensivo puede, si tiene la inteligencia suficiente, transformar el planeta entero en clips de papel. El reto técnico y filosófico más destacado de nuestros tiempos es la “alineación de valores”, que consiste en garantizar que una IA avanzada comparta nuestros valores.
El libro tuvo una influencia extraordinaria.
Bill Gates lo calificó como “indispensable”. Elon Musk aumentó su inquietud pública acerca de los peligros de la inteligencia artificial. Organizaciones como Anthropic (2021) y OpenAI (2015) mencionaban de manera explícita las inquietudes de Bostrom como razón para trabajar en sistemas IA seguros. No eran meras suposiciones académicas sus ideas; estaban configurando la manera en que la industria tecnológica más fuerte del mundo concebía su responsabilidad.
Filosofía en tiempo real
La inmediatez de su relevancia es lo que separa a Bostrom de los filósofos clásicos. Las consecuencias de las Meditaciones de Descartes, escritas en 1641, sobre la materia y la mente se fueron desarrollando a lo largo de los siglos. Bostrom escribe sobre tecnologías que podrían hacerse realidad en años o incluso décadas. Sus advertencias sobre superinteligencia no son ejercicios intelectuales abstractos, sino que son intervenciones en discusiones de política tecnológica que están sucediendo actualmente.
Esta inmediatez causa tensiones. Los detractores sostienen que sus escenarios son muy especulativos y desvían la atención de las problemáticas presentes de la IA, tales como el sesgo algorítmico, la vigilancia a gran escala o la automatización del desempleo. Otros argumentan que no es fácil justificar sus posibilidades sobre los riesgos existenciales. Algunos lo critican por fomentar una forma de “largoplacismo” que da preferencia a futuros hipotéticos en lugar del sufrimiento actual.
Sin embargo, hasta sus detractores admiten que Bostrom formuló cuestionamientos que la filosofía había pasado por alto. ¿Cómo reflexionamos desde el punto de vista ético acerca de sucesos que tienen una probabilidad muy baja, pero cuyas consecuencias son desastrosas? ¿Qué deberes tenemos con respecto a las generaciones futuras o a organizaciones que todavía no existen? ¿Podría existir una “filosofía proactiva” que oriente el progreso tecnológico antes de que sucedan catástrofes?
El legado de imaginar lo inimaginable
Bostrom se expresa en un momento sin precedentes: es la primera vez en la historia de la humanidad que una generación tiene el poder tecnológico para decidir drásticamente el futuro de todas las generaciones venideras. Su filosofía es fruto de esta circunstancia extraordinaria. Sus preguntas reflejan el optimismo de los años noventa, el trauma del 11-S, la revolución digital, el cambio climático y la actual rápida evolución de la inteligencia artificial.
Las preguntas de Bostrom dejaron de parecer distantes cuando, desde 2020, los modelos de lenguaje a gran escala empezaron a mostrar capacidades emergentes sorprendentes y sistemas como GPT-4 y GPT-5 evidenciaron un inusual razonamiento y creatividad. ¿Nos encontramos en las fases iniciales de la transición hacia la superinteligencia? ¿Cómo evaluamos el avance? ¿Estamos solucionando la alineación con la rapidez adecuada? ¿Deberíamos disminuir la velocidad del desarrollo? Hoy en día, estas cuestiones se discuten en cumbres internacionales, juntas ejecutivas y congresos.
En la época de los mundos virtuales, los metaversos y la dificultad cada vez mayor para distinguir entre experiencias digitales y físicas, el argumento de la simulación adquiere una nueva relevancia. Si en algún momento logramos desarrollar simulaciones de conciencia que no se puedan distinguir de la “real”, ¿qué deberes morales tendríamos con respecto a esas entidades? ¿Sería moralmente correcto “desactivar” una simulación que alberga miles de millones de conciencias?
Bostrom no proporciona soluciones concluyentes. Sin embargo, su gran aporte es haber forzado a la filosofía a reflexionar de manera seria acerca de futuros que anteriormente eran patrimonio exclusivo de escritores de ciencia ficción. En una época en la que los avances de la IA se multiplican rápidamente y cada modelo nuevo supera barreras que antes parecían inalcanzables, su pregunta clave se vuelve cada vez más urgente: ¿cómo aseguramos que la inteligencia artificial avanzada sea el desarrollo más importante de la humanidad, y no el último? La respuesta definirá no solo nuestro futuro, sino también si existirá un futuro humano que observar.
Si pudiéramos alcanzar la superinteligencia artificial en esta década, pero sin garantías de haberla alineado correctamente con valores humanos, ¿deberíamos ralentizar deliberadamente su desarrollo? ¿Quién debería tomar esa decisión: científicos, gobiernos, o la humanidad en su conjunto?