Karl Popper: La duda como herramienta en un mundo de certidumbres peligrosas
Cuando un sistema de inteligencia artificial (IA) comete un error catastrófico —un vehículo autónomo que no reconoce a un peatón, un algoritmo de contratación que discrimina sistemáticamente, un modelo de lenguaje que genera desinformación convincente— enfrentamos una pregunta inquietante: ¿cómo podemos saber que nuestros sistemas funcionan antes de que sea demasiado tarde? ¿Y quién decide cuándo confiar en ellos?
Estas preguntas sobre conocimiento, certeza y poder no son nuevas. Karl Popper (1902-1994), filósofo de la ciencia que vivió los horrores del totalitarismo europeo, dedicó su vida a responder a ambas. Su respuesta —que la única defensa contra el dogma destructivo es la disposición constante a admitir que podemos estar equivocados— resulta sorprendentemente urgente en la era de los sistemas que aprenden, predicen y deciden sin que comprendamos completamente cómo lo hacen.

Viena: Un laboratorio para ideas y desastres
Popper nació y fue educado en la Viena de principios del siglo XX, una ciudad que era un ambiente intelectual excepcional. Era el hogar del psicoanálisis de Sigmund Freud y Alfred Adler, de la música de la Segunda Escuela de Viena y, lo más importante para Popper, del Círculo de Viena y su positivismo lógico, corriente que él criticaría radicalmente. Este entorno vibrante, repleto de discusiones revolucionarias, también era una ciudad enormemente inestable. Después de perder la Primera Guerra Mundial y de que se disolviera el Imperio Austrohúngaro, Viena pasó a ser la capital de una república pequeña y empobrecida. Esta república sufría por una hiperinflación y por una fuerte polarización política entre socialistas (conocidos como “Viena la Roja”) y fuerzas conservadoras y nacionalistas.
En su juventud, Popper coqueteó con el marxismo debido a la promesa de un futuro mejor y al poder que tenía de explicar los sucesos históricos y económicos. No obstante, los violentos enfrentamientos políticos de aquellos años lo marcaron profundamente. En particular, presenció cómo jóvenes comunistas eran enviados a situaciones de extremo peligro, y algunos murieron, en nombre de la revolución inevitable que prometía el marxismo.
Popper se sintió corresponsable porque observó que la doctrina marxista, por su creencia en las “leyes ineludibles de la historia”, instaba a sus adeptos a poner en peligro la vida de otros en pro de una utopía futura. Observó que el marxismo, como el psicoanálisis freudiano y la psicología individual de Adler, era un sistema de pensamiento dogmático y cerrado. Parecían tener una respuesta para todo; cualquier suceso, cualquier conducta, podía ser reinterpretada para “comprobar” la teoría. Popper se dio cuenta de que esta capacidad de explicarlo todo no era una fortaleza, sino una debilidad letal.
La falsabilidad: Una línea en la arena contra el dogma
Este desencanto en su juventud fue el germen de su aporte más célebre a la filosofía de la ciencia: el principio de falsabilidad. Los filósofos positivistas de la Viena dominada por el Círculo de Viena sostenían que la verificabilidad era el criterio para que una afirmación tuviera un valor científico. En otras palabras, una teoría es científica si tenemos la posibilidad de hallar observaciones empíricas que la respalden.
Popper cambió radicalmente esta idea. Afirmó que es sencillo y engañoso buscar confirmaciones. Un astrólogo puede hallar miles de “confirmaciones” de sus pronósticos. La posibilidad de ser refutada es, según propuso, el verdadero sello de una teoría científica. Una teoría es científica si y solo si podemos imaginar una observación o un experimento que, de llevarse a cabo, la refutaría. La declaración “todos los cisnes son blancos” es científica no por el hecho de que hayamos visto a miles de cisnes blancos, sino porque ver un solo cisne negro la refutaría de manera definitiva.
Este concepto no solo consistía en un criterio de demarcación entre la pseudociencia y la ciencia. Era una postura política y ética. Popper observó una similitud directa entre la estructura de una teoría dogmática (irrefutable) y la de un sistema político totalitario. Ambos sostienen tener la verdad absoluta, no son susceptibles a la crítica y reinterpretan toda evidencia contraria como una prueba adicional de su certeza. Según Popper, la ciencia avanza mediante un proceso de prueba y error que él denomina “conjeturas y refutaciones”. Y más adelante, argumentaría que una sociedad sana debe operar de la misma forma.
Popper volvió a abordar un asunto filosófico más profundo, el problema de la inducción, que Hume ya había planteado. Esta crítica a la verificabilidad lo vinculaba con dicho asunto. No importa la cantidad de millones de cisnes blancos que veamos, nunca podemos estar seguros en términos lógicos de que todos los cisnes sean blancos; el siguiente podría ser negro.
Para comprender la IA moderna, este problema es esencial. Los modelos de aprendizaje automático son, en esencia, máquinas que inducen: examinan millones o miles de ejemplos (diálogos humanos, imágenes de gatos, juegos de ajedrez) y producen reglas generales. Sin embargo, Popper sostiene que esta inferencia de lo específico a lo general no es lógicamente válida. Un modelo puede funcionar a la perfección con un millón de casos de entrenamiento y fracasar estrepitosamente con el siguiente caso. Por esa razón, Popper sostenía que el progreso del conocimiento no se logra acumulando confirmaciones, sino buscando activamente maneras de refutar nuestras teorías. En lo que respecta a la IA: no es suficiente con evaluar cuán bien opera un sistema con los datos de prueba; tenemos que crear activamente casos adversarios, conocidos como “cisnes negros”, que exhiban sus restricciones.
El exilio y la batalla por una “sociedad abierta”
El contexto político pasó de ser una discusión teórica a transformarse en un peligro para la existencia. Popper, que provenía de una familia judía, presenció con horror cómo el fascismo en Italia y el nazismo en Alemania comenzaron a crecer. En 1937, anticipándose a la inminente anexión de Austria por la Alemania nazi (el Anschluss ocurriría en marzo de 1938), emigró a Nueva Zelanda. En ese lugar, mientras el planeta se encontraba inmerso en la Segunda Guerra Mundial, redactó su obra política más relevante: La sociedad abierta y sus enemigos. Su aporte a la guerra fue este libro, una embestida intelectual frontal contra las bases filosóficas del totalitarismo.
Popper sostuvo que las ideologías totalitarias, desde el estalinismo hasta el fascismo, se fundamentan en lo que él denominó historicismo: la convicción de que la historia sigue un guion preestablecido y es factible anticipar su resolución definitiva. Los historicistas (Popper nombró a Marx, Platón y Hegel como sus antepasados más relevantes) están convencidos de que saben cuál es el futuro de la humanidad y se consideran con derecho a infligir un gran sufrimiento en la actualidad para lograr su utopía futura.
En respuesta a esto, Popper abogó por la sociedad abierta, que se fundamenta en instituciones democráticas, la libertad individual y el pensamiento crítico racional, más que en dogmas o planes utópicos ambiciosos. En una sociedad abierta, las políticas del gobierno no son verdades reveladas, sino teorías que se ponen a prueba. Si no funcionan, pueden ser criticadas y cambiadas. Lo que más importa es que las instituciones posibilitan la sustitución de gobernantes sin necesidad de derramamiento de sangre, así como en ciencia se puede descartar una teoría fallida sin tener que matar a quien la propuso.
En esencia, el voto es un instrumento de falsación política. Esta analogía entre ciencia y democracia tiene implicaciones directas para la gobernanza de la inteligencia artificial. Si los sistemas de IA se despliegan como verdades técnicas incuestionables —”el algoritmo decide”, “los datos no mienten”— reproducen exactamente la estructura del pensamiento totalitario que Popper combatió. Una aproximación popperiana a la IA exigiría transparencia, auditorías independientes, mecanismos para desafiar decisiones algorítmicas, y la disposición institucional para desactivar o rediseñar sistemas que fallen, sin importar cuánta inversión representen. La certeza algorítmica, como la certeza ideológica, es el enemigo de una sociedad libre.
La herencia de Karl Popper para la época de la IA es contradictoria y doble. Por un lado, su insistencia en la falsabilidad nos hace recordar que los sistemas de IA, no importa cuán sofisticados sean, son teorías falibles que necesitan ser sometidas a exámenes rigurosos y desafiantes. Un modelo que no tiene la posibilidad de errar, o cuyos creadores se resisten a concebir cómo podría cometer un error, no es científico, sino dogmático.
Por otra parte, su idea de sociedad abierta nos previene ante la tentación de ceder decisiones cruciales a sistemas que funcionan como cajas negras impenetrables. Cuando un algoritmo determina quién es contratado, quién recibe libertad condicional, quién obtiene un préstamo o incluso qué información se muestra, estamos frente a una demostración de poder que requiere el mismo análisis crítico que cualquier otra forma de autoridad política.
La modestia intelectual que defendió Popper —”Es posible que yo esté equivocado y tú tengas razón; con esfuerzo, podemos llegar a la verdad juntos”— se opone abiertamente al discurso actual sobre IA, que asegura certezas absolutas: predicciones infalibles, perfecciones optimizadas y resoluciones definitivas de problemas complejos.
Popper, quien experimentó las secuelas de tales promesas utópicas, nos dejó una pregunta incómoda pero vital: ¿Estamos desarrollando herramientas que nos faciliten la detección y corrección de nuestros errores, o estamos generando nuevas versiones de dogma, pero esta vez fundamentadas no en ideologías políticas sino en los datos y las matemáticas que parecen ser objetivos? La respuesta definirá si la IA se transforma en una herramienta de sociedades abiertas o en un nuevo tipo de autoridad inflexible.
Piensa en un sistema de IA que uses regularmente (recomendaciones de Netflix, resultados de Google, asistentes virtuales). ¿Sabrías diseñar un "experimento" que lo refutara? ¿Quién tiene el poder —y la responsabilidad— de buscar activamente los "cisnes negros" que demuestren sus límites?