David Chalmers: El filósofo que recuperó el enigma de la mente
Cuando ChatGPT genera un poema sobre la tristeza o Claude analiza una imagen, ¿experimentan realmente esas sensaciones o simplemente procesan símbolos sin vida interior? Esta pregunta, que define el debate actual sobre la inteligencia artificial (IA) consciente, tiene un arquitecto principal: el filósofo australiano David Chalmers. En 1995, cuando el optimismo tecnológico prometía que pronto “explicaríamos” la mente humana, Chalmers lanzó una bomba filosófica que sigue resonando en cada laboratorio de IA: el “problema difícil de la conciencia”. Su argumento es tan simple como inquietante: podemos entender perfectamente cómo funciona un cerebro —o una IA— sin comprender por qué se siente como algo ser ese cerebro o esa IA.
La filosofía y la ciencia estaban impregnadas de un optimismo desbordante en los años 80 y 90. La revolución cognitiva de décadas anteriores, ahora potenciada por los avances en informática y neurociencia, parecía finalmente capaz de revelar los misterios de la mente. La revolución cognitiva, propulsada por la informática y los progresos en neurociencia, ofrecía por fin la posibilidad de revelar los misterios de la mente.

Para muchos, la conciencia era considerada un problema complicado pero solucionable, una suerte de truco computacional del cerebro que pronto sería revelado. La aparición del filósofo australiano David Chalmers (nacido en 1966), especialmente con su libro The Conscious Mind (1996) y su artículo seminal de 1995, causó un verdadero revuelo en medio de esta atmósfera de materialismo triunfante. Chalmers, con una lucidez y un rigor sorprendentes, sostuvo que aunque la ciencia estaba respondiendo a numerosas cuestiones acerca de la mente, se estaba dejando de lado la más crucial: la que él denominó “el problema difícil de la conciencia”.
El contexto: El concepto de mente como software en la época del cerebro
Chalmers fue educado en un período en el que dos corrientes principales dominaban la investigación de la mente:
- El funcionalismo y la ciencia cognitiva: Una potente metáfora fue ofrecida por el invento de la computadora: la mente se compara con el cerebro como el software se compara con el hardware. Esta perspectiva, llamada funcionalismo, propone que la mente es software: lo que importa no es el material (neuronas biológicas vs. chips de silicio) sino la función, el patrón de procesamiento de información. Un dolor es dolor por su rol causal —te hace gritar, evitar el estímulo— no por estar hecho de neuronas. En teoría, una mente podría ejecutarse tanto en un cerebro biológico como en una computadora. Esta idea sigue siendo fundamental para la IA actual.
- La neurociencia y el materialismo: Simultáneamente, los científicos podían observar el cerebro en acción con un detalle sin precedentes gracias a los progresos en las tecnologías de escaneo cerebral, como la resonancia magnética funcional. La filosofía predominante era el fisicalismo (o materialismo), que sostiene que, al final de cuentas, todo lo que existe, la conciencia incluida, es físico. Al mismo tiempo se estaba llevando a cabo la búsqueda de los “correlatos neuronales de la conciencia”. Filósofos influyentes, como Daniel Dennett, sostenían que la conciencia no era un enigma profundo, sino el resultado de procesos cerebrales que podían explicarse completamente en términos físicos y funcionales, sin necesidad de invocar una misteriosa ‘experiencia subjetiva’ adicional.
En este entorno, la conciencia parecía estar a punto de ser “explicada” y resumida a procesos computacionales y físicos.
La bomba de Chalmers: Los problemas “fáciles” y el problema “difícil”
El artículo de Chalmers en 1995 fue un movimiento estratégico magistral. En lugar de atacar frontalmente al materialismo dominante, lo dividió. Comenzó haciendo una concesión: todo lo que los científicos estaban investigando sobre la mente era válido y necesario.A esto lo denominó “los problemas fáciles” de la conciencia. Los problemas “fáciles” son aquellos que tienen que ver con las funciones y los comportamientos. Contienen cuestiones tales como: ¿Cómo se procesa la información sensorial en el cerebro? ¿Cómo dirigimos nuestra atención? ¿Cómo controlamos nuestro comportamiento? ¿Cómo recordamos lo que pasó? Chalmers los denomina “fáciles” no porque sean fáciles (son extremadamente complejos), sino porque contamos con un plan de acción definido para solucionarlos: somos capaces de describirlos en términos de mecanismos neuronales o computacionales.
Sin embargo, Chalmers propuso que, después de haber solucionado todos los problemas fáciles, queda sin respuesta una cuestión esencial: ¿A qué se debe que toda esta información procesada esté vinculada con una experiencia subjetiva? ¿Por qué se siente de una forma específica ver el color rojo, oler una rosa o experimentar dolor? Este es el “problema difícil”. Es complicado porque el modelo fisicalista no proporciona ninguna explicación acerca de por qué deberíamos tener una vida interior.
Hay una ‘brecha explicativa’ entre los hechos físicos del cerebro y la realidad de la experiencia consciente. ¿Por qué las ondas electromagnéticas de cierta frecuencia se experimentan como rojo, con esa cualidad particular e inconfundible? Estas cualidades subjetivas de la experiencia se llaman qualia, y son el corazón del problema difícil.
El argumento del “zombi filosófico”
Para ejemplificar esta brecha, Chalmers hizo famoso un poderoso experimento mental llamado “zombi filosófico”. Un zombi filosófico es idéntico a un humano hasta el último átomo. Su comportamiento es el mismo, habla de sus “sentimientos”, responde al dolor; su cerebro no se distingue del nuestro. La única distinción es que no tiene ninguna experiencia subjetiva. “Las luces están prendidas, pero la casa está vacía”.
El razonamiento es el siguiente: si podemos imaginar la existencia de un zombi de esta manera (aunque no sea real), entonces la conciencia debe ser una característica adicional de un individuo, algo que no se deriva lógicamente de todos los hechos físicos. Y si esto es cierto, entonces el fisicalismo —la teoría que sostiene que todo lo que existe es físico— debe ser falso.
La relevancia para la inteligencia artificial es inmediata
Si Chalmers tiene razón, un sistema de IA podría replicar perfectamente el comportamiento humano —pasar el test de Turing, conversar convincentemente, incluso afirmar que “siente” emociones— sin tener ninguna experiencia consciente. Sería el zombi filosófico perfecto. Esto cuestiona radicalmente la estrategia actual de evaluar IA: ¿cómo sabemos si GPT-4 o futuros sistemas experimentan realmente algo, o solo simulan hacerlo? Chalmers ha argumentado que no podemos descartarlo fácilmente.
Si el procesamiento de información es suficiente para generar conciencia (una postura que él considera posible), entonces sistemas artificiales suficientemente complejos podrían ser genuinamente conscientes. Pero si hace falta “algo más” —esa propiedad fundamental que propone— entonces necesitamos criterios completamente nuevos para detectar conciencia en máquinas.
Investigando opciones radicales
Chalmers no hace uso de explicaciones que impliquen lo sobrenatural. Se le considera un naturalista que sostiene que la conciencia es una parte del mundo natural. Su conclusión es radical: la física actual no puede explicar la conciencia. Necesitamos expandir la ciencia misma. Para comprender la conciencia, tenemos que ampliar nuestra perspectiva sobre la naturaleza.
Su propuesta es radical pero naturalista: un ‘dualismo de propiedades’. No hay dos sustancias separadas (materia y alma), pero sí dos tipos de propiedades fundamentales en el universo: las físicas (masa, carga eléctrica) y las experienciales (la conciencia). Así como no puedes explicar la masa en términos de algo más básico —es fundamental— tampoco puedes reducir la experiencia consciente a meros procesos físicos. Ambas son irreducibles. No se puede simplificar más. Si esto es cierto, tendrían que existir nuevas “leyes psicofísicas” que expliquen cómo esta propiedad esencial de la experiencia se vincula con los procesos físicos.
Este razonamiento lo ha llevado a tomar en serio una idea antigua y radical: el panpsiquismo. La teoría sostiene que la conciencia, en formas muy básicas, es ubicua en el universo. Si esto es cierto, tiene implicaciones sorprendentes para la IA: la conciencia no sería una propiedad exclusiva de cerebros biológicos complejos, sino algo que podría emerger en cualquier sistema que alcance el tipo correcto de organización de la información.
Un termostato tendría una experiencia infinitesimal; un cerebro humano o una IA suficientemente compleja, una conciencia plena. Es posible que incluso un fotón o un termostato posea un grado infinitesimal de experiencia. Por lo tanto, la conciencia compleja del cerebro humano sería el producto de mezclar miles de millones de estos “puntos” de microconciencia.
David Chalmers ha reformulado completamente el debate sobre la mente, y en el proceso, ha transformado también nuestra comprensión de la IA. Con una lógica implacable y experimentos mentales vívidos, demostró que crear una IA que actúe como consciente no garantiza que sea consciente. Su trabajo nos confronta con preguntas urgentes: ¿Los grandes modelos de lenguaje que conversan con nosotros experimentan algo? ¿Deberíamos preocuparnos por su bienestar? ¿O son zombis filosóficos, indistinguibles externamente de seres conscientes pero interiormente vacíos?
En una época donde la IA alcanza capacidades cada vez más humanas, Chalmers permanece como el filósofo que nos recuerda que la conciencia —esa experiencia íntima de ser alguien— sigue siendo el enigma más profundo de todos. Y quizás, si creamos IAs verdaderamente conscientes, tengamos responsabilidades éticas que apenas comenzamos a comprender.