La inteligencia artificial es la forma personalizada que usamos para referirnos a la capacidad de unas máquinas para realizar tareas que, si fueran realizadas por seres humanos, requerirían inteligencia. Si bien la IA ha avanzado significativamente en las últimas décadas, ¿se logrará diseñar una máquina con conciencia?, ¿estamos lejos o no de construir máquinas como los replicantes de Blade Runner, el simpático Wall-E, o el gracioso R2D2?
Para lograr diseñar una máquina o un programa que adquiera conciencia, primero deberíamos poder describir y explicar qué es la conciencia. Un arduo trabajo que se acompleja a medida que las investigaciones avanzan. Veamos solo algunas de las cuestiones principales.
Los algoritmos de las IA pueden ser muy efectivos en la resolución de tareas específicas, como clasificar imágenes o traducir idiomas, pero atrapar la mente en un algoritmo que se pueda programar en una máquina es un gran reto. La mayoría de los intentos son solo simplificaciones y/o parcializaciones de funciones mentales.
La superficialidad que la sociedad actual tiene del conocimiento hace que la mayoría de las personas piensen que es posible en un futuro muy próximo tener estos robots con conciencia, porque es muy fácil imaginar una máquina que piensa y habla, muchísimas películas nos lo muestran. Bastante más difícil es explicar cómo fabricar una máquina que piense, sienta, perciba, tenga autoconciencia…, hasta el punto de que, actualmente, simular la mente con algoritmos se considera descartado. Los motivos son numerosos. Por un lado, la mente humana es capaz de procesar información en múltiples niveles, desde la percepción sensorial hasta la toma de decisiones complejas y la creatividad. Además, la mente humana es capaz de aprender y adaptarse continuamente a nuevas situaciones y entornos, lo que hace que sea difícil replicar su funcionamiento en un algoritmo fijo.
Un experimento mental
Filósofos como John Searle y Thomas Nagel argumentan que la experiencia subjetiva de la conciencia no puede ser explicada mediante un algoritmo. En concreto, Searle, en 1980, planteó un experimento mental: un hombre que no tiene ni idea de chino es encerrado en una habitación, en la que hay varias cestas llenas de símbolos chinos. En la habitación también hay un manual en castellano que explica cómo combinar esos símbolos. Por ejemplo, una de las reglas del manual podría decir: «Toma el garabato “changyan” de la cesta A y ponlo junto al garabato “chengyen” de la cesta B». Entre las instrucciones hay, además, una que especifica cómo enviar fuera de la habitación ciertas combinaciones de símbolos chinos ante la entrada de nuevos símbolos.
Fuera de la habitación, los «programadores» de este experimento llaman a los símbolos que entran en la habitación «preguntas» y a los que salen, «respuestas». Los programadores son tan buenos diseñando programas y el hombre es tan bueno manipulando los símbolos que pronto el sistema llega a ser tan eficaz que sus respuestas son emitidas en perfecto chino, indistinguibles de las de un hablante chino real. Pese a ello, ¿se puede afirmar que el hombre (o el sistema) entiende chino?
Desde el exterior de la habitación, puede parecer que la persona dentro de la habitación comprende el chino y puede responder preguntas en chino con precisión. Sin embargo, en realidad, la persona dentro de la habitación no entiende el significado del lenguaje chino en absoluto y simplemente está siguiendo un conjunto de reglas preestablecidas para producir respuestas en chino.
La idea principal es muy clara: una cosa es manipular símbolos conforme a unas reglas formales y otra cosa es «comprender» estos símbolos. En términos lingüísticos: el programa lleva a cabo manipulaciones sintácticas, la mente humana lleva a cabo, además de las manipulaciones sintácticas, manipulaciones semánticas.
Así, si una computadora o un programa de inteligencia artificial produce respuestas precisas, no necesariamente significa que entiendan el significado detrás del lenguaje o que tengan una comprensión real de la mente humana. Para Searle, hay una diferencia entre la semántica y la sintaxis. El ordenador tiene sintaxis, tiene normas, pero no semántica. El ser humano con conciencia no solo reacciona ante estímulos, el ser humano interpreta.
En realidad, el experimento mental expuesto por Searle en la habitación china puede considerarse una réplica a otro experimento mental: el test de Turing. Este «test» es una prueba propuesta por Alan Turing para demostrar la existencia de inteligencia en una máquina. Una puntualización importante: Searle no niega que las máquinas puedan pensar, niega que al hacerlo apliquen un programa.
Inteligencia y conciencia
Esta cuestión semántica también se repite para el algoritmo del ChatGPT, tan mentado y que tanta polémica ha desatado desde su inicio en noviembre de 2022. Esta aplicación de simulación de conversación usa grandes cantidades de datos de texto para calcular de forma probabilística qué palabra suele seguir a otra, junto con reglas sintácticas. Y aunque utiliza el conocimiento previo que tiene incorporado por entrenamiento con personas humanas para generar una respuesta coherente, sigue sin tener semántica, sigue siendo un algoritmo.
En esta línea, el matemático Roger Penrose, en su libro La nueva mente del emperador, utiliza el apoyo de la física cuántica (aunque un poco abstrusamente, todo hay que decirlo) para argumentar, al igual que Searle, que los seres humanos tenemos procesos mentales que no son (ni serán, y este es un matiz importante) computables. En gran parte, porque somos conscientes de que somos conscientes, y ahí hay semántica.
En otra línea de teorización está el neurocientífico y filósofo Karl Friston, que ha desarrollado una teoría llamada la teoría de la inferencia libre de energía (Free Energy Principle), que defiende que la mente humana no es algorítmica porque está basada en la minimización de la energía libre, en vez de estar basada en la programación de algoritmos o la manipulación de símbolos.
Pero ¿es solo inteligencia lo que define a un ser humano? ¿Es la conciencia fruto solo de la inteligencia? Debemos considerar otro factor que hace que la mente humana sea difícil de codificar: su capacidad para procesar información emocional y social, lo que incluye habilidades como la empatía, la compasión y la intuición. En concreto, la consideración de que los sentimientos son una parte importante de la conciencia humana ha llevado a un acuerdo bastante generalizado entre filósofos de la mente, antropólogos y neurocientíficos, acerca de que la conciencia es un fenómeno que solo se encontrará relacionado con la vida, en seres vivos, como los humanos, animales…
Y es en el campo de la biología y las neurociencias donde nos encontramos con otro problema fundamental: la explicación de cómo la actividad cerebral se traduce en la experiencia subjetiva de la conciencia, y en concreto de los «qualia», la experiencia que proviene de los sentidos, percibir el dolor, el sabor, el color… Los qualia son las experiencias subjetivas que no pueden ser descritas por medio del lenguaje, sino que son únicas y personales para cada individuo, son inherentemente privadas, solo son conocidas por la persona que las está experimentando. La hipótesis materialista que liga la actividad de las neuronas en el cerebro a la conciencia no proporciona una explicación de cómo los procesos cerebrales pueden dar lugar a esta experiencia subjetiva de ser consciente, o de percibir el dolor… Una de las grandes preguntas abiertas es: ¿puede la experiencia subjetiva reducirse a procesos físicos o neuronales en el cerebro?
Y es que la conciencia humana es multifacética y engloba además de razonamiento o junto con él, la percepción sensorial, la memoria, las emociones, los juicios de valor… La reducción de la experiencia subjetiva a procesos físicos y neuronales en el cerebro conduce a una pérdida de la riqueza, de la complejidad y de multitud de detalles importantes relacionados con la cultura humana. Por ello prefiero la tesis del filósofo Juan Arana: ¿y si la conciencia es sencillamente inexplicable? Al menos desde el ámbito puramente naturalista.