Entrevistas — 29 de febrero de 2020 at 23:00

Graciano González R. Arnáiz: «Problemas éticos derivados de la inteligencia artificial»

por ,
Graciano González R. Arnaiz

Las biotecnologías nos están enfrentando a graves dilemas, que deben ser resueltos con el concurso de la filosofía y de la ética. Este es el tema sobre el que gira la entrevista al profesor de Filosofía y Ética Graciano González R. Arnaiz, catedrático de Ética en la Facultad de Filosofía de la Universidad Complutense de Madrid y director del Grupo de Investigación Ética, Política y Derechos Humanos en la Sociedad Tecnológica. Es autor de numerosas publicaciones sobre ética, bioética, derechos humanos y dignidad humana, y ha participado como asesor de ética en diversos comités médicos.

Lo que viene a continuación es un extracto de una interesante entrevista que dura noventa y cinco minutos aproximadamente, y que va poniendo la atención sobre las investigaciones más candentes y desconocidas aún por la mayoría de nosotros, investigaciones que están llevando la ciencia ficción a la realidad a pasos agigantados y a tal velocidad que no está permitiendo el tiempo suficiente para una reflexión completamente necesaria sobre ellas.

¿Hay valores comunes a toda la humanidad, a pesar de las distintas culturas, sociedades, sistemas filosóficos…?

Depende. La esperanza para la ética es poder descubrir valores universales, encontrar en el estudio de las diversas culturas una serie de valores que podamos compartir. Pero no es fácil. Incluso para unificar el valor de la paz, hay que andarse con mucho cuidado. Porque ha habido y sigue habiendo guerras, sectores que promueven la guerra santa…

El diálogo debe ser interreligioso primero, e intercultural después. Y hay que aprovechar la globalización, que empezó siendo económica, pero tiene que extenderse a la sanidad, la educación, lo social… No hay que estar en contra de la globalización, sino de un modelo de globalización.

Los filósofos nos hemos peleado contra la globalización. Y me parece un error. Tenemos que romper la globalización puramente económica y abrirla a espacios de humanización, de pacificación, de solidaridad, etc. De ese modo, la economía pasa a ser la servidora, la que procura los bienes que deben servir para todos. Esa es una actividad económica ética.

El bien común está volviendo a ser tema de debate. Se había abandonado porque parecía un elemento eclesiástico, pero estamos descubriendo que hay bienes que merece la pena que sean comunes: el espacio radioeléctrico, la sanidad, la educación, los parques naturales, el derecho a un medio ambiente adecuado. Y en lo que respecta a las nuevas tecnologías, el derecho a un software libre… El conocimiento tiene que ser un bien común. El conocimiento tiene que ser compartido y compartible. Todo lo que se haga sin transparencia y sin poner en común, me parece criticable. Hay espacios que es necesario cuidar y unificar.

Graciano 2

Metiéndonos más en el tema de la tecnología: estamos enseñando a hablar y a pensar a las máquinas pero… ¿cómo se les puede enseñar a que hagan lo correcto? Porque ya se les está pidiendo que tomen decisiones.

En las nuevas tecnologías hay dos modalidades: las TIC (tecnologías de la información y la comunicación) plantean una serie de cuestiones menores, como la privacidad, la conservación de los datos, etc. Pero son herramientas, nada más. Las que me preocupan son las tecnologías convergentes: la nanotecnología, la biotecnología, la informática, que es la productora de la inteligencia artificial. Todas son complementarias. El nivel «nano» es muy interesante porque puede ser aplicado en la mejora humana del cerebro, con la inserción de chips, etc.

El tema de las biotecnologías es, de todos, el que más me preocupa porque ha colonizado el ámbito de la vida. Se habla ya de transhumanismo y de posthumanismo, que plantean importantes problemas filosóficos. Por ejemplo, con respecto a la inteligencia artificial y a la mejora cognitiva humana, está lo que se ha dado en llamar «interface», es decir, la posibilidad de conectar los datos del cerebro al ordenador y al revés, poder pasar los datos del disco duro del ordenador al cerebro. Las ciencias cognitivas están planteando problemas filosóficos tremendos. Uno sería el de la base física y biológica de la ética, que está dando lugar a grandes discusiones. Ya he leído un artículo de un biólogo de Barcelona titulado «Las bases biológicas de la libertad». El libre albedrío, para este biólogo, ya no existe, es función del cerebro. Según esta corriente, la actividad bioquímica del cerebro lo determina todo, la actividad cognitiva, la emocional, etc.

La UNESCO, a través de diversos comités, ha publicado recientemente un documento en el que se discute sobre el modo de integrar la ética y la inteligencia artificial. Y se apela a los valores de siempre: la dignidad, la responsabilidad etc.

Os cuento el caso de un científico japonés que hizo dos robots y les enseñó a hablar. Hacían tareas y hablaban, tanto entre ellos como con el investigador. Y, en un momento dado, este investigador se dio cuenta de que los robots habían creado un lenguaje que solamente ellos podían entender y al que él era ajeno por completo. La solución fue fulminante. Los desenchufó y se acabó. Este señor descubrió que los robots, al ser racionales, tenían cierta autonomía. Y si eran algo autónomos, podían tomar decisiones, y de hecho las tomaron. Y si pueden decidir, se puede dar el caso de que puedan llegar a mandarnos. Por tanto, la clave en la inteligencia artificial no es la capacidad para comprender que tenga una máquina. El tema clave es la capacidad de decidir que tenga. ¿Quién decide? ¿Qué hacemos cuando la inteligencia artificial se convierta en un arte de decisiones?

Hasta ahora, las claves de la decisión están metidas en el propio robot. En el caso de los coches automáticos, el criterio es que es mejor no atropellar a ningún peatón, o a uno en vez de a tres etc. Pero la realidad plantea situaciones de conflicto y dilemas éticos continuamente. Ante ellos estamos en una situación de incertidumbre. La decisión crea un acontecimiento novedoso, que no estaba previsto, y abre una expectativa que no podemos controlar. En principio, las claves de la decisión, en inteligencia artificial, las tienen los humanos. Pero no tengo nada claro que el robot, el posthumano, no pueda llevar a cabo decisiones en los terrenos éticos y políticos, que son los terrenos más importantes y que, hasta ahora, todavía no están previstos.

¿El ser humano está preparado para enseñar ética a las máquinas?

Enseñar a las máquinas es muy complicado porque la enseñanza siempre supone un proceso de maduración. Y si tú le metes la maduración ya hecha, el proceso de enseñanza ya no tiene ningún sentido ¿Se puede enseñar ética? Se pueden enseñar claves de decisión. Pero no solamente se decide con esas claves, se tienen que poder mezclar las claves porque la situación puede ser novedosa. Ese proceso tenemos que articularlo todavía. Yo lo veo muy complicado. Y está relacionado con el proceso de la conciencia de sí. Que es un misterio. Saber que yo soy yo mismo. Es un milagro que la materia haya llegado a la conciencia de sí. ¿Cómo se crea eso? ¿El robot es capaz de crear esa conciencia de sí? Pero esa es la clave de la maduración. Porque un niño, que comienza siendo inconsciente, se va dando cuenta de que él es él mismo y alcanza una madurez. La conciencia no es solamente un elemento de razón, sino que va envuelta en muchas otras cosas, emociones y sentimientos, valores…

Es difícil que un robot pueda elaborar un discurso que se acompañe de emociones, sentimientos…

Conozco un caso que ilustra perfectamente el fenómeno de la decisión: Una señora se golpea la cabeza en un accidente, pero se recupera. Parece normal, piensa perfectamente, pero es incapaz de decidir. No puede hacer la comida porque no sabe qué ingredientes escoger. Entonces le hacen una tomografía del cerebro. Y descubren que hay una desconexión entre los lóbulos frontales (que se ocupan del razonamiento) y lo que rodea a los lóbulos frontales, que se ocupa de las emociones. Hay una ruptura de las neuronas que empalman el discurso racional con las emociones. Y esto es fundamental, no para razonar, que ella lo hacía perfectamente, sino para decidir. Conclusión: la emoción es determinante para decidir, más, incluso, que la razón.

A veces tenemos razones para decidir una cosa y la contraria. Pero elegimos lo que nos parece lo mejor sobre la base de creencias, ideologías, planteamientos de base… Esto puede aplicarse a la inteligencia artificial. Mientras no tengan emociones, o el robot lleva ya la decisión marcada, pautada, o no puede decidir como los humanos, aplicando la ética.

humanoide

Sin embargo, se sigue creyendo que la razón tiene más importancia que la emoción. ¿Por qué es importante la ética? ¿Qué le podemos decir a la ciencia que cree que la ética pone freno a su desarrollo?

En el siglo XIX, el saber se divide por primera vez en la historia en ciencias de la Naturaleza, por un lado, y ciencias del éspíritu por otro. La tecnología dice que todo lo que es posible hacer, debe hacerse. La ética dice que no todo lo que es posible hacer debe hacerse, porque a lo mejor nos deshumaniza. La ciencia es la que cree que tiene el estatuto de la verdad. La ciencia garantiza únicamente la corrección de los conocimientos, no la verdad. Las ciencias de la naturaleza explican. Las ciencias del espíritu (historia, filosofía, sociología) comprenden. Y deben complementarse sin que ninguna colonice a la otra. Es un gran error haber separado las ciencias de la naturaleza por un lado y las ciencias del espíritu por otro. Y, de momento, no hay manera de conexión. Esta preponderancia de las ciencias de la naturaleza ha sido creída, incluso, por la filosofía, que se siente como un saber de segunda categoría.

Sin embargo, ahora, lo que plantean las nuevas tecnologías son cuestiones morales. No basta con hacer cosas. Tenemos que plantearnos: ¿para qué? Y eso atañe a la ciencia, a la investigación y a la ética al unísono.

Los filósofos clásicos eran científicos. Y es que la ciencia surge de la filosofía. Pero la especialización del mundo moderno trae esta división. Esta ruptura radical entre estos dos tipos de saberes se llamó positivismo. Y afirma que un conocimiento sólo es valioso si se puede contrastar y verificar. Pero pensemos, por ejemplo, en la afirmación «Hay que ser solidarios». ¿Dónde y cómo se verifica y se contrasta esto? Hay que romper esta doble cultura. Y el filósofo debe preocuparse por saber también de economía, de ciencia, de medicina…

Sobre lo que decía antes de plantearse el para qué, la tecnología está siempre preocupada en hacernos la vida más fácil y cómoda, y esto es lo que se ve como un avance. ¿Hasta qué punto es bueno enfocar la tecnología de este modo?

Esto es también un problema de decisión. La tecnología soluciona las cosas, ofrece herramientas para utilizar, pero luego, cada uno de nosotros debemos decidir cómo las utilizamos, y la gente tiene cada vez más miedo a decidir. Al decidir, asumimos riesgos, y hay gente que no quiere arriesgarse.

Por otra parte, no solo debemos preocuparnos por el tipo de productos que se crean, sino por cómo ha sido todo el proceso. En biotecnología se están haciendo cosas impresionantes que ponen los pelos de punta. Me refiero a la criogenización, a la utilización de embriones para hacer pruebas, que tocan cuestiones éticas muy relevantes. No se trata de que la ética venga a poner freno a la ciencia; lo que introduce la ética es un programa de humanización. ¿Esto nos humaniza? ¿Nos deshumaniza?

La ciencia está enfocándose en la lucha contra la enfermedad y la muerte, a la que muchos ven ya como «no natural». Esto ha conllevado una inversión tremenda en sanidad e investigación privada, y ha convertido el sector en un gran negocio. Esa comercialización de la salud acaba por poner en entredicho sus buenas intenciones. ¿Cómo nos enfrentamos a todo esto? ¿Qué podemos hacer?

Uno de los problemas gravísimos que tiene lo sanitario es el «economicismo». Se han olvidado los fines para los que se fundó la medicina, y lo que se busca es el dinero.

Sobre cómo las biotecnologías están abordando el tema de la muerte, tenemos un buen ejemplo en José Luis Cordeiro y su libro La muerte de la muerte y otros en la misma línea. Lo que dicen es algo muy sencillo: la vejez es una enfermedad y, por tanto, tiene que poder curarse. Y no es que seamos inmortales, es que somos «amortales» y esa es la base fundamental del transhumanismo; vamos a ser, si no infinitos sí, al menos, indefinidos. Y todas las cuestiones filosóficas sobre la finitud y la muerte pasan a un segundo plano. Hasta ahora el alargamiento de la vida es una cuestión de ingeniería genética. Recortando las telomerasas se prolonga la vida y, en ratones, el que tiene que vivir diez años, vive cuarenta. Lo que aún no se ha comprobado y por eso esta técnica no ha pasado a los humanos todavía, es que no provoque otras enfermedades degenerativas. Pero ya se está reivindicando una vida de 120 años, de 400 años…

Laboratorio

Otra cosa que me parece un riesgo gravísimo es el hecho de que ahora se está empezando a medicar a niños muy pequeños por déficit de atención, etc. La enseñanza desaparece como proceso de maduración y se establece como una especie de programa, que puede ser medicalizado, en vistas a conseguir que una persona sepa mucho de una cosa. A este fenómeno se le ha dado en llamar «neuroeducación». Es imprescindible reflexionar sobre estos temas.

Las biotecnologías van a una velocidad que para la filosofía es un desafío. Y un desafío es interesante. Merece la pena hacer filosofía porque los problemas que tenemos son fundamentalmente de sentido. Y el tema de la ética es el tema del sentido.

¿ La educación es esencial para el desarrollo de una ética que luego nos sirve para entender, valorar y aplicar la ética al entorno?

La ética no se aprende a base de inteligencia y en la escuela. Mi idea es que un niño, a los dos años, ya tiene sabido todo en términos éticos. Por eso no cuenta solo la base fisiológica del cerebro, sino que es fundamental el contexto donde ese cerebro se desarrolla. En ese contexto «biocultural» tú te vas formando. Y si en esa formación se incluyen los fármacos para rellenar lagunas, me parece grave. Hay que buscar otras maneras de hacer las cosas.

¿Cómo ve el futuro ético de la tecnología?

La tecnología supone un nuevo paradigma y nos da un nuevo espacio para pensar la ética. Hay cosas que cambiar, pero no hay por qué perder el esquema de la espiritualidad y la trascendencia para formular una ética en ese espacio de las nuevas tecnologías. Son ellas las que están demandando criterios éticos. Porque el propio investigador no sabe muy bien para qué se puede aplicar lo que investiga. Lo que no puede hacer nunca la ética es retirarse de ese espacio porque no tiene nada que decir.

El problema que tenemos que dilucidar es: ¿qué queremos ser? Porque antes nos lo decía la religión y la metafísica. Es la primera vez en la historia que tenemos la oportunidad de darle forma a ese querer ser según unas nuevas tecnologías que nos permiten ser de una manera o de otra.

Hay demasiada información y no hay tiempo para reflexionar sobre ella. El pensamiento es clave para poder decidir. Tenemos que reflexionar y decidir pensando bien qué queremos ser.

El intento de crear una inteligencia humana dentro de una máquina nos puede dar la oportunidad de conocer qué es el ser humano, que todavía no se sabe. ¿El ser humano es algo mecánico? ¿La máquina será capaz de desarrollar conciencia? ¿Qué es la conciencia?

El problema es que no hay una concepción de lo que es el hombre. Por eso discutimos si un feto es una persona.

Si hay alma, o espíritu, la ciencia lo niega o lo pone a un lado. Piensa que todo es mecánico. Por tanto desarrollando un ser mecánico que imite la biología del ser humano se va a crear un ser humano. Y tenemos la esperanza de que lo vamos a dominar nosotros.

Eso está en la categoría de misterio. Que la materia haya llegado a formar una persona que es consciente de sí misma, de su valor, de su dignidad, con altura moral… es un auténtico milagro. Conciencia de sí… para ser responsable, para hacerse cargo de otro, para responder por… y de…

Y para las nuevas tecnologías es lo mismo. Mientras no haya un consenso mayor, hay que apelar a la responsabilidad del investigador y su equipo.

Transcripción y redacción: M.ª Dolores Fernández Chinchilla

Entrevista: Fátima Gordillo

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

es_ESSpanish