Opinión
Suscríbete
Por
  • Héctor Marín Manrique

¿Demasiado artificial para ser inteligente?

¿Demasiado artificial para ser inteligente?
¿Demasiado artificial para ser inteligente?
Heraldo

Prueba de la pujanza de la inteligencia artificial (IA) es la participación del psiquiatra Karl Friston en el Foro Económico de Davos, 2024. Friston es catedrático de University College London, asesor científico de Verses, empresa puntera en desarrollo de IA con sede en California, y posiblemente el neurocientífico vivo más influyente.

Cuando a Friston, con el que he tenido el privilegio de colaborar científicamente, se le presentó como experto en IA en este foro, él se afanó en rectificar al presentador, puntualizando que no era experto en IA, sino en inteligencia natural. Esta rectificación tiene profundas implicaciones. Existen actualmente dos definiciones de lo que constituye inteligencia ‘natural’ que gozan de bastante consenso. Una está basada en la existencia de un ‘Factor G’, o inteligencia general. Esta inteligencia se mediría por medio de un test de inteligencia, que arrojaría una puntuación global, o cociente de inteligencia (CI). Si alguien tiene un CI muy alto, se espera que sea bueno a la hora de resolver múltiples y variados problemas. Esto es así porque el CI supuestamente capta una capacidad genérica que puede ponerse al servicio de distintas necesidades. La segunda definición más aceptada entiende inteligencia como la adaptación al entorno; un animal es inteligente si es capaz de sobrevivir a su ambiente, y puede adaptarse de manera flexible a los cambios que se producen en el mismo. En cualquiera de sus dos acepciones, la IA actual no se podría considerar inteligente. La razón principal es que carece de capacidad para resolver problemas variados; es decir, no es una inteligencia generalista. Además, la información que maneja la IA no ha sido introducida de manera intencional y selectiva, a través de la acción sobre el entorno, careciendo por tanto de significado ecológico.

La manera de funcionar de lo que llamamos ‘inteligencia artificial’ no casa con la definición de ‘inteligencia’. Estos programas carecen de conocimiento real

Pongamos que hablamos de ‘large language models’ (LLM), cuyo ejemplo más conocido es el Chat GPT. Estos modelos usan un tipo de aprendizaje llamado ‘autosupervisado’ que permite predecir de manera correcta la próxima palabra a través de modelos regresivos y arquitecturas transformativas. Chat GPT es capaz de producir textos de manera creativa (generativa) y responder preguntas con coherencia, emulando las respuestas que una persona dotada de raciocinio emitiría. ¿Significa esto que Chat GPT entiende una conversación? Simple y llanamente, no. Para ilustrar esta falta de comprensión semántica de Chat GPT, podemos recuperar un argumento clásico esgrimido con por el filósofo de la mente John Searle en 1980. Cambiaré su ejemplo original de ‘habitación china’, por el de traductor en línea de chino. Imaginemos que alguien nos escribe en chino, nosotros no entendemos nada, pero ponemos el texto en un traductor en línea y lo convertimos en castellano. Haremos el proceso inverso para poder contestar. Mediante este método podemos mantener un intercambio lingüístico con la persona que nos escribe, y aparentar que sabemos chino; y sin embargo, seguiremos sin entender una sola palabra de esta lengua. Lo mismo ocurriría con Chat GPT. Emite respuestas aparentemente inteligentes, pero no sabe de qué está ‘hablando’; carece de conocimiento real y, por tanto, no es inteligente en ninguna de sus acepciones.

Para acabar me gustaría desterrar otro mito injustificado sobre la IA. La posibilidad de una IA maligna que acabará destruyendo al ser humano. Esta idea es el argumento de películas como ‘2001, odisea en el espacio’, y carece de fundamento. No sabemos con certeza por qué un ser humano desarrolla consciencia de su propia identidad individual, y es capaz de reflexionar sobre su existencia, lo más probable es que este sentido de identidad se genere a través de la exploración motora y sensorial del entorno. Creer que una ‘máquina’ a la que se introducen de manera pasiva millones de datos va a desarrollar identidad y autoconsciencia, así como inclinaciones homicidas es como dibujar fuego, y esperar que caliente.

Héctor Marín Manrique es catedrático de Psicología Evolutiva y de la Educación en el campus de Teruel (Universidad de Zaragoza)

Comentarios
Debes estar registrado para poder visualizar los comentarios Regístrate gratis Iniciar sesión