Mitos y realidades de la inteligencia artificial

Las inteligencias artificiales no tienen, ni tendrán nunca, intencionalidad, porque son el reflejo de las intenciones y los sesgos de las entidades implicadas en su despliegue. Los agentes morales somos nosotros y no las máquinas. Cuanto más sofisticados sean los sistemas de inteligencia artificial, más responsabilidades se deberían exigir a sus diseñadores y programadores, para garantizar que cumplan principios legales y éticos.

Arthur Clarke, en los años sesenta, dijo: “Cualquier tecnología suficientemente sofisticada es indistinguible de la magia”. La inteligencia artificial (IA) es un claro ejemplo de ello. Parece que no haya límites en sus capacidades, pero, en realidad, la IA permanece encallada desde hace más de cincuenta años en una de las cuestiones más fundamentales: cómo dotar a las máquinas de conocimientos de sentido común.

Los conocimientos de sentido común son fruto de nuestras vivencias y experiencias. Hay millones de conocimientos de sentido común que las personas utilizamos continuamente y que nos permiten entender el mundo en que vivimos. A pesar de que algunos afirman que el sentido común ya está “emergiendo” en los grandes modelos de lenguaje recientes de la IA generativa, de hecho es imposible asegurarlo, ya que la complejidad y opacidad de estos modelos hace prácticamente imposible analizar cómo funcionan internamente. Solo sabemos que aprenden patrones lingüísticos a fin de predecir cuál es la siguiente palabra en un texto. Bajo mi punto de vista, no creo que esta técnica permita dotar de sentido común a la IA por mucho que escalemos la complejidad (en términos de cantidad de parámetros) de estos modelos de lenguaje. El problema de dotar de sentido común a las máquinas es demasiado complicado para creer que se puede resolver a partir de calcular cuál es la siguiente palabra más probable. De hecho, la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA), la institución que más invierte en programas de investigación en Estados Unidos, a finales de 2018, dispuso un programa plurianual a largo plazo que financia, con miles de millones de dólares, proyectos de investigación sobre cómo dotar a las máquinas de conocimientos de sentido común.

Una línea de investigación muy interesante para dotar a las máquinas de conocimientos para entender el mundo es la que tiene como objetivo la modelización matemática y el aprendizaje de relaciones causa-efecto. Los sistemas actuales basados en aprendizaje profundo simplemente pueden aprender funciones matemáticas simétricas, en particular correlaciones, pero no pueden aprender relaciones asimétricas y, por tanto, no son capaces de diferenciar entre causas y efectos, como que la salida del sol es la causa del canto del gallo y no al contrario.

Situación real de la IA

¿Cuál es, pues, la situación real de la IA? La realidad es que tenemos inteligencias artificiales específicas, en el sentido de que cada una sabe hacer bien una única tarea, a pesar de no entender realmente nada de lo que hacen. Focalicémonos en una técnica de IA, conocida como aprendizaje profundo, que, durante los últimos diez años, ha conseguido unos resultados espectaculares de acuerdo con su extraordinaria capacidad para detectar patrones estadísticos analizando grandes cantidades de datos. Según esta técnica, existe un programa llamado AlphaFold[1] que es capaz de predecir la estructura 3D de las proteínas, es decir, cómo se pliega una proteína en el espacio tridimensional. Resolver el problema del plegamiento de proteínas es importante para descubrir y diseñar nuevos fármacos, porque la función de les proteínas depende de su estructura tridimensional. Otro ejemplo muy reciente de éxito del aprendizaje profundo, que combina redes neuronales y aprendizaje por refuerzo, es la ya mencionada IA generativa, que permite procesar lenguaje natural y también música, imágenes o vídeos a partir de una descripción inicial. A pesar de su aparente inteligencia, estos sistemas son muy limitados. De hecho, no aprenden nada en el sentido humano que entendemos por aprender, ya que, contrariamente a nosotros, no aprenden de manera incremental, no pueden relacionar lo que aprenden nuevamente con lo que habían aprendido anteriormente y prácticamente no tienen capacidad de generalizar ni de razonar.

¿Cuál es, entonces, el motivo por el que muchos creen que la IA está a punto de igualar a la inteligencia humana y, a partir de esta premisa, hacen predicciones sobre hipotéticas inteligencias artificiales superiores a la inteligencia humana? A mi entender, el excesivo antropomorfismo es el motivo principal para que la sociedad tenga una percepción errónea del estado real de la inteligencia artificial. Cuando nos informamos de éxitos espectaculares de una IA que resuelve una tarea muy concreta, tendemos a generalizar y le atribuimos la capacidad de hacer prácticamente cualquier cosa que hacemos los seres humanos e, incluso, de hacerla mucho mejor. En realidad, lo que tienen los actuales sistemas de IA no es inteligencia sino “habilidades sin comprensión” en el sentido que apunta Daniel Dennett en su libro From Bacteria to Bach and Back: The Evolution of Minds[2]. Es decir, sistemas que pueden llegar a ser muy hábiles llevando a cabo tareas específicas, como reconocer una serie de elementos en una imagen o generar texto, pero sin comprender absolutamente nada sobre la naturaleza de estos elementos ni de las propiedades y relaciones entre ellos.

El problema es que los sistemas actuales de IA no tienen acceso a los referentes del mundo real que dan contenido a las palabras porque, al ser inteligencias artificiales no corpóreas, no pueden interactuar con el mundo. Esta incapacidad para entender realmente el mundo imposibilita que grandes modelos de lenguaje como GPT-4 entiendan el significado de los textos que generan. De hecho, a los diseñadores de estos sistemas la ausencia de referentes del mundo real no les importa. Solo les importa el poder retórico, engañando a los oyentes y a los lectores haciéndoles creer que entienden el lenguaje como los humanos, aunque generen multitud de falsedades.

Ilustración © Romualdo Faura

En 2021, las investigadoras Timnit Gebru y Margaret Mitchell, por entonces colíderes del equipo de ética de Google, ya advirtieron del riesgo de que las personas imputáramos intención comunicativa y comprensión del lenguaje a artefactos que parecen humanos[3]. Irónicamente, a causa de haber hecho público este importante aspecto ético, Google las despidió. Emily M. Bender, experta en lingüística computacional, acertadamente afirma que crear tecnología que imite a los humanos haciéndose pasar por algo humano requiere que tengamos muy claro qué significa ser humano, ya que, de lo contrario, corremos el riesgo de deshumanizarnos.

Otros, como Daniel Dennett, son aún más contundentes. Dennett afirma que no podemos vivir en un mundo con counterfeit people (‘personas falsificadas’), ya que una sociedad con personas falsas que no podemos diferenciar de las reales dejaría de ser una sociedad. Nos recuerda que fabricar dinero falsificado es un acto delictivo y afirma que falsificar personas es tanto o más grave. Además, a las personas artificiales no se les pueden exigir responsabilidades, y eso las convierte en actores amorales, con una gran capacidad de generar multitud de falsedades, es decir, con la capacidad de desinformar. Los responsables son los creadores de estas tecnologías, añade Dennett. Si no empezamos a regularlas, la democracia pronto puede verse abrumada por la desinformación y la consiguiente polarización. Están en juego la estabilidad y la seguridad de la sociedad.

Hacia inteligencias artificiales más generales

Las tareas más complicadas de llevar a cabo son aquellas que requieren interaccionar con entornos dinámicos, inciertos, imprevisibles y no restringidos. Diseñar sistemas que tengan estas capacidades requiere integrar desarrollos de muchas áreas de la IA. En particular, necesitamos lenguajes de representación de conocimientos que codifiquen información sobre muchos tipos diferentes de objetos, situaciones, acciones…, así como sobre sus propiedades y las relaciones entre ellos, especialmente relaciones causa-efecto, con el fin de que las inteligencias artificiales entiendan el mundo. También necesitamos nuevos algoritmos que, a partir de estas representaciones, puedan, de forma robusta y eficiente, resolver problemas sobre prácticamente cualquier tema.

Finalmente, dado que necesitarán adquirir un número casi ilimitado de conocimientos, estos sistemas tendrán que ser capaces de aprender de forma continua a lo largo de toda su existencia. En definitiva, es imprescindible que las arquitecturas cognitivas incorporen de forma adecuada percepción, representación, razonamiento, acción y aprendizaje. Este es un problema muy importante, ya que aún no sabemos cómo integrar todos estos componentes de la inteligencia. Resolver esta cuestión es un paso previo hacia inteligencias artificiales generales.

Reflexiones finales

La inteligencia humana es el referente principal de cara a alcanzar el objetivo último de la IA general, pero, por muy sofisticada que llegue a ser esta futura IA, siempre será diferente a la humana. El motivo es que el desarrollo mental que requiere toda inteligencia compleja depende de las interacciones con el entorno, y estas dependen a su vez del cuerpo, en particular de los sistemas perceptivo y motor. Se trata de sistemas que no existen en el caso de las inteligencias artificiales no corpóreas y que son muy diferentes de los nuestros en el caso de las inteligencias artificiales corpóreas.

El peligro de la IA no es la supuesta singularidad tecnológica consecuencia de futuras hipotéticas superinteligencias artificiales. Posiblemente, los discursos apocalípticos sobre los peligros a largo plazo se han puesto sobre la mesa de forma interesada, con el fin de distraernos de los verdaderos problemas actuales que presenta. Es decir, la privacidad, la manipulación, la vigilancia y el control masivo de la ciudadanía, la autonomía de los sistemas (en particular, las armas autónomas), la confianza excesiva sobre las capacidades de la IA, el sesgo de los algoritmos, la imposibilidad de rendir cuentas justificando sus decisiones, y el excesivo poder de unas cuantas grandes empresas tecnológicas.

En general, cuanto más sofisticados sean los sistemas de IA, más responsabilidad deberíamos exigir a sus diseñadores y programadores, para garantizar que cumplan principios legales y éticos. Las inteligencias artificiales no tienen, ni tendrán nunca, intencionalidad; son el reflejo de las intenciones y los sesgos de los equipos de programadores y entidades implicados en su implementación y su despliegue. Los agentes morales somos nosotros y no las máquinas. Por eso muchos expertos señalamos la necesidad de regular su desarrollo e, incluso, de prohibir su uso en casos de riesgo extremo, como las armas letales. Pero, además de regular, es imprescindible educar a los ciudadanos, en particular a los políticos, sobre los beneficios y riesgos de las tecnologías inteligentes. Necesitamos a futuros ciudadanos más y mejor informados, con más capacidad para evaluar los riesgos tecnológicos, con mucho más sentido crítico y capaces de hacer valer sus derechos. Este proceso de formación debe comenzar en la escuela y tener continuidad en la universidad. En particular, es necesario que los estudiantes de ciencia e ingeniería reciban una formación ética que les permita comprender mejor las implicaciones sociales de las tecnologías que desarrollarán. Solo si invertimos en educación conseguiremos una sociedad que pueda aprovechar las ventajas de las tecnologías inteligentes minimizando sus riesgos. Así, la inteligencia artificial servirá para realizar un gran paso en el progreso de la humanidad.

[1] Jumper, J., Evans, R., Pritzel, A. et al. “Highly accurate protein structure prediction with AlphaFold”. Nature, 596, 583-589. 2021. http://ow.ly/XiVW50OnOjm

[2] Dennet, D. C. From Bacteria to Bach and Back: The Evolution of Minds. Penguin Books, 2017.

[3]  Bender, E. M., Gebru, T., McMillan-Major, A. i Shmitchell, S. “On the Danger of Stochastic Parrots: Can Language Models Be Too Big?”. ACM Conference on Fairness, Accountability, and Transparency, 610-623. 2021.

Libros

  • Inteligencia artificial Ramon López de Mántaras Badia y Pedro Meseguer González. Colección “¿Qué sabemos de?”, Los Libros de la Catarata, 2017

El boletín

Suscríbete a nuestro boletín para estar informado de las novedades de Barcelona Metròpolis