in

La historia de la inteligencia artificial (IA)

LISP como lenguaje de IA

El propio John McCarthy prosiguió en su estudio y entre 1958 y 1959 desarrolló LISP (LISt Processing). Se trata de una familia de lenguajes de programación de alto nivel orientados a la manipulación simbólica. Más adelante sería el lenguaje dominante para desarrollar sistemas expertos durante las décadas de 1970 y 1980

LISP consolidó la primera gran etapa académica de la historia de la IA. Dio la posibilidad de representar conocimiento en estructuras formales (como si fueran listas), desarrollar sistemas basados en reglas y manipular expresiones matemáticas. Este avance fue fundamental para impulsar la primera ola de inteligencia artificial simbólica, ya que permitió programar reglas, inferencias y estructuras lógicas.

A partir de la década de 1960, aparecieron sistemas que marcaron esta etapa de desarrollo de la inteligencia artificial a nivel académico. En 1966 se desarrolla en el MIT ELIZA, considerado el primer ‘chatbot’ de simulación conversacional basada en reglas. En 1970, también en el MIT, se desarrolla SHRDLU, un programa de computación para comprender el lenguaje natural. Ambos desarrollos demostraron que ciertos procesos de la mente humana podían reflejarse en un modelo algorítmico, reforzando así la idea de que la inteligencia podía describirse y replicarse con computación.

Los dos inviernos de la IA

A pesar de estos avances, el periodo entre mediados de la década de 1970 y mediados de la década de 1990 estuvo protagonizado por lo que se conoce como los dos inviernos de la IA.

El primer invierno se extendió aproximadamente entre 1974 y 1980. Las grandes expectativas creadas en los años anteriores chocaron contra realidades como la limitada potencia de cómputo y la escasez de datos. En consecuencia, se redujo la financiación y se redefinieron los parámetros para pasar de una IA teórica proveniente de la academia a una IA con proyección industrial.

En la década de 1980, se produjo un resurgimiento gracias al desarrollo de la lógica difusa, un enfoque matemático que permitía manejar la imprecisión y la incertidumbre. Esto amplió las posibilidades de la IA para procesar datos. Sin embargo, entre 1987 y 1993 se produjo un segundo invierno de la IA también motivado por un incumplimiento de expectativas debido especialmente a las limitaciones de los sistemas, que provocó una reducción en la financiación de los proyectos.

Durante este segundo invierno de la IA, se produjo el declive de LISP como lenguaje de la industria. Las limitaciones del modelo fomentaron que los sistemas basados en este tipo de inteligencia artificial simbólica dieran paso a otros enfoques centrados en las redes neuronales y el aprendizaje profundo. Esto abrió el debate entre simbolismo (la inteligencia equivale a manipular símbolos) y conexionismo (las reglas emergen a partir del aprendizaje de la máquina), discusión que hoy sigue con los modelos de lenguaje.

Estos modelos son la base de los sistemas de inteligencia artificial actuales y se basan en el entrenamiento de los modelos para que puedan aprender nuevas reglas y mejorar sus resultados. En 1974 Paul Werbos presenta un trabajo que describe las redes neuronales multicapa y el entrenamiento mediante retropropagación (‘backpropagation’), la técnica clave que permitió el entrenamiento eficiente de redes profundas ajustando progresivamente sus conexiones.

Más adelante, David E. Rumelhart, Geoffrey Hinton y Ronald J. Williams recogieron el trabajo de Werbos y formularon el algoritmo de retropropagación de manera más clara. Este trabajo sentó las bases del desarrollo del ‘deep learning’ (aprendizaje profundo), que tendría un mayor desarrollo a partir de la década de los 2000. En la década de 1980, John J. Hopfield desarrolló las redes de Hopfield que mostró cómo un sistema de neuronas artificiales podía almacenar y recuperar patrones.

Hinton, junto con Yann LeCun y Yoshua Bengio, es considerado uno de los arquitectos principales del aprendizaje profundo, término que acuñó en 2006. En 2018 los tres recibieron el premio Turing por sus aportaciones y Hinton y Hopfield ganarían el Nobel de Física en 2024 por sus descubrimientos y aportaciones al aprendizaje automático.

En la actualidad, Yann LeCun, que desarrolló su carrera como jefe científico de IA en Meta, ha fundado AMI Labs, una startup con sede en París con la que aspira a superar el paradigma actual basado en grandes modelos de lenguaje y avanzar en los denominados ‘world models’ o modelos de mundos, que permitiría a los sistemas de IA interpretar mejor el mundo.

Deep Blue vs Kasparov

En 1997, la máquina Deep Blue, diseñada por IBM, vence al campeón del mundo de ajedrez, Garry Kasparov. Fue un acontecimiento con impacto global y demostró el potencial de las máquinas para superar al ser humano en tareas cognitivas complejas. Además, fue la inspiración para que una mente brillante desarrollara uno de los sistemas de inteligencia artificial más potentes que existen actualmente.

Cuando la máquina venció al ajedrecista, Demis Hassabis era todavía un estudiante en Cambridge, pero el hecho le marcó. Para Hassabis el hecho fundamental era que, aunque la máquina era brillante jugando al ajedrez, «no podía hacer nada más… Algo faltaba en un sistema que queríamos ver como inteligente», según explicó a ‘The Atlantic’. Desde entonces, Hassabis ha dedicado su carrera a refinar y perfeccionar modelos de inteligencia artificial. En 2010 cofundó DeepMind (2010), una startup británica dedicada a la investigación en inteligencia artificial que fue adquirida por Google en 2014.

Casi 20 años después de aquella partida de ajedrez, en 2016, AlphaGo (un modelo diseñado por Hassabis en DeepMind, la compañía de investigación en IA que cofundó y que había sido adquirida por Google en 2014), derrotó a Lee Sedol, considerado uno de los mejores jugadores de Go del mundo. El Go es un juego muy complejo con unas combinaciones mucho mayores que el ajedrez. Este hito supuso el primer paso del desarrollo de los modelos diseñados por Hassabis, que más adelante crearía AlphaFold, un modelo que ha ayudado a descifrar la estructura de más de 200 millones de proteínas, un conocimiento clave para comprender las enfermedades genéticas y diseñar terapias específicas altamente precisas. En 2024 el Nobel de Química reconocía esta aportación, junto a los trabajos de David Baker y John M. Jumper en el diseño computacional de proteínas y la predicción de su estructura, respectivamente.

El auge de la IA generativa

Aunque el boom actual de la IA se debe a la presentación al público general de ChatGPT en noviembre de 2022, hay que retrotraerse a 2017 para entender los actuales modelos de inteligencia artificial generativa. Ese año, investigadores de Google presentaron el paper ‘Attention is All You Need’ en el que sentaban los fundamentos de la arquitectura Transformer, base de los grandes modelos de lenguaje que configuran la IA generativa. Son modelos entrenados con billones de parámetros y capaces de generar texto coherente, programar, resumir información compleja y traducir y razonar.

El lanzamiento de ChatGPT por OpenAI supuso el acceso del gran público a los asistentes de inteligencia artificial generativa, herramientas capaces de generar contenidos, responder preguntas y asistir en múltiples tareas mediante lenguaje natural. El siguiente paso en la evolución de la tecnología son los agentes de IA, es decir, sistemas que puedan tomar decisiones autónomas.

Tras décadas de avances, retrocesos y expectativas renovadas, la inteligencia artificial sigue evolucionando en nuevas direcciones.

¿Qué opinas?

Escrito por Redacción - El Semanal

El Semanal: Tu fuente de noticias, tendencias y entretenimiento. Conéctate con lo último en tecnología, cultura, economía y más. Historias que importan, contadas de manera dinámica y accesible. ¡Únete a nuestra comunidad!

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

GIPHY App Key not set. Please check settings

Radiografía del mercado de las IA generalistas

se queda por menos de 320 €