Hace ya 75 años que nos están hablando de la inteligencia artificial y poca gente ha escuchado hasta que el ChatGPT nos llegó, que fue hace nada, en noviembre de 2022, como una interfaz conversacional accesible al público. Como fue gratuito en sus primeras semanas se volvió viral de inmediato y en menos de dos meses alcanzó 100 millones de usuarios, algo sin precedentes en la historia de la tecnología. Ahora, hasta el primer ministro sueco lo usa antes de tomar sus decisiones, o al menos, lo usa como antiguamente se usaban los consejeros, y seguro que Chat le dará buenos consejos, seguro que no peores de lo que podría hacer otros que comen pan.

Yo hoy voy a empezar con un artículo publicado en octubre de 1950 que por primera vez mezcla los términos inteligencia y máquina. Fue en la revista de psicología y filosofía Mind, de Oxford, VOL. LIX. NO. 236[1], donde el conocido matemático se atrevió a predecir  Turinel futuro de las computadoras, aunque no usó literalmente la expresión “artificial intelligence”, pero sí planteó por primera vez la pregunta central en ese camo: “¿Pueden las máquinas pensar?” (Can machines think?)

Con su acostumbrada lucidez, Turing advirtió que la pregunta, tal como estaba formulada, no tenía sentido. “Pensar” es una palabra tan cargada de ambigüedad que era mejor sustituirla por otra cuestión más práctica. Así propuso un juego: el “Imitation Game”, o juego de la imitación. En él, un interrogador humano debía mantener una conversación escrita con dos interlocutores ocultos: un hombre y una mujer. Luego Turing reemplazó a uno de ellos por una máquina. Si, tras un intercambio razonable, el interrogador no podía distinguir al humano del artefacto, se consideraría que la máquina pensaba.

Así nació lo que hoy llamamos el Test de Turing, menos una prueba técnica que una pregunta filosófica disfrazada de experimento. Turing, que no era tonto, anticipó las objeciones. ¿Las máquinas pueden tener conciencia, emociones, creatividad? ¿Pueden equivocarse? Y la respuesta que el dio estaba cargada de ironía y lucidez: si el error es una señal de inteligencia, nada impide que las máquinas lo aprendan.

Y si la conciencia es un misterio incluso en nosotros, ¿por qué exigir a las máquinas una prueba que los humanos no podríamos dar? ¡Uy! Me viene a la cabeza que se está preparando una especie de test para los que deseen obtener la ciudadanía sueca que, por cierto, ninguna universidad quiere construir, y me pregunto, ¿qué pasaría si los que nacieron suecos pasaran una prueba similar y quedasen suspensos? Perdonad el lapsus, bueno, con sorprendente clarividencia, Turing imaginó un porvenir en el que las máquinas aprenderían como los niños, no programadas rígidamente, sino educadas por experiencia.

Propuso, en suma, el paso de la programación al aprendizaje, anticipando las redes neuronales y el aprendizaje automático que hoy sostienen la inteligencia artificial moderna.

Poco después vinieron otros, aunque Turing fue el padre intelectual de la idea. John McCarthy acuñó y lanzó formalmente el término artificial intelligence en la Conferencia de Dartmouth 1956, que puede decirse fue el inicio institucional y científico del campo bajo ese nombre. Porque La Conferencia de Dartmouth (Dartmouth Summer Research Project on Artificial Intelligence)[2] es el nombre del encuentro que tuvo lugar en el verano de 1956 en la universidad Dartmouth College, ubicada en Hanover, Nuevo Hampshire (Estados Unidos), está considerada como el evento germen de la Inteligencia Artificial como esfera o campo de actividad.

A principios de 1955 McCarthy se dirigió a la Fundación Rockefeller para solicitar financiación para un seminario de verano en Dartmouth para unos 10 participantes. Un poco como hacemos en La Sociedad Científica de Mérida, con Rufino a la cabeza. En junio él y Claude Shannon, uno de los fundadores de la teoría de la información que entonces trabajaba en los Laboratorios Bell, se reunieron con Robert Morison, director de investigación biológica y médica, para discutir la idea y la posible financiación, aunque Morison no estaba seguro de que un proyecto tan visionario llegara a ser financiado. Cosa que, en realidad, nunca se puede saber, pero hay que atreverse, como hace Rufino. Un proverbio sueco dice: “es mejor escuchar el chasquido de la cuerda del arco al romperse, que nunca tensarlo” (hellre lyss till den sträng som brast än aldrig spänna en båge) que a mí se me antoja como una buena metáfora de la vida y del coraje: es mejor haber vivido intensamente, haber tensado el arco, aunque la cuerda se rompa, que no haber intentado nada por miedo al fracaso o al dolor.

Tras aquella reunión veraniega de 1956 en Dartmouth College organizada por John McCarthy, Marvin Minsky, Claude Shannon y Nathaniel Rochester, los investigadores salieron convencidos de que el problema de la inteligencia podía resolverse en una generación. Aquello parecía posible: los ordenadores empezaban a razonar con símbolos y resolver problemas lógicos básicos.

Durante los años siguientes, los grupos de investigación crecieron en varias universidades —MIT, Stanford, Carnegie Mellon, y en menor medida, IBM. Los temas principales eran la lógica formal, la resolución de problemas y los lenguajes de programación. De ahí surgieron hitos como el lenguaje LISP, creado por McCarthy, y programas como el General Problem Solver de Newell y Simon. Eso de crear lenguajes es algo central y, en pequeña escala, he tenido un estudiante dentro del programa de Naturhumanister en Vipan, un programa que intetaba conciliar la visión científica, naturalista, con la visión humanista, filosófica, ética y cultural. Uno de los primeros estudiantes en este programa decidió construir un lenguaje como trabajo de fin de curso, y lo terminó con éxito.

Siguiendo la pauta de todos los inventos, y en plena guerra fría, el dinero fluía desde donde se decidía el futuro tecnológico y militar, por ejemplo La DARPA (Defense Advanced Research Projects Agency) del Departamento de Defensa de los Estados Unidos fue el gran mecenas de la IA durante los años 60 y 70. Financiaban proyectos universitarios con la esperanza de que los ordenadores pudieran planificar operaciones, traducir idiomas, interpretar datos de radar o automatizar análisis estratégicos. También apoyaron el desarrollo de redes de comunicación seguras. De ahí nacería, indirectamente, Internet, pero eso es otra cuestión. El entusiasmo era casi mesiánico en esa época. Los científicos creían estar asistiendo al nacimiento de una nueva forma de inteligencia. Pero, de pronto, se rompió la cuerda.

El desencanto, el primer invierno de la IA llegó a finales de los 60 y comienzos de los 70, los límites se hicieron evidentes. Las máquinas no entendían el lenguaje natural, los robots no podían moverse sin tropezar, y los ordenadores de la época eran demasiado lentos para las ambiciones de sus creadores. En 1973, el informe Lighthill en el Reino Unido, encargado por el gobierno británico, fue devastador: denunciaba que la IA no había cumplido sus promesas y, en consecuencia, los fondos públicos se redujeron drásticamente, especialmente en Europa. Solo sobrevivieron los grupos más fuertes, sobre todo en Estados Unidos, gracias al respaldo militar y algunas universidades privadas.

Entre 1970 y 1990, la atención se desplazó del sueño general de crear “máquinas pensantes” hacia un objetivo más limitado pero tangible, que consistía en enseñar a las máquinas a comportarse como expertos humanos en ámbitos concretos. Así nacieron los llamados sistemas expertos, programas capaces de diagnosticar enfermedades, asesorar en inversiones o planificar procesos industriales a partir de reglas lógicas y bases de conocimiento.

Fue una época de resurrección tecnológica. Mientras los pioneros norteamericanos habían visto cómo el entusiasmo de los primeros años se desvanecía por la falta de resultados, Japón irrumpió con su ambicioso Proyecto de la Quinta Generación (1982), financiado por el Ministerio de Industria y Comercio Internacional (MITI). El objetivo era tan claro como desafiante: construir ordenadores que pudieran razonar, conversar en lenguaje natural y resolver problemas complejos sin depender de la intervención humana. La idea movilizó enormes recursos y generó inquietud en Estados Unidos y Europa, donde se temía quedar rezagados ante la nueva ofensiva tecnológica japonesa. Es importante resaltar que un estado, con fondos estatales, se lanza a financiar un proyecto no físico de infraestructura, necesario para un futuro, a penas posible de vislumbrar, en ese momento. No están construyendo carreteras, puertos, embalses, están desarrollando una tecnología a largo plazo.

La respuesta europea llegó en forma de cooperación y estrategia común. En 1983 se lanzó ESPRIT (European Strategic Programme on Research in Information Technology), un programa que no solo buscaba impulsar la investigación en IA, sino también articular una política tecnológica continental, integrando universidades, centros de investigación y empresas privadas. Fue el primer intento serio de Europa por situarse en la frontera del conocimiento digital. Ahora es cuando Europa podía demostrar que la cooperación científica, financiada con fondos comunitarios, valía la pena.

Mientras tanto, en Estados Unidos, compañías como Xerox, IBM y Digital Equipment Corporation desarrollaban sistemas expertos comerciales, y universidades como Stanford perfeccionaban modelos como MYCIN, para diagnósticos médicos, o DENDRAL, para análisis químico. Era la época en que la inteligencia artificial se volvía rentable, corporativa, útil.

Sin embargo, esa misma especialización que permitió su expansión también marcó sus límites. Los sistemas expertos dependían de reglas demasiado rígidas, incapaces de aprender por sí mismos o de enfrentarse a lo imprevisto. Cuando el entusiasmo empresarial se enfrió y las expectativas financieras no se cumplieron, llegó un nuevo invierno. Pero la semilla ya estaba plantada: la idea de que la inteligencia artificial debía nutrirse tanto de conocimiento humano como de su capacidad de adaptación.

La década de 1990 abriría, con el auge de las redes neuronales y el aprendizaje automático, una nueva era, la de las máquinas que aprenden. Tras el declive de los sistemas expertos, la inteligencia artificial entró en un periodo de introspección. Los viejos modelos basados en reglas habían demostrado ser demasiado rígidos, demasiado humanos en su lógica y demasiado incapaces de improvisar. Fue entonces, a partir de los años noventa, cuando la investigación dio un giro radical, en lugar de programar la inteligencia, se trataba de permitir que la máquina la aprendiera.

Así nació la era del aprendizaje automático, el llamado machine learning. Los ordenadores comenzaron a ser entrenados no con instrucciones, sino con ejemplos. La clave ya no estaba en decirle a la máquina qué hacer, sino en proporcionarle datos, miles, millones de datos, para que descubriera por sí misma patrones y regularidades. Era una revolución silenciosa, más matemática que filosófica, pero destinada a transformar la ciencia, la economía y hasta la cultura.

El cambio fue posible gracias a tres factores convergentes: el aumento de la capacidad de cálculo, la acumulación masiva de información digital y la reformulación de las viejas redes neuronales. Lo que en los años cincuenta había sido un modelo teórico rudimentario inspirado en el cerebro humano, reapareció bajo una nueva forma, la de las redes profundas, capaces de procesar imágenes, textos y sonidos con una precisión desconocida.

Durante esta etapa, la inteligencia artificial dejó los laboratorios y empezó a infiltrarse en la vida cotidiana, como los filtros de spam, los buscadores, los sistemas de recomendación, los primeros traductores automáticos y los algoritmos financieros. Empresas como Google, Amazon o Facebook, fundadas entre 1994 y 2004, construyeron su poder sobre la base del dato como materia prima de la inteligencia.

También fue un periodo de redefinición ética. Lo que antes era un experimento académico empezó a mostrar consecuencias sociales, los llamados sesgos en los algoritmos, dependencia tecnológica, vigilancia digital. Pero esas discusiones estaban aún en ciernes. En los años noventa, el entusiasmo era casi universal. La promesa de que la información, correctamente procesada, bastaría para comprender el mundo

En Europa, el programa ESPRIT continuó, aunque con menos protagonismo, y en Japón el sueño de la Quinta Generación se disolvió en la práctica cotidiana de la robótica industrial. El liderazgo pasó de los gobiernos a las empresas, de la planificación estatal a la innovación privada. Fue el inicio del dominio estadounidense en el campo de la inteligencia artificial contemporánea.

A partir de la segunda década de nuestro siglo, la inteligencia artificial dejó de ser una herramienta para convertirse en un interlocutor. Las máquinas comenzaron a hablar, escribir, dibujar, componer, diagnosticar. Ya no solo respondían a órdenes, proponían. El salto tecnológico fue consecuencia directa de una convergencia inédita con la expansión del big data, la potencia de los procesadores gráficos (GPU) y el perfeccionamiento de las redes neuronales profundas. Los sistemas de deep learning, entrenados con volúmenes de información que ningún cerebro humano podría abarcar, inauguraron una nueva relación entre el hombre y la máquina, la de la co-creación.

La aparición de asistentes virtuales como Siri (2011), Alexa (2014) o Google Assistant (2016) abrió el camino hacia una inteligencia artificial cotidiana, doméstica, invisible. Sin embargo, la verdadera revolución llegó con los modelos generativos, capaces de producir texto, imagen, código o sonido con una naturalidad inquietante. Ahora me viene a la cabeza el recuerdo de mis hijos cuando descubrieron por primera vez esa voz que contestaba a todas sus preguntas y que hasta les podía reprender, cuando le hacían preguntas irreverentes. Se puede decir que ellos han crecido con Siri y Alexa. Para ellos es algo completamente normal, para mí sigue siendo un milagro. Ellos han crecido con la simulación del pensamiento.

Sistemas como GPT, DALL·E, Midjourney o Gemini ya no se limitaban a ejecutar tareas, como fabricar lenguaje, narración y sentido. El diálogo con ellos empezó a parecerse peligrosamente a una conversación humana. Por primera vez desde los sueños de Turing, la pregunta dejó de ser “¿puede pensar la máquina?”, como decía Turing,  para transformarse en ¿puede el hombre seguir pensando sin ella?.

Ahora ya comenzaron a surgir las tensiones éticas y políticas. El poder del dato se convirtió en poder económico y geopolítico. Las grandes corporaciones tecnológicas como Microsoft, Google, Meta, OpenAI, Tencent,  se erigieron en los nuevos imperios del conocimiento y, la información, que en la etapa anterior se consideraba neutra, reveló su rostro ideológico, porque lo que la máquina aprende depende de lo que el hombre decide mostrarle. Al menos hasta aquí.

Al mismo tiempo, la IA entró en los espacios creativos. Pintores, escritores, músicos, científicos comenzaron a utilizarla como compañera o como espejo. La inteligencia artificial se transformó en una especie de “conciencia externa”, una prolongación del pensamiento humano que, a veces, parecía superarlo.

Europa, consciente de su debilidad tecnológica frente a Estados Unidos y China, optó por el camino de la regulación. El AI Act, aprobado en 2024[3], fue el primer intento serio de establecer un marco ético y jurídico global para las máquinas pensantes. Pero mientras los juristas discutían sobre los límites, la realidad tecnológica avanzaba a otra velocidad. Hoy, en 2025, vivimos ya dentro de la inteligencia artificial. Nos acompaña en los teléfonos, en los diagnósticos médicos, en las decisiones financieras, en las recomendaciones culturales. Y, sobre todo, en la escritura, ese territorio que parecía reservado al alma.

La inteligencia artificial ha pasado de ser un proyecto científico a ser una pregunta filosófica. ¿Estamos creando una nueva forma de vida o solo una imitación de nosotros mismos? ¿Es la máquina una herramienta de conocimiento o un espejo que amplifica nuestras carencias?

Por mi parte, ya sabéis que no soy matemático, y que mis conocimientos en esta materia de la que escribo hoy son meramente históricos. Comprendo la pregunta de Turing, uso los recursos que me proporcionan las nuevas tecnologías y pienso en cómo estas tecnologías están cambiando la actividad a la que me he dedicado toda la vida, a la docencia. Desgraciadamente, el profesorado ha recibido la nueva tecnología con mucha reticencia.

Repasando la literatura que tengo a mi alcance encuentro algunas razones. Parece que se teme que, si el alumno delega en la IA la tarea de pensar, escribir o resolver, deja de ejercitar lo más valioso, que sería su propio juicio. El riesgo, coinciden muchos, es formar mentes que consumen respuestas en lugar de buscar preguntas.

Otros dan a entender que las IAs tienden a generar respuestas “razonables”, pero no necesariamente originales. Si los estudiantes se limitan a reproducir ese tono, puede desaparecer la diversidad creativa que caracteriza al pensamiento humano.

El acceso desigual a estas herramientas puede acentuar brechas educativas, exponen otros. Además, una dependencia excesiva puede debilitar la memoria, la lectura profunda y la concentración. Aquí, algunos investigadores de la cognición han sido muy críticos y desaconsejan todo uso de recursos digitales en preescolar y un uso muy reducido en toda la escuela primaria.

La lista de críticos puede hacerse muy larga y casi todos coinciden en que la tendencia actual hacia la digitalización carece de respaldo científico y puede conducir a consecuencias negativas para el aprendizaje y la enseñanza y cuestionan las expectativas de que la tecnología digital vaya a revolucionar automáticamente la enseñanza.

Pero, si bien hay muchos detractores, también hay muchos partidarios que dicen que, bien usada, la digitalización con la IA puede ser un tutor personal que explique conceptos difíciles, adapte el nivel del lenguaje o proporcione ejemplos según el estilo cognitivo de cada alumno. Puede, además, ahorrar tiempo en tareas repetitivas de corrección, planificación, generación de materiales, permitiendo al docente concentrarse en lo humano, lo que no puede hacer una máquina, que es guiar, escuchar, inspirar.

Para estudiantes aislados, con pocos recursos, significa que puedan acceder a explicaciones, ejercicios y materiales de alta calidad que antes eran privilegio de unos pocos. Si se enseña bien, la IA puede servir como contrincante intelectual, un interlocutor al que hay que cuestionar, contrastar y corregir. No un oráculo, sino un espejo de nuestros propios sesgos.

Por el momento, los detractores de la digitalización y la IA en las escuelas suecas, han ganado la batalla por ahora, al menos en la educación preescolar. Pero mi nieto Dante, con seis años, se relaciona con la IA de una forma natural. He observado que no abusa de su uso y que forma parte de su forma de pensar y actuar. Él es un nativo digital y no tiene ningún problema en usar esa herramienta, como si fuese una navaja multiuso del ejército suizo.

La historia de la IA, vista desde 1950 hasta hoy, parece la historia de una humanidad que, al intentar comprender su propia mente, ha terminado por multiplicarla y yo, personalmente, estoy encantado de ir descubriendo como la docencia se va transformando y, a mi entender, acumulando un conocimiento general muy superior al de épocas anteriores. ¿Quién sabe, a lo mejor este mayor conocimiento nos ayuda a erradicar las guerras, las enfermedades, la pobreza? Si es así, ¡bienvenida sea la IA!


[1] https://ia601709.us.archive.org/0/items/MIND–COMPUTING-MACHINERY-AND-INTELLIGENCE/MIND.pdf

[2] https://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html

[3] https://eur-lex.europa.eu/legal-content/ES/TXT/HTML/?uri=OJ:L_202401689