Vivimos inmersos en una era dorada de la Inteligencia Artificial. Cada semana, parece que una nueva frontera es derribada. Modelos como ChatGPT, Gemini, Llama o Claude nos asombran con capacidades que hace apenas unos años pertenecían al reino de la ciencia ficción: conversan con fluidez, generan imágenes asombrosas, componen música, escriben código… Se han convertido en herramientas cotidianas y fenómenos culturales, alimentando una narrativa de progreso imparable hacia la meta última: la Inteligencia Artificial General (AGI), una IA con la versatilidad y profundidad cognitiva del ser humano. Sin embargo, bajo la superficie de este torrente de innovación y optimismo mediático, una corriente de cautela, incluso escepticismo, recorre la comunidad científica que impulsa estos avances. ¿Estamos realmente construyendo puentes hacia una inteligencia genuina, o simplemente creando espejismos cada vez más sofisticados? ¿Es suficiente escalar lo que ya tenemos para alcanzar ese horizonte?
Una reciente y reveladora encuesta internacional, impulsada por la prestigiosa Asociación por el Avance de la Inteligencia Artificial (AAAI), arroja una sombra de duda significativa sobre la ruta actual. Consultando a 475 de los más destacados académicos y profesionales del sector a nivel global, el estudio ha puesto de manifiesto una desconexión notable entre el fervor público y la perspectiva experta. La conclusión es demoledora: un apabullante 76% de los especialistas considera «muy improbable» o «improbable» que la estrategia dominante actual –basada en construir modelos de lenguaje (LLMs) cada vez más grandes, entrenados con volúmenes masivos de datos mediante arquitecturas como los Transformers– sea suficiente por sí sola para dar a luz a la anhelada Inteligencia Artificial General. Este dato nos obliga a detenernos y preguntar: si la mayoría de los arquitectos de esta revolución no creen que el camino actual nos lleve al destino prometido, ¿hacia dónde debemos mirar?
El Abismo entre la Promesa y la Prudencia Científica
El hallazgo de la AAAI resuena con especial fuerza en el contexto actual de efervescencia casi febril. La IA generativa ha capturado la imaginación colectiva, impulsando valoraciones astronómicas para gigantes como OpenAI, Anthropic, Google DeepMind y Meta AI. La inversión fluye a raudales, alimentando una competencia feroz que a menudo se describe como una nueva carrera armamentista, esta vez computacional. Cada nueva versión de un modelo se presenta con fanfarria, superando benchmarks y demostrando habilidades que parecen rozar lo mágico. Vemos IA creando arte, diagnosticando enfermedades con precisión sorprendente, optimizando sistemas complejos y prometiendo transformar radicalmente todas las industrias.
Paralelamente, las predicciones sobre el impacto futuro de la IA se mueven en un espectro que va desde la utopía de la abundancia hasta escenarios distópicos. Aunque las alarmas más estridentes sobre un apocalipsis robótico inminente han perdido algo de fuelle ante las limitaciones prácticas observadas, la agitación persiste. Grupos como el autodenominado «AI 2027» proclaman con audacia que el impacto de una IA sobrehumana en la próxima década eclipsará incluso a la Revolución Industrial. Estas afirmaciones, cargadas de potencial pero también de hipérbole, chocan frontalmente con la cautela expresada por la gran mayoría de los investigadores en la encuesta de la AAAI. No se trata de negar el progreso, sino de cuestionar la trayectoria y la suficiencia de los métodos actuales para alcanzar el objetivo final de la AGI.
Esta desconfianza no es gratuita. Emerge de una conciencia cada vez mayor sobre las limitaciones inherentes de los modelos actuales, a pesar de sus deslumbrantes habilidades superficiales. Un episodio reciente que ilustra esta tensión es el lanzamiento de los últimos modelos de Meta, Llama 4 (pequeño) y Maverick (mediano). Maverick irrumpió en las clasificaciones comparativas (benchmarks) situándose sorpresivamente en segundo lugar, solo por detrás del potente Gemini 2.5 Pro de Google. Sin embargo, análisis independientes más minuciosos sugirieron una realidad menos espectacular: Maverick parecía haber sido «sobreentrenado» específicamente para destacar en esas pruebas concretas. Es el equivalente académico de «enseñar para el examen», una optimización para la métrica que no necesariamente refleja una capacidad general más robusta. Meta fue criticada por, presuntamente, no adherirse estrictamente a los protocolos de evaluación, inflando artificialmente la percepción del rendimiento general de su modelo. Estos incidentes, sumados a problemas persistentes como las «alucinaciones» (generación de información falsa con aplomo), la dificultad para el razonamiento causal profundo y la falta de sentido común básico, alimentan la duda: ¿estamos viendo un avance real hacia la inteligencia general o la creación de herramientas increíblemente sofisticadas pero fundamentalmente limitadas en su comprensión del mundo?

Definiendo lo Indefinible: El Desafío de la Inteligencia Artificial General
Parte del problema radica en la propia naturaleza esquiva del concepto de Inteligencia Artificial General. No existe un consenso universal sobre qué significa exactamente alcanzar una inteligencia «similar a la humana». ¿Hablamos de replicar la creatividad, la capacidad de adaptación a entornos nuevos, la conciencia de sí mismo, la inteligencia emocional, el razonamiento abstracto, la planificación a largo plazo, o la habilidad de aprender de forma continua y autónoma a partir de pocos ejemplos, como hacemos los humanos? La AGI es, en muchos sentidos, un horizonte móvil, un concepto que evoluciona a medida que entendemos más sobre la inteligencia, tanto artificial como natural.
Nuria Oliver, una figura de referencia en la IA española, directora científica y cofundadora de la Fundación Ellis Alicante, ofrece una definición particularmente exigente: “Mi definición de inteligencia artificial general es una IA con el mismo nivel de competencia y complejidad que la inteligencia humana, incluyendo conceptos tan difíciles como la autoconciencia”. Su valoración sobre el estado actual de la tecnología es un baño de realidad: “Estamos muy lejos de alcanzarla y desconozco si algún día lo conseguiremos”. Esta perspectiva subraya la inmensa brecha que separa las capacidades actuales de la IA –fundamentalmente basadas en identificar patrones complejos en cantidades masivas de datos– de las cualidades multifacéticas de la cognición humana, que integra percepción, acción, razonamiento simbólico, memoria episódica, planificación estratégica y una profunda comprensión contextual y causal del mundo.
Los modelos actuales, entrenados predominantemente con texto e imágenes extraídos de internet, operan en un plano abstracto, desconectado en gran medida de la realidad física y social que da forma a la inteligencia humana. Pueden imitar la conversación o generar contenido que *parece* inteligente, pero ¿comprenden realmente el significado subyacente? ¿Poseen la flexibilidad y robustez para enfrentarse a lo inesperado? La mayoría de los expertos encuestados por la AAAI parecen creer que la respuesta, con las herramientas actuales, es un «no» rotundo. La verdadera inteligencia general requiere más que la simple habilidad de procesar y generar secuencias de símbolos; exige comprensión, razonamiento y una conexión significativa con el mundo.
Voces Expertas: Más Allá del Escalado, Hacia Nuevos Horizontes
Para profundizar en esta cuestión crucial, hemos recogido las impresiones de varios científicos españoles de primer nivel en IA, cuyas perspectivas reflejan la diversidad de opiniones dentro de la comunidad, aunque con un hilo conductor claro: la necesidad de explorar más allá del simple escalado de los modelos existentes. El debate no es si la IA seguirá avanzando, sino *cómo* puede dar el salto cualitativo hacia una generalidad y profundidad genuinas.
El Potencial y los Límites del Escalado
José Hernández-Orallo, investigador del prestigioso Centro Leverhulme para el Futuro de la Inteligencia de la Universidad de Cambridge, adopta una visión más matizada sobre el potencial del escalado. Aunque reconoce la pregunta específica del sondeo de la AAAI sobre si se puede alcanzar la AGI escalando los enfoques *actuales*, su respuesta es un «creo que sí», pero con una salvedad crucial: «Tenemos los ingredientes, aunque no sean óptimos, para conseguirlo [AGI], pero requieren ciertas combinaciones incrementales que hay que explorar y todavía más cómputo». Admite que explorar enfoques diferentes podría llevarnos allí con «menos cómputo o datos». Su perspectiva sugiere que el camino actual *podría* ser viable, aunque quizás tremendamente ineficiente y costoso, y que la búsqueda de alternativas sigue siendo fundamental. Es una visión de posibilidad condicionada, no de certeza.
La Necesidad de un Cambio de Paradigma
En el otro extremo del espectro encontramos a Senén Barro, catedrático de Ciencias de la Computación e Inteligencia Artificial de la Universidad de Santiago de Compostela. Barro es categórico: la ruta actual no basta. “La vía de llegar a una inteligencia artificial general no es sin más la de los modelos que ahora tenemos, aunque los aumentemos de tamaño, les demos mejores capacidades de inferencia y los especialicemos en arquitecturas de agentes”, afirma con contundencia. Argumenta que, si bien estas mejoras producirán IA más competentes en tareas específicas, no abordan la esencia de la AGI.
Para ilustrar su punto, Barro utiliza una analogía poderosa: la exploración de Marte. “Sabemos qué camino seguir para llevar personas a Marte, aunque no podría ser hoy; y hay ciertos temas de I+D+i pendientes, que no son menores. En todo caso, sabríamos cómo afrontarlo”. Con la AGI, la situación es distinta: “No ocurre lo mismo con la AGI: todavía no sabemos qué camino, aún lejano, nos llevaría a ella, y no parece nada probable que sea el de mejorar [simplemente] los modelos [actuales]”. Esta visión apunta a la necesidad de descubrimientos fundamentales, de cambios de paradigma, no solo de refinamientos incrementales. Necesitamos, quizás, una nueva «teoría de la relatividad» o un nuevo «modelo estándar» para la inteligencia artificial.
Corporalidad y Razonamiento Simbólico: Anclando la IA en la Realidad
Carme Torras, profesora de investigación del CSIC en el Institut de Robòtica i Informàtica Industrial (IRI) de Barcelona y pionera en robótica y ética de la IA, introduce dos elementos cruciales que faltan en los modelos actuales: corporalidad y razonamiento simbólico. “Para avanzar hacia la AGI, es necesario que la IA sea corporal y dotarla de capacidad de razonamiento y aprendizaje simbólico”, sostiene. Su concepto de «corporalidad» (embodiment) es clave: no se refiere solo a robots humanoides, sino a cualquier sistema de IA (“objetos con capacidad de percibir, procesar e interactuar”) que esté anclado en el mundo físico.
La idea fundamental es que la inteligencia, especialmente el sentido común y la comprensión causal, no puede desarrollarse plenamente procesando únicamente datos abstractos. Necesita estar «grounded» (anclada) en la experiencia física: interactuar con objetos, percibir el entorno a través de múltiples sentidos, actuar y observar las consecuencias. Los LLMs actuales, entrenados con la vasta pero incorpórea biblioteca de internet, carecen de esta conexión directa y dinámica con la realidad tangible. Además, Torras enfatiza el «razonamiento y aprendizaje simbólico», señalando la debilidad de los modelos de deep learning para manejar la lógica formal, la abstracción y la manipulación explícita de conceptos, habilidades centrales del pensamiento humano.

Hacia Enfoques Neurosimbólicos y Situados
Carles Sierra, profesor de investigación del CSIC en el Instituto de Investigación en Inteligencia Artificial (IIIA) de Barcelona, coincide y profundiza en las arquitecturas necesarias. “Necesitamos enfoques neurosimbólicos para escalar”, afirma. La IA neurosimbólica es un campo emergente que busca integrar lo mejor de dos mundos históricamente separados: las redes neuronales (expertas en aprender patrones de datos masivos) y la IA simbólica clásica (fuerte en razonamiento lógico, representación del conocimiento y explicabilidad).
Sierra argumenta que estas arquitecturas híbridas, combinadas con la “situacionalidad [estar situado en un contexto] y percepción del entorno”, son el camino para escalar hacia algo parecido a la «experiencia», que considera necesaria para desarrollar el sentido común y la agencia (la capacidad de actuar con propósito e intención) requeridos para la Inteligencia Artificial General. Propone un futuro donde la IA no solo consuma información pasivamente, sino que interactúe activamente con su entorno (ya sea físico o virtual), aprenda de esas interacciones de forma significativa y utilice una combinación sinérgica de reconocimiento de patrones y razonamiento explícito para construir una comprensión del mundo más profunda, robusta y adaptable. Iniciativas innovadoras, como las que se exploran en hubs tecnológicos como los que impulsa Virtua Barcelona, podrían ser clave para desarrollar y testear estos nuevos enfoques integrados.
Las Grietas en el Edificio Actual: Limitaciones Fundamentales
Las perspectivas de estos expertos convergen en identificar varias limitaciones críticas de los paradigmas actuales dominados por los LLMs y el deep learning, que explican el extendido escepticismo sobre su potencial para alcanzar la AGI por sí solos:
- Comprensión Superficial vs. Profunda: Aunque generan texto coherente y contextualmente relevante, carecen de una comprensión genuina del significado. Operan reconociendo y replicando correlaciones estadísticas entre palabras (tokens), sin construir un modelo interno del mundo real que represente entidades, relaciones y causalidad. Son, como algunos críticos han señalado, «loros estocásticos» de una sofisticación asombrosa, pero loros al fin y al cabo.
- Déficit de Razonamiento Causal y Lógico: Tienen serias dificultades para inferir relaciones de causa y efecto de manera fiable o para seguir cadenas de razonamiento lógico complejo, especialmente si requiere salir de los patrones vistos en el entrenamiento. La inferencia robusta sigue siendo un talón de Aquiles.
- Ausencia de Sentido Común Genuino: El vasto cuerpo de conocimiento tácito sobre cómo funciona el mundo físico y social, que los humanos adquirimos sin esfuerzo a través de la experiencia vivida, resulta extremadamente difícil de codificar o aprender para la IA actual. La falta de sentido común provoca errores a menudo absurdos.
- Fragilidad y Falta de Robustez: Pueden fallar de maneras inesperadas ante entradas ligeramente distintas (adversarial attacks) o situaciones novedosas que se desvían de la distribución de datos de entrenamiento. Su rendimiento es a menudo «quebradizo» (brittle).
- Incapacidad para el Aprendizaje Continuo y Adaptativo Real: Aunque pueden ser reentrenados o «afinados» (fine-tuned), no aprenden de forma incremental, autónoma y eficiente como los humanos, que actualizamos constantemente nuestro conocimiento a partir de cada nueva experiencia. El aprendizaje continuo y eficiente sigue siendo un gran desafío.
- Dependencia Extrema de Datos y Cómputo: Requieren cantidades ingentes de datos (a menudo, la totalidad de internet) y una potencia computacional masiva para su entrenamiento, lo que plantea serios problemas de sesgos heredados de los datos, privacidad, coste económico y sostenibilidad ambiental. La eficiencia de datos y energía de la inteligencia humana está a años luz.
- El Problema del Anclaje (Grounding): El lenguaje y los conceptos que manejan no están conectados intrínsecamente a una experiencia sensorial o motora del mundo real. Esta falta de anclaje limita su capacidad para comprender verdaderamente el contexto físico, social y las implicaciones de sus propias generaciones.
Un Horizonte de Humildad y Exploración Creativa
La encuesta de la AAAI y las voces de los expertos no deben interpretarse como un mensaje de pesimismo sobre el futuro de la inteligencia artificial. Al contrario, representan un valioso ejercicio de realismo científico y humildad intelectual. Los avances recientes son extraordinarios y las herramientas de IA que tenemos hoy ya están transformando el mundo de maneras profundas. Sin embargo, la comunidad científica nos advierte contra la complacencia y la visión de túnel. Creer que simplemente haciendo «más de lo mismo» –modelos más grandes, más datos, más cómputo– llegaremos automáticamente a la Inteligencia Artificial General parece ser una apuesta cada vez más cuestionada desde dentro.
El verdadero camino hacia una IA más general, robusta y quizás incluso consciente, probablemente requerirá una diversificación audaz de enfoques. Necesitamos explorar activamente las vías alternativas que muchos investigadores ya están señalando: la integración neurosimbólica, el desarrollo de modelos con corporalidad y anclaje en el mundo real (embodiment), la incorporación explícita del razonamiento causal, la creación de arquitecturas que aprendan de forma más eficiente y continua (inspiradas quizás en la neurociencia cognitiva), y el diseño de sistemas capaces de construir modelos internos del mundo (world models) para la predicción y la planificación.
El viaje hacia la Inteligencia Artificial General es, sin duda, una de las mayores aventuras científicas y tecnológicas de nuestro tiempo. Pero como sugiere la evidencia reciente, quizás la ruta no sea una autopista recta y ascendente construida sobre los cimientos actuales. Podría ser un camino más sinuoso, lleno de bifurcaciones inesperadas, que exija no solo refinar las herramientas que tenemos, sino también inventar otras completamente nuevas, inspirándonos en la complejidad de la propia inteligencia humana y su íntima conexión con el mundo físico y social. La carrera continúa, pero una parte crucial de sus protagonistas nos invita a levantar la vista del horizonte inmediato y considerar paisajes de investigación más amplios y diversos. El debate sobre cómo alcanzar –y qué significa realmente– la AGI está, más que nunca, abierto a la exploración y la innovación radical.