La carrera por la inteligencia artificial general se ha convertido en el nuevo dogma tecnológico. Pero una crítica cada vez más incómoda gana fuerza: los grandes modelos de lenguaje pueden hablar, resumir y convencer, pero eso no significa que piensen como un ser humano.

La promesa de la superinteligencia se enfrenta a una duda esencial

La industria de la inteligencia artificial vende una revolución inevitable. OpenAI, Anthropic, Google y Meta compiten por convencer al mundo de que la inteligencia artificial general está cada vez más cerca. La narrativa es poderosa: máquinas capaces de razonar mejor que los humanos, acelerar la ciencia, transformar la medicina y cambiar la economía global.

Pero un artículo de Benjamin Riley en The Verge ha puesto sobre la mesa una objeción de fondo: la base de esta fiebre tecnológica podría estar confundiendo dos cosas distintas, lenguaje e inteligencia. Según esa tesis, los grandes modelos de lenguaje, conocidos como LLM, son extraordinarios sistemas de predicción lingüística, pero eso no demuestra que posean inteligencia humana.

La pregunta es incómoda para Silicon Valley: ¿y si la mayor burbuja tecnológica de la década se apoya en creer que hablar bien equivale a pensar?

Los gigantes tecnológicos prometen una IA sobrehumana

Las grandes tecnológicas no esconden su ambición. Mark Zuckerberg afirmó en 2025 que el desarrollo de la superinteligencia ya estaba “a la vista” y defendió que la IA permitirá crear y descubrir cosas hoy inimaginables.

Sam Altman, consejero delegado de OpenAI, escribió en enero de 2025 que su compañía confiaba en saber cómo construir la AGI, la llamada inteligencia artificial general, tal y como tradicionalmente se ha entendido. También sostuvo que la superinteligencia podría acelerar la innovación científica más allá de lo que los humanos pueden lograr por sí solos.

Dario Amodei, fundador de Anthropic, ha planteado escenarios todavía más ambiciosos. En sus ensayos públicos ha defendido que sistemas de IA muy avanzados podrían comprimir décadas de progreso en biología y medicina en apenas unos años, y ha descrito modelos futuros capaces de superar a un premio Nobel en múltiples campos relevantes.

El mensaje comercial es claro: invertir ahora, regular con cuidado y aceptar que la IA será el próximo gran salto civilizatorio.

Qué son realmente los grandes modelos de lenguaje

Detrás de esa épica tecnológica están los large language models, o grandes modelos de lenguaje. Herramientas como ChatGPT, Claude, Gemini o los sistemas de Meta se entrenan con cantidades inmensas de texto, detectan patrones entre palabras o fragmentos de palabras y predicen qué respuesta debe venir después ante una petición del usuario.

Esto no significa que sean simples. Son sistemas complejos, costosos y capaces de producir resultados sorprendentes. Pero su base sigue siendo lingüística: aprenden correlaciones, estructuras y probabilidades dentro del lenguaje.

Incluso Anthropic ha reconocido que los modelos como Claude no son programados directamente por humanos, sino entrenados con enormes cantidades de datos, y que sus estrategias internas siguen siendo en buena parte difíciles de interpretar incluso para sus propios desarrolladores.

Ese punto es clave: si ni siquiera entendemos por completo cómo generan sus respuestas, afirmar que ya estamos cerca de una inteligencia general plenamente controlable puede ser más propaganda que ciencia.

La neurociencia introduce una objeción demoledora

La crítica más fuerte no viene solo de escépticos tecnológicos, sino de la investigación sobre el cerebro humano. The Verge recoge una línea de investigación según la cual el pensamiento humano es en gran medida independiente del lenguaje. Es decir, usamos palabras para comunicar ideas, ordenar parte de nuestra mente y compartir conocimiento, pero pensar no es simplemente hablar por dentro.

Esta distinción rompe el argumento central de buena parte del entusiasmo actual. Si la inteligencia humana no se reduce al lenguaje, entonces crear modelos cada vez mejores de lenguaje no garantiza crear inteligencia humana ni superinteligencia.

Los humanos razonamos, imaginamos, percibimos, actuamos en el mundo físico, aprendemos por experiencia, construimos intuiciones, formulamos objetivos y comprendemos consecuencias. El lenguaje ayuda a expresar todo eso, pero no lo agota.

La IA puede parecer inteligente sin serlo del mismo modo

Los modelos actuales pueden redactar textos brillantes, resolver ejercicios, resumir documentos, programar, traducir, explicar conceptos y mantener conversaciones convincentes. Esa apariencia de inteligencia es precisamente lo que alimenta el entusiasmo.

Pero también pueden equivocarse con seguridad, inventar datos, fallar en razonamientos sencillos o depender de instrucciones externas para sostener tareas complejas. La fluidez verbal puede ocultar fragilidad cognitiva.

Ese es el riesgo: una máquina que habla como si entendiera puede llevar a usuarios, empresas y gobiernos a sobrestimar sus capacidades. La consecuencia no es solo técnica. También puede ser económica, laboral, educativa y política.

Una burbuja alimentada por promesas multimillonarias

La industria de la IA ha movilizado cantidades enormes de inversión, centros de datos, chips, energía, talento y expectativas bursátiles. El relato de la AGI sirve para justificar valoraciones gigantescas y decisiones estratégicas que afectan a toda la economía digital.

Si la premisa de fondo es errónea, el problema no sería menor. Estaríamos ante una burbuja construida sobre una confusión conceptual: creer que escalar modelos lingüísticos equivale necesariamente a crear inteligencia general.

La historia tecnológica ya conoce ciclos parecidos: promesas exageradas, inversión desbordada, adopción apresurada y posterior corrección. La diferencia es que esta vez la IA se está introduciendo en educación, justicia, sanidad, medios, administración pública y empresas a una velocidad inédita.

La opinión de El Vértice: innovación sí, fe ciega no

Desde El Vértice, defendemos la innovación tecnológica, pero no la sumisión acrítica al relato de Silicon Valley. La inteligencia artificial puede ser una herramienta formidable. Puede mejorar productividad, investigación, análisis de datos y servicios. Pero una herramienta útil no debe confundirse con una mente.

Europa, y especialmente España, no puede limitarse a importar discursos de las grandes tecnológicas estadounidenses. Hace falta criterio propio, evaluación científica, soberanía digital y prudencia regulatoria.

La IA debe incorporarse donde aporte valor real, no donde sirva para sustituir responsabilidad humana por automatismos opacos. Cuando hablamos de educación, salud, justicia o información pública, la pregunta no es solo si una IA responde con elegancia, sino si comprende, verifica, razona y responde ante sus errores.

El riesgo político: delegar decisiones en sistemas que no entienden

La confusión entre lenguaje e inteligencia tiene una derivada institucional. Si gobiernos y empresas creen que los modelos de lenguaje son equivalentes a expertos humanos, pueden acabar delegando decisiones delicadas en sistemas que generan respuestas plausibles, pero no necesariamente verdaderas.

Una IA puede sonar segura y estar equivocada. Puede presentar una conclusión como razonable sin conocer el mundo como lo conoce una persona. Puede optimizar una respuesta sin entender su impacto moral, legal o social.

Por eso el debate no debe centrarse solo en si la IA será “más lista” que los humanos, sino en qué significa realmente ser inteligente y quién asume la responsabilidad cuando el sistema falla.

Hablar no es pensar

La inteligencia artificial generativa ha demostrado una capacidad extraordinaria para trabajar con palabras. Pero el salto desde hablar bien hasta pensar como un ser humano sigue siendo mucho más grande de lo que Silicon Valley quiere admitir.

La industria necesita vender futuro. Los inversores necesitan creer en una revolución. Los gobiernos quieren subirse a la ola. Pero la ciencia obliga a una pregunta más incómoda:

Si el lenguaje no es lo mismo que la inteligencia, ¿cuánto vale realmente una burbuja construida sobre esa confusión?

Chollones

BIKINI BODIE COPA REALCE PIEDRERIA

25,00€

Ver en Chollones 🛒
Chollones

Dolce gabbana pour homme eau de toilette 75ml vaporizador

55,00€

Ver en Chollones 🛒
Chollones

Curso de maquillaje básico en Fuengirola | Academia Carmen

Consultar

Ver en Chollones 🛒

Comparte.
Dejar una respuesta

Exit mobile version