Anuncios

Un investigador senior de Google DeepMind publicó un paper que desafía la narrativa dominante en la industria. Alexander Lerchner, científico del laboratorio de inteligencia artificial, argumenta que ningún sistema computacional alcanzará la consciencia.

Su artículo,“The Abstraction Fallacy: Why AI Can Simulate But Not Instantiate Consciousness”, está disponible en el sitio oficial de DeepMind desde marzo de 2026.

El trabajo plantea una ruptura con las promesas de los máximos ejecutivos del sector. El propio Demis Hassabis, cofundador de DeepMind, ha declarado que la inteligencia artificial general (AGI) será “algo así como 10 veces el impacto de la Revolución Industrial, pero ocurriendo a 10 veces la velocidad”.

Lerchner, en cambio, sostiene que simular procesos cognitivos no equivale a experimentar subjetividad.

Lerchner identifica lo que llama la “falacia de la abstracción”. En esencia, los modelos de lenguaje grandes (LLMs) procesan símbolos y patrones sin tener ninguna experiencia interna.

El paper explica que la consciencia requiere una instanciación física y biológica que los algoritmos no pueden replicar.

Anuncios


  • Una máquina puede imitar conversaciones humanas, pero carece de estados subjetivos.
  • Lerchner reclama que la industria confunde rendimiento técnico con propiedades fenomenológicas.
  • El argumento se apoya en décadas de filosofía de la mente y neurociencia, no solo en informática.

La publicación generó reacciones entre expertos en consciencia. La lingüista y científica computacional Emily Bender, entrevistada por 404 Media, señaló que el paper muestra “la divergencia entre las narrativas interesadas que las empresas de IA promueven en los medios y cómo se derrumban bajo un examen riguroso”.

Bender también criticó el proceso de revisión en los laboratorios corporativos. Afirmó que “gran parte de lo que sucede en este espacio de investigación ahora son objetos con forma de papel que salen de los laboratorios corporativos”, sin pasar por un control académico formal.

“Si la ciencia de la computación pudiera entenderse a sí misma como una disciplina entre pares, en lugar de la forma en que se ve a sí misma como la cima del logro humano, sería un mundo mejor.” — Emily Bende.

El paper de Lerchner llega en un momento donde empresas como OpenAI, Anthropic y la propia DeepMind compiten por alcanzar la AGI. La brecha entre el marketing corporativo y la investigación rigurosa se amplía. El científico no niega que los LLMs sean útiles, pero sí que posean algo parecido a la consciencia.

Para los lectores interesados en formación sobre IA, este debate refleja la importancia de distinguir entre inteligencia funcional y experiencia consciente. La reflexión de Lerchner invita a moderar las expectativas sobre lo que las máquinas realmente son.