La inteligencia artificial ya está cambiando cómo los científicos encuentran información para sus estudios, pero este cambio trae problemas serios que apenas empezamos a notar.
Mientras las universidades discuten si está bien usar IA para escribir artículos, algo más importante está pasando sin que nos demos cuenta: estos sistemas ya deciden qué estudios científicos encontramos, citamos y, al final, qué conocimiento sobrevive.
Los datos muestran una situación alarmante. OpenAI extrajo 250 páginas por cada persona que enviaba a un sitio web a inicios de 2025, pero a mediados de año esa cifra subió a 1,500 páginas. Anthropic fue aún más lejos: pasó de 6,000 a 60,000 páginas en el mismo tiempo. Estos chatbots ahora dan respuestas directas sin que los usuarios necesiten visitar las fuentes originales, y la gente confía cada vez más en lo que dicen.
El problema va más allá del tráfico web. Estos sistemas ya muestran sesgos que están cambiando la investigación científica. Cuando sugieren revisores para estudios, favorecen académicos con nombres que parecen de personas blancas y dejan de lado aquellos con nombres asiáticos. Al recomendar literatura científica, eligen desproporcionadamente trabajos muy populares: más del 60% de sus sugerencias vienen del 1% de artículos más citados, el doble que las listas hechas por humanos.
Lo más preocupante es que los científicos revisan cada oración que genera la IA, pero dejan que estos sistemas decidan sin cuestionarlos qué autores citar, qué métodos usar y qué áreas de investigación explorar.
Esto es especialmente grave porque pronto tendremos agentes de IA capaces de hacer revisiones de literatura y experimentos completos por sí solos.
Problemas ya identificados:
- Discriminación por nombres: Los sistemas favorecen nombres que suenan blancos sobre nombres asiáticos al sugerir revisores científicos
- Amplificación de popularidad: El 60% de recomendaciones vienen del 1% de estudios más citados, haciendo invisible la investigación menos conocida
Qué se puede hacer:
- Investigación rigurosa: Estudiar cómo funcionan estos sistemas en el trabajo científico real, incluyendo sus sesgos y vulnerabilidades
- Entrenar a los investigadores: Enseñarles a usar IA como una herramienta que puede fallar, usando preguntas que busquen diversidad como “¿qué críticas hay sobre esta teoría?” o “¿qué investigadores jóvenes trabajan en este tema?”
Según el experto en metaciencia Zhicheng Lin, quien publicó este análisis en la revista Nature, prohibir la IA no es práctico ni útil. Lo urgente es crear reglas sobre cómo estos sistemas nos ayudan a encontrar conocimiento antes de que sus sesgos queden grabados para siempre en la ciencia.
La ventana para cambiar esto se está cerrando rápido. Las decisiones que tomemos ahora sobre cómo usar la IA para buscar información científica afectarán la investigación durante años. Por eso necesitamos actuar ya, no después.

