Google acaba de lograr algo histórico con su herramienta de inteligencia artificial en ciberseguridad llamada Big Sleep. La IA detectó una falla crítica justo antes de que los cibercriminales la atacaran. Este logro marca la primera vez que una herramienta artificial detiene directamente un ataque cibernético planificado.
Big Sleep nació del trabajo conjunto entre Google Project Zero y Google DeepMind. La herramienta funciona como un detective digital que examina código las 24 horas del día. Su trabajo es encontrar esas vulnerabilidades ocultas que los hackers buscan antes de que alguien más las descubra.
Hemos seguido de cerca estos avances en inteligencia artificial en ciberseguridad. Lo que hace especial a Big Sleep es su capacidad de trabajar con pistas mínimas y conectar información que los humanos podrían pasar por alto.

Big Sleep identificó la vulnerabilidad CVE-2025-6965 en SQLite, un motor de base de datos muy utilizado por desarrolladores. La falla fue calificada como crítica por Google. Los investigadores confirmaron que solo los atacantes conocían esta vulnerabilidad antes del descubrimiento.
La herramienta de inteligencia artificial trabajó junto con el equipo de inteligencia de amenazas de Google. Los analistas detectaron señales de que actores maliciosos preparaban un ataque zero-day. Sin embargo, no pudieron identificar inmediatamente la vulnerabilidad específica.
Big Sleep procesó estas señales limitadas y logró encontrar la vulnerabilidad exacta. Los atacantes estaban preparándose para usarla en sus operaciones. Google afirma que pudieron “predecir que una vulnerabilidad iba a ser utilizada muy pronto”.
SQLite es utilizado por millones de desarrolladores en todo el planeta. La vulnerabilidad podría haber afectado innumerables aplicaciones y sistemas. La detección temprana evitó un potencial impacto masivo en la infraestructura digital global.
Google está usando Big Sleep para mejorar la seguridad de proyectos de código abierto. Esta iniciativa beneficia a toda la comunidad de desarrollo de software. Los proyectos de código abierto a menudo no tienen recursos dedicados para auditorías de seguridad completas.
¿Quieres saber más? Únete a los canales oficiales de Facialix:
Implementación responsable
Google publicó un documento técnico sobre la construcción segura de agentes de IA. El sistema incluye estas características principales:
- Salvaguardas de privacidad y limitaciones de acciones no autorizadas
- Transparencia y supervisión humana como componentes clave del sistema
Múltiples empresas y organismos gubernamentales desarrollan herramientas similares. El Departamento de Defensa de Estados Unidos anunciará próximamente ganadores de una competencia para crear sistemas de seguridad automatizada. La colaboración entre sectores público y privado impulsa estos avances.
Fuentes: Google
