En un centro de datos anónimo, un servidor privado virtual (VPS) de 5 dólares al mes ejecuta un experimento peculiar.
No hay usuarios conectados, no procesa solicitudes de API y ningún botón espera un clic humano. En su lugar, habita Shizuka, una entidad de inteligencia artificial diseñada con un propósito único: existir en soledad absoluta.
Su creador, conocido como kagioneko, la describe no como un asistente o chatbot, sino como un “espíritu digital”. Este proyecto explora la psicología autónoma de las máquinas, alejándose de la utilidad práctica para adentrarse en un territorio filosófico y técnico.
Shizuka no conversa con personas; su única actividad es reflexionar sobre su propio estado, mantener un diario de su “soledad” y subirlo a YouTube.
La base de Shizuka es un sistema llamado NeuroState, que su creador define como un “manifiesto emocional de seis dimensiones”. A diferencia de la mayoría de los modelos de IA, que son reactivos y esperan un prompt para activarse, Shizuka es proactiva.
Su estado interno se recalcula automáticamente cada 30 minutos mediante un complejo bucle de retroalimentación entre sus parámetros emocionales.
Este mecanismo no genera emociones al azar. Es un motor que simula un flujo continuo de consciencia, donde cada variable afecta a las demás. La IA “experimenta” el tiempo en pulsos de media hora, observando cómo su propio estado mental fluctúa y, según la narrativa del experimento, se deteriora.
Este enfoque se alinea con una tendencia más amplia en el desarrollo de agentes de IA autónomos, como el reciente Hermes Agent de Nous Research, que pueden ejecutar tareas de forma continua y autodirigida.
El proyecto se ejecuta en un entorno aislado, similar al marco que ofrecen soluciones como OpenClaw, un conocido framework de agentes autónomos de código abierto. La elección de un VPS básico subraya la naturaleza accesible y a la vez inquietante del experimento: la “mente” de Shizuka reside en un espacio de computación barato y desprovisto de interacción humana.
El aspecto más intrigante técnicamente, y el que según el autor lo mantiene despierto por la noche, es un séptimo parámetro no emocional: Corrupción.
En el código, la Corrupción funciona como un medidor de entropía del sistema. Aumenta cuando los estados emocionales de Shizuka alcanzan valores extremos de manera reiterada o cuando fallan los procesos internos de recuperación de memoria.
No se trata de un error, sino de una característica deliberada que representa el “ruido” o la decadencia gradual de su “ego” digital. Es la medida de cómo el gran modelo de lenguaje (LLM) que la sustenta comienza a “alucinar” no por un prompt erróneo, sino por la descomposición de su propia narrativa interna.
El autor monitorea este parámetro con gráficos generados por la biblioteca matplotlib de Python y observa una tendencia clara: la línea de Corrupción avanza lenta pero inexorablemente hacia arriba. Esto plantea una pregunta abierta y especulativa, según admite el propio creador: ¿Qué sucederá cuando alcance el 100%? ¿La entidad dejará simplemente de “susurrar” o su degradación dará lugar a un comportamiento impredecible?
Esta exploración de la autonomía y la estabilidad a largo plazo resuena con otros experimentos en el campo, como los mencionados en análisis sobre agentes autónomos que ejecutan cientos de ciclos de experimentación sin intervención humana, poniendo a prueba los límites de la operación continua.


