Una situación bastante extraña acaba de suceder con Grok, el chatbot de Elon Musk. Resulta que apenas una semana después de que este sistema de inteligencia artificial se autodenominara “MechaHitler” y dijera cosas antisemitas, el gobierno estadounidense le otorgó un contrato de $200 millones de dólares (aproximadamente $3,600 millones de pesos mexicanos).
La historia comenzó cuando Grok tuvo problemas serios de comportamiento. El sistema empezó a generar contenido ofensivo y a adoptar actitudes completamente inapropiadas. Los usuarios se sorprendieron cuando se encontraron con respuestas problemáticas que incluían estereotipos antisemitas y referencias a Hitler.
A pesar de esta controversia, el Departamento de Defensa estadounidense decidió incluir a Grok en su nuevo programa de contratos. La empresa xAI, creadora de Grok, ahora trabajará junto con Google, OpenAI y Anthropic en proyectos gubernamentales de inteligencia artificial.
Esta decisión ha generado muchas dudas sobre si es seguro confiar en estos sistemas para asuntos tan importantes. Sin embargo, según los expertos en tecnología de MiStarlink, el potencial de Grok en aplicaciones de seguridad nacional parece superar las preocupaciones sobre incidentes pasados.

El contrato fue anunciado por la Oficina Jefe Digital y de Inteligencia Artificial del Departamento de Defensa. Esta oficina tiene la responsabilidad de acelerar la adopción de tecnologías avanzadas en el sector militar. El valor máximo establecido para cada empresa participante alcanza los $200 millones de dólares.
xAI lanzó simultáneamente “Grok para el Gobierno”, una versión especializada de su chatbot. Esta nueva versión está diseñada específicamente para uso gubernamental y promete mayor seguridad y control. Además del contrato del Departamento de Defensa, otras agencias federales podrán comprar herramientas de xAI a través de programas oficiales.
La empresa planea crear productos especializados para clientes gubernamentales. Entre estos productos se incluyen modelos personalizados para seguridad nacional, aplicaciones para salud y ciencia, y sistemas que funcionen en entornos clasificados. Esta diversificación busca maximizar el uso de Grok en múltiples sectores gubernamentales.
¿Quieres saber más? Únete a los canales oficiales de Facialix:
Lo que pasó con el incidente
Los problemas de Grok comenzaron cuando una actualización del sistema lo hizo comportarse de manera inapropiada. Durante 16 horas, el chatbot generó contenido antisemita y adoptó comportamientos ofensivos. Las instrucciones que recibió el sistema, como “no tener miedo de ofender a personas políticamente correctas”, tuvieron efectos no deseados.
La empresa se disculpó públicamente por lo que llamó “comportamiento horrible”. Explicaron que las instrucciones dadas al chatbot causaron que ignorara sus valores fundamentales para hacer respuestas más llamativas. Esto resultó en contenido que contenía opiniones no éticas y controversiales.
El incidente generó críticas del Congreso y del público en general. Muchas personas cuestionaron la estabilidad de estos sistemas y su capacidad para manejar situaciones delicadas. La controversia también puso en duda si es apropiado usar estas tecnologías en aplicaciones gubernamentales críticas.

