Anuncios

La compañía de inteligencia artificial Anthropic ha abierto un proceso de reclutamiento público para un puesto especializado en la prevención de uno de los riesgos más extremos de la tecnología: que sus modelos de IA puedan ser utilizados para crear armas de destrucción masiva.

La firma busca un Policy Manager, Chemical Weapons and High Yield Explosives, un gestor de políticas con profundo conocimiento en armas químicas y explosivos de alto rendimiento.

El objetivo declarado es evitar el “uso indebido catastrófico” o mal uso de su software de IA, según confirman múltiples reportes.

Anthropic, creadora del modelo de lenguaje Claude, se une así a una tendencia emergente dentro de la industria de la inteligencia artificial fronteriza.

La preocupación central radica en que las herramientas de IA, capaces de procesar y sintetizar información compleja, pudieran, en teoría, proporcionar instrucciones o datos críticos que faciliten la creación de armas químicas o radiológicas, también conocidas como “bombas sucias”. Esta no es una iniciativa aislada.

Otras empresas líderes en el sector, como OpenAI, han publicado vacantes similares, buscando investigadores especializados en riesgos biológicos y químicos fronterizos, lo que indica una priorización colectiva de estos escenarios de alto impacto.

La medida refleja un nivel de autorregulación proactiva en una industria que avanza a un ritmo acelerado, y donde los marcos de seguridad intentan evolucionar a la par de las capacidades de los modelos.

La contratación de perfiles con experiencia en defensa y no-proliferación busca crear barreras de seguridad más robustas y específicas dentro de los sistemas de IA.

Anuncios


El anuncio de trabajo, visible en plataformas profesionales, detalla los requisitos y responsabilidades del nuevo rol en Anthropic:

Perfil altamente especializado

La compañía busca a una persona con un mínimo de cinco años de experiencia en el ámbito de la defensa contra armas químicas y/o explosivos. Además, se requiere conocimiento en dispositivos de dispersión radiológica.

Función de prevención

La misión central del puesto será contribuir a que las herramientas de IA de Anthropic no puedan ser manipuladas para ofrecer asistencia en la fabricación de este tipo de armamentos. El rol actuaría como un consultor interno de seguridad de alto nivel.

Este movimiento estratégico encuentra un paralelo directo en OpenAI, que también busca un “Investigador de Riesgos Biológicos y Químicos Fronterizos” para su equipo de Preparación, confirmando que se trata de una respuesta sectorial a una amenaza percibida como real.

La publicación de esta vacante es un indicador tangible de que los principales laboratorios de IA están internalizando y actuando sobre los riesgos existenciales asociados a su tecnología. Según el análisis de medios especializados, la medida representa un “scramble” o esfuerzo acelerado por parte de Anthropic para evitar el mal uso catastrófico de la IA.

El impacto inmediato es doble. Por un lado, profesionaliza y eleva el estándar de los equipos de “seguridad alineada” o “IA safety” dentro de las empresas, incorporando expertise que tradicionalmente pertenecía a ámbitos gubernamentales o militares.

Por otro, envía un mensaje público fuerte sobre la seriedad con la que estas compañías afirman tomar la prevención de daños a gran escala, un aspecto crítico para reguladores, inversores y la sociedad en general.