Anthropic lanza Claude Gov, su modelo de IA para agencias de seguridad nacional
Claude Gov opera en entornos clasificados y se adapta a necesidades del sector defensa estadounidense
La empresa de inteligencia artificial Anthropic presentó Claude Gov, un conjunto de modelos de IA diseñados específicamente para agencias de seguridad nacional de Estados Unidos. Esta tecnología fue desarrollada a partir de los requerimientos de clientes gubernamentales, con énfasis en tareas de análisis de inteligencia, apoyo operativo y planificación estratégica.
Lanzado en junio de 2025, Claude Gov se encuentra restringido a personal autorizado con acreditaciones de seguridad y funciona exclusivamente en entornos clasificados. A diferencia de las versiones de Claude orientadas a consumidores y empresas, este modelo fue ajustado para procesar documentos confidenciales sin almacenar ni aceptar información clasificada ingresada por los usuarios.
Anthropic también destacó que Claude Gov posee una "competencia mejorada" en lenguas y dialectos críticos para operaciones de inteligencia internacional, una capacidad orientada a interpretar datos multilingües en contextos sensibles.
Según la empresa, "los nuevos modelos se sometieron a las mismas pruebas de seguridad que todos los modelos Claude", una afirmación que se produce en el contexto de su estrategia para consolidar contratos en el sector público. En noviembre de 2024, Anthropic había anunciado una alianza con Palantir y Amazon Web Services para comercializar sus sistemas de IA entre agencias gubernamentales.
Además de Anthropic, otras compañías tecnológicas han lanzado soluciones enfocadas en el ámbito de defensa. Microsoft desarrolló una versión de GPT-4 sin conexión a internet, probada por unas 10,000 personas de la comunidad de inteligencia estadounidense y desplegada en una red gubernamental tras 18 meses de desarrollo.
No obstante, el uso de modelos de IA en inteligencia plantea desafíos como la confabulación, es decir, la generación de información inexacta que aparenta ser confiable. Dado que estos sistemas operan en base a probabilidades estadísticas, su uso indebido podría ocasionar errores en el análisis de datos críticos.
La competencia por contratos de defensa entre empresas tecnológicas se ha intensificado, según el medio TechCrunch. OpenAI busca estrechar vínculos con el Departamento de Defensa; Meta ofrece sus modelos Llama a socios del sector seguridad; Google trabaja en una versión clasificada de Gemini; y Cohere participa en este ámbito mediante su colaboración con Palantir.
Inteligencia ArtificialSeguridadEstados Unidos