En el nuevo mapa de la inteligencia artificial hay nombres que ya se volvieron inevitables. OpenAI, Google, Microsoft… y en los últimos años, Anthropic.
La compañía se ha convertido en uno de los laboratorios de IA más influyentes del planeta, responsable de Claude, un sistema de inteligencia artificial que compite directamente con otros modelos avanzados. Pero su crecimiento no sólo se explica por la tecnología. También por algo más delicado: su relación con el gobierno de Estados Unidos, que va desde colaboraciones institucionales hasta un conflicto legal reciente con el Pentágono.

¿Qué es Anthropic?
Anthropic es una empresa de investigación y desarrollo de inteligencia artificial fundada por exempleados de OpenAI. Su objetivo central es construir sistemas avanzados de IA con un enfoque fuerte en seguridad y control del comportamiento de estos modelos.
Su producto más conocido es Claude, un modelo de lenguaje diseñado para tareas como análisis de texto, programación, automatización de trabajo y generación de contenido.
La compañía también ha invertido miles de millones en infraestructura para entrenar modelos cada vez más potentes. Un ejemplo es el plan para invertir 50 mil millones de dólares en centros de datos para inteligencia artificial dentro de Estados Unidos, una apuesta masiva para sostener el desarrollo de estos sistemas.
Pero mientras la tecnología avanzaba, también empezaba a crecer el interés del gobierno por estas herramientas.

Cuando la inteligencia artificial empezó a interesarle al gobierno
En 2025, la Administración de Servicios Generales del gobierno federal firmó un convenio para que Claude, el sistema de IA de Anthropic, pudiera estar disponible para las tres ramas del gobierno: ejecutiva, legislativa y judicial.
El acuerdo ofrecía acceso a la plataforma por un dólar simbólico durante un año, con la idea de que agencias gubernamentales pudieran probar la tecnología en tareas administrativas y operativas.
La lógica detrás del acuerdo era clara: permitir que funcionarios públicos tuvieran acceso a herramientas avanzadas de inteligencia artificial para modernizar procesos y mejorar análisis de información.
Para Anthropic, el acuerdo también tenía una lectura estratégica: acercarse a los organismos que eventualmente definirán las reglas del juego para toda la industria de la IA.

El punto donde la relación con el gobierno empezó a tensarse
El problema apareció cuando la discusión dejó de ser tecnológica y empezó a tocar temas mucho más sensibles: seguridad nacional, vigilancia y uso militar de la inteligencia artificial.
De acuerdo con reportes periodísticos recientes, el conflicto entre Anthropic y el gobierno se intensificó cuando el Pentágono pidió eliminar ciertas restricciones en el uso de sus modelos.
La empresa había establecido límites para evitar que su tecnología fuera utilizada en dos escenarios específicos:
- Vigilancia masiva dentro del país
- Sistemas de armas completamente autónomos
Cuando las negociaciones no avanzaron, el Departamento de Defensa decidió clasificar a la empresa como un “riesgo para la cadena de suministro”, una designación que normalmente se usa para proveedores considerados problemáticos para la seguridad nacional.
La medida también incluyó una orden para eliminar gradualmente el uso de sus sistemas en operaciones gubernamentales durante un periodo de seis meses.

La batalla legal que hoy enfrenta la empresa
La respuesta de la compañía fue inmediata.
En marzo de 2026, Anthropic presentó una demanda contra el gobierno para impugnar esa designación y bloquear la restricción impuesta por el Pentágono. Según la empresa, la decisión del gobierno fue una represalia por negarse a permitir el uso sin restricciones de su tecnología en aplicaciones militares.
El conflicto revela un problema más amplio que atraviesa toda la industria: quién decide cómo se pueden usar los sistemas de inteligencia artificial más avanzados.

Por qué este conflicto importa más de lo que parece
El caso de Anthropic muestra algo que ya se empieza a ver con claridad en el mundo tecnológico: la inteligencia artificial ya no es sólo un tema de startups o Silicon Valley.
También es un asunto de política pública, seguridad nacional y regulación.
Las empresas que construyen estos modelos están intentando definir reglas éticas para su uso, mientras los gobiernos buscan acceso a herramientas cada vez más poderosas. En ese choque de intereses —tecnología, poder y regulación— se está definiendo buena parte del futuro de la inteligencia artificial.




