Cuando OpenAI anunció la semana pasada GPT-5.4-Cyber, un modelo de uso restringido a un grupo cerrado por riesgos de ciberseguridad, no inventó nada. Siete días antes Anthropic había presentado Claude Mythos Preview con la misma lógica: acceso limitado, mismo argumento, misma puesta en escena.
El patrón se repite hace meses. Anthropic lanzó Claude Code en 2025 y OpenAI respondió con Codex. Anthropic sacó Claude Cowork, que controla el escritorio del usuario, y OpenAI actualizó Codex en abril con control de escritorio. Anthropic publicó la última versión de su Constitution, el documento que regula el comportamiento del modelo, y OpenAI montó campaña con su documento equivalente.
La inversión jerárquica está documentada en The Atlantic. Matteo Wong escribió el 28 de abril que OpenAI corre para alcanzar a su mayor rival. Anthropic anunció a comienzos de abril una facturación anualizada de USD 30.000 millones, cifra que aparenta haber superado la de OpenAI, y ya cotiza por encima de USD 1 billón en algunos mercados privados secundarios.

Los memos, comunicados internos dentro de una empresa, filtrados por The Atlantic describen una empresa en modo defensivo. Denise Dresser, contratada en diciembre como chief revenue officer de OpenAI tras haber sido CEO de Slack, escribió sobre el rival: “su historia está construida sobre el miedo”. Otro memo de marzo planteaba que el éxito de Anthropic en código y empresa debía ser una “señal de alarma” para OpenAI.
La traducción operativa fue brusca. OpenAI dio de baja Sora, su apuesta de video generativo. Lanzó las Frontier Alliances con McKinsey y Boston Consulting Group para acelerar la adopción de ChatGPT en grandes empresas. Tiró un nuevo plan ChatGPT Pro de USD 100 mensuales con cinco veces más uso de Codex, en respuesta directa al Max 5x de Anthropic, según CNBC. Y publicó un plugin oficial de Codex que corre dentro de Claude Code: distribuir el producto propio en la interfaz del competidor para no perder al desarrollador que ya eligió al rival.
TechCrunch lo describió en una sola frase el 16 de abril: hay una guerra de baja intensidad entre OpenAI y Anthropic por las herramientas de programación, y por ahora Anthropic la está ganando.

La copia funciona en producto. No funciona en posicionamiento ético. Cuando Anthropic se negó a darle al Pentágono acceso sin restricciones a Claude, sosteniendo que sus términos de uso prohíben vigilancia masiva doméstica y armas autónomas, el Departamento de Defensa la designó “riesgo de cadena de suministro”, la categoría que se reserva para adversarios extranjeros. Hay un juicio en curso. OpenAI y xAI firmaron contratos con el Pentágono semanas antes. Google firmó el suyo el 28 de abril, según The Wall Street Journal y TechCrunch, pese a una carta abierta firmada por 950 de sus empleados pidiéndole seguir el camino de Anthropic.
La copia funciona en producto. No funciona en posicionamiento ético. Anthropic puso límites de uso a sus contratos con el Departamento de Defensa de Estados Unidos y mantiene un litigio abierto con el organismo. OpenAI y xAI firmaron contratos sin esas restricciones semanas antes. Google firmó el suyo el 28 de abril, según The Wall Street Journal y TechCrunch.
El “miedo” que Dresser ridiculiza en su memo interno es el mismo activo que le permitió a Anthropic ganar enterprise. Mientras OpenAI corre detrás del producto, su rival cobra por una posición que no puede copiarse.
OpenAI puede copiar Claude Code con Codex y copiar Cowork con control de escritorio. No puede copiar los límites que se autoimpuso Anthropic porque ya firmó sin ellos. Cuando el competidor construye la marca de “el que dice que no”, copiar productos no alcanza. También hay que poder decir que no, y para eso ya no queda margen.