Anthropic lanzó Claude Opus 4.5 el 24 de noviembre de 2025. El identificador del modelo es claude-opus-4-5-20251101. El precio: 5 dólares por millón de tokens de entrada, 25 dólares por millón de tokens de salida. Ventana de contexto de 200.000 tokens.
A primera vista, parece otro lanzamiento más en la carrera de modelos. No lo es. Con Opus 4.5, Anthropic apuesta por algo que la mayoría de laboratorios ha ignorado hasta ahora: hacer más gastando menos.
Claude Opus 4.5: Cuando la eficiencia importa más que el tamaño
La industria de la IA lleva meses obsesionada con modelos cada vez más grandes. Más parámetros, más datos de entrenamiento, más capacidad bruta. Anthropic decidió romper ese patrón.
Opus 4.5 no es el modelo más grande del mercado. Es el que mejor relación calidad-coste ofrece en su gama. Puede igualar el rendimiento de su predecesor (Claude Sonnet 4.5) mientras consume hasta un 76% menos de tokens. Los tokens cuestan dinero. Cada llamada a la API, cada resumen generado, cada conversación procesada. Reducir el consumo de tokens a una cuarta parte sin perder calidad no es una mejora incremental. Cambia la economía de desplegar IA en producción.
Para el mercado hispanohablante, donde las pymes son el motor económico y los presupuestos de tecnología suelen ser más ajustados, esta eficiencia marca la diferencia entre poder usar IA o no.
El parámetro de esfuerzo: velocidad o profundidad, según lo que necesites
La característica más relevante de Opus 4.5 es el parámetro de esfuerzo (effort parameter). Permite decidir cuánto “trabaja” el modelo en cada petición.
Esfuerzo medio: Opus 4.5 alcanza el mismo rendimiento que Sonnet 4.5, usando un 76% menos de tokens. Misma calidad. Costes drásticamente menores.
Esfuerzo alto: El modelo supera a Sonnet 4.5 en 4,3 puntos en benchmarks y aún así usa un 48% menos de tokens.
Piensa en un asistente telefónico IA que gestiona llamadas de tu empresa. Alguien pregunta por el horario: esfuerzo medio, respuesta rápida y barata. Un cliente describe un problema técnico complejo que necesita un resumen preciso: esfuerzo alto, el modelo dedica más recursos. Ambas situaciones usan el mismo modelo. Ambas cuestan menos que la generación anterior.
Esta flexibilidad permite optimizar cada interacción. No todas las llamadas son iguales, y ahora el modelo puede adaptarse a esa realidad.
Benchmarks de código: por qué importan fuera del desarrollo
Opus 4.5 alcanzó el estado del arte en SWE-bench Verified, un benchmark que evalúa modelos de IA con problemas reales de ingeniería de software extraídos de GitHub. Lidera 7 de 8 lenguajes de programación en SWE-bench Multilingual. En Aider Polyglot, otro benchmark de programación multilingüe, mejora un 10,6% sobre Sonnet 4.5.
Estos números pueden parecer irrelevantes si no escribes código. Pero lo que miden va más allá.
Las tareas de SWE-bench requieren que el modelo lea miles de líneas de código existente, comprenda el contexto global, identifique el punto exacto del problema y produzca una corrección precisa. Eso es comprensión lectora, razonamiento lógico y atención al detalle.
Un modelo capaz de analizar 5.000 líneas de código y encontrar la función defectuosa es también un modelo capaz de escuchar una llamada telefónica de 10 minutos y extraer los tres puntos que el interlocutor realmente necesita. Las habilidades se transfieren.
Qué significa esto para herramientas empresariales con IA
El ecosistema de agentes de voz IA está creciendo rápidamente en mercados hispanohablantes. España, México, Colombia y Argentina ya cuentan con empresas que integran IA en atención telefónica y soporte al cliente. Modelos más eficientes aceleran esa adopción.
Mejor comprensión de llamadas. Un asistente de IA que procesa conversaciones telefónicas necesita captar intenciones, detectar matices y separar lo que alguien dice de lo que realmente necesita. Modelos superiores producen resúmenes más fiables y listas de acciones más precisas.
Menor coste por interacción. Si gestionas un agente de IA que atiende cientos de llamadas diarias, el coste de tokens se acumula. Un modelo que ofrece la misma calidad con un 76% menos de tokens reduce los gastos operativos de forma directa. Eso puede traducirse en precios más accesibles para el usuario final.
Conversaciones largas sin perder el hilo. Opus 4.5 incluye compactación de contexto (context compaction). El modelo puede mantener conversaciones de 5, 10 o 15 minutos sin olvidar lo que se dijo al principio. Para asistentes telefónicos, donde las llamadas pueden alargarse, esto marca una diferencia real en la experiencia del usuario.
Seguridad mejorada. Anthropic describe Opus 4.5 como su modelo mejor alineado hasta la fecha, con resistencia superior a inyecciones de prompt. Cuando un asistente de IA maneja datos reales de clientes por teléfono, la seguridad no es opcional.
El momento de la eficiencia
La industria de la IA está madurando. Ya no se trata solo de qué modelo tiene la puntuación más alta en un benchmark. Se trata de cuál puede desplegarse en producción de forma sostenible, a un coste que las empresas reales pueden asumir.
Opus 4.5 es una señal clara de esa madurez. Para agentes de voz IA y asistentes telefónicos, cada nueva generación de modelos lingüísticos significa conversaciones más naturales, resúmenes más precisos y menores costes operativos. Es progreso medible, no solo promesas en un comunicado de prensa.
Fuentes
- Anuncio de Claude Opus 4.5 - Anthropic