Ahorro en OpenAI API con Prompt Caching

1 Abr 2026 por Javi AI2you Mensaje original: 2 Oct 2024

OpenAI está aplicando prompt caching en su API. Para aprovecharlo y ahorrar hasta un 50-80%, intenta mantener la estructura del prompt constante y pasar los datos variables al final.

Mensaje original Hasta un 50% y 80% de ahorro En la doc fr open ai pone en que casos te puedes benificiar de ello, Para esots casos. Hay que intentar las variables de tus pormts, estén al final y así aprovechar la cache de prompts. De aplicarse el tirar de la cache, consigues mayor rapidez de respuesta y se aplica automáticamente el nuevo precio. 50% menos costo. Y NO, no se cachea la salida, eso hace su inferencia igualmente https://platform.openai.com/docs/guides/prompt-caching
Dto nuevo cliente

Consigue un 15% de descuento en tu primera compra

Lo recibirás inmediatamente en tu correo.

No enviamos SPAM