Conectar modelos externos con Antigravity usando API OpenAI

1 Abr 2026 por Jesus Acosta Mensaje original: 22 Ene 2026

Se explica cómo conectar modelos externos (como GLM) a Antigravity utilizando una interfaz compatible con la API de OpenAI (clave OPENAI_API_KEY, OPENAI_BASE_URL, etc.), ya sea directamente o a través de un wrapper como vLLM u Ollama + openai-proxy.

Mensaje original Antigravity permite conectar modelos externos que se comporten como una API OpenAI (clave OPENAI_API_KEY, OPENAI_BASE_URL, etc.). Si z.ai expone GLM a través de un endpoint con interfaz OpenAI‑compatible (o usas un wrapper como vLLM, Ollama + openai‑proxy o un servidor propio), puedes: Levantar un servicio local que haga de puente GLM → OpenAI API‑style. En Antigravity, añadir un nuevo modelo de conexión “OpenAI‑compatible”: OPENAI_API_KEY: clave o token que acepte tu proxy. OPENAI_BASE_URL: http://localhost:8000/v1 (o donde expongas tu GLM). En la configuración de modelos, seleccionar este endpoint como fuente de IA (similar a cómo se añaden modelos locales gpt-oss o LLMs alojados)
Dto nuevo cliente

Consigue un 15% de descuento en tu primera compra

Lo recibirás inmediatamente en tu correo.

No enviamos SPAM