Conectar modelos externos con Antigravity usando API OpenAI
Se explica cómo conectar modelos externos (como GLM) a Antigravity utilizando una interfaz compatible con la API de OpenAI (clave OPENAI_API_KEY, OPENAI_BASE_URL, etc.), ya sea directamente o a través de un wrapper como vLLM u Ollama + openai-proxy.
Mensaje original
Antigravity permite conectar modelos externos que se comporten como una API OpenAI (clave OPENAI_API_KEY, OPENAI_BASE_URL, etc.).
Si z.ai expone GLM a través de un endpoint con interfaz OpenAI‑compatible (o usas un wrapper como vLLM, Ollama + openai‑proxy o un servidor propio), puedes:
Levantar un servicio local que haga de puente GLM → OpenAI API‑style.
En Antigravity, añadir un nuevo modelo de conexión “OpenAI‑compatible”:
OPENAI_API_KEY: clave o token que acepte tu proxy.
OPENAI_BASE_URL: http://localhost:8000/v1 (o donde expongas tu GLM).
En la configuración de modelos, seleccionar este endpoint como fuente de IA (similar a cómo se añaden modelos locales gpt-oss o LLMs alojados)
