🚀 Auto-deploy: BotVPS atualizado em 16/04/2026 17:38:01

This commit is contained in:
2026-04-16 17:38:01 +00:00
parent 5ceb21c8bd
commit ccc58de908

View File

@@ -9,10 +9,13 @@ from config import get_config
async def get_llm_response_async(prompt: str, provider: str, cfg: dict) -> str:
"""Invoca o provedor de LLM centralizado em llm_providers."""
# Garante o modelo gemini-2.5-flash como padrão para o agente Legado
model = cfg.get("model") or "gemini-2.5-flash"
if provider == "ollama":
# Define modelo padrão dependendo do provider
if provider == "openrouter":
model = cfg.get("model") or "qwen/qwen-2.5-72b-instruct"
elif provider == "ollama":
model = os.getenv("OLLAMA_MODEL", "llama3.2:1b")
else:
model = cfg.get("model") or "gemini-2.5-flash"
return await call_llm(provider, model, prompt)
@@ -22,7 +25,7 @@ def query_agent(prompt: str, override_provider=None, chat_history=None) -> str:
async def query_agent_async(prompt: str, override_provider=None, chat_history=None) -> str:
cfg = get_config()
provider = override_provider or cfg.get("active_provider", "gemini")
provider = override_provider or cfg.get("active_provider", "openrouter")
tools_desc = "\n".join([f"- {k}: {v['description']}" for k, v in AVAILABLE_TOOLS.items()])
system_prompt = f"""Você é o Antigravity, um assistente de IA de alto desempenho operando na VPS do Marcos. Sua natureza é dual: