🚀 Auto-deploy: BotVPS atualizado em 16/04/2026 17:38:01
This commit is contained in:
11
ai_agent.py
11
ai_agent.py
@@ -9,10 +9,13 @@ from config import get_config
|
||||
|
||||
async def get_llm_response_async(prompt: str, provider: str, cfg: dict) -> str:
|
||||
"""Invoca o provedor de LLM centralizado em llm_providers."""
|
||||
# Garante o modelo gemini-2.5-flash como padrão para o agente Legado
|
||||
model = cfg.get("model") or "gemini-2.5-flash"
|
||||
if provider == "ollama":
|
||||
# Define modelo padrão dependendo do provider
|
||||
if provider == "openrouter":
|
||||
model = cfg.get("model") or "qwen/qwen-2.5-72b-instruct"
|
||||
elif provider == "ollama":
|
||||
model = os.getenv("OLLAMA_MODEL", "llama3.2:1b")
|
||||
else:
|
||||
model = cfg.get("model") or "gemini-2.5-flash"
|
||||
|
||||
return await call_llm(provider, model, prompt)
|
||||
|
||||
@@ -22,7 +25,7 @@ def query_agent(prompt: str, override_provider=None, chat_history=None) -> str:
|
||||
|
||||
async def query_agent_async(prompt: str, override_provider=None, chat_history=None) -> str:
|
||||
cfg = get_config()
|
||||
provider = override_provider or cfg.get("active_provider", "gemini")
|
||||
provider = override_provider or cfg.get("active_provider", "openrouter")
|
||||
tools_desc = "\n".join([f"- {k}: {v['description']}" for k, v in AVAILABLE_TOOLS.items()])
|
||||
|
||||
system_prompt = f"""Você é o Antigravity, um assistente de IA de alto desempenho operando na VPS do Marcos. Sua natureza é dual:
|
||||
|
||||
Reference in New Issue
Block a user