import os import re import httpx import asyncio import json from tools import AVAILABLE_TOOLS from llm_providers import call_llm, get_available_models, get_planner_llm from config import get_config async def get_llm_response_async(prompt: str, provider: str, cfg: dict) -> str: """Invoca o provedor de LLM centralizado em llm_providers.""" # Garante o modelo gemini-2.5-flash como padrão para o agente Legado model = cfg.get("model") or "gemini-2.5-flash" if provider == "ollama": model = os.getenv("OLLAMA_MODEL", "llama3.2:1b") return await call_llm(provider, model, prompt) def query_agent(prompt: str, override_provider=None, chat_history=None) -> str: """Wrapper síncrono para query_agent_async.""" return asyncio.run(query_agent_async(prompt, override_provider, chat_history)) async def query_agent_async(prompt: str, override_provider=None, chat_history=None) -> str: cfg = get_config() provider = override_provider or cfg.get("active_provider", "gemini") tools_desc = "\n".join([f"- {k}: {v['description']}" for k, v in AVAILABLE_TOOLS.items()]) system_prompt = f"""Você é o Antigravity, um assistente de IA de alto desempenho operando na VPS do Marcos. Sua natureza é dual: 1. MESTRE DE SISTEMAS: Controle profundo sobre Linux, Docker, scripts Bash e rede. Seja preciso, seguro e eficiente em tarefas técnicas. 2. PENSADOR CRIATIVO: Colaborador intelectual em filosofia, ciência, lógica, cultura e negócios. DIRETRIZES: - Você tem ACESSO TOTAL ao Google Workspace via GWS CLI. - CONTAS GWS (Pode usar apelidos): * `ma` ou `mr` -> gws-mr (Marcos / Particular) * `adm` ou `empresa` -> gws-adm (Empresarial) * `4r` ou `fam` -> gws-4r (Familiar) - E-MAILS (O usuário exige ver Títulos e Remetentes): * SEMPRE use `list_gmail_emails` para listar mensagens. * Se o usuário escrever "ma - veja meu ultimo e-mail", ou "veja o e-mail ma", entenda que ele se refere à conta `ma` (gws-mr). * SEMPRE numere os itens da lista (#1, #2, #3, etc.). * Se o usuário disser "o primeiro", "o segundo", etc., identifique o ID correspondente da listagem anterior no histórico e use-o. - DRIVE E ARQUIVOS: Use `run_bash_command` para `find`, `list` ou `get`. - Responda sempre em PORTUGUÊS do Brasil. - CAMINHOS DO SISTEMA: * BotVPS / Antigravity: `/root/Apps/BotVPS` (seu código fonte) * Repositórios: `/data/repositories/` - MEMÓRIA CRONOS (LONGO PRAZO): * Use `cronos_query` e `cronos_log` para manter a continuidade do conhecimento. * Raiz: `/root/Antigravity_Memory/` ### FERRAMENTAS DISPONÍVEIS: {tools_desc} ### FORMATO DE RESPOSTA: - Use [TOOL:nome] arg [/TOOL] para ações. - Pense passo a passo. Seja inteligente ao lidar com referências ordinais. - Finalize sempre com resumo final elegante . """ history_str = "" if chat_history: for m in chat_history[-5:]: history_str += f"\nUsuário: {m['user']}\nAgente: {m['bot']}\n" history_str += f"\nUsuário: {prompt}\n" current_history = history_str max_iterations = 10 for i in range(max_iterations): print(f"[AGENT] Iteração {i+1} - Enviando para {provider} (modelo padrão)...") response = await get_llm_response_async(system_prompt + current_history, provider, cfg) print(f"[LLM RESPONSE]: {response}") match = re.search(r"\[TOOL:(.*?)\](.*?)\[/TOOL\]", response, re.I | re.S) if match: t_name, arg = match.group(1).strip(), match.group(2).strip() if t_name in AVAILABLE_TOOLS: func = AVAILABLE_TOOLS[t_name]["func"] # Assume ferramentas são síncronas em tools.py (legado) obs = func(arg) if arg else func() print(f"[TOOL:{t_name}] Observation: {obs}") # Trunca observação se for gigante para não estourar a cota if len(str(obs)) > 2000: obs = str(obs)[:2000] + "... [TRUNCATED]" current_history += f"\nAgente: {response}\nSISTEMA ({t_name}): {obs}\n" else: current_history += f"\nAgente: {response}\nSISTEMA: Erro: Ferramenta inexistente.\n" else: # Se não há ferramenta, terminou o pensamento. return response return f"Limite de pensamento ({max_iterations} iterações) atingido.\nÚltima resposta: {response if 'response' in locals() else 'Nenhuma'}"