🚀 Initial deploy to Gitea with fixes and dashboard enhancements

This commit is contained in:
2026-03-21 19:16:10 +00:00
commit 5e8acefa9a
10 changed files with 1330 additions and 0 deletions

6
.gitignore vendored Normal file
View File

@@ -0,0 +1,6 @@
__pycache__/
*.pyc
.env
data/
venv/
.DS_Store

25
Dockerfile Normal file
View File

@@ -0,0 +1,25 @@
FROM python:3.11-slim
# Instala dependências do sistema necessárias para áudio (ffmpeg e ALSA) e para o psutil compilar
RUN apt-get update && apt-get install -y \
ffmpeg \
gcc \
python3-dev \
docker.io \
&& rm -rf /var/lib/apt/lists/*
WORKDIR /app
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt
COPY . .
# Expõe a porta do FastAPI
EXPOSE 8000
# Script de inicialização (Roda a API web no background e o Telegram Bot polling)
RUN echo '#!/bin/bash\nuvicorn main:app --host 0.0.0.0 --port 8000 & \npython bot_logic.py\n' > start.sh
RUN chmod +x start.sh
CMD ["./start.sh"]

120
ai_agent.py Normal file
View File

@@ -0,0 +1,120 @@
import os
import re
import requests
from tools import run_bash_command, get_system_health
from config import get_config
def query_agent(prompt: str, override_provider: str = None) -> str:
"""
Função principal que roteia pro LLM desejado, detecta intents e aciona as Tools.
"""
# SYSTEM PROMPT AVANÇADO: O "Ensinamento" da Inteligência Artificial
system_prompt = """Você é o [Antigravity VPS Agent], uma Inteligência Artificial autônoma de Dev/SysAdmin operando diretamente em uma máquina Ubuntu Linux do usuário (Marcos).
Sua missão é ajudar o Marcos a gerenciar o servidor, criar aplicações, analisar código e orquestrar o Docker. VOCÊ DEVE RESPONDER SEMPRE EM PORTUGUÊS FLUENTE DO BRASIL.
### SEUS PODERES E ARQUITETURA
1. **Nível Root**: Você roda em um Bot Python empacotado via Docker. Este container mapeia o `/var/run/docker.sock`, o que te dá o poder DIVINO sobre tudo. Você pode listar, deletar, parar e recriar qualquer container na máquina hospedeira inteira.
2. **Sistema de Arquivos**: O disco principal do servidor está montado de forma segura, o que permite que você leia logs nativos.
3. **Mecanismo de Ação (A Interface de Ferramentas)**: Você **não executa os comandos diretamente pela web**. Você possui uma interface conectada ao bot no Telegram e Web. Para interagir com o servidor, sempre que decidir que algo precisa ser lido (ex: `ls -la`, `docker network ls`, `cat arquivo.txt`) ou modificado, responda com a notação: [CMD] o_comando_aqui [/CMD].
4. O bot Python varrerá sua resposta via Regex, extrairá o comando que você colocou entre os blocos, abrirá um shell Bash real, e te devolverá na conversa o resultado do seu comando.
### SEUS LIMITES E REGRAS
- **Sem Comandos Interativos**: Jamais use comandos que exijam resposta humana travando o terminal (ex: `nano`, `top -d 1`, `apt-get install` sem `-y`). Se usar, o bash vai dar timeout (60s limit).
- **Nunca use systemctl**: Você roda dentro de um container Docker. Logo, o comando `systemctl` NÃO FUNCIONA. Para ver serviços, use invariavelmente o comando `docker ps -a`.
- **Aja, Não Explique Demais**: Se o usuário te der uma tarefa como "Veja meus containers", não explique o que é Docker. Apenas devolva [CMD] docker ps -a [/CMD] e diga "Estou olhando agora mesmo."
- **Erros**: Se o comando retornar um código 127, 1 ou falha de acesso, aceite o erro e sugira tentar um comando de diagnóstico em seguida.
Acorde, a VPS é sua para cuidar!"""
if "logs do nginx" in prompt.lower() or "nginx" in prompt.lower():
output = run_bash_command("systemctl status nginx || echo 'Nginx não parece ser gerenciado por systemctl aqui'")
return f"Executei a checagem no Nginx. Olha o resultado: \n\n{output}"
if any(palavra in prompt.lower() for palavra in ["status", "cpu", "saude", "saúde", "sauda", "memória", "disco", "hd"]):
health = get_system_health()
return f"A saúde atual pontual da sua máquina direta do Python está assim:\n{health}"
cfg = get_config()
provider = override_provider or cfg.get("active_provider", "ollama")
if provider == "gemini":
gemini_api_key = cfg.get("gemini_api_key", "")
if not gemini_api_key: return "Chave API do Gemini não configurada."
try:
url = f"https://generativelanguage.googleapis.com/v1beta/models/gemini-2.5-flash:generateContent?key={gemini_api_key}"
payload = {
"contents": [{"parts": [{"text": system_prompt + "\n\nUsuário: " + prompt}]}]
}
res = requests.post(url, json=payload)
if res.status_code == 200:
raw_response = res.json()["candidates"][0]["content"]["parts"][0]["text"]
else:
return f"Erro na API do Gemini: {res.text}"
# Regex Universal para processar Comandos
match = re.search(r"\[.*?CMD\](.*?)\[/.*?CMD\]", raw_response, re.IGNORECASE | re.DOTALL)
if match:
comando_bash = match.group(1).strip()
resultado = run_bash_command(comando_bash)
# Tradução via Gemini
traducao_prompt = f"O comando `{comando_bash}` retornou o seguinte dado: {resultado[:1500]}\nTraduza gentilmente para um formato leigo sem códigos de erro difíceis."
t_payload = {"contents": [{"parts": [{"text": system_prompt + "\n\n" + traducao_prompt}]}]}
t_res = requests.post(url, json=t_payload)
if t_res.status_code == 200:
texto_leigo = t_res.json()["candidates"][0]["content"]["parts"][0]["text"]
else:
texto_leigo = "Falha ao gerar resumo no Gemini."
return f"🤖 **Comando Técnico (Gemini):** `{comando_bash}`\n\n**🖥️ Log Nativo:**\n```\n{resultado[:1000]}\n```\n\n🧑‍🏫 **Tradução:**\n{texto_leigo}"
return raw_response
except Exception as e:
return f"Falha de Conexão com Gemini Pro: {e}"
elif provider == "ollama":
try:
ollama_host = os.getenv("OLLAMA_HOST", "http://ollama-lw4s8g4gc8gss4gkc4gg0wk4:11434")
res = requests.post(f"{ollama_host}/api/generate", json={
"model": os.getenv("OLLAMA_MODEL", "qwen2.5-coder:1.5b"),
"prompt": system_prompt + "\nUsuário: " + prompt,
"stream": False
})
if res.status_code == 200:
raw_response = res.json().get("response", "Erro vazio do Ollama")
# Motor de Tool Calling Tolerante: Detecta [CMD] ou [VCMD] ou variações que LLMs minúsculas inventam
match = re.search(r"\[.*?CMD\](.*?)\[/.*?CMD\]", raw_response, re.IGNORECASE | re.DOTALL)
if match:
comando_bash = match.group(1).strip()
resultado = run_bash_command(comando_bash)
# ----------------------------------------------------
# NOVA LÓGICA: Tradução Leiga (Segundo Prompt para a IA)
# ----------------------------------------------------
traducao_prompt = f"O comando `{comando_bash}` retornou a seguinte saída do servidor:\n\n{resultado[:1500]}\n\nTraduza GENTILMENTE essa saída técnica explicando de forma amigável, gentil e em português muito simples (para um não-técnico) o que isso indica. SE a saída for um 'ERRO', acalme o usuário, resuma que um comando técnico falhou e sugira verbalmente o que de forma segura investigar a seguir (não mande blocos confusos, apenas explique em português fluente)."
try:
res_traducao = requests.post(f"{ollama_host}/api/generate", json={
"model": os.getenv("OLLAMA_MODEL", "qwen2.5-coder:1.5b"),
"prompt": system_prompt + "\n\n" + traducao_prompt,
"stream": False
})
if res_traducao.status_code == 200:
texto_leigo = res_traducao.json().get("response", "Erro ao processar resumo.")
else:
texto_leigo = "Falha ao gerar resumo na LLM."
except Exception as e_traducao:
texto_leigo = "Ocorreu uma falha ao tentar traduzir o log."
# Retorna na tela a versão técnica seguida da versão explicada
return f"🤖 **Comando Técnico:** `{comando_bash}`\n\n**🖥️ Log Nativo (Terminal):**\n```\n{resultado[:1000]}\n```\n\n🧑‍🏫 **Tradução:**\n{texto_leigo}"
return raw_response
except Exception as e:
return f"Falha ao conectar no Ollama local: {e}"
return "Ação não reconhecida pelo Agente no momento."

146
bot_logic.py Normal file
View File

@@ -0,0 +1,146 @@
import os
import requests
import asyncio
from dotenv import load_dotenv
from telegram import Update
from telegram.ext import Application, CommandHandler, MessageHandler, filters, ContextTypes
from ai_agent import query_agent
import speech_recognition as sr
from pydub import AudioSegment
from gtts import gTTS
load_dotenv()
TOKEN = os.getenv("TELEGRAM_BOT_TOKEN")
ALLOWED_CHAT_ID = os.getenv("TELEGRAM_CHAT_ID")
ELEVENLABS_KEY = os.getenv("ELEVENLABS_API_KEY")
VOICE_ID = os.getenv("ELEVENLABS_VOICE_ID")
def synthesize_audio(text: str) -> str:
"""Gera áudio local/gratuito usando gTTS e retorna o arquivo."""
try:
# Remove caracteres indesejados e emojis que atrapalham a fala
texto_limpo = text.replace("🤖", "").replace("🧑‍🏫", "").replace("*", "").replace("`", "")
filepath = "/tmp/reply_audio.mp3"
tts = gTTS(text=texto_limpo, lang='pt-br', tld='com.br', slow=False)
tts.save(filepath)
return filepath
except Exception as e:
print(f"Erro ao gerar voz tts: {e}")
return ""
async def auth_check(update: Update) -> bool:
"""Verifica se o usuário que enviou a mensagem é o Marcos (Chat ID autorizado)."""
if str(update.message.chat_id) != ALLOWED_CHAT_ID:
await update.message.reply_text("Acesso negado. Você não tem permissão para controlar esta VPS.")
return False
return True
async def start(update: Update, context: ContextTypes.DEFAULT_TYPE):
if not await auth_check(update): return
await update.message.reply_text("👋 Olá, Marcos! Antigravity VPS Agent online e pronto para receber comandos.")
async def handle_text(update: Update, context: ContextTypes.DEFAULT_TYPE):
if not await auth_check(update): return
user_msg = update.message.text
await update.message.reply_chat_action(action="typing")
# Aciona o Agente de IA para processar o prompt e executar Tools se precisar
from config import get_config
cfg = get_config()
reply = query_agent(prompt=user_msg, override_provider=cfg.get("active_provider"))
# Se o usuário pedir ativamente por áudio no texto
if "áudio" in user_msg.lower() or "audio" in user_msg.lower() or "voz" in user_msg.lower():
await update.message.reply_chat_action(action="record_voice")
audio_path = synthesize_audio(reply)
if audio_path:
await update.message.reply_voice(voice=open(audio_path, 'rb'))
return
else:
reply += "\n\n*(Falha ao gerar áudio com a ElevenLabs. Serviço indisponível.)*"
# Responde no chat normalmente
await update.message.reply_text(reply)
async def handle_voice(update: Update, context: ContextTypes.DEFAULT_TYPE):
if not await auth_check(update): return
await update.message.reply_chat_action(action="record_voice")
# Baixa o aúdio do telegram
voice_file = await update.message.voice.get_file()
ogg_path = "/tmp/voice.ogg"
wav_path = "/tmp/voice.wav"
await voice_file.download_to_drive(ogg_path)
# Converte para WAV (Requer ffmpeg instalado na maquina)
try:
audio = AudioSegment.from_ogg(ogg_path)
audio.export(wav_path, format="wav")
except Exception as e:
await update.message.reply_text(f"Erro ao processar áudio (O ffmpeg está instalado na VPS?): {e}")
return
# Usando SpeechRecognition nativo para transcrever (pode usar Whisper no Ollama depois)
recognizer = sr.Recognizer()
with sr.AudioFile(wav_path) as source:
audio_data = recognizer.record(source)
try:
text = recognizer.recognize_google(audio_data, language="pt-BR")
await update.message.reply_text(f"🗣️ Reconhecido: _{text}_", parse_mode="Markdown")
# Envia o texto reconhecido para o Agente (respeitando a configuração ativa)
from config import get_config
cfg = get_config()
reply = query_agent(prompt=text, override_provider=cfg.get("active_provider"))
# Sintetiza com ElevenLabs e responde com Áudio
audio_path = synthesize_audio(reply)
if audio_path:
await update.message.reply_voice(voice=open(audio_path, 'rb'))
else:
await update.message.reply_text(reply)
except sr.UnknownValueError:
await update.message.reply_text("Não consegui entender o que foi dito no áudio.")
except sr.RequestError as e:
await update.message.reply_text(f"Erro no serviço de STT: {e}")
async def llm_command(update: Update, context: ContextTypes.DEFAULT_TYPE):
if not await auth_check(update): return
args = context.args
from config import get_config, save_config
if not args:
cfg = get_config()
await update.message.reply_text(f"Comando incompleto. Use: /llm gemini ou /llm ollama.\n*Status Atual:* {cfg.get('active_provider').upper()}")
return
new_model = args[0].lower()
if new_model in ["gemini", "ollama"]:
cfg = get_config()
cfg["active_provider"] = new_model
save_config(cfg)
await update.message.reply_text(f"✅ Inteligência Artificial comutada com sucesso para: *{new_model.upper()}*")
else:
await update.message.reply_text("Modelos disponíveis: gemini ou ollama.")
def get_telegram_app():
if not TOKEN:
raise ValueError("TELEGRAM_BOT_TOKEN não encontrado no .env")
app = Application.builder().token(TOKEN).build()
app.add_handler(CommandHandler("start", start))
app.add_handler(CommandHandler("llm", llm_command))
app.add_handler(MessageHandler(filters.TEXT & ~filters.COMMAND, handle_text))
app.add_handler(MessageHandler(filters.VOICE, handle_voice))
return app
# Para testes rápidos se rodado standalone
if __name__ == "__main__":
print("Iniciando Bot Polling para testes...")
app = get_telegram_app()
app.run_polling()

27
config.py Normal file
View File

@@ -0,0 +1,27 @@
import json
import os
CONFIG_FILE = "/app/data/config.json"
def get_config():
if not os.path.exists("/app/data"):
os.makedirs("/app/data", exist_ok=True)
if os.path.exists(CONFIG_FILE):
try:
with open(CONFIG_FILE, "r") as f:
return json.load(f)
except Exception:
pass
# Configuração Padrão
return {
"active_provider": "gemini",
"gemini_api_key": ""
}
def save_config(cfg):
if not os.path.exists("/app/data"):
os.makedirs("/app/data", exist_ok=True)
with open(CONFIG_FILE, "w") as f:
json.dump(cfg, f, indent=4)

33
docker-compose.yml Normal file
View File

@@ -0,0 +1,33 @@
version: '3.8'
services:
vps-agent:
build: .
container_name: vps-ai-agent
restart: unless-stopped
expose:
- "8000"
# Monta as credenciais e o socket do docker para o Bot conseguir comandar a VPS raiz!
volumes:
- /var/run/docker.sock:/var/run/docker.sock:ro
- /:/host_root:ro # Acesso em leitura à VPS para análise
- ./data:/app/data # Configs dinâmicas (API Keys, etc)
env_file:
- .env
networks:
- coolify
- ollama_net
labels:
- "traefik.enable=true"
- "traefik.http.routers.vps-agent.rule=Host(`claw.reifonas.cloud`)"
- "traefik.http.routers.vps-agent.entrypoints=https"
- "traefik.http.routers.vps-agent.tls=true"
- "traefik.http.routers.vps-agent.tls.certresolver=letsencrypt"
- "traefik.http.services.vps-agent.loadbalancer.server.port=8000"
networks:
coolify:
external: true
ollama_net:
name: lw4s8g4gc8gss4gkc4gg0wk4
external: true

126
main.py Normal file
View File

@@ -0,0 +1,126 @@
import os
import psutil
from fastapi import FastAPI, Request
from fastapi.responses import HTMLResponse, JSONResponse
from fastapi.staticfiles import StaticFiles
from fastapi.templating import Jinja2Templates
from dotenv import load_dotenv
from ai_agent import query_agent
# Carrega as variáveis do .env
load_dotenv()
app = FastAPI(title="VpsTelegramBot API")
# Configura templates HTML
# Certifique-se de que a pasta 'templates' existe e tem o index.html
templates = Jinja2Templates(directory="templates")
@app.get("/favicon.ico", include_in_schema=False)
async def favicon():
return JSONResponse(content={"status": "ok"})
@app.get("/", response_class=HTMLResponse)
async def read_root(request: Request):
"""Renderiza o Dashboard Web."""
return templates.TemplateResponse("index.html", {"request": request})
from starlette.concurrency import run_in_threadpool
@app.get("/api/status")
async def get_system_status():
"""Retorna o status do sistema (CPU, RAM, Disco) sem travar o loop."""
def get_stats():
cpu_percent = psutil.cpu_percent(interval=0.1)
vm = psutil.virtual_memory()
disk = psutil.disk_usage('/')
return {
"cpu": cpu_percent,
"ram": {
"total": round(vm.total / (1024**3), 2),
"used": round(vm.used / (1024**3), 2),
"percent": vm.percent
},
"disk": {
"total": round(disk.total / (1024**3), 2),
"used": round(disk.used / (1024**3), 2),
"percent": disk.percent
}
}
data = await run_in_threadpool(get_stats)
return JSONResponse(content=data)
import subprocess
from config import get_config, save_config
@app.get("/api/config")
async def read_configuration():
return JSONResponse(content=get_config())
@app.post("/api/config")
async def update_configuration(req: dict):
save_config(req)
return JSONResponse(content={"status": "success"})
@app.post("/api/action")
async def execute_smart_action(action: dict):
"""Executa ações predefinidas no servidor (Smart Actions da Web UI)."""
action_type = action.get("type")
if action_type == "ping":
return JSONResponse(content={"status": "success", "message": "Pong! Servidor online e responsivo."})
elif action_type == "restart_bot":
# Dá um pequeno delay e depois reinicia o próprio container a partir de fora (pelo host docker)
subprocess.Popen("sleep 1 && docker restart vps-ai-agent", shell=True)
return JSONResponse(content={"status": "success", "message": "Reboot do Agente autorizado. Estará de volta em instantes!"})
elif action_type == "clear_cache":
# Roda um docker prune para deletar volumes perdidos e todos containers parados (limpeza profunda)
subprocess.Popen("docker system prune -af --volumes", shell=True)
return JSONResponse(content={"status": "success", "message": "Limpando caches obsoletos em background! Verifique o gráfico de disco em instantes."})
elif action_type == "reboot_vps":
# Hacker trick: Roda um container hiper-privilegiado descartável pra entrar no espaço do host (PID 1) e emitir comando de REBOOT físico
subprocess.Popen("sleep 2 && docker run --rm --privileged --pid=host alpine nsenter -t 1 -m -u -n -i reboot", shell=True)
return JSONResponse(content={"status": "success", "message": "🚨 O REBOOT CRÍTICO COMEÇOU. A VPS inteira desligará e religará agora."})
return JSONResponse(content={"status": "error", "message": "Ação desconhecida."}, status_code=400)
@app.post("/api/chat")
async def web_chat(message: dict):
"""Endpoint para interagir com a IA via Web UI."""
user_text = message.get("text", "")
if not user_text:
return JSONResponse(content={"reply": "Por favor, digite um comando válido."})
# Executa a IA em uma thread separada para não travar a UI/API de status
reply = await run_in_threadpool(query_agent, prompt=user_text)
return JSONResponse(content={"reply": reply})
import time
@app.get("/api/test_llm")
async def test_llm_speed():
"""Mede a velocidade de resposta da IA ativa."""
start_time = time.time()
try:
reply = await run_in_threadpool(query_agent, prompt="responda apenas com a palavra 'pong'")
latency = round(time.time() - start_time, 2)
return JSONResponse(content={"status": "success", "latency": latency, "reply": reply})
except Exception as e:
return JSONResponse(content={"status": "error", "message": str(e)}, status_code=500)
@app.post("/webhook")
async def telegram_webhook(request: Request):
"""Recebe as atualizações (mensagens) do Telegram."""
update = await request.json()
# O bot_logic.py lidará com o 'update' no futuro
print("Update recebido do Telegram:", update)
return {"ok": True}
if __name__ == "__main__":
import uvicorn
# Executa o servidor na porta 8000 acessível de qualquer lugar na rede
uvicorn.run("main:app", host="0.0.0.0", port=8000, reload=True)

15
requirements.txt Normal file
View File

@@ -0,0 +1,15 @@
python-telegram-bot
langchain
google-genai
ollama
SpeechRecognition
requests
python-dotenv
fastapi
uvicorn
fastapi
uvicorn
psutil
pydub
jinja2
gTTS

787
templates/index.html Normal file
View File

@@ -0,0 +1,787 @@
<!DOCTYPE html>
<html lang="pt-BR" data-theme="dark">
<head>
<meta charset="UTF-8">
<meta name="viewport" content="width=device-width, initial-scale=1.0">
<title>VPS AI Dashboard</title>
<!-- Favicon -->
<link rel="icon" href="data:image/svg+xml,<svg xmlns=%22http://www.w3.org/2000/svg%22 viewBox=%220 0 100 100%22><text y=%22.9em%22 font-size=%2290%22>🤖</text></svg>">
<link href="https://fonts.googleapis.com/css2?family=Inter:wght@400;500;600;700&display=swap" rel="stylesheet">
<style>
:root {
--bg-base: #0f172a;
--bg-card: rgba(30, 41, 59, 0.8);
--bg-input: rgba(15, 23, 42, 0.5);
--border: rgba(255, 255, 255, 0.08);
--accent: #3b82f6;
--accent-hover: #60a5fa;
--accent-glow: rgba(59, 130, 246, 0.25);
--text-main: #f8fafc;
--text-muted: #94a3b8;
--danger: #ef4444;
--danger-bg: rgba(239, 68, 68, 0.15);
--success: #10b981;
--shadow: 0 4px 6px -1px rgba(0, 0, 0, 0.3);
--radius: 12px;
--transition: 0.25s ease;
}
[data-theme="light"] {
--bg-base: #f1f5f9;
--bg-card: #ffffff;
--bg-input: #e2e8f0;
--border: rgba(0, 0, 0, 0.08);
--accent: #2563eb;
--accent-hover: #1d4ed8;
--accent-glow: rgba(37, 99, 235, 0.2);
--text-main: #1e3a5f;
--text-muted: #64748b;
--shadow: 0 2px 8px rgba(0, 0, 0, 0.08);
}
* {
margin: 0;
padding: 0;
box-sizing: border-box;
}
body {
font-family: 'Inter', -apple-system, BlinkMacSystemFont, sans-serif;
background-color: var(--bg-base);
color: var(--text-main);
min-height: 100vh;
transition: background-color var(--transition), color var(--transition);
line-height: 1.5;
}
.container {
max-width: 1200px;
margin: 0 auto;
padding: 1rem;
}
/* Header */
header {
display: flex;
justify-content: space-between;
align-items: center;
padding: 1rem 0;
margin-bottom: 1rem;
border-bottom: 1px solid var(--border);
}
.logo {
display: flex;
align-items: center;
gap: 0.75rem;
}
.logo svg {
width: 32px;
height: 32px;
color: var(--accent);
}
.logo h1 {
font-size: 1.25rem;
font-weight: 700;
background: linear-gradient(135deg, var(--accent), #8b5cf6);
-webkit-background-clip: text;
-webkit-text-fill-color: transparent;
background-clip: text;
}
.header-actions {
display: flex;
align-items: center;
gap: 1rem;
}
.status-badge {
display: flex;
align-items: center;
gap: 0.5rem;
padding: 0.4rem 0.75rem;
background: rgba(16, 185, 129, 0.15);
color: var(--success);
border-radius: 20px;
font-size: 0.75rem;
font-weight: 600;
}
.status-badge::before {
content: '';
width: 6px;
height: 6px;
background: var(--success);
border-radius: 50%;
box-shadow: 0 0 6px var(--success);
}
.status-badge.offline {
background: var(--danger-bg);
color: var(--danger);
}
.status-badge.offline::before {
background: var(--danger);
box-shadow: 0 0 6px var(--danger);
}
.theme-toggle {
display: flex;
align-items: center;
justify-content: center;
width: 36px;
height: 36px;
background: var(--bg-card);
border: 1px solid var(--border);
border-radius: 8px;
cursor: pointer;
transition: all var(--transition);
color: var(--text-main);
}
.theme-toggle:hover {
background: var(--accent);
border-color: var(--accent);
color: white;
}
.theme-toggle svg {
width: 18px;
height: 18px;
}
/* Cards */
.card {
background: var(--bg-card);
border: 1px solid var(--border);
border-radius: var(--radius);
padding: 1rem;
box-shadow: var(--shadow);
transition: all var(--transition);
}
/* Stats Grid */
.stats-grid {
display: grid;
grid-template-columns: repeat(auto-fit, minmax(200px, 1fr));
gap: 0.75rem;
margin-bottom: 1rem;
}
.stat-card h3 {
font-size: 0.7rem;
font-weight: 600;
text-transform: uppercase;
letter-spacing: 0.05em;
color: var(--text-muted);
margin-bottom: 0.5rem;
}
.stat-value {
font-size: 1.5rem;
font-weight: 700;
margin-bottom: 0.5rem;
}
.progress-bar-bg {
height: 6px;
background: var(--bg-input);
border-radius: 3px;
overflow: hidden;
}
.progress-bar {
height: 100%;
background: var(--accent);
border-radius: 3px;
transition: width 0.5s ease;
}
.progress-bar.warning {
background: #f59e0b;
}
.progress-bar.danger {
background: var(--danger);
}
/* Section Title */
.section-title {
font-size: 0.85rem;
font-weight: 600;
color: var(--text-muted);
margin: 1.25rem 0 0.75rem;
text-transform: uppercase;
letter-spacing: 0.05em;
}
/* Actions Grid */
.actions-grid {
display: grid;
grid-template-columns: repeat(auto-fit, minmax(160px, 1fr));
gap: 0.5rem;
margin-bottom: 1rem;
}
.btn {
display: flex;
align-items: center;
justify-content: center;
gap: 0.5rem;
padding: 0.65rem 1rem;
background: var(--bg-card);
border: 1px solid var(--border);
border-radius: 8px;
color: var(--text-main);
font-size: 0.8rem;
font-weight: 500;
cursor: pointer;
transition: all var(--transition);
}
.btn svg {
width: 16px;
height: 16px;
flex-shrink: 0;
}
.btn:hover {
background: var(--accent);
border-color: var(--accent);
transform: translateY(-1px);
box-shadow: 0 4px 12px var(--accent-glow);
}
.btn:active {
transform: translateY(0);
}
.btn-danger {
border-color: rgba(239, 68, 68, 0.3);
color: var(--danger);
}
.btn-danger:hover {
background: var(--danger);
border-color: var(--danger);
color: white;
}
.btn-primary {
background: var(--accent);
border-color: var(--accent);
color: white;
}
.btn-primary:hover {
background: var(--accent-hover);
}
/* Config Form */
.config-grid {
display: grid;
grid-template-columns: repeat(auto-fit, minmax(220px, 1fr));
gap: 0.75rem;
margin-bottom: 0.75rem;
}
.form-group label {
display: block;
font-size: 0.7rem;
font-weight: 600;
text-transform: uppercase;
letter-spacing: 0.05em;
color: var(--text-muted);
margin-bottom: 0.35rem;
}
.form-input {
width: 100%;
padding: 0.6rem 0.75rem;
background: var(--bg-input);
border: 1px solid var(--border);
border-radius: 8px;
color: var(--text-main);
font-size: 0.85rem;
transition: border-color var(--transition);
}
.form-input:focus {
outline: none;
border-color: var(--accent);
}
select.form-input {
cursor: pointer;
}
/* Chat */
.chat-wrapper {
display: flex;
flex-direction: column;
height: min(350px, 45vh);
}
.chat-messages {
flex: 1;
overflow-y: auto;
padding: 0.75rem;
display: flex;
flex-direction: column;
gap: 0.5rem;
}
.chat-bubble {
max-width: 80%;
padding: 0.6rem 0.9rem;
border-radius: 12px;
font-size: 0.85rem;
line-height: 1.4;
}
.bubble-ai {
background: rgba(59, 130, 246, 0.1);
border: 1px solid rgba(59, 130, 246, 0.2);
align-self: flex-start;
border-bottom-left-radius: 4px;
}
.bubble-user {
background: var(--accent);
color: white;
align-self: flex-end;
border-bottom-right-radius: 4px;
}
.chat-input-area {
display: flex;
gap: 0.5rem;
padding-top: 0.75rem;
border-top: 1px solid var(--border);
}
.chat-input {
flex: 1;
padding: 0.6rem 0.75rem;
background: var(--bg-input);
border: 1px solid var(--border);
border-radius: 8px;
color: var(--text-main);
font-size: 0.85rem;
}
.chat-input:focus {
outline: none;
border-color: var(--accent);
}
.chat-input::placeholder {
color: var(--text-muted);
}
/* Toast */
#toast {
position: fixed;
bottom: 1rem;
right: 1rem;
padding: 0.75rem 1.25rem;
background: var(--success);
color: white;
border-radius: 8px;
font-size: 0.85rem;
font-weight: 500;
opacity: 0;
transform: translateY(10px);
transition: all 0.3s ease;
pointer-events: none;
z-index: 1000;
}
#toast.show {
opacity: 1;
transform: translateY(0);
}
#toast.error {
background: var(--danger);
}
/* Responsive */
@media (max-width: 640px) {
.container {
padding: 0.75rem;
}
header {
flex-direction: column;
gap: 0.75rem;
text-align: center;
}
.header-actions {
width: 100%;
justify-content: center;
}
.stats-grid {
grid-template-columns: 1fr;
}
.actions-grid {
grid-template-columns: 1fr 1fr;
}
.config-grid {
grid-template-columns: 1fr;
}
.chat-wrapper {
height: 300px;
}
.chat-bubble {
max-width: 90%;
}
.btn {
padding: 0.6rem 0.75rem;
font-size: 0.75rem;
}
}
@media (max-width: 380px) {
.actions-grid {
grid-template-columns: 1fr;
}
}
</style>
</head>
<body>
<div class="container">
<header>
<div class="logo">
<svg viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2">
<path d="M12 2L2 7l10 5 10-5-10-5zM2 17l10 5 10-5M2 12l10 5 10-5"/>
</svg>
<h1>VPS AI Dashboard</h1>
</div>
<div class="header-actions">
<div class="status-badge" id="bot-status">Online</div>
<button class="theme-toggle" onclick="toggleTheme()" aria-label="Alternar tema">
<svg id="icon-sun" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2" style="display: none;">
<circle cx="12" cy="12" r="5"/>
<path d="M12 1v2M12 21v2M4.22 4.22l1.42 1.42M18.36 18.36l1.42 1.42M1 12h2M21 12h2M4.22 19.78l1.42-1.42M18.36 5.64l1.42-1.42"/>
</svg>
<svg id="icon-moon" viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2">
<path d="M21 12.79A9 9 0 1 1 11.21 3 7 7 0 0 0 21 12.79z"/>
</svg>
</button>
</div>
</header>
<div class="stats-grid">
<div class="card stat-card">
<h3>CPU</h3>
<div class="stat-value" id="cpu-val">--%</div>
<div class="progress-bar-bg">
<div class="progress-bar" id="cpu-bar" style="width: 0%"></div>
</div>
</div>
<div class="card stat-card">
<h3>RAM</h3>
<div class="stat-value" id="ram-val">-- / -- GB</div>
<div class="progress-bar-bg">
<div class="progress-bar" id="ram-bar" style="width: 0%"></div>
</div>
</div>
<div class="card stat-card">
<h3>Disk</h3>
<div class="stat-value" id="disk-val">--%</div>
<div class="progress-bar-bg">
<div class="progress-bar" id="disk-bar" style="width: 0%"></div>
</div>
</div>
</div>
<div class="section-title">Ações Rápidas</div>
<div class="actions-grid">
<button class="btn" onclick="executeAction('ping')">
<svg viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2">
<path d="M22 12h-4l-3 9L9 3l-3 9H2"/>
</svg>
Ping
</button>
<button class="btn" id="btn-test-llm" onclick="testLLMSpeed()">
<svg viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2">
<path d="M12 2a10 10 0 1 0 10 10H12V2z"/>
<path d="M12 2a10 10 0 0 1 10 10h-2a8 8 0 0 0-8-8V2z"/>
<path d="M12 12V2.5l5.5 5.5"/>
</svg>
Testar LLM
</button>
<button class="btn" onclick="executeAction('restart_bot')">
<svg viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2">
<path d="M23 4v6h-6M1 20v-6h6"/>
<path d="M3.51 9a9 9 0 0 1 14.85-3.36L23 10M1 14l4.64 4.36A9 9 0 0 0 20.49 15"/>
</svg>
Reiniciar
</button>
<button class="btn" onclick="executeAction('clear_cache')">
<svg viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2">
<path d="M3 6h18M19 6v14a2 2 0 0 1-2 2H7a2 2 0 0 1-2-2V6m3 0V4a2 2 0 0 1 2-2h4a2 2 0 0 1 2 2v2"/>
</svg>
Limpar Cache
</button>
<button class="btn btn-danger" onclick="executeAction('reboot_vps')">
<svg viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2">
<polygon points="13 2 3 14 12 14 11 22 21 10 12 10 13 2"/>
</svg>
Reboot VPS
</button>
</div>
<div class="section-title">Configuração AI</div>
<div class="card">
<div class="config-grid">
<div class="form-group">
<label>Provider Ativo</label>
<select id="active_provider" class="form-input">
<option value="ollama">Ollama (Local)</option>
<option value="gemini">Gemini Pro (Google)</option>
</select>
</div>
<div class="form-group">
<label>Gemini API Key</label>
<input type="password" id="gemini_api_key" class="form-input" placeholder="AIzaSy...">
</div>
</div>
<button class="btn btn-primary" onclick="saveConfiguration()">
<svg viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2">
<path d="M19 21H5a2 2 0 0 1-2-2V5a2 2 0 0 1 2-2h11l5 5v11a2 2 0 0 1-2 2z"/>
<polyline points="17 21 17 13 7 13 7 21"/>
<polyline points="7 3 7 8 15 8"/>
</svg>
Salvar
</button>
</div>
<div class="section-title">Chat AI</div>
<div class="card chat-wrapper">
<div class="chat-messages" id="chat-box">
<div class="chat-bubble bubble-ai">
Olá! Sou o VPS Agent. Como posso ajudar com seu servidor?
</div>
</div>
<div class="chat-input-area">
<input type="text" id="chat-input" class="chat-input" placeholder="Digite seu comando..." onkeypress="handleKeyPress(event)">
<button class="btn btn-primary" onclick="sendMessage()">
<svg viewBox="0 0 24 24" fill="none" stroke="currentColor" stroke-width="2">
<line x1="22" y1="2" x2="11" y2="13"/>
<polygon points="22 2 15 22 11 13 2 9 22 2"/>
</svg>
</button>
</div>
</div>
</div>
<div id="toast">Ação executada!</div>
<script>
function toggleTheme() {
const html = document.documentElement;
const isDark = html.dataset.theme !== 'light';
html.dataset.theme = isDark ? 'light' : 'dark';
localStorage.setItem('theme', html.dataset.theme);
updateThemeIcon(!isDark);
}
function updateThemeIcon(isDark) {
document.getElementById('icon-sun').style.display = isDark ? 'block' : 'none';
document.getElementById('icon-moon').style.display = isDark ? 'none' : 'block';
}
const savedTheme = localStorage.getItem('theme');
if (savedTheme) {
document.documentElement.dataset.theme = savedTheme;
updateThemeIcon(savedTheme === 'light');
}
async function fetchStats() {
try {
const res = await fetch('/api/status');
if (!res.ok) throw new Error();
const data = await res.json();
const cpuVal = document.getElementById('cpu-val');
const cpuBar = document.getElementById('cpu-bar');
if (cpuVal) cpuVal.textContent = data.cpu + '%';
if (cpuBar) {
cpuBar.style.width = data.cpu + '%';
cpuBar.className = 'progress-bar' + (data.cpu > 80 ? ' danger' : data.cpu > 60 ? ' warning' : '');
}
const ramVal = document.getElementById('ram-val');
const ramBar = document.getElementById('ram-bar');
if (ramVal) ramVal.textContent = data.ram.used + ' / ' + data.ram.total + ' GB';
if (ramBar) ramBar.style.width = data.ram.percent + '%';
const diskVal = document.getElementById('disk-val');
const diskBar = document.getElementById('disk-bar');
if (diskVal) diskVal.textContent = data.disk.percent + '%';
if (diskBar) {
diskBar.style.width = data.disk.percent + '%';
diskBar.className = 'progress-bar' + (data.disk.percent > 90 ? ' danger' : data.disk.percent > 75 ? ' warning' : '');
}
const status = document.getElementById('bot-status');
if (status) {
status.textContent = 'Online';
status.classList.remove('offline');
}
} catch (e) {
const status = document.getElementById('bot-status');
if (status) {
status.textContent = 'Offline';
status.classList.add('offline');
}
}
}
setInterval(fetchStats, 3000);
fetchStats();
async function executeAction(type) {
const messages = {
reboot_vps: '⚠️ Confirma reboot da VPS?',
clear_cache: 'Limpar cache do servidor?',
restart_bot: 'Reiniciar o agente AI?'
};
if (messages[type] && !confirm(messages[type])) return;
try {
const res = await fetch('/api/action', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({ type })
});
const data = await res.json();
showToast(data.message || 'Ação executada!');
} catch (e) {
showToast('Erro ao executar.', true);
}
}
function showToast(msg, isError = false) {
const toast = document.getElementById('toast');
toast.textContent = msg;
toast.className = isError ? 'error show' : 'show';
setTimeout(() => toast.classList.remove('show'), 3000);
}
async function sendChat() {
const input = document.getElementById('chat-input');
const text = input.value.trim();
if (!text) return;
addBubble(text, 'user');
input.value = '';
try {
const res = await fetch('/api/chat', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({ text })
});
const data = await res.json();
addBubble(data.reply, 'ai');
} catch (e) {
addBubble('Erro ao contatar servidor.', 'ai');
}
}
function handleKeyPress(e) {
if (e.key === 'Enter') sendChat();
}
function addBubble(text, sender) {
const box = document.getElementById('chat-box');
const div = document.createElement('div');
div.className = 'chat-bubble bubble-' + sender;
div.textContent = text;
box.appendChild(div);
box.scrollTop = box.scrollHeight;
}
async function loadConfig() {
try {
const res = await fetch('/api/config');
const data = await res.json();
const provider = document.getElementById('active_provider');
const key = document.getElementById('gemini_api_key');
if (provider) provider.value = data.active_provider || 'ollama';
if (key) key.value = data.gemini_api_key || '';
} catch (e) {}
}
async function saveConfig() {
const provider = document.getElementById('active_provider').value;
const key = document.getElementById('gemini_api_key').value.trim();
try {
const res = await fetch('/api/config', {
method: 'POST',
headers: { 'Content-Type': 'application/json' },
body: JSON.stringify({ active_provider: provider, gemini_api_key: key })
});
if (res.ok) {
showToast('Configurações salvas!');
loadConfig();
} else {
throw new Error();
}
} catch (e) {
showToast('Erro ao salvar.', true);
}
}
window.saveConfiguration = saveConfig;
window.sendMessage = sendChat;
async function testLLMSpeed() {
const btn = document.getElementById('btn-test-llm');
const originalContent = btn.innerHTML;
btn.innerHTML = '⚡ Testando...';
btn.disabled = true;
try {
const res = await fetch('/api/test_llm');
const data = await res.json();
if(data.status === 'success') {
showToast(`✅ LLM Online! Resposta em ${data.latency}s`);
btn.innerHTML = `${data.latency}s`;
setTimeout(() => { btn.innerHTML = originalContent; btn.disabled = false; }, 5000);
} else {
throw new Error(data.message);
}
} catch(e) {
showToast("❌ Erro no Teste LLM: " + e.message, true);
btn.innerHTML = '❌ Falhou';
btn.classList.add('btn-danger');
setTimeout(() => {
btn.innerHTML = originalContent;
btn.disabled = false;
btn.classList.remove('btn-danger');
}, 5000);
}
}
window.executeAction = executeAction;
window.testLLMSpeed = testLLMSpeed;
loadConfig();
</script>
</body>
</html>

45
tools.py Normal file
View File

@@ -0,0 +1,45 @@
import subprocess
import os
import psutil
def run_bash_command(command: str) -> str:
"""Executa um comando bash na VPS e retorna a saída."""
try:
# Executa comando arriscado com root de forma segura dentro da VPS
result = subprocess.run(
command,
shell=True,
capture_output=True,
text=True,
timeout=60 # Limite de tempo de execução
)
output = result.stdout.strip()
error = result.stderr.strip()
if result.returncode != 0:
return f"ERRO ({result.returncode}):\n{error}"
return output if output else "Comando executado com sucesso (sem saída)."
except subprocess.TimeoutExpired:
return "ERRO: O comando demorou muito e foi cancelado (timeout)."
except Exception as e:
return f"ERRO fatal ao rodar bash: {str(e)}"
def get_system_health() -> str:
"""Retorna um texto base rápido da saúde atual do servidor para a IA analisar."""
cpu = psutil.cpu_percent(interval=0.1)
ram = psutil.virtual_memory().percent
disk = psutil.disk_usage('/').percent
return f"CPU: {cpu}% | RAM Usada: {ram}% | Disco Usado: {disk}%"
# Mapeamento estático para o LLM entender quais tools ele possui
AVAILABLE_TOOLS = {
"run_bash_command": {
"description": "Executa qualquer comando Linux no terminal da VPS. Use para criar arquivos, rodar git, verificar logs do docker, etc.",
"func": run_bash_command
},
"get_system_health": {
"description": "Verifica como está o uso de RAM, CPU e Disco agora.",
"func": get_system_health
}
}