Se a ideia é ter um assistente estilo “sempre ligado” no seu próprio servidor, com controle total de dados e custo previsível, o combo OpenClaw + Ollama funciona muito bem.
Neste guia, vou te mostrar um caminho de produção para:
- instalar OpenClaw no servidor;
- usar Ollama como provedor local de modelo;
- configurar e validar o gateway;
- conectar canais (Telegram/WhatsApp etc.);
- evitar os erros clássicos de ambiente real.
Neste cenário, o OpenClaw vira o “plano de controle” e o Ollama vira o runtime local de modelo.
Arquitetura em uma frase
Canal de mensagem → Gateway OpenClaw → modelo local no Ollama
Na prática, você centraliza sessões, roteamento e ferramentas no OpenClaw e deixa inferência local no Ollama.

Pré-requisitos
- Servidor Linux com acesso shell
- Node.js 22+
- Recursos compatíveis com o modelo que você escolher
- Porta do gateway OpenClaw liberada localmente (padrão 18789)
Qual usuário usar no servidor?
Para ambiente limpo e previsível, use um usuário de serviço dedicado (ex.: openclaw) para rodar gateway + Ollama.
sudo adduser --disabled-password --gecos "" openclaw
sudo usermod -aG sudo openclaw
sudo su - openclaw
Você pode separar em dois usuários (ex.:
ollamaeopenclaw), mas para começar complica operação sem grande ganho prático.
Passo 1) Instalar Ollama
No Linux:
curl -fsSL https://ollama.com/install.sh | sh
Verifique se subiu:
ollama --version
curl http://127.0.0.1:11434
Baixe um modelo inicial:
ollama pull glm-4.7-flash
ollama list

Passo 2) Instalar OpenClaw
No Linux/macOS:
curl -fsSL https://openclaw.ai/install.sh | bash
Rodar onboarding com daemon:
openclaw onboard --install-daemon
Esse onboarding é o caminho recomendado pela própria documentação, porque já resolve configuração base do gateway e serviço.
Depois valide:
openclaw gateway status
openclaw dashboard
Passo 3) Integrar OpenClaw com Ollama
Se você quiser o fluxo mais “automático”, use:
ollama launch openclaw
Esse comando costuma:
- instalar o OpenClaw (se faltar);
- abrir fluxo de seleção de modelo;
- configurar provider/model no OpenClaw;
- reiniciar gateway com a configuração nova.
Se quiser só ajustar configuração sem abrir tudo:
ollama launch openclaw --config
Se quiser forçar um modelo específico:
ollama launch openclaw --model glm-4.7-flash
Para uso local no OpenClaw, priorize modelo com contexto maior (idealmente 64k+) para workflows longos.
Passo 4) Escolher modelo local sem dor
Quais modelos existem no Ollama?
A lista muda com frequência, então o fluxo correto é:
# ver modelos já baixados localmente
ollama list
E para explorar modelos novos:
- https://ollama.com/search
Diferença entre os modelos (explicado de forma prática)
1) Tamanho do modelo (7B, 14B, 32B…)
- Menores (7B/8B): mais rápidos e leves, mas menos precisos em tarefas complexas.
- Médios (14B): equilíbrio entre qualidade e desempenho.
- Grandes (32B+): melhor qualidade geral, porém pedem mais RAM/VRAM.
2) Perfil do modelo
- Generalista: conversa, resumo, tarefas gerais.
- Coder: melhor para código, shell scripts, YAML, troubleshooting técnico.
- Reasoning: melhor para tarefas com várias etapas e decisões.
3) Janela de contexto
- Contexto maior = melhor desempenho em sessões longas.
- Para OpenClaw, isso ajuda bastante quando o chat acumula histórico técnico.
Por que comecei com glm-4.7-flash?
Escolhi esse modelo como ponto de partida porque ele tende a equilibrar:
- boa capacidade de raciocínio;
- bom desempenho em código;
- execução local viável para muitos cenários.
Ou seja: não é “o único certo”, é o melhor primeiro teste para esse tipo de stack.
Como decidir o modelo no seu servidor
- Comece com um modelo equilibrado:
ollama pull glm-4.7-flash
- Rode 3 testes reais:
- gerar artigo técnico;
- explicar troubleshooting;
- montar passo a passo com comandos.
- Ajuste conforme resultado:
- se ficar lento → teste modelo menor;
- se ficar raso/errar muito → teste modelo mais forte.
- Verifique os instalados:
ollama list
Passo 5) Conferir configuração e saúde do gateway
Comandos úteis de operação:
openclaw status
openclaw doctor
openclaw logs
Gerenciamento do serviço:
openclaw gateway start
openclaw gateway stop
openclaw gateway restart
openclaw gateway status
Se o gateway não subir, rode openclaw doctor antes de “chutar” config.
Passo 6) Conectar canais de mensagem
Para ligar Telegram/WhatsApp/etc.:
openclaw configure --section channels
Depois teste no canal escolhido com uma mensagem simples e verifique no dashboard se a sessão foi criada corretamente.
Exemplo de configuração útil (base para servidor local)
Ajuste para seu cenário. Este exemplo é uma base enxuta.
{
"agents": {
"defaults": {
"workspace": "~/.openclaw/workspace"
}
},
"gateway": {
"port": 18789
},
"session": {
"dmScope": "per-channel-peer"
}
}
Ajustes comuns via CLI
openclaw config get gateway.port
openclaw config set agents.defaults.heartbeat.every "30m"
openclaw config unset tools.web.search.apiKey
Hardening mínimo para produção
- use política de DM restrita (
pairing/allowlist) nos canais; - mantenha gateway em loopback quando possível e exponha com camada segura;
- revise permissões de ferramentas antes de abrir para grupos;
- monitore logs e sessões anômalas;
- não rode com credenciais “largadas” em arquivo compartilhado.
Troubleshooting (o que mais quebra)
1) OpenClaw instalado, mas comando falha
Causa comum: Node abaixo da versão esperada.
node --version
Garanta Node 22+.
2) Modelo local não responde
Causa comum: Ollama parado ou sem modelo baixado.
curl http://127.0.0.1:11434
ollama list
3) Gateway sobe, mas canal não responde
Causa comum: canal incompleto no onboarding/configuração.
openclaw configure --section channels
openclaw logs
4) Lentidão bizarra nas respostas
Causa comum: modelo pesado demais para o hardware atual.
- troque para modelo menor;
- reduza concorrência;
- revise contexto e carga no servidor.
Checklist final (pronto para uso)
- [ ]
openclaw gateway statusok - [ ]
curl 127.0.0.1:11434ok - [ ] modelo local baixado em
ollama list - [ ] dashboard abrindo
- [ ] canal conectado e testado
- [ ] política de acesso (pairing/allowlist) definida
Conclusão
Rodar OpenClaw com Ollama em servidor local é totalmente viável para uso real — inclusive em cenário profissional.
O segredo não está em “instalar rápido”, e sim em:
- configurar o fluxo certo desde o início;
- escolher modelo compatível com hardware;
- tratar gateway como serviço de produção (monitoramento e segurança).
Se fizer isso, você ganha um assistente local robusto, com bem menos dependência de SaaS externo.
Referências
- OpenClaw — Getting Started: https://docs.openclaw.ai/start/getting-started
- OpenClaw — Onboarding Wizard: https://docs.openclaw.ai/start/wizard
- OpenClaw — Configuration: https://docs.openclaw.ai/gateway/configuration
- Ollama — OpenClaw integration: https://docs.ollama.com/integrations/openclaw
- OpenClaw GitHub: https://github.com/openclaw/openclaw
Créditos de imagens
- OpenClaw docs (imagem de interface e material de instalação): https://docs.openclaw.ai/start/getting-started