Se a ideia é ter um assistente estilo “sempre ligado” no seu próprio servidor, com controle total de dados e custo previsível, o combo OpenClaw + Ollama funciona muito bem.

Neste guia, vou te mostrar um caminho de produção para:

Neste cenário, o OpenClaw vira o “plano de controle” e o Ollama vira o runtime local de modelo.


Arquitetura em uma frase

Canal de mensagem → Gateway OpenClaw → modelo local no Ollama

Na prática, você centraliza sessões, roteamento e ferramentas no OpenClaw e deixa inferência local no Ollama.

OpenClaw em uso com interface real

Pré-requisitos

Qual usuário usar no servidor?

Para ambiente limpo e previsível, use um usuário de serviço dedicado (ex.: openclaw) para rodar gateway + Ollama.

sudo adduser --disabled-password --gecos "" openclaw
sudo usermod -aG sudo openclaw
sudo su - openclaw

Você pode separar em dois usuários (ex.: ollama e openclaw), mas para começar complica operação sem grande ganho prático.


Passo 1) Instalar Ollama

No Linux:

curl -fsSL https://ollama.com/install.sh | sh

Verifique se subiu:

ollama --version
curl http://127.0.0.1:11434

Baixe um modelo inicial:

ollama pull glm-4.7-flash
ollama list
Ollama - página oficial

Passo 2) Instalar OpenClaw

No Linux/macOS:

curl -fsSL https://openclaw.ai/install.sh | bash

Rodar onboarding com daemon:

openclaw onboard --install-daemon

Esse onboarding é o caminho recomendado pela própria documentação, porque já resolve configuração base do gateway e serviço.

Depois valide:

openclaw gateway status
openclaw dashboard

Passo 3) Integrar OpenClaw com Ollama

Se você quiser o fluxo mais “automático”, use:

ollama launch openclaw

Esse comando costuma:

Se quiser só ajustar configuração sem abrir tudo:

ollama launch openclaw --config

Se quiser forçar um modelo específico:

ollama launch openclaw --model glm-4.7-flash

Para uso local no OpenClaw, priorize modelo com contexto maior (idealmente 64k+) para workflows longos.


Passo 4) Escolher modelo local sem dor

Quais modelos existem no Ollama?

A lista muda com frequência, então o fluxo correto é:

# ver modelos já baixados localmente
ollama list

E para explorar modelos novos:

Diferença entre os modelos (explicado de forma prática)

1) Tamanho do modelo (7B, 14B, 32B…)

2) Perfil do modelo

3) Janela de contexto

Por que comecei com glm-4.7-flash?

Escolhi esse modelo como ponto de partida porque ele tende a equilibrar:

Ou seja: não é “o único certo”, é o melhor primeiro teste para esse tipo de stack.

Como decidir o modelo no seu servidor

  1. Comece com um modelo equilibrado:
ollama pull glm-4.7-flash
  1. Rode 3 testes reais:
  1. Ajuste conforme resultado:
  1. Verifique os instalados:
ollama list

Passo 5) Conferir configuração e saúde do gateway

Comandos úteis de operação:

openclaw status
openclaw doctor
openclaw logs

Gerenciamento do serviço:

openclaw gateway start
openclaw gateway stop
openclaw gateway restart
openclaw gateway status

Se o gateway não subir, rode openclaw doctor antes de “chutar” config.


Passo 6) Conectar canais de mensagem

Para ligar Telegram/WhatsApp/etc.:

openclaw configure --section channels

Depois teste no canal escolhido com uma mensagem simples e verifique no dashboard se a sessão foi criada corretamente.


Exemplo de configuração útil (base para servidor local)

Ajuste para seu cenário. Este exemplo é uma base enxuta.

{
  "agents": {
    "defaults": {
      "workspace": "~/.openclaw/workspace"
    }
  },
  "gateway": {
    "port": 18789
  },
  "session": {
    "dmScope": "per-channel-peer"
  }
}

Ajustes comuns via CLI

openclaw config get gateway.port
openclaw config set agents.defaults.heartbeat.every "30m"
openclaw config unset tools.web.search.apiKey

Hardening mínimo para produção


Troubleshooting (o que mais quebra)

1) OpenClaw instalado, mas comando falha

Causa comum: Node abaixo da versão esperada.

node --version

Garanta Node 22+.

2) Modelo local não responde

Causa comum: Ollama parado ou sem modelo baixado.

curl http://127.0.0.1:11434
ollama list

3) Gateway sobe, mas canal não responde

Causa comum: canal incompleto no onboarding/configuração.

openclaw configure --section channels
openclaw logs

4) Lentidão bizarra nas respostas

Causa comum: modelo pesado demais para o hardware atual.


Checklist final (pronto para uso)


Conclusão

Rodar OpenClaw com Ollama em servidor local é totalmente viável para uso real — inclusive em cenário profissional.

O segredo não está em “instalar rápido”, e sim em:

  1. configurar o fluxo certo desde o início;
  2. escolher modelo compatível com hardware;
  3. tratar gateway como serviço de produção (monitoramento e segurança).

Se fizer isso, você ganha um assistente local robusto, com bem menos dependência de SaaS externo.


Referências

Créditos de imagens