Ubuntu 部署 Moltbot + WhatsApp + 本地/远程模型

针对最近比较火的clawbot,我来为你提供一个平替版本Moltbot,手把手叫你针对 Ubuntu + WhatsApp + Ollama/硅基流动 的完整部署指南。

Ubuntu 部署 Moltbot + WhatsApp + 本地/远程模型

一、系统环境准备

# 更新系统
sudo apt update && sudo apt upgrade -y

# 安装 Node.js 22
curl -fsSL https://deb.nodesource.com/setup_22.x | sudo -E bash -
sudo apt install -y nodejs

# 验证版本
node --version  # v22.x.x
npm --version

# 安装 pnpm
npm install -g pnpm

二、安装 Moltbot

# 全局安装 Moltbot
pnpm add -g moltbot@latest

# 验证安装
moltbot --version

三、模型配置(二选一)

方案 A:Ollama 本地部署

1. 安装 Ollama

# 一键安装
curl -fsSL https://ollama.com/install.sh | sh

# 启动服务
sudo systemctl start ollama
sudo systemctl enable ollama

2. 拉取模型

# 推荐模型(根据显卡显存选择)
ollama pull qwen2.5:14b      # 推荐,中文效果好
ollama pull llama3.2:7b      # 轻量级
ollama pull deepseek-r1:14b  # 推理能力强

# 查看已安装模型
ollama list

3. 测试本地模型

ollama run qwen2.5:14b
# 输入问题测试,/bye 退出

4. Moltbot 配置 Ollama

# 设置环境变量(添加到 ~/.bashrc)
export OLLAMA_BASE_URL="http://localhost:11434"
export OLLAMA_MODEL="qwen2.5:14b"

# 生效配置
source ~/.bashrc

方案 B:硅基流动 (Silicon Flow)

1. 注册获取 API Key

2. Moltbot 配置硅基流动

# 设置环境变量(添加到 ~/.bashrc)
export SILICONFLOW_API_KEY="sk-your-api-key-here"
export SILICONFLOW_MODEL="deepseek-ai/DeepSeek-V2.5"  # 或其他模型

# 生效配置
source ~/.bashrc

可选模型列表:

模型

模型名称

DeepSeek V2.5

deepseek-ai/DeepSeek-V2.5

Qwen2.5 72B

Qwen/Qwen2.5-72B-Instruct

Qwen2.5 14B

Qwen/Qwen2.5-14B-Instruct

Llama 3.1 70B

meta-llama/Meta-Llama-3.1-70B-Instruct


四、Moltbot 初始化配置

# 运行向导
moltbot onboard --install-daemon

向导步骤:

  1. Gateway 配置 - 按回车使用默认端口 18789

  2. Workspace - 创建新工作空间

  3. Models - 选择自定义模型配置


五、手动配置模型(关键步骤)

Moltbot 的配置文件位于 ~/.clawdbot/moltbot.json,需要手动编辑:

Ollama 配置

# 创建/编辑配置文件
mkdir -p ~/.clawdbot
cat > ~/.clawdbot/moltbot.json << 'EOF'
{
  "gateway": {
    "port": 18789,
    "host": "0.0.0.0"
  },
  "models": {
    "default": {
      "provider": "ollama",
      "model": "qwen2.5:14b",
      "baseUrl": "http://localhost:11434",
      "temperature": 0.7,
      "maxTokens": 4096
    }
  },
  "channels": {
    "whatsapp": {
      "enabled": true,
      "webhook": true
    }
  },
  "skills": ["web_search", "code_interpreter"]
}
EOF

硅基流动配置

cat > ~/.clawdbot/moltbot.json << 'EOF'
{
  "gateway": {
    "port": 18789,
    "host": "0.0.0.0"
  },
  "models": {
    "default": {
      "provider": "openai-compatible",
      "model": "deepseek-ai/DeepSeek-V2.5",
      "baseUrl": "https://api.siliconflow.cn/v1",
      "apiKey": "sk-your-api-key-here",
      "temperature": 0.7,
      "maxTokens": 4096
    }
  },
  "channels": {
    "whatsapp": {
      "enabled": true,
      "webhook": true
    }
  },
  "skills": ["web_search", "code_interpreter"]
}
EOF

六、配置 WhatsApp 渠道

1. 添加 WhatsApp 渠道

moltbot channel add whatsapp

2. 按提示操作

  • 选择 WhatsApp Web 方式

  • 终端会显示 QR 码

  • 用手机 WhatsApp 扫描:设置 → 已关联设备 → 关联新设备

3. 验证连接

# 查看已连接渠道
moltbot channel list

# 应显示 whatsapp 状态为 connected

七、启动服务

1. 启动 Gateway

# 前台运行(调试模式)
moltbot gateway --port 18789 --verbose

# 或使用 systemd 服务(推荐生产环境)
moltbot onboard --install-daemon

2. 测试 AI 对话

# 命令行测试
moltbot agent --message "你好,请介绍一下自己"

# 通过 WhatsApp 测试
# 给自己发消息:moltbot message send --to "你的手机号" --message "测试消息"

八、后台持久化运行(生产环境)

# 使用 systemd 创建服务
sudo tee /etc/systemd/system/moltbot.service << 'EOF'
[Unit]
Description=Moltbot AI Assistant
After=network.target ollama.service

[Service]
Type=simple
User=ubuntu
Environment="OLLAMA_BASE_URL=http://localhost:11434"
Environment="PATH=/usr/local/bin:/usr/bin:/bin"
WorkingDirectory=/home/ubuntu
ExecStart=/usr/local/bin/moltbot gateway --port 18789
Restart=always
RestartSec=10

[Install]
WantedBy=multi-user.target
EOF

# 重载并启动
sudo systemctl daemon-reload
sudo systemctl enable moltbot
sudo systemctl start moltbot

# 查看状态
sudo systemctl status moltbot
sudo journalctl -u moltbot -f

九、防火墙配置(如果需要外网访问)

# 开放 Moltbot 端口
sudo ufw allow 18789/tcp

# 开放 Ollama 端口(如需外网访问,建议配合 Nginx 认证)
sudo ufw allow 11434/tcp

十、常用管理命令

命令

说明

moltbot gateway --verbose

前台启动并查看详细日志

sudo systemctl status moltbot

查看服务状态

sudo journalctl -u moltbot -f

实时查看日志

moltbot channel list

查看已连接渠道

ollama list

查看本地模型列表

ollama ps

查看运行中的模型


十一、故障排查

问题

解决方案

WhatsApp QR 码刷不出

确保终端支持图形显示,或使用 moltbot channel add whatsapp --qr-terminal

Ollama 连接失败

检查 OLLAMA_BASE_URL 是否为 http://localhost:11434

硅基流动 API 错误

检查 API Key 是否正确,余额是否充足

模型回复慢

本地模型建议 14B 以上参数,或使用硅基流动远程模型

WhatsApp 掉线

手机需保持联网,Moltbot 会自动重连


部署完成后,你就可以在 WhatsApp 里和 AI 助手对话了! 有任何问题随时告诉我。


Ubuntu 部署 Moltbot + WhatsApp + 本地/远程模型
http://localhost:8090//archives/1769614945240
作者
昊昱天合
发布于
2026年01月28日
更新于
2026年01月29日
许可协议