OpenClaw 配合Ollama本地部署,超级简单一看就会!!

OpenClaw 配合 Ollama 本地部署,超级简单一看就会!!
还在为调用云端大模型花销大而烦恼吗?还在担心数据隐私问题吗?
今天教大家如何用 OpenClaw + Ollama 打造完全本地化的 AI 助手,所有数据都在本地运行,安全又省钱!
什么是 Ollama?
Ollama 是一个让你在本地运行大语言模型的工具。它支持 Llama 2、Llama 3、Mistral、Gemma 等众多开源模型,无需 GPU 也能运行(当然有 GPU 效果更好)。
官方网站:https://ollama.com
准备工作
1. 安装 Ollama
macOS / Linux:
curl -fsSL https://ollama.com/install.sh | bash
Windows:
直接去 https://ollama.com 下载安装包
2. 下载模型
安装完成后,下载你需要的模型:
# 推荐:下载 Llama 3(8B 参数,一般配置够用)
ollama pull llama3
# 或者下载 Mistral(性能不错)
ollama pull mistral
# 配置低的可以选 qwen(阿里开源,中文效果好)
ollama pull qwen:7b
3. 验证 Ollama 运行
# 启动 Ollama 服务(一般安装后自动启动)
ollama serve
# 测试模型
ollama run llama3
看到模型能正常对话就 OK 了!
OpenClaw 配置
1. 找到配置文件
OpenClaw 的配置文件在 ~/.openclaw/openclaw.json
2. 添加 Ollama 作为自定义 Provider
在配置文件中添加以下内容:
{
models: {
providers: {
ollama: {
type: "openai", // Ollama 兼容 OpenAI API
baseUrl: "http://localhost:11434/v1",
api: "key",
defaultHeaders: {
"Content-Type": "application/json"
}
}
}
},
agents: {
defaults: {
model: {
primary: "ollama/llama3"
},
models: {
"ollama/llama3": {
// 支持的参数
},
"ollama/mistral": {},
"ollama/qwen:7b": {}
}
}
}
}
3. 完整配置示例
{
models: {
providers: {
ollama: {
type: "openai",
baseUrl: "http://localhost:11434/v1"
}
}
},
agents: {
defaults: {
model: {
primary: "ollama/llama3",
fallbacks: ["ollama/mistral"]
},
models: {
"ollama/llama3": {
description: "Meta Llama 3, 8B 参数"
},
"ollama/mistral": {
description: "Mistral 7B, 性能强劲"
},
"ollama/qwen:7b": {
description: "阿里 Qwen 7B, 中文效果好"
}
}
}
}
}
4. 重启 OpenClaw
# 重启 Gateway
openclaw gateway restart
# 查看模型状态
openclaw models status
常见问题
Q1: 模型加载慢怎么办?
首次加载模型会比较慢,因为需要下载模型文件。可以在后台保持 Ollama 运行,避免每次重启。
# 让 Ollama 保持运行
nohup ollama serve &
Q2: 显存不够怎么办?
选择 smaller 的模型:
– llama3:8b → 需要约 8GB 显存
– mistral:7b → 需要约 8GB 显存
– qwen:7b → 需要约 8GB 显存
– llama3:70b → 需要约 40GB 显存(普通机器跑不动)
Q3: 如何查看有哪些模型?
ollama list
Q4: 响应速度慢?
本地模型响应速度取决于:
– 模型大小
– 显存/内存速度
– CPU 性能
建议使用量化模型(带 :q4_K_M 等后缀),速度更快。
Q5: OpenClaw 找不到模型?
确保:
1. Ollama 正在运行:ollama serve
2. 配置的模型已下载:ollama list
3. baseUrl 正确:http://localhost:11434/v1
进阶:多模型切换
配置多个 fallback:
{
agents: {
defaults: {
model: {
primary: "ollama/llama3",
fallbacks: ["ollama/qwen:7b", "ollama/mistral"]
}
}
}
}
这样如果 llama3 不可用,会自动切换到下一个模型。
总结
通过 Ollama 本地部署,你可以:
- ✅ 省费用:完全免费,无需 API Key
- ✅ 保隐私:数据不出本地
- ✅ 可定制:自由选择模型
- ✅ 更稳定:不依赖网络
快去试试吧!有任何问题随时来问~

交个朋友,加我入群,交流前沿AI和网络安全技术
延伸阅读:
每月5万次额度不够用?飞书API过度调用问题终于解决了
最近有个朋友找到我,说他在飞书开发者后台发现了一个严重问题:/open-apis/bot/v3/info 这个接口每分钟...
一周AI大事件 2026年2月第4周
一周AI大事件|2026年2月第4周又到了每周一次的 AI 资讯汇总时间!过去一周 AI 领域发生了哪些大事?让我们一起...
OpenClaw 配合Ollama本地部署,超级简单一看就会!!
OpenClaw 配合 Ollama 本地部署,超级简单一看就会!!还在为调用云端大模型花销大而烦恼吗?还在担心数据隐私...
90% 的人都在错误使用 Claude Code:Anthropic 官方最佳实践全解析
90% 的人都在错误使用 Claude Code:Anthropic 官方最佳实践全解析Claude Code 是 An...
OpenClaw x Polymarket:手把手教你搭建自动交易机器人
什么是 Polymarket?Polymarket 是全球最大的预测市场,用户可以交易各种事件的发生概率——从体育比赛到...