OpenClaw 配合Ollama本地部署,超级简单一看就会!!

OpenClaw 配合 Ollama 本地部署,超级简单一看就会!!
还在为调用云端大模型花销大而烦恼吗?还在担心数据隐私问题吗?
今天教大家如何用 OpenClaw + Ollama 打造完全本地化的 AI 助手,所有数据都在本地运行,安全又省钱!
什么是 Ollama?
Ollama 是一个让你在本地运行大语言模型的工具。它支持 Llama 2、Llama 3、Mistral、Gemma 等众多开源模型,无需 GPU 也能运行(当然有 GPU 效果更好)。
官方网站:https://ollama.com
准备工作
1. 安装 Ollama
macOS / Linux:
curl -fsSL https://ollama.com/install.sh | bash
Windows:
直接去 https://ollama.com 下载安装包
2. 下载模型
安装完成后,下载你需要的模型:
# 推荐:下载 Llama 3(8B 参数,一般配置够用)
ollama pull llama3
# 或者下载 Mistral(性能不错)
ollama pull mistral
# 配置低的可以选 qwen(阿里开源,中文效果好)
ollama pull qwen:7b
3. 验证 Ollama 运行
# 启动 Ollama 服务(一般安装后自动启动)
ollama serve
# 测试模型
ollama run llama3
看到模型能正常对话就 OK 了!
OpenClaw 配置
1. 找到配置文件
OpenClaw 的配置文件在 ~/.openclaw/openclaw.json
2. 添加 Ollama 作为自定义 Provider
在配置文件中添加以下内容:
{
models: {
providers: {
ollama: {
type: "openai", // Ollama 兼容 OpenAI API
baseUrl: "http://localhost:11434/v1",
api: "key",
defaultHeaders: {
"Content-Type": "application/json"
}
}
}
},
agents: {
defaults: {
model: {
primary: "ollama/llama3"
},
models: {
"ollama/llama3": {
// 支持的参数
},
"ollama/mistral": {},
"ollama/qwen:7b": {}
}
}
}
}
3. 完整配置示例
{
models: {
providers: {
ollama: {
type: "openai",
baseUrl: "http://localhost:11434/v1"
}
}
},
agents: {
defaults: {
model: {
primary: "ollama/llama3",
fallbacks: ["ollama/mistral"]
},
models: {
"ollama/llama3": {
description: "Meta Llama 3, 8B 参数"
},
"ollama/mistral": {
description: "Mistral 7B, 性能强劲"
},
"ollama/qwen:7b": {
description: "阿里 Qwen 7B, 中文效果好"
}
}
}
}
}
4. 重启 OpenClaw
# 重启 Gateway
openclaw gateway restart
# 查看模型状态
openclaw models status
常见问题
Q1: 模型加载慢怎么办?
首次加载模型会比较慢,因为需要下载模型文件。可以在后台保持 Ollama 运行,避免每次重启。
# 让 Ollama 保持运行
nohup ollama serve &
Q2: 显存不够怎么办?
选择 smaller 的模型:
– llama3:8b → 需要约 8GB 显存
– mistral:7b → 需要约 8GB 显存
– qwen:7b → 需要约 8GB 显存
– llama3:70b → 需要约 40GB 显存(普通机器跑不动)
Q3: 如何查看有哪些模型?
ollama list
Q4: 响应速度慢?
本地模型响应速度取决于:
– 模型大小
– 显存/内存速度
– CPU 性能
建议使用量化模型(带 :q4_K_M 等后缀),速度更快。
Q5: OpenClaw 找不到模型?
确保:
1. Ollama 正在运行:ollama serve
2. 配置的模型已下载:ollama list
3. baseUrl 正确:http://localhost:11434/v1
进阶:多模型切换
配置多个 fallback:
{
agents: {
defaults: {
model: {
primary: "ollama/llama3",
fallbacks: ["ollama/qwen:7b", "ollama/mistral"]
}
}
}
}
这样如果 llama3 不可用,会自动切换到下一个模型。
总结
通过 Ollama 本地部署,你可以:
- ✅ 省费用:完全免费,无需 API Key
- ✅ 保隐私:数据不出本地
- ✅ 可定制:自由选择模型
- ✅ 更稳定:不依赖网络
快去试试吧!有任何问题随时来问~

交个朋友,加我入群,交流前沿AI和网络安全技术
延伸阅读:
中国大陆Claude限制:Anthropic地区封锁背后
🚫 中国大陆为什么用不上 Claude?Anthropic 地区限制背后的考量很多中国用户发现:无法在中国大陆直接使用 ...
Claude Opus 4.7:编程能力+13%,价格不变
🔥 Claude Opus 4.7 正式发布:编程能力全面超越Anthropic 正式发布Claude Opus 4.7...
Gemini登陆Mac:Option+Space任意屏幕访问,窗口分享
🌐 Gemini 应用登陆 Mac:Option + Space 任意屏幕访问Google Gemini 正式推出Mac...
Claude Opus 4.7曝光:一夜重构,7×24替你打工
🔥 Claude Opus 4.7 曝光!Claude Code 一夜重构,7x24 小时替你打工Anthropic 又...
OpenClaw 4.14更新:睡着觉把版发了,20+修复
🔥 OpenClaw 4.14 更新:睡着觉就把版发了官方推文就一句话:"Was sleeping, and we st...