OpenClaw 配合Ollama本地部署,超级简单一看就会!!

OpenClaw + Ollama

OpenClaw 配合 Ollama 本地部署,超级简单一看就会!!

还在为调用云端大模型花销大而烦恼吗?还在担心数据隐私问题吗?

今天教大家如何用 OpenClaw + Ollama 打造完全本地化的 AI 助手,所有数据都在本地运行,安全又省钱!

什么是 Ollama?

Ollama 是一个让你在本地运行大语言模型的工具。它支持 Llama 2、Llama 3、Mistral、Gemma 等众多开源模型,无需 GPU 也能运行(当然有 GPU 效果更好)。

官方网站:https://ollama.com

准备工作

1. 安装 Ollama

macOS / Linux:

curl -fsSL https://ollama.com/install.sh | bash

Windows:
直接去 https://ollama.com 下载安装包

2. 下载模型

安装完成后,下载你需要的模型:

# 推荐:下载 Llama 3(8B 参数,一般配置够用)
ollama pull llama3

# 或者下载 Mistral(性能不错)
ollama pull mistral

# 配置低的可以选 qwen(阿里开源,中文效果好)
ollama pull qwen:7b

3. 验证 Ollama 运行

# 启动 Ollama 服务(一般安装后自动启动)
ollama serve

# 测试模型
ollama run llama3

看到模型能正常对话就 OK 了!

OpenClaw 配置

1. 找到配置文件

OpenClaw 的配置文件在 ~/.openclaw/openclaw.json

2. 添加 Ollama 作为自定义 Provider

在配置文件中添加以下内容:

{
  models: {
    providers: {
      ollama: {
        type: "openai",  // Ollama 兼容 OpenAI API
        baseUrl: "http://localhost:11434/v1",
        api: "key",
        defaultHeaders: {
          "Content-Type": "application/json"
        }
      }
    }
  },
  agents: {
    defaults: {
      model: {
        primary: "ollama/llama3"
      },
      models: {
        "ollama/llama3": {
          // 支持的参数
        },
        "ollama/mistral": {},
        "ollama/qwen:7b": {}
      }
    }
  }
}

3. 完整配置示例

{
  models: {
    providers: {
      ollama: {
        type: "openai",
        baseUrl: "http://localhost:11434/v1"
      }
    }
  },
  agents: {
    defaults: {
      model: {
        primary: "ollama/llama3",
        fallbacks: ["ollama/mistral"]
      },
      models: {
        "ollama/llama3": {
          description: "Meta Llama 3, 8B 参数"
        },
        "ollama/mistral": {
          description: "Mistral 7B, 性能强劲"
        },
        "ollama/qwen:7b": {
          description: "阿里 Qwen 7B, 中文效果好"
        }
      }
    }
  }
}

4. 重启 OpenClaw

# 重启 Gateway
openclaw gateway restart

# 查看模型状态
openclaw models status

常见问题

Q1: 模型加载慢怎么办?

首次加载模型会比较慢,因为需要下载模型文件。可以在后台保持 Ollama 运行,避免每次重启。

# 让 Ollama 保持运行
nohup ollama serve &

Q2: 显存不够怎么办?

选择 smaller 的模型:
llama3:8b → 需要约 8GB 显存
mistral:7b → 需要约 8GB 显存
qwen:7b → 需要约 8GB 显存
llama3:70b → 需要约 40GB 显存(普通机器跑不动)

Q3: 如何查看有哪些模型?

ollama list

Q4: 响应速度慢?

本地模型响应速度取决于:
– 模型大小
– 显存/内存速度
– CPU 性能

建议使用量化模型(带 :q4_K_M 等后缀),速度更快。

Q5: OpenClaw 找不到模型?

确保:
1. Ollama 正在运行:ollama serve
2. 配置的模型已下载:ollama list
3. baseUrl 正确:http://localhost:11434/v1

进阶:多模型切换

配置多个 fallback:

{
  agents: {
    defaults: {
      model: {
        primary: "ollama/llama3",
        fallbacks: ["ollama/qwen:7b", "ollama/mistral"]
      }
    }
  }
}

这样如果 llama3 不可用,会自动切换到下一个模型。

总结

通过 Ollama 本地部署,你可以:

  • 省费用:完全免费,无需 API Key
  • 保隐私:数据不出本地
  • 可定制:自由选择模型
  • 更稳定:不依赖网络

快去试试吧!有任何问题随时来问~


OpenClaw 配合Ollama本地部署,超级简单一看就会!!

交个朋友,加我入群,交流前沿AI和网络安全技术

暂无介绍....

延伸阅读:

每月5万次额度不够用?飞书API过度调用问题终于解决了

最近有个朋友找到我,说他在飞书开发者后台发现了一个严重问题:/open-apis/bot/v3/info 这个接口每分钟...

itadol5j
2026年3月2日
一周AI大事件 2026年2月第4周

一周AI大事件|2026年2月第4周又到了每周一次的 AI 资讯汇总时间!过去一周 AI 领域发生了哪些大事?让我们一起...

itadol5j
2026年3月2日
OpenClaw 配合Ollama本地部署,超级简单一看就会!!

OpenClaw 配合 Ollama 本地部署,超级简单一看就会!!还在为调用云端大模型花销大而烦恼吗?还在担心数据隐私...

itadol5j
2026年3月2日
90% 的人都在错误使用 Claude Code:Anthropic 官方最佳实践全解析

90% 的人都在错误使用 Claude Code:Anthropic 官方最佳实践全解析Claude Code 是 An...

itadol5j
2026年3月2日
OpenClaw x Polymarket:手把手教你搭建自动交易机器人

什么是 Polymarket?Polymarket 是全球最大的预测市场,用户可以交易各种事件的发生概率——从体育比赛到...

itadol5j
2026年3月2日