免费运行 OpenClaw:OpenRouter、Dobby API 与 NVIDIA 配置指南
这是一篇面向初学者的 OpenClaw 免费运行指南,介绍如何用 OpenRouter 免费模型、Dobby API 和 NVIDIA Kimi-k2.5 配置零成本 LLM 工作流。
本文为翻译转载,原文作者 Kory Becker,原文发布于 Towards AI,日期为 2026 年 2 月 22 日。原文链接:A Beginner-Friendly Guide to Running OpenClaw for Free。本文在 OpenRouter 部分补充了 Dobby API 的配置说明。
副标题:一篇面向初学者的实操指南,介绍如何用 OpenRouter 和 NVIDIA 的零成本 LLM 来配置 OpenClaw。
OpenClaw 不一定很贵
关于运行 OpenClaw 产生意外费用的故事,似乎一点也不少。
毕竟,OpenClaw 是一个运行在你电脑上的服务,它会把请求发送给你选择的大语言模型。它几乎可以操作你的电脑能做的任何任务,包括查看邮件、下载图片、撰写博客文章、管理业务和安排任务。它通常还会全天候运行。
这样一来,发给 Claude Opus、Sonnet 和 GPT 的 API 请求很快就会累积成一笔不小的费用。好在,你也可以用完全免费的 LLM 来运行 OpenClaw。
这里是作者此前关于搭建 OpenClaw 的经验分享。这篇文章会介绍如何让它全天运行,而且不需要为任何 API 调用付费。
运行 OpenClaw 两周之后
在开始完全免费方案的配置之前,作者先分享了过去两周运行 OpenClaw 的体验。
OpenClaw 的表现有点复杂。
它确实让人开眼,也非常有趣。它几乎是把你的电脑变成了一个可以为你工作的智能 agent。甚至可以说,它有点像一个朋友。
作者用 OpenClaw 自动化了很多日常任务,这些任务省下了大量时间,哪怕只是几分钟、几十分钟,累计起来也能腾出更多时间做别的事。
作者已经自动化的任务
- 创建并运行批处理文件,用来领取每周食品购物优惠券。
- 安排天气更新,在频繁出现暴风雪时提醒自己。
- 撰写社交媒体短文,并直接从浏览器跨发到 X 和 Bluesky。
- 编写代码、部署应用,甚至配置它自己。
当大型厂商把 OpenClaw 这类方案真正集成进操作系统之后,电脑的未来会非常值得期待。微软 Windows、macOS、iOS 等系统整合类似界面,只是时间问题。
OpenClaw 其实才像是 Microsoft Copilot 本来应该成为的东西。
不过,对 OpenClaw 来说,未来已经来了。
先调整预期
把社交媒体上的热闹暂且放到一边,作者的体验是:用免费 LLM 模型运行 OpenClaw,也能得到相当不错的结果。
这些免费 LLM 的准确性和响应速度不断让人惊讶。当然,如果使用最新的 Anthropic Claude Opus、Sonnet、OpenAI GPT、Google Gemini 或 Grok 之类的付费模型,体验会更强。但你也需要为此付费。
既然目标是免费运行,我们就开始配置。
步骤 1:创建 OpenRouter 账号
你会使用 OpenRouter 来获得快速、可靠、完全免费的 LLM。这一步会让你拿到支撑免费 OpenClaw 设置所需的模型。
第一步是在 OpenRouter 创建账号。OpenRouter 通过 API 提供大量 LLM 模型。你可以用关键词 free 搜索那些无需付费即可使用的模型。作者使用下来,下面两个模型效果最好:
补充:Dobby API。如果你已经在使用 Dobby,也可以把 Dobby API 作为 OpenAI-compatible endpoint 使用,API 地址为 https://api.dobby.now。配置时把 base URL 指向这个地址,并使用你的 Dobby API key。这样除了 OpenRouter 的免费模型之外,还可以多一个可控的 Dobby 模型入口。实际字段名请以你当前 OpenClaw 版本支持的 OpenAI-compatible provider 配置为准。
DOBBY_BASE_URL=https://api.dobby.now
DOBBY_API_KEY=<YOUR_DOBBY_API_KEY>
步骤 2:编辑 OpenClaw 配置
这一步是把 OpenClaw 指向新的免费模型。你需要更新配置文件、设置别名,并加入 API key,让 OpenClaw 知道该使用哪个 LLM。
如果你还没有安装 OpenClaw,可以运行下面的命令:
npm install -g openclaw@latest
如果是全新安装,还需要先完成初始化设置。运行下面的命令即可开始:
openclaw gateway
要编辑配置,可以打开 OpenClaw 管理页面 http://127.0.0.1:18789,点击 Settings/Config,再选择 Raw 查看 JSON 内容。你也可以直接编辑这个文件:
C:\users\<YOUR_USER_NAME>\.openclaw\openclaw.json
找到名为 agents 的部分,并粘贴下面的内容:
{
"agents": {
"defaults": {
"model": {
"primary": "step"
},
"models": {
"openrouter/auto": {
"alias": "OpenRouter"
},
"openrouter/arcee-ai/trinity-large-preview:free": {
"alias": "trinity"
},
"openrouter/stepfun/step-3.5-flash:free": {
"alias": "step"
}
},
"workspace": "C:\\Users\\<YOUR_USER_NAME>\\.openclaw\\workspace",
"compaction": {
"mode": "safeguard"
},
"maxConcurrent": 4,
"subagents": {
"maxConcurrent": 8
},
"sandbox": {
"browser": {
"allowHostControl": true
}
}
}
}
}
如果配置里还没有 auth 部分,也把下面的内容加进去:
{
"auth": {
"profiles": {
"openrouter:default": {
"provider": "openrouter",
"mode": "api_key"
}
}
}
}
最后,把你的 API key 加入配置:
{
"env": {
"OPENROUTER_API_KEY": "sk-YOUR_API_KEY"
}
}
步骤 3:启动 OpenClaw 并测试
配置完成后,就可以启动 OpenClaw,并验证免费模型是否正常工作。这一步能确认所有连接都已经打通,可以开始使用。
现在你已经配置好了免费模型,启动 OpenClaw,然后在管理聊天界面里测试响应。
替代免费模型:NVIDIA
如果 OpenRouter 的免费模型变慢,或者遇到容量限制,NVIDIA 的 Kimi-k2.5 可以作为可靠备选。它速度较慢,但上下文窗口大,推理能力也很好,很适合 OpenClaw 使用。
作者发现,OpenRouter 的模型即便是免费版本,响应速度也相当快。
不过,如果你想尝试 NVIDIA 提供的免费模型,它们也通过 API 提供了若干选择。例如 Kimi-k2.5 模型是免费的,并且可以与 OpenClaw 配合使用。
- 创建账号,然后选择 Get API Key。
- 使用下面的命令测试你的 API key。
curl -X POST https://integrate.api.nvidia.com/v1/chat/completions \
-H 'Authorization: Bearer <YOUR_NVIDIA_API_KEY>' \
-H 'Content-Type: application/json' \
-d '{
"model": "moonshotai/kimi-k2.5",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "Hello World!"}
],
"max_tokens": 500,
"temperature": 0.7
}'
NVIDIA 的免费 API 比 OpenRouter 慢一些,可能需要几分钟才会返回响应。最后你应该能在输出中看到文本回复。
- 在
openclaw.json中配置模型:在agents部分上方加入一个名为models的配置块。
{
"models": {
"providers": {
"nvidia": {
"baseUrl": "https://integrate.api.nvidia.com/v1/chat/completions",
"apiKey": "nvapi-<YOUR_API_KEY>",
"api": "openai-completions",
"models": [
{
"id": "moonshotai/kimi-k2.5",
"name": "Moonshot Kimi K2.5",
"reasoning": false,
"input": ["text"],
"cost": {"input": 0, "output": 0, "cacheRead": 0, "cacheWrite": 0},
"contextWindow": 200000,
"maxTokens": 8192
}
]
}
}
}
}
- 把这个模型加入
agents部分,如下所示。
{
"agents": {
"defaults": {
"model": {
"primary": "kimi"
},
"models": {
"nvidia/moonshotai/kimi-k2.5": {
"alias": "kimi"
}
},
"workspace": "C:\\Users\\<YOUR_USER_NAME>\\.openclaw\\workspace"
}
}
}
- 重启 OpenClaw 服务,并在管理员聊天界面里测试响应。
推荐模型
应该选择哪个模型?作者用下来,下面这些模型表现不错。
Trinity Large Preview(Arcee AI,免费)
- 快速、均衡。
- 通用推理能力强。
- 非常适合作为默认选择。
Step 3.5 Flash(Stepfun,免费)
- 速度极快。
- 适合自动化和高频任务。
Kimi-k2.5(NVIDIA,免费)
- 上下文窗口大。
- 适合长文档处理和规划任务。
一些值得安装的技能
现在你已经可以运行一个免费的 OpenClaw 实例,接下来可以安装一些有用的 skill。
ClawHub 是安装新 skill 的仓库,可以增强你的 OpenClaw 实例能力。作者觉得最有用的一些 skill 如下。你可以用下面的命令安装它们:
openclaw skill install <SKILL_NAME>
有用的 skill
- Browser Chrome Extension:允许 agent 浏览网页、与网页和表单交互,并替你执行各种动作。它需要安装 Chrome 扩展,并运行到 OpenClaw 的 relay。如果你设置浏览器自动化,作者强烈推荐这么做,需要把对应配置加入
openclaw.json,然后运行openclaw browser --browser-profile openclaw start,并把 Relay port 设置为18789。 - Memory Manager:扩展内置记忆能力,支持情节记忆、语义记忆和流程记忆的组织。
- Humanizer:改写社交媒体草稿、短文和其他文本,让表达更自然、更友好。
- Bluesky:允许通过 Bluesky API 读取和发布内容。
- Weather:用于获取天气报告。当然,你也可以直接使用浏览器自动化,或者让模型自己抓取天气内容。
- Agent Browser:用于 headless 浏览器自动化,让 agent 可以搜索网页、操作表单和页面。在 Linux/Mac 上效果更好。OpenClaw 本身也带有内置浏览器,但这个 skill 提供了另一种选择。
结论
运行 OpenClaw 不一定要让钱包受伤,也不需要因为昂贵模型而焦虑。
只要做一点配置,并选择合适的免费模型,你就可以在自己的电脑上构建一个很有能力的 AI agent。作者发现,OpenRouter 的 Trinity 和 Step 3.5 Flash 很适合日常任务;如果你需要更大的上下文窗口或更强的规划能力,NVIDIA 的 Kimi-k2.5 也可以作为很好的备选。
一旦它跑起来,继续添加 skill、尝试浏览器自动化、看着 agent 承担更多工作,确实很有意思。随着时间推移,它会越来越不像一个工具,而更像一个伙伴。
免费模型也还在不断进步。
如果这篇文章对你有帮助,可以继续关注作者。他还会分享更多关于本地 AI 能做什么的实验和配置。
关于作者
如果你喜欢这篇文章,可以在 Medium、Bluesky、LinkedIn 和作者的 网站 关注 Kory Becker,以便获取他的后续文章和研究工作。