提供商

Venice AI

如果你在寻找一种既能保护隐私、又能使用主流大模型的方案,Venice AI 值得关注。它主打隐私优先的 AI 推理服务,支持无审查模型,还可以通过匿名代理访问 Claude、GPT、Gemini 等专有模型。最重要的是,所有推理默认都是私密的——你的数据不会被用于训练,也不会留下日志。

为什么选择 Venice?

在 OpenClaw 中使用 Venice,主要有这些优势:

  • 私密推理:开源模型完全不记录日志,你的对话内容不会被存储
  • 无审查模型:需要不受内容限制的模型?Venice 提供了专门的选择
  • 匿名访问专有模型:当你需要 Claude、GPT、Gemini 的质量,但又不想暴露身份时,Venice 的匿名代理可以帮你
  • OpenAI 兼容:标准的 /v1 端点,接入简单

隐私模式详解

Venice 提供两种隐私级别,理解它们的区别能帮你做出正确的模型选择:

模式说明模型示例
私密模式完全私密。提示词和响应从不存储或记录,用完即销毁Llama、Qwen、DeepSeek、Kimi、MiniMax、Venice Uncensored 等
匿名模式通过 Venice 代理访问,元数据会被剥离。底层提供商(OpenAI、Anthropic、Google、xAI)只能看到匿名请求Claude、GPT、Gemini、Grok

简单来说:追求绝对隐私,选"私密模式"的模型;需要顶级模型能力,选"匿名模式"通过代理访问。

功能特性

  • 隐私优先:在"私密"(完全私密)和"匿名"(代理访问)两种模式间自由选择
  • 无审查模型:可访问无内容限制的模型
  • 主流模型支持:通过 Venice 的匿名代理使用 Claude、GPT、Gemini、Grok
  • OpenAI 兼容 API:标准 /v1 端点,轻松集成
  • 流式输出:✅ 所有模型均支持
  • 函数调用:✅ 部分模型支持(请检查模型能力)
  • 视觉能力:✅ 具备视觉能力的模型支持图像输入
  • 无硬性速率限制:极端使用可能触发公平使用节流

快速开始

第一步:获取 API 密钥

  1. 前往 venice.ai 注册账号
  2. 进入 Settings → API Keys → Create new key
  3. 复制你的 API 密钥(格式为 vapi_xxxxxxxxxxxx

第二步:配置 OpenClaw

有三种方式可选:

方式 A:设置环境变量

export VENICE_API_KEY="vapi_xxxxxxxxxxxx"

方式 B:交互式配置(推荐)

openclaw onboard --auth-choice venice-api-key

这个命令会引导你完成配置:

  1. 提示输入 API 密钥(或使用已有的 VENICE_API_KEY 环境变量)
  2. 显示所有可用的 Venice 模型
  3. 让你选择默认模型
  4. 自动完成提供商配置

方式 C:非交互式配置

适合脚本或自动化场景:

openclaw onboard --non-interactive \
  --auth-choice venice-api-key \
  --venice-api-key "vapi_xxxxxxxxxxxx"

第三步:验证配置

运行以下命令确认配置成功:

openclaw agent --model venice/kimi-k2-5 --message "Hello, are you working?"

如何选择模型?

配置完成后,OpenClaw 会列出所有可用的 Venice 模型。以下是选择建议:

使用场景推荐模型理由
日常对话(默认)kimi-k2-5私密推理能力强,还支持视觉
追求最高质量claude-opus-4-6匿名模式下最强的选择
隐私 + 编程qwen3-coder-480b-a35b-instruct私密编程模型,上下文窗口大
私密视觉任务kimi-k2-5支持图像输入,无需离开私密模式
快速且省钱qwen3-4b轻量级推理模型,响应快
复杂私密任务deepseek-v3.2推理能力强,但无 Venice 工具支持
无内容限制venice-uncensored无内容审查

你可以随时更改默认模型:

openclaw models set venice/kimi-k2-5
openclaw models set venice/claude-opus-4-6

查看所有可用模型:

openclaw models list | grep venice

通过 openclaw configure 配置

也可以使用配置工具:

  1. 运行 openclaw configure
  2. 选择 Model/auth
  3. 选择 Venice AI

可用模型列表(共 41 个)

私密模型(26 个)——完全私密,无日志记录

模型 ID名称上下文窗口特性
kimi-k2-5Kimi K2.5256k默认,推理,视觉
kimi-k2-thinkingKimi K2 Thinking256k推理
llama-3.3-70bLlama 3.3 70B128k通用
llama-3.2-3bLlama 3.2 3B128k通用
hermes-3-llama-3.1-405bHermes 3 Llama 3.1 405B128k通用,工具禁用
qwen3-235b-a22b-thinking-2507Qwen3 235B Thinking128k推理
qwen3-235b-a22b-instruct-2507Qwen3 235B Instruct128k通用
qwen3-coder-480b-a35b-instructQwen3 Coder 480B256k编程
qwen3-coder-480b-a35b-instruct-turboQwen3 Coder 480B Turbo256k编程
qwen3-5-35b-a3bQwen3.5 35B A3B256k推理,视觉
qwen3-next-80bQwen3 Next 80B256k通用
qwen3-vl-235b-a22bQwen3 VL 235B (视觉)256k视觉
qwen3-4bVenice Small (Qwen3 4B)32k快速,推理
deepseek-v3.2DeepSeek V3.2160k推理,工具禁用
venice-uncensoredVenice Uncensored (Dolphin-Mistral)32k无审查,工具禁用
mistral-31-24bVenice Medium (Mistral)128k视觉
google-gemma-3-27b-itGoogle Gemma 3 27B Instruct198k视觉
openai-gpt-oss-120bOpenAI GPT OSS 120B128k通用
nvidia-nemotron-3-nano-30b-a3bNVIDIA Nemotron 3 Nano 30B128k通用
olafangensan-glm-4.7-flash-hereticGLM 4.7 Flash Heretic128k推理
zai-org-glm-4.6GLM 4.6198k通用
zai-org-glm-4.7GLM 4.7198k推理
zai-org-glm-4.7-flashGLM 4.7 Flash128k推理
zai-org-glm-5GLM 5198k推理
minimax-m21MiniMax M2.1198k推理
minimax-m25MiniMax M2.5198k推理

匿名模型(15 个)——通过 Venice 代理访问

模型 ID名称上下文窗口特性
claude-opus-4-6Claude Opus 4.6 (通过 Venice)1M推理,视觉
claude-opus-4-5Claude Opus 4.5 (通过 Venice)198k推理,视觉
claude-sonnet-4-6Claude Sonnet 4.6 (通过 Venice)1M推理,视觉
claude-sonnet-4-5Claude Sonnet 4.5 (通过 Venice)198k推理,视觉
openai-gpt-54GPT-5.4 (通过 Venice)1M推理,视觉
openai-gpt-53-codexGPT-5.3 Codex (通过 Venice)400k推理,视觉,编程
openai-gpt-52GPT-5.2 (通过 Venice)256k推理
openai-gpt-52-codexGPT-5.2 Codex (通过 Venice)256k推理,视觉,编程
openai-gpt-4o-2024-11-20GPT-4o (通过 Venice)128k视觉
openai-gpt-4o-mini-2024-07-18GPT-4o Mini (通过 Venice)128k视觉
gemini-3-1-pro-previewGemini 3.1 Pro (通过 Venice)1M推理,视觉
gemini-3-pro-previewGemini 3 Pro (通过 Venice)198k推理,视觉
gemini-3-flash-previewGemini 3 Flash (通过 Venice)256k推理,视觉
grok-41-fastGrok 4.1 Fast (通过 Venice)1M推理,视觉
grok-code-fast-1Grok Code Fast 1 (通过 Venice)256k推理,编程

模型发现机制

当设置了 VENICE_API_KEY 环境变量后,OpenClaw 会自动从 Venice API 获取可用模型列表。如果 API 暂时无法访问,会回退到内置的静态模型目录。/models 端点是公开的(无需认证即可查看模型列表),但推理请求需要有效的 API 密钥。

流式输出与工具支持

特性支持情况
流式输出✅ 所有模型
函数调用✅ 大多数模型支持(查看 API 中的 supportsFunctionCalling 字段)
视觉/图像✅ 标注了"视觉"特性的模型
JSON 模式✅ 通过 response_format 参数支持

定价说明

Venice 采用积分计费制。具体费率请查看 venice.ai/pricing

  • 私密模型:通常费用较低
  • 匿名模型:与直接调用原厂 API 价格相近,外加少量 Venice 服务费

Venice 匿名模式 vs 直接调用 API

对比项Venice 匿名模式直接调用 API
隐私保护元数据被剥离,完全匿名与你的账户绑定
响应延迟增加 10-50ms(代理转发)直连
功能支持支持大部分功能完整功能
计费方式Venice 积分原厂计费

使用示例

# 使用默认私密模型
openclaw agent --model venice/kimi-k2-5 --message "Quick health check"

# 通过 Venice 匿名访问 Claude Opus
openclaw agent --model venice/claude-opus-4-6 --message "Summarize this task"

# 使用无审查模型
openclaw agent --model venice/venice-uncensored --message "Draft options"

# 使用视觉模型分析图像
openclaw agent --model venice/qwen3-vl-235b-a22b --message "Review attached image"

# 使用编程专用模型
openclaw agent --model venice/qwen3-coder-480b-a35b-instruct --message "Refactor this function"

常见问题

API 密钥未被识别

检查环境变量和模型列表:

echo $VENICE_API_KEY
openclaw models list | grep venice

确认密钥格式正确,应以 vapi_ 开头。

模型显示不可用

Venice 的模型目录会动态更新。运行 openclaw models list 查看当前可用模型。部分模型可能因维护暂时下线。

连接失败

Venice API 地址为 https://api.venice.ai/api/v1,请确认你的网络可以访问 HTTPS。

配置文件示例

{
  env: { VENICE_API_KEY: "vapi_..." },
  agents: { defaults: { model: { primary: "venice/kimi-k2-5" } } },
  models: {
    mode: "merge",
    providers: {
      venice: {
        baseUrl: "https://api.venice.ai/api/v1",
        apiKey: "${VENICE_API_KEY}",
        api: "openai-completions",
        models: [
          {
            id: "kimi-k2-5",
            name: "Kimi K2.5",
            reasoning: true,
            input: ["text", "image"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 256000,
            maxTokens: 65536,
          },
        ],
      },
    },
  },
}

相关链接

Vercel AI GatewayvLLM