docs: improve zh-cn and zh-tw documentation translations (#13942)

This commit is contained in:
chenmi
2026-02-17 20:06:39 +08:00
committed by GitHub
parent 8d0a303af4
commit 4fd3141ab5
68 changed files with 4624 additions and 4518 deletions

View File

@@ -1,66 +1,57 @@
---
title: Zen
description: opencode 提供的精選模型列表。
description: 由 OpenCode 提供的精選模型列表。
---
import config from "../../../../config.mjs"
export const console = config.console
export const email = `mailto:${config.email}`
OpenCode Zen 是 opencode 團隊提供的經過測試和驗證的模型列表。
OpenCode Zen 是由 OpenCode 團隊提供的一組經過測試和驗證的模型列表。
:::note
OpenCode Zen 目前處於測試階段。
:::
Zen 的工作方式與 opencode 中的任何其他供應商一樣。您登入 OpenCode Zen 並
您的 API 金鑰。它是**完全可選的**,您不需要使用它即可使用
opencode。
Zen 的工作方式與 OpenCode 中的任何其他供應商相同。你只需登入 OpenCode Zen 並取得你的 API 金鑰。它是**完全選用的**,你無需使用它也能正常使用 OpenCode。
---
## 背景
市面上有很多模型,但其中只有少數幾個
這些模型可以很好地用作程式碼代理。此外,大多數供應商都
配置非常不同;所以你會得到截然不同的性能和質量。
市面上有大量的模型,但其中只有少數能夠很好地充當編碼代理。此外,大多數供應商的設定方式差異很大,因此你獲得的效能和品質也會截然不同。
:::tip
我們測試了一組精選的opencode 配合良好的模型和供應商。
我們測試了一組與 OpenCode 配合良好的精選模型和供應商。
:::
因此,如果透過 OpenRouter 之類的東西使用模型,那麼您永遠無法
確定您是否獲得了您想要的模型的最佳版本。
所以如果透過 OpenRouter 之類的服務使用模型,永遠無法確定是否獲得了你想要的模型的最佳版本。
為了解決這個問題,我們做了幾件事:
為了解決這個問題,我們做了以下幾件事:
1. 我們測試了一組選的模型,並與們的團隊討論瞭如何
最好執行它們
2. 然後我們與一些供應商合作以確保這些服務得到服務
正確。
3. 最後,我們對模型/供應商的組合進行了基準測試並提出了
並附上一份我們覺得不錯的推薦清單。
1. 我們測試了一組選的模型,並與們的團隊討論了最佳執行方式。
2. 然後我們與幾家供應商合作,確保這些模型能被正確地提供服務
3. 最後,我們對模型與供應商的組合進行了基準測試,整理出了一份我們有信心推薦的列表。
OpenCode Zen 是一個 AI 閘道,可讓您存取這些模型。
OpenCode Zen 是一個 AI 閘道,讓你可以存取這些模型。
---
## 它是如何運作的
## 工作原理
OpenCode Zen 的工作方式與 opencode 中的任何其他供應商一樣
OpenCode Zen 的工作方式與 OpenCode 中的任何其他供應商相同
1. 登入 **<a href={console}>OpenCode Zen</a>**添加您的帳單
詳細資訊,然後複製您的 API 金鑰。
2. 在 TUI 中執行 `/connect` 指令,選擇 OpenCode Zen然後貼上您的 API 金鑰
3. 在 TUI 中執行 `/models` 以查看我們推薦的模型列表。
1. 登入 **<a href={console}>OpenCode Zen</a>**新增你的帳單資訊,然後複製你的 API 金鑰。
2. 在 TUI 中執行 `/connect` 指令,選擇 OpenCode Zen然後貼上你的 API 金鑰。
3. 在 TUI 中執行 `/models` 查看我們推薦的模型列表
您需要按請求付費,並且可以將點數添加到您的帳戶中。
按請求付費,並且可以向你的帳戶中儲值
---
## 端點
還可以透過以下 API 端點存取我們的模型。
還可以透過以下 API 端點存取我們的模型。
| 模型 | 模型 ID | 端點 | AI SDK 套件 |
| ------------------ | ------------------ | -------------------------------------------------- | --------------------------- |
@@ -82,10 +73,11 @@ OpenCode Zen 的工作方式與 opencode 中的任何其他供應商一樣。
| Claude Opus 4.1 | claude-opus-4-1 | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
| Gemini 3 Pro | gemini-3-pro | `https://opencode.ai/zen/v1/models/gemini-3-pro` | `@ai-sdk/google` |
| Gemini 3 Flash | gemini-3-flash | `https://opencode.ai/zen/v1/models/gemini-3-flash` | `@ai-sdk/google` |
| MiniMax M2.5 | minimax-m2.5 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| MiniMax M2.5 Free | minimax-m2.5-free | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| MiniMax M2.1 | minimax-m2.1 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| MiniMax M2.1 Free | minimax-m2.1-free | `https://opencode.ai/zen/v1/messages` | `@ai-sdk/anthropic` |
| GLM 5 | glm-5 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| GLM 4.7 | glm-4.7 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| GLM 4.7 Free | glm-4.7-free | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| GLM 4.6 | glm-4.6 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| Kimi K2.5 | kimi-k2.5 | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| Kimi K2.5 Free | kimi-k2.5-free | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
@@ -94,15 +86,13 @@ OpenCode Zen 的工作方式與 opencode 中的任何其他供應商一樣。
| Qwen3 Coder 480B | qwen3-coder | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
| Big Pickle | big-pickle | `https://opencode.ai/zen/v1/chat/completions` | `@ai-sdk/openai-compatible` |
opencode 配置中的 [模型編號](/docs/config/#models)
使用格式 `opencode/<model-id>`。例如,對於 GPT 5.2 Codex您將
在您的配置中使用 `opencode/gpt-5.2-codex`。
在 OpenCode 設定中,[模型 ID](/docs/config/#models) 使用 `opencode/<model-id>` 格式。例如,對於 GPT 5.2 Codex你需要在設定中使用 `opencode/gpt-5.2-codex`。
---
### 模型
可以從以下位置獲取可用模型及其元數據的完整列表:
可以從以下位址取得可用模型及其中繼資料的完整列表:
```
https://opencode.ai/zen/v1/models
@@ -112,135 +102,127 @@ https://opencode.ai/zen/v1/models
## 定價
我們支援按量付費模式。以下是**每 100 萬 Tokens 的價格**
我們支援按量付費模式。以下是**每 100 萬 Token** 的價格。
| 模型 | 輸入 | 輸出 | 快取讀取 | 快取寫入 |
| --------------------------------- | ------ | ------ | -------- | -------- |
| Big Pickle | Free | Free | Free | - |
| MiniMax M2.1 Free | Free | Free | Free | - |
| MiniMax M2.1 | $0.30 | $1.20 | $0.10 | - |
| GLM 4.7 Free | Free | Free | Free | - |
| GLM 4.7 | $0.60 | $2.20 | $0.10 | - |
| GLM 4.6 | $0.60 | $2.20 | $0.10 | - |
| Kimi K2.5 Free | Free | Free | Free | - |
| Kimi K2.5 | $0.60 | $3.00 | $0.08 | - |
| Kimi K2 Thinking | $0.40 | $2.50 | - | - |
| Kimi K2 | $0.40 | $2.50 | - | - |
| Qwen3 Coder 480B | $0.45 | $1.50 | - | - |
| Claude Sonnet 4.5 (≤ 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4.5 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Sonnet 4 ( 200K tokens) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4 (> 200K tokens) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Haiku 4.5 | $1.00 | $5.00 | $0.10 | $1.25 |
| Claude Haiku 3.5 | $0.80 | $4.00 | $0.08 | $1.00 |
| Claude Opus 4.6 (≤ 200K tokens) | $5.00 | $25.00 | $0.50 | $6.25 |
| Claude Opus 4.6 (> 200K tokens) | $10.00 | $37.50 | $1.00 | $12.50 |
| Claude Opus 4.5 | $5.00 | $25.00 | $0.50 | $6.25 |
| Claude Opus 4.1 | $15.00 | $75.00 | $1.50 | $18.75 |
| Gemini 3 Pro (≤ 200K tokens) | $2.00 | $12.00 | $0.20 | - |
| Gemini 3 Pro (> 200K tokens) | $4.00 | $18.00 | $0.40 | - |
| Gemini 3 Flash | $0.50 | $3.00 | $0.05 | - |
| GPT 5.2 | $1.75 | $14.00 | $0.175 | - |
| GPT 5.2 Codex | $1.75 | $14.00 | $0.175 | - |
| GPT 5.1 | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex Max | $1.25 | $10.00 | $0.125 | - |
| GPT 5.1 Codex Mini | $0.25 | $2.00 | $0.025 | - |
| GPT 5 | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Nano | Free | Free | Free | - |
| 模型 | 輸入 | 輸出 | 快取讀取 | 快取寫入 |
| -------------------------------- | ------ | ------ | -------- | -------- |
| Big Pickle | 免費 | 免費 | 免費 | - |
| MiniMax M2.5 Free | 免費 | 免費 | 免費 | - |
| MiniMax M2.5 | $0.30 | $1.20 | $0.06 | - |
| MiniMax M2.1 | $0.30 | $1.20 | $0.10 | - |
| GLM 5 | $1.00 | $3.20 | $0.20 | - |
| GLM 4.7 | $0.60 | $2.20 | $0.10 | - |
| GLM 4.6 | $0.60 | $2.20 | $0.10 | - |
| Kimi K2.5 Free | 免費 | 免費 | 免費 | - |
| Kimi K2.5 | $0.60 | $3.00 | $0.08 | - |
| Kimi K2 Thinking | $0.40 | $2.50 | - | - |
| Kimi K2 | $0.40 | $2.50 | - | - |
| Qwen3 Coder 480B | $0.45 | $1.50 | - | - |
| Claude Sonnet 4.5 ( 200K Token) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4.5 (> 200K Token) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Sonnet 4 ( 200K Token) | $3.00 | $15.00 | $0.30 | $3.75 |
| Claude Sonnet 4 (> 200K Token) | $6.00 | $22.50 | $0.60 | $7.50 |
| Claude Haiku 4.5 | $1.00 | $5.00 | $0.10 | $1.25 |
| Claude Haiku 3.5 | $0.80 | $4.00 | $0.08 | $1.00 |
| Claude Opus 4.6 ( 200K Token) | $5.00 | $25.00 | $0.50 | $6.25 |
| Claude Opus 4.6 (> 200K Token) | $10.00 | $37.50 | $1.00 | $12.50 |
| Claude Opus 4.5 | $5.00 | $25.00 | $0.50 | $6.25 |
| Claude Opus 4.1 | $15.00 | $75.00 | $1.50 | $18.75 |
| Gemini 3 Pro ( 200K Token) | $2.00 | $12.00 | $0.20 | - |
| Gemini 3 Pro (> 200K Token) | $4.00 | $18.00 | $0.40 | - |
| Gemini 3 Flash | $0.50 | $3.00 | $0.05 | - |
| GPT 5.2 | $1.75 | $14.00 | $0.175 | - |
| GPT 5.2 Codex | $1.75 | $14.00 | $0.175 | - |
| GPT 5.1 | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5.1 Codex Max | $1.25 | $10.00 | $0.125 | - |
| GPT 5.1 Codex Mini | $0.25 | $2.00 | $0.025 | - |
| GPT 5 | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Codex | $1.07 | $8.50 | $0.107 | - |
| GPT 5 Nano | 免費 | 免費 | 免費 | - |
可能會在使用歷史記錄中注意到 _Claude Haiku 3.5_。這是一個 [低成本模型](/docs/config/#models),用於生工作階段標題。
可能會在使用記錄中到 _Claude Haiku 3.5_。這是一個[低成本模型](/docs/config/#models),用於生工作階段標題。
:::note
信用卡費按成本轉嫁4.4% + 每筆交易 0.30 美元);除此之外我們不收取任何費用。
信用卡手續費按成本轉嫁(每筆交易 4.4% + $0.30);除此之外我們不收取任何額外費用。
:::
免費模型:
免費模型說明
- GLM 4.7 免費版opencode 上限時提供。團隊正在利用這段時間收集回饋並改進模型。
- Kimi K2.5 Free 在 opencode 上限時提供。團隊正在利用這段時間收集回饋並改進模型。
- MiniMax M2.1 免費版opencode 上限時提供。團隊正在利用這段時間收集回饋並改進模型。
- Big Pickle 是一個秘密模型,在 opencode 上限時免費。團隊正在利用這段時間收集回饋並改進模型。
- Kimi K2.5 Free OpenCode 上限時免費提供。團隊正在利用這段時間收集回饋並改進模型。
- MiniMax M2.5 Free 在 OpenCode 上限時免費提供。團隊正在利用這段時間收集回饋並改進模型。
- Big Pickle 是一個隱身模型,OpenCode 上限時免費提供。團隊正在利用這段時間收集回饋並改進模型。
果您有任何疑問,請<a href={email}>聯絡我們</a>。
如有任何疑問,請<a href={email}>聯絡我們</a>。
---
### 自動重新載入
### 自動儲值
如果的餘額低於 5 美元Zen 將自動值 20 美元
如果的餘額低於 $5Zen 將自動$20。
可以更改自動加值金額。您還可以完全用自動重新載入
可以更改自動儲值的金額,也可以完全用自動儲值功能
---
### 月限額
### 月限額
還可以為整個工作區和每個工作區設定每月使用限
你的團隊的成員。
還可以為整個工作區以及團隊中的每個成員設定月度使用限額。
例如,假設您將每月使用限額設為 20 美元Zen 將不會使用
一個月超過 20 美元。但如果你啟用了自動重新載入Zen 可能會結束
如果您的餘額低於 5 美元,則向您收取超過 20 美元的費用。
例如,假設你將月度使用限額設為 $20Zen 在一個月內的使用量將不會超過 $20。但如果你啟用了自動儲值當餘額低於 $5 時Zen 可能會向你收取超過 $20 的費用。
---
## 隱私
我們所有的模型都在美國託管。我們的供應商遵循零保留政策,不會將您的數據用於模型訓練,但以下情況除外:
我們所有的模型都託管在美國。我們的供應商遵循零保留政策,不會將你的資料用於模型訓練,但以下情況除外:
- Big Pickle在免費期間收集的數據可用於改進模型。
- GLM 4.7 免費:在免費期間,收集的數據可用於改進模型。
- Kimi K2.5 免費:在免費期間,收集的數據可用於改進模型。
- MiniMax M2.1 免費:在免費期間,收集的數據可用於改進模型
- OpenAI API根據 [OpenAI 的數據政策](https://platform.openai.com/docs/guides/your-data),請求將保留 30 天。
- Anthropic API根據 [Anthropic 的數據政策](https://docs.anthropic.com/en/docs/claude-code/data-usage),請求將保留 30 天。
- Big Pickle在免費期間收集的資料可能會被用於改進模型。
- Kimi K2.5 Free:在免費期間,收集的資料可能會被用於改進模型。
- MiniMax M2.5 Free:在免費期間,收集的資料可能會被用於改進模型。
- OpenAI API請求會根據 [OpenAI 資料政策](https://platform.openai.com/docs/guides/your-data)保留 30 天
- Anthropic API請求會根據 [Anthropic 資料政策](https://docs.anthropic.com/en/docs/claude-code/data-usage)保留 30 天。
---
## 對於團隊
## 團隊
Zen 對團隊也很有效。您可以邀請隊友、分配角色、精選
您的團隊使用的模型等等。
Zen 也非常適合團隊使用。你可以邀請隊友、分配角色、管理團隊使用的模型等。
:::note
作為測試版的一部分,工作區目前對團隊免費。
作為測試版的一部分,工作區功能目前對團隊免費開放
:::
作為測試版的一部分,管理工作區目前對團隊免費。我們將
很快就會分享更多有關定價的細節。
作為測試版的一部分,管理工作區目前對團隊免費。我們將很快公布更多定價詳情。
---
### 角色
可以邀請團隊成員到您的工作區並分配角色:
可以邀請團隊成員加入你的工作區並分配角色:
- **管理員**管理模型、成員、API 金鑰和計費
- **管理員**管理模型、成員、API 金鑰和帳單
- **成員**:僅管理自己的 API 金鑰
管理員還可以為每個成員設定月支出限額,以控制成本。
管理員還可以為每個成員設定月支出限額,以控制成本。
---
### 模型存取
管理員可以啟用或用工作區的特定模型。對用模型發出的請求將回錯誤。
管理員可以啟用或用工作區的特定模型。對已停用模型發出的請求將回錯誤。
對於您想要禁用以下模型的情況很有用
收集數據。
在你想要停用某個會收集資料的模型時非常有用
---
### 帶上你自己的金鑰
### 帶金鑰
可以使用自己的 OpenAI 或 Anthropic API 金鑰,同時仍然存取 Zen 中的其他模型。
可以使用自己的 OpenAI 或 Anthropic API 金鑰,同時仍然可以存取 Zen 中的其他模型。
使用自己的金鑰時Tokens 將由供應商直接計費,而不是由 Zen。
使用自己的金鑰時Token 費用由供應商直接計費,而非透過 Zen 計費
例如,的組織可能已經擁有 OpenAI 或 Anthropic 的金鑰
你想使用它而不是 Zen 提供的。
例如,的組織可能已經擁有 OpenAI 或 Anthropic 的金鑰,你希望使用它們而不是 Zen 提供的金鑰。
---
@@ -248,7 +230,7 @@ Zen 對團隊也很有效。您可以邀請隊友、分配角色、精選
我們建立 OpenCode Zen 的目的是:
1. **設定基準**編碼代理的最佳模型/供應商。
2. 可以使用**最高品質**選項,而不是降低能或轉向更便宜的供應商。
3. 透過按成本價銷售來傳遞任何**價格下跌**所以唯一的加價就是支付我們的處理費。
4. 透過允許將其與任何其他編碼代理一起使用,**無鎖定**。並且始終允許您將任何其他供應商與 opencode 一起使用
1. 為編碼代理**基準測試**最佳模型供應商組合
2. 提供**最高品質**選項,降低能或路由到更廉價的供應商。
3. 成本價銷售來傳遞任何**降價優惠**;唯一的加價僅用於覆蓋我們的處理費
4. **無鎖定**允許將其與任何其他編碼代理配合使用,同時也始終允許你在 OpenCode 中使用任何其他供應商