mirror of
https://github.com/anomalyco/opencode.git
synced 2026-04-30 09:46:35 +00:00
224 lines
6.8 KiB
Plaintext
224 lines
6.8 KiB
Plaintext
---
|
||
title: モデル
|
||
description: LLM プロバイダーとモデルを構成します。
|
||
---
|
||
|
||
OpenCode は [AI SDK](https://ai-sdk.dev/) および [Models.dev](https://models.dev) を使用して **75 以上の LLM プロバイダー** をサポートし、ローカル モデルの実行をサポートします。
|
||
|
||
---
|
||
|
||
## プロバイダー
|
||
|
||
最も一般的なプロバイダーはデフォルトでプリロードされています。 `/connect` コマンドを使用してプロバイダーの資格情報を追加した場合は、OpenCode を開始するときにそれらの資格情報を使用できるようになります。
|
||
|
||
[プロバイダー](/docs/providers).
|
||
|
||
---
|
||
|
||
## モデルを選択してください
|
||
|
||
プロバイダーを構成したら、次のように入力して必要なモデルを選択できます。
|
||
|
||
```bash frame="none"
|
||
/models
|
||
```
|
||
|
||
---
|
||
|
||
## 推奨機種
|
||
|
||
たくさんのモデルがあり、毎週のように新しいモデルが登場します。
|
||
|
||
:::ヒント
|
||
当社が推奨するモデルのいずれかの使用を検討してください。
|
||
:::
|
||
|
||
ただし、コードの生成とツールの呼び出しの両方に優れているものはほんのわずかです。
|
||
|
||
ここでは、OpenCode で適切に動作するいくつかのモデルを順不同で示します。 (これは完全なリストではなく、必ずしも最新であるとは限りません):
|
||
|
||
- GPT5.2
|
||
- GPT 5.1 コーデックス
|
||
- クロード 作品4.5
|
||
- クロード・ソネット 4.5
|
||
- ミニマックス M2.1
|
||
- ジェミニ 3 プロ
|
||
|
||
---
|
||
|
||
## デフォルトを設定する
|
||
|
||
これらのいずれかをデフォルトのモデルとして設定するには、`model` キーを
|
||
OpenCodeの設定。
|
||
|
||
```json title="opencode.json" {3}
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"model": "lmstudio/google/gemma-3n-e4b"
|
||
}
|
||
```
|
||
|
||
ここでの完全な ID は `provider_id/model_id` です。たとえば、[OpenCode Zen](/docs/zen) を使用している場合、GPT 5.1 Codex には `opencode/gpt-5.1-codex` を使用します。
|
||
|
||
[カスタムプロバイダー](/docs/providers#custom) を構成している場合、`provider_id` は構成の `provider` 部分のキーであり、`model_id` は `provider.models` のキーです。
|
||
|
||
---
|
||
|
||
## モデルの構成
|
||
|
||
config を通じてモデルのオプションをグローバルに設定できます。
|
||
|
||
```jsonc title="opencode.jsonc" {7-12,19-24}
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"provider": {
|
||
"openai": {
|
||
"models": {
|
||
"gpt-5": {
|
||
"options": {
|
||
"reasoningEffort": "high",
|
||
"textVerbosity": "low",
|
||
"reasoningSummary": "auto",
|
||
"include": ["reasoning.encrypted_content"],
|
||
},
|
||
},
|
||
},
|
||
},
|
||
"anthropic": {
|
||
"models": {
|
||
"claude-sonnet-4-5-20250929": {
|
||
"options": {
|
||
"thinking": {
|
||
"type": "enabled",
|
||
"budgetTokens": 16000,
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
}
|
||
```
|
||
|
||
ここでは、2 つの組み込みモデル (`openai` プロバイダー経由でアクセスする場合は `gpt-5`、`anthropic` プロバイダー経由でアクセスする場合は `claude-sonnet-4-20250514`) のグローバル設定を構成しています。
|
||
組み込みプロバイダーとモデル名は、[Models.dev](https://models.dev).
|
||
|
||
使用しているエージェントに対してこれらのオプションを構成することもできます。ここでエージェント設定はグローバル オプションをオーバーライドします。 [詳細はこちら](/docs/agents/#additional)。
|
||
|
||
組み込みバリアントを拡張するカスタム バリアントを定義することもできます。バリアントを使用すると、重複したエントリを作成せずに、同じモデルに対して異なる設定を構成できます。
|
||
|
||
```jsonc title="opencode.jsonc" {6-21}
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"provider": {
|
||
"opencode": {
|
||
"models": {
|
||
"gpt-5": {
|
||
"variants": {
|
||
"high": {
|
||
"reasoningEffort": "high",
|
||
"textVerbosity": "low",
|
||
"reasoningSummary": "auto",
|
||
},
|
||
"low": {
|
||
"reasoningEffort": "low",
|
||
"textVerbosity": "low",
|
||
"reasoningSummary": "auto",
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
}
|
||
```
|
||
|
||
---
|
||
|
||
## バリエーション
|
||
|
||
多くのモデルは、異なる構成の複数のバリアントをサポートしています。 OpenCode には、一般的なプロバイダーのデフォルトのバリアントが組み込まれています。
|
||
|
||
### 組み込みバリアント
|
||
|
||
OpenCode には、多くのプロバイダーのデフォルトのバリアントが付属しています。
|
||
|
||
**人間的**:
|
||
|
||
- `high` - 高度な思考予算 (デフォルト)
|
||
- `max` - 最大の思考予算
|
||
|
||
**OpenAI**:
|
||
|
||
モデルによって異なりますが、おおよそ次のとおりです。
|
||
|
||
- `none` - 理由はありません
|
||
- `minimal` - 最小限の推論努力
|
||
- `low` - 推論の労力が少ない
|
||
- `medium` - 中程度の推論努力
|
||
- `high` - 高い推論努力
|
||
- `xhigh` - 非常に高い推論努力
|
||
|
||
**グーグル**:
|
||
|
||
- `low` - 労力/トークン予算の削減
|
||
- `high` - より高い労力/トークン予算
|
||
|
||
:::ヒント
|
||
このリストは包括的なものではありません。他の多くのプロバイダーにもデフォルトが組み込まれています。
|
||
:::
|
||
|
||
### カスタムバリアント
|
||
|
||
既存のバリアントをオーバーライドすることも、独自のバリアントを追加することもできます。
|
||
|
||
```jsonc title="opencode.jsonc" {7-18}
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"provider": {
|
||
"openai": {
|
||
"models": {
|
||
"gpt-5": {
|
||
"variants": {
|
||
"thinking": {
|
||
"reasoningEffort": "high",
|
||
"textVerbosity": "low",
|
||
},
|
||
"fast": {
|
||
"disabled": true,
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
},
|
||
}
|
||
```
|
||
|
||
### サイクルのバリエーション
|
||
|
||
キーバインド `variant_cycle` を使用すると、バリアントをすばやく切り替えることができます。 [詳細はこちら](/docs/keybinds)。
|
||
|
||
---
|
||
|
||
## モデルのロード
|
||
|
||
OpenCode が起動すると、次の優先順位でモデルがチェックされます。
|
||
|
||
1. `--model` または `-m` コマンド ライン フラグ。形式は構成ファイルと同じです: `provider_id/model_id`。
|
||
|
||
2. OpenCode 構成内のモデルのリスト。
|
||
|
||
```json title="opencode.json"
|
||
{
|
||
"$schema": "https://opencode.ai/config.json",
|
||
"model": "anthropic/claude-sonnet-4-20250514"
|
||
}
|
||
```
|
||
|
||
ここでの形式は `provider/model` です。
|
||
|
||
3. 最後に使用されたモデル。
|
||
|
||
4. 内部優先を使用した最初のモデル。
|