Files
opencode/packages/web/src/content/docs/ja/models.mdx
2026-02-09 11:34:35 -06:00

224 lines
6.8 KiB
Plaintext
Raw Blame History

This file contains ambiguous Unicode characters
This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
---
title: モデル
description: LLM プロバイダーとモデルを構成します。
---
OpenCode は [AI SDK](https://ai-sdk.dev/) および [Models.dev](https://models.dev) を使用して **75 以上の LLM プロバイダー** をサポートし、ローカル モデルの実行をサポートします。
---
## プロバイダー
最も一般的なプロバイダーはデフォルトでプリロードされています。 `/connect` コマンドを使用してプロバイダーの資格情報を追加した場合は、OpenCode を開始するときにそれらの資格情報を使用できるようになります。
[プロバイダー](/docs/providers).
---
## モデルを選択してください
プロバイダーを構成したら、次のように入力して必要なモデルを選択できます。
```bash frame="none"
/models
```
---
## 推奨機種
たくさんのモデルがあり、毎週のように新しいモデルが登場します。
:::ヒント
当社が推奨するモデルのいずれかの使用を検討してください。
:::
ただし、コードの生成とツールの呼び出しの両方に優れているものはほんのわずかです。
ここでは、OpenCode で適切に動作するいくつかのモデルを順不同で示します。 (これは完全なリストではなく、必ずしも最新であるとは限りません):
- GPT5.2
- GPT 5.1 コーデックス
- クロード 作品4.5
- クロード・ソネット 4.5
- ミニマックス M2.1
- ジェミニ 3 プロ
---
## デフォルトを設定する
これらのいずれかをデフォルトのモデルとして設定するには、`model` キーを
OpenCodeの設定。
```json title="opencode.json" {3}
{
"$schema": "https://opencode.ai/config.json",
"model": "lmstudio/google/gemma-3n-e4b"
}
```
ここでの完全な ID は `provider_id/model_id` です。たとえば、[OpenCode Zen](/docs/zen) を使用している場合、GPT 5.1 Codex には `opencode/gpt-5.1-codex` を使用します。
[カスタムプロバイダー](/docs/providers#custom) を構成している場合、`provider_id` は構成の `provider` 部分のキーであり、`model_id` は `provider.models` のキーです。
---
## モデルの構成
config を通じてモデルのオプションをグローバルに設定できます。
```jsonc title="opencode.jsonc" {7-12,19-24}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"options": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
"include": ["reasoning.encrypted_content"],
},
},
},
},
"anthropic": {
"models": {
"claude-sonnet-4-5-20250929": {
"options": {
"thinking": {
"type": "enabled",
"budgetTokens": 16000,
},
},
},
},
},
},
}
```
ここでは、2 つの組み込みモデル (`openai` プロバイダー経由でアクセスする場合は `gpt-5`、`anthropic` プロバイダー経由でアクセスする場合は `claude-sonnet-4-20250514`) のグローバル設定を構成しています。
組み込みプロバイダーとモデル名は、[Models.dev](https://models.dev).
使用しているエージェントに対してこれらのオプションを構成することもできます。ここでエージェント設定はグローバル オプションをオーバーライドします。 [詳細はこちら](/docs/agents/#additional)。
組み込みバリアントを拡張するカスタム バリアントを定義することもできます。バリアントを使用すると、重複したエントリを作成せずに、同じモデルに対して異なる設定を構成できます。
```jsonc title="opencode.jsonc" {6-21}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"opencode": {
"models": {
"gpt-5": {
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
"low": {
"reasoningEffort": "low",
"textVerbosity": "low",
"reasoningSummary": "auto",
},
},
},
},
},
},
}
```
---
## バリエーション
多くのモデルは、異なる構成の複数のバリアントをサポートしています。 OpenCode には、一般的なプロバイダーのデフォルトのバリアントが組み込まれています。
### 組み込みバリアント
OpenCode には、多くのプロバイダーのデフォルトのバリアントが付属しています。
**人間的**:
- `high` - 高度な思考予算 (デフォルト)
- `max` - 最大の思考予算
**OpenAI**:
モデルによって異なりますが、おおよそ次のとおりです。
- `none` - 理由はありません
- `minimal` - 最小限の推論努力
- `low` - 推論の労力が少ない
- `medium` - 中程度の推論努力
- `high` - 高い推論努力
- `xhigh` - 非常に高い推論努力
**グーグル**
- `low` - 労力/トークン予算の削減
- `high` - より高い労力/トークン予算
:::ヒント
このリストは包括的なものではありません。他の多くのプロバイダーにもデフォルトが組み込まれています。
:::
### カスタムバリアント
既存のバリアントをオーバーライドすることも、独自のバリアントを追加することもできます。
```jsonc title="opencode.jsonc" {7-18}
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"openai": {
"models": {
"gpt-5": {
"variants": {
"thinking": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"fast": {
"disabled": true,
},
},
},
},
},
},
}
```
### サイクルのバリエーション
キーバインド `variant_cycle` を使用すると、バリアントをすばやく切り替えることができます。 [詳細はこちら](/docs/keybinds)。
---
## モデルのロード
OpenCode が起動すると、次の優先順位でモデルがチェックされます。
1. `--model` または `-m` コマンド ライン フラグ。形式は構成ファイルと同じです: `provider_id/model_id`。
2. OpenCode 構成内のモデルのリスト。
```json title="opencode.json"
{
"$schema": "https://opencode.ai/config.json",
"model": "anthropic/claude-sonnet-4-20250514"
}
```
ここでの形式は `provider/model` です。
3. 最後に使用されたモデル。
4. 内部優先を使用した最初のモデル。