
OpenCode 統合ガイド: EvoLink API を介して Claude 4.5、GPT-5.2、および Gemini 3 Pro にアクセスする方法 (2026)

はじめに: ターミナルベース AI の新時代
2026 年の急速に進化する状況において、開発者の端末は単純なコマンド ラインから人工知能のための洗練されたコマンド センターに変わりました。IDE、ブラウザベースのチャットボット、API ドキュメントの間でコンテキストを切り替える時代は終わりました。現在、最も効率的な開発者は、AI エージェントを CLI ワークフローに直接統合しています。
パート 1: AI スタックのコンポーネント
オープンコードとは何ですか?
-
自然言語を使用してコードベースとチャットします。
-
端末コマンドを自律的に (許可を得て) 実行します。
-
プロジェクト構造全体でファイルを編集します。
-
スタック トレースを出力から直接読み取ることでエラーをデバッグします。

EvoLink とは何ですか?
-
統合アクセス: 1 つの API キーで、OpenAI、Anthropic、Google、Alibaba、および ByteDance モデルにアクセスできます。
-
コスト効率: スマート ルーティング を通じて、EvoLink は特定のモデルの最もコスト効率の高いプロバイダにリクエストを自動的にルーティングし、プロバイダを直接使用する場合と比較して 20 ~ 70% の節約を実現します。
-
信頼性: 非同期タスク アーキテクチャと自動フェイルオーバーにより、EvoLink は 99.9% の稼働時間を保証し、重要なデバッグ セッション中にコーディング エージェントが「ハング」しないようにします。
パート 2: OpenCode を EvoLink と統合する理由
-
ゼロコード移行: EvoLink は OpenAI API 形式と完全な互換性があります。これは、EvoLink がバックグラウンドで複雑なルーティングを処理している間、OpenCode は標準プロバイダと通信していると「考えている」ことを意味します。
-
高密度の情報フロー: OpenCode のローカル ファイルを読み取る機能と EvoLink のハイ コンテキスト モデルへのアクセスを接続することで、リポジトリ全体をコンテキスト ウィンドウにフィードして分析できます。

パート 3: 3 つの強力なモデルを理解する (2026 年版)
統合を構成する前に、「何を」統合するのかを理解することが重要です。2026 年初頭の時点で、3 つのモデルが業界を支配しています。EvoLink を通じて、それらすべてにアクセスできます。

1. Claude 4.5 (ソネットとオーパス)
-
コーディング アーキテクト
-
最適な用途: クリーンで保守しやすいコードの作成、リファクタリング、アーキテクチャ計画。
-
統計: Claude 4.5 Opus は 80.9% のスコアで SWE ベンチ検証済み リーダーボードの頂点に立っています。これは、実際の GitHub の問題を他のどのモデルよりもうまく解決していることを意味します。
-
OpenCode で使用する理由: 最も「人間らしい」コード構造が生成され、存在しないライブラリの幻覚が起こりにくくなります。複雑な複数ステップの指示に従うことに優れています。
2. GPT-5.2 - 推論エンジン
-
こんな方に最適: 複雑なロジック、数学的アルゴリズム、および「徹底的に考える」ことで、不明瞭なバグを解決します。
-
統計: GPT-5.2 は、AIME 2025** (数学) ベンチマークで完璧な **100%、ARC-AGI-2 で 52.9% を達成し、抽象推論において競合他社を大幅に上回っています。
-
OpenCode で使用する理由: 説明を無視する論理エラーで行き詰まった場合、または複雑な正規表現や SQL クエリを生成する必要がある場合は、GPT-5.2 が優れた選択肢です。
3. Gemini 3 Pro - コンテキストとマルチモーダルの王様
-
最適な用途: 大規模なコードベースの分析、ドキュメント イメージの読み取り、高速反復。
-
統計: 巨大な 100 万トークン コンテキスト ウィンドウと業界をリードする速度 (約 180 トークン/秒) が特徴です。
-
OpenCode で使用する理由: グローバルな一貫性をチェックするためにプロジェクト ディレクトリ全体をプロンプトにフィードする必要がある場合は、Gemini 3 Pro を使用します。これは、大量のタスクにとって最もコスト効率の高いオプションでもあります。
| 特集 | Claude 4.5 オーパス | GPT-5.2 | Gemini 3 プロ |
|---|---|---|---|
| 主な強み | コードの品質と安全性 | 論理と推論 | コンテキストとスピード |
| コンテキスト ウィンドウ | 200,000 トークン | 400,000 トークン | 100万トークン |
| SWE ベンチ スコア | 80.9% (リーダー) | 80.0% | 76.2% |
| 最適な用途 | リファクタリング、新機能 | ハード デバッグ、数学 | ドキュメント、大規模なリポジトリ |
パート 4: ステップバイステップの統合ガイドこのガイドは、Unix のような環境 (macOS/Linux) または Windows の WSL で作業していることを前提としています。
前提条件
-
ターミナル エミュレータ: iTerm2 (macOS)、Windows ターミナル、または Hyper。
-
EvoLink アカウント: evolink.ai の有効なアカウント。
-
Git: マシンにインストールされています。
ステップ 1: OpenCode をインストールする
OpenCode をまだインストールしていない場合は、ターミナルで次のコマンドを実行します。このスクリプトは OS を自動的に検出し、必要なバイナリをインストールします。
```bash
```bash
```bash
1. [EvoLink ダッシュボード](https://evolink.ai/) にログインします。
2. **API キー** セクションに移動します。
3. [**新しいキーの作成**] をクリックします。
4. キー文字列 (`sk-evo...` で始まる) をコピーします。**このキーは共有しないでください。**
### ステップ 2.5: OpenCode プロバイダーの初期化
JSON ファイルを設定する前に、EvoLink を OpenCode の資格情報マネージャーにカスタム プロバイダーとして登録する必要があります。これは、OpenCode が EvoLink を有効なプロバイダとして認識できるようにする 1 回限りのセットアップです。
1. **OpenCode を初めて起動します:**
```bash
```bash

3. **プロバイダー ID を入力してください:** プロンプトが表示されたら、プロバイダー ID として「evolink」と入力します。これにより、OpenCode のシステムにカスタム プロバイダー エントリが作成されます。

4. **API キーを入力してください:** ここには任意のプレースホルダー値を入力できます (例: `admin` or `temp`)。実際の EvoLink API キーは、次のステップで構成ファイルを介して参照されます。

**重要:** この初期化ステップでは、OpenCode のローカル認証情報マネージャーに「evolink」を登録します。次に作成する構成ファイルは、実際の接続の詳細を提供します。
### ステップ 3: OpenCode を構成する
1. **構成ディレクトリの検索/作成:**
- **macOS/Linux:** `~/.config/opencode/`
- **Windows:** `%AppData%\opencode\`
**Windows ユーザーの場合:** `Win + R`, paste `%AppData%\opencode\` を押し、Enter を押してディレクトリを開きます。

2. **`opencode.json`** file:**
```bash を作成します
```bash
nano ~/.config/opencode/opencode.json
*注意: *`YOUR_EVOLINK_API_KEY`* をステップ 2 で生成したキーに置き換えます。*
```json
```json
"$schema": "https://opencode.ai/config.json",
「プロバイダー」: {
"エボリンク": {
"npm": "@ai-sdk/anthropic",
"名前": "エボリンク",
"オプション": {
"baseURL": "https://code.evolink.ai/v1",
"apiKey": "あなたの evolink-API キー"
}、
「モデル」: {
"クロード-作品-4-5-20251101": {
"名前": "Claude-4.5-Opus"
}、
"クロード-ソネット-4-5-20250929": {"名前": "Claude-4.5-ソネット"
}、
"クロード-俳句-4-5-20251001": {
"名前": "Claude-4.5-俳句"
}
}
}
}
}
provider を "openai" に設定します。これは、EvoLink が OpenAI API 形式を Anthropic および Google のネイティブ形式にシームレスに変換するためです。この「トリック」により、OpenCode は標準プロトコルを使用して非 GPT モデルと通信できるようになります。
ターミナルで OpenCode を起動します。
```bash
オープンコード
```bash
入力ボックスに次のように入力します。
正しく設定されている場合、応答によって定義したモデルが確認されるはずです (例: 「I am GPT-5.2...」)。
パート 5: 高度な構成とモデルの切り替え
OpenCode に入ると、単一のモデルに縛られることはありません。現在のタスクに基づいてモデルを動的に切り替えることができます。
CLI によるモデルの切り替え
ツールの起動時にモデルを直接指定できます。
# 簡単なロジックチェック用
```bash
# 重いコーディングセッションの場合
opencode --model クロード-3-5-sonnet-20240620TUI によるモデルの切り替え
/models コマンドを使用して、利用可能な構成を表示できます。
1. `/models` と入力し、Enter キーを押します。
2. 「opencode.json」リストからモデル ID を選択します。
3. Enter キーを押すと、コンテキストがすぐに切り替わります。
---
## パート 6: 高密度開発のベスト プラクティス
この統合の「Skyscraper」の可能性を真に活用するには、次のベスト プラクティスに従ってください。
### 1. コンテキスト戦略
- **Gemini 3 Pro を使用する場合:** `/add src/` などのコマンドを自由に実行して、ソース フォルダー全体を追加してください。Gemini の 1M コンテキスト ウィンドウは負荷を処理できるため、プロジェクトの完全な依存関係グラフを理解できます。
- **GPT-5.2 を使用する場合:** より選択的になります。関連ファイル (`/add src/utils/helper.ts`) のみを追加して、推論エンジンが邪魔をせずに手元のロジックに厳密に集中できるようにします。
### 2. コスト管理のためのインテリジェントなルーティング
EvoLink の **スマート ルーティング** はデフォルトで有効になっています。ただし、単純なタスクにはモデルの「ターボ」または「フラッシュ」バージョンを使用することで、さらに最適化できます。
- 単純な単体テストやコメントを作成するために、「opencode.json」に「gpt-4o-mini` or `gemini-3-flash」エントリを構成します。これらのモデルのコストはフロンティア モデルの数分の一ですが、基本的なタスクには十分です。
### 3. セキュリティ第一
`opencode.json` file to a public repository. Add `.config/opencode/` to your global `.gitignore` file.
```bash を決してコミットしないでください。
echo ".config/opencode/" >> ~/.gitignore_global
git config --global core.excludesfile ~/.gitignore_global
```bash
---
## パート 7: 一般的な問題のトラブルシューティング
-
修正: EvoLink API キーを確認してください。完全な文字列
sk-evo...をコピーしたことを確認してください。また、EvoLink アカウントのクレジット残高がプラスであることを確認してください。Q: OpenCode で「モデルが見つかりません」と表示されます。 -
修正: JSON 内の
model名が、EvoLink でサポートされているモデル ID (例:gpt-4o、claude-3-opus-20240229) と正確に一致することを確認します。正確な ID 文字列については、EvoLink のモデル リスト を確認してください。
- 修正: EvoLink は高速ですが、ネットワーク遅延は変動します。単純なクエリに非常に大規模なモデル (Opus など) を使用しているかどうかを確認してください。より高速な操作を行うには、
gpt-5.2またはgemini-3-flashに切り替えてください。
結論
-
今日から未来を見据えたコーディングを始めましょう。


