GitHub Copilot の AI モデル: 選択に関する完全ガイド
GitHub Copilot は、マルチモデルアーキテクチャ それが表すもの 開発 AI ツールの動作方法が根本的に変わります。代わりに 単一の言語モデルに依存するために、Copilot はさまざまな言語モデルへのアクセスを提供します。 3 つの主要な AI プロバイダーのモデル: OpenAI, 人間的 e グーグル。それぞれのモデルに特徴があり、 明確な強みと制限を考慮し、特定のタスクに適したものを選択します 結果の品質と速度に大きな違いをもたらす可能性があります 仕事の。
シリーズの 15 回目の記事では、すべてのモデルを詳しく説明します。 Copilot で利用可能な機能、その技術的特徴、選択基準、 自動選択のための Auto Mode システム、コストへの影響 プレミアム リクエスト、および各テンプレートを最大限に活用するためのベスト プラクティス。
シリーズ全体の概要
| # | アイテム | 集中 |
|---|---|---|
| 1 | 基礎と考え方 | セットアップとメンタリティ |
| 2 | コンセプトと要件 | アイデアから MVP まで |
| 3 | バックエンドのアーキテクチャ | APIとデータベース |
| 4 | フロントエンドの構造 | UIとコンポーネント |
| 5 | 迅速なエンジニアリング | MCP プロンプトとエージェント |
| 6 | テストと品質」 | ユニット、統合、E2E |
| 7 | ドキュメント | README、API ドキュメント、ADR |
| 8 | デプロイとDevOps | ドッカー、CI/CD |
| 9 | 進化 | スケーラビリティとメンテナンス |
| 10 | コーディングエージェント | 自律型開発エージェント |
| 11 | コードレビュー | AI自動レビュー |
| 12 | 副操縦士の編集 | 複数ファイルの編集 |
| 13 | GitHub スパーク | 自然言語アプリ |
| 14 | 空間と記憶 | 整理されたコンテキストと記憶 |
| 15 | 現在位置 → AI モデル | モデル選びのガイド |
| 16 | カスタマイズ | カスタムの指示と知識 |
| 17 | 企業 | 組織向けの副操縦士 |
| 18 | 拡張機能 | ツールを使用して Copilot を拡張する |
| 19 | 安全性 | AIのセキュリティとコンプライアンス |
利用可能なモデル
GitHub Copilot は、3 つの主要なファミリーのテンプレートへのアクセスを提供します。 明確な強み。違いを理解することが使いこなすための第一歩です 効果的に。
OpenAIファミリー
OpenAI モデルは Copilot を強化する最初のモデルであり、現在でも選択肢の 1 つです 多くの開発タスクに適しています。インフラストラクチャ上でホストされています OpenAI e マイクロソフトアジュール、高可用性と低遅延を保証します。 北米とヨーロッパのユーザー向け。
Copilot の OpenAI モデル
| モデル | スピード' | 精度 | コンテキストウィンドウ | マルチモーダル | 料金 |
|---|---|---|---|---|---|
| GPT-4.1 | 平均 | 高い | 128,000トークン | 画像 | 標準 |
| GPT-4.5 | 遅い | 非常に高い | 128,000トークン | 画像 | プレミアム |
| o3-mini | 速い | 中~高 | 128,000トークン | No | 標準 |
GPT-4.1
GPT-4.1 は、Copilot の OpenAI ファミリの主力製品です。優れたサービスを提供します スピードと品質のバランスほとんどの人に適しています。 日々の開発タスクの一部です。彼は構造を深く理解している コード、プログラミングのベスト プラクティス、および主要な規則の概要 フレームワーク。
前世代の GPT-4o と比較して、GPT-4.1 では大幅な改善が見られます。 構造化コードの生成、で 文脈の理解 長い そして複雑な指示に従う能力。それは特に ボイラープレートの生成、足場、要件の翻訳に効果的 コードで。
GPT-4.5
GPT-4.5 は OpenAI の主力モデルを表しており、 ~する能力 優れた推論 GPT-4.1との比較。選ぶべきモデルです 綿密な分析、複雑な推論、理解が必要なタスクに最適 複雑なシステムの。回答の質はかなり高くなりましたが、 1つを犠牲にして 待ち時間が長い と消費量 プレミアムリクエスト.
GPT-4.5 は、複雑な問題のデバッグ、分析などのシナリオに優れています。 分散アーキテクチャ、重要なマージ競合の解決、 最適化されたアルゴリズムの生成。応答時間と品質のトレードオフ 速度よりも精度が重要なタスクに最適です。
o3-mini
o3-mini モデルは以下のために設計されています。 スピード'。それは顕著です 他の OpenAI モデルよりも高速であり、応答の質は、 複雑なタスクには GPT-4.1 よりも低いですが、日常の多くのシナリオには依然として十分です。 標準モデルに分類されるため、プレミアム リクエストは消費されません。
反復的なタスク、定型コードの生成、完了に最適です。 フィードバックの速度が優先される、迅速かつ迅速な反復 結果の完璧さまで。
人類家族(クロード)
Anthropic のクロード モデルは次の場所でホストされています。 AWS, 人間的 e Googleクラウドプラットフォーム。彼らは次のように知られています 詳細な分析、長い文脈の理解に対する優れた能力 しっかりと構造化された詳細な応答を生成します。
Copilot のクロード モデル
| モデル | スピード' | 精度 | コンテキストウィンドウ | マルチモーダル | 料金 |
|---|---|---|---|---|---|
| クロード俳句 4.5 | 非常に速い | 平均 | 200,000トークン | 画像 | 標準 |
| クロード・ソネット 3.7 | 平均 | 高い | 200,000トークン | 画像 | 標準 |
| クロード 作品4 | 遅い | 非常に高い | 200,000トークン | 画像 | プレミアム |
クロード俳句 4.5
Haiku 4.5 がモデルです もっと早く クロード家のデザイン 日常業務の適切な品質を維持しながら、迅速に対応します。 200K トークンのコンテキスト ウィンドウは、次のような場合に特に便利です。 多数の開いているファイルを操作する場合、またはコードベースでリポジトリのインデックス作成を使用する場合 サイズが大きい。
素早い回答、簡単なコードの質問、 即時のフィードバックが優先される基本的なテストの生成と操作。 スピードと幅広いコンテキストの組み合わせにより、 より強力ですが遅いモデル。
クロード・ソネット 3.7
Sonnet 3.7 は、 バランスモデル クロード家の 全体的な品質の点で開発者から最も高く評価されているモデルの 1 つです。 回答のうち。優れた応答速度と分析スキルを兼ね備えています 高度な機能を備えており、幅広いタスクに適しています。
特に強いのは、 コードレビュー、バグ分析で 特定のパターンに従うコードの生成と、 詳細な技術文書の作成。彼の理解力 コンテキストが広いため、大規模なコードベースを扱う場合に効果的です。 ファイル間の関係が重要な場合。
クロード 作品4
Opus 4 は Anthropic のフラッグシップ モデルです。 推理力 カテゴリの一番上にある。最も複雑なタスクに選択するモデルです そして挑戦者たち: アーキテクチャの詳細な分析、システム上の問題のデバッグ、設計 曖昧な要件に対するソリューションとレガシー システムのリファクタリング。
高度な推論と 200K トークンのコンテキスト ウィンドウの組み合わせ これにより、Copilot で使用できるテンプレートのパノラマの中でユニークになります。コストは1つです インタラクションごとにプレミアム リクエストが発生するため、戦略的に使用する必要があります。 優れた品質が消費を正当化するタスク。
Google ファミリー (ジェミニ)
Google の Gemini モデルは以下でホストされています Googleクラウドプラットフォーム 特に現場で独特の能力をもたらします マルチモーダル 非常に大きなコンテキスト ウィンドウの処理でも。
Copilot の Gemini モデル
| モデル | スピード' | 精度 | コンテキストウィンドウ | マルチモーダル | 料金 |
|---|---|---|---|---|---|
| ジェミニ 2.0 フラッシュ | 非常に速い | 平均 | 100万トークン | 画像、ビデオ | 標準 |
| ジェミニ 3 フラッシュ | 速い | 中~高 | 100万トークン | 画像、ビデオ | 標準 |
| ジェミニ 3 プロ | 平均 | 高い | 100万トークン | 画像、ビデオ、オーディオ | プレミアム |
| ジェミニ 2.5 プロ | 中低速 | 高い | 100万トークン | 画像、ビデオ | プレミアム |
ジェミニ 2.0 フラッシュ
Flash 2.0 は、Gemini ファミリの中で最も高速なモデルであり、 優れたレベルの品質を備えた迅速な対応。」その際立った特徴 そこにあります 100万トークンのコンテキストウィンドウ、非常に Copilot で利用可能な他のモデルよりも高い。これです これは、非常に大規模なリポジトリを操作する場合や、 コンテキストに多くのファイルを含める必要があります。
Gemini 3 フラッシュおよび Gemini 3 プロ
第 3 世代の Gemini は速度と速度の両方で大幅な改善をもたらします 品質よりも。 ジェミニ 3 フラッシュ 優れた品質を提供します 高速モデルですが、 ジェミニ 3 プロ 上位モデルと競合する OpenAI と Anthropic の精度と推論能力。
Gemini 3 Pro はその容量が際立っています 高度なマルチモーダル: 画像だけでなくビデオやオーディオも分析できるため、 バグのスクリーンキャストの分析、図の理解などのシナリオ 複雑な建築プロジェクトや技術会議の文字起こし。
ジェミニ 2.5 プロ
Gemini 2.5 Proは、 優れた推論能力 そしてコーディング、GPT-4.5 および Claude Opus 4 の代替として位置付けられています。 高品質」と 1M トークンのコンテキスト ウィンドウの組み合わせにより、 特に深い理解を必要とする分析に適しています 同時にコードの量。
完全な比較表
選択を容易にするために、利用可能なすべてのモデルを直接比較します。 ソフトウェア開発に最も関連するパラメータについて。
完全なモデルの比較
| モデル | プロバイダー | スピード' | 品質コード | 推論 | コンテクスト | 料金 |
|---|---|---|---|---|---|---|
| GPT-4.1 | OpenAI | 平均 | 高い | 高い | 128K | 標準 |
| GPT-4.5 | OpenAI | 遅い | 非常に高い | とても背が高い | 128K | プレミアム |
| o3-mini | OpenAI | 速い | 中~高 | 中~高 | 128K | 標準 |
| 俳句 4.5 | 人間的 | 非常に速い | 平均 | 中くらい | 200K | 標準 |
| ソネット 3.7 | 人間的 | 平均 | 高い | 高い | 200K | 標準 |
| 作品4 | 人間的 | 遅い | 非常に高い | とても背が高い | 200K | プレミアム |
| ジェミニ 2.0 フラッシュ | グーグル | 非常に速い | 平均 | 中くらい | 1M | 標準 |
| ジェミニ 3 フラッシュ | グーグル | 速い | 中~高 | 中~高 | 1M | 標準 |
| ジェミニ 3 プロ | グーグル | 平均 | 高い | 高い | 1M | プレミアム |
| ジェミニ 2.5 プロ | グーグル | 中低速 | 高い | 高い | 1M | プレミアム |
自動モード: 自動モデル選択
オートモード これは Copilot のデフォルト モードです 最適なモデルを自動的に選択します タイプに基づいて 必要なタスクの数。使用するテンプレートを手動で選択する必要がなくなる インタラクションごとに、自動モードがリクエストを分析し、どのモデルを決定するか 最高の結果を提供します。
自動モードの仕組み
自動選択システムは、いくつかの要素を評価して、 最適なモデル:
自動モードの選択要素
| 要素 | 説明 | 選択への影響 |
|---|---|---|
| タスクの複雑さ | リクエストはどれくらい複雑ですか | 単純なタスク → 簡単なテンプレート。複雑なタスク → 強力なモデル |
| 操作の種類 | 完成、生成、解析、デバッグ | モデルごとに優れた操作性が異なります |
| コンテキストサイズ | 関係するファイルとトークンの数 | 大きなコンテキスト → 大きなウィンドウを持つモデル |
| 必要な速度 | ユーザーがアクティブに入力している場合 | インライン補完 → 高速テンプレート |
| 予算プレミアムリクエスト | 残りのプレミアム リクエストの数 | 低予算 → スタンダードモデルを好む |
| これまでの履歴 | 同様のタスクに適したモデルはどれですか | 実績のあるモデルを好む |
自動モードを使用する場合
ほとんどのシナリオでは自動モードが推奨されます。主な利点は次のとおりです。
- 決断は必要ありません: モデル選択に時間を無駄にする必要はありません
- コストの最適化: システムはプレミアムリクエストの品質と消費のバランスをとります
- 動的適応: リクエストが複雑になると、モデルが変更される可能性があります
- 統合されたベスト プラクティス: 選択システムには GitHub のベスト プラクティスが組み込まれています
自動モードが理想的でない場合
手動で選択した方が良い結果が得られるシナリオがあります。
- 特定のモデルが優れていることがわかっているタスク (例: コード レビューのクロード)
- 複数のセッションにわたる応答品質の一貫性を確保したい場合
- 利用可能な最も強力なモデルを常に必要とする重要なタスクの場合
- 非常に大規模なコンテキスト (100 万以上のトークン) を操作し、Gemini の使用を強制したい場合
- 同じプロンプトで異なるモデルの答えを実験して比較するには
手動モデル選択
サポートされている IDE (VS Code、JetBrains、Visual Studio) では、次のことができます。 選択する モデルを手動で あらゆる会話に使用します。選択 これは、Copilot Chat ウィンドウのドロップダウン メニューから行われます。
モデルを選択する場所
IDEのモデル選択
| FDI | 選び方 | どこ |
|---|---|---|
| VSコード | Copilot Chat ヘッダーのドロップダウン | サイドパネルまたはインラインウィンドウ |
| ジェットブレインズ | Copilot Chat ヘッダーのドロップダウン | ツールウィンドウパネル |
| ビジュアルスタジオ | Copilot Chat ヘッダーのドロップダウン | 副操縦士パネル |
| GitHub.com | Copilot Chat パネルのセレクター | サイドバーまたは専用ページ |
| GitHub モバイル | チャットを開始する前のセレクター | チャットのホーム画面 |
| CLI (gh コパイロット) | コマンドラインで --model にフラグを付ける | ターミナル |
手動選択が最適な場合
手動選択は、次のシナリオで特に役立ちます。
高速モデルのシナリオ
- 書き込み中のインライン補完
- 構文に関する簡単な質問
- 定型文の繰り返し生成
- 複数のファイルにわたる変数の名前変更
- 形式変換(JSON→YAMLなど)
- 既存のコードのコメントの生成
- 構文エラーの修正
強力なモデルのシナリオ
- 断続的な問題のデバッグ
- 複雑なアーキテクチャの設計
- レガシーシステムのリファクタリング
- コードセキュリティ分析
- アルゴリズムの最適化
- 複雑なマージ競合の解決
- エッジケース向けのテスト生成
ユースケースの推奨事項
各モデルの特徴を踏まえておすすめをご紹介します ソフトウェア開発における最も一般的な使用例に対応します。
毎日のコーディングタスク
日常のタスクに推奨されるテンプレート
| タスク | 推奨モデル | 代替 | なぜ' |
|---|---|---|---|
| インライン補完 | o3-mini / Haiku 4.5 | ジェミニ 2.0 フラッシュ | 速度優先、完了は瞬時でなければなりません |
| 関数の生成 | GPT-4.1 | ソネット 3.7 | 高品質で適度な速度 |
| ローカルリファクタリング | ソネット 3.7 | GPT-4.1 | パターンとコンテキストをよく理解する |
| テストの生成 | ソネット 3.7 | GPT-4.1 | ウェルエッジケースとテストパターンを含む |
| 簡単なバグ修正 | GPT-4.1 | ジェミニ 3 フラッシュ | 局所的な修正を迅速かつ正確に行う |
スピードとプロトタイピング
スピードとプロトタイピングのためのモデル
| タスク | 推奨モデル | 代替 | なぜ' |
|---|---|---|---|
| 足場プロジェクト | o3-mini | ジェミニ 2.0 フラッシュ | プロジェクト構造を迅速に生成する |
| ラピッドプロトタイプ | ジェミニ 2.0 フラッシュ | o3-mini | 優れたコンテキストを備えた高速なイテレーション |
| コード変換 | 俳句 4.5 | o3-mini | 単純なタスクのための言語間の翻訳 |
| モックデータの生成 | 俳句 4.5 | ジェミニ 2.0 フラッシュ | 機械的な作業、スピードがすべて |
| 定型文 CRUD | o3-mini | 俳句 4.5 | 繰り返しパターン、速度優先 |
複雑な推論
複雑なタスク用のテンプレート
| タスク | 推奨モデル | 代替 | なぜ' |
|---|---|---|---|
| 複雑なデバッグ | 作品4 | GPT-4.5 | 難しい問題に対する深い推論 |
| 建築設計 | GPT-4.5 | 作品4 | 全体的なビジョンと企画力 |
| アルゴリズムの最適化 | 作品4 | ジェミニ 2.5 プロ | 高度な数学的推論 |
| フレームワークの移行 | ジェミニ 2.5 プロ | 作品4 | コードベース全体を理解するための 1M コンテキスト |
| セキュリティ分析 | 作品4 | ソネット 3.7 | 微妙な脆弱性に対する細部への注意 |
コードレビュー
コードレビュー用のテンプレート
| タスク | 推奨モデル | 代替 | なぜ' |
|---|---|---|---|
| 小規模な PR レビュー | ソネット 3.7 | GPT-4.1 | レビューに最適な品質とスピードのバランスが優れています |
| 素晴らしい PR レビュー | 作品4 | ジェミニ 2.5 プロ | 幅広い文脈と深い推論 |
| セキュリティレビュー | 作品4 | ソネット 3.7 | 危険なパターンに最大限の注意を払う |
| パフォーマンスレビュー | GPT-4.5 | 作品4 | Big-O と最適化についての十分な理解 |
| スタイルレビュー | ソネット 3.7 | GPT-4.1 | 慣例をよく理解し、改善を提案する |
ドキュメント
ドキュメント用のテンプレート
| タスク | 推奨モデル | 代替 | なぜ' |
|---|---|---|---|
| JSDoc/TSDoc | GPT-4.1 | ソネット 3.7 | 構造化された正確なドキュメントを生成する |
| 完全な README | ソネット 3.7 | GPT-4.1 | 適切に構造化された読みやすいテキストを生成します |
| APIドキュメント | GPT-4.1 | ジェミニ 3 プロ | OpenAPI と REST 形式をよく理解します |
| ADR (アーキテクチャ決定記録) | 作品4 | GPT-4.5 | トレードオフと代替案の詳細な分析 |
| チュートリアル/ガイド | ソネット 3.7 | GPT-4.1 | 明確、教訓的、よく整理されている |
プレミアム リクエスト: コストについての理解
Copilot のマルチモデル アーキテクチャでは、次の概念が導入されています。 プレミアム リクエスト: 一部のインタラクションは追加のリソースを消費し、カウントされます ユーザーの月々の予算とは別に。このシステムを理解することが不可欠です 使用量を効果的に管理します。
プレミアムリクエストとしてカウントされるもの
Copilot とのすべての対話が計算コストの点で同じように作成されるわけではありません。 プレミアム リクエストは、リクエストしたフラッグシップ モデルの使用に対応します 応答を生成するためのリソースが増えます。
リクエストの分類
| タイプ | モデル | 料金 |
|---|---|---|
| 標準 | GPT-4.1、o3-mini、Haiku 4.5、Sonnet 3.7、Gemini 2.0 フラッシュ、Gemini 3 フラッシュ | プレミアムとしてカウントされません |
| プレミアム | GPT-4.5、オーパス 4、ジェミニ 3 プロ、ジェミニ 2.5 プロ | インタラクションごとに 1 つのプレミアム リクエスト |
計画ごとの割り当て
各 Copilot プランには、異なる数の月間プレミアム リクエストが含まれます。一度 予算がなくなったら、ユーザーは標準モデルのみを使い続けることができます または、追加のプレミアム リクエストを購入します。
プレミアムプランのリクエスト
| Piano | プレミアムリクエスト/月 | 価格 | 追加リクエストの費用 |
|---|---|---|---|
| 無料 | 50 | $0 | 利用不可 |
| プロ | 300 | $10/月 | 利用できません (Pro+ にアップグレード) |
| プロ+ | 1,500 | $39/月 | プランに含まれるもの |
| 仕事 | ユーザーあたり 300 | ユーザーあたり月額 19 ドル | リクエストあたり 0.04 ドル |
| 企業 | ユーザーあたり 1,000 | ユーザーあたり月額 39 ドル | リクエストあたり 0.04 ドル |
プレミアムリクエスト管理戦略
品質を犠牲にすることなくプレミアムリクエストの使用を最適化するため」 仕事の場合は、次の戦略に従ってください。
ストアプレミアムの対象
- 本番環境で重要な問題をデバッグする
- 重要なアーキテクチャ分析
- PRコードの重要なレビュー
- 新しい複雑な機能の設計
- コードセキュリティ分析
- パフォーマンスの最適化
- レガシーシステムのリファクタリング
標準を使用する対象
- 書き込み中のインライン補完
- ボイラープレートと CRUD の生成
- 構文に関する簡単な質問
- コメントとJSDocの生成
- コンパイルエラーを修正する
- データ形式間の変換
- 反復的で機械的な作業
SCENARIO: Sviluppo di una nuova feature (endpoint API per reportistica)
FASE 1 - Scaffolding (modello Standard: o3-mini)
"Genera lo scaffolding per un nuovo modulo report:
controller, service, repository, DTO, test file"
>> Costo: 0 premium request
FASE 2 - Implementazione base (modello Standard: GPT-4.1)
"Implementa il service con i metodi:
generateDailyReport, generateWeeklyReport, exportToCsv"
>> Costo: 0 premium request
FASE 3 - Logica complessa (modello Premium: Opus 4)
"Analizza questa query SQL per il report aggregato.
Ci sono 3 join e 2 subquery. Ottimizzala per
gestire 10M+ righe con tempo < 2 secondi"
>> Costo: 1 premium request
FASE 4 - Testing (modello Standard: Sonnet 3.7)
"Genera test unitari per ReportService coprendo
tutti i metodi, edge case e error handling"
>> Costo: 0 premium request
FASE 5 - Code Review (modello Premium: Opus 4)
"Review completa del modulo report: sicurezza,
performance, best practice, potenziali bug"
>> Costo: 1 premium request
TOTALE: 2 premium request per una feature completa
プランごとのモデルの利用可能性
すべてのモデルがすべてのプランで利用できるわけではありません。ここに行列があります 完全な可用性。
可用性マトリックス
| モデル | 無料 | プロ | プロ+ | 仕事 | 企業 |
|---|---|---|---|---|---|
| GPT-4.1 | Si | Si | Si | Si | Si |
| GPT-4.5 | Limitato | Si | Si | Si | Si |
| o3-mini | Si | Si | Si | Si | Si |
| Haiku 4.5 | Si | Si | Si | Si | Si |
| Sonnet 3.7 | Si | Si | Si | Si | Si |
| Opus 4 | Limitato | Si | Si | Si | Si |
| Gemini 2.0 Flash | Si | Si | Si | Si | Si |
| Gemini 3 Flash | Si | Si | Si | Si | Si |
| Gemini 3 Pro | Limitato | Si | Si | Si | Si |
| Gemini 2.5 Pro | Limitato | Si | Si | Si | Si |
"Limitato" significa che il modello e' accessibile ma con un numero ridotto di premium request (50/mese per il piano Free).
capacità' Multimodali
Un aspetto sempre più' importante nella scelta del modello e' il supporto per input multimodali, ovvero la capacità' di analizzare non solo testo e codice ma anche immagini, video e altri formati.
capacità' Multimodali per Modello
| Modello | Testo/Codice | Immagini | Video | Audio |
|---|---|---|---|---|
| GPT-4.1 | Si | Si | No | No |
| GPT-4.5 | Si | Si | No | No |
| o3-mini | Si | No | No | No |
| Haiku 4.5 | Si | Si | No | No |
| Sonnet 3.7 | Si | Si | No | No |
| Opus 4 | Si | Si | No | No |
| Gemini 2.0 Flash | Si | Si | Si | No |
| Gemini 3 Flash | Si | Si | Si | No |
| Gemini 3 Pro | Si | Si | Si | Si |
| Gemini 2.5 Pro | Si | Si | Si | No |
Casi d'Uso Multimodali nel Sviluppo
Le capacità' multimodali aprono scenari interessanti per lo sviluppo software che vanno oltre la tradizionale generazione di codice.
Scenari Multimodali Pratici
| Scenario | Input | Modello Consigliato | Output |
|---|---|---|---|
| Bug da screenshot | Screenshot dell'errore UI | Sonnet 3.7, GPT-4.1 | Identificazione del bug e fix CSS/HTML |
| Implementa da wireframe | Immagine del wireframe | Gemini 3 Pro, GPT-4.1 | Codice HTML/CSS che riproduce il design |
| ダイアグラム分析 | 構造図 | ジェミニ 3 プロ、オーパス 4 | アーキテクチャの分析と提案 |
| ビデオからのデバッグ | バグのスクリーンキャスト | ジェミニ 3 プロ | バグの原因となるステップの特定 |
| UIのアクセシビリティ | ページのスクリーンショット | GPT-4.1、ソネット 3.7 | アクセシビリティとコントラストの問題の分析 |
| 応答性チェック | モバイル + デスクトップのスクリーンショット | ジェミニ 3 フラッシュ、GPT-4.1 | レスポンシブ レイアウトの問題の特定 |
モデル選択のベスト プラクティス
すべてのテンプレートとそのユースケースを分析した後のガイドラインは次のとおりです 一般的には、選択を最適化します。
80-15-5 ルール
モデルの使用を分散するための適切な経験則は次のとおりです。
推奨されるディストリビューション
| パーセンテージ | モデルタイプ | Esempi | タスク |
|---|---|---|---|
| 80% | バランスの取れたスタンダード | GPT-4.1、ソネット 3.7 | 毎日のコーディング、生成、テスト、ドキュメント |
| 15% | 速い | o3-mini、Haiku 4.5、Gemini Flash | 完了、定型文、反復タスク |
| 5% | 強力なプレミアム | オーパス 4、GPT-4.5、ジェミニ プロ | 複雑なデバッグ、アーキテクチャ、批判的なレビュー |
クイック選択ワークフロー
選定フローチャート
- タスクは単純で繰り返しの多いものですか?
- はい→ o3-mini o 俳句 4.5
- このタスクでは多くのファイル (50 以上) を理解する必要がありますか?
- はい→ ジェミニ (コンテキスト 1M) または クロード (200K コンテキスト)
- このタスクには複雑な推論やセキュリティ分析が必要ですか?
- はい→ 作品4 o GPT-4.5
- タスクには画像、ワイヤーフレーム、またはスクリーンショットが含まれますか?
- はい→ GPT-4.1, ソネット 3.7 o ジェミニ 3 プロ
- その他すべてについて:
- → オートモード o GPT-4.1 / ソネット 3.7
実験と比較
見落とされがちな側面の重要性は、 さまざまなものを試してみる モデル 同じプロンプトで。さまざまなモデルがソリューションを生み出すことができる 同じ問題でも質的に異なるため、答えを比較すると、 貴重な洞察につながります。
PROMPT: "Come implementeresti un sistema di rate limiting
per un'API REST con Node.js?"
GPT-4.1: Suggerisce express-rate-limit con Redis store,
implementazione pratica e immediata.
Sonnet 3.7: Analizza prima i diversi algoritmi
(token bucket, sliding window, fixed window),
poi suggerisce sliding window log con Redis.
Opus 4: Produce un'analisi architetturale completa
con distributed rate limiting, grace period,
retry-after headers, e monitoring integration.
Gemini 2.5 Pro: Propone una soluzione con API Gateway
pattern, confronto con soluzioni managed
(Cloudflare, AWS WAF) vs custom.
CONCLUSIONE: Ogni modello porta una prospettiva diversa.
Il "migliore" dipende da cosa ti serve in quel momento.
モデルの進化
AI モデリング エコシステムは急速に進化しています。新しいモデルが発売されました 定期的に既存のものは改善されます。常に最新の情報を入手し続けることが重要です 最新の機能を最大限に活用するための新機能について説明します。
モデル進化の傾向
| 傾向 | 副操縦士への影響 | いつ起こるか |
|---|---|---|
| さらに大きなコンテキスト ウィンドウ | 大規模プロジェクトの理解が深まる | 進行中 (Gemini はすでに 1M に達しています) |
| 強力なモデルの高速化 | 日常業務に使用できるプレミアムテンプレート | 6~12ヶ月 |
| コストの削減 | プランにはさらに多くのプレミアム リクエストが含まれています | 継続的 |
| コーディングの専門化 | 開発専用に最適化されたテンプレート | 進行中 |
| 高度なエージェント機能 | 複数ステップのタスクを自律的に実行するモデル | 進行中 |
| 拡張されたマルチモダリティ | ビデオ、オーディオ、図の分析 | 進行中(双子座リード) |
特定のモデルの IDE 構成
IDE レベルでテンプレートの設定を構成したい場合は、次の方法があります。 VS Code で環境設定を設定します。
{
// Modello predefinito per Copilot Chat
"github.copilot.chat.defaultModel": "auto",
// Modello per inline completion (suggerimenti nel codice)
// Non tutti i modelli supportano inline completion
"github.copilot.advanced": {
"model": "gpt-4.1"
},
// Configurazione per Agent Mode
"github.copilot.chat.agent.defaultModel": "claude-sonnet-3.7",
// Abilitare/disabilitare modelli specifici
"github.copilot.chat.models.enabled": [
"gpt-4.1",
"claude-sonnet-3.7",
"claude-opus-4",
"gemini-2.0-flash"
]
}
設定メモ
- すべてのモデルがインライン補完に利用できるわけではありません (最適化されたサブセットのみ)
- テンプレート設定は、ビジネス/エンタープライズ プランの組織レベルで上書きできます
- 通常、デフォルトとして自動モードをお勧めします。特定のニーズがある場合にのみ手動で選択してください
- 設定内の正確なモデル名は異なる場合があります - 更新されたドキュメントを確認してください
- 一部の機能 (エージェント モードなど) は、特定のモデルでより適切に動作する場合があります
結論
GitHub Copilot のマルチモデル アーキテクチャは大きな利点です 単一モデルに依存するツールと比較して。選択する可能性 特定のタスクごとに最適なモデルを選択するか、自動モードに作業を任せます あなたの選択により、ツールキットに前例のない柔軟性が提供されます。 開発者。
この柔軟性を最大限に活用するための鍵は、 各モデルの強み そしてそれらを自分のタスクに合わせて調整します。 「絶対的に最良の」モデルは存在しません。最良とは、それが生成するモデルです。 あなたが直面している特定のタスクに最適な結果をもたらします。
実際的なアドバイスは次のとおりです。 オートモード デフォルトでは、i を使用します 標準モデル (GPT-4.1、Sonnet 3.7) 日常業務用、 そしてそれらを予約してください プレミアムリクエスト 品質が優れた瞬間のために それは本当に違いを生みます。時間が経つにつれて、自然な直観力が養われます 状況に応じてどのモデルを選択するか。
まとめ:どのモデルを選ぶべきか
| 必要 | 推奨モデル |
|---|---|
| すべてのデフォルト | オートモード |
| バランスの取れた毎日のコーディング | GPT-4.1 またはソネット 3.7 |
| 最高速度 | o3-mini または Haiku 4.5 |
| 最高の品質 | オーパス 4 または GPT-4.5 |
| 巨大なコンテキスト | Gemini 2.5 Pro または Gemini 3 Pro |
| 高度なマルチモーダル | ジェミニ 3 プロ |
| 徹底的なコードレビュー | クロード・ソネット 3.7 または作品 4 |
| 限られた予算 | GPT-4.1 + o3-mini (標準のみ) |
シリーズの進行状況
| # | アイテム | Stato |
|---|---|---|
| 1 | 基礎と考え方 | 完了 |
| 2 | コンセプトと要件 | 完了 |
| 3 | バックエンドのアーキテクチャ | 完了 |
| 4 | フロントエンドの構造 | 完了 |
| 5 | 迅速なエンジニアリング | 完了 |
| 6 | テストと品質」 | 完了 |
| 7 | ドキュメント | 完了 |
| 8 | デプロイとDevOps | 完了 |
| 9 | 進化と維持 | 完了 |
| 10 | コーディングエージェント | 完了 |
| 11 | コードレビュー | 完了 |
| 12 | 副操縦士の編集 | 完了 |
| 13 | GitHub スパーク | 完了 |
| 14 | 空間と記憶 | 完了 |
| 15 | Copilot の AI モデル | あなたはここにいる |
| 16 | カスタマイズ | Prossimo |
| 17 | 企業 | Prossimo |
| 18 | 拡張機能 | Prossimo |
| 19 | セキュリティとコンプライアンス | Prossimo |







