GitHub Copilot의 AI 모델: 선택에 대한 전체 가이드
GitHub Copilot은 다음을 채택했습니다.다중 모델 아키텍처 그것이 나타내는 것 개발 AI 도구가 작동하는 방식에 근본적인 변화가 있습니다. 대신 단일 언어 모델에 의존하기 위해 Copilot은 다양한 언어 모델에 대한 액세스를 제공합니다. 세 가지 주요 AI 제공업체의 모델: 오픈AI, 인류학 e Google. 모델마다 특징이 있는데, 뚜렷한 강점과 한계를 파악하고 특정 작업에 적합한 것을 선택하세요. 결과의 품질과 속도에 큰 차이를 만들 수 있습니다. 일의.
이 시리즈의 15번째 기사에서는 모든 모델을 자세히 살펴보겠습니다. Copilot에서 사용 가능한 기술 특성, 선택 기준, 자동 선택을 위한 자동 모드 시스템, 비용에 미치는 영향 프리미엄 요청 및 각 템플릿을 최대한 활용하기 위한 모범 사례를 확인하세요.
전체 시리즈 개요
| # | Articolo | 집중하다 |
|---|---|---|
| 1 | 기초와 사고방식 | 설정과 사고방식 |
| 2 | 개념 및 요구사항 | 아이디어에서 MVP까지 |
| 3 | 백엔드 아키텍처 | API 및 데이터베이스 |
| 4 | 프런트엔드 구조 | UI 및 구성요소 |
| 5 | 신속한 엔지니어링 | MCP 프롬프트 및 에이전트 |
| 6 | 테스트와 품질' | 단위, 통합, E2E |
| 7 | 선적 서류 비치 | 읽어보기, API 문서, ADR |
| 8 | 배포 및 DevOps | 도커, CI/CD |
| 9 | 진화 | 확장성 및 유지 관리 |
| 10 | 코딩 에이전트 | 자율개발 에이전트 |
| 11 | 코드 검토 | AI 자동심사 |
| 12 | 부조종사 편집 | 다중 파일 편집 |
| 13 | GitHub 스파크 | 자연어 앱 |
| 14 | 공간과 기억 | 정리된 맥락과 기억 |
| 15 | 현재 위치 → AI 모델 | 모델 선택 가이드 |
| 16 | 맞춤화 | 맞춤형 지침 및 지식 |
| 17 | 기업 | 조직을 위한 부조종사 |
| 18 | 확장 | 도구를 사용하여 Copilot 확장 |
| 19 | 안전 | AI 보안 및 규정 준수 |
사용 가능한 모델
GitHub Copilot은 세 가지 주요 제품군의 템플릿에 대한 액세스를 제공합니다. 뚜렷한 강점. 차이점을 이해하는 것이 차이점을 사용하는 첫 번째 단계입니다. 효과적으로.
OpenAI 제품군
OpenAI 모델은 Copilot을 지원하는 최초의 모델이었으며 여전히 선택의 여지가 있습니다. 많은 개발 작업에 적합합니다. 인프라에서 호스팅됩니다. 오픈AI e 마이크로소프트 애저, 고가용성 및 짧은 대기 시간 보장 북미 및 유럽 사용자를 대상으로 합니다.
Copilot의 OpenAI 모델
| 모델 | 속도' | 정도 | 컨텍스트 창 | 다중 모드 | 비용 |
|---|---|---|---|---|---|
| GPT-4.1 | 평균 | 높은 | 128K 토큰 | 이미지 | 기준 |
| GPT-4.5 | 느린 | 매우 높음 | 128K 토큰 | 이미지 | 프리미엄 |
| o3-미니 | 빠른 | 중간-높음 | 128K 토큰 | No | 기준 |
GPT-4.1
GPT-4.1은 Copilot에 있는 OpenAI 제품군의 주력 제품입니다. 그것은 우수한 제공 속도와 품질의 균형, 대부분의 사용자에게 적합합니다. 일상적인 개발 작업의 일부입니다. 그는 구조에 대한 깊은 이해를 갖고 있다. 코드, 프로그래밍 모범 사례 및 주요 규칙 프레임워크.
이전 GPT-4o와 비교하여 GPT-4.1은 다음과 같은 측면에서 상당한 개선을 보여줍니다. 구조화된 코드 생성, 에서 맥락에 대한 이해 긴 그리고 복잡한 지시를 따르는 능력. 그것은 특히 상용구 생성, 스캐폴딩 및 요구 사항 번역에 효과적입니다. 코드에서.
GPT-4.5
GPT-4.5는 OpenAI의 주력 모델을 대표합니다. 능력 우월한 추론 GPT-4.1과 비교. 선택할 수 있는 모델입니다 심층적인 분석, 복잡한 추론 또는 이해가 필요한 작업의 경우 복잡한 시스템의. 답변의 질은 상당히 높지만, 하나의 비용으로 더 높은 대기 시간 그리고 소비 프리미엄 요청.
GPT-4.5는 복잡한 문제 디버깅, 분석과 같은 시나리오에서 탁월합니다. 분산 아키텍처, 사소한 병합 충돌 해결 및 최적화된 알고리즘 생성. 응답 시간과 품질 사이의 균형' 속도보다 정밀도가 더 중요한 작업에 이상적입니다.
o3-미니
o3-mini 모델은 다음을 위해 설계되었습니다. 속도'. 이는 상당히 다른 OpenAI 모델보다 더 빠르며 응답 품질도 뛰어납니다. 복잡한 작업의 경우 GPT-4.1보다 낮으므로 많은 일상적인 시나리오에 적합합니다. 스탠다드 모델로 분류되어 프리미엄 요청을 소모하지 않습니다.
반복적인 작업, 상용구 코드 생성, 완성을 위한 이상적인 선택입니다. 피드백 속도가 최우선인 빠르고 빠른 반복 결과의 완벽함을 위해.
인류가족(클로드)
Anthropic의 Claude 모델은 다음에서 호스팅됩니다. AWS, 인류학 e 구글 클라우드 플랫폼. 그들은 다음과 같이 알려져 있습니다. 심층 분석, 긴 맥락 이해 능력이 탁월함 잘 구조화되고 상세한 응답을 생성합니다.
Copilot의 Claude 모델
| 모델 | 속도' | 정도 | 컨텍스트 창 | 다중 모드 | 비용 |
|---|---|---|---|---|---|
| 클로드 하이쿠 4.5 | 매우 빠름 | 평균 | 200K 토큰 | 이미지 | 기준 |
| 클로드 소네트 3.7 | 평균 | 높은 | 200K 토큰 | 이미지 | 기준 |
| 클로드 오푸스 4 | 느린 | 매우 높음 | 200K 토큰 | 이미지 | 프리미엄 |
클로드 하이쿠 4.5
하이쿠 4.5가 모델입니다 더 빠르게 클로드 가문이 디자인한 일상적인 작업에 적합한 품질을 유지하면서 신속하게 대응합니다. 200K 토큰 컨텍스트 창은 다음과 같은 경우에 특히 유용합니다. 많은 열린 파일로 작업하거나 코드베이스에서 리포지토리 인덱싱을 사용합니다. 크기가 크다.
빠른 완료, 간단한 코드 질문, 즉각적인 피드백이 우선시되는 기본 테스트 생성 및 작업. 속도와 광범위한 맥락의 결합으로 이상적인 보완이 됩니다. 더 강력하지만 느린 모델.
클로드 소네트 3.7
소네트 3.7은 균형 잡힌 모델 클로드 가문의 전반적인 품질면에서 개발자들이 가장 높이 평가하는 모델 중 하나입니다. 답변 중. 우수한 응답 속도와 분석 기술을 결합합니다. 고급이므로 다양한 작업에 적합합니다.
특히 다음과 같은 면에서 강합니다. 코드 검토, 버그 분석 중 특정 패턴을 따르는 코드 생성과 상세한 기술 문서 제작. 그의 이해능력 광범위한 컨텍스트로 인해 대규모 코드베이스 작업에 효과적입니다. 파일 간의 관계가 중요한 곳.
클로드 오푸스 4
Opus 4는 Anthropic의 주력 모델입니다. 추론 능력 카테고리 상단에. 가장 복잡한 작업을 위해 선택하는 모델입니다. 도전자: 심층적인 아키텍처 분석, 시스템 문제 디버깅, 디자인 모호한 요구사항과 레거시 시스템의 리팩토링을 위한 솔루션을 제공합니다.
고급 추론과 200K 토큰 컨텍스트 창의 조합 Copilot에서 사용할 수 있는 템플릿 파노라마에서 고유하게 만듭니다. 비용은 하나 모든 상호작용에 대한 프리미엄 요청이므로 전략적으로 사용해야 합니다. 우수한 품질이 소비를 정당화하는 작업.
Google 가족(제미니)
Google의 Gemini 모델은 다음에서 호스팅됩니다. 구글 클라우드 플랫폼 특히 해당 분야에서 차별화된 역량을 발휘합니다. 다중 모드 매우 큰 컨텍스트 창을 처리하는 경우에도 마찬가지입니다.
Copilot의 쌍둥이자리 모델
| 모델 | 속도' | 정도 | 컨텍스트 창 | 다중 모드 | 비용 |
|---|---|---|---|---|---|
| 제미니 2.0 플래시 | 매우 빠름 | 평균 | 100만 토큰 | 이미지, 비디오 | 기준 |
| 제미니 3 플래시 | 빠른 | 중간-높음 | 100만 토큰 | 이미지, 비디오 | 기준 |
| 제미니 3 프로 | 평균 | 높은 | 100만 토큰 | 이미지, 비디오, 오디오 | 프리미엄 |
| 제미니 2.5 프로 | 중간-느림 | 높은 | 100만 토큰 | 이미지, 비디오 | 프리미엄 |
제미니 2.0 플래시
Flash 2.0은 Gemini 제품군 중 가장 빠른 모델로, 다음에 최적화되어 있습니다. 좋은 수준의 품질로 빠른 응답'을 제공합니다. 그 독특한 특징 거기 있어요 100만 토큰 컨텍스트 창, 엄청나게 Copilot에서 사용할 수 있는 다른 모델보다 높습니다. 이것이다 매우 큰 저장소로 작업하거나 다음과 같은 경우에 특히 적합합니다. 컨텍스트에 많은 파일을 포함해야 합니다.
Gemini 3 플래시 및 Gemini 3 Pro
3세대 Gemini는 속도 측면에서 상당한 개선을 가져왔습니다. 품질보다. 제미니 3 플래시 우수한 품질을 제공합니다. 빠른 모델, 반면 제미니 3 프로 톱모델과 경쟁 OpenAI와 Anthropic의 정확성과 추론 능력.
Gemini 3 Pro는 뛰어난 용량을 제공합니다. 고급 다중 모드: 이미지뿐만 아니라 비디오, 오디오까지 분석할 수 있어 버그 스크린캐스트 분석, 다이어그램 이해와 같은 시나리오 복잡한 건축 프로젝트 및 기술 회의 녹음.
제미니 2.5 프로
Gemini 2.5 Pro는 다음과 같은 모델입니다. 뛰어난 추론 능력 그리고 코딩, GPT-4.5 및 Claude Opus 4의 대안으로 자리 잡았습니다. La 고품질'과 1M 토큰 컨텍스트 창의 조합으로 특히 폭넓은 이해가 필요한 분석에 적합합니다. 동시에 코드의 양.
전체 비교표
더 쉽게 선택할 수 있도록 사용 가능한 모든 모델을 직접 비교해 보겠습니다. 소프트웨어 개발에 가장 관련성이 높은 매개변수에 대해 설명합니다.
완전한 모델 비교
| 모델 | 공급자 | 속도' | 품질' 코드 | 추리 | 문맥 | 비용 |
|---|---|---|---|---|---|---|
| GPT-4.1 | 오픈AI | 평균 | 높은 | 높은 | 128K | 기준 |
| GPT-4.5 | 오픈AI | 느린 | 매우 높음 | 매우 키가 크다 | 128K | 프리미엄 |
| o3-미니 | 오픈AI | 빠른 | 중간-높음 | 중간-높음 | 128K | 기준 |
| 하이쿠 4.5 | 인류학 | 매우 빠름 | 평균 | 중간 | 200K | 기준 |
| 소네트 3.7 | 인류학 | 평균 | 높은 | 높은 | 200K | 기준 |
| 작품 4 | 인류학 | 느린 | 매우 높음 | 매우 키가 크다 | 200K | 프리미엄 |
| 제미니 2.0 플래시 | 매우 빠름 | 평균 | 중간 | 1M | 기준 | |
| 제미니 3 플래시 | 빠른 | 중간-높음 | 중간-높음 | 1M | 기준 | |
| 제미니 3 프로 | 평균 | 높은 | 높은 | 1M | 프리미엄 | |
| 제미니 2.5 프로 | 중간-느림 | 높은 | 높은 | 1M | 프리미엄 |
자동 모드: 자동 모델 선택
자동 모드 Copilot의 기본 모드입니다. 가장 적합한 모델을 자동으로 선택합니다. 유형에 따라 필요한 작업의 수입니다. 사용할 템플릿을 수동으로 선택하는 대신 각 상호 작용에 대해 자동 모드는 요청을 분석하고 어떤 모델을 결정합니다. 최고의 결과를 선사하겠습니다.
자동 모드 작동 방식
자동 선택 시스템은 여러 요소를 평가하여 최적의 모델:
자동 모드 선택 요소
| 요인 | 설명 | 선택에 미치는 영향 |
|---|---|---|
| 작업의 복잡성 | 요청이 얼마나 복잡한가요? | 간단한 작업 → 빠른 템플릿; 복잡한 작업 → 강력한 모델 |
| 작업 유형 | 완성, 생성, 분석, 디버깅 | 다양한 모델이 다양한 작업에 탁월합니다. |
| 컨텍스트 크기 | 관련된 파일과 토큰 수 | 큰 컨텍스트 → 큰 창이 있는 모델 |
| 필요한 속도 | 사용자가 적극적으로 입력하는 경우 | 인라인 완성 → 빠른 템플릿 |
| 예산 프리미엄 요청 | 남은 프리미엄 요청 수 | 저예산 → 표준형 선호 |
| 이전 이력 | 유사한 작업에 어떤 모델이 잘 작동했는지 | 긍정적인 실적을 가진 모델을 선호합니다. |
자동 모드를 사용하는 경우
대부분의 시나리오에서는 자동 모드가 권장됩니다. 주요 장점은 다음과 같습니다.
- 결정이 필요하지 않습니다. 모델을 선택하는 데 시간을 낭비할 필요가 없습니다.
- 비용 최적화: 시스템은 프리미엄 요청의 품질과 소비 사이의 균형을 유지합니다.
- 동적 적응: 요청이 복잡해지면 모델이 변경될 수 있습니다.
- 통합된 모범 사례: Il sistema di selezione incorpora le best practice di GitHub
Quando Auto Mode Potrebbe Non Essere Ideale
Ci sono scenari dove la selezione manuale può' dare risultati migliori:
- Task dove sai che un modello specifico eccelle (es. Claude per code review)
- Quando vuoi garantire consistenza nella qualità' delle risposte attraverso più' sessioni
- Per task critici dove vuoi sempre il modello più' potente disponibile
- Quando lavori con contesti molto grandi (1M+ token) e vuoi forzare l'uso di Gemini
- Per sperimentare e confrontare le risposte di modelli diversi sullo stesso prompt
Selezione Manuale del Modello
Negli IDE supportati (VS Code, JetBrains, Visual Studio), puoi selezionare manualmente il modello da utilizzare per ogni conversazione. La selezione avviene tramite un menu dropdown nella finestra di Copilot Chat.
Dove Selezionare il Modello
Selezione Modello per IDE
| IDE | Come Selezionare | Dove |
|---|---|---|
| VS Code | Dropdown nell'header di Copilot Chat | Pannello laterale o finestra inline |
| JetBrains | Dropdown nell'header di Copilot Chat | Pannello tool window |
| Visual Studio | Dropdown nell'header di Copilot Chat | Pannello Copilot |
| GitHub.com | Selector nel pannello Copilot Chat | Sidebar o pagina dedicata |
| GitHub Mobile | Selector prima di iniziare la chat | Schermata iniziale chat |
| CLI (gh copilot) | Flag --model nella riga di comando | Terminale |
Quando la Selezione Manuale e' Migliore
La selezione manuale e' particolarmente utile in questi scenari:
Scenari per Modelli Veloci
- Completamenti inline durante la scrittura
- Domande rapide sulla sintassi
- Generazione di boilerplate ripetitivo
- Rinominazione di variabili su più' file
- Conversione di formato (JSON → YAML, ecc.)
- Generazione di commenti per codice esistente
- Correzione di errori di sintassi
Scenari per Modelli Potenti
- Debug di problemi intermittenti
- Progettazione di architetture complesse
- Refactoring di sistemi legacy
- Analisi di sicurezza del codice
- 알고리즘 최적화
- 복잡한 병합 충돌 해결
- 엣지 케이스에 대한 테스트 생성
사용 사례 권장 사항
각 모델의 특성에 따른 권장 사항은 다음과 같습니다. 소프트웨어 개발에서 가장 일반적인 사용 사례입니다.
일일 코딩 작업
일일 작업에 권장되는 템플릿
| 작업 | 추천 모델 | 대안 | 왜' |
|---|---|---|---|
| 인라인 완성 | o3-mini / 하이쿠 4.5 | 제미니 2.0 플래시 | 속도 우선, 완료는 즉각적이어야 한다 |
| 함수 생성 | GPT-4.1 | 소네트 3.7 | 합리적인 속도로 좋은 품질 |
| 로컬 리팩토링 | 소네트 3.7 | GPT-4.1 | 패턴과 맥락을 잘 이해함 |
| 테스트 생성 | 소네트 3.7 | GPT-4.1 | 웰 엣지 케이스 및 테스트 패턴 포함 |
| 간단한 버그 수정 | GPT-4.1 | 제미니 3 플래시 | 현지화된 수정을 위해 빠르고 정확함 |
속도와 프로토타이핑
속도와 프로토타이핑을 위한 모델
| 작업 | 추천 모델 | 대안 | 왜' |
|---|---|---|---|
| 비계 프로젝트 | o3-미니 | 제미니 2.0 플래시 | 프로젝트 구조를 빠르게 생성 |
| 신속한 프로토타입 | 제미니 2.0 플래시 | o3-미니 | 빠른 반복을 위한 좋은 컨텍스트로 빠르게 |
| 코드 변환 | 하이쿠 4.5 | o3-미니 | 간단한 작업을 위한 언어 간 번역 |
| 모의 데이터 생성 | 하이쿠 4.5 | 제미니 2.0 플래시 | 기계적 작업, 속도가 전부입니다 |
| 상용구 CRUD | o3-미니 | 하이쿠 4.5 | 반복적인 패턴, 속도 우선 |
복잡한 추론
복잡한 작업을 위한 템플릿
| 작업 | 추천 모델 | 대안 | 왜' |
|---|---|---|---|
| 복잡한 디버깅 | 작품 4 | GPT-4.5 | 까다로운 문제에 대한 깊은 추론 |
| 건축 디자인 | GPT-4.5 | 작품 4 | 전반적인 비전 및 기획력 |
| 알고리즘 최적화 | 작품 4 | 제미니 2.5 프로 | 더 높은 수학적 추론 |
| 프레임워크 마이그레이션 | 제미니 2.5 프로 | 작품 4 | 전체 코드베이스를 이해하기 위한 1M 컨텍스트 |
| 보안 분석 | 작품 4 | 소네트 3.7 | 미묘한 취약점에 대한 세부 사항에 주의 |
코드 검토
코드 검토를 위한 템플릿
| 작업 | 추천 모델 | 대안 | 왜' |
|---|---|---|---|
| 소규모 PR 리뷰 | 소네트 3.7 | GPT-4.1 | 검토를 위한 탁월한 품질/속도 균형 |
| 훌륭한 PR 리뷰 | 작품 4 | 제미니 2.5 프로 | 광범위한 맥락과 깊은 추론 |
| 보안 검토 | 작품 4 | 소네트 3.7 | 위험한 패턴에 최대한 주의 |
| 성과 검토 | GPT-4.5 | 작품 4 | big-O 및 최적화에 대한 좋은 이해 |
| 스타일 리뷰 | 소네트 3.7 | GPT-4.1 | 규칙을 잘 이해하고 개선 사항을 제안합니다. |
선적 서류 비치
문서화용 템플릿
| 작업 | 추천 모델 | 대안 | 왜' |
|---|---|---|---|
| JSDoc/TSDoc | GPT-4.1 | 소네트 3.7 | 체계적이고 정확한 문서 생성 |
| 전체 읽어보기 | 소네트 3.7 | GPT-4.1 | 잘 구조화되고 읽기 쉬운 텍스트를 생성합니다. |
| API 문서 | GPT-4.1 | 제미니 3 프로 | OpenAPI 및 REST 형식을 잘 이해합니다. |
| ADR(아키텍처 결정 기록) | 작품 4 | GPT-4.5 | 장단점과 대안에 대한 심층 분석 |
| 튜토리얼/가이드 | 소네트 3.7 | GPT-4.1 | 명확하고 교훈적이며 잘 정리되어 있음 |
프리미엄 요청: 비용 이해
Copilot의 다중 모델 아키텍처는 다음과 같은 개념을 도입합니다. 프리미엄 요청: 일부 상호 작용은 추가 리소스를 소비하며 계산됩니다. 사용자의 월예산과 별도로. 이 시스템을 이해하는 것이 필수적입니다. 효과적으로 사용량을 관리할 수 있습니다.
프리미엄 요청으로 간주되는 것
Copilot과의 모든 상호 작용이 계산 비용 측면에서 동일하게 생성되는 것은 아닙니다. 프리미엄 요청은 요청한 플래그십 모델의 사용에 해당합니다. 응답을 생성하는 데 더 많은 리소스가 필요합니다.
요청 분류
| 유형 | 모델 | 비용 |
|---|---|---|
| 기준 | GPT-4.1, o3-mini, Haiku 4.5, Sonnet 3.7, Gemini 2.0 플래시, Gemini 3 플래시 | 프리미엄으로 계산되지 않습니다. |
| 프리미엄 | GPT-4.5, Opus 4, Gemini 3 Pro, Gemini 2.5 Pro | 상호작용당 프리미엄 요청 1개 |
계획에 따른 할당
각 Copilot 플랜에는 다양한 월별 프리미엄 요청 수가 포함됩니다. 한 번 예산이 소진되면 사용자는 표준 모델만 계속 사용할 수 있습니다. 또는 추가 프리미엄 요청을 구매하세요.
프리미엄 플랜 요청
| 바닥 | 프리미엄 요청/월 | 가격 | 추가 요청 비용 |
|---|---|---|---|
| 무료 | 50 | $0 | 사용할 수 없음 |
| 찬성 | 300 | $10/월 | 사용할 수 없음(Pro+로 업그레이드) |
| 프로+ | 1,500 | $39/월 | 계획에 포함됨 |
| 사업 | 사용자당 300 | $19/사용자/월 | 요청당 $0.04 |
| 기업 | 사용자당 1,000 | $39/사용자/월 | 요청당 $0.04 |
프리미엄 요청 관리 전략
품질을 저하시키지 않고 프리미엄 요청의 사용을 최적화하기 위해' 업무를 수행하려면 다음 전략을 따르세요.
프리미엄 스토어
- 프로덕션의 중요한 문제 디버그
- 중요한 아키텍처 분석
- 중요한 PR 코드 검토
- 새로운 복잡한 기능 설계
- 코드 보안 분석
- 성능 최적화
- 레거시 시스템 리팩토링
다음에 대한 표준 사용
- 작성 중 인라인 완성
- 상용구 및 CRUD 생성
- 빠른 구문 질문
- 주석 생성 및 JSDoc
- 컴파일 오류 수정
- 데이터 형식 간 변환
- 반복적이고 기계적인 작업
SCENARIO: Sviluppo di una nuova feature (endpoint API per reportistica)
FASE 1 - Scaffolding (modello Standard: o3-mini)
"Genera lo scaffolding per un nuovo modulo report:
controller, service, repository, DTO, test file"
>> Costo: 0 premium request
FASE 2 - Implementazione base (modello Standard: GPT-4.1)
"Implementa il service con i metodi:
generateDailyReport, generateWeeklyReport, exportToCsv"
>> Costo: 0 premium request
FASE 3 - Logica complessa (modello Premium: Opus 4)
"Analizza questa query SQL per il report aggregato.
Ci sono 3 join e 2 subquery. Ottimizzala per
gestire 10M+ righe con tempo < 2 secondi"
>> Costo: 1 premium request
FASE 4 - Testing (modello Standard: Sonnet 3.7)
"Genera test unitari per ReportService coprendo
tutti i metodi, edge case e error handling"
>> Costo: 0 premium request
FASE 5 - Code Review (modello Premium: Opus 4)
"Review completa del modulo report: sicurezza,
performance, best practice, potenziali bug"
>> Costo: 1 premium request
TOTALE: 2 premium request per una feature completa
계획별 모델 가용성
모든 계획에서 모든 모델을 사용할 수 있는 것은 아닙니다. 다음은 행렬입니다. 완전한 가용성.
가용성 매트릭스
| 모델 | 무료 | 찬성 | 프로+ | 사업 | 기업 |
|---|---|---|---|---|---|
| GPT-4.1 | Si | Si | Si | Si | Si |
| GPT-4.5 | 제한된 | Si | Si | Si | Si |
| o3-미니 | Si | Si | Si | Si | Si |
| 하이쿠 4.5 | Si | Si | Si | Si | Si |
| 소네트 3.7 | Si | Si | Si | Si | Si |
| 작품 4 | 제한된 | Si | Si | Si | Si |
| 제미니 2.0 플래시 | Si | Si | Si | Si | Si |
| 제미니 3 플래시 | Si | Si | Si | Si | Si |
| 제미니 3 프로 | 제한된 | Si | Si | Si | Si |
| 제미니 2.5 프로 | 제한된 | Si | Si | Si | Si |
"제한됨"은 모델에 액세스할 수 있지만 프리미엄 요청 수가 감소했음을 의미합니다(무료 플랜의 경우 월 50개).
다중 모드 기능
모델을 선택할 때 점점 더 중요한 측면은 다음에 대한 지원입니다. 입력 다중 모드, 또는 오히려 분석 능력뿐만 아니라 텍스트와 코드뿐만 아니라 이미지, 비디오 및 기타 형식도 가능합니다.
모델별 다중 모드 기능
| 모델 | 텍스트/코드 | 이미지 | 동영상 | 오디오 |
|---|---|---|---|---|
| GPT-4.1 | Si | Si | No | No |
| GPT-4.5 | Si | Si | No | No |
| o3-미니 | Si | No | No | No |
| 하이쿠 4.5 | Si | Si | No | No |
| 소네트 3.7 | Si | Si | No | No |
| 작품 4 | Si | Si | No | No |
| 제미니 2.0 플래시 | Si | Si | Si | No |
| 제미니 3 플래시 | Si | Si | Si | No |
| 제미니 3 프로 | Si | Si | Si | Si |
| 제미니 2.5 프로 | Si | Si | Si | No |
개발 중인 다중 모드 사용 사례
다중 모드 기능은 소프트웨어 개발을 위한 흥미로운 시나리오를 열어줍니다. 이는 전통적인 코드 생성을 뛰어넘는 것입니다.
실용적인 다중 모드 시나리오
| 대본 | 입력 | 추천 모델 | 출력 |
|---|---|---|---|
| 스크린샷 버그 | UI 오류 스크린샷 | 소네트 3.7, GPT-4.1 | 버그 식별 및 CSS/HTML 수정 |
| 와이어프레임에서 구현 | 와이어프레임 이미지 | 제미니 3 프로, GPT-4.1 | 디자인을 재현하는 HTML/CSS 코드 |
| 다이어그램 분석 | 아키텍처 다이어그램 | 제미니 3 프로, Opus 4 | 아키텍처 분석 및 제안 |
| 비디오에서 디버깅 | 버그의 스크린캐스트 | 제미니 3 프로 | 버그를 일으키는 단계 식별 |
| UI 접근성 | 페이지 스크린샷 | GPT-4.1, 소네트 3.7 | 접근성 및 대비 문제 분석 |
| 반응형 검사 | 모바일 + 데스크톱 스크린샷 | Gemini 3 플래시, GPT-4.1 | 반응형 레이아웃 문제 식별 |
모델 선택 모범 사례
모든 템플릿과 사용 사례를 분석한 후 지침은 다음과 같습니다. 선택을 최적화하기 위해 일반적으로 사용됩니다.
80-15-5 규칙
모델 사용 분산에 대한 좋은 경험 법칙은 다음과 같습니다.
권장 배포판
| 백분율 | 모델 유형 | Esempi | 작업 |
|---|---|---|---|
| 80% | 균형 잡힌 표준 | GPT-4.1, 소네트 3.7 | 일일 코딩, 생성, 테스트, 문서 |
| 15% | 빠른 | o3-mini, Haiku 4.5, Gemini 플래시 | 완료, 상용구, 반복 작업 |
| 5% | 강력한 프리미엄 | Opus 4, GPT-4.5, 제미니 프로 | 복잡한 디버깅, 아키텍처, 비판적 검토 |
빠른 선택 작업 흐름
선택 흐름도
- 업무가 단순하고 반복적인가?
- 예 → o3-미니 o 하이쿠 4.5
- 작업을 수행하려면 많은 파일(50개 이상)을 이해해야 합니까?
- 예 → 쌍둥이자리 (컨텍스트 1M) 또는 클로드 (200K 컨텍스트)
- 작업에 복잡한 추론이나 보안 분석이 필요한가요?
- 예 → 작품 4 o GPT-4.5
- 작업에 이미지, 와이어프레임 또는 스크린샷이 포함됩니까?
- 예 → GPT-4.1, 소네트 3.7 o 제미니 3 프로
- 그 밖의 모든 경우:
- → 자동 모드 o GPT-4.1 / 소네트 3.7
실험 및 비교
흔히 간과되는 측면은 다양한 실험을 해보세요 모델 같은 프롬프트에서. 다양한 모델이 솔루션을 생성할 수 있음 동일한 문제에 대해 질적으로 다르므로 답변을 비교할 수 있습니다. 귀중한 통찰력으로 이어집니다.
PROMPT: "Come implementeresti un sistema di rate limiting
per un'API REST con Node.js?"
GPT-4.1: Suggerisce express-rate-limit con Redis store,
implementazione pratica e immediata.
Sonnet 3.7: Analizza prima i diversi algoritmi
(token bucket, sliding window, fixed window),
poi suggerisce sliding window log con Redis.
Opus 4: Produce un'analisi architetturale completa
con distributed rate limiting, grace period,
retry-after headers, e monitoring integration.
Gemini 2.5 Pro: Propone una soluzione con API Gateway
pattern, confronto con soluzioni managed
(Cloudflare, AWS WAF) vs custom.
CONCLUSIONE: Ogni modello porta una prospettiva diversa.
Il "migliore" dipende da cosa ti serve in quel momento.
모델의 진화
AI 모델링 생태계는 빠르게 진화하고 있습니다. 새로운 모델이 출시되었습니다. 정기적으로 기존 항목이 개선됩니다. 최신 정보를 유지하는 것이 중요합니다 최신 기능을 최대한 활용하려면 새로운 기능에 대해 알아보세요.
모델 진화의 추세
| 경향 | 부조종사에 미치는 영향 | 언제 기대할 것인가 |
|---|---|---|
| 더욱 커진 컨텍스트 창 | 대규모 프로젝트에 대한 이해도 향상 | 진행 중(Gemini는 이미 1M에 있음) |
| 강력한 모델의 속도 증가 | 일상 업무에 사용할 수 있는 프리미엄 템플릿 | 6~12개월 |
| 비용 감소 | 더 많은 프리미엄 요청이 계획에 포함되었습니다. | 마디 없는 |
| 코딩 전문화 | 개발에 특별히 최적화된 템플릿 | 진행중 |
| 고급 에이전트 기능 | 다단계 작업을 자율적으로 수행하는 모델 | 진행중 |
| 확장된 복합성 | 비디오, 오디오, 다이어그램 분석 | 진행 중(쌍둥이 리드) |
특정 모델에 대한 IDE 구성
IDE 수준에서 템플릿 기본 설정을 구성하려는 사용자를 위한 방법은 다음과 같습니다. VS Code에서 기본 설정을 지정합니다.
{
// Modello predefinito per Copilot Chat
"github.copilot.chat.defaultModel": "auto",
// Modello per inline completion (suggerimenti nel codice)
// Non tutti i modelli supportano inline completion
"github.copilot.advanced": {
"model": "gpt-4.1"
},
// Configurazione per Agent Mode
"github.copilot.chat.agent.defaultModel": "claude-sonnet-3.7",
// Abilitare/disabilitare modelli specifici
"github.copilot.chat.models.enabled": [
"gpt-4.1",
"claude-sonnet-3.7",
"claude-opus-4",
"gemini-2.0-flash"
]
}
구성 참고 사항
- 모든 모델을 인라인 완성에 사용할 수 있는 것은 아닙니다(최적화된 하위 집합만 해당).
- 템플릿 설정은 Business/Enterprise 요금제의 조직 수준에서 재정의될 수 있습니다.
- 일반적으로 자동 모드가 기본값으로 권장됩니다. 특정 요구 사항이 있는 경우에만 수동으로 선택하세요.
- 설정의 정확한 모델 이름은 다를 수 있습니다. 업데이트된 문서를 확인하세요.
- 일부 기능(예: 에이전트 모드)은 특정 모델에서 더 잘 작동할 수 있습니다.
결론
GitHub Copilot의 다중 모델 아키텍처는 상당한 이점을 제공합니다. 단일 모델에 의존하는 도구와 비교됩니다. 선택할 가능성 각 특정 작업에 가장 적합한 모델을 선택하거나 자동 모드에서 작업을 수행하도록 하세요. 귀하를 위한 선택은 툴킷에 전례 없는 유연성을 제공합니다. 개발자.
이러한 유연성을 최대한 활용하는 열쇠는 각 모델의 강점 작업에 맞게 조정하세요. "절대적인 최고" 모델은 없습니다. 최고는 자신이 생산하는 모델입니다. 귀하가 직면한 특정 작업에 대한 최적의 결과.
실용적인 조언은 다음과 같습니다. 자동 모드 기본적으로 i를 사용합니다. 표준 모델 (GPT-4.1, Sonnet 3.7) 일상 업무용, 예약하고 프리미엄 요청 품질이 뛰어난 순간을 위해 정말 차이가 납니다. 시간이 지남에 따라 자연스러운 직관력이 발달하게 됩니다. 각 상황에 따라 어떤 모델을 선택할지 결정하세요.
요약: 선택할 모델
| 필요 | 추천 모델 |
|---|---|
| 모든 것에 대한 기본값 | 자동 모드 |
| 균형 잡힌 일일 코딩 | GPT-4.1 또는 Sonnet 3.7 |
| 최대 속도 | o3-mini 또는 Haiku 4.5 |
| 최대 품질 | Opus 4 또는 GPT-4.5 |
| 거대한 맥락 | Gemini 2.5 Pro 또는 Gemini 3 Pro |
| 고급 다중 모드 | 제미니 3 프로 |
| 심층적인 코드 검토 | 클로드 소네트 3.7 또는 Opus 4 |
| 제한된 예산 | GPT-4.1 + o3-mini(표준 전용) |
시리즈 진행
| # | Articolo | 상태 |
|---|---|---|
| 1 | 기초와 사고방식 | 완전한 |
| 2 | 개념 및 요구사항 | 완전한 |
| 3 | 백엔드 아키텍처 | 완전한 |
| 4 | 프런트엔드 구조 | 완전한 |
| 5 | 신속한 엔지니어링 | 완전한 |
| 6 | 테스트와 품질' | 완전한 |
| 7 | 선적 서류 비치 | 완전한 |
| 8 | 배포 및 DevOps | 완전한 |
| 9 | 진화와 유지 | 완전한 |
| 10 | 코딩 에이전트 | 완전한 |
| 11 | 코드 검토 | 완전한 |
| 12 | 부조종사 편집 | 완전한 |
| 13 | GitHub 스파크 | 완전한 |
| 14 | 공간과 기억 | 완전한 |
| 15 | Copilot의 AI 모델 | 당신은 여기에 있습니다 |
| 16 | 맞춤화 | 다음 |
| 17 | 기업 | 다음 |
| 18 | 확장 | 다음 |
| 19 | 보안 및 규정 준수 | 다음 |







