AI(Artificial Intelligence)

제로샷(Zero-shot), 퓨샷(Few-shot), 파인튜닝(Fine-tuning)에 대해 알아보겠습니다.

forward error correction Circle 2026. 1. 8. 08:32
반응형

Ⅰ. 제로샷(Zero-shot), 퓨샷(Few-shot), 파인튜닝(Fine-tuning) 배경

 예전의 AI 모델은 특정 일을 잘하려면 그 일에 맞는 정답 데이터(라벨)를 대량으로 준비해서 다시 학습시키는 방식이 일반적이었습니다. 예를 들어 스팸 메일 분류기를 만들려면, 스팸/정상 메일을 사람이 직접 구분해 라벨링한 큰 데이터셋이 사실상 필수였습니다다. 그런데 GPT-3 같은 거대 사전학습 모델(Foundation Model)이 등장하면서 접근이 바뀌었습니다. 이 모델들은 이미 방대한 텍스트를 미리 학습해 언어에 대한 기본 이해와 일반 지식을 갖춘 상태이기 때문에, 매번 새 작업을 위해 “처음부터 학습”하지 않아도 됩니다. 결과적으로 “설명만 주고 바로 시키기(Zero-shot)”, “예시를 몇 개 보여주고 따라 하게 하기(Few-shot)” 같은 방식이 현실적인 대안으로 자리 잡았습니다.
 새 작업마다 모델을 다시 학습시키는 것은 비용과 시간 부담이 너무 크기 때문에, 학습 없이도(또는 최소한의 예시만으로도) 성능을 끌어내는 방법들이 발전해 왔다.

Ⅱ. 제로샷(Zero-shot), 퓨샷(Few-shot), 파인튜닝(Fine-tuning) 개념과 동작 방식

 ⅰ. Zero-shot Learning (제로샷 러닝)

   1) Zero-shot Learning (제로샷 러닝) 이란?

 제로샷은 예시를 하나도 주지 않고, “무엇을 하라”는 지시문만으로 결과를 얻는 방식입니다. 모델은 사전학습으로 이미 익힌 지식(언어 능력, 일반 상식, 개념 연결)을 바탕으로 지시를 해석하고 답을 추론합니다.

   2) Zero-shot Learning (제로샷 러닝) 동장 방식
 “다음 문장을 영어로 번역해줘” 라고  한다면 예시 없이도 모델이 ‘번역’이라는 작업을 이해하고 결과를 만들 수 있습니다. 즉, 모델이 이미 갖고 있는 기본 역량을 그대로 활용하는, 가장 가볍고 빠른 사용 방식입니다.

 

 ⅱ. Few-shot Learning (퓨샷 러닝)

   1) Few-shot Learning (퓨샷 러닝) 이란?

 아주 적은 수의 예시(보통 1~5개, 넓게는 1~10개)를 입력에 함께 넣어, 모델이 그 문맥을 보고 패턴을 “즉석에서” 따라 하게 하는 방식입니다. 중요한 포인트는 이때도 모델 가중치(파라미터)는 바뀌지 않는다는 점입니다. 대신 프롬프트 안에 예시를 포함시켜, 모델이 문맥 속 규칙을 잡아내도록 유도합니다. 이런 방식을 흔히 In-Context Learning이라고 부릅니다.

   2) Few-shot Learning (퓨샷 러닝) 동작 방식
 “사과: Apple, 바나나: Banana, 포도: ?” 지시한다면  앞의 예시 패턴을 보고 “Grape”를 도출합니다. 제로샷보다 정확도와 형식 안정성이 좋아지기 쉬우면서도, 파인튜닝처럼 무겁게 학습을 돌릴 필요는 없다는 점이 장점입니다.

 

 ⅲ. Fine-tuning (파인 튜닝)

   1) Fine-tuning (파인 튜닝) 이란?
 사전학습된 모델을 기반으로, 특정 목적/도메인 데이터로 추가 학습을 수행해 모델 파라미터 자체를 업데이트하는 방식입니다.
쉽게 말해, “이미 똑똑한 모델의 뇌를 특정 분야에 맞게 다시 조정하는 과정”에 가깝습니다. 전이 학습(Transfer Learning)의 대표적인 형태로 볼 수 있습니다.

   2) Fine-tuning (파인 튜닝) 동장 방식
 의료 전문 챗봇이 필요하다면 의학 논문, 진료 기록 등 해당 분야 데이터를 충분히 모아 추가 학습을 진행합니다. 그 결과 범용 모델보다 더 전문적이고 일관된 답을 하도록 만들 수 있습니다.

Ⅲ. 제로샷(Zero-shot), 퓨샷(Few-shot), 파인튜닝(Fine-tuning) 비교

구분 제로샷
(Zero-Shot)
퓨샷
(Few-Shot)
파인튜닝
(Fine-Tunning)
제공 예시 없음(지시문만) 소수(예: 1~10개) 대량 데이터
모델 가중치 변경 X X O
비용 매우 낮음 낮음 매우 높음
구현 난이도 매우 쉬움 쉬움 어려움
성능 경향 비교적 낮음 중간 가장 높음
(목표 작업에 최신화)
적합한 상황 일반적인 작업, 빠른 실행 형식/정확도 보강이 필요한 경우 전문, 특수 도메인, 높은 일관성이 필요한 경우

Ⅳ. 제로샷(Zero-shot), 퓨샷(Few-shot), 파인튜닝(Fine-tuning) 장·단점

방식 장점 단점
제로샷 (Zero-shot) 예시/학습 데이터 준비 없이 지시문만으로 즉시 사용 가능  정확도·일관성이 상대적으로 낮을 수 있고, 모델이 원래 가진 지식 범위를 벗어나기 어려움
퓨샷 (Few-shot) 소수 예시만 프롬프트에 넣어 정확도와 출력 형식을 개선하기 쉬움(가중치 변경 없이 빠르게 적용)  예시 품질/구성에 성능이 크게 좌우되고, 예시를 길게 넣으면 입력 토큰 비용이 증가할 수 있음
파인튜닝 (Fine-tuning)  특정 도메인에서 높은 정확도·일관성 확보, 매번 긴 예시를 넣지 않아도 되는 운영상의 이점 고품질 데이터·GPU 등 인프라 필요, 학습 비용/시간 큼, 파괴적 망각 위험 존재

Ⅴ. 제로샷(Zero-shot), 퓨샷(Few-shot), 파인튜닝(Fine-tuning) 활용 방안

 세 방식은 서로 대체 관계라기보다, 데이터·비용·정확도 요구 수준에 따라 선택하는 연속적인 옵션에 가깝습니다.
 ⅰ. 빠르고 가볍게 “일단 되게” 쓰고 싶다면 → Zero-shot
 ⅱ. 출력 형식과 정확도를 조금 더 안정화하고 싶다면 → Few-shot
 ⅲ. 특정 분야에서 전문가 수준의 성능이 필요하다면 → Fine-tuning

반응형