Large Language Model Fine-tuning에서 In-Context Learning 능력 보존하기
Preserving In-Context Learning ability in Large Language Model Fine-tuning
TL;DR Highlight
논문은 파인튜닝으로 저하되는 ICL(In-Context Learning) 능력을 보존하는 기법을 개발하여 파인튜닝 후에도 새로운 task에 대한 few-shot 학습 성능을 유지했다.
Who Should Read
LLM을 특정 도메인에 파인튜닝하면서도 범용 추론 능력을 유지하고 싶은 ML 엔지니어. 파인튜닝 후 few-shot 성능이 떨어지는 문제를 겪고 있는 개발자.
Core Mechanics
- 파인튜닝(fine-tuning)을 하면 ICL(In-Context Learning, 예시 몇 개만 보고 새 task를 푸는 능력)이 손상되는 현상이 실제로 발생함
- ICL 능력은 사전학습(pre-training) 때 형성되는데, 파인튜닝 데이터가 이 패턴을 덮어쓰는 게 주요 원인
- 파인튜닝 데이터에 ICL 형식(few-shot 예시 포함)의 샘플을 혼합하면 ICL 능력 보존에 효과적
- 특정 레이어나 파라미터가 ICL에 더 중요하게 작동하며, 이를 선택적으로 보호하는 전략이 유효
- LoRA(적은 파라미터만 학습하는 기법) 같은 파라미터 효율적 학습법이 full fine-tuning보다 ICL 보존에 유리한 경향
- ICL 보존과 task 성능은 트레이드오프 관계이며, 데이터 혼합 비율 조정이 핵심 튜닝 포인트
Evidence
- ICL 형식 데이터를 혼합했을 때 few-shot 평가 벤치마크에서 full fine-tuning 대비 ICL 성능 유의미하게 회복 (논문 본문 수치 기반)
- LoRA 방식이 full fine-tuning 대비 ICL 벤치마크 점수 하락 폭을 줄이는 효과 확인
- 파인튜닝 후 ICL 성능이 baseline 대비 최대 수십 % 하락하는 문제를 데이터 혼합 전략으로 완화 가능함을 실험으로 검증
How to Apply
- 파인튜닝 데이터셋 구성 시, 타겟 task 데이터 외에 few-shot 예시 형식(질문-예시1-예시2-정답)으로 구성된 샘플을 10~30% 비율로 섞어보면 ICL 능력 보존에 도움이 됨
- full fine-tuning 대신 LoRA나 QLoRA를 쓰는 경우, ICL 성능 하락이 덜하므로 범용 추론이 중요한 서비스라면 파라미터 효율적 방법을 우선 고려
- 파인튜닝 후 few-shot 벤치마크(예: MMLU, BBH)로 ICL 능력을 주기적으로 체크해서, 성능 하락이 감지되면 ICL 형식 데이터 혼합 비율을 높이는 방식으로 대응
Code Example
# 파인튜닝 데이터에 ICL 형식 샘플 혼합 예시 (HuggingFace datasets 기준)
from datasets import concatenate_datasets, load_dataset
# 타겟 task 데이터
task_dataset = load_dataset("your_task_dataset")
# ICL 형식으로 변환하는 함수
def to_icl_format(examples, num_shots=3):
"""
few-shot 예시를 포함한 ICL 형식으로 변환
예: [예시1 Q&A] [예시2 Q&A] [예시3 Q&A] [실제 질문]
"""
icl_samples = []
data = examples # 실제 데이터에 맞게 수정
for i in range(num_shots, len(data)):
shots = data[i-num_shots:i]
shot_text = "\n".join([f"Q: {s['input']}\nA: {s['output']}" for s in shots])
query = f"{shot_text}\nQ: {data[i]['input']}\nA:"
icl_samples.append({"text": query, "label": data[i]['output']})
return icl_samples
# ICL 형식 데이터를 전체의 20% 비율로 혼합
# (실제 구현시 데이터 구조에 맞게 조정 필요)
print("ICL 데이터 혼합 비율: 20% 권장")
print("LoRA rank: 8~16 (full fine-tuning 대신 LoRA 사용 권장)")
# LoRA 설정 예시
from peft import LoraConfig, get_peft_model
lora_config = LoraConfig(
r=16, # rank
lora_alpha=32,
target_modules=["q_proj", "v_proj"],
lora_dropout=0.05,
bias="none",
task_type="CAUSAL_LM"
)
# model = get_peft_model(base_model, lora_config)Terminology
관련 논문
PyTorch Lightning AI 학습 라이브러리에서 Shai-Hulud 테마 악성코드 발견
널리 쓰이는 딥러닝 프레임워크 PyTorch Lightning의 PyPI 패키지 버전 2.6.2와 2.6.3이 공급망 공격으로 침해되어, import 시 자격증명 탈취 악성코드가 실행된다.
Alignment Whack-a-Mole: 파인튜닝이 LLM 내부의 저작권 도서 암기를 활성화한다
안전 정렬(alignment)된 LLM도 파인튜닝을 거치면 억제됐던 저작권 책 내용을 그대로 출력하게 된다는 연구로, LLM의 저작권 침해 위험이 단순히 프롬프트 필터링으로는 해결되지 않음을 보여준다.
MacMind – 1989년 Macintosh의 HyperCard로 구현한 Transformer 신경망
HyperTalk으로 1,216개 파라미터짜리 단일 레이어 Transformer를 Macintosh SE/30에서 학습시켜 현대 LLM의 핵심 수학이 30년 전 하드웨어에서도 동일하게 동작함을 증명했다.
MegaTrain: 단일 GPU로 100B+ 파라미터 LLM을 Full Precision으로 학습하기
MegaTrain은 CPU 메모리를 주 저장소로, GPU를 연산 엔진으로만 활용함으로써 H200 GPU 단 한 장으로 120B 파라미터 모델을 풀 정밀도로 학습할 수 있다.
9M 파라미터짜리 초소형 LLM으로 언어 모델 작동 원리 직접 이해하기
물고기 Guppy를 학습한 870만 파라미터 미니 LLM이 Colab 노트북 하나로 5분 만에 처음부터 구현되어, LLM의 블랙박스 이미지를 완전히 걷어낸다.
Nanocode: $200로 TPU에서 JAX로 구현하는 나만의 Claude Code 학습 라이브러리
이 오픈소스 라이브러리는 Constitutional AI 방식으로 $200 TPU에서 1.3B 파라미터 규모의 coding agent 모델을 처음부터 학습하게 하며 개발자가 AI 학습 파이프라인 전체를 직접 이해하고 실습할 수 있는 환경을 제공한다.