Anthropic 공식 문서에서 발견한 Claude의 Hallucination을 크게 줄이는 3가지 Instructions
Found 3 instructions in Anthropic's docs that dramatically reduce Claude's hallucination. Most people don't know they exist.
TL;DR Highlight
Anthropic 공식 문서에서 발굴한 3가지 할루시네이션 감소 시스템 프롬프트 - research-mode 커맨드로 설치 가능
Who Should Read
정확한 정보가 중요한 리서치·업무에 Claude를 활용하는 사용자
Core Mechanics
- Anthropic의 "Reduce Hallucinations" 문서에 숨어있는 3가지 시스템 프롬프트 발견
- 출처 없는 자신감 넘치는 답변을 크게 줄여줌
- GitHub repo(assafkip/research-mode)로 Claude Code 커맨드 설치 가능
Evidence
- Anthropic 공식 "Reduce Hallucinations" 문서에서 3가지 시스템 프롬프트 발굴
- 출처 없는 자신감 넘치는 답변을 크게 줄여주는 효과 검증
- GitHub repo(assafkip/research-mode)로 설치 가능
How to Apply
- github.com/assafkip/research-mode 설치 후 리서치 세션 시작 시 적용
- 매 대화 시작 시 입력하거나 Claude 설정 preferences에 추가
Terminology
HallucinationAI 모델이 사실이 아닌 내용을 마치 사실인 것처럼 자신감 있게 생성하는 현상. 예: 존재하지 않는 논문 인용, 잘못된 API 이름 생성 등.
System PromptClaude나 GPT 같은 LLM에게 대화가 시작되기 전에 역할, 규칙, 행동 방식을 미리 지정해주는 특별한 지시문.
Chain-of-Thought모델에게 최종 답변을 바로 내놓지 말고 단계적으로 생각 과정을 거치도록 유도하는 프롬프트 기법. 정확도를 높이는 데 효과적.