Anthropic 공식 문서에서 발견한 Claude의 Hallucination을 크게 줄이는 3가지 Instructions
Found 3 instructions in Anthropic's docs that dramatically reduce Claude's hallucination. Most people don't know they exist.
TL;DR Highlight
Anthropic 공식 문서의 3가지 시스템 프롬프트가 LLM 할루시네이션을 감소시키며 research-mode 커맨드로 설치할 수 있다.
Who Should Read
정확한 정보가 중요한 리서치·업무에 Claude를 활용하는 사용자
Core Mechanics
- Anthropic의 "Reduce Hallucinations" 문서에 숨어있는 3가지 시스템 프롬프트 발견
- 출처 없는 자신감 넘치는 답변을 크게 줄여줌
- GitHub repo(assafkip/research-mode)로 Claude Code 커맨드 설치 가능
Evidence
- Anthropic 공식 "Reduce Hallucinations" 문서에서 3가지 시스템 프롬프트 발굴
- 출처 없는 자신감 넘치는 답변을 크게 줄여주는 효과 검증
- GitHub repo(assafkip/research-mode)로 설치 가능
How to Apply
- github.com/assafkip/research-mode 설치 후 리서치 세션 시작 시 적용
- 매 대화 시작 시 입력하거나 Claude 설정 preferences에 추가
Terminology
관련 논문
Claude Code에서 HTML을 출력 포맷으로 쓰는 이유: Markdown보다 나은 점들
Claude Code 팀이 Markdown 대신 HTML을 LLM 출력 포맷으로 선호하기 시작한 이유와 그 실용적 장점을 정리한 글로, AI와 함께 문서/스펙/대시보드를 만드는 워크플로우에 직접적인 영향을 준다.
언제 투표하고 언제 다시 쓸까: Disagreement 기반 Test-Time Scaling 전략 라우팅
모델 출력이 얼마나 일치하는지 보고 쉬운 문제엔 majority voting, 어려운 문제엔 문제 rewriting을 자동으로 선택해 정확도 3~7% 올리고 샘플링 비용도 줄이는 학습 불필요 프레임워크.
Less Is More: Android 앱에 On-Device Small Language Model 통합할 때 실제로 겪는 엔지니어링 문제들
Wordle 게임에 온디바이스 SLM(Gemma 4 E2B, Qwen3 0.6B)을 5일간 붙여보면서 발견한 5가지 실패 유형과 8가지 실용 해결책 정리
확장 가능한 Synthetic Data 생성을 위한 Dynamic Context Evolution
VTS + Semantic Memory + Adaptive Prompt 3가지 메커니즘으로 구성된 프레임워크는 LLM 대량 synthetic data 생성 시 배치 간 중복·반복 현상을 완전히 제거한다.
Karpathy 워크플로우에서 영감받아 사전 컴파일된 Wiki로 세션당 토큰 90%+ 절감
사전에 정리된 코드베이스 Wiki를 활용하면 Claude 세션당 토큰 사용량을 90% 이상 줄인다.
3개월치 AI 생성 코드를 전부 삭제했다. 그리고 배운 것들.
AI로 작성된 코드베이스를 70% 삭제 후 2주 만에 재작성하니 절반 크기로 줄어들면서 완전한 이해 가능성을 확보했다.