깔끔한 프롬프트보다 지저분한 컨텍스트 덩어리를 주는 게 ChatGPT 성능을 더 높인다
chatgpt is way better when you give it a wall of messy context instead of a clean prompt
TL;DR Highlight
지저분하고 상세한 컨텍스트 덩어리 입력이 정제된 bullet point보다 AI 출력을 훨씬 높은 품질로 개선한다.
Who Should Read
AI를 업무 글쓰기·문서 작성에 활용하는 직장인
Core Mechanics
- 깔끔한 프롬프트보다 messy하고 풍부한 컨텍스트가 더 좋은 결과를 냄
- 팀 업데이트 등 반복 업무에서 뇌에서 나오는 그대로를 dump하면 generic 출력이 사라짐
- 음성 받아쓰기(dictation)가 특히 효과적
Evidence
- 깔끔한 bullet point보다 messy한 컨텍스트가 더 좋은 AI 출력을 냄
- 팀 업데이트 등 반복 업무에서 뇌에서 나오는 그대로 dump가 효과적
- 음성 받아쓰기(dictation)가 특히 유용하다는 커뮤니티 검증
How to Apply
- 프롬프트를 정제하려 하지 말고 배경·맥락·고민을 모두 쏟아붓기
- 음성으로 상황을 설명하고 그 텍스트를 그대로 사용
Terminology
관련 논문
Claude Code에서 HTML을 출력 포맷으로 쓰는 이유: Markdown보다 나은 점들
Claude Code 팀이 Markdown 대신 HTML을 LLM 출력 포맷으로 선호하기 시작한 이유와 그 실용적 장점을 정리한 글로, AI와 함께 문서/스펙/대시보드를 만드는 워크플로우에 직접적인 영향을 준다.
언제 투표하고 언제 다시 쓸까: Disagreement 기반 Test-Time Scaling 전략 라우팅
모델 출력이 얼마나 일치하는지 보고 쉬운 문제엔 majority voting, 어려운 문제엔 문제 rewriting을 자동으로 선택해 정확도 3~7% 올리고 샘플링 비용도 줄이는 학습 불필요 프레임워크.
Less Is More: Android 앱에 On-Device Small Language Model 통합할 때 실제로 겪는 엔지니어링 문제들
Wordle 게임에 온디바이스 SLM(Gemma 4 E2B, Qwen3 0.6B)을 5일간 붙여보면서 발견한 5가지 실패 유형과 8가지 실용 해결책 정리
확장 가능한 Synthetic Data 생성을 위한 Dynamic Context Evolution
VTS + Semantic Memory + Adaptive Prompt 3가지 메커니즘으로 구성된 프레임워크는 LLM 대량 synthetic data 생성 시 배치 간 중복·반복 현상을 완전히 제거한다.
Karpathy 워크플로우에서 영감받아 사전 컴파일된 Wiki로 세션당 토큰 90%+ 절감
사전에 정리된 코드베이스 Wiki를 활용하면 Claude 세션당 토큰 사용량을 90% 이상 줄인다.
3개월치 AI 생성 코드를 전부 삭제했다. 그리고 배운 것들.
AI로 작성된 코드베이스를 70% 삭제 후 2주 만에 재작성하니 절반 크기로 줄어들면서 완전한 이해 가능성을 확보했다.