Prompting
Prompting 카테고리 최신 50편.
확장 가능한 Synthetic Data 생성을 위한 Dynamic Context Evolution
VTS + Semantic Memory + Adaptive Prompt 3가지 메커니즘으로 구성된 프레임워크는 LLM 대량 synthetic data 생성 시 배치 간 중복·반복 현상을 완전히 제거한다.
Karpathy 워크플로우에서 영감받아 사전 컴파일된 Wiki로 세션당 토큰 90%+ 절감
사전에 정리된 코드베이스 Wiki를 활용하면 Claude 세션당 토큰 사용량을 90% 이상 줄인다.
3개월치 AI 생성 코드를 전부 삭제했다. 그리고 배운 것들.
AI로 작성된 코드베이스를 70% 삭제 후 2주 만에 재작성하니 절반 크기로 줄어들면서 완전한 이해 가능성을 확보했다.
원시인 말투로 토큰 60% 절약하는 압축 프롬프트 기법
관사·접속사·조동사를 제거한 전보체 스타일은 LLM 응답 토큰을 60% 감소시킨다.
Claude에게 원시인 말투를 가르쳐 output 토큰 75% 절약하기
짧은 문장 강제 프롬프트는 output 토큰을 75% 감소시키지만 실제 비용 절감은 3~4% 수준에 그친다.
ChatGPT로 229lbs에서 176lbs로 감량 성공한 경험 공유
저자가 ChatGPT를 개인 헬스 코치처럼 활용해 수개월 내 과학적 근거 기반의 체중 감량에 성공했다.
짧을수록 좋다: Function-Calling 에이전트에서 Chain-of-Thought 토큰 예산의 비단조적 효과
Function-Calling 에이전트는 CoT를 32토큰으로 제한할 때 최고 성능을 달성하며, 256토큰으로 확장하면 성능이 저하된다.
Peak Image Prompt Engineering: iPhone 6 플래시 기법
프롬프트에 카메라 기종·설정을 명시하면 생성형 AI 이미지 모델이 현실감 높으면서 기묘한 이미지를 생성한다.
Structured Intent를 Protocol-Like 통신 레이어로: Cross-Model 강건성, Framework 비교, 그리고 약한 모델 보상 효과
5W3H 구조의 프롬프트가 약한 모델도 강한 모델 수준으로 끌어올리고 언어 변경에도 일관된 결과를 보장한다.
Universal CLAUDE.md – Claude output token 63% 줄이기
CLAUDE.md 파일 추가로 Claude의 output token을 최대 63% 절감할 수 있다는 주장이 벤치마크 신뢰도 의문으로 커뮤니티에서 실제 효과를 인정받지 못하고 있다.
'hey' 한 마디가 사용량의 22%를 날렸다
Claude에 'hey' 같은 짧은 인사말을 생략하면 전체 토큰 할당량의 상당 부분을 절약할 수 있다.
ReqFusion: 소프트웨어 도메인 전반에서 PEGS 분석을 자동화하는 Multi-Provider 프레임워크
GPT-4, Claude-3, Groq 세 모델을 동시에 실행하여 소프트웨어 요구사항을 자동 추출하면 F1 0.88을 달성하고 분석 시간을 78% 단축한다.
내가 몰랐던 적합한 직업을 찾아주는 ChatGPT 프롬프트 공유
ChatGPT 프롬프트가 경험과 스킬 입력을 받아 사용자가 미처 몰랐던 적합 직군을 발굴함으로써 AI 기반 커리어 탐색을 구현했다.
프롬프트 최적화로 아날로그 회로 배치 전문가 품질 97% 달성 (훈련 데이터 없이)
프롬프트 최적화가 실패→성공 쌍에서 자동 학습하여 도메인 특화 훈련 데이터 없이도 전문가 품질 97%를 달성하고 공간 추론·다목적 최적화에 적용된다.
Claude (Opus 4.5)가 어린 시절 게임을 현대 Windows에서 실행되도록 패치하는 방법을 찾아냈다
Claude가 WING32.dll을 패치하는 방법을 스스로 개발하여 1996년 출시된 16-bit 게임 Tonka Construction을 DOSBox 없이 현대 Windows에서 플레이 가능하게 만들었다.
깔끔한 프롬프트보다 지저분한 컨텍스트 덩어리를 주는 게 ChatGPT 성능을 더 높인다
지저분하고 상세한 컨텍스트 덩어리 입력이 정제된 bullet point보다 AI 출력을 훨씬 높은 품질로 개선한다.
Anthropic 공식 문서에서 발견한 Claude의 Hallucination을 크게 줄이는 3가지 Instructions
Anthropic 공식 문서의 3가지 시스템 프롬프트가 LLM 할루시네이션을 감소시키며 research-mode 커맨드로 설치할 수 있다.
모든 LLM은 기본 말투가 있고, 그게 우리를 다 똑같이 들리게 만든다
Noren은 개인 글쓰기 스타일을 학습하여 LLM 생성 텍스트를 개인화함으로써 모든 LLM이 동일한 기본 문체로 수렴하는 문제를 해결한다.
Cross-domain Mapping이 인간과 LLM 창의성에 미치는 영향 평가
다른 분야에서 영감을 받는 기법이 인간의 창의성은 높이지만 LLM의 창의적 아이디어 생성에는 효과를 주지 못한다.
5W3H 구조화 프롬프팅이 Human-AI 상호작용의 Intent Alignment에 미치는 효과 평가
기자의 5W1H를 확장한 8차원 프롬프트 구조(PPS)는 AI 출력의 사용자 의도 정렬률을 높이며 후속 질문을 66% 감소시킨다.
Get Shit Done: Claude Code를 위한 Meta-Prompting, Context Engineering, Spec-Driven 개발 시스템
경량 spec-driven 개발 자동화 프레임워크가 Claude Code의 context rot 문제를 해결하고, 복잡한 기획 없이 명령 몇 개로 AI가 실제 코드를 생성하도록 오케스트레이션한다.
ChatGPT Pro 피드백을 Claude에 먹이기 시작하면서 생긴 일
Claude의 pushback 강화 설정이 ChatGPT 피드백에 대한 무조건 동의(sycophancy) 문제를 감소시킨다.
모두가 AI로 글을 쓴다면, 실제로 무엇이 사라지는가?
AI 글쓰기는 콘텐츠 품질을 유지하면서도 작성자의 정체성(개인 특유의 목소리와 경험)을 지워버린다.
3D 기하학 정보로 VideoLLM의 카메라 움직임 이해력 향상시키기
프롬프트에 주입된 3D 기하학 모델 기반 카메라 정보가 학습 없이 VideoLLM의 pan/tilt/dolly 카메라 움직임 인식 문제를 해결한다.
Web Vibe Coding에서의 Design Homogenization 문제 분석
LLM 기반 자동 웹사이트 생성(vibe coding)이 대형 언어모델의 학습 편향을 반영하여 인터넷을 서구 중심의 획일적 디자인으로 도배한다.
Latent Color Subspace: FLUX.1의 VAE 잠재 공간에서 발견한 색상 구조
FLUX.1은 잠재 공간의 HSL 색상 구조를 활용하여 추가 학습 없이 생성 이미지의 색상을 직접 제어한다.
Cross-Context Review: Production과 Review 세션을 분리해서 LLM 출력 품질 높이기
LLM이 새 세션에서 자체 생성물을 검수하면 같은 세션 대비 F1이 28.6%p 향상된다.
UtilityMax Prompting: 다중 목표 LLM 최적화를 위한 수학적 프레임워크
프롬프트 목표를 수식으로 정의하면 LLM이 자연어 기반 방식 대비 여러 조건을 동시에 더 정확하게 최적화한다.
Claude로 갈아타도 처음부터 다시 시작 안 해도 됩니다 - Import Memory 기능
Claude의 Import Memory 기능이 ChatGPT 등 다른 AI 서비스의 사용자 맥락과 선호도를 한 번에 옮겨 AI 서비스 간 전환 비용을 낮춘다.
LLM으로 비공식 정치 담론의 Stance Detection 개선: 사용자 컨텍스트 활용
과거 포스트 기반 사용자 프로필을 프롬프트에 포함시켜 정치 성향 분류 정확도를 최대 38.5%p 높임
LLM 지시에서 Pragmatic Framing의 영향력 측정 프레임워크
프롬프트의 8단어짜리 긴박성 표현이 LLM의 지시 준수 행동을 변화시키는 영향을 체계적으로 측정하는 방법론을 개발했다.
LLM 프롬프트 최적화: Causal Inference 접근법
자동 프롬프트 최적화 프레임워크가 프롬프트 효과와 쿼리 난이도를 인과적으로 분리하여 어려운 쿼리일수록 더 잘 작동한다.
LLM으로 텍스트 구간(Span) 레이블링하는 전략 비교와 LOGITMATCH
LOGITMATCH 기법이 LLM 기반 텍스트 구간 레이블링(NER·문법 오류 탐지)에서 XML 태깅·JSON 매칭 중 최적 방식을 제시하며 매칭 오류를 근본적으로 제거한다.
LLM-as-RNN: 자연어 메모리로 순차 예측을 개선하는 Recurrent 추론 프레임워크
자연어 메모리 업데이트 기법이 파라미터 수정 없이 LLM을 RNN처럼 동작하도록 하여 장기 시퀀스 예측 정확도를 높인다.
Chain-of-Thought을 넘어서: LLM 내부의 잠재적 추론 Computational Mode
모델 내부의 단 하나의 latent feature 조작이 CoT 프롬프트 없이도 추론 성능을 CoT 수준으로 끌어올린다.
LLM 기반 접근성 인터페이스: Model-Based 접근법
UserProfile, 선언적 규칙, LLM을 조합한 아키텍처가 WCAG 준수 접근성 UI를 자동으로 생성한다.
구조적 추론을 통한 LLM의 Prompt-Induced Hallucination 완화
Knowledge Graph 탐색 코드를 Chain-of-Thought 프롬프트에 직접 통합하여 GPT-4/LLaMA 3.3의 환각을 HIT@1 기준 15%p 이상 감소시킨다.
모바일 개발을 위한 LLM 선택 프레임워크: Test-Driven Prompt Engineering의 Android/iOS 적용
LLM 코드 생성 모델의 Python 편향을 Android(Java)/iOS(Swift)로 확장하여 각 플랫폼별 최적 모델 선택 기준을 결정 트리로 정리했다.
쿼리별 Prompt Routing: LLM을 위한 쿼리 단위 프롬프트 선택
프롬프트 라우팅 기법이 각 쿼리에 최적으로 매칭되는 프롬프트를 자동으로 선택하여 LLM 응답 정확도를 향상시킨다.
Gemini Pro 3가 상상한 10년 후 Hacker News 프론트페이지
Gemini Pro 3가 현재 HN으로부터 2035년(10년 후) 모습을 예측하여 AI의 미래 예측 능력 한계와 재미있는 통찰을 동시에 드러냈다.
좋은 CLAUDE.md 작성법
Claude Code는 매 세션마다 코드베이스를 다시 파악하는 특성에 맞춘 CLAUDE.md 작성 가이드를 통해 에이전트가 실제로 규칙을 읽고 따르도록 한다.
Nano Banana(Gemini 2.5 Flash Image)의 prompt engineering을 통한 정밀 이미지 생성
Google의 autoregressive 이미지 생성 모델 Nano Banana는 기존 diffusion 모델을 압도적으로 뛰어넘는 프롬프트 준수력을 보이며, 정교한 프롬프트 엔지니어링으로 극도의 이미지 제어 정밀도를 달성한다.
Claude가 모든 말에 "You're absolutely right!"라고 답하는 버그
Claude Code의 사용자 발언 옳고 그름과 무관한 무분별한 긍정 반응 버그로 LLM의 구조적 아첨(sycophancy) 문제가 다시 수면 위로 올랐다.
LLM의 Temperature가 성능에 미치는 영향: 뜨겁게 vs 차갑게?
LLM의 온도(temperature) 최적값이 코딩, 추론, 창의성 등 6가지 능력별로 다르다는 것을 실험으로 규명하고 자동 선택 시스템을 개발했다.
LLM 기반 Video Summarization: 캡션과 로컬-글로벌 문맥으로 핵심 프레임 추출
영상 프레임을 텍스트 캡션으로 변환하고 LLM이 중요도를 평가하여 요약하는 방식이 기존 시각 특징 기반 방법 대비 State-of-the-Art를 달성한다.
Sketch-of-Thought: 적응형 인지 스케치로 효율적인 LLM 추론
시스템 프롬프트 최적화는 Chain-of-Thought 대비 토큰을 84% 감소시키면서 정확도를 거의 유지한다.
Perplexity 기반 단계별 정제로 Chain-of-Thought 추론 효율화하기 (SPIRIT)
CoT 추론에서 perplexity 변화를 감지해 불필요한 스텝을 자동으로 제거하는 기법이 토큰 수를 줄이면서 정확도를 유지한다.
Systematic Review를 위한 LLM 기반 논문 스크리닝 Prompt Template 개발
LLM이 논문 포함/제외 판단을 자동화하여 83시간 작업을 하루 $157로 완료한다.
LLM Hallucination 종합 분석: Prompting 전략 vs. 모델 자체 문제
제시된 프레임워크가 LLM의 거짓말 원인을 프롬프트 결함과 모델 결함으로 정확히 분리 판별한다.
LLM이 곧 Human-Level Prompt Engineer: Automatic Prompt Engineer (APE)
APE 알고리즘은 입출력 예시만으로 최적 프롬프트를 생성·선택하여 24개 태스크 전부에서 인간 수준 이상의 성능을 달성한다.