모두가 AI로 글을 쓴다면, 실제로 무엇이 사라지는가?
I asked Claude if everyone uses AI to write, what actually gets lost?
TL;DR Highlight
AI 글쓰기는 콘텐츠 품질을 유지하면서도 작성자의 정체성(개인 특유의 목소리와 경험)을 지워버린다.
Who Should Read
글쓰기에 AI를 활용하는 작가, 콘텐츠 크리에이터
Core Mechanics
- AI 글쓰기의 문제는 품질이 아닌 개인 정체성의 소실
- 특정 성장 배경·집착·경험에서 나오는 문체는 AI가 대체 불가
- "정체성이 언어로 드러나는 것"을 외주화하는 것의 의미를 재고해야 함
Evidence
- AI 글쓰기의 문제는 품질이 아닌 개인 정체성의 소실이라는 주장
- 특정 성장 배경·집착·경험에서 나오는 문체는 AI가 대체 불가
- 커뮤니티에서 "LLM 특유의 문체에 지쳤다"는 공감대 형성
How to Apply
- AI에게 글의 초안이나 구조만 맡기고 개인 경험·관점은 직접 추가
- 자신만의 표현을 AI 초안에 덧입히는 방식으로 활용
Terminology
관련 논문
Claude Code에서 HTML을 출력 포맷으로 쓰는 이유: Markdown보다 나은 점들
Claude Code 팀이 Markdown 대신 HTML을 LLM 출력 포맷으로 선호하기 시작한 이유와 그 실용적 장점을 정리한 글로, AI와 함께 문서/스펙/대시보드를 만드는 워크플로우에 직접적인 영향을 준다.
언제 투표하고 언제 다시 쓸까: Disagreement 기반 Test-Time Scaling 전략 라우팅
모델 출력이 얼마나 일치하는지 보고 쉬운 문제엔 majority voting, 어려운 문제엔 문제 rewriting을 자동으로 선택해 정확도 3~7% 올리고 샘플링 비용도 줄이는 학습 불필요 프레임워크.
Less Is More: Android 앱에 On-Device Small Language Model 통합할 때 실제로 겪는 엔지니어링 문제들
Wordle 게임에 온디바이스 SLM(Gemma 4 E2B, Qwen3 0.6B)을 5일간 붙여보면서 발견한 5가지 실패 유형과 8가지 실용 해결책 정리
확장 가능한 Synthetic Data 생성을 위한 Dynamic Context Evolution
VTS + Semantic Memory + Adaptive Prompt 3가지 메커니즘으로 구성된 프레임워크는 LLM 대량 synthetic data 생성 시 배치 간 중복·반복 현상을 완전히 제거한다.
Karpathy 워크플로우에서 영감받아 사전 컴파일된 Wiki로 세션당 토큰 90%+ 절감
사전에 정리된 코드베이스 Wiki를 활용하면 Claude 세션당 토큰 사용량을 90% 이상 줄인다.
3개월치 AI 생성 코드를 전부 삭제했다. 그리고 배운 것들.
AI로 작성된 코드베이스를 70% 삭제 후 2주 만에 재작성하니 절반 크기로 줄어들면서 완전한 이해 가능성을 확보했다.