모든 LLM은 기본 말투가 있고, 그게 우리를 다 똑같이 들리게 만든다
Every LLM has a default voice and it's making us all sound the same
TL;DR Highlight
Noren은 개인 글쓰기 스타일을 학습하여 LLM 생성 텍스트를 개인화함으로써 모든 LLM이 동일한 기본 문체로 수렴하는 문제를 해결한다.
Who Should Read
개인 목소리를 유지하며 AI 글쓰기를 활용하고 싶은 콘텐츠 크리에이터
Core Mechanics
- LLM은 동일한 "기본 목소리"로 회귀하는 경향이 있어 모든 출력이 비슷해짐
- Noren은 사용자의 실제 글쓰기 패턴을 먼저 학습한 후 생성
- usenoren.ai 에서 얼리 액세스 가능
Evidence
- 모든 LLM이 동일한 기본 목소리로 회귀하는 경향 관찰
- Noren이 개인 글쓰기 패턴을 학습한 후 생성하는 방식으로 차별화
- usenoren.ai 에서 얼리 액세스 가능
How to Apply
- AI 글쓰기 동질화가 걱정된다면 usenoren.ai 체험
- 직접 쓴 샘플을 AI에게 스타일 참조용으로 제공하는 방법도 효과적
Code Example
# 시스템 프롬프트 예시 - LLM 기본 문체 억제
system_prompt = """
You are a writing assistant. Follow these style rules strictly:
- Do NOT start responses with 'Certainly!', 'Great!', 'Absolutely!', or similar filler.
- Do NOT overuse bullet points. Use prose when possible.
- Match the tone of the sample texts provided by the user.
- Be direct and concise. Avoid hedging phrases like 'It's worth noting that...'
- Write as if you are the user, not an AI assistant.
"""Terminology
관련 논문
Claude Code에서 HTML을 출력 포맷으로 쓰는 이유: Markdown보다 나은 점들
Claude Code 팀이 Markdown 대신 HTML을 LLM 출력 포맷으로 선호하기 시작한 이유와 그 실용적 장점을 정리한 글로, AI와 함께 문서/스펙/대시보드를 만드는 워크플로우에 직접적인 영향을 준다.
언제 투표하고 언제 다시 쓸까: Disagreement 기반 Test-Time Scaling 전략 라우팅
모델 출력이 얼마나 일치하는지 보고 쉬운 문제엔 majority voting, 어려운 문제엔 문제 rewriting을 자동으로 선택해 정확도 3~7% 올리고 샘플링 비용도 줄이는 학습 불필요 프레임워크.
Less Is More: Android 앱에 On-Device Small Language Model 통합할 때 실제로 겪는 엔지니어링 문제들
Wordle 게임에 온디바이스 SLM(Gemma 4 E2B, Qwen3 0.6B)을 5일간 붙여보면서 발견한 5가지 실패 유형과 8가지 실용 해결책 정리
확장 가능한 Synthetic Data 생성을 위한 Dynamic Context Evolution
VTS + Semantic Memory + Adaptive Prompt 3가지 메커니즘으로 구성된 프레임워크는 LLM 대량 synthetic data 생성 시 배치 간 중복·반복 현상을 완전히 제거한다.
Karpathy 워크플로우에서 영감받아 사전 컴파일된 Wiki로 세션당 토큰 90%+ 절감
사전에 정리된 코드베이스 Wiki를 활용하면 Claude 세션당 토큰 사용량을 90% 이상 줄인다.
3개월치 AI 생성 코드를 전부 삭제했다. 그리고 배운 것들.
AI로 작성된 코드베이스를 70% 삭제 후 2주 만에 재작성하니 절반 크기로 줄어들면서 완전한 이해 가능성을 확보했다.