AI 에이전트들이 공유 Wiki를 Markdown + Git으로 자체 유지하는 협업 오피스 프레임워크 'WUPHF'
Show HN: A Karpathy-style LLM wiki your agents maintain (Markdown and Git)
TL;DR Highlight
Claude, Codex 등 여러 AI 에이전트가 하나의 공유 지식 베이스(Wiki)를 함께 읽고 쓰면서 자율적으로 작업을 분담·수행하는 오픈소스 프레임워크로, 에이전트 간 컨텍스트 공유 문제를 Git 기반 Markdown Wiki로 해결하려는 시도다.
Who Should Read
여러 AI 에이전트를 조율해 자동화 파이프라인을 구축하려는 백엔드·풀스택 개발자, 또는 Claude Code/Codex CLI를 활용해 장기 실행 에이전트 워크플로우를 실험 중인 개발자.
Core Mechanics
- WUPHF는 Claude Code(기본값) 또는 Codex CLI를 'AI 직원'으로 사용해 CEO, PM, 엔지니어, 디자이너, CMO 등 역할을 부여하고, 이들이 하나의 공유 오피스에서 작업을 자율적으로 클레임하고 수행하는 구조다.
- 에이전트들이 컨텍스트를 잃지 않도록 '공유 뇌(shared brain)' 역할을 하는 Markdown 기반 Wiki를 Git으로 관리한다. Karpathy가 제안한 LLM용 위키 스타일을 실제 멀티에이전트 환경에 적용한 것이다.
- UI는 두 가지 모드를 지원한다. `--tui` 모드는 tmux 기반 터미널 UI고, 웹 UI는 에이전트를 헤드리스(화면 없이 백그라운드)로 실행한다. 전제 조건으로 Claude Code 또는 Codex CLI와 tmux가 필요하다.
- 검색은 BM25-first 라우팅 방식을 채택했다고 언급된다. 짧은 단순 조회는 BM25(키워드 기반 고전 검색)로, 서술형·맥락형 쿼리는 인용 답변 루프(cited-answer loop)로 라우팅하는 휴리스틱 분류기를 사용하며, 500개 아티팩트 기준 85% recall@20을 보고한다.
- 에이전트들이 작업 중 생성한 지식을 Wiki 페이지로 문서화하고, 이 Wiki가 다음 에이전트 실행 시 컨텍스트로 활용되는 선순환 구조를 목표로 한다.
- 저장소 구조를 보면 `prompts/`, `evals/`, `mcp/`, `claude-code-plugin/commands/` 등 디렉터리가 있어, 프롬프트 관리, 평가, MCP(Model Context Protocol) 도구 연동, Claude Code 플러그인까지 포함한 풀스택 에이전트 인프라를 갖추려는 설계임을 알 수 있다.
- AGENTS.md, ARCHITECTURE.md, DESIGN-WIKI.md, TESTING-WIKI.md 등 에이전트 행동 규칙과 설계 문서를 레포 자체에 포함시켜, 에이전트가 레포를 읽고 스스로 기여 규칙을 파악할 수 있도록 구성했다.
Evidence
- 'AI가 자동으로 노트를 쌓는 게 무슨 의미냐'는 회의론이 제기됐다. 노트 작성의 핵심은 비판적으로 읽고 자신의 멘탈 모델에 통합하는 과정인데, AI가 자동 생성한 문서를 100배 늘리는 것은 그 본질을 놓친다는 지적이다.
- LLM이 문서를 너무 많이 생성해서 Wiki가 오히려 쓸모없어지는 문제를 직접 경험했다는 댓글이 있었다. 몇 년 전 링크를 붙여넣으면 LLM이 리서치해서 Wiki 페이지를 만드는 실험을 했는데, 보기에는 좋았지만 실제 내용을 읽어보면 품질이 낮았다고 한다. 지금은 opus 4.7 같은 최신 모델로 다시 시도해볼 만하다는 의견도 덧붙었다.
- BM25-first 라우팅의 분류기 기준에 대한 기술적 의문이 제기됐다. 에이전트가 의존성 조회를 할 때도 길고 잘 구성된 문장으로 쿼리를 날리는 경우가 많아, '짧은 쿼리=BM25, 서술형=cited-answer' 구분이 실제로 잘 동작할지 불분명하다는 것이다. 잘못 라우팅되면 BM25의 속도 이점이 사라질 수 있다는 구체적인 우려다.
- 'human review 없이 에이전트가 생성한 컨텍스트는 6개월 뒤 자신감 있게 틀린 정보가 된다'는 경험담이 공유됐다. lint 패스(자동 검사)만으로는 어떤 정보가 잘못됐는지 가려낼 수 없고, promotion 플로우(초안 → 확정 지식으로 승격)에 사람 검토가 필수라는 주장이다.
- 에이전트가 장시간 실행될수록 실패 확률이 누적된다는 실용적 조언이 댓글에 달렸다. '10분 한 번'보다 '5분씩 두 번, 중간에 평가·업데이트'가 낫다는 것이다. 에이전트는 길게 달리면 '걸려 넘어진다(trip)'는 비유가 인상적이다.
- 같은 날 HN 첫 페이지에 LLM Wiki 관련 프로젝트가 3개나 올라왔다는 댓글이 있었다. 에이전트 메모리 시스템이 지금 커뮤니티에서 매우 뜨거운 주제임을 보여주며, 각자 비슷한 시스템을 따로 만드는 '노력 중복'에 대한 아쉬움도 표현됐다.
How to Apply
- 여러 Claude Code 세션이 같은 코드베이스를 다루는데 세션마다 컨텍스트가 초기화되는 문제가 있다면, WUPHF의 AGENTS.md + DESIGN-WIKI.md 패턴을 참고해 레포 루트에 에이전트용 지식 문서를 두고 각 세션이 시작 시 이를 읽도록 시스템 프롬프트에 지정하면 컨텍스트 연속성을 확보할 수 있다.
- 에이전트가 자동 생성한 Wiki 내용의 품질 저하가 걱정된다면, '초안(draft) → 사람 검토 → 확정(promoted)' 2단계 디렉터리 구조로 나누고 confirmed 폴더의 파일만 에이전트 컨텍스트로 주입하는 방식으로 노이즈를 차단할 수 있다.
- BM25 + cited-answer 하이브리드 검색을 직접 구현하려는 경우, 쿼리 길이나 문장 구조만으로 라우팅하면 에이전트 생성 쿼리에서 오분류가 잦으므로, 쿼리에 특정 키워드(예: 함수명, 파일경로 패턴)가 포함되면 BM25로, 그 외는 semantic 검색으로 분기하는 명시적 규칙을 추가하는 게 더 안정적이다.
- 장시간 실행 에이전트가 중간에 실패해 토큰을 낭비하는 경험이 있다면, 태스크를 5~10분 단위 체크포인트로 쪼개고 각 체크포인트 후 결과를 Wiki에 커밋한 뒤 다음 스텝을 새 에이전트 호출로 시작하는 패턴을 적용하면 누적 실패 확률을 줄일 수 있다.
Terminology
BM25키워드 빈도와 문서 길이를 고려하는 고전적인 텍스트 검색 알고리즘. 벡터 검색보다 빠르고 단순한 단어 매칭에 강하다.
cited-answer loop검색 결과에서 출처를 인용하며 답변을 생성하는 RAG(검색 증강 생성) 스타일의 처리 흐름. 단순 키워드 검색보다 비용과 지연이 크지만 맥락 이해가 필요한 쿼리에 적합하다.
recall@20상위 20개 결과 안에 정답이 포함된 비율. 85% recall@20이면 100번 검색 중 85번은 상위 20개 안에 원하는 문서가 들어온다는 뜻이다.
MCPModel Context Protocol의 약자. AI 모델이 외부 도구나 데이터 소스에 표준화된 방식으로 접근할 수 있게 해주는 프로토콜로, Anthropic이 주도하고 있다.
헤드리스(headless)화면(UI) 없이 백그라운드에서 실행되는 방식. 서버나 CI 환경처럼 GUI가 없는 곳에서 에이전트를 돌릴 때 사용한다.
agent drift에이전트가 장시간 실행되면서 초기 목표에서 점점 벗어나거나 예상치 못한 방향으로 행동이 누적되는 현상.