Animal Crossing 대화를 GameCube 메모리 해킹으로 LLM에 연결한 이야기
I replaced Animal Crossing's dialogue with a live LLM by hacking GameCube memory
TL;DR Highlight
메모리 공유 방식의 LLM 연동이 24년 된 GameCube Animal Crossing의 NPC 대화를 게임 코드 수정 없이 실시간 AI 대화로 변환하며 레트로 게임 모딩과 LLM 기반 NPC의 실현 가능성을 증명했다.
Who Should Read
게임 모딩이나 에뮬레이터에 관심 있는 개발자, 또는 LLM을 게임 NPC 대화에 적용하는 방법이 궁금한 게임 개발자
Core Mechanics
- Animal Crossing GameCube판의 NPC 대화를 LLM으로 교체했는데, 게임 코드를 한 줄도 수정하지 않았다. 핵심은 Dolphin 에뮬레이터에서 돌아가는 GameCube RAM에 직접 읽고 쓰는 IPC(프로세스 간 통신) 방식을 쓴 것.
- 마침 Animal Crossing 디컴파일 커뮤니티가 전체 소스를 읽을 수 있는 C 코드로 복원 완료한 시점이라, PowerPC 어셈블리 대신 m_message.c 같은 대화 시스템 코드를 바로 분석할 수 있었다.
- 처음에는 GameCube에 네트워크 스택을 통째로 구현하거나, 에뮬레이터의 파일 시스템을 통해 호스트와 통신하려 했지만 둘 다 실패. 결국 GameCube RAM의 특정 주소(0x81298360)를 '메모리 메일박스'로 쓰는 방식을 택했다.
- 메모리 주소를 찾는 과정이 가장 고됐다. 직접 Python 메모리 스캐너를 만들어서, NPC와 대화 → 에뮬레이터 프리즈 → 24MB RAM 전체 스캔 → 교차 검증을 반복해 대화 버퍼(0x81298360)와 화자 이름(0x8129A3EA) 주소를 특정했다.
- Python 스크립트가 0.1초마다 메모리를 폴링하다가 새 대화가 감지되면, 먼저 "..." 같은 로딩 텍스트를 써넣고 LLM 응답을 기다린 뒤 실제 대화로 교체한다. 사용자가 A 버튼을 누를 때까지 시간을 벌어 레이턴시를 숨기는 방식.
- LLM에 각 NPC의 성격과 게임 맥락을 프롬프트로 넘기니, NPC들이 자기 의지를 갖기 시작했다. 예를 들어 첫 반응이 Tom Nook(게임 내 땅주인)을 전복하자는 것이었다고.
- GameCube에는 실제로 공식 Broadband Adapter가 있었지만 Animal Crossing은 지원하지 않았기 때문에, 에뮬레이터 메모리 직접 접근이 유일한 현실적 방법이었다.
- Python 코드가 Optional[Dict[str, int]] 같은 타입 힌트로 꼼꼼히 작성되어 있어 코드 품질도 좋다는 평가를 받았다.
Evidence
- 댓글에서 구현 방식을 분석한 사람이 코드 전체(4만 토큰)를 Claude Opus에 넣어 분석했는데, 핵심은 watch_dialogue() 함수가 0.1초마다 폴링하면서 로딩 텍스트('... Press A')를 먼저 보여줘 LLM 응답 시간을 벌어주는 구조라고 정리했다.
- LLM 기반 NPC 대화가 게임 몰입감의 가장 큰 장벽인 '반복 대사'를 해결할 핵심 기술이라며 기대하는 반응이 많았다. Switch 에뮬레이터로 확장 가능하냐는 질문도 나왔다.
- 한 댓글은 이 프로젝트가 실시간 LLM 호출 없이도 가능한 거 아니냐고 지적했다. 게임 내 이벤트에 실제로 반응하는 건 아니라서 미리 생성한 텍스트 룩업 테이블로도 동일 효과를 낼 수 있다는 의견.
- 예전에 The Sims와 Grim Fandango의 로컬라이징 문자열을 바꿔서 외국어 학습 도구로 만든 연구가 있었는데, LLM으로 맥락에 맞는 대화를 생성하면 언어 학습에도 킬러 앱이 될 수 있다는 의견이 나왔다.
- 디컴파일된 코드가 있으면 메모리 스캔 대신 코드에서 바로 주소를 찾거나 브레이크포인트를 걸 수 있지 않냐는 기술적 반론도 있었다.
How to Apply
- 에뮬레이터 기반 레트로 게임을 모딩할 때, 게임 코드 수정 없이 에뮬레이터 프로세스 메모리에 직접 읽기/쓰기하는 IPC 패턴을 적용하면 원본 바이너리를 건드리지 않고도 외부 서비스와 연동할 수 있다.
- LLM 응답 레이턴시가 문제인 실시간 인터랙션에서, '로딩 애니메이션 + 사용자 입력 대기'로 시간을 벌어주는 UX 패턴을 적용하면 체감 지연을 크게 줄일 수 있다. 이 프로젝트의 'Press A to continue' 트릭처럼.
- 게임 NPC에 LLM을 적용할 때, 각 캐릭터의 성격·관계·게임 맥락을 시스템 프롬프트로 넘기면 단순 챗봇이 아닌 캐릭터성을 가진 대화를 생성할 수 있다. 프롬프트 설계가 핵심.
- Python의 메모리 스캐너 접근법(특정 문자열로 RAM 전체 스캔 → 교차 검증)은 게임 모딩뿐 아니라 디버깅이나 리버스 엔지니어링에서도 바로 활용 가능한 기법이다.
Code Example
# GameCube 메모리 읽기/쓰기 (Dolphin 에뮬레이터 IPC)
GAMECUBE_MEMORY_BASE = 0x80000000
def read_from_game(gc_address: int, size: int) -> bytes:
real_address = GAMECUBE_MEMORY_BASE + (gc_address - 0x80000000)
return dolphin_process.read(real_address, size)
def write_to_game(gc_address: int, data: bytes) -> bool:
real_address = GAMECUBE_MEMORY_BASE + (gc_address - 0x80000000)
return dolphin_process.write(real_address, data)
# 로딩 텍스트로 LLM 응답 시간 벌기
loading_text = ".<Pause [0A]>.<Pause [0A]>.<Pause [0A]><Press A><Clear Text>"
write_dialogue_to_address(loading_text, addr)Terminology
관련 논문
adamsreview: Claude Code용 멀티 에이전트 PR 코드 리뷰 파이프라인
Claude Code에서 최대 7개의 병렬 서브 에이전트가 각각 다른 관점으로 PR을 리뷰하고, 자동 수정까지 해주는 오픈소스 플러그인이다. 기존 /review나 CodeRabbit보다 실제 버그를 더 많이 잡는다고 주장하지만 커뮤니티에서는 복잡도와 실효성에 대한 회의론도 나왔다.
Claude를 User Space IP Stack으로 써서 Ping에 응답시키면 얼마나 빠를까?
Claude Code에게 IP 패킷을 직접 파싱하고 ICMP echo reply를 구성하도록 시켜서 실제로 ping에 응답하게 만든 실험으로, 'Markdown이 곧 코드이고 LLM이 프로세서'라는 아이디어를 네트워크 스택 수준까지 밀어붙인 재미있는 사례다.
AI Agent를 위한 Git: re_gent
AI 코딩 에이전트(Claude Code 등)가 수행한 모든 툴 호출을 자동으로 추적하고, 어떤 프롬프트가 어느 코드 줄을 작성했는지 blame까지 가능한 버전 관리 도구다.
Agent-Native CLI를 위한 설계 원칙 10가지
AI 에이전트가 CLI 도구를 더 잘 사용할 수 있도록 설계하는 원칙들을 정리한 글로, 에이전트가 CLI를 도구로 활용하는 빈도가 높아지면서 이 설계 방식이 실용적으로 중요해지고 있다.
Agent-harness-kit: MCP 기반 멀티 에이전트 워크플로우 오케스트레이션 프레임워크
여러 AI 에이전트가 서로 역할을 나눠 협업할 수 있도록 조율하는 scaffolding 도구로, Vite처럼 설정 없이 빠르게 멀티 에이전트 파이프라인을 구성할 수 있다.
Tilde.run – AI Agent를 위한 트랜잭션 기반 버전 관리 파일시스템 샌드박스
AI 에이전트가 실제 프로덕션 데이터를 건드려도 롤백할 수 있는 격리된 샌드박스 환경을 제공하는 도구로, GitHub/S3/Google Drive를 하나의 버전 관리 파일시스템으로 묶어준다.