2.5년 된 노트북으로 Space Invaders를 JavaScript로 짜는 GLM-4.5 Air
My 2.5 year old laptop can write Space Invaders in JavaScript now (GLM-4.5 Air)
TL;DR Highlight
GLM-4.5 Air는 인터넷 연결 없이 로컬 노트북에서 플레이어블한 게임 코드를 생성할 수 있게 되었다.
Who Should Read
로컬 LLM 도입을 검토 중인 개발자, 또는 API 비용 없이 코드 생성 AI를 팀 내부에 배포하려는 엔지니어.
Core Mechanics
- GLM-4.5 Air는 Zhipu AI가 만든 경량 모델로, 일반 소비자용 노트북(2.5년 전 출시)에서 로컬 추론이 가능
- 별도 GPU 없이 CPU/통합그래픽 환경에서도 Space Invaders 수준의 완성된 JavaScript 게임 코드를 한 번에 생성
- 'Air' 계열은 클라우드 API 의존 없이 오프라인 코드 어시스턴트로 쓸 수 있도록 경량화된 변형 모델
- 실행 가능한 게임 로직(충돌 감지, 키 입력, 적 이동)까지 포함한 코드를 출력해 단순 boilerplate 이상의 능력을 시연
- ollama, llama.cpp 등 기존 로컬 실행 툴체인과 호환되어 설치 장벽이 낮음
Evidence
- 2.5년 전 출시된 일반 노트북(GPU 없음)에서 실시간 추론 가능 — 구체적 토큰/초 수치는 원문 미제공
- 생성된 Space Invaders 코드가 브라우저에서 즉시 플레이 가능한 수준으로 동작하는 것을 시연
- 원문에 벤치마크 수치가 별도로 제시되지 않아 정량적 성능 비교는 확인 불가
How to Apply
- ollama로 `ollama pull glm4.5-air` 후 코드 생성 프롬프트를 날려보면 바로 체험 가능 — API 키 불필요
- 사내 보안 규정상 외부 API 사용이 제한된 경우, GLM-4.5 Air를 로컬 코드 어시스턴트로 배포해 클라우드 의존성 제거
- 프로토타이핑 단계에서 GPT-4 API 대신 로컬 GLM-4.5 Air로 초안 생성 → 비용 0원으로 반복 실험
Code Example
# ollama로 GLM-4.5 Air 실행 후 Space Invaders 생성 예시
# 1. 설치
# ollama pull glm4.5-air
# 2. 코드 생성 프롬프트
prompt = """
Write a complete, playable Space Invaders game in a single HTML file using vanilla JavaScript.
Requirements:
- Player ship moves left/right with arrow keys, shoots with spacebar
- 3 rows of alien enemies that move side-to-side and descend
- Collision detection for bullets vs aliens and aliens vs player
- Score counter and game over screen
Output only the HTML file, no explanation.
"""
import ollama
response = ollama.chat(
model='glm4.5-air',
messages=[{'role': 'user', 'content': prompt}]
)
print(response['message']['content'])Terminology
관련 논문
Swift로 LLM 학습시키기 Part 1: 행렬 곱셈을 Gflop/s에서 Tflop/s로 끌어올리기
Apple Silicon에서 Swift로 직접 행렬 곱셈 커널을 구현하며 CPU, SIMD, AMX, GPU(Metal)를 단계별로 최적화해 Gflop/s에서 Tflop/s 수준까지 성능을 높이는 과정을 상세히 설명한 글이다. 프레임워크 없이 LLM 학습의 핵심 연산을 밑바닥부터 구현하고 싶은 개발자에게 Apple Silicon의 성능 한계를 체감할 수 있는 드문 자료다.
fsync 없이 로컬 스토리지 엔진을 crash-consistent하게 만든 방법
FractalBits가 fsync 없이 SSD 전용 KV 스토리지 엔진을 구현해 동일 조건 대비 약 65% 높은 쓰기 성능을 달성한 설계 방법을 공유했다. fsync의 메타데이터 오버헤드를 피하기 위해 사전 할당, O_DIRECT, SSD 원자 쓰기 단위 정렬 저널을 조합한 구조가 핵심이다.
Google Chrome, 사용자 동의 없이 4GB AI 모델(Gemini Nano)을 몰래 설치
Google Chrome이 사용자 동의 없이 Gemini Nano 4GB 모델 파일을 자동 다운로드하고, 삭제해도 재다운로드되는 문제가 발견됐다. GDPR 위반 가능성과 수십억 대 기기에 적용될 때의 환경 비용 문제가 제기되고 있다.
OpenAI가 대규모 저지연 Voice AI를 제공하는 방법
OpenAI가 9억 명 이상의 사용자에게 실시간 음성 AI를 제공하기 위해 WebRTC 스택을 어떻게 재설계했는지 설명하는 글로, relay + transceiver 분리 아키텍처의 설계 결정과 trade-off를 상세히 다룬다.
Truncated Decoding Tree의 결정론적 탐색을 통한 효율적인 Test-Time Inference
Self-consistency의 중복 샘플링 낭비를 없애는 결정론적 트리 탐색 디코딩 기법 DLE로 수학/코드 추론 성능과 속도를 동시에 개선
GoModel – Go로 작성된 오픈소스 AI Gateway
OpenAI, Anthropic, Gemini 등 여러 AI 프로바이더를 하나의 OpenAI 호환 API로 묶어주는 Go 기반 오픈소스 AI 게이트웨이로, LiteLLM의 컴파일 언어 대안이다.