Claude Haiku 4.5 출시 — 프론티어급 성능을 1/3 가격에
Claude Haiku 4.5
TL;DR Highlight
Claude Haiku 4.5가 Claude Sonnet 4 수준의 코딩 성능을 1/3 가격과 2배 이상 빠른 속도로 제공한다.
Who Should Read
Claude API로 코딩 에이전트나 챗봇을 운영 중인데 비용과 레이턴시를 줄이고 싶은 백엔드/풀스택 개발자. 멀티 에이전트 아키텍처에서 서브 에이전트용 모델을 찾고 있는 AI 엔지니어.
Core Mechanics
- Claude Haiku 4.5는 5개월 전 프론티어 모델이었던 Sonnet 4와 비슷한 코딩 성능을 내면서, 가격은 1/3(입력 $1/M, 출력 $5/M), 속도는 2배 이상 빠르다.
- Augment의 에이전트 코딩 벤치마크에서 Sonnet 4.5 성능의 90%를 달성했다. 컴퓨터 사용(Computer Use) 작업에서는 오히려 Sonnet 4를 능가하는 결과도 나왔다.
- 멀티 에이전트 구조에서 특히 유용하다. Sonnet 4.5가 복잡한 문제를 분해해서 계획을 세우고, 여러 Haiku 4.5가 하위 작업을 병렬로 처리하는 오케스트레이션 패턴을 Anthropic이 직접 제안했다.
- 안전성 평가에서 Sonnet 4.5, Opus 4.1보다 통계적으로 유의미하게 낮은 비정렬 행동률을 기록해 Anthropic의 가장 안전한 모델이라는 평가를 받았다. ASL-2(안전 레벨 2) 등급으로 출시됐다.
- Anthropic 최초의 소형 추론(reasoning) 모델이다. 시스템 카드에 따르면 이전 Haiku 3.5 대비 크게 개선된 정렬(alignment) 성능을 보여준다.
- Gamma에서는 슬라이드 텍스트 생성 지시 따르기에서 프리미엄 모델 44% 대비 65% 정확도를 기록했고, GitHub Copilot에서도 Sonnet 4급 품질에 더 빠른 속도로 평가됐다.
- Claude Code에서 바로 사용 가능하고, API에서는 모델 ID `claude-haiku-4-5`로 접근한다. 모든 Claude 앱에서 즉시 사용 가능하다.
Evidence
- 코딩 작업에서 GPT-5보다 관련 없는 코드를 건드리지 않아서 실제 사용 시 체감 비용이 토큰 단가 차이보다 적을 수 있다는 초기 테스트 결과가 공유됐다. 다만 Haiku 3.5 대비 4배 가격 인상($0.25→$1/M 입력)이 부담이라는 의견도 있었다.
- 코드 문서 fetch가 필요한 질문에서 Haiku 4.5와 Sonnet을 직접 비교한 사례가 올라왔는데, Haiku가 함수 출력을 지어내서 잘못된 답변을 줬고 Sonnet은 정확했다. 소형 모델의 할루시네이션 한계가 여전하다는 경고.
- NYT Connections 벤치마크에서 Haiku 4.5는 20.0점으로 Haiku 3.5(10.0)의 2배지만, Sonnet 4.0(26.6)이나 Sonnet 4.5(46.1)과는 여전히 격차가 있었다.
- 프리랜서 개발자가 '3배 빠른 응답이 약간의 성능 저하보다 생산성에 훨씬 낫다'며 기존 Sonnet 4.5에서 Haiku 4.5로 데일리 드라이버를 바꾸겠다는 반응이 있었다. 반면 '모델을 골라야 하는 것 자체가 피곤하다, 알아서 좋아지게 해달라'는 불만도 있었다.
- Hyperbrowser에서 초기 테스트한 결과 Computer Use에서도 잘 동작하며, 대형 AI 회사 모델 중 가장 저렴한 Computer Use 모델이라는 평가가 나왔다.
How to Apply
- 멀티 에이전트 시스템에서 메인 에이전트는 Sonnet 4.5로 계획/분해를 맡기고, 서브 에이전트를 Haiku 4.5로 병렬 실행하면 비용을 크게 줄이면서 처리 속도를 높일 수 있다.
- Claude Code에서 빠른 프로토타이핑이나 간단한 코드 수정 작업 시 Haiku 4.5로 전환하면 응답 대기 시간이 절반 이하로 줄어든다. `/fast` 토글이나 모델 설정으로 전환 가능.
- 챗봇이나 고객 서비스 에이전트처럼 레이턴시가 중요한 실시간 애플리케이션에서 Sonnet 대신 Haiku 4.5를 적용하면 비용 1/3 절감과 응답성 개선을 동시에 달성할 수 있다.
- 단, 정확한 사실 조회나 코드 문서 참조가 필요한 작업에서는 할루시네이션 위험이 있으므로 Sonnet을 유지하고, 단순 생성/변환 작업에만 Haiku를 배치하는 식으로 라우팅하는 게 안전하다.
Terminology
관련 논문
Swift로 LLM 학습시키기 Part 1: 행렬 곱셈을 Gflop/s에서 Tflop/s로 끌어올리기
Apple Silicon에서 Swift로 직접 행렬 곱셈 커널을 구현하며 CPU, SIMD, AMX, GPU(Metal)를 단계별로 최적화해 Gflop/s에서 Tflop/s 수준까지 성능을 높이는 과정을 상세히 설명한 글이다. 프레임워크 없이 LLM 학습의 핵심 연산을 밑바닥부터 구현하고 싶은 개발자에게 Apple Silicon의 성능 한계를 체감할 수 있는 드문 자료다.
fsync 없이 로컬 스토리지 엔진을 crash-consistent하게 만든 방법
FractalBits가 fsync 없이 SSD 전용 KV 스토리지 엔진을 구현해 동일 조건 대비 약 65% 높은 쓰기 성능을 달성한 설계 방법을 공유했다. fsync의 메타데이터 오버헤드를 피하기 위해 사전 할당, O_DIRECT, SSD 원자 쓰기 단위 정렬 저널을 조합한 구조가 핵심이다.
Google Chrome, 사용자 동의 없이 4GB AI 모델(Gemini Nano)을 몰래 설치
Google Chrome이 사용자 동의 없이 Gemini Nano 4GB 모델 파일을 자동 다운로드하고, 삭제해도 재다운로드되는 문제가 발견됐다. GDPR 위반 가능성과 수십억 대 기기에 적용될 때의 환경 비용 문제가 제기되고 있다.
OpenAI가 대규모 저지연 Voice AI를 제공하는 방법
OpenAI가 9억 명 이상의 사용자에게 실시간 음성 AI를 제공하기 위해 WebRTC 스택을 어떻게 재설계했는지 설명하는 글로, relay + transceiver 분리 아키텍처의 설계 결정과 trade-off를 상세히 다룬다.
Truncated Decoding Tree의 결정론적 탐색을 통한 효율적인 Test-Time Inference
Self-consistency의 중복 샘플링 낭비를 없애는 결정론적 트리 탐색 디코딩 기법 DLE로 수학/코드 추론 성능과 속도를 동시에 개선
GoModel – Go로 작성된 오픈소스 AI Gateway
OpenAI, Anthropic, Gemini 등 여러 AI 프로바이더를 하나의 OpenAI 호환 API로 묶어주는 Go 기반 오픈소스 AI 게이트웨이로, LiteLLM의 컴파일 언어 대안이다.