EuroLLM: 유럽이 만든 EU 24개 공식 언어 지원 오픈소스 LLM
EuroLLM: LLM made in Europe built to support all 24 official EU languages
TL;DR Highlight
유럽 8개 대학·기관의 오픈소스 LLM이 EU 24개 공식 언어를 모두 지원하고 1.7B·9B·22B 세 가지 크기로 제공되어 미국·중국 외 지역의 AI 주권을 확보한다.
Who Should Read
유럽어 다국어 서비스를 구축 중인 백엔드·ML 엔지니어, 또는 온프레미스 환경에서 클라우드 모델 없이 소수 언어(라트비아어, 아이리시어 등)를 처리해야 하는 개발자.
Core Mechanics
- EuroLLM-22B는 35개 언어로 구성된 4조 토큰(4 trillion tokens) 데이터로 학습된 현재 최상위 모델이며, 32K 토큰 컨텍스트를 지원한다. Base(파인튜닝용)와 Instruct(채팅·명령 수행용) 두 버전을 제공한다.
- EuroLLM-9B는 2024년 12월에 출시된 모델로, MMLU-Pro 벤치마크에서 17.6%를 기록했다. 랜덤 찍기가 10%임을 감안하면 일반 추론 성능은 낮지만, 라트비아어 같은 소수 EU 언어에서는 GPT-OSS 20B나 Qwen3 30B보다 훨씬 뛰어났다는 실사용 보고가 있다.
- EuroLLM-1.7B는 엣지 디바이스(스마트폰, IoT 등 저사양 기기)용으로 설계된 경량 모델이다. 곧 출시될 EuroMoE-2.6B-A0.6B는 MoE(Mixture of Experts, 필요한 전문가 네트워크만 활성화해 효율을 높이는 구조) 방식으로 실제 활성 파라미터가 600M에 불과해 역시 엣지 타겟이다.
- 스페인 바르셀로나의 MareNostrum 5 슈퍼컴퓨터(유럽 EuroHPC JU 소속)에서 학습됐다. 9B 모델은 6개월 이내에 개발 완료됐으며, 물리 시뮬레이션용 HPC 자원을 AI 학습에 전용한 사례다.
- 프로젝트 참여 기관은 리스본공과대학(IST), 에든버러대학, 파리-사클레대학, 소르본대학, 암스테르담대학, Unbabel, Naver Labs Europe 등 8곳이다. EU Horizon Europe·ERC·EuroHPC 공적 자금으로 지원받았다.
- EU 24개 공식 언어 중 아일랜드어(Irish)는 코퍼스 대부분이 법률·행정 번역문이어서 구어체 데이터가 극히 적다. 이런 소멸 위기 언어에 LLM이 긍정적 역할을 할 수 있지만, 부정확한 언어 모델이 오히려 언어를 왜곡할 위험도 있다는 우려가 제기됐다.
- 곧 출시 예정인 EuroVLM-9B는 EuroLLM-9B에 비전 인코더를 추가한 멀티모달 모델로, 이미지·음성 이해까지 지원할 예정이다.
Evidence
- 실제 라트비아어 처리에 EuroLLM-9B Instruct를 써본 개발자가 '소형 모델 중 라트비아어 지식이 단연 최고였고, GPT-OSS 20B나 Qwen3 30B A3B는 비교도 안 됐다'고 밝혔다. 다만 코딩·툴 콜링 능력이 부족해 RAG 파이프라인에서 로직은 Qwen3로, 번역·포매팅만 EuroLLM으로 나눠야 했다는 단점도 공유했다.
- '요즘 주요 LLM은 이미 다국어 데이터로 학습되니 굳이 전용 모델이 필요하냐'는 회의적 의견이 있었다. 실제로 클라우드 환경에서는 Google Gemini 2.5 Pro가 라트비아어 최고 성능이라는 경험담이 있었지만, 온프레미스가 필수인 규제 산업에서는 대안이 없다는 반론도 나왔다.
- EuroLLM-9B의 MMLU-Pro 점수가 17.6%에 불과해 '랜덤 수준에 가깝다'는 비판이 있었고, 두 달 앞서 출시된 TildeAI의 TildeOpen-30B(19개 유럽어 지원, 30B)가 거의 주목받지 못한 것과 대조적으로 이 모델이 트래픽을 받는 이유가 마케팅이라는 시각도 있었다.
- HuggingFace에서 9B 모델 다운로드 시 연락처 정보 제공에 동의해야 한다는 점이 지적됐다. 오픈소스 모델에서는 보기 드문 조건이라 어떤 정보를 왜 수집하는지 불투명하다는 우려가 있었다.
- 'EU가 AI 경쟁에서 미국·중국과 맞서려면 맨해튼 프로젝트 수준의 집중 투자가 필요하고, 자체 AI 칩 생산 능력과 수직 통합도 함께 갖춰야 한다'는 의견이 있었다. 유럽에서 Mistral 외에 두각을 나타내는 AI 기업이 없다는 문제도 제기됐다.
How to Apply
- 온프레미스 환경에서 라트비아어·에스토니아어·몰타어 같은 소수 EU 언어를 처리해야 한다면, EuroLLM-9B Instruct를 HuggingFace에서 내려받아 번역·요약·QA 전용 서버로 구성하면 클라우드 의존 없이 GDPR 준수 파이프라인을 만들 수 있다.
- 소수 언어 처리 품질이 낮은 대형 모델을 쓰고 있다면, RAG나 에이전트 파이프라인에서 로직·추론은 Qwen3 같은 범용 모델에 맡기고, 최종 출력의 언어 변환·포매팅만 EuroLLM에 위임하는 하이브리드 구조를 고려할 수 있다.
- 엣지 디바이스(모바일, 임베디드)에서 다국어 EU 언어 추론이 필요하면, EuroLLM-1.7B 또는 곧 출시되는 EuroMoE-2.6B-A0.6B(활성 파라미터 600M)를 검토하라. 두 모델 모두 HuggingFace에서 무료로 내려받아 파인튜닝할 수 있다.
- 번역 전용 용도라면 Base 모델보다 Instruct 모델을 쓰되, 단순히 'Translate to <language>:' 프롬프트만 쓰면 결과가 들쭉날쭉할 수 있다. 몇 가지 번역 예시를 few-shot으로 넣어주거나, 출력 형식을 명시하는 시스템 프롬프트를 추가하면 품질이 개선된다.
Terminology
관련 논문
PyTorch Lightning AI 학습 라이브러리에서 Shai-Hulud 테마 악성코드 발견
널리 쓰이는 딥러닝 프레임워크 PyTorch Lightning의 PyPI 패키지 버전 2.6.2와 2.6.3이 공급망 공격으로 침해되어, import 시 자격증명 탈취 악성코드가 실행된다.
Alignment Whack-a-Mole: 파인튜닝이 LLM 내부의 저작권 도서 암기를 활성화한다
안전 정렬(alignment)된 LLM도 파인튜닝을 거치면 억제됐던 저작권 책 내용을 그대로 출력하게 된다는 연구로, LLM의 저작권 침해 위험이 단순히 프롬프트 필터링으로는 해결되지 않음을 보여준다.
MacMind – 1989년 Macintosh의 HyperCard로 구현한 Transformer 신경망
HyperTalk으로 1,216개 파라미터짜리 단일 레이어 Transformer를 Macintosh SE/30에서 학습시켜 현대 LLM의 핵심 수학이 30년 전 하드웨어에서도 동일하게 동작함을 증명했다.
MegaTrain: 단일 GPU로 100B+ 파라미터 LLM을 Full Precision으로 학습하기
MegaTrain은 CPU 메모리를 주 저장소로, GPU를 연산 엔진으로만 활용함으로써 H200 GPU 단 한 장으로 120B 파라미터 모델을 풀 정밀도로 학습할 수 있다.
9M 파라미터짜리 초소형 LLM으로 언어 모델 작동 원리 직접 이해하기
물고기 Guppy를 학습한 870만 파라미터 미니 LLM이 Colab 노트북 하나로 5분 만에 처음부터 구현되어, LLM의 블랙박스 이미지를 완전히 걷어낸다.
Nanocode: $200로 TPU에서 JAX로 구현하는 나만의 Claude Code 학습 라이브러리
이 오픈소스 라이브러리는 Constitutional AI 방식으로 $200 TPU에서 1.3B 파라미터 규모의 coding agent 모델을 처음부터 학습하게 하며 개발자가 AI 학습 파이프라인 전체를 직접 이해하고 실습할 수 있는 환경을 제공한다.