10억 달러 법률 AI 툴 리버스 엔지니어링으로 기밀 파일 10만 건 노출 발견
Reverse engineering a $1B Legal AI tool exposed 100k+ confidential files
TL;DR Highlight
법률 AI SaaS Filevine의 인증 없는 공개 API 엔드포인트가 Box 관리자 토큰을 반환하여 법무법인의 기밀 파일 10만 건 이상을 누구나 접근 가능하게 노출시킴.
Who Should Read
AI SaaS 제품을 개발하거나 도입 중인 백엔드/풀스택 개발자, 특히 외부 스토리지(Box, S3 등)와 연동 시 인증 설계를 맡은 개발자. 법률·금융 등 민감 데이터를 다루는 서비스의 보안 담당자.
Core Mechanics
- 서브도메인 열거(subdomain enumeration) 기법으로 margolis.filevine.com이라는 실 법무법인 연결 환경을 발견했고, 이 환경은 로그인 없이 접근 가능한 상태였다.
- 프론트엔드 JS 파일(난독화된 번들)을 뜯어보니 AWS API Gateway 엔드포인트(execute-api.us-west-2.amazonaws.com/prod/recommend)가 하드코딩돼 있었고, 인증 토큰 없이 임의 JSON payload만으로 호출 가능했다.
- 해당 엔드포인트는 응답으로 Box API의 최고 권한 admin 토큰을 반환했다. Box는 구글 드라이브 같은 기업용 파일 스토리지인데, 이 토큰 하나로 해당 법무법인의 전체 파일 시스템에 읽기·쓰기 접근이 가능했다.
- Box API로 'confidential' 키워드 검색을 했더니 결과가 10만 건에 가깝게 나왔다. 이 시점에서 즉시 테스트를 중단하고 책임 공개(responsible disclosure) 절차를 밟았다.
- 발견(10월 27일) → 업체 확인(11월 4일) → 패치 완료 확인(11월 20일) → 공개(12월 3일) 순으로 진행됐으며, Filevine 측은 공개 블로그 포스팅도 허용했다. 결과적으로 단일 법무법인 비프로덕션 인스턴스에 국한된 문제로 확인됐다.
- 아키텍처 문제의 핵심은 '백엔드가 처리해야 할 고권한 토큰을 프론트엔드(React 앱)에 직접 넘겨준 설계'다. 프론트엔드가 Box에 직접 연결하는 구조 자체가 근본적인 설계 오류였다.
- Filevine은 SOC 2 인증과 공식 침투 테스트(pentest) 프로그램을 운영 중이라고 홍보하고 있었으나, 이런 기초적인 취약점이 내부 검토에서 발견되지 않았다는 점에서 보안 인증의 실효성에 의문이 제기됐다.
Evidence
- 취약점의 심각성을 실감하게 해주는 코멘트가 많았다. '인증 없음 + 암호화 없음(HTTP) + 모든 응답에 토큰 포함 + 전체 admin 접근'이 동시에 발생한 상황을 '뒷문도 열려 있고 창문도 열려 있는데 기밀 서류가 바닥에 널브러진 법무법인'에 비유하는 댓글이 높은 공감을 받았다.
- 한 달 가까운 수정 기간에 대해 '보안@ 이메일을 안 읽나, 휴가 중인가, 스팸에 묻혔나'라는 의문이 제기됐다. 실제 코드 수정은 1시간 이내일 텐데 트리아지(triage, 취약점 심각도 분류 및 우선순위 결정)에 왜 이렇게 오래 걸렸냐는 비판이 있었다.
- AI SaaS 업계 전반의 보안 문화를 지적하는 경험담도 나왔다. 에이전틱 AI 스타트업 여러 곳에서 일한 개발자가 '구조가 잘 잡힌 조직들도 OpenAI/Google/Meta가 내일 같은 걸 출시할까 봐 두려워서 move fast and break things 모드로 돌아가고 있다'고 토로했다.
- SOC 2, HIPAA 등 보안 인증의 한계를 지적하는 댓글이 많았다. 한 엔지니어는 '인증 취득을 위해 수백 장의 스크린샷과 서류를 제출했지만, 정작 중요한 것들은 검토되지 않는다'며 '보안 연극(security theater)'이라고 비판했다.
- 공개 여부를 놓고 의견이 엇갈렸다. '비공개 패치만 하면 회사가 배상 없이 넘어가니 오히려 피해자 없는 사건이 된다'며 책임 공개보다 즉시 공개를 지지하는 의견과, '공개를 막으면 앞으로 기업들이 취약점을 숨기게 된다'며 Filevine이 공개를 허용한 것을 칭찬하는 의견이 대립했다.
How to Apply
- 외부 스토리지(Box, S3, GCS 등)와 연동 시 프론트엔드에 직접 토큰을 전달하지 말 것. 프론트엔드 → 자체 백엔드 API → 스토리지 순으로 요청을 프록시하거나, 단기 서명 URL(presigned URL)을 생성해 제한된 권한만 부여하는 방식을 사용하면 토큰 탈취 피해를 최소화할 수 있다.
- AWS API Gateway, Lambda 등으로 만든 내부 API 엔드포인트도 퍼블릭에서 접근 가능한지 정기적으로 점검할 것. 서브도메인 열거 도구(amass, subfinder 등)로 자사 도메인을 스캔해보면 잊혀진 데모·스테이징 환경을 발견하는 경우가 많다.
- 보안 공개 이메일(security@)을 실제로 모니터링하고 SLA를 정해둘 것. HN 댓글에서 지적됐듯이 초기 응답에 8일이 걸린 건 스팸 필터나 담당자 부재 문제일 가능성이 높다. 자동 응답 + 전용 티켓 시스템으로 접수 누락을 막는 것이 기본이다.
- 법률·금융·의료처럼 민감 데이터를 다루는 AI SaaS를 도입할 때, SOC 2 인증서만 보지 말고 실제 아키텍처 문서(데이터 흐름도, 접근 제어 정책)를 요청할 것. 이 사례처럼 인증과 실제 보안 수준이 다를 수 있다.
Code Example
// 취약한 패턴: 프론트엔드에서 고권한 토큰을 직접 받아 외부 API 호출
const res = await fetch(`${BOX_SERVICE}/recommend`, {
method: 'POST',
body: JSON.stringify({ projectName: 'Very sensitive Project' })
// Authorization 헤더 없음!
});
const { boxToken } = await res.json(); // admin 토큰이 그대로 내려옴
// 안전한 패턴: 백엔드가 프록시하거나 단기 presigned URL 발급
// 백엔드 (Node.js 예시)
app.get('/api/file/:fileId', authenticate, async (req, res) => {
// 1. 사용자 권한 확인
const hasAccess = await checkPermission(req.user, req.params.fileId);
if (!hasAccess) return res.status(403).json({ error: 'Forbidden' });
// 2. 내부에서만 보관하는 토큰으로 Box API 호출
const boxClient = new BoxClient({ accessToken: process.env.BOX_ADMIN_TOKEN });
const downloadUrl = await boxClient.files.getDownloadURL(req.params.fileId);
// 3. 단기 URL만 전달 (토큰 직접 노출 없음)
res.json({ url: downloadUrl, expiresIn: 60 });
});Terminology
관련 논문
LLM이 TLA+로 실제 시스템을 제대로 모델링할 수 있을까? — SysMoBench 벤치마크
LLM이 TLA+ 명세를 작성할 때 문법은 잘 통과하지만 실제 시스템과의 동작 일치도(conformance)는 46% 수준에 그친다는 걸 체계적으로 검증한 벤치마크 연구로, AI 기반 형식 검증의 현실적 한계를 보여준다.
Natural Language Autoencoders: Claude의 내부 활성화를 자연어 텍스트로 변환하는 기법
Anthropic이 LLM 내부의 숫자 벡터(활성화값)를 직접 읽을 수 있는 자연어로 변환하는 NLA 기법을 공개했다. AI가 실제로 무슨 생각을 하는지 해석하는 interpretability 연구의 새로운 진전이다.
ProgramBench: LLM이 프로그램을 처음부터 다시 만들 수 있을까?
LLM이 FFmpeg, SQLite, PHP 인터프리터 같은 실제 소프트웨어를 문서만 보고 처음부터 재구현할 수 있는지 측정하는 새 벤치마크로, 최고 모델도 전체 태스크의 3%만 95% 이상 통과하는 수준에 그쳤다.
MOSAIC-Bench:코딩 에이전트의 Compositional Vulnerability 유도 측정
티켓 3장으로 쪼개면 Claude/GPT도 보안 취약점 코드를 53~86% 확률로 그냥 짜준다.
LLM의 거절(Refusal) 동작은 단 하나의 방향(Direction)으로 제어된다
13개의 오픈소스 채팅 모델을 분석했더니, 모델이 유해한 요청을 거절하는 동작이 내부 활성화 공간에서 단 하나의 1차원 벡터 방향으로 인코딩되어 있었다. 이 방향을 제거하면 안전 파인튜닝이 사실상 무력화되므로, 현재 안전 학습 방식이 얼마나 취약한지 보여준다.
LLM의 구조화된 출력(Structured Output)을 테스트하는 새 벤치마크 SOB 공개
스키마 준수 여부만 보던 기존 벤치마크의 한계를 넘어, 실제 값의 정확도까지 7가지 지표로 평가하는 Structured Output Benchmark(SOB)가 공개됐다. 인보이스 파싱, 의료 기록 추출처럼 JSON 출력의 정확성이 중요한 프로덕션 시스템에서 어떤 모델을 써야 할지 판단하는 데 직접적으로 참고할 수 있다.