Meta AI 스마트 글래스의 데이터 프라이버시 문제: 하청 노동자들이 목격한 것들
Meta’s AI smart glasses and data privacy concerns
TL;DR Highlight
Meta Ray-Ban 스마트 글래스로 촬영된 영상과 사진이 나체, 은행카드 등 극도로 민감한 개인정보를 포함한 채 케냐 등 해외 하청업체 노동자들에게 전달되어 리뷰되고 있다.
Who Should Read
웨어러블 디바이스나 AI 제품을 기획·개발 중인 PM과 개발자, 또는 Meta Ray-Ban 글래스를 사용 중이거나 구매를 고려하는 사람. 사용자 데이터 파이프라인의 프라이버시 설계에 관심 있는 엔지니어.
Core Mechanics
- 스웨덴 언론 SvD와 GP가 케냐 나이로비의 Meta 하청업체 Sama 직원들을 직접 인터뷰했는데, 이들이 Meta 스마트 글래스에서 수집된 영상을 리뷰하면서 나체, 성행위, 은행카드 정보 등 극도로 사적인 콘텐츠를 일상적으로 목격하고 있다고 증언했다.
- 글래스 착용자가 안경을 침대 옆 탁자에 올려두고 나간 사이 배우자가 옷을 갈아입는 영상이 녹화되어 하청 직원에게 전달된 사례가 보고됐다. 피촬영자가 녹화 사실을 인지하지 못한 상태였다.
- 이 하청 노동자들은 'data annotator(데이터 주석 작업자)'로, AI가 세상을 인식하도록 화면 속 사물에 박스를 그리고 윤곽을 따는 작업을 한다. 화분, 교통 표지판 같은 일반 객체뿐 아니라 위에서 말한 민감한 영상도 포함된다.
- Meta는 글래스가 녹화 중일 때 LED 표시등이 켜지도록 설계했다고 하지만, 실제로는 착용하지 않은 상태에서도 녹화가 되는 사례가 보고됐고, 주변 사람들이 LED를 인식하지 못하는 경우가 대부분이다.
- Mark Zuckerberg는 2025년 9월 실시간 번역, 얼굴 인식 등을 탑재한 차세대 글래스를 공개하며 스마트폰 대체 디바이스로 포지셔닝했다. 하지만 정작 데이터가 어떤 경로로 누구에게 전달되는지는 투명하게 공개하지 않았다.
- Meta 내부 문서에 따르면, 시민단체들이 다른 이슈에 자원을 집중하는 '정치적으로 역동적인 환경'을 틈타 얼굴 인식 기능을 출시할 계획이라고 뉴욕타임스가 보도했다.
- 글래스의 설정에서 'Cloud media'와 'Share additional data'를 끌 수 있지만, 이 설정이 실제로 인간 리뷰 파이프라인에서 데이터를 완전히 차단하는지는 Meta가 명확히 밝히지 않고 있다.
Evidence
- 실제 Meta Ray-Ban 사용자가 'Cloud media'와 'Share additional data' 설정을 모두 꺼둔 상태인데도, 자기 데이터가 인간 리뷰 대상에서 정말 제외되는지 확인할 방법이 없다며, 명확한 답을 얻기 전까지 사용을 중단하겠다고 밝혔다.
- 두 대형 소셜미디어 회사에서 일한 경험이 있는 엔지니어가 '인터넷에 연결된 모든 기기의 데이터는 회사 직원이 볼 수 있다고 가정해야 한다'고 단언했다. 디버깅, 분석, 서드파티 벤더 버그, 느슨한 권한 모델 등 5가지 경로를 구체적으로 제시했다.
- 2012년 Google Glass가 나왔을 때도 'creeper glasses'라고 불리며 사회적으로 거부당한 전례가 있는데, Meta 글래스도 같은 운명이 될 거라는 의견이 있었다. 반면 일부는 '이미 은행·병원·통신사가 더 민감한 데이터를 갖고 있는데 광고용 데이터 정도는 감수할 수 있다'고 반론했다.
- 가나에서 러시아 국적 남성이 스마트 글래스로 여성들과의 성관계를 몰래 촬영해 텔레그램에 올린 사건이 실제로 발생했고, 가나 당국이 체포 영장을 발부했다는 사례가 공유됐다.
- 일본·한국처럼 스마트폰 카메라에 강제 셔터음을 넣은 것처럼, 스마트 글래스에도 녹화 시 강제 알림 사운드를 법적으로 의무화해야 한다는 의견이 있었고, 근처의 스마트 글래스를 감지하는 오픈소스 도구(yj_nearbyglasses)를 이미 사용하고 있다는 댓글도 있었다.
How to Apply
- 웨어러블 디바이스나 카메라 내장 제품을 설계할 때, 녹화 상태를 주변 사람에게도 명확히 알리는 UX(LED + 사운드 + 진동)를 필수 요소로 넣어야 한다. 단순 LED만으로는 인지율이 매우 낮다.
- AI 데이터 파이프라인을 구축할 때, 인간 리뷰어가 접근하는 데이터에 자동으로 민감 정보(얼굴, 카드번호, 나체 등)를 블러 처리하는 전처리 단계를 반드시 포함시켜야 한다. PII(개인식별정보) 필터링 없이 raw 데이터를 하청에 넘기는 건 GDPR·개인정보보호법 위반 리스크가 크다.
- Meta Ray-Ban 글래스를 현재 사용 중이라면, Settings에서 'Cloud media'와 'Share additional data'를 즉시 끄고, 'Hey Meta' AI 기능 사용 시 민감한 환경에서는 쓰지 않는 게 안전하다. 사용하지 않을 때는 케이스에 넣어 물리적으로 카메라를 차단할 것.
- BLE(Bluetooth Low Energy) 스캔으로 주변의 Meta 글래스를 감지하는 오픈소스 도구 yj_nearbyglasses(github.com/yjeanrenaud/yj_nearbyglasses)를 사무실이나 민감한 공간에 배치해 알림을 받는 방식을 고려해볼 수 있다.
Terminology
관련 논문
LLM이 TLA+로 실제 시스템을 제대로 모델링할 수 있을까? — SysMoBench 벤치마크
LLM이 TLA+ 명세를 작성할 때 문법은 잘 통과하지만 실제 시스템과의 동작 일치도(conformance)는 46% 수준에 그친다는 걸 체계적으로 검증한 벤치마크 연구로, AI 기반 형식 검증의 현실적 한계를 보여준다.
Natural Language Autoencoders: Claude의 내부 활성화를 자연어 텍스트로 변환하는 기법
Anthropic이 LLM 내부의 숫자 벡터(활성화값)를 직접 읽을 수 있는 자연어로 변환하는 NLA 기법을 공개했다. AI가 실제로 무슨 생각을 하는지 해석하는 interpretability 연구의 새로운 진전이다.
ProgramBench: LLM이 프로그램을 처음부터 다시 만들 수 있을까?
LLM이 FFmpeg, SQLite, PHP 인터프리터 같은 실제 소프트웨어를 문서만 보고 처음부터 재구현할 수 있는지 측정하는 새 벤치마크로, 최고 모델도 전체 태스크의 3%만 95% 이상 통과하는 수준에 그쳤다.
MOSAIC-Bench:코딩 에이전트의 Compositional Vulnerability 유도 측정
티켓 3장으로 쪼개면 Claude/GPT도 보안 취약점 코드를 53~86% 확률로 그냥 짜준다.
LLM의 거절(Refusal) 동작은 단 하나의 방향(Direction)으로 제어된다
13개의 오픈소스 채팅 모델을 분석했더니, 모델이 유해한 요청을 거절하는 동작이 내부 활성화 공간에서 단 하나의 1차원 벡터 방향으로 인코딩되어 있었다. 이 방향을 제거하면 안전 파인튜닝이 사실상 무력화되므로, 현재 안전 학습 방식이 얼마나 취약한지 보여준다.
LLM의 구조화된 출력(Structured Output)을 테스트하는 새 벤치마크 SOB 공개
스키마 준수 여부만 보던 기존 벤치마크의 한계를 넘어, 실제 값의 정확도까지 7가지 지표로 평가하는 Structured Output Benchmark(SOB)가 공개됐다. 인보이스 파싱, 의료 기록 추출처럼 JSON 출력의 정확성이 중요한 프로덕션 시스템에서 어떤 모델을 써야 할지 판단하는 데 직접적으로 참고할 수 있다.