Claude Design 구독 해지 후 프로젝트 접근 불가 경험담 및 주의사항
Tell HN: Dont use Claude Design, lost access to my projects after unsubscribing
TL;DR Highlight
Claude Design 구독을 해지했더니 기존 프로젝트에 접근이 완전히 차단됐다는 사용자 경고로, AI 도구에 중요한 작업물을 의존할 때의 리스크를 잘 보여주는 사례다.
Who Should Read
Claude Code, Claude Design 등 Anthropic 유료 서비스를 사용 중이거나 도입을 고려 중인 개발자 및 디자이너. 특히 프로젝트 결과물을 플랫폼에 저장해두고 사용하는 경우 반드시 읽어볼 것.
Core Mechanics
- 작성자는 5개월간 Claude Code Max 구독을 유지하다가 OpenAI Codex를 테스트해보기 위해 구독을 해지했는데, 다시 Claude Design에 접속하자 기존에 만들어둔 프로젝트에 전혀 접근할 수 없게 됐다.
- 작성자가 특히 당황한 이유는, 지금까지 사용해온 다른 LLM 앱들은 구독을 해지해도 과거 세션이나 프로젝트에 대한 접근을 유지해줬기 때문이다. Claude Design의 이런 동작은 업계 일반적인 관행과 다르다고 느꼈다.
- 비슷한 문제로, 이전에 Anthropic이 서비스 장애 보상으로 월 구독료 상당의 크레딧을 지급했는데 플랜이 종료되자 그 크레딧도 소멸됐고, 재구독 후에도 복구되지 않았다.
- 작성자는 빌링 회사 근무 경험을 바탕으로, 복잡한 과금 계약이 영업/성장팀에는 매력적으로 보이지만 실제 구현하는 엔지니어에게는 엣지 케이스가 엄청나게 많아 고통스럽다고 설명했다. 그런데 이런 '버그'들이 하필 항상 사용자에게 불리한 방향으로 작동한다는 점이 문제라고 지적했다.
- 작성자는 X(구 트위터)에서 Anthropic을 여러 차례 태그해 알렸지만 반응이 없었고, 팔로워가 많은 사람이 문제를 제기할 때만 해결해준다는 점에서 불만을 토로했다.
- Claude Design으로 만든 결과물의 코드 품질 문제도 추가로 언급됐는데, 시각적으로는 놀랍도록 아름다운 디자인을 만들어내지만 실제 코드는 20개 이상의 SVG, JavaScript가 단일 파일에 인라인으로 박힌 형태로, 사람이 유지보수하거나 읽기 불가능한 수준이라는 지적이 있었다.
- 유지보수 불가능한 코드는 단순히 가독성 문제에서 그치지 않고, 아무도 읽지 않는 코드에는 보안 취약점이 숨어 있을 수 있다는 보안 리스크도 함께 제기됐다.
Evidence
- 구독 해지 후 데이터 삭제가 당연하다는 반론도 있었다. 'SaaS 구독을 해지했는데 데이터를 유지해줄 거라 기대하는 게 이상한 것 아니냐'는 의견이었는데, 이에 대해 반박 댓글이 달렸다. Google은 구독 해지 후에도 2년간 읽기 전용 접근을 제공하고, Claude에는 무료 플랜도 있는데 구독 해지 즉시 완전히 차단하는 건 이례적이라는 주장이었다.
- LLM이 시각 디자인에 본질적으로 적합하지 않다는 의견도 있었다. Figma를 그만두고 직접 디퓨전(이미지 생성 AI) 기반 UI 디자인 도구를 만들고 있다는 개발자는, LLM은 중첩된 HTML/CSS의 공간적 레이아웃 처리에 취약하므로 초기 방향 잡기에는 GPT-Image-2 같은 이미지 생성 모델이 더 빠르고 저렴하다고 추천했다.
- 위 의견에 반론도 있었다. 최신 프론티어 모델들은 모두 멀티모달이라 이미지를 토큰으로 직접 처리할 수 있는데 'LLM이 시각적으로 맹목적'이라는 주장은 사실과 다르며, GPT-Image-2도 디퓨전 모델이 아니라는 기술적 정정이 달렸다.
- IP(지적재산권) 소유권 문제도 제기됐다. 파일을 단순히 보관하는 GitHub 같은 스토리지와 달리, ML 시스템에 데이터가 들어갔을 때 접근이 차단되면 Anthropic이 해당 작업물의 IP를 사실상 취득하는 게 아니냐는 법적 우려가 나왔다.
- Claude팀이 핵심 안정성 개선이나 버그픽스보다 Claude Design 같은 '곁가지 기능' 추가에 집중하고 있다는 비판도 있었다. 이런 기능보다 기존 서비스의 신뢰성을 먼저 챙겨야 한다는 취지였다.
How to Apply
- Claude Design, Claude Code 등 Anthropic 플랫폼에서 작업하는 경우, 플랫폼 내에만 결과물을 저장하지 말고 로컬이나 GitHub 등 자체 저장소에 항상 주기적으로 백업해둬야 한다. 구독 해지나 플랜 변경 시 즉시 접근이 차단될 수 있다.
- Claude Design이 생성한 코드를 프로덕션이나 장기 운영 프로젝트에 그대로 사용하려는 경우, 단일 파일에 SVG/JS가 인라인으로 대거 포함된 구조는 유지보수와 보안 감사가 사실상 불가능하므로, 생성된 코드를 모듈화하고 리팩토링하는 작업을 반드시 거쳐야 한다.
- AI 플랫폼에서 보상 크레딧이나 프로모션 크레딧을 받은 경우, 해당 크레딧의 만료 조건(플랜 종료 시 소멸 여부 등)을 반드시 약관에서 확인하고, 재구독해도 복구가 안 될 수 있으므로 플랜이 유지되는 기간 안에 소진 계획을 세워야 한다.
- UI 디자인 시안을 빠르게 탐색해야 하는 초기 단계라면, Claude Design보다 GPT-Image-2 같은 이미지 생성 모델로 여러 방향의 비주얼을 먼저 확인한 뒤 방향이 결정되면 코드로 구현하는 워크플로우가 비용과 속도 면에서 더 효율적일 수 있다.
Terminology
관련 논문
TanStack NPM 공급망 공격 사후 분석 (Postmortem)
2026년 5월 11일 TanStack의 42개 npm 패키지가 GitHub Actions cache poisoning과 OIDC 토큰 탈취를 조합한 공격으로 악성 버전이 배포됐으며, 공격 벡터와 대응 과정을 상세히 분석한 글이다.
LLM이 TLA+로 실제 시스템을 제대로 모델링할 수 있을까? — SysMoBench 벤치마크
LLM이 TLA+ 명세를 작성할 때 문법은 잘 통과하지만 실제 시스템과의 동작 일치도(conformance)는 46% 수준에 그친다는 걸 체계적으로 검증한 벤치마크 연구로, AI 기반 형식 검증의 현실적 한계를 보여준다.
Natural Language Autoencoders: Claude의 내부 활성화를 자연어 텍스트로 변환하는 기법
Anthropic이 LLM 내부의 숫자 벡터(활성화값)를 직접 읽을 수 있는 자연어로 변환하는 NLA 기법을 공개했다. AI가 실제로 무슨 생각을 하는지 해석하는 interpretability 연구의 새로운 진전이다.
ProgramBench: LLM이 프로그램을 처음부터 다시 만들 수 있을까?
LLM이 FFmpeg, SQLite, PHP 인터프리터 같은 실제 소프트웨어를 문서만 보고 처음부터 재구현할 수 있는지 측정하는 새 벤치마크로, 최고 모델도 전체 태스크의 3%만 95% 이상 통과하는 수준에 그쳤다.
첫 번째 토큰이 이미 알고 있다: Single-Decode Confidence로 Hallucination 탐지하기
LLM이 답변의 첫 토큰을 생성할 때의 확률 분포만 봐도, 10번 샘플링하는 semantic self-consistency와 맞먹는 hallucination 탐지 성능이 나온다.
MOSAIC-Bench:코딩 에이전트의 Compositional Vulnerability 유도 측정
티켓 3장으로 쪼개면 Claude/GPT도 보안 취약점 코드를 53~86% 확률로 그냥 짜준다.