Gemini Pro 3가 상상한 10년 후 Hacker News 프론트페이지
Show HN: Gemini Pro 3 imagines the HN front page 10 years from now
TL;DR Highlight
Gemini Pro 3가 현재 HN으로부터 2035년(10년 후) 모습을 예측하여 AI의 미래 예측 능력 한계와 재미있는 통찰을 동시에 드러냈다.
Who Should Read
AI 모델의 창의적 활용이나 미래 예측 능력에 관심 있는 개발자, 또는 HN 커뮤니티 문화를 즐기는 테크 종사자.
Core Mechanics
- 프로젝트 방식은 단순하다. 현재 HN 프론트페이지 HTML을 Gemini Pro 3에 넣고 '10년 후 프론트페이지를 HTML로 만들어달라'고 프롬프팅한 것이 전부다.
- 생성된 2035년 헤드라인 중 눈에 띄는 것들: 'Linux 7.4에 100% Rust 커널 upstream', 'ITER 핵융합로 20분 연속 순에너지 달성', 'FDA가 유당불내증용 CRISPR 일반의약품 승인', 'SQLite 4.0 출시', 'EU의 인간 검증 권리법 통과' 등 현재 트렌드를 적절히 외삽한 예측들이 나왔다.
- 풍자적 헤드라인도 포함됐다. 'Google이 Gemini Cloud Services 종료'(killedbygoogle.com), '콘택트렌즈에서 LLaMA-12 7B를 WASM으로 실행', 'AI를 사용하지 않는 텍스트 에디터' 등 현재 테크 업계 밈을 반영한 항목들이 있다.
- Gemini가 생성한 HN 사용자명 30개 중 정확히 절반인 15개가 실제 존재하는 계정이었다. HN 사용자명 컨벤션을 학습한 건지, 실제 유저를 기억하고 있는 건지 흥미로운 관찰이다.
- thomasm6m6라는 유저가 후속 작업으로 각 가짜 헤드라인에 실제 기사 내용까지 AI로 생성해서 더 완성도 높은 버전을 만들었다.
- 이 가짜 미래 프론트페이지가 실제 HN 프론트페이지에 올라가면서, '가짜 미래 프론트페이지가 실제 현재 프론트페이지에 등장하는 시간적 재귀 루프'가 완성됐다는 메타적 유머가 화제가 됐다.
- 시스템 시간을 2035년으로 바꾸고 'comments' 링크를 클릭하면 숨겨진 이스터에그가 나타나는 기능도 포함되어 있다.
Evidence
- 여러 댓글에서 AI가 10년 후 미래를 예측하는 데 형편없다는 지적이 나왔다. 한 유저는 Claude에게 같은 질문을 했더니 '오늘의 정답'을 그대로 내놨다며, LLM은 next token 예측에는 뛰어나지만 2차 효과(second-order effects)를 고려하지 못하기 때문에 장기 예측이나 개인 조언에 쓰면 위험하다고 경고했다.
- 'context taint' 문제를 지적한 댓글도 있었다. 현재 프론트페이지를 입력으로 줬기 때문에 결과물이 '현재 + 약간의 미래 변형'이라는 뻔한 공식에 갇혔다는 비판이다.
- 3년 전(2022년)에도 'This Hacker News Does Not Exist'라는 비슷한 프로젝트가 프론트페이지에 올랐는데, 그때는 AI 생성이 아니라 사람이 직접 만든 것이었다는 역사적 맥락이 공유됐다. 당시 만든 가짜 헤드라인 중 'Twitter 파산 신청', 'Facebook 19세에 사망' 같은 것들이 있었다.
- 'Right to Human Verification(인간 검증 권리)'에 대해 진지한 토론이 벌어졌다. 한 유저는 신원 인증과 익명성 모두를 권리로 보장받아야 한다며, SNS에서 인증된 사람만 필터링하되 익명 로그인도 가능해야 한다는 의견을 냈다.
- 한 유저는 Debian 18 링크를 실제 뉴스로 착각하고 클릭했다가 'Debian 14~17은 어떻게 놓쳤지?'라고 당황한 경험을 공유해 웃음을 자아냈다.
How to Apply
- LLM에게 '현재 상태를 입력으로 주고 미래를 외삽하게 하는' 프롬프팅 패턴은 브레인스토밍이나 시나리오 플래닝에 활용할 수 있다. 단, context taint를 줄이려면 현재 데이터를 직접 주기보다 트렌드만 요약해서 주는 게 더 다양한 결과를 낳는다.
- HTML 단일 파일로 스타일까지 정확히 재현하라는 프롬프트 기법은 기존 UI를 빠르게 프로토타이핑하거나 목업을 만들 때 바로 쓸 수 있다. 'style-exact'처럼 구체적 제약을 명시하면 출력 품질이 올라간다.
- LLM의 미래 예측을 제품 로드맵이나 기술 전략에 활용할 때는 2차 효과를 고려하지 못한다는 한계를 인지해야 한다. 예측 결과를 그대로 쓰기보다 '빠진 변수가 뭔지' 역으로 질문하는 방식이 더 유용하다.
Terminology
관련 논문
Claude Code에서 HTML을 출력 포맷으로 쓰는 이유: Markdown보다 나은 점들
Claude Code 팀이 Markdown 대신 HTML을 LLM 출력 포맷으로 선호하기 시작한 이유와 그 실용적 장점을 정리한 글로, AI와 함께 문서/스펙/대시보드를 만드는 워크플로우에 직접적인 영향을 준다.
언제 투표하고 언제 다시 쓸까: Disagreement 기반 Test-Time Scaling 전략 라우팅
모델 출력이 얼마나 일치하는지 보고 쉬운 문제엔 majority voting, 어려운 문제엔 문제 rewriting을 자동으로 선택해 정확도 3~7% 올리고 샘플링 비용도 줄이는 학습 불필요 프레임워크.
Less Is More: Android 앱에 On-Device Small Language Model 통합할 때 실제로 겪는 엔지니어링 문제들
Wordle 게임에 온디바이스 SLM(Gemma 4 E2B, Qwen3 0.6B)을 5일간 붙여보면서 발견한 5가지 실패 유형과 8가지 실용 해결책 정리
확장 가능한 Synthetic Data 생성을 위한 Dynamic Context Evolution
VTS + Semantic Memory + Adaptive Prompt 3가지 메커니즘으로 구성된 프레임워크는 LLM 대량 synthetic data 생성 시 배치 간 중복·반복 현상을 완전히 제거한다.
Karpathy 워크플로우에서 영감받아 사전 컴파일된 Wiki로 세션당 토큰 90%+ 절감
사전에 정리된 코드베이스 Wiki를 활용하면 Claude 세션당 토큰 사용량을 90% 이상 줄인다.
3개월치 AI 생성 코드를 전부 삭제했다. 그리고 배운 것들.
AI로 작성된 코드베이스를 70% 삭제 후 2주 만에 재작성하니 절반 크기로 줄어들면서 완전한 이해 가능성을 확보했다.