ChatGPT 출시 이전 콘텐츠만 검색해주는 브라우저 확장 프로그램 'Slop Evader'
Search tool that only returns content created before ChatGPT's public release
TL;DR Highlight
Chrome/Firefox 확장 프로그램이 2022년 11월 30일 이전의 인간 제작 콘텐츠만을 검색 결과로 표시하여 AI 생성 콘텐츠(슬롭) 유입을 완전히 차단한다.
Who Should Read
AI 생성 콘텐츠가 섞인 검색 결과에 피로감을 느끼는 개발자, 또는 신뢰할 수 있는 기술 문서나 원본 자료를 찾아야 하는 리서처.
Core Mechanics
- Slop Evader는 Google Search API를 이용해 2022년 11월 30일(ChatGPT 공개일) 이전에 게시된 콘텐츠만 필터링해서 보여주는 브라우저 확장 프로그램이다. Chrome과 Firefox에서 설치 가능.
- 핵심 아이디어는 단순하다. ChatGPT 이후 인터넷에 AI 생성 텍스트·이미지·영상이 급증했으니, 아예 그 이전 시점으로 검색 범위를 잘라버리자는 것.
- 사실 별도 확장 프로그램 없이도 Google에서 'before:2022' 같은 검색 연산자를 쓰면 동일한 효과를 얻을 수 있다. Mojeek 같은 독립 검색엔진도 before: 문법을 지원한다.
- 이 프로젝트는 Tega Brain이라는 아티스트의 작품으로, Pioneer Works 전시에도 출품됐다. 기술 도구이면서 동시에 AI 오염에 대한 문화적 논평이기도 하다.
- 커뮤니티에서는 'low-background token'이라는 개념이 언급됐다. 2차대전 이후 핵실험 이전에 제조된 저방사능 강철(low-background steel)처럼, AI 오염 이전의 텍스트 데이터가 희소한 자원이 될 수 있다는 비유.
- 실제로 ChatGPT가 할루시네이션한 답변을 메모리에 저장하고, 출처를 묻자 AI가 생성한 가짜 기사를 근거로 제시하는 순환 오염 사례가 댓글에서 보고됐다.
- 검색 품질 저하는 AI 이전부터 이미 진행 중이었다는 지적도 많았다. SEO 스팸, 광고 배치 확대, YouTube식 추천 로직의 일반 검색 적용 등이 기존 문제로 꼽혔다.
Evidence
- 여러 댓글에서 'before: 검색 연산자로 똑같이 할 수 있는데 왜 확장 프로그램이 필요하냐'는 실용적 반론이 나왔다. Google, Mojeek 등 대부분의 검색엔진이 before: 문법을 지원한다는 점이 언급됐다.
- 'low-background token' 개념이 큰 반향을 얻었다. Latent Space 뉴스레터의 swyx가 처음 비유한 것으로, 핵실험 이전 강철처럼 AI 오염 전 텍스트가 희소 자원이 된다는 아이디어. 다만 인간이 만든 토큰이 AI 토큰보다 꼭 더 높은 신호를 가지는지는 불분명하다는 자성도 있었다.
- 한 댓글러는 ChatGPT로 리서치하다가 할루시네이션 → 메모리 저장 → AI 생성 기사로 자기 인용하는 순환 오염을 직접 경험했다고 보고. 특히 웹에 잘 정리되지 않은 엣지 케이스 주제에서 이런 일이 자주 발생한다고 했다.
- AI 슬롭 문제가 과장됐다는 반론도 있었다. 'AI 생성 텍스트는 기존 SEO 스팸 콘텐츠 팜을 대체한 것일 뿐이고, 검색 위생만 잘 지키면 문제 없다'는 의견. Kagi 같은 유료 검색엔진으로 SEO 사이트를 차단하면 된다는 대안도 제시됐다.
- Cyberpunk 2077의 '구 인터넷/신 인터넷' 설정처럼 인간 전용 인터넷이 필요해질 수 있다는 SF적 사고실험도 나왔다. 물리적 신원 확인(meatspace verification)으로 인간성을 지속 검증하는 네트워크를 상상하는 댓글이었다.
How to Apply
- 기술 문서나 튜토리얼을 검색할 때 AI 생성 콘텐츠가 의심되면, 검색어에 'before:2022-11-30'을 추가해서 ChatGPT 이전 자료만 필터링할 수 있다. 확장 프로그램 설치 없이도 바로 적용 가능.
- LLM으로 리서치할 때 할루시네이션 순환 오염을 방지하려면, ChatGPT가 제시하는 출처 URL을 반드시 직접 방문해서 실제 존재하는 페이지인지, 내용이 일치하는지 교차 검증하는 습관을 들여야 한다.
- 검색 품질이 중요한 업무라면 Kagi(유료)나 Mojeek(독립 크롤러 기반) 같은 대안 검색엔진을 시도해보고, SEO 스팸 도메인을 블록리스트에 추가하는 방식으로 검색 위생을 관리할 수 있다.
- AI 이미지 오염이 없는 이미지 검색이 필요하면 same.energy를 활용할 수 있다. 몇 년 전 개발이 중단됐지만 아직 작동하며, 크롤링 시점 특성상 AI 생성 이미지가 포함되지 않았다.
Code Example
# Google 검색에서 ChatGPT 이전 콘텐츠만 검색하는 방법
# 별도 확장 프로그램 없이 before: 연산자 사용
https://www.google.com/search?q=your+search+term+before%3A2022-11-30
# Mojeek에서도 동일하게 사용 가능
https://www.mojeek.com/search?q=your+search+term+before%3A2022-11-30Terminology
관련 논문
LLM이 TLA+로 실제 시스템을 제대로 모델링할 수 있을까? — SysMoBench 벤치마크
LLM이 TLA+ 명세를 작성할 때 문법은 잘 통과하지만 실제 시스템과의 동작 일치도(conformance)는 46% 수준에 그친다는 걸 체계적으로 검증한 벤치마크 연구로, AI 기반 형식 검증의 현실적 한계를 보여준다.
Natural Language Autoencoders: Claude의 내부 활성화를 자연어 텍스트로 변환하는 기법
Anthropic이 LLM 내부의 숫자 벡터(활성화값)를 직접 읽을 수 있는 자연어로 변환하는 NLA 기법을 공개했다. AI가 실제로 무슨 생각을 하는지 해석하는 interpretability 연구의 새로운 진전이다.
ProgramBench: LLM이 프로그램을 처음부터 다시 만들 수 있을까?
LLM이 FFmpeg, SQLite, PHP 인터프리터 같은 실제 소프트웨어를 문서만 보고 처음부터 재구현할 수 있는지 측정하는 새 벤치마크로, 최고 모델도 전체 태스크의 3%만 95% 이상 통과하는 수준에 그쳤다.
MOSAIC-Bench:코딩 에이전트의 Compositional Vulnerability 유도 측정
티켓 3장으로 쪼개면 Claude/GPT도 보안 취약점 코드를 53~86% 확률로 그냥 짜준다.
LLM의 거절(Refusal) 동작은 단 하나의 방향(Direction)으로 제어된다
13개의 오픈소스 채팅 모델을 분석했더니, 모델이 유해한 요청을 거절하는 동작이 내부 활성화 공간에서 단 하나의 1차원 벡터 방향으로 인코딩되어 있었다. 이 방향을 제거하면 안전 파인튜닝이 사실상 무력화되므로, 현재 안전 학습 방식이 얼마나 취약한지 보여준다.
LLM의 구조화된 출력(Structured Output)을 테스트하는 새 벤치마크 SOB 공개
스키마 준수 여부만 보던 기존 벤치마크의 한계를 넘어, 실제 값의 정확도까지 7가지 지표로 평가하는 Structured Output Benchmark(SOB)가 공개됐다. 인보이스 파싱, 의료 기록 추출처럼 JSON 출력의 정확성이 중요한 프로덕션 시스템에서 어떤 모델을 써야 할지 판단하는 데 직접적으로 참고할 수 있다.