OpenAI, GPT-5.3-Codex 공개 — 코딩 특화 최신 모델
GPT-5.3-Codex
TL;DR Highlight
OpenAI가 코딩 특화 모델 GPT-5.3-Codex를 발표했는데, Terminal-Bench 2.0에서 77.3점으로 Anthropic Opus 4.6(65.4점)을 큰 폭으로 앞섰고, 사이버보안 역량이 'High'로 분류된 첫 모델이라 업계 주목을 받고 있다.
Who Should Read
LLM 기반 코딩 도구(Copilot, Claude Code, Codex 등)를 실무에 쓰고 있거나 도입을 검토 중인 개발자. AI 코딩 에이전트의 철학적 방향성(자율형 vs 협업형)에 관심 있는 엔지니어링 리더.
Core Mechanics
- GPT-5.3-Codex는 Terminal-Bench 2.0에서 77.3점을 기록했는데, 직전 모델인 GPT-5.2-Codex(64.7점)에서 큰 폭으로 올랐고, 같은 날 발표된 Anthropic Opus 4.6(65.4점)도 크게 앞섰다.
- OpenAI는 이 모델을 '인터랙티브 협업자'로 포지셔닝했다. 사용자가 실행 중간에 방향을 수정하고 계속 개입하는 human-in-the-loop 방식인데, Opus 4.6이 자율적으로 깊이 계획하고 오래 실행하는 에이전틱 방식을 추구하는 것과 대조적이다.
- GPT-5.3-Codex는 자기 자신의 학습 과정을 디버깅하는 데 사용된 최초의 모델이다. 초기 버전으로 자체 훈련 파이프라인의 버그를 잡았다고 하며, 이런 독포딩(dogfooding) 접근이 Claude Code의 성장 동력이었다는 평가도 있다.
- OpenAI Preparedness Framework 기준으로 사이버보안 역량이 'High'로 분류된 최초의 모델이다. 소프트웨어 취약점을 식별하도록 직접 학습시켰고, 안전장치로 safety training, 자동 모니터링, 위협 인텔리전스 파이프라인을 배치했다.
- 바이브코딩(vibe coding)으로 웹 게임을 만드는 벤치마크에서, 'fix the bug'이나 'improve the game' 같은 범용 프롬프트만으로 수백만 토큰에 걸쳐 자율 반복 개선을 수행했다고 한다. 다만 구체적 프롬프트 수나 토큰 소비량은 공개되지 않았다.
- 그래픽스 렌더링 파이프라인 작업에서 GPT-5.3-Codex가 Opus 4.6보다 눈에 띄게 나은 결과를 보였다는 사용 후기가 있다. Microsoft와의 파트너십(게임 분야 투자) 덕에 관련 학습 데이터나 RL이 더 강화됐을 수 있다는 추측이 나왔다.
- Anthropic이 같은 날 Opus 4.6을 발표했는데, GPT-5.3-Codex와의 벤치마크 비교를 피하려고 서둘러 발표한 것 아니냐는 관측이 있었다. 두 거대 AI 기업이 30분 간격으로 대형 발표를 한 것은 이례적이다.
- 보안 관점에서, AI가 기존 코드의 취약점을 찾는 것보다 AI가 작성한 코드 자체의 보안이 더 중요한 문제라는 지적이 나왔다. 바이브코딩이 확산되면서 보안에 취약한 코드가 대량 생산될 위험이 있으므로, Codex가 기본적으로 안전한 코드를 작성하도록 해야 한다는 것이다.
Evidence
- 코딩 AI의 두 가지 철학적 분화에 대한 토론이 활발했다. Codex(5.3)는 사용자가 중간에 개입하는 협업형, Opus 4.6은 위임 후 결과를 리뷰하는 자율형인데, 이는 실제 개발 조직에서도 나타나는 분화와 같다는 분석이 공감을 얻었다. 앞으로 벤치마크보다 'AI와 일하는 방식'의 차이가 모델 선택 기준이 될 것이라는 의견도 나왔다.
- Claude 사용자들이 사용량 제한(rate limit)에 자주 걸린다는 불만이 많은 반면, Codex $20/월 플랜은 몇 달간 헤비하게 써도 한 번도 초과하지 않았다는 경험 공유가 있었다. 코딩 성능의 미세한 차이보다 이 사용량 제한이 도구 선택에 더 큰 영향을 미친다는 주장이다.
- 바이브코딩 벤치마크의 투명성 부족에 대한 비판이 있었다. 웹 게임을 자율 반복한다고 하는데, 프롬프트가 3개인지 30개인지, 토큰이 1000만인지 1억인지 공개하지 않으면 모델 간 공정한 비교가 불가능하다는 것이다. 직접 바이브코딩으로 Factorio 웹 클론을 만든 개발자가 구체적 비교를 원한다며 자신의 프로젝트를 공유하기도 했다.
- AI 모델이 이 정도로 발전했는데 정작 '이전에 없던 비자명한 문제를 LLM이 대부분 작성해서 해결한 프로그램'을 하나라도 보여줄 수 있냐는 회의적 질문이 나왔다. 몇 년간 '100배 생산성'을 들어왔지만 구체적 증거가 부족하다는 지적이다.
- GPT-5.3-Codex가 사이버보안 'High' 등급을 받은 것에 대해, OpenAI의 Preparedness Framework가 구식이라는 비판이 나왔다. AI가 인간이 짠 코드를 공격하는 능력보다, AI가 짠 코드가 공격에 얼마나 취약한지를 측정하는 게 더 시급하다는 것이다.
How to Apply
- 코딩 AI 도구를 선택할 때, 작업 스타일에 따라 다르게 접근할 수 있다. 짧은 반복 주기로 자주 개입하며 코딩하는 스타일이면 Codex(human-in-the-loop), 큰 태스크를 위임하고 결과를 리뷰하는 스타일이면 Claude Code(자율 에이전트)가 더 맞을 수 있다.
- 팀에서 AI 코딩 도구를 도입할 때, 월 사용량 제한을 비교해야 한다. Claude Code는 헤비 유저가 자주 제한에 걸리는 반면 Codex $20/월은 여유가 있다는 피드백이 있으므로, 파일럿 기간에 실사용 패턴의 토큰 소비량을 측정해보는 것이 좋다.
- 바이브코딩으로 프로덕션 서비스를 만들고 있다면, AI가 생성한 코드의 보안 검증 단계를 CI/CD에 추가해야 한다. SAST 도구(Semgrep, CodeQL 등)를 파이프라인에 넣어서 AI 생성 코드의 취약점을 자동으로 잡는 방식이 실용적이다.
- 그래픽스/렌더링 관련 작업을 AI에 맡긴다면 GPT-5.3-Codex를 먼저 시도해볼 만하다. 커뮤니티에서 Opus 4.6 대비 렌더링 아티팩트가 적었다는 구체적 후기가 있었다.
Terminology
Terminal-Bench 2.0터미널 환경에서 AI가 실제 코딩 작업(디버깅, 빌드, 배포 등)을 얼마나 잘 수행하는지 측정하는 벤치마크. 실무에 가까운 태스크를 모아놓은 시험이라고 보면 된다.
Preparedness FrameworkOpenAI가 새 모델 출시 전에 위험도를 평가하는 자체 안전 프레임워크. 사이버보안, 생물학 등 분야별로 Low/Medium/High/Critical 등급을 매긴다.
Dogfooding자기가 만든 제품을 자기가 직접 써보는 것. GPT-5.3-Codex는 자기 학습 코드의 버그를 자기가 잡는 데 사용됐다.
Human-in-the-loopAI가 작업하는 중간중간에 사람이 개입해서 방향을 잡아주는 방식. 자율주행에서 운전자가 수시로 핸들을 잡는 것과 비슷하다.
Vibe Coding구체적 명세 없이 AI에게 대략적인 의도만 전달하고 코드를 생성하게 하는 방식. '분위기로 코딩한다'는 뜻에서 유래했다.