Hamilton-Jacobi-Bellman 방정식: Reinforcement Learning과 Diffusion Model의 수학적 연결고리
Hamilton-Jacobi-Bellman Equation: Reinforcement Learning and Diffusion Models
TL;DR Highlight
1840년대 물리학 방정식이 현대 RL과 Diffusion Model을 하나로 잇는다는 걸 보여주는 수학 블로그 포스트. 연속 시간 RL과 생성 모델 훈련이 같은 최적 제어 문제의 두 얼굴임을 설명한다.
Who Should Read
강화학습이나 Diffusion Model의 수학적 배경을 깊게 이해하고 싶은 ML 연구자나 대학원생. 특히 이산 시간 Bellman 방정식은 알고 있지만 연속 시간으로의 확장이 낯선 개발자.
Core Mechanics
- Richard Bellman이 1952년 동적 프로그래밍(Dynamic Programming) 이론을 발표했고, 이후 이를 연속 시간으로 확장하면서 1840년대 물리학에서 나온 Hamilton-Jacobi 방정식과 수학적으로 동일한 구조임을 발견했다. 즉 현대 RL의 핵심 방정식이 고전역학 방정식의 재발견인 셈이다.
- 이산 시간 Bellman 방정식에서 시간 간격 h를 0으로 보내면 PDE(편미분방정식) 형태의 HJB(Hamilton-Jacobi-Bellman) 방정식이 나온다. 핵심은 '지금 당장 받는 보상 + 미래 가치의 기울기 × 시스템 변화율 = 0'이라는 구조로, 최적 제어 조건을 미분 방정식으로 표현한 것이다.
- 노이즈가 있는 확률적 시스템(Itô 프로세스, 즉 Brownian Motion이 섞인 동역학)에서는 Itô의 공식 덕분에 HJB에 Laplacian 항(σσᵀ의 trace 항)이 추가된다. 이게 결정론적 시스템과의 핵심 차이다.
- 연속 시간 RL의 Policy Iteration은 두 단계로 구성된다. Policy Evaluation 단계에서는 Feynman-Kac 공식을 써서 현재 정책의 가치 함수를 Monte Carlo로 추정하고, Policy Improvement 단계에서는 추정된 가치 함수의 기울기를 이용해 더 나은 행동을 찾는다.
- Model-Free 연속 시간 Q-learning도 소개된다. Q함수(상태-행동 쌍의 가치)를 직접 학습하는데, 이산 시간 Q-learning의 TD 오차에 해당하는 연속 시간 버전의 조건을 신경망으로 근사한다.
- 실용 예제로 Stochastic LQR(선형 동역학 + 이차 비용 + 노이즈)과 Merton Portfolio(연속 시간 포트폴리오 최적화) 문제를 다룬다. 두 문제 모두 HJB를 풀면 closed-form 해가 나오므로 알고리즘 검증에 유용하다.
- Diffusion Model 훈련을 확률적 최적 제어 문제로 해석할 수 있다. 노이즈에서 데이터로 가는 역방향 프로세스를 제어 문제로 보면, score function(데이터 분포의 로그 기울기)이 최적 제어 입력에 해당한다는 연결이 나온다.
Evidence
- RL 입문자라고 밝힌 댓글 작성자가 '이 포스트는 내 수준을 넘어서는데, ML 라이브러리로 step-by-step 구현한 예제가 있는 좋은 책이나 자료가 있냐'고 질문했다. 이 글이 수학적 배경이 상당히 요구된다는 방증이다.
- 전기공학 학부에서 제어 이론을 배웠던 사람이 '제어 이론의 수학이 이렇게 오랫동안 유용하게 남아있다는 게 반갑다'는 댓글을 남겼다. 제어 이론 배경이 있으면 이 글의 내용이 훨씬 자연스럽게 받아들여진다는 점을 시사한다.
- 일반 소프트웨어 엔지니어 댓글 작성자는 '수학자들에게 완전히 압도당하는 느낌이고, 소프트웨어 분야가 5년 안에 살아남을지도 모르겠다. 얼음 장수를 하고 있는데 냉장고가 발명될 것 같은 느낌'이라고 솔직한 불안감을 표현했다. 이 글의 수학적 난이도가 일반 개발자에게는 상당히 높다는 걸 보여준다.
- 한 댓글 작성자가 '디지털 컴퓨터에서 연속 시간 수학이 왜 적용 가능한지 명확하지 않다'는 근본적인 문제를 제기했다. 실수(Real Number)는 Dedekind cut이나 Cauchy sequence의 동치류로 정의되는데, 디지털 컴퓨터는 유한한 bit string만 다루므로 무한 정밀도가 필요한 해석학 방정식이 알고리즘에 그대로 대응된다는 게 전혀 자명하지 않다는 지적이다. 이 점은 수치 해석 분야에서 항상 '양탄자 밑으로 쓸어 넣어지는' 문제라고 비판했다.
- 댓글에서 수식 레이아웃 버그(Bellman equation 레이블이 수식과 겹침)와 인용 기호가 HJB 수식에 섞여 들어간 문제, '수정 제안' 링크가 404 에러를 내는 문제가 보고됐다. 블로그 포스트가 아직 polish가 덜 된 상태임을 알 수 있다.
How to Apply
- 연속 시간 RL 환경(로보틱스, 금융 포트폴리오 최적화 등)을 다루는 경우, 이산 시간 Q-learning 대신 이 포스트에서 설명하는 연속 시간 Q-learning을 적용하면 시간 간격 선택에 덜 민감한 학습이 가능하다. 특히 Merton Portfolio 예제는 금융 강화학습 프로젝트의 baseline 검증용으로 바로 활용할 수 있다.
- Diffusion Model을 커스터마이징하거나 새로운 샘플링 알고리즘을 연구하는 경우, 역방향 SDE를 확률적 최적 제어 문제로 재해석하면 score function 설계에 새로운 관점을 얻을 수 있다. 이 포스트의 Diffusion Models 섹션을 참고해 자신의 모델의 score matching 목적 함수가 어떤 제어 문제를 푸는 것인지 확인해볼 수 있다.
- 신경망으로 가치 함수(Value Function)를 근사하는 Neural Policy Iteration을 구현할 때, 이 포스트의 Feynman-Kac Monte Carlo 기법을 Evaluation 단계에 적용하면 PDE를 직접 풀지 않고도 경로 샘플링만으로 가치를 추정할 수 있다. LQR처럼 analytic 해가 있는 간단한 문제로 먼저 검증한 뒤 복잡한 환경에 확장하는 순서를 권장한다.
Terminology
HJB (Hamilton-Jacobi-Bellman) 방정식최적 제어 문제에서 '가장 좋은 행동 전략'이 만족해야 하는 편미분방정식. 이산 시간 Bellman 방정식을 시간 간격을 무한히 줄여서 연속 시간으로 확장한 버전이다.
Itô 프로세스시간에 따라 변하는 확률적 시스템. 결정론적 변화에 Brownian Motion(랜덤 흔들림)을 더한 형태로, 금융 자산 가격이나 로봇의 노이즈 섞인 움직임을 모델링할 때 쓴다.
Feynman-Kac 공식PDE의 해를 확률적 경로(샘플)의 기댓값으로 표현하는 방법. 방정식을 직접 푸는 대신 시뮬레이션으로 Monte Carlo 추정을 할 수 있게 해준다.
Score Function데이터 분포의 로그 확률 밀도함수의 기울기(∇ log p(x)). Diffusion Model에서 노이즈를 제거하는 방향을 알려주는 핵심 신호로, 최적 제어 관점에서는 최적 제어 입력에 해당한다.
LQR (Linear Quadratic Regulator)선형 동역학 + 이차(Quadratic) 비용 함수를 가진 제어 문제. 이 조합에서는 최적 제어 입력이 상태의 선형 함수로 깔끔하게 나오기 때문에 알고리즘 검증용 기준 문제(benchmark)로 자주 쓴다.
Dynamic Programming Principle (DPP)최적 전략은 '지금 이 순간의 선택 + 앞으로의 최적 전략'으로 분해할 수 있다는 원리. HJB 방정식을 유도하는 핵심 아이디어이며, Q-learning 등 모든 RL 알고리즘의 이론적 뿌리다.