LLM 자동 채점의 일관성: 모델 내·모델 간 편차와 Voting 전략
On the Consistency of Automatic Scoring with Large Language Models.
TL;DR Highlight
여러 LLM의 다수결 투표가 같은 모델 내 편차는 거의 없으면서도 모델 간 편차가 크다는 특성을 활용하여 자동 채점 정확도를 높인다.
Who Should Read
LLM을 이용해 사용자 답변, 에세이, 코드 품질 등을 자동 평가하는 파이프라인을 구축 중인 AI 엔지니어나 교육 테크 개발자.
Core Mechanics
- Claude, DeepSeek, Gemini, GPT, Qwen 5개 모델 테스트 결과, 같은 모델 내(intra-LLM) 반복 채점 일관성은 temperature 설정과 무관하게 거의 완벽 수준
- 서로 다른 모델 간(inter-LLM) 일관성은 중간 수준 — 채점하기 쉬운 문항일수록 모델 간 합의도 높아짐
- 모델 내 일관성이 높다고 채점 정확도가 높은 건 아님 — 혼자서 일관되게 틀릴 수 있다는 뜻
- 반면 모델 간 일관성은 채점 정확도와 강한 양의 상관관계 — 여러 모델이 동의하면 실제로 맞을 가능성이 높음
- 여러 LLM의 결과를 다수결(majority voting)로 합산하면 단일 모델보다 채점 정확도 향상
Evidence
- 5개 LLM 모두 intra-LLM 일관성에서 'almost perfect' 등급 달성 (Cohen's kappa 기준)
- inter-LLM 일관성은 'moderate' 수준으로, 쉬운 채점 문항에서 더 높은 모델 간 합의 확인
- intra-LLM 일관성과 채점 정확도 간 상관관계 없음 vs inter-LLM 일관성과 정확도 간 강한 양의 상관관계
- majority voting 전략 적용 시 단일 LLM 대비 채점 정확도 유의미하게 향상 (ASAP 오픈 데이터셋 및 과학 교육 평가 데이터 기준)
How to Apply
- 단일 LLM으로 채점하는 경우: temperature를 0으로 고정해도 일관성은 확보되지만, 정확도 보장은 별개 문제이므로 정답 레이블과 비교하는 검증 단계를 추가할 것
- 높은 채점 정확도가 필요한 경우: Claude, GPT, Gemini 등 2~3개 모델에 동일 프롬프트를 보내고 다수결로 최종 점수를 결정하는 앙상블 파이프라인 구성
- 모델 간 불일치가 잦은 문항은 '채점하기 어려운 문항'으로 플래그 처리해 사람이 검토하도록 라우팅하는 신뢰도 기반 필터 설계에 활용 가능
Code Example
import openai
import anthropic
import google.generativeai as genai
from collections import Counter
def score_response(question, student_answer, rubric, models=["gpt", "claude", "gemini"]):
"""
여러 LLM으로 채점 후 majority voting 적용
"""
prompt = f"""다음 문항과 학생 답변을 루브릭 기준으로 채점하세요.
문항: {question}
학생 답변: {student_answer}
루브릭: {rubric}
점수만 숫자로 출력하세요 (예: 2)."""
scores = []
# GPT
if "gpt" in models:
response = openai.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": prompt}],
temperature=0 # intra-LLM 일관성 확보
)
scores.append(int(response.choices[0].message.content.strip()))
# Claude
if "claude" in models:
client = anthropic.Anthropic()
response = client.messages.create(
model="claude-opus-4-6",
max_tokens=10,
messages=[{"role": "user", "content": prompt}]
)
scores.append(int(response.content[0].text.strip()))
# Majority voting
vote_counts = Counter(scores)
final_score = vote_counts.most_common(1)[0][0]
confidence = vote_counts[final_score] / len(scores)
return {
"final_score": final_score,
"confidence": confidence,
"all_scores": scores,
"needs_review": confidence < 0.6 # 모델 간 불일치 시 사람 검토 플래그
}
# 사용 예시
result = score_response(
question="광합성 과정에서 빛에너지의 역할을 설명하시오.",
student_answer="빛에너지는 물 분자를 분해하는 데 사용됩니다.",
rubric="0점: 무관한 답변, 1점: 부분 정답, 2점: 완전한 답변"
)
print(result)Terminology
관련 논문
LLM이 TLA+로 실제 시스템을 제대로 모델링할 수 있을까? — SysMoBench 벤치마크
LLM이 TLA+ 명세를 작성할 때 문법은 잘 통과하지만 실제 시스템과의 동작 일치도(conformance)는 46% 수준에 그친다는 걸 체계적으로 검증한 벤치마크 연구로, AI 기반 형식 검증의 현실적 한계를 보여준다.
Natural Language Autoencoders: Claude의 내부 활성화를 자연어 텍스트로 변환하는 기법
Anthropic이 LLM 내부의 숫자 벡터(활성화값)를 직접 읽을 수 있는 자연어로 변환하는 NLA 기법을 공개했다. AI가 실제로 무슨 생각을 하는지 해석하는 interpretability 연구의 새로운 진전이다.
ProgramBench: LLM이 프로그램을 처음부터 다시 만들 수 있을까?
LLM이 FFmpeg, SQLite, PHP 인터프리터 같은 실제 소프트웨어를 문서만 보고 처음부터 재구현할 수 있는지 측정하는 새 벤치마크로, 최고 모델도 전체 태스크의 3%만 95% 이상 통과하는 수준에 그쳤다.
MOSAIC-Bench:코딩 에이전트의 Compositional Vulnerability 유도 측정
티켓 3장으로 쪼개면 Claude/GPT도 보안 취약점 코드를 53~86% 확률로 그냥 짜준다.
LLM의 거절(Refusal) 동작은 단 하나의 방향(Direction)으로 제어된다
13개의 오픈소스 채팅 모델을 분석했더니, 모델이 유해한 요청을 거절하는 동작이 내부 활성화 공간에서 단 하나의 1차원 벡터 방향으로 인코딩되어 있었다. 이 방향을 제거하면 안전 파인튜닝이 사실상 무력화되므로, 현재 안전 학습 방식이 얼마나 취약한지 보여준다.
LLM의 구조화된 출력(Structured Output)을 테스트하는 새 벤치마크 SOB 공개
스키마 준수 여부만 보던 기존 벤치마크의 한계를 넘어, 실제 값의 정확도까지 7가지 지표로 평가하는 Structured Output Benchmark(SOB)가 공개됐다. 인보이스 파싱, 의료 기록 추출처럼 JSON 출력의 정확성이 중요한 프로덕션 시스템에서 어떤 모델을 써야 할지 판단하는 데 직접적으로 참고할 수 있다.
Related Resources
Original Abstract (Expand)
Large language models (LLMs) have shown great potential in automatic scoring. However, due to model characteristics and variation in training materials and pipelines, scoring inconsistency can exist within an LLM and across LLMs when rating the same response multiple times. This study investigates the intra-LLM and inter-LLM consistency in scoring with five LLMs (i.e., Claude, DeepSeek, Gemini, GPT, and Qwen), variability under different temperatures, and their relationship with scoring accuracy. Moreover, a voting strategy that assembles information from different LLMs was proposed to address inconsistent scoring. Using constructed-response items from a science education assessment and open-source data from the Automated Student Assessment Prize (ASAP), we find that: (a) LLMs generally exhibited almost perfect intra-LLM consistency regardless of temperature; (b) inter-LLM consistency was moderate, with higher agreement observed for items that were easier to score; (c) intra-LLM consistency consistently exceeded inter-LLM consistency, supporting the expectation that within-model consistency represents an upper bound for cross-model agreement; (d) intra-LLM consistency was not associated with scoring accuracy, whereas inter-LLM consistency showed a strong positive relationship with accuracy; and (e) majority voting across LLMs improved scoring accuracy by leveraging complementary strengths of different models.