ChatGPT가 교사의 평가를 대체할 수 있을까? LLM 기반 자동 채점·피드백 연구 리뷰
Can ChatGPT Replace the Teacher in Assessment? A Review of Research on the Use of Large Language Models in Grading and Providing Feedback
TL;DR Highlight
LLM은 단답형·객관식 채점은 잘 하지만, 창의적·개방형 과제에서는 아직 교사를 대체할 수 없다.
Who Should Read
LLM을 활용해 코드 리뷰 자동화, 과제 채점, 피드백 생성 파이프라인을 구축하려는 EdTech 개발자 또는 AI 평가 시스템을 설계하는 백엔드 개발자.
Core Mechanics
- 객관식·단답형 채점에서는 LLM 정확도가 인간 평가자와 비슷한 수준에 도달
- 창의성이나 심층 분석이 필요한 개방형 과제에서는 일관성이 떨어지고 오류 발생
- 프롬프트 품질과 채점 루브릭(세부 평가 기준표) 제공 여부가 결과 정확도에 결정적 영향
- AI 단독 채점보다 AI + 교사 검수 하이브리드 구조에서 가장 높은 효과
- PRISMA 가이드라인에 따라 42개 실증 연구를 체계적으로 분석한 메타 리뷰
Evidence
- 42개 실증 연구 분석 결과, 단답형·객관식에서 LLM 채점 정확도가 인간 수준에 도달
- 세부 루브릭 제공 시 정확도와 일관성 모두 유의미하게 향상 (정량 수치는 연구별 상이)
- 개방형·주관식 과제에서는 복수 연구에서 일관되게 성능 저하 확인
How to Apply
- 자동 채점 파이프라인 설계 시, 문항 유형을 객관식/단답형/개방형으로 분류하고 개방형은 반드시 사람 검수 단계를 추가하면 된다.
- LLM에게 채점을 맡길 때는 단순 '몇 점 줘'가 아니라 세부 루브릭(항목별 배점 기준)을 프롬프트에 포함시키면 일관성이 올라간다.
- 완전 자동화 대신 'AI가 초안 점수 + 코멘트 → 교사가 최종 확인'하는 하이브리드 워크플로우로 구성하면 실용적이다.
Code Example
# LLM 채점 프롬프트 예시 (루브릭 포함)
system_prompt = """
You are an expert grader. Score the student's answer strictly according to the rubric below.
Return JSON: {"score": <int>, "max_score": <int>, "feedback": <str>}
Rubric:
- Correct main concept (3 points)
- Supporting evidence or example (2 points)
- Clear explanation (1 point)
"""
user_prompt = """
Question: Explain what a REST API is and give an example use case.
Student Answer:
{student_answer}
"""
# 개방형 과제는 LLM 결과를 draft로 사용하고 사람이 검수
response = client.chat.completions.create(
model="gpt-4o",
messages=[
{"role": "system", "content": system_prompt},
{"role": "user", "content": user_prompt.format(student_answer="REST는 HTTP 기반 API입니다. 예: /users GET")}
],
response_format={"type": "json_object"}
)
result = response.choices[0].message.content
# result -> {"score": 4, "max_score": 6, "feedback": "개념은 맞지만 예시가 단순합니다."}Terminology
Original Abstract (Expand)
This article presents a systematic review of empirical research on the use of large language models (LLMs) for automated grading of student work and providing feedback. The study aimed to determine the extent to which generative artificial intelligence models, such as ChatGPT, can replace teachers in the assessment process. The review was conducted in accordance with PRISMA guidelines and predefined inclusion criteria; ultimately, 42 empirical studies were included in the analysis. The results of the review indicate that the effectiveness of LLMs in grading is varied. These models perform well on closed-ended tasks and short-answer questions, often achieving accuracy comparable to human evaluators. However, they struggle with assessing complex, open-ended, or subjective assignments that require in-depth analysis or creativity. The quality of the prompts provided to the model and the use of detailed scoring rubrics significantly influence the accuracy and consistency of the grades generated by LLMs. The findings suggest that LLMs can support teachers by accelerating the grading process and delivering rapid feedback at scale, but they cannot fully replace human judgment. The highest effectiveness is achieved in hybrid assessment systems that combine AI-driven automatic grading with teacher oversight and verification.