Cross-domain Mapping이 인간과 LLM 창의성에 미치는 영향 평가
Serendipity by Design: Evaluating the Impact of Cross-domain Mappings on Human and LLM Creativity
TL;DR Highlight
LLM은 이미 인간보다 창의적인 아이디어를 내놓지만, 인간에게 효과적인 '다른 분야에서 영감 받기' 기법은 LLM에게는 별 효과가 없다.
Who Should Read
LLM을 활용한 아이디어 생성, 브레인스토밍 도구를 개발하거나 창의성 향상 프롬프트 전략을 고민하는 개발자. AI와 인간의 창의적 차이를 이해하고 싶은 프로덕트 기획자나 AI 연구자.
Core Mechanics
- o3, Claude Sonnet 4, GPT-4o 등 대부분의 LLM이 인간보다 더 독창적인 아이디어를 평균적으로 생성함 (단, Llama-3.3-70b는 인간과 유의미한 차이 없음)
- 인간에게는 '문어', '선인장' 같은 무관한 분야에서 유추하도록 강제하는 cross-domain mapping 프롬프트가 독창성을 유의미하게 높여줌 (b=0.36, p<.001)
- 반면 LLM은 cross-domain mapping 프롬프트를 줘도 독창성이 통계적으로 유의미하게 올라가지 않음 — 이미 다양한 분야를 자유롭게 연결하기 때문으로 해석
- 인간과 LLM 모두, 영감 소스와 대상 제품 사이의 semantic distance(의미적 거리)가 멀수록 더 독창적인 아이디어가 나옴
- 독창성과 실현 가능성은 강한 음의 상관관계(r=-0.74)를 보이지만, 독창성과 유용성은 거의 무관함(r=-0.08)
- 상위 10% 독창적 아이디어만 보면 인간이 LLM보다 약간 더 높은 점수를 받음 — 극도로 창의적인 상황에서는 인간이 여전히 강점이 있음
Evidence
- o3 평균 독창성 3.83 (95% CI [3.68, 3.98]), Claude Sonnet 4는 3.76 (95% CI [3.61, 3.91]), 인간 cross-domain 조건은 2.93 (95% CI [2.87, 2.99])
- cross-domain 조건 효과: 인간 b=0.36, SE=0.04, t=9.05, p<.001 / 인간-LLM 상호작용 b=0.48, SE=0.06, t=8.42, p<.001 (LLM에는 효과 미미)
- semantic distance와 독창성 관계: 인간 β=0.1, t=2.721, p<.01 / LLM β=0.18, t=4.81, p<.001 — 둘 다 멀수록 독창성 올라감
- 같은 target-source 조합에 대한 인간-LLM 독창성 평점 상관계수 r=0.44, p<.001 — 어떤 조합이 창의적인지는 공통점 존재
How to Apply
- LLM으로 아이디어를 생성할 때 단순히 'cross-domain 유추' 프롬프트를 추가하는 것만으로는 독창성 향상이 미미하므로, 의미적으로 매우 먼 소스 도메인(예: 제품 기획에 '문어', '토네이도' 같은 완전히 다른 개념)을 명시적으로 페어링해서 강제하면 LLM에서도 더 독창적인 결과를 얻을 수 있음
- 브레인스토밍 도구를 만들 때 인간 사용자에게는 랜덤 영감 소스를 강제 배정하는 'Forced Analogy' 기능이 효과적 — 특히 소스와 타겟의 Wikipedia 임베딩 거리가 먼 조합을 우선 추천하도록 설계하면 독창성을 높일 수 있음
- LLM 창의성 평가 시스템을 만든다면, 독창성과 실현가능성이 트레이드오프 관계임을 감안해 두 축을 별도로 측정하고, 투자 가치 판단은 유용성 점수에 더 비중을 두도록 설계할 것 (투자 가치와 유용성 상관 r=0.71, 독창성과는 r=0.23)
Code Example
# Cross-domain mapping 프롬프트 예시 (의미적으로 먼 소스를 강제 배정)
import random
products = ["backpack", "smartphone", "sofa", "chef's knife", "sneakers"]
sources = ["octopus", "tornado formation", "coral reef", "symphony orchestra", "hydroelectric dam", "GPS navigation"]
target = random.choice(products)
source = random.choice(sources)
prompt = f"""
You are a product designer. Your task is to invent a novel feature for a {target}.
Step 1: Identify a specific, interesting property or mechanism of a {source}.
Step 2: Map that property onto the {target} — how could this mechanism be translated into a real product feature?
Step 3: Describe the resulting product feature in 1-2 sentences, focusing only on what the product does (not the analogy itself).
Target product: {target}
Inspiration source: {source}
"""
print(prompt)
# 출력 예:
# Target product: backpack
# Inspiration source: hydroelectric dam
# → "This backpack converts kinetic energy from your movement into stored power in a built-in battery, letting you charge devices on the go."Terminology
Related Resources
Original Abstract (Expand)
Are large language models (LLMs) creative in the same way humans are, and can the same interventions increase creativity in both? We evaluate a promising but largely untested intervention for creativity: forcing creators to draw an analogy from a random, remote source domain (''cross-domain mapping''). Human participants and LLMs generated novel features for ten daily products (e.g., backpack, TV) under two prompts: (i) cross-domain mapping, which required translating a property from a randomly assigned source (e.g., octopus, cactus, GPS), and (ii) user-need, which required proposing innovations targeting unmet user needs. We show that humans reliably benefit from randomly assigned cross-domain mappings, while LLMs, on average, generate more original ideas than humans and do not show a statistically significant effect of cross-domain mappings. However, in both systems, the impact of cross-domain mapping increases when the inspiration source becomes more semantically distant from the target. Our results highlight both the role of remote association in creative ideation and systematic differences in how humans and LLMs respond to the same intervention for creativity.