Chap 11. 구조방정식 모델 선택

안녕하세요? 여러분.
오늘 우리는 구조방정식 모델링(SEM)에서 가장 중요하면서도 많은 연구자가 간과하기 쉬운 주제인 ‘모델 선택(Model Selection)‘에 대해 깊이 있게 다루어 보겠습니다.

우리는 보통 하나의 모델을 세우고 그 모델의 적합도 지수(CFI, TLI, RMSEA 등)가 기준치를 넘으면 “내 모델이 옳다”라고 결론짓곤 합니다. 하지만 그것은 위험한 생각일 수 있습니다. 오늘은 왜 단일 모델의 적합도만 봐서는 안 되는지, 그리고 여러 경쟁 모델 중 어떤 것이 가장 ‘좋은’ 모델인지 어떻게 결정하는지를 교육학적 사례와 함께 살펴보겠습니다.


1. 단일 모델 적합도의 한계: 왜 모델 선택인가?

우리가 연구에서 세우는 모델은 실제 현실을 완벽하게 반영할 수 없습니다. 모델은 단지 ‘현실에 대한 근사치’일 뿐입니다. 따라서 특정 모델의 적합도가 좋게 나왔다고 해서 그것이 반드시 객관적 진리인 것은 아닙니다.

모델 적합도의 함정

  1. 포화 모델(Saturated Model)의 문제: 모델이 복잡해져서 자유도(dfdf)가 0이 되면, 이론적 타당성과 상관없이 적합도는 항상 완벽하게 나옵니다.
  2. 외생적 요인의 영향: 표본 크기(NN), 데이터의 비정규성, 측정 오차 등 모델의 진실성과 상관없는 요인들이 적합도 지수를 왜곡할 수 있습니다.
  3. 연구자의 자유도(Researcher Degrees of Freedom): 누락된 데이터 처리 방식이나 모델 수정 과정에서 연구자의 주관적 결정이 개입되어 적합도가 ‘조작’될 위험이 있습니다.

이러한 한계를 극복하기 위해 제안된 것이 모델 선택(Model Selection)입니다. 이는 사전에 이론적으로 타당한 여러 경쟁 모델들을 설정하고, 이 모델들을 동일한 데이터에 적용하여 어떤 모델이 가장 우수한지 순위를 매기는 과정입니다.

2. 이론적 배경: 오차의 프레임워크 (Cudeck & Henly)

모델을 선택할 때 우리가 고려해야 할 오차는 여러 종류가 있습니다. Cudeck과 Henly(1991)는 이를 이해하기 쉬운 프레임워크로 제시했습니다.

  • 근사 오차(Approximation Discrepancy): 모집단에서 모델과 실제 데이터 구조 사이의 차이로, 모델의 ‘진실성(Verisimilitude)’을 나타냅니다.
  • 추정 오차(Estimation Discrepancy): 표본 크기에 따른 샘플링 변동성 때문에 발생하는 오차입니다.
  • 전체 오차(Overall Discrepancy): 근사 오차와 추정 오차를 합친 개념으로, 모델이 새로운 데이터에 얼마나 잘 적용될지를 나타내는 일반화 가능성(Generalizability)과 직결됩니다.

우리는 단순히 현재 데이터에만 잘 맞는 모델이 아니라, 새로운 데이터에도 잘 맞을 모델(일반화 가능성이 높은 모델)을 선택해야 합니다.

3. 모델 선택의 핵심 기준

모델을 선택할 때 가장 중요한 원칙은 적합도와 복잡성 사이의 균형(Bias-Variance Trade-off)입니다. 너무 복잡한 모델은 현재 데이터에는 완벽해 보일지 몰라도(과적합, Overfitting), 새로운 데이터에서는 성능이 뚝 떨어집니다.

주요 정보 지수 (Information Criteria)

대부분의 모델 선택 기준은 다음과 같은 일반적인 형태를 띱니다.

D+f(q,N)D + f(q, N)

여기서 DD는 부적합도(로그 가능도 기반), ff는 복잡성(qq는 자유 파라미터 수)과 표본 크기(NN)에 따른 벌칙(Penalty) 항입니다.

지표특징강조점
AIC (Akaike Information Criterion)AIC=2lnL+2qAIC = -2 \ln L + 2q예측 효율성: 어떤 모델이 미래의 데이터를 가장 잘 예측(교차 타당화)할 것인가?
BIC (Bayesian Information Criterion)BIC=2lnL+qlnNBIC = -2 \ln L + q \ln N일관성: 표본이 커질 때 진짜 모델(True DGP)을 찾아낼 확률이 높은가?
MDL (Minimum Description Length)복잡성을 파라미터 수뿐만 아니라 모델의 구조적 형태까지 고려함압축 효율성: 데이터를 가장 경제적으로 설명하는 모델은 무엇인가?

4. 교육 현장 사례를 통한 실전 분석

이제 실제 교육학 연구 상황을 가정하여 모델 선택을 진행해 보겠습니다.

연구 시나리오: 고등학생의 학업 회복탄력성 구조 분석

김 교수는 고등학생 500명을 대상으로 ‘자기효능감’과 ‘교사 지지’가 ‘학업 회복탄력성’에 미치는 영향을 연구하고 있습니다. 그는 세 가지 경쟁 모델을 세웠습니다.

  • 모델 1 (단순 모델): 자기효능감 -> 학업 회복탄력성
  • 모델 2 (매개 모델): 자기효능감 -> 교사 지지 -> 학업 회복탄력성
  • 모델 3 (복합 모델): 모델 2에 ‘부모 지지’와 ‘또래 지지’ 경로를 모두 추가한 복잡한 모델

jamovi를 활용한 분석 방법

jamovi의 SEMed 모듈(또는 jmv)을 사용하면 분석 결과 하단에서 정보 지수를 확인할 수 있습니다.

  1. 데이터 불러오기: Academic_Resilience.csv
  2. 분석 메뉴: Factor -> Structural Equation Modeling
  3. 모델 설정: 각 경쟁 모델의 경로를 설정합니다.
  4. 지수 확인: 결과 창의 Fit Measures 탭에서 AIC와 BIC 값을 확인합니다. 값이 작을수록 우수한 모델입니다.

R 코드를 활용한 심화 분석 (SIC 포함)

jamovi에서 기본으로 제공하지 않는 SIC(Stochastic Information Complexity) 등은 R의 lavaan 패키지를 사용하여 계산할 수 있습니다.

R

# 필요한 패키지 로드
library(lavaan)

# 1. 가상 데이터 생성 (N=500)
set.seed(2025)
N <- 500
self_eff <- rnorm(N)
teacher_sup <- 0.4 * self_eff + rnorm(N, sd = 0.8)
resilience <- 0.3 * self_eff + 0.5 * teacher_sup + rnorm(N, sd = 0.7)
edu_data <- data.frame(self_eff, teacher_sup, resilience)

# 2. 경쟁 모델 설정
model_1 <- 'resilience ~ self_eff'
model_2 <- 'teacher_sup ~ self_eff; resilience ~ teacher_sup + self_eff'

# 3. 모델 적합
fit1 <- sem(model_1, data = edu_data)
fit2 <- sem(model_2, data = edu_data)

# 4. AIC, BIC 비교
cat("Model 1 AIC:", AIC(fit1), " BIC:", BIC(fit1), "\n")
cat("Model 2 AIC:", AIC(fit2), " BIC:", BIC(fit2), "\n")

# 5. SIC 계산 (구조적 복잡성 반영)
# SIC = -ln L + 0.5 * ln|I(theta)| [cite: 321]
# 실제 연구에서는 semTools 등을 활용하여 더 편리하게 계산 가능합니다. [cite: 455]

분석 결과 예시 표

모델AICBIC순위해석
모델 12450.22465.53너무 단순하여 데이터 설명력 부족
모델 22310.82332.11적절한 복잡성과 높은 일반화 가능성
모델 32315.42355.82적합도는 모델 2와 비슷하나 너무 복잡함 (벌칙 부여)

5. WaurimaL의 실무 제언 (Take-home Points)

모델 선택은 단순히 숫자를 비교하는 기계적인 과정이 아닙니다. 다음 원칙을 반드시 기억하세요.

  1. 사전 이론의 중요성: 모델 선택 지수는 보조 도구일 뿐, 가장 먼저 고려해야 할 것은 교육학적 이론과 논리입니다.
  2. 삼각측량(Triangulation): AIC와 BIC가 다른 모델을 선택할 수 있습니다. AIC는 예측에, BIC는 진리 탐색에 유리하므로 두 종류를 모두 보고 종합적으로 판단하세요.
  3. 모델 평균화(Model Averaging): 하나의 모델만 딱 고르기 어렵다면, 우수한 여러 모델의 결과를 가중 평균하여 보고하는 방식도 고려해 보세요.
  4. 표본 크기의 영향: 표본이 작을 때는 구조적 복잡성을 잘 반영하는 MDL 계열 지수(SIC 등)를 활용하는 것이 더 정확할 수 있습니다.

구조방정식은 모델을 ‘확정’ 짓는 도구가 아니라, 이론을 ‘검증’하고 ‘발전’시키는 과정임을 잊지 마시기 바랍니다.

참고문헌 (APA Style)

  • Akaike, H. (1973). Information theory and an extension of the maximum likelihood principle. In B. N. Petrov & F. Csáki (Eds.), Second International Symposium on Information Theory (pp. 267–281). Akadémiai Kiadó.
  • Burnham, K. P., & Anderson, D. R. (2002). Model selection and multimodel inference: A practical information-theoretic approach (2nd ed.). Springer.
  • Cudeck, R., & Henly, S. J. (1991). Model selection in covariance structures analysis and the “problem” of sample size: A clarification. Psychological Bulletin, 109(3), 512–519.
  • Preacher, K. J., & Yaremych, H. E. (2025). Model selection in structural equation modeling. In Handbook of Structural Equation Modeling. [Note: Based on the provided chapter content]
  • Schwarz, G. (1978). Estimating the dimension of a model. Annals of Statistics, 6(2), 461–464.
  • Wasserman, L. (2000). Bayesian model selection and model averaging. Journal of Mathematical Psychology, 44(1), 92–107.