Paper Review
[논문 간단 정리] Semantic Uncertainty: Linguistic Invariances for Uncertainty Estimation in Natural Language Generation
oneonlee
2024. 9. 30. 15:47
반응형
(ICLR 2023 notable-top-25%) Semantic Uncertainty: Linguistic Invariances for Uncertainty Estimation in Natural Language Generation
arXiv: https://arxiv.org/abs/2302.09664
code: https://github.com/lorenzkuhn/semantic_uncertainty
1. Motivation
- LLM이 생성한 답변의 uncertainty를 추정하는 것은 Trustworthy LLM과 관련하여 중요한 문제임
- 그러나 답변의 uncertainty를 추정하는 기존의 token-likelihood 기반 방법들은 semantic equivalence 문제를 고려하지 않음
- semantic equivalence: 어휘적(lexical)으로는 다른 문장이 의미적(semantic)으로는 같은 의미를 가지는 것
- 본 논문은 LLM에서 불확실성을 측정하는 문제, 특히 semantic equivalence 문제로 인해 기존 방법이 어려움을 겪는 QA task의 문제를 해결함
2. Related Work on Uncertainty Estimation
- predictive entropy of the output distribution
- $PE(x) = H(Y \vert x) = -\int p(y \vert x) \log{p(y \vert x)} dy$
3. Proposed Key Ideas
- semantic likelihood
- 의미적으로 유사한 샘플들에서 발생하는 불확실성을 줄이기 위해, 해당 샘플들에 대해 marginalization을 수행하여, 그들의 정보를 하나로 통합함으로써 비지도 방식으로 uncertainty를 측정하는 지표
- 이 방은 bidirectional entailment clustering을 사용하여 의미적으로 동등한 결과물을 그룹화하고, 이러한 클러스터의 분포를 기반으로 불확실성을 계산함
4. Summary of Experimental Results
- 더 큰 모델과 더 까다로운 데이터 세트의 경우, semantic entropy는 기존의 불확실성 측정값보다 AUROC 성능이 뛰어남
- 비슷한 baseline보다 QA task에서 모델의 정확도를 더 잘 예측하며, 모델 크기가 커질수록 성능이 향상됨
반응형