Paperhttps://aclanthology.org/2024.naacl-long.237.pdf AbstractLLM이 주어진 맥락 (non-parametric knowledge from input prompts)보다 encoded prior knowledge (parametric knowledge from pre-training)에 과도하게 의존하면서 nonfactual/contextually unfaithful한 응답을 생성하는 경향이 있다. 즉, 추론 단계에서 모델이 context와 prior knowledge를 어떻게 효과적으로 균형을 이루도록 할 것인지에 대한 연구가 필요하다. 본 논문은 adversarial irrelevant passage를 negative sample로 설정한 contras..