第79回

大規模言語モデル(LLM)のハルシネーションと対策方法

蔦 侑磨 国立情報学研究所 大規模言語モデル研究開発センター 特任研究員

講演概要

ツール・環境

大規模言語モデル

ハルシネーション

大規模言語モデル(LLM)の課題の1つであるハルシネーションとその対策方法についての概要を紹介します。ハルシネーションとは、生成された文が現実の事実やユーザーの入力と一致しない現象を指し、LLMの信頼性を損なう要因となります。本講演では、ハルシネーションの種類とその原因を整理し、問題点について説明します。さらに、現状のハルシネーションの対策方法である、ハルシネーションの検出方法やモデルの改善方法ついても紹介します。

講演映像

講演資料

講演資料ダウンロード(PDF)