第79回
ツール・環境
大規模言語モデル
ハルシネーション
大規模言語モデル(LLM)の課題の1つであるハルシネーションとその対策方法についての概要を紹介します。ハルシネーションとは、生成された文が現実の事実やユーザーの入力と一致しない現象を指し、LLMの信頼性を損なう要因となります。本講演では、ハルシネーションの種類とその原因を整理し、問題点について説明します。さらに、現状のハルシネーションの対策方法である、ハルシネーションの検出方法やモデルの改善方法ついても紹介します。