ハルシネーション(Hallucination)とは、人工知能(AI)が事実に基づかない情報を生成する現象のことです。まるでAIが幻覚を見ているかのように、もっともらしい嘘や誤った情報を出力するため、このように呼ばれています。
ハルシネーションの種類
- 内因性ハルシネーション(Intrinsic Hallucinations): 学習に用いたデータとは異なる事実を出力するケースです。例えば、学習データに「旭川市の旭山動物園ではシロクマを飼育しています」という情報が含まれているにもかかわらず、AIが「札幌市の旭山動物園ではシロクマを飼育しています」と回答する場合です。
- 外因性ハルシネーション(Extrinsic Hallucinations): 学習データには存在しない情報を出力するケースです。例えば、学習データに「旭川市の旭山動物園ではシロクマの親子が園内を散歩するパレードを行っています」という情報がないにもかかわらず、AIがそのような回答を出力する場合です。
ハルシネーションの原因
- 学習データの問題: インターネットなどから収集した大量のデータには、偏りや誤った情報が含まれていることがあります。
- AIモデルのアーキテクチャや学習プロセスの問題: 言語モデルは次に続く確率が高い単語を予測するものであり、正しい情報を出力することを目的としていないため、文脈には合っていても真実ではない情報を出力することがあります。
ハルシネーションの対策
- 学習データの質の向上: 真実ではない情報や偏りがある情報を極力除去することで、ハルシネーションの発生を抑制します。
- 出力結果にフィルターをかける: 誤った情報や偏見を含む情報を出力しないように制限をかけます。
- 人間からのフィードバックをもとに強化学習を行う手法(RLHF): 人間のフィードバックを活用してAIモデルを改善し、ハルシネーションの発生を抑制します。
ハルシネーションは、AIの信頼性に関わる重要な問題であり、現在も様々な研究が進められています。