Hallucinationとは
Hallucinationとは、大規模言語モデル(LLM)が事実に基づかない、または意味をなさない情報を生成する現象である
読み: ハルシネーション
大規模言語モデル(LLM)が事実に基づかない、または意味をなさない情報を生成する現象である。まるで幻覚を見ているかのように、もっともらしい嘘をつくことから、この名前が付けられた。この現象は、LLMの信頼性を大きく損なう要因の一つとして認識されている。
かんたんに言うと
かんたんに言うと、多モーダルAIがもっともらしい嘘をつくことである。
Hallucinationが起こる原因
Hallucinationが発生する原因は複数考えられる。学習データに誤った情報が含まれている場合や、学習データが不足している場合、モデルが過度に学習データに適合してしまい、汎化能力を失う場合などが挙げられる。また、複雑な質問に対して、モデルが十分な情報を持ち合わせていない場合にも、推測に基づいて誤った情報を生成することがある。これらの要因が複合的に絡み合って、Hallucinationが発生すると考えられている。
Hallucinationの種類
Hallucinationには、大きく分けて「事実に基づかないHallucination」と「意味をなさないHallucination」の2種類がある。前者は、既存の知識や事実に反する情報を生成するもので、後者は、文法的には正しいものの、意味的に一貫性のない文章を生成するものである。どちらの種類のHallucinationも、LLMの出力の信頼性を低下させるため、対策が求められている。
Hallucinationへの対策
Hallucinationを抑制するためには、様々な対策が講じられている。学習データの質と量を向上させること、モデルのアーキテクチャを改善すること、出力時に外部知識を参照させることなどが有効である。また、生成されたテキストの検証を行うことで、Hallucinationを検出し、修正することも重要である。これらの対策を組み合わせることで、LLMの信頼性を高めることが可能になる。
当社の見解
当社はAIのハルシネーション対策として、事実/推測の強制分離、ファクトチェッカー(fact_checker.py)、第三者AIによる検証を実装している(2026年4月現在)。それでも会社名のハルシネーション(「株式会社ユニバーサルマーケティング」を誤った名前で出力)は発生した。固有名詞のハルシネーションは既存の全対策をすり抜ける。これを受けてホワイトリスト照合の仕組みを追加した。ハルシネーション対策に完璧はなく、「起きる前提」で検証の仕組みを何重にも重ねるしかない。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
