Factualityとは
Factualityとは、多モーダルAIが生成した回答内容が客観的な事実と合致している度合いを指す
読み: Factuality
かんたんに言うと
ニュース記事が嘘偽りなく書かれているかを確認するように、AIの回答が現実の事実に即しているかを確かめることである。
Factualityが重視される理由
生成AIは流暢な文章を作成する能力に長けているが、時には存在しない事実を捏造するハルシネーションを起こすことがある。ビジネスの現場で誤った情報をそのまま活用すれば、企業の信頼性に関わる損失を招く恐れがある。そのため、生成された内容が事実に基づいているかを検証するプロセスが欠かせない。
実務における評価手法
Factualityを測定するために、外部の信頼できるデータベースや検索エンジンを活用するRAGの構成が一般的である。生成された回答と参照元の資料を照らし合わせ、情報の不一致がないかをシステム的にチェックする手法がとられる。また、専門家が回答の正確性を目視で確認し、モデルの精度を継続的に改善する試みも行われている。
ビジネス導入時の判断基準
AIを導入する際、業務内容に応じて許容できるFactualityの基準を明確に定める必要がある。例えば、創造性を重視するマーケティングのコピー作成と、厳密な数値が求められる財務報告では、求められる正確性のレベルが異なる。自社の業務において、情報の誤りがどの程度のリスクとなるかを事前に整理することが、導入成功への第一歩となる。
当社の見解
当社はAIのハルシネーション対策として、事実/推測の強制分離、ファクトチェッカー(fact_checker.py)、第三者AIによる検証を実装している(2026年4月現在)。それでも会社名のハルシネーション(「株式会社ユニバーサルマーケティング」を誤った名前で出力)は発生した。固有名詞のハルシネーションは既存の全対策をすり抜ける。これを受けてホワイトリスト照合の仕組みを追加した。ハルシネーション対策に完璧はなく、「起きる前提」で検証の仕組みを何重にも重ねるしかない。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
