MARCHとは

MARCH
読み: マーチ

MARCHとは、Multi-Agent Reinforced Self-Check for LL

読み: マーチ

Multi-Agent Reinforced Self-Check for LLM Hallucinationの略で、複数のAIエージェントの連携によりハルシネーションを自律的に検知・修正するフレームワーク。2026年3月にAlibabaのQwenチームが発表。検証者が回答者の元文を見ずに事実照合する「意図的な情報の非対称性」が核心。

かんたんに言うと

自分が書いたレポートを自分でチェックしても間違いに気づきにくい。MARCHは「書いた人」と「チェックする人」を完全に分離し、チェックする人には元の文章を見せずに事実だけ照合させる仕組み。

確証バイアスを断ち切る情報の非対称性

従来の「AI自身に自分の回答をチェックさせる」手法には致命的な欠陥がある。AIは自分が生成した文章を読み直すと、自己正当化に陥りやすい。
MARCHは3つの独立したエージェントで解決する。Solver(解答者)が回答を作成し、Proposer(提案者)が検証可能な事実に分解する。Checker(検証者)はSolverの元の回答文を一切見ない。事実と証拠資料だけを照合し、資料に書かれているかだけを判定する。

ゼロトレランス報酬と8Bモデルの実績

マルチエージェント強化学習で訓練する際、ゼロトレランス報酬という基準を設ける。生成した事実のうち1つでも「証拠がない」と判定されれば全体のスコアが0になる。
論文(Alibaba Qwenチーム、2026年3月、arXiv)の実験では、8Bパラメータのオープンモデルがハルシネーションの少なさでGPT-4oに匹敵。STEM分野で55.20%から74.93%へ約20ポイント向上した(出典: arXiv 2026-03-25)。

当社の見解

当社ではClaude Code、Antigravity(Gemini)、Codex(OpenAI)の3つのAIエージェントを日常業務で併用している(2026年4月現在)。この体制により、社員1人あたり複数のAIが並行して作業を進め、人間は判断とレビューに集中できるようになった。エージェント間の記憶共有により「別のAIに同じ説明を繰り返す」無駄が消え、プロジェクトの引き継ぎコストがゼロに近づいた。失敗の教訓が自動で次の作業に注入される仕組み(Agentic RAG)も構築し、同じミスの再発率を構造的に下げている。さらにProactive AI(意図先読み型アシスタント)を実装し、ユーザーがメッセージを送る前に関連する過去の記憶を自動検索・注入する仕組みを稼働させている(意図分類精度80%、応答時間3.6秒)。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する