Plannerとは
Plannerとは、AIエージェントがユーザーの曖昧な目標を達成するために
読み: プランナー
AIエージェントがユーザーの曖昧な目標を達成するために、必要な手順を論理的に分解し、最適な実行計画を立案する中核コンポーネントを指す。単なるテキスト生成にとどまらず、外部ツールを呼び出す順序や条件分岐を自律的に決定する推論の頭脳として機能する。
かんたんに言うと
優秀なプロジェクトマネージャーである。漠然とした「新製品のローンチ準備をして」という指示から、市場調査、資材調達、法務確認などのタスクを洗い出し、担当者へ適切に割り振る役割を担う。
曖昧な指示を実行可能なタスクに分解するPlannerの推論エンジン
LLMを単なるチャットボットから自律型エージェントへと昇華させるのがPlannerの存在である。ユーザーが入力した大雑把な要求を受け取り、それをシステムが実行可能なレベルのサブタスクにまで分解する。
例えば物流部門で「台風による配送遅延のリカバリープランを出して」と指示されたとする。
Plannerは即座に、気象データの取得、代替ルートの検索、トラックの空き状況の確認、そして顧客への遅延通知という一連のステップを構築する。この推論プロセスにおいて、Chain of Thoughtのような思考の連鎖が威力を発揮する。
ただ、ここで生成される計画が常に完璧だとは限らない。
LLMのコンテキストウィンドウの制限や、プロンプトの解釈ブレによって、見当違いのステップが混入することは日常茶飯事である。現場でこのブレをどう許容するかは、常に判断が分かれる。
思考の連鎖と外部環境への作用を統合するプロセス
Plannerが計画を立てる際、ReActと呼ばれる手法がよく用いられる。推論と行動を交互に繰り返し、外部環境からのフィードバックを得ながら次のステップを動的に修正していくアプローチ。
製造業の部品調達プロセスを想像してほしい。
「A部品の在庫が切れた」というトリガーに対し、Plannerはまず在庫管理システムのAPIを叩く。次に代替品Bの仕様書をベクトルデータベースから検索し、要件を満たすか検証する。もし満たさなければ、別のサプライヤーのAPIへ問い合わせる。
このように状況に応じて計画を柔軟に組み替える。
しかし、この柔軟性が仇となることもある。想定外のエラーが返ってきたとき、Plannerがパニックを起こしたように同じAPIを無限に叩き続ける現象である。OpenAIのAPI利用料が数時間で跳ね上がり、月末の請求書を見て血の気が引いた経験がある実務家は私だけではないはずである。
ツール群の乱立と実運用で直面する無限ループの罠
エージェント構築のフレームワークは次々と新しいものが登場している。Semantic KernelやAutoGen、最近ではDifyのようなノーコードツールも台頭してきた。
どれを選ぶべきか。
正直なところ、どれを使ってもPlannerの挙動を完全に制御するのは至難の業である。法務部門での契約書レビューにAutoGenを導入した際、複数のエージェント間で意見が対立し、延々と議論を続けて結論を出さないという事態に直面した。
ツールが提供するPlannerのデフォルト設定をそのまま本番環境に投入するのは自殺行為に近い。
タスクの最大実行回数を厳格に制限し、タイムアウトの処理を泥臭く実装する。そうした地道なエラーハンドリングの積み重ねがなければ、システムは簡単に破綻する。どこまでシステムに自律性を与えるべきか、設計者の思想が問われる部分であり、非常に悩ましい。
導入の成否を分ける対象業務の選定と権限設計
結局のところ、Plannerを組み込んだエージェントを業務に適用できるかどうかは、対象業務の性質に依存する。
経理部門の請求書照合のように、入力と出力のルールが明確な業務であれば、Plannerは期待通りに動く確率が高い。しかし、営業部門の新規開拓リスト作成のように、評価基準が曖昧で暗黙知に依存する業務では、途端に迷走を始める。
自社のデータ構造がPlannerの推論に耐えうる状態になっているか。
APIのレスポンスは常に一定のフォーマットを保っているか。そうした足回りの整備を怠ったまま、最新のAIモデルを導入したところで結果は目に見えている。Claude 3.5 Sonnetのような強力なモデルを使えば多少のデータの乱れは吸収してくれるが、それに甘えるのは危険である。泥臭いデータクレンジングと業務プロセスの見直しから逃げるわけにはいかない。
当社の見解
当社ではClaude Code、Antigravity(Gemini)、Codex(OpenAI)の3つのAIエージェントを日常業務で併用している(2026年4月現在)。この体制により、社員1人あたり複数のAIが並行して作業を進め、人間は判断とレビューに集中できるようになった。エージェント間の記憶共有により「別のAIに同じ説明を繰り返す」無駄が消え、プロジェクトの引き継ぎコストがゼロに近づいた。失敗の教訓が自動で次の作業に注入される仕組み(Agentic RAG)も構築し、同じミスの再発率を構造的に下げている。さらにProactive AI(意図先読み型アシスタント)を実装し、ユーザーがメッセージを送る前に関連する過去の記憶を自動検索・注入する仕組みを稼働させている(意図分類精度80%、応答時間3.6秒)。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
