Query Expansionとは
Query Expansionとは、ユーザーの検索クエリに同義語や関連語を自動的に追加し、検索の網を広げる手法
読み: クエリエクスパンション
ユーザーの検索クエリに同義語や関連語を自動的に追加し、検索の網を広げる手法。レキシカル検索の弱点である「キーワード不一致による検索漏れ」を補完する。シノニム辞書を使う方式とLLMで自動拡張する方式がある。
かんたんに言うと
「犬」で検索したとき、裏で「ペット」「わんちゃん」「Dog」も検索語に追加して、ヒットする文書を増やす仕組み。ユーザーが思いつかなかった表現でも関連文書を見つけられるようになる。
辞書ベースとLLMベースの違い
辞書ベースはシノニム辞書に登録された同義語でQuery Expansionを行う。精度は高いが辞書の整備に手間がかかる。LLMベースはLLMに「この検索語の言い換えを出して」と依頼して拡張する。辞書なしで動くが、無関係な語が混入するリスクがある。実務では辞書ベースを基盤にし、カバーしきれない部分をLLMで補完する。
RAGパイプラインでの位置づけ
RAGではQuery Expansionはクエリ変換の一手法として使われる。ユーザーの質問を複数の角度から拡張して検索することで、1つのクエリでは取りこぼす関連文書を拾える。拡張語数は3から5語が実用的な上限で、拡張しすぎるとノイズが増えて精度が下がる。
導入時の判断基準
検索のヒット率が低く、ゼロヒットが多い場合にQuery Expansionは有効。拡張後の検索結果をリランキングで再スコアリングすると精度が安定する。シノニム辞書の整備コストとLLM呼び出しのレイテンシを天秤にかけて方式を選ぶ。
当社の見解
当社はAI長期記憶システムを自社開発・運用している(2026年4月現在、1,655件の記憶データを蓄積)。この仕組みにより、AIが過去3ヶ月分の経営判断や設計方針を文脈ごと保持し、「前にも同じ話をしましたよね」という手戻りが激減した。セッションが切れても議論の続きから再開できるため、壁打ち相手としてのAIの価値が根本的に変わった。技術的にはCognee MCPサーバーによる記憶保存と、FastEmbed(ONNX Runtime)+ LanceDBによる非常駐型ベクトル検索(検索レイテンシ8ms、GPU不要)を採用。Hindsight(LongMemEval 91.4%精度)やomega-memoryなど複数の既製品を実環境で検証・棄却した上での選定であり、「個人PCでもエンタープライズでも負荷なく動く軽量さ」を最優先に設計している。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
