Bi-Memとは
Bi-Memとは、LLMに階層型の長期記憶を持たせるフレームワーク
読み: バイメム
LLMに階層型の長期記憶を持たせるフレームワーク。会話の事実(Level 0)、シーンの要約(Level 1)、ユーザーのペルソナ(Level 2)の3層構造で記憶を管理し、下位から上位への帰納と、上位から下位への検証を双方向に行う。
かんたんに言うと
「昨日の会議で田中さんがコスト削減を主張した」という事実から、「田中さんは財務重視の人」というペルソナを自動で形成し、次の会話でそのペルソナを前提にAIが応答する仕組み。
3層の階層型メモリグラフ
情報を3つの抽象度で管理する。Level 0(Fact)は会話を細分化した事実データ。キーワードや文脈のメタデータを含む。Level 1(Scene)は複数の事実を意味のあるまとまりとして要約したシーン。Level 2(Persona)はシーンから抽出されたユーザーの興味関心、性格、価値観のプロファイル。
単なるベクトル検索のRAGでは「意味が近い文書」は引けても「この人はどういう人か」までは構造化できない。Bi-Memはこの限界を、人間の認知プロセス(具体→抽象の一般化)を模倣することで超える。
双方向の構築とハイブリッド検索
「双方向」がBi-Memの核心。下位の事実から上位のペルソナを帰納的に推測するだけでなく、形成されたペルソナの視点で下位の記憶を検証・強化するトップダウンのフィードバックループを持つ。
記憶の検索ではベクトル検索とBM25キーワード検索のハイブリッドに加え、見つけた記憶ノードから親(抽象概念)や子(具体的事実)をたどるグラフ探索を行う。SceneManagerやPersonaManagerといった複数のAIエージェントが、記憶の整理と構築を自動的に担当する。
当社の見解
当社はAI長期記憶システムを自社開発・運用している(2026年4月現在、1,655件の記憶データを蓄積)。この仕組みにより、AIが過去3ヶ月分の経営判断や設計方針を文脈ごと保持し、「前にも同じ話をしましたよね」という手戻りが激減した。セッションが切れても議論の続きから再開できるため、壁打ち相手としてのAIの価値が根本的に変わった。技術的にはCognee MCPサーバーによる記憶保存と、FastEmbed(ONNX Runtime)+ LanceDBによる非常駐型ベクトル検索(検索レイテンシ8ms、GPU不要)を採用。Hindsight(LongMemEval 91.4%精度)やomega-memoryなど複数の既製品を実環境で検証・棄却した上での選定であり、「個人PCでもエンタープライズでも負荷なく動く軽量さ」を最優先に設計している。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
