Magicとは
Magicとは、Sequoia Capitalが2024年に出資した次世代
読み: マジック
Sequoia Capitalが2024年に出資した次世代のAIソフトウェアエンジニアリングプラットフォーム。コードベース全体を理解した上で、人間のエンジニアと同等レベルの開発作業を自律的に遂行する
かんたんに言うと
AIが一度に読める文書量の限界を極限まで引き上げることで、巨大なソースコード全体を丸ごと理解してプログラミングできるAIを作ろうとしている企業である。
Magicが挑むコンテキストウィンドウの壁とLLMの記憶限界を突破する試み
現在のLLMには「一度に扱える情報量の上限」がある。GPT-4は128Kトークン、Claude 3.5は200Kトークン。大きな数字に見えるが、企業の業務システムのソースコードは数百万行に達することも珍しくない。全体像を一度に読み込めないのである。
Magicが開発したLTM-2-miniは、最大1億トークンのコンテキストウィンドウを謳っている。通常のTransformerアーキテクチャでは計算量が入力長の二乗に比例するため、1億トークンを扱おうとするとコストが天文学的になる。Magicは独自のアーキテクチャでこの問題に取り組んでいるとされるが、技術的な詳細は限定的にしか公開されていない。
LTM技術の仕組みと狙い
MagicのLTMはLong Term Memoryの略で、RAGとは異なるアプローチで長期記憶を実現する技術である。RAGが「必要なときに外部から情報を引っ張ってくる」方式なのに対し、LTMは「最初から全てを記憶した状態で推論する」方式に近い。
この違いは実務上のインパクトが大きい。RAGでは検索精度がボトルネックになり、関連情報を取りこぼすリスクが常にある。一方でLTMは全体を保持しているため、コードベースの離れた箇所にある依存関係も見逃しにくい。
ただし、コンテキストに入れるデータ量が増えるほど推論コストは上がる。全てを記憶しておく方式が経済的に成り立つのか。ここがMagicの技術が本当に実用的かどうかの分水嶺になる。
コーディング特化という戦略的選択
OpenAIやAnthropicが汎用LLMを追求する中、Magicはコーディングに絞っている。汎用モデルで勝負するには計算資源の規模で大手に太刀打ちできないという現実的な判断がある。
コーディングはLLMの応用先として独特の性質を持つ。人間にとっては面倒でも、構造化されたルールに基づく作業が多い。テストを実行すれば出力の正しさを自動検証できる。この特性は、LLMの弱点であるハルシネーションの影響を最小化できる領域である。
Magicの製品であるLTM Agentは、大規模コードベースを丸ごと読み込み、バグ修正や機能追加を自律的に行うことを目指している。GitHubのイシューを渡すとプルリクエストを返す。これが実用レベルに達すれば、ソフトウェア開発の生産性が根本から変わる。
資金調達と競合環境
2024年8月に発表された3.2億ドルのシリーズCは、AI業界でも注目を集めた。累計調達額は4.65億ドルに達した。リード投資家はEric SchmidtのInnovation Endeavorsで、Sequoia CapitalやNat Friedman(元GitHub CEO)も参加している。
競合は強力である。GitHub Copilotを擁するMicrosoft、Devinを開発したCognition、Cursorを展開するAnysphere。いずれもAIコーディングの市場を狙っている。Magicの差別化要因は超長コンテキストの独自技術にあるが、OpenAIやGoogleもコンテキスト長の拡張を進めており、技術的な優位性がいつまで持続するかは不透明である。
スタートアップにとっての最大のリスクは「大手が同じことをできるようになった瞬間に優位性が消える」点にある。Magicが生き残るには、コンテキスト長だけでなく、コーディング精度やエンタープライズ向けの運用体制で差をつける必要がある。
長期記憶のアプローチが示す業界の方向性
Magicの取り組みは、LLMの進化における一つの方向性を象徴している。「モデルを賢くする」のではなく「モデルが扱える情報量を増やす」というアプローチである。
現時点ではRAGが主流であり、コストパフォーマンスの面でも実績の面でもRAGに軍配が上がる。Magicの技術が本当にRAGを置き換えるのか、それとも補完的な関係に落ち着くのかは、まだ誰にもわからない。
はっきりしているのは、「AIがどこまでの文脈を把握できるか」が今後の業務活用の幅を決めるということである。自社のナレッジベースが100ページなのか100万ページなのかで、必要なアーキテクチャはまるで違ってくる。自社のデータ規模を正確に把握しておくことが、技術選定の第一歩になる。
当社の見解
当社はAI長期記憶システムを自社開発・運用している(2026年4月現在、1,655件の記憶データを蓄積)。この仕組みにより、AIが過去3ヶ月分の経営判断や設計方針を文脈ごと保持し、「前にも同じ話をしましたよね」という手戻りが激減した。セッションが切れても議論の続きから再開できるため、壁打ち相手としてのAIの価値が根本的に変わった。技術的にはCognee MCPサーバーによる記憶保存と、FastEmbed(ONNX Runtime)+ LanceDBによる非常駐型ベクトル検索(検索レイテンシ8ms、GPU不要)を採用。Hindsight(LongMemEval 91.4%精度)やomega-memoryなど複数の既製品を実環境で検証・棄却した上での選定であり、「個人PCでもエンタープライズでも負荷なく動く軽量さ」を最優先に設計している。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
