TurboQuantとは

TURBOQUANT
読み: ターボクォント

TurboQuantとは、2026年3月にGoogle Researchが発表したKVキャッシュの極限圧縮アルゴリズム

読み: ターボクォント

2026年3月にGoogle Researchが発表したKVキャッシュの極限圧縮アルゴリズム。3ビットまで圧縮してもFP32と統計的に遜色ない精度を維持し、NVIDIA H100で最大8倍の高速化を実現する。事前の学習や調整が不要で既存モデルに即座に適用可能。

かんたんに言うと

AIの「作業メモリ」を6分の1に圧縮しても、判断力がほぼ落ちない技術。今まで処理できなかった長文を、同じGPUで高速に扱えるようになる。

精度損失ゼロと最大8倍の高速化

一般的にデータを圧縮するとAIの精度は落ちる。TurboQuantはPolarQuant(極座標変換による特徴保持圧縮)とQJL(1ビット追加データによる誤差補正)の2段階アルゴリズムで、FP32と統計的に遜色ない回答精度を維持する。
NVIDIA H100に最適化されており計算速度が最大8倍に向上する(出典: Google Research 2026年3月発表)。モデルの再学習やキャリブレーションが不要で、GemmaMistralなど既存モデルに後付けで即座に適用できる。

長文対応とコスト削減への影響

KVキャッシュのメモリ使用量を約6分の1に削減するため、今までメモリ不足で扱えなかった長文を一般的なハードウェアで高速処理できる。同じGPUでより多くのリクエストをさばけるようになり、クラウドAIの利用コスト削減に直結する。
MXFP4がモデルの重み自体を圧縮するのに対し、TurboQuantは推論時のKVキャッシュを圧縮する。両者を併用すれば、モデルサイズとキャッシュサイズの両方を劇的に縮小できる。OOMエラーに悩むエンジニアにとって有力な選択肢。

当社の見解

当社はOpenAI APIを完全廃止し、EmbeddingLLMも全てローカルで稼働させている(2026年4月時点)。これにより月額のAPI費用がゼロになっただけでなく、機密情報や顧客データを外部に送信せずにAI処理できるようになった。クライアントのログデータをマスキングなしでそのまま分析に回せるのは、ローカルLLMだからこそ実現できる。2026年4月にはOllama常駐実行(CPU 25%、GPU 30%を常時占有)を廃止し、FastEmbed(ONNX Runtime)による非常駐型推論に移行。処理が必要な瞬間だけプロセスを起動し、完了後に即座に終了する設計で、アイドル時のリソース消費をゼロにした。あえて一般的なデスクトップPC環境で複数のローカルLLMを実機検証した経験から言えることは、ベンチマークスコアと実務での使い勝手、そして常駐時のリソース消費は全て別の指標だということだ。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する