MXFP4とは
MXFP4とは、AI向けの4ビット浮動小数点フォーマットである
読み: エムエックスエフピーフォー
AI向けの4ビット浮動小数点フォーマットである。単純に重みを粗く削るのではなく、ブロックごとにスケールを持たせる設計により、少ないメモリで推論を回しつつ精度低下を抑えやすい点が注目されている。
かんたんに言うと
4bit化という言葉だけを見ると、ただ小さくする技術に見える。MXFP4は、どこまで小さくしても意味が壊れにくいかを考えて設計された形式として理解すると分かりやすい。
どんな場面で気にする用語か
MXFP4が重要になるのは、大きなモデルを限られたVRAMで動かしたい場面である。ローカル推論、オンプレ検証、単一GPUでのPoCなど、まずメモリが壁になる環境では、この種の形式が選定ポイントに入ってくる。
逆に、どの会社でも最初に気にする用語ではない。モデルを動かして初めてOOMや速度低下にぶつかり、その対策を探す過程でMXFP4にたどり着くことが多い。
INT4やFP16とどう見分けるか
同じ4bitでも、全部が同じ考え方で作られているわけではない。INT4は小ささに寄せた形式として語られやすく、FP16は扱いやすさと精度のバランスで広く使われる。MXFP4は、その間でメモリ効率と表現力をどう両立するかに重心がある。
そのため、4bitだから必ず速い、4bitだから必ず軽いという見方は危ない。実際の差は、ハードウェア対応、ソフトウェア実装、対象モデルとの相性で決まる。
選定時の判断ポイント
MXFP4を評価するときは、まず使いたいモデルと推論基盤が対応しているかを見る必要がある。形式だけ理解していても、GPU側の実装やライブラリ側の対応がなければ、現場では使えない。
導入判断としては、理論上の圧縮率より、どの程度OOM回避に効くか、速度と精度の折り合いが取れるかを見たい。少ないGPUでどこまで検証環境を広げられるかという視点で見ると、意味がつかみやすい。
当社の見解
当社はOpenAI APIを完全廃止し、EmbeddingもLLMも全てローカルで稼働させている(2026年4月時点)。これにより月額のAPI費用がゼロになっただけでなく、機密情報や顧客データを外部に送信せずにAI処理できるようになった。クライアントのログデータをマスキングなしでそのまま分析に回せるのは、ローカルLLMだからこそ実現できる。2026年4月にはOllama常駐実行(CPU 25%、GPU 30%を常時占有)を廃止し、FastEmbed(ONNX Runtime)による非常駐型推論に移行。処理が必要な瞬間だけプロセスを起動し、完了後に即座に終了する設計で、アイドル時のリソース消費をゼロにした。あえて一般的なデスクトップPC環境で複数のローカルLLMを実機検証した経験から言えることは、ベンチマークスコアと実務での使い勝手、そして常駐時のリソース消費は全て別の指標だということだ。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
