PolarQuantとは
PolarQuantとは、TurboQuantの基盤技術
読み: ポラークォント
TurboQuantの基盤技術。ベクトルを極座標系(半径と角度)に変換して量子化することで、3ビットでもFP16と変わらない精度を維持する。
かんたんに言うと
データの「向き」と「長さ」を分けて圧縮する数学的アプローチ。重要な情報に多くのビットを、そうでない情報に少ないビットを割り当てる。
極座標変換と不均一なビット割り当て
ベクトルをノルム(長さ)と単位球上の方向に変換。重要な角度情報に多くのビットを、半径に少ないビットを動的に割り当てる。ランダム回転(Householder変換)でデータの偏りを均一化する。
ハードウェア親和性と動的スケーリング
GPUのレジスタ内で高速に計算できるSIMD演算に最適化されており、デコード時間が極めて短い。文章の長さや複雑さに応じてリアルタイムで圧縮率をファインチューニングする柔軟性も持つ。
当社の見解
当社はOpenAI APIを完全廃止し、EmbeddingもLLMも全てローカルで稼働させている(2026年4月時点)。これにより月額のAPI費用がゼロになっただけでなく、機密情報や顧客データを外部に送信せずにAI処理できるようになった。クライアントのログデータをマスキングなしでそのまま分析に回せるのは、ローカルLLMだからこそ実現できる。2026年4月にはOllama常駐実行(CPU 25%、GPU 30%を常時占有)を廃止し、FastEmbed(ONNX Runtime)による非常駐型推論に移行。処理が必要な瞬間だけプロセスを起動し、完了後に即座に終了する設計で、アイドル時のリソース消費をゼロにした。あえて一般的なデスクトップPC環境で複数のローカルLLMを実機検証した経験から言えることは、ベンチマークスコアと実務での使い勝手、そして常駐時のリソース消費は全て別の指標だということだ。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
