基盤モデルとは
基盤モデルとは、膨大なデータで事前学習され文章作成から画像生成まで多様なタスクに柔軟に適応
読み: キバンモデル
膨大なデータで事前学習され文章作成から画像生成まで多様なタスクに柔軟に適応できる汎用的なAIモデルである。Foundation Modelとも呼ばれ特定の用途に限定されずファインチューニングやプロンプトの工夫次第で様々な業務に転用できる特徴を持つ。
かんたんに言うと
あらゆる料理のベースとなる万能出汁である。そのままではただのスープだが醤油を足せば和食にスパイスを加えればカレーになるように少しの手を加えるだけで多様なシステムに化ける。
Transformerが変えたAI開発と基盤モデルの誕生
Transformerアーキテクチャの登場以降、AIの開発手法は一変した。かつては画像認識ならCNN、自然言語処理ならRNNと個別にモデルを組んでいたが、今は違う。
テキストも画像も音声も、巨大なニューラルネットワークに流し込んで事前学習させる。これが基盤モデル。
特定のタスクを教え込むのではなく、インターネット上の膨大なデータから言葉の規則性や世界の構造を自己教師あり学習で獲得させる。
結果として、翻訳も要約もコード生成もこなせる怪物が生まれた。
ただ、この事前学習には数千基のH100 GPUと数ヶ月の計算時間が要る。自社でゼロから作ろうなどと考えるのは、一部のメガテック企業を除けば現実的ではない。
法務や経理の現場を激変させる代表的ツール群
OpenAIのGPT-4oやAnthropicのClaude 3.5 Sonnet、GoogleのGemini 1.5 Pro。これらが現在の代表格である。
法務部門での契約書レビューを想像してほしい。
以前なら法務特化の自然言語処理モデルを数千万かけて開発していた。今はClaude 3.5 SonnetのAPIを叩き、プロンプトで指示を出すだけで、NDAの不利な条項を瞬時に洗い出す。
経理部門の領収書読み取りも同じである。Gemini 1.5 Proのマルチモーダル機能を使えば、手書きのメモが添えられたかすれたレシートからでも、正確に金額と日付を抽出する。
わざわざ専用のOCRソフトを買う必要すらなくなりつつある。
現場の業務フローにどう組み込むか。そこが腕の見せ所である。
汎用性の影に潜む技術的限界と現場の落とし穴
基盤モデルのメリットは、一つのAPIで複数の業務に対応できる点にある。
だが、現場で運用を始めるとすぐに壁にぶつかる。
もっとも厄介なのは、もっともらしい嘘を出力する現象である。
法務の契約書チェックで存在しない判例をでっち上げられたら目も当てられない。
プロンプトエンジニアリングで制御しようとするが、モデルのバージョンアップで突然挙動が変わることも日常茶飯事である。
機密情報を扱う製造業の設計部門などでは、パブリックなAPIに図面データを投げるわけにはいかない。
閉域網で動かすためにLlama 3などのオープンモデルをオンプレミス環境にデプロイする選択肢もあるが、インフラの維持費と精度のトレードオフは常に悩ましい。
自社に最適なAIを導入するための評価基準と判断材料
結局のところ、どの基盤モデルをどう使うべきか。
社内規定の検索システムを作りたいなら、RAGを構築してGPT-4oのAPIとベクトルデータベースを組み合わせるのが定石である。
しかし、自社特有の専門用語が多すぎる製造業の保守マニュアル検索などでは、RAGだけでは精度が出ないことがある。
その場合、MistralやQwenなどの軽量なオープンモデルを自社のデータでファインチューニングするアプローチが視野に入る。
APIの従量課金を受け入れるか、GPUサーバーの固定費を払うか。
モデルの陳腐化が激しい現在、特定のベンダーにロックインされるリスクをどう評価するか。
技術選定の判断は分かれる。正解はない。ただ、現場のデータと要件を直視し、泥臭く検証を繰り返すしかない。
当社の見解
当社はOpenAI APIを完全廃止し、EmbeddingもLLMも全てローカルで稼働させている(2026年4月時点)。これにより月額のAPI費用がゼロになっただけでなく、機密情報や顧客データを外部に送信せずにAI処理できるようになった。クライアントのログデータをマスキングなしでそのまま分析に回せるのは、ローカルLLMだからこそ実現できる。2026年4月にはOllama常駐実行(CPU 25%、GPU 30%を常時占有)を廃止し、FastEmbed(ONNX Runtime)による非常駐型推論に移行。処理が必要な瞬間だけプロセスを起動し、完了後に即座に終了する設計で、アイドル時のリソース消費をゼロにした。あえて一般的なデスクトップPC環境で複数のローカルLLMを実機検証した経験から言えることは、ベンチマークスコアと実務での使い勝手、そして常駐時のリソース消費は全て別の指標だということだ。
同じ失敗を二度としないAIエージェント
今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。
当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。
古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。
