トリアージとは

TRIAGE
読み: トリアージ

トリアージとは、限られた開発リソースを最大限に活かすため、データ・エラー・実験の優先順位を選別するプロセス

読み: トリアージ

限られた開発リソースを最大限に活かすため、データ・エラー・実験の優先順位を選別するプロセス。AI開発では「どのデータに先にラベルを付けるか」「どのエラーを先に修正するか」「どの実験にGPUを割り当てるか」の判断が品質とスピードを左右する。

かんたんに言うと

救急医療で「この患者を先に治療する」と判断するのと同じ考え方。AI開発でも「このデータを先に確認する」「このバグを先に直す」と優先順位をつける。

データトリアージとアクティブラーニング

AIの性能はデータで決まるが、数百万件のデータを全て人間が確認するのはコスト的に不可能。
そこでデータトリアージが必要になる。AIが予測に迷ったデータや、過去に間違えた傾向に似ているエッジケースをシステムが自動抽出し、「このデータから優先してラベルを付ける」と指定する。アクティブラーニングと組み合わせることで、少ないラベル付け作業で最大の精度向上を狙える。

エラーの優先度判定と計算リソースの配分

AIモデルの間違いには「絶対に防ぐべきエラー」と「許容できるエラー」がある。セキュリティリスクにつながる誤答や差別的な出力は最優先。稀な条件でしか起きない軽微な誤分類は後回し。この切り分けがトリアージの核心。
計算リソースも同様。複数のアルゴリズム候補がある場合、小さなモデルで事前検証し、最も成功確率が高い実験から本番のGPUを割り当てる。

当社の見解

当社はOpenAI APIを完全廃止し、EmbeddingLLMも全てローカルで稼働させている(2026年4月時点)。これにより月額のAPI費用がゼロになっただけでなく、機密情報や顧客データを外部に送信せずにAI処理できるようになった。クライアントのログデータをマスキングなしでそのまま分析に回せるのは、ローカルLLMだからこそ実現できる。2026年4月にはOllama常駐実行(CPU 25%、GPU 30%を常時占有)を廃止し、FastEmbed(ONNX Runtime)による非常駐型推論に移行。処理が必要な瞬間だけプロセスを起動し、完了後に即座に終了する設計で、アイドル時のリソース消費をゼロにした。あえて一般的なデスクトップPC環境で複数のローカルLLMを実機検証した経験から言えることは、ベンチマークスコアと実務での使い勝手、そして常駐時のリソース消費は全て別の指標だということだ。

同じ失敗を二度としないAIエージェント

今のAIは、聞けば何でも答えてくれます。
でも、セッションが切れた瞬間に前回の失敗を忘れます。

当社が開発しているAIは、過去の経緯を念頭に置いて、
聞かれる前に「それは前回うまくいきませんでした」と声をかけます。
人間にも同じ失敗をさせず、AI自身も繰り返しません。

古参の社員が横にいるように、黙っていても気づいてくれる。
それが、当社が考える本当のAI社員です。

相談する