ニュース & インサイト News & Insights

Articul8 技術基盤の全体像

2026.02.18

製品

Articul8 技術基盤の全体像

本記事は、Articul8のCTO(Head of Technology)である Renato Nascimento と、CEOである Arun Subramanian による技術解説をもとに、Articul8がなぜエンタープライズ規模で“本番稼働するAIプラットフォーム”を実現できるのかを説明したものです


 

1. なぜ「デモが動くAI」と「本番で動くAI」は別物なのか

多くのAIソリューションは、

  • ノートPC上で動くデモ
  • 小規模なPoC(概念実証)

までは簡単に作れます。

しかし実際の企業環境では、

  • 数百〜数千の同時処理
  • 常時稼働(24/7)
  • セキュリティ・監査・可観測性
  • オンプレミスやエアギャップ環境

といった要件が加わり、多くのAIはここで破綻します

👉 Articul8は「最初から本番稼働を前提」に設計されたプラットフォームです。PoCなら動くのに・・というツールが多いためArticul8ではあえてPoCという呼び方を避けることがあります。最初から本番稼働できる前提のシステムを作るというのがArticul8のやり方です。


 

2. Articul8 プラットフォームの基盤アーキテクチャ

2.1 Kubernetes を中心とした設計

Articul8のアーキテクチャは Kubernetes中心 です。

  • クラウド(AWS / Azure / GCP)
  • オンプレミス
  • エアギャップ(外部インターネット接続なし)

すべてに同一のアーキテクチャで対応可能です。

2.2 APIサービス層(スケーラブルな入口)

  • APIはステートレスなPod
  • 水平スケール可能
  • 少数リクエストから数十万同時リクエストまで対応

👉 単なるAPIではなく、「大量同時処理を前提とした設計」。


 

3. Articul8の中核:Model Mesh Orchestrator(知能層)

3.1 市販製品では解決できなかった課題

Articul8が直面した最大の課題は、

  • 低レイテンシ
  • リアルタイム
  • 動的・自律的な処理フロー
  • 本番稼働

すべて同時に満たす既製品が存在しなかったこと。

👉 そのため Model Mesh Orchestrator を自社開発

3.2 動的・自律的なモデル実行

  • 複数のモデルを同時にデプロイ
  • 実行時に
    • どのモデルを使うか
    • どの順番で使うか
    • どこまで深掘りするか
  • システムが自律判断

👉 単なる「LLM呼び出し」ではない。


 

4. エンタープライズに不可欠な「観測性・監査性」

Articul8では、

  • 実行ログ
  • 判断理由
  • どのモデルが何をしたか
  • セキュリティ・コンプライアンス

すべてが 可視化・監査可能

CLIやUIから簡単に確認でき、

IT部門が「ブラックボックスAI」にならない設計です。


 

5. ドメイン特化モデル構築の本質

5.1 モデル構築は「全体の10%」

  • モデルサイズや学習は重要
  • しかし実際の労力の 90%はデータ理解

👉 良いAIは「良いデータ理解」からしか生まれない。


 

6. 自律的データ理解とナレッジグラフ

6.1 データ投入時にユーザーは何も指定しない

Articul8では、

  • 画像
  • チャート
  • PDF
  • テキスト

自動で判別します。

例:

  • 画像 → 写真か?チャートか?
  • 表画像 → OCR+表理解+統計解析

👉 ユーザーは「ファイルを置くだけ」。


 

7. ナレッジグラフのスケールと自動生成

実例(航空宇宙分野):

  • 約630万エンティティ
  • 約20万ページの文書
  • 自動検出されたトピック:16万
  • 階層クラスタを自動生成

すべて 人手によるタグ付けなし


 

8. セマンティック検索と理解の深さ

「escape velocity(脱出速度)」で検索すると:

  • 表の中に「escape velocity」という単語がなくても
  • 表が示す意味を理解し
  • 関連する概念として検索結果に表示

👉 単なるOCRやベクトル検索では不可能。


 

9. 表・グラフ理解の重要性

  • 表やグラフは「一般的LLMが最も苦手」
  • Articul8は表専用・グラフ専用モデルを持つ
  • 意味を説明し、他データと関連付ける

 

10. 通常検索と「詳細検索(Deep Research)」の違い

通常検索

  • 約30秒
  • 参照元文書と引用を明示

詳細検索(Model Mesh実行)

  • 約2.3分
  • ナレッジグラフを横断
  • 未知の関連性を探索
  • 実行グラフを可視化

👉 すべての判断ステップが追跡可能。


 

11. 実行グラフもナレッジとして蓄積

  • ユーザー操作
  • エージェント判断
  • システムアクション

すべてが 新たなナレッジグラフの一部になる。

👉 AIが「使われるほど賢くなる」。


 

12. 回答品質評価もドメイン特化モデルで実施

  • 回答の良さ
  • 引用の妥当性
  • 関連度の評価

これも 別のタスク特化モデルが担当。


 

13. デジタルツイン(Digital Twin)の概念

13.1 人の知識・思考をAI化

  • 個人
  • 部署
  • チーム

デジタル人格 を作成。

  • 浅いツイン:話し方を模倣
  • 深いツイン:意思決定・専門知識を再現

 

14. Squadモード(専門家同士の議論)

  • 複数のデジタルツインが同時に回答
  • 相互に意見評価
  • 議論が「収束しているか/発散しているか」を判定
  • 必要に応じて追加質問を投入

👉 これは「Q&Aボット」ではなく意思決定支援


 

15. セキュリティ・権限・同意

  • デジタルツインは必ず本人の同意が必要
  • エンタープライズ環境で完全管理
  • APIレベルでの細粒度制御

 

16. Articul8が目指すもの

  • 単なるAIチャットではない
  • エンタープライズの「成果」を出すAI
  • 監査可能で、説明可能で、スケールするAI