オンプレミス特化ソリューション

デスクトップサイズで実現する
企業AI基盤

NVIDIA DGX Sparkの革新的なコンパクト設計と、GBase On-premの高精度RAG技術を組み合わせたGBase on Sparkで、現実的なコストで社内知識ベース+AIエージェントを構築

GBase on Spark - オンプレミスAI基盤

デスクの上に置ける
パーソナルAIスーパーコンピュータ

従来のGPUサーバーでは実現できなかった、低コスト・静音・コンパクトな次世代AIインフラ

GB10 Superchip
NVIDIA DGX Spark AI Supercomputer
NVIDIA DGX Spark - デスクトップサイズのAIスーパーコンピュータ

内部アーキテクチャ

BLACKWELL GPU GRACE CPU NVLink 128GB Unified Memory ConnectX-7 1 PFLOP AI Performance • 273GB/s Bandwidth • 200Gb/s Networking

圧倒的な低コスト

従来のGPUサーバー(数百万円〜)に対し、約1/20のコストでオンプレLLM環境を構築可能

1/20 コスト削減

静音設計

通常のオフィス環境で稼働中でもほとんど気にならないレベルのノイズ。専用サーバールーム不要

デスクトップサイズ

一般的なデスクトップPCと同等かそれ以下のサイズ感。オフィスの一角にそのまま設置可能

複数台接続で更なる性能向上

2台のSpark連携で最大405Bパラメータモデルに対応。将来的なスケールアウトも視野に

単体構成

128GB統合メモリで200Bパラメータモデルまで対応。社内FAQ、ナレッジ検索に十分な性能

2台クラスター

200Gb/s QSFPで接続し、256GBメモリプールを実現。405Bの大規模モデルも動作可能

即日調達可能

市販モデルをそのまま購入。カスタムサーバー発注の長期リードタイムを回避

GPT-4oクラスの性能を
オンプレミスで実現

GBase on Sparkでは、最先端のオープンソースLLMをインストール可能

OpenAI

OSS-GPT-120B

OpenAIが公開した初のオープンウェイト推論モデル。GPT-4oクラスの性能をApache 2.0ライセンスで提供

総パラメータ 117B
有効パラメータ 5.1B / token
コンテキスト長 128K tokens
ライセンス Apache 2.0
Qwen

Qwen3-Next-80B

Alibabaが開発した次世代MoEモデル。10倍の推論速度と超長文コンテキストに対応

総パラメータ 80B
有効パラメータ 3.9B / token
コンテキスト長 256K tokens
ライセンス Apache 2.0

GPT-4o との性能比較

MMLU-Pro 一般知識・推論
GPT-4o
87.0%
OSS-GPT-120B
90.0%
Qwen3-Next-80B
82.7%
GPQA PhD level 科学
GPT-4o
75.0%
OSS-GPT-120B
80.1%
Qwen3-Next-80B
77.2%
AIME 2025 数学競技
GPT-4o
63.0%
OSS-GPT-120B
97.9%
Qwen3-Next-80B
87.8%
LiveCodeBench コーディング
GPT-4o
58.0%
OSS-GPT-120B
62.4%
Qwen3-Next-80B
68.7%

※ ベンチマークスコアは各モデルの公式発表値に基づいています

数十人 同時接続ユーザー 1台のSparkで数十人規模の同時利用をサポート
10秒以内 応答速度 ユーザークエリに対して10秒以内の高速レスポンスを担保
128K+ コンテキスト長 長文ドキュメントや複雑な会話履歴にも対応

組み合わせで解決できる課題

量子化LLM + ARM最適化により、Spark 1台で企業向けAI基盤を実現

データセキュリティとオンプレ完結

LLM推論やRAG検索をすべて社内ネットワーク内で完結。機密情報をクラウドに送信する必要がなく、ゼロトラストやデータ主権の要件に対応

複雑文書の高精度理解

LLM+VLMのデュアル構成により、手書きメモ、スキャン文書、図解付きマニュアルなど、あらゆる複雑ドキュメントを理解・回答可能

ナレッジベースの自動更新

Sparkがデータの前処理・更新エンジンとして機能。新規文書追加時に自動でRAGインデックス更新し、常に最新状態を維持

運用コストの最小化

ブラウザベースの管理画面と自動ログ取得・モニタリング機能により、ほぼメンテナンスフリーの運用体制を構築

業務で見る導入効果

様々な業界・部門で実践的な価値を創出

社内ヘルプデスク

IT・総務・人事部門の問い合わせ対応を24時間自動化

  • PCトラブル、経費精算、休暇制度への即時対応
  • 担当者負担軽減+社員待ち時間ゼロ
  • 新人でもベテラン品質の応対を実現

ナレッジ活用・属人化解消

検索しづらかった非構造化資産を全社横断で即時活用可能に

  • 手書きメモ、スキャン仕様書、議事録をRAG化
  • 部署ごとの属人化ノウハウを「誰でも使える状態」に
  • スキル平準化・新人立ち上がり加速

製造・保守現場

設備マニュアル・故障履歴・保守ログを統合活用

  • 処理手順・類似事例・部品検索を即時支援
  • データ完全内網運用でOTセキュリティ要件対応
  • 工場・エネルギー業界での生成AI導入を実現

機密データを社外に出さない
完全オンプレミス運用

金融・公共・製造など、クラウド前提の運用に踏み切りづらい組織にも最適

社内ネットワーク GBase on Spark LLM推論 + RAG検索 ファイルサーバ 業務DB SharePoint 社内システム クラウド データ外流なし

ゼロトラスト対応

すべてのLLM推論・RAG検索を社内ネットワーク内で完結。機密情報や社外秘資料をクラウドに送信する必要がありません

アクセス制御・権限管理

ユーザー・グループ単位での細かなアクセス権限設定により、情報漏洩リスクを最小化

監査ログ・操作履歴

「誰が・いつ・どの情報にアクセスしたか」を完全記録。内部統制やコンプライアンス要件に対応

データ主権の確保

自社データセンター/プライベートクラウドで運用。海外クラウドへのデータ移転リスクを完全排除

対応可能な業界・規制要件

金融機関 公共機関 製造業 医療・ヘルスケア FISC安全対策基準 個人情報保護法 OTセキュリティ

更なる機能拡張を予定

ナレッジ活用から文書作成まで、業務効率化を一気通貫で実現

Coming Soon

会議記録の自動化

会議音声から自動で議事録を生成。要点抽出、アクションアイテムの整理、参加者への共有まで一括対応。過去の会議内容もナレッジベースに蓄積し、いつでも検索可能に

近日公開予定

文書自動生成機能

蓄積されたナレッジから、定型回答書・FAQマニュアル・提案書テンプレートなどを自動作成。問い合わせ対応から文書作成業務まで一気通貫で効率化

近日公開予定

今すぐ始められる
次のステップ

「社内資料検索」「社内ヘルプデスク」「特定部門のナレッジ共有」など、
貴社の1つの業務シーンを選んでスモールスタート

2週間でPoC完了
1ヶ月で本番稼働
既存環境での即日デモ対応