Enterprise Al Solution

Full PackagedエンタープライズAIのサービスソリューション

エンタープライズAIサービング向けのFull Lifecycle対応ソリューション

Rebellions Enterprise AI Solutionは、ATOM™-Max PodでエンタープライズAIサービスのFull Lifecycleを高いリソース効率でサポートするSWです。さまざまなAIサービスや大量のリクエスト、大型モデルに最適化したノード単位の分散処理向け開発ツールキットを提供します。企業のインフラチームには自動化したAIインフラの運用ツールを、開発チームには環境設定やソフトウェア構成を悩まずにすぐ使える独立した開発環境を提供します。

Reference Architecture

Full Lifecycle Support from Dev to Deploy

テスト用Podを簡単に生成でき、VS CodeやJupyterなどのIDEツールで開発、テスト、デバッグ、デプロイおよびアップデート作業ができます。初期設定やソフトウェア構成を悩まなくて済むように、E2E全体の開発サイクルをサポートします。

Automated Resource Orchestration

管理者は開発チームのためのAIリソースを簡単に生成でき、ユーザー認証および権限管理、モニタリング機能を用いて運用できます。自動化されたAIインフラの運用ツールを導入し、管理の利便性および効率性を最大化できます。

Prebuilt Multi-Tenant Development & Serving System

企業は多数のAIサービスの開発やテスト、デプロイ、運用を同時に行わなければなりません。複数の開発者とチームがお互いの作業に干渉せずに、同時に進められるよう、独立したリソース管理および実行環境を提供します。

Ready-to-Use SW for Cost-Efficient Distributed Serving

AIサービスのリクエスト構造に最適化したノード間の分散処理環境は、最小限のリソースで大量のリクエストを処理できます。分散処理向けに構成されているソフトウェアスタックで、容易に最適化できます。

Development Toolkit for Resource-Intensive Model

サーバー間の通信が欠かせないリソース集約型の大規模AIモデル(Reasoning AIなど)の推論にも対応します。RDMA基盤の高速ネットワーク環境および活用ガイドを通じて低遅延で高性能なAIサービスを実現できます。

Core Technology & Components

Developer-Friendly Environment

使いやすいIDEやKubernetes、Rayといった分散処理ソフトウェアスタックを提供し、開発しやすい環境を実現します。

vLLM Devpack

vLLM Devpackは、vLLMのエンジンやさまざまなツール、PyTorch、Triton、Rebellions SDKを統合コンテナイメージで提供します。

AI Orchestration

大量のリクエストに対してもRay、K8s、vLLMでサーバーを分散・共有・スケジューリングし、ワークロードを効率よく処理します。

*Tech Preview

提供機能と開発ツール

管理者向け機能

自動化されたインフラ構築 インフラ状態のモニタリング ユーザー認証および権限管理 新規SDKのインストールおよびデプロイ

開発者向け機能

RDMA基盤のノード間高速ネットワークを提供 Ray基盤の分散開発環境の構成および管理 Ray分散環境でvLLMを実行 vLLMをエンドポイントとして構成し、LLM推論サービスを運用 vLLMプロファイラを用いた性能分析およびモニタリング Git連携およびコンテナイメージの生成・アップロード ダウンロード・コンパイルされたモデルキャッシュの共有および管理 VS Code・Jupyter環境に対応

Let's Talk

大規模AIプロジェクトから、カスタマイズされたソリューションの提供まで、Rebellionsと一緒なら実現できます。詳細はお問い合わせフォームよりご連絡ください。

*」は必須フィールドを示します

このフィールドは入力チェック用です。変更しないでください。
このフィールドはフォームの表示時には非表示になります