ATOM™-Max Server

大規模AI推論向けの高性能サーバー

単一サーバーから始まる大規模AI推論

ATOM™-Maxサーバーは高効率の電力設計を基に、単一サーバーのみで大規模AI推論を安定的に行います。 ATOM™-Max NPU Cardは最大8枚で構成可能で、数百種類のAIモデル(Vision AI、LLM、Multi-Modal AI、 Physical AIなど)と主要なAIサービスの運用ツール(vLLM、Triton、K8sなど)に対応します。GPUで使い慣れた開発環境をそのままで利用できますので、チュートリアルを見ながら気軽に始めてみてください。

1,024 TFLOPS

Peak Performance
FP16基準で最大の演算性能

512GB, 8TB/s

GDDR6 Memory
大容量・高帯域幅のメモリー

Typical ~3.4kW

Max Power Consumption 4.3kW
エネルギーの最適設計

4U

Form Factor
データセンターの最適化

Compatible Software

OS

Ubuntu, RHEL, AlmaLinux, Rocky Linux

Frameworks & Tools

Hugging Face, PyTorch, TensorFlow, Triton

Inference Serving

vLLM, Triton Inference Server, TorchServe

Orchestration

Docker, OpenStack, Kubernetes, Ray

Performance at

Any Scale

ユーザーからのリクエストが急増してもサービスの性能は落ちません。
大規模AIサービスを実現するために、ATOM™-Maxサーバーは、サーバー1台で毎秒数千個のトークンを生成し、毎秒数千フレームを分析するなど圧倒的な性能を誇ります。

Sustainable

AI Infrastructure

サーバールーム内の限定的な電力容量でも、最大のAI推論能力を提供します。ATOM™-Maxサーバーは、高い電力効率でAIインフラの総所有コスト(TCO)を大幅に削減でき、持続可能なAIビジネス環境を実現します。

Full-stack
Software Support

ATOM™-Maxは、最も活用率が高いオープンソースソフトウェア(OSS)生態系と互換性を持っています。大量のリクエストにも効率よく対応し、柔軟なリソース運用およびモニタリング向けのさまざまなAIサービスの運用ツール( vLLM、 Triton Inference Server、K8s、Prometheusなど)を通じて、end-to-endサービスが構築できます。

Variety of

Models and Applications

LLM、Vision AI、Multi-Modal AI、Physical AIなどの数百種類の最新AIモデルを即時に利用できます。チャットボットや企業向けの検索エンジン、要約·分析、AI監視カメラ、さらには画像や動画生成サービスまで、企業のニーズに合わせたAIサービスをご提供頂けます。

Develop

As You Always Have

Rebellionsの新しいハードウェアを導入しても、使い慣れている開発環境を変更する必要はありません。
ATOM™-Maxはユーザーフレンドリーな開発環境を提供しますので、PyTorch、TensorFlowなどこれまで使っていた標準ワークフローのままで開発ができます。チュートリアルを見ながら簡単に始められます。

NPUで実現する産業別のAIイノベーション

Enterprise

拡張可能なAIインフラで、開発から運用までAIを全社導入して効率化を図る

Construction

AI基盤の安全監視システムで、建設現場の事故を事前に予防する安全を確保できます。

Healthcare

カスタマイズされた健康管理から精密医療サービスまで、AIヘルスケア・サポートサービスを構築できます。

Finance

金融データをリアルタイムで安全に処理し、次世代の金融サービスインフラを構築することができます。

Manufacturing

Physical AI基盤のスマートファクトリーで、製造の生産性を革新することができます。

Telecom

安定的な大規模AIサービスを運営し、差別化された通信サービスの実現および顧客満足度を向上させることができます。

RBLN SDK
Deploy with Confidence from Day One.

既存のPyTorchコードをそのまま利用でき、使い慣れた開発環境をご利用頂けます。

vLLMを利用して最適なスケジューリングを行うことができます。

Tritonを含むさまざまなDevツールをサポートしています。

複雑な設定が要らず、簡単にデプロイできます。

Driver SDK

Core system software and essential tools for NPU excution

Firmware Kernel Driver User Mode Driver System Management Tool

NPU SDK

Developer tools for model and service development

Compiler, Runtime, Profiler Hugging Faceに対応 主要な推論サーバーに対応 (vLLM, TorchServer, Triton Inference Server, etc)

Model Zoo

300+ ready-to-use PyTorch and TensorFlow models optimized for Rebellions NPUs

Natural Language Processing Generative AI Speech Processing Computer Vision Physical AI

Let's Talk

大規模AIプロジェクトから、カスタマイズされたソリューションの提供まで、Rebellionsと一緒なら実現できます。詳細はお問い合わせフォームよりご連絡ください。

*」は必須フィールドを示します

このフィールドは入力チェック用です。変更しないでください。
このフィールドはフォームの表示時には非表示になります