ATOM™-Max Pod

Rack-Scale AI Infrastructure with RDMA-Based High-Speed Networking

High-Performance AI Cluster with
Rack-to-Rack Scalability and RDMA Networking

Built for large-scale AI inference, the ATOM™-Max Pod is a rack-scale infrastructure designed for distributed workloads. It combines Rebellions’ AI accelerators with RDMA-based high-speed networking and a familiar software stack—all delivered as a turnkey solution. Starting from an 8-server Mini Pod, the system scales flexibly to meet enterprise-level AI demands.

Multi-Node

System Architecture
Starting from 8 Nodes

400GB/s

RDMA Fabric
Super-Low Latency Clustering

64 NPUs

Per Pod
Linear Scaling Performance

All-in-One

Turnkey Solution
Available for Deployment

Limitless

Scale-Out Architecture

From an 8-server Mini Pod to a multi-rack cluster, ATOM™-Max Pods scale seamlessly via Rebellions Scalable Design (RSD), offering linear performance gains and flexible resource management as workloads grow.

Ultra-Low Latency

RDMA Fabric

ATOM™-Max servers within a Pod are interconnected via 400GB/s RDMA networking, ensuring ultra-fast, low-latency distributed processing for resource-intensive AI models.

All-in-One

Turnkey Infrastructure

Each Pod is a fully integrated infrastructure stack—combining AI accelerators, RDMA switches, and high-speed inter-node networking—ready for immediate deployment in production environments. Say goodbye to infrastructure complexity and maximize operational efficiency.

Ready-to-Deploy

Rebellions Enterprise AI Solution

For enterprise environments, Rebellions’ Enterprise AI Solution can be integrated into the Pod, delivering full-lifecycle AI serving capabilities with cost efficiency. A turnkey solution, ready to power your AI services.

NPUで実現する産業別のAIイノベーション

Enterprise

拡張可能なAIインフラで、開発から運用までAIを全社導入して効率化を図る

Construction

AI基盤の安全監視システムで、建設現場の事故を事前に予防する安全を確保できます。

Healthcare

カスタマイズされた健康管理から精密医療サービスまで、AIヘルスケア・サポートサービスを構築できます。

Finance

金融データをリアルタイムで安全に処理し、次世代の金融サービスインフラを構築することができます。

Manufacturing

Physical AI基盤のスマートファクトリーで、製造の生産性を革新することができます。

Telecom

安定的な大規模AIサービスを運営し、差別化された通信サービスの実現および顧客満足度を向上させることができます。

RBLN SDK
Deploy with Confidence from Day One.

既存のPyTorchコードをそのまま利用でき、使い慣れた開発環境をご利用頂けます。

vLLMを利用して最適なスケジューリングを行うことができます。

Tritonを含むさまざまなDevツールをサポートしています。

複雑な設定が要らず、簡単にデプロイできます。

Driver SDK

Core system software and essential tools for NPU excution

Firmware Kernel Driver User Mode Driver System Management Tool

NPU SDK

Developer tools for model and service development

Compiler, Runtime, Profiler Hugging Faceに対応 主要な推論サーバーに対応 (vLLM, TorchServer, Triton Inference Server, etc)

Model Zoo

300+ ready-to-use PyTorch and TensorFlow models optimized for Rebellions NPUs

Natural Language Processing Generative AI Speech Processing Computer Vision Physical AI

Cloud SDK

Cloud-based tools for managing NPU resources at scale

K8s Device Plugin Metric-Exporter Node Feature Discovery Device Installer VFIO Manager K8s Operator

Let's Talk

大規模AIプロジェクトから、カスタマイズされたソリューションの提供まで、Rebellionsと一緒なら実現できます。詳細はお問い合わせフォームよりご連絡ください。

*」は必須フィールドを示します

このフィールドは入力チェック用です。変更しないでください。
このフィールドはフォームの表示時には非表示になります