ATOM™-Max Pod
Rack-Scale AI Infrastructure with RDMA-Based High-Speed Networking
High-Performance AI Cluster with
Rack-to-Rack Scalability and RDMA Networking
Built for large-scale AI inference, the ATOM™-Max Pod is a rack-scale infrastructure designed for distributed workloads. It combines Rebellions’ AI accelerators with RDMA-based high-speed networking and a familiar software stack—all delivered as a turnkey solution. Starting from an 8-server Mini Pod, the system scales flexibly to meet enterprise-level AI demands.
Multi-Node
System Architecture
Starting from 8 Nodes
400GB/s
RDMA Fabric
Super-Low Latency Clustering
64 NPUs
Per Pod
Linear Scaling Performance
All-in-One
Turnkey Solution
Available for Deployment
Limitless
Scale-Out Architecture
From an 8-server Mini Pod to a multi-rack cluster, ATOM™-Max Pods scale seamlessly via Rebellions Scalable Design (RSD), offering linear performance gains and flexible resource management as workloads grow.
Ultra-Low Latency
RDMA Fabric
ATOM™-Max servers within a Pod are interconnected via 400GB/s RDMA networking, ensuring ultra-fast, low-latency distributed processing for resource-intensive AI models.
All-in-One
Turnkey Infrastructure
Each Pod is a fully integrated infrastructure stack—combining AI accelerators, RDMA switches, and high-speed inter-node networking—ready for immediate deployment in production environments. Say goodbye to infrastructure complexity and maximize operational efficiency.
Ready-to-Deploy
Rebellions Enterprise AI Solution
For enterprise environments, Rebellions’ Enterprise AI Solution can be integrated into the Pod, delivering full-lifecycle AI serving capabilities with cost efficiency. A turnkey solution, ready to power your AI services.
NPUで実現する産業別のAIイノベーション
Enterprise
拡張可能なAIインフラで、開発から運用までAIを全社導入して効率化を図る
Construction
AI基盤の安全監視システムで、建設現場の事故を事前に予防する安全を確保できます。
Healthcare
カスタマイズされた健康管理から精密医療サービスまで、AIヘルスケア・サポートサービスを構築できます。
Finance
金融データをリアルタイムで安全に処理し、次世代の金融サービスインフラを構築することができます。
Manufacturing
Physical AI基盤のスマートファクトリーで、製造の生産性を革新することができます。
Telecom
安定的な大規模AIサービスを運営し、差別化された通信サービスの実現および顧客満足度を向上させることができます。
RBLN SDK
Deploy with Confidence from Day One.
既存のPyTorchコードをそのまま利用でき、使い慣れた開発環境をご利用頂けます。
vLLMを利用して最適なスケジューリングを行うことができます。
Tritonを含むさまざまなDevツールをサポートしています。
複雑な設定が要らず、簡単にデプロイできます。
Driver SDK
Core system software and essential tools for NPU excution
NPU SDK
Developer tools for model and service development
Model Zoo
300+ ready-to-use PyTorch and TensorFlow models optimized for Rebellions NPUs
Cloud SDK
Cloud-based tools for managing NPU resources at scale