RebelServer™
Powering AI Inference Efficiently and at Scale
Why RebelServer™
Sovereign AI
어디서나 제약 없는 배포.
데이터와 보안, 운영에 대한 완전한 통제권을 바탕으로
기존 공랭식 데이터 센터 내 온프레미스 환경에서 완벽하게 구동됩니다.
Ease of Use
매끄러운 통합.
오픈소스 프레임워크 및 업계 표준 툴과 호환되어 벤더 종속성이 없으며,
별도의 학습 과정 없이 바로 도입할 수 있습니다.
Optimized for
Production Tokenomics
AI 경제성을 고려한 설계.
전력 대비 성능(Performance-per-watt)을 극대화하여,
실제 서비스 환경의 대규모 추론 워크로드에 최적화된 효율을 제공합니다.
Production-Proven
Solution
현장에서 증명된 솔루션.
기업 및 정부 기관의 실제 서비스 환경에 배포되어
대규모 AI 워크로드를 안정적으로 지원하고 있습니다.
효율적인
AI 추론을 위한 설계
강력한 성능과 높은 에너지 효율을 동시에 달성하여, 대규모 추론 서비스 운영 시 발생하는 전력 소비와 비용을 절감합니다.
고성능 시스템 아키텍처
서버당 8개의 RebelCards™를 통해 최대 2 PFLOPs(FP8 기준)의 성능을 제공합니다. 각 카드에는 첨단 칩렛 아키텍처와 고대역폭 메모리가 적용된 Rebel100™ 칩이 탑재됩니다.
워크로드 대응의 유연성
거대언어모델(LLM)부터 MoE(Mixture of Experts) 구조, 언어·시각·음성을 아우르는 멀티모달 애플리케이션까지 폭넓은 AI 워크로드를 지원합니다.
검증된 소프트웨어를 통한 사용 편의성
vLLM, PyTorch, Triton 등 주요 오픈소스 프레임워크와 통합되어 배포 과정을 간소화하고 분산 추론 환경을 최적화합니다.
Specifications
* Theoretical maximum power consumption based on specifications. Actual power consumption will not exceed 7 kW, typically hovering around 4-6kW at most under practical workloads.
Net Weight: 65.6 lbs (29.7kg)
Non-operating Temperature: -40°C to 60°C (-40°F to 140°F)
Operating Relative Humidity: 8% to 90% (non-condensing)
Non-operating Relative Humidity: 5% to 95% (non-condensing)