ATOM™-Max Server

대규모 AI 추론을 위한 고성능 서버

ATOM™-Max Pod

RDMA 고속 네트워크 기반 Rack-scale AI 인프라

Enterprise Al Solution

Full Packaged 엔터프라이즈 AI 서빙 솔루션

REBEL-Quad

하이퍼스케일 멀티모달 AI·MoE 가속을 위한 차세대 NPU

Rebellions

Efficient.
Scalable.
Deployment-Ready.

대규모 AI 서비스
추론 성능

대규모 요청 처리 성능과 높은 전력 효율성으로 운영 비용을 절감하고 비즈니스 효율을 극대화합니다.

300+ 모델 지원으로
바로 구현하는 AI 서비스

최신 A 모델을 폭넓게 지원하여 다양한 산업 분야의 AI 서비스를 즉시 구현할 수 있습니다.

DeepSeek-R1-Distill-Llama

DeepSeek-R1-Distill-Llama is a fine-tuned model based on Meta's LLM, using samples generated by DeepSeek-R1, specialized in Chain-of-Thought reasoning.

Qwen2.5

Qwen 2.5 is an advanced language model developed by Alibaba Cloud, designed for high-performance natural language understanding and generation tasks.

DeepSeek-R1-Distill-Qwen

DeepSeek-R1-Distill-Qwen is a fine-tuned LLM based on Qwen by Alibaba Cloud, using samples generated by DeepSeek-R1, specialized in Chain-of-Thought reasoning.

Stable Diffusion

Stable Diffusion models are advanced text-to-image models that generate high-quality images from textual descriptions, with variations optimized for efficiency, fine-tuning, and creativity.

Llama3.x

Llama3 is Meta's newest language model, featuring enhanced contextual understanding and multimodal functionalities.

YOLO

YOLO (You Only Look Once) is an advanced real-time object detection model that identifies and locates multiple objects in images or videos with high accuracy and efficiency.

간편한 도입과 운영

GPU 수준의 익숙한 개발환경과 오픈소스 소프트웨어 생태계와의 호환으로 개발 시간을 단축하고 운영 효율성을 높입니다.

유연한 Scale-Up & Out 지원

다양한 Scale-Up, Scale-Out 옵션으로 투자 리스크를 최소화하고 성장에 맞춰 확장할 수 있습니다.

Our Innovation Ecosystem

kt cloud는 국내 최초로 리벨리온 ATOM™을 활용한 ‘AI SERV NPU’ 상품을 구축하여 운영하고 있습니다. 리벨리온은 클라우드 환경에서 요구되는 운영 편의성과 안정성을 충족하고, 전력 효율이 높은 인프라를 통해 비용 절감을 지원하는 독보적인 딥테크 스타트업니다.

- AI 사업팀, kt cloud -

리벨리온의 ATOM™은 응용 범위가 매우 넓은 NPU입니다. 저희는 GPU・NPU 하이브리드 시스템, 멀티모달 추론 등 폭넓은 활용성을 기반으로 안전 관제 솔루션 ‘AI 비전 인텔리전스’를 구현하였고, 우수한 추론 성능과 전력 효율을 확인하였습니다. 이러한 성과를 기반으로 자체 기술 기반의 소버린 AI 생태계를 확대해나갈 예정입니다.

- AI R&D팀, 코오롱베니트 -

솔트룩스의 거대언어모델 '루시아(LUXIA) LLM'와 AI 에이전트 서비스 '구버(goover)'를 리벨리온 ATOM™에 적용하며 리벨리온 SDK와 SW의 우수성을 직접 체감했습니다. 기존 GPU 기반 코드 및 AI 서빙 소프트웨어와의 뛰어난 호환성 덕분에 별도의 전환 비용이나 추가 개발 리소스 없이 NPU 환경으로 손쉽게 마이그레이션할 수 있었습니다.

- 솔트룩스 -

리벨리온 ATOM™ 서버를 생성형 AI 솔루션 ‘Konan AIStation Server’의 핵심 인프라로 도입하였습니다. ATOM™의 높은 에너지 효율을 기반으로 온프레미스 LLM/RAG 서비스의 운영비를 절감하고 고객에게 차별화된 선택지를 제공할 것으로 기대하고 있습니다.

- AI솔루션 사업부, 코난테크놀로지 -

Tech sovereignty starts with control over compute. Rebellions is building the kind of homegrown AI infrastructure every region will need to stay competitive.

- Fleur Pellerin, CEO, Korelya -

We see Rebellions as the most promising AI accelerator startup in APAC. Their execution speed, silicon capability, and system vision give them a real edge in a fast-moving market.

- Junichi Nakajima, Representative Director, DGDV -

Rebellions is more than a technology partner. They’re one of the few with silicon ready for real-world AI services. That’s why we’re deploying Rebellions’ NPU in A., Korea’s largest LLM service. It’s the first large-scale NPU deployment in a real AI application, and a bold step toward next-gen AI infrastructure.

- Tony Ha, Head of AI DC Business Division, SK Telecom -

Rebellions brings deep insight into real AI workloads, shaped by cutting-edge projects with global leaders. Their expertise makes them a valuable partner as we push the limits of advanced verification, including complex multi-die designs.

- Johannes Stahl, Executive Director, Product Marketing, Synopsys -