· 레드햇과 함께 AI 추론 최적화를 위한 리벨리온 NPU 기반 풀스택 플랫폼 레드햇 오픈시프트 AI’ 출시
· 인프라 비용, 배포 복잡성, 보안 등 AI 추론 단계의 주요 과제 해결을 위한 기능 지원
AI반도체 스타트업 리벨리온(대표 박성현)이 글로벌 오픈소스 솔루션 선도기업 레드햇(Red Hat)과 함께 ‘리벨리온 NPU 기반 레드햇 오픈시프트 AI(Red Hat OpenShift AI powered by Rebellions NPUs)’를 공개한다고 발표했다. 이 솔루션은 ‘레드햇 오픈시프트 AI(Red Hat OpenShift AI)’와 리벨리온의 NPU(Neural Processing Unit), 고효율 추론 엔진인 vLLM(*)을 결합해 검증된 풀스택 엔터프라이즈 AI 플랫폼을 제공한다.
*레드햇 오픈시프트 AI(Red Hat OpenShift AI): 기업이 AI 모델의 라이프사이클을 규모에 맞게 관리할 수 있도록 지원하는 쿠버네티스 기반의 엔터프라이즈 AI/ML 플랫폼
**vLLM: 대형언어모델(LLM)을 더 빠르고 효율적으로 실행하도록 돕는 고성능 모델 서빙 엔진(소프트웨어)
‘리벨리온 NPU 기반 레드햇 오픈시프트 AI‘는 AI 추론 최적화를 위해 핵심 요소를 통합해, 하드웨어(NPU)는 물론 모델 서빙(vLLM)까지 추론에 필요한 모든 영역을 아우르는 검증된 풀스택 AI 추론 플랫폼이다.
AI 도입이 확대되면서 기업은 인프라 비용, 배포 복잡성, 보안 등 다양한 과제를 동시에 해결해야 한다. 특히, AI 추론은 학습된 모델이 실제 환경에서 응답을 생성하는 단계로 사용 빈도가 가장 높고 비용·성능에 직접적인 영향을 미친다. 따라서, 기존 GPU 중심의 인프라만으로는 대규모 운영이 요구하는 효율성을 충족하기 어렵다. 이번 솔루션은 이러한 현실적 요구를 반영해 다양한 환경에서 안정적이고 효율적인 추론 인프라를 구축할 수 있는 대안이 될 전망이다.
이번에 출시된 플랫폼은 고객의 AI추론 최적화를 위한 핵심 요소를 통합했다. 먼저, 리벨리온의 NPU는 AI 추론에 최적화된 아키텍처로 설계되어 기존 GPU 대비 최대 3.2배 더 높은 에너지 효율성을 제공하며, 서버·랙 단위에서 데이터센터의 구축 및 운영 비용을 효과적으로 낮춰준다. 또한 풀스택 소프트웨어와 주요 오픈소스 AI 프레임워크 지원을 통해 GPU와 동일한 수준의 편리한 개발 환경을 제공한다.
이를 바탕으로 ‘리벨리온 NPU 기반 레드햇 오픈시프트 AI’는 하드웨어부터 모델 서빙까지 모든 영역을 아우르는 검증된 풀스택 AI 추론 플랫폼을 제공한다. 리벨리온의 소프트웨어 스택은 ‘레드햇 오픈시프트 AI’에서 최적화되어 실행되며 오버헤드(*)를 줄이고 배포를 가속화한다. 또한 레드햇 오픈시프트(Red Hat OpenShift)(**)의 인증을 취득한 레벨리온 NPU 오퍼레이터(Rebellions NPU Operator)는 온프레미스 및 멀티클라우드 환경에서 보다 원활한 통합과 신뢰할 수 있는 지원을 제공하여 기업의 데이터 주권 확보와 규제 준수를 지원한다.
*오버헤드(Overhead): 불필요한 추가 작업이나 지연 요소
**레드햇 인증 오퍼레이터(Red Hat Verified Operator): 다양한 환경에서 애플리케이션을 표준화된 방식으로 설치·운영할 수 있도록 레드햇이 공식 검증한 소프트웨어 구성 요소.
해당 플랫폼은 주요 기능으로 ▲확장 가능한 엔터프라이즈급 AI 지원(vLLM 통합으로 고처리량·저지연·고효율 추론 운영) ▲보안 강화 및 규제 준수(온프레미스 기반 데이터 보호 및 요건 대응) ▲운영 단순화(NPU를 GPU처럼 쉽게 운영할 수 있는 통합 관리 환경) ▲유연한 확장성(코어부터 엣지까지 선형 확장이 가능한 인프라)을 제공한다 (상세 내용은 보충자료 참고).
양사는 코오롱베니트와 공동으로 세미나를 열어 솔루션을 소개하고, 기업의 생성형 AI 도입 과정에서 마주하는 주요 과제를 논의할 예정이다. 이후 참여 기업 대상 컨설팅과 실증을 통해 효율적인 AI 인프라 구축을 지원하고 시장 확장을 본격화할 계획이다.
‘리벨리온 NPU 기반 레드햇 오픈시프트에 대한 자세한 정보는 레드햇 에코시스템(Red Hat Ecosystem Catalog) 카탈로그에서 확인할 수 있다.
박성현 리벨리온 대표는 “AI서빙과 추론이 본격화되며 기업들은 성능과 비용, 데이터 주권을 모두 만족시키는 실용적인 인프라를 필요로 하고 있다”며, “이번 협력으로 레드햇과 리벨리온은 AI 추론의 요소가 제각각이던 기존 방식 대신 하드웨어부터 모델서빙까지 오픈소스를 이용하여 통합되고 검증된 추론 플랫폼을 제공한다. 이로써 기업들이 보다 효율적이고 안전하게 AI서비스를 확장할 수 있도록 지원하는 한편, GPU 중심의 환경을 넘어 NPU 기반 추론 인프라의 새로운 대안을 제시하는 첫 사례가 될 것”이라고 밝혔다.
브라이언 스티븐스(Brian Stevens) 레드햇 AI 부문 수석부사장 겸 CTO는 “엔터프라이즈 AI의 미래는 단일 구조의 독점 스택을 넘어서는 아키텍처를 선택할 수 있어야 한다. 리벨리온과의 협업은 레드햇의 ‘모든 모델, 모든 가속기, 모든 클라우드’ 전략을 구현하는 데 있어 큰 의미가 있다. 레드햇은 레드햇 오픈시프트 AI의 개방적이고 확장 가능한 역량을 리벨리온의 효율적인 NPU와 통합함으로써, 엔터프라이즈에 검증된 풀스택 대안을 제공한다. 이를 통해 고객은 실제 운영 환경의 AI에 필수인 효율성과 저지연성, 수평 확장성을 갖추고 AI 추론 워크로드를 배포할 수 있다”라고 말했다.
[보충자료] ‘리벨리온 NPU 기반 레드햇 오픈시프트 AI(Red Hat OpenShift AI powered by Rebellions NPUs)’ 주요 기능
▲확장 가능한 엔터프라이즈급 AI 지원: 리벨리온의 랙 스케일 NPU 솔루션과 통합된 vLLM을 기반으로 높은 처리량·낮은 지연 시간·우수한 전력 효율을 제공하며, 대규모 언어 모델 및 다양한 AI 추론 워크로드를 안정적으로 운영할 수 있다.
▲보안 강화 및 규제 준수: 레드햇의 플랫폼과 리벨리온의 하드웨어로 데이터를 온프레미스에 안전하게 유지하며 관련 규제 요구 사항을 충족한다.
▲운영 단순화: 레드햇의 통합 관리 플랫폼을 통해 NPU를 GPU처럼 손쉽게 운영할 수 있어 복잡성을 대폭 줄이고 AI 인프라 도입을 가속화한다.
▲유연한 확장성: 코어에서 엣지까지 기업의 데이터가 위치한 곳 어디든 선형 확장(linear scale-out)을 통해 배포 가능하다.




Share This: