신정규 래블업 대표, “GPU 한 대부터 수천 대까지, 하나의 플랫폼으로”
(venturesquare.net)
래블업은 GPU 가상화 및 통합 관리 플랫폼인 'Backend.AI'를 통해 AI 인프라의 효율성을 극대화하는 기술력을 보유한 기업입니다. 특정 하드웨어에 종동되지 않는 소프트웨어 레이어를 구축하여, NVIDIA를 포함한 다양한 AI 가속기를 효율적으로 관리하며 글로벌 시장을 공략하고 있습니다.
이 글의 핵심 포인트
- 1Backend.AI를 통해 GPU 1대부터 수천 대까지 통합 관리 및 가상화 기술 보유
- 2NVIDIA뿐만 아니라 AMD, Intel, 국산 NPU(리벨리온, 퓨리오사AI 등) 12종 이상의 가속기 통합 지원
- 32021년 이후 연평균 성장률(CAGR) 57% 이상, 6년 연속 영업흑자 달성
- 4구독 매출 비중 82%, 반복 매출 비중 95%에 달하는 안정적인 SaaS 수익 구조
- 5Upstage 컨소시엄 프로젝트에서 학습 기간을 120일에서 66일로 약 45% 단축시킨 성과
이 글에 대한 공공지능 분석
왜 중요한가
AI 모델의 거대화로 인해 GPU 비용 부담이 급증하는 상황에서, 자원 활용률을 높이는 가상화 기술은 기업의 비용 구조를 결정짓는 핵심 요소입니다. 특히 특정 하드웨어 제조사에 종속되지 않는 '하드웨어 불가지론(Hardware-agnostic)'적 접근은 AI 인프라의 지속 가능성을 확보하는 데 매우 중요합니다.
배경과 맥락
현재 AI 산업은 GPU 수량 확보 경쟁을 넘어, 확보된 자원을 얼마나 효율적으로 배분하고 관리하느냐의 단계로 진입했습니다. NVIDIA의 Run:ai 인수 사례에서 볼 수 있듯, 인프라 관리 플랫폼은 거대 빅테크의 생태계 통합 전략의 핵심 전장이 되고 있습니다.
업계 영향
래블업의 기술은 국산 NPU(리벨리온, 퓨리오사AI 등)와 글로벌 가속기를 동시에 지원함으로써, 차세대 AI 반도체 생태계가 자생할 수 있는 소프트웨어 토대를 제공합니다. 이는 하드웨어 제조사들에게는 자사 칩을 쉽게 도입할 수 있는 '플러기인' 환경을, 사용자들에게는 유연한 인프라 선택권을 의미합니다.
한국 시장 시사점
한국의 AI 스타트업들은 모델 개발(Model-centric)뿐만 아니라, 인프라 효율화(Infrastructure-centric)라는 틈새시장에서 글로벌 경쟁력을 확보할 수 있음을 보여줍니다. 오픈소스를 기반으로 기술적 신뢰를 쌓고, 이를 구독형 SaaS 모델로 연결한 전략은 국내 딥테크 기업들이 지향해야 할 수익 모델의 이정표를 제시합니다.
이 글에 대한 큐레이터 의견
래블업의 사례는 딥테크 스타트업이 '기술적 해자(Moat)'를 어떻게 비즈니스 모델로 전환해야 하는지를 보여주는 교과서적인 사례입니다. 단순히 GPU 성능을 높이는 것이 아니라, GPU를 '어떻게 나누어 쓰고 관리할 것인가'라는 운영체제(OS) 레벨의 난제를 해결함으로써 하드웨어 교체 주기와 상관없는 지속 가능한 수익 구조(반복 매출 95%)를 구축했습니다. 이는 모델 경쟁이 치열해질수록 인프라 관리의 가치가 더욱 높아질 것임을 시사합니다.
창업자 관점에서 주목해야 할 점은 '하드웨어 독립성' 전략입니다. NVIDIA의 생태계 확장 압박 속에서, 특정 벤더에 종속되지 않는 소프트웨어 레이어를 선점하는 것은 매우 영리한 포지셔닝입니다. 다만, 글로벌 빅테크들이 인프라 관리 영역까지 수직 계열화를 시도하고 있는 만큼, 래블업이 확보한 4년 정도의 기술 격차를 어떻게 유지하며 글로벌 표준(Standard)으로 자리 잡을지가 향후 기업 가치 상승의 핵심 관건이 될 것입니다.
관련 뉴스
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요.