사내에서 구축한 AI 엔지니어링 스택 — 우리가 배포하는 플랫폼 기반으로
(blog.cloudflare.com)
Cloudflare가 자사의 AI Gateway와 Workers AI 등 자체 제품을 활용해 구축한 AI 엔지니어링 스택을 소개하며, 이를 통해 R&D 조직의 생산성을 획기적으로 높인 사례를 분석합니다. AI 에이전트 도입을 통해 주간 머지 요청(Merge Request) 수가 약 55% 이상 증가하는 등 실질적인 개발 속도 향상을 입증했습니다.
이 글의 핵심 포인트
- 1Cloudflare R&D 조직의 93%가 자사 플랫폼 기반 AI 코딩 도구 사용 중
- 2주간 머지 요청(Merge Requests) 수가 5,600건에서 8,700건 이상으로 급증하며 개발 생산성 증명
- 3AI Gateway를 통해 월간 241.37억 개의 토큰을 라우팅하며 비용 및 데이터 보안 관리
- 4Workers AI를 활용한 서버리스 추론으로 비용 절감 및 네트워크 지연 시간 최소화
- 5MCP(Model Context Protocol) 서버 및 AI Code Reviewer 등 에이전트 중심의 통합 스택 구축
이 글에 대한 공공지능 분석
왜 중요한가
단순히 외부 AI 도구를 사용하는 것을 넘어, 자사의 인프라를 활용해 'AI 에이전트 친화적'인 개발 환경을 직접 구축했다는 점이 핵심입니다. 이는 제품의 가치를 내부에서 먼저 증명(Dogfooding)하고 이를 다시 상용 제품으로 연결하는 강력한 선순앙 구조를 보여줍니다.
배경과 맥락
최근 AI 기술은 단순 챗봇을 넘어 스스로 코드를 수정하고 실행하는 '에이전틱(Agentic) AI'로 진화하고 있습니다. 이에 따라 개발자들은 MCP(Model Context Protocol)와 같은 표준을 활용해 AI가 코드베이스, 문서, 인프라에 접근할 수 있는 정교한 인프라 계층을 필요로 하고 있습니다.
업계 영향
AI 코딩 어시스턴트의 도입은 단순한 도구의 변화가 아니라, CI/CD, 코드 리뷰, 보안 정책 등 소프트웨어 개발 생명주기(SDLC) 전체의 재설계를 요구합니다. 앞으로 기업들은 LLM 자체보다 LLM을 안전하고 효율적으로 제어할 수 있는 'AI 게이트웨이'나 '샌드박스 실행 환경' 같은 인프라 기술에 집중하게 될 것입니다.
한국 시장 시사점
한국의 SaaS 및 IT 기업들도 단순히 LLM API를 호출하는 수준을 넘어, 기업 내부의 복잡한 데이터를 에이전트에게 안전하게 전달하고 비용을 관리할 수 있는 'AI 오케스트레이션' 레이어 구축에 주목해야 합니다. 이는 보안과 비용 효율성이 중요한 엔터프라이즈 시장에서 강력한 경쟁력이 될 수 있습니다.
이 글에 대한 큐레이터 의견
Cloudflare의 사례는 AI 시대의 진정한 승자가 '모델 공급자'가 아닌 '인프라 및 오케스트레이션 제공자'가 될 수 있음을 시사합니다. 이들은 LLM의 성능에 의존하기보다, 모델을 어떻게 라우팅하고(AI Gateway), 어떻게 저렴하게 추론하며(Workers AI), 어떻게 안전하게 실행할 것인가(Sandbox)라는 '운영의 문제'를 해결함으로써 가치를 창출했습니다.
스타트업 창업자라면, 단순히 'AI를 활용한 서비스'를 만드는 것에 그치지 말고, AI 에이전트가 기업의 복잡한 워크플로우에 침투할 때 발생하는 '보안, 비용, 컨텍스트 관리'라는 병목 현상을 해결하는 인프라적 접근을 고민해야 합니다. Cloudflare처럼 자사의 제품을 내부 개발 프로세스에 먼저 적용하여 제품의 완성도를 높이는 'Dogfooding' 전략은 AI 시대의 제품 개발 속도를 결정짓는 핵심 요소가 될 것입니다.
관련 뉴스
댓글
아직 댓글이 없습니다. 첫 댓글을 남겨보세요.