AI 라이프사이클의 모든 단계를 보호하면서 AI를 개발하고 배포하세요.
NVIDIA NIM 마이크로서비스 기반의 Cloudera AI Inference Service는 최대 36배 빠른 NVIDIA GPU 추론 성능과 CPU에서 약 4배 높은 처리량을 제공하여 AI 관리 및 거버넌스를 퍼블릭 및 프라이빗 클라우드 전반에서 원활하게 통합합니다.
엔터프라이즈 AI 추론을 위한 단 하나의 서비스
원클릭 배포: 환경에 관계없이 모델을 개발 단계에서 프로덕션으로 빠르게 전환합니다.
단일 보안 환경: AI 라이프사이클의 모든 단계를 아우르는 강력한 엔드 투 엔드 보안을 제공합니다.
단일 플랫폼: 모든 AI 요구 사항을 처리하는 단일 플랫폼으로 모든 모델을 원활하게 관리합니다.
원스톱 지원: 하드웨어 및 소프트웨어에 관련된 모든 문의를 통합적으로 지원합니다.
AI Inference Service 주요 기능
* 출시 예정. 자세한 내용은 문의 해 주세요.
데모
손쉬운 모델 배포를 직접 경험해 보세요.
강력한 Cloudera 도구로 대규모 언어 모델을 손쉽게 배포하여 대규모 AI 애플리케이션을 효과적으로 관리하는 방법을 확인하세요.
모델 레지스트리 통합: 중앙 집중식 Cloudera AI Registry 저장소를 통해 모델을 원활하게 액세스, 저장, 버전 관리 및 운영합니다.
간편한 구성 및 배포: 클라우드 환경 전반에서 모델을 배포하고 엔드포인트를 설정하며 자동 확장을 조정하여 효율성을 높입니다.
성능 모니터링: 지연 시간, 처리량, 자원 사용률, 모델 상태와 같은 주요 지표를 기반으로 문제를 해결하여 최적화합니다.
