Cloudera, The Forrester Wave™: Data Fabric Platforms에서 2025년 4분기 보고서에서 리더로 선정

보고서 보기
  • Cloudera Cloudera
  • 클라우데라에 문의하기

    AI 라이프사이클의 모든 단계를 보호하면서 AI를 개발하고 배포하세요.

    NVIDIA NIM 마이크로서비스 기반의 Cloudera AI Inference Service는 최대 36배 빠른 NVIDIA GPU 추론 성능과 CPU에서 약 4배 높은 처리량을 제공하여 AI 관리 및 거버넌스를 퍼블릭 및 프라이빗 클라우드 전반에서 원활하게 통합합니다.

    AI Inference Service 다이어그램

    엔터프라이즈 AI 추론을 위한 단 하나의 서비스

    원클릭 배포: 환경에 관계없이 모델을 개발 단계에서 프로덕션으로 빠르게 전환합니다.

    단일 보안 환경: AI 라이프사이클의 모든 단계를 아우르는 강력한 엔드 투 엔드 보안을 제공합니다.

    단일 플랫폼: 모든 AI 요구 사항을 처리하는 단일 플랫폼으로 모든 모델을 원활하게 관리합니다.

    원스톱 지원: 하드웨어 및 소프트웨어에 관련된 모든 문의를 통합적으로 지원합니다.

    AI Inference Service 주요 기능

    하이브리드 및 멀티 클라우드 지원

    온프레미스*, 퍼블릭 클라우드, 하이브리드 환경 전반에서 유연한 배포를 지원하여 다양한 엔터프라이즈 인프라 요구 사항을 충족합니다.

    상세 데이터 및 모델 계보*

    데이터 변환 및 모델 라이프사이클 이벤트를 포괄적으로 추적하고 문서화하여 재현 가능성과 감사 가능성을 향상합니다.

    엔터프라이즈급 보안

    인증, 권한 관리*, 데이터 암호화 등 강력한 보안 조치를 구현하여 데이터와 모델을 전송 중이거나 저장 상태일 때도 안전하게 보호합니다.

    실시간 추론 기능

    낮은 지연 시간으로 실시간 예측을 제공하고 대규모 데이터세트를 위한 배치 처리를 지원하여 다양한 성능 지표에 맞는 AI 모델을 유연하게 운영합니다.

    고가용성 및 동적 확장

    고가용성 구성과 동적 확장 기능을 통해 다양한 로드를 효율적으로 처리하는 동시에 지속적인 서비스 운영을 보장합니다.

    유연한 통합

    기존 워크로드 및 애플리케이션을 Open Inference Protocol API(기존 ML 모델용) 및 OpenAI 호환 API(LLM용)와 손쉽게 통합합니다.

    다양한 AI 프레임워크 지원

    TensorFlow, PyTorch, Scikit-learn, Hugging Face Transformers 등 인기 있는 ML 프레임워크와의 통합을 통해 다양한 유형의 모델을 손쉽게 배포합니다.

    고급 배포 패턴

    카나리아 배포, 블루-그린 배포* 혹은 A/B 테스트*와 같은 정교한 배포 전략을 활용하여 새로운 버전의 모델을 안전하게 점진적으로 배포합니다.

    개방형 API

    개방형 표준을 준수하여 온라인 모델 및 애플리케이션*을 배포, 관리, 모니터링하고 CI/CD 파이프라인 및 기타 MLOps 도구와의 원활한 통합을 지원합니다.

    비즈니스 모니터링*

    감정 분석, 사용자 피드백, 드리프트 등 생성형 AI 모델 지표를 지속적으로 모니터링하여 모델의 품질과 성능을 유지합니다.

    * 출시 예정. 자세한 내용은 문의 해 주세요.

    AI Inference Service 주요 기능

    하이브리드 및 멀티 클라우드 지원

    온프레미스*, 퍼블릭 클라우드, 하이브리드 환경 전반에서 유연한 배포를 지원하여 다양한 엔터프라이즈 인프라 요구 사항을 충족합니다.

    상세 데이터 및 모델 계보*

    데이터 변환 및 모델 라이프사이클 이벤트를 포괄적으로 추적하고 문서화하여 재현 가능성과 감사 가능성을 향상합니다.

    엔터프라이즈급 보안

    인증, 권한 관리*, 데이터 암호화 등 강력한 보안 조치를 구현하여 데이터와 모델을 전송 중이거나 저장 상태일 때도 안전하게 보호합니다.

    실시간 추론 기능

    낮은 지연 시간으로 실시간 예측을 제공하고 대규모 데이터세트를 위한 배치 처리를 지원하여 다양한 성능 지표에 맞는 AI 모델을 유연하게 운영합니다.

    고가용성 및 동적 확장

    고가용성 구성과 동적 확장 기능을 통해 다양한 로드를 효율적으로 처리하는 동시에 지속적인 서비스 운영을 보장합니다.

    유연한 통합

    기존 워크로드 및 애플리케이션을 Open Inference Protocol API(기존 ML 모델용) 및 OpenAI 호환 API(LLM용)와 손쉽게 통합합니다.

    다양한 AI 프레임워크 지원

    TensorFlow, PyTorch, Scikit-learn, Hugging Face Transformers 등 인기 있는 ML 프레임워크와의 통합을 통해 다양한 유형의 모델을 손쉽게 배포합니다.

    고급 배포 패턴

    카나리아 배포, 블루-그린 배포* 혹은 A/B 테스트*와 같은 정교한 배포 전략을 활용하여 새로운 버전의 모델을 안전하게 점진적으로 배포합니다.

    개방형 API

    개방형 표준을 준수하는 API를 통해 모델 및 애플리케이션*을 배포, 관리, 모니터링하고 CI/CD 파이프라인 및 기타 MLOps 도구와의 원활한 통합을 지원합니다.

    비즈니스 모니터링*

    감정 분석, 사용자 피드백, 드리프트 등 주요 생성형 AI 모델 지표를 지속적으로 모니터링하여 모델의 품질과 성능을 유지합니다.

    * 출시 예정. 자세한 내용은 문의 해 주세요.

    데모

    손쉬운 모델 배포를 직접 경험해 보세요.

    강력한 Cloudera 도구로 대규모 언어 모델을 손쉽게 배포하여 대규모 AI 애플리케이션을 효과적으로 관리하는 방법을 확인하세요.

    모델 레지스트리 통합: 중앙 집중식 Cloudera AI Registry 저장소를 통해 모델을 원활하게 액세스, 저장, 버전 관리 및 운영합니다.

    간편한 구성 및 배포: 클라우드 환경 전반에서 모델을 배포하고 엔드포인트를 설정하며 자동 확장을 조정하여 효율성을 높입니다.

    성능 모니터링: 지연 시간, 처리량, 자원 사용률, 모델 상태와 같은 주요 지표를 기반으로 문제를 해결하여 최적화합니다.

    headshot of Sanjeev Mohan
    Cloudera AI Inference는 NVIDIA의 AI 전문성을 기반으로 데이터의 잠재력을 최대한 활용하고 엔터프라이즈급 보안 기능으로 데이터를 안전하게 보호합니다. 이를 통해 온프레미스 또는 클라우드에서 안정적으로 데이터를 보호하고 워크로드를 실행하는 동시에 유연성 및 거버넌스를 갖춘 효율적인 AI 모델을 배포할 수 있습니다.

    —Sanjeev Mohan, SanjMo 수석 애널리스트

    참여하기

    설명서

    시작하기 위한 리소스 및 가이드

    Cloudera AI Inference Service 문서는 자세한 기능 설명부터 유용한 구현 가이드까지 필요한 모든 정보를 제공하여 보다 빠르게 시작할 수 있도록 지원합니다.

    시작할 준비가 되셨나요?

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.