ClouderaNOW AI 에이전트, 클라우드 버스팅 및 AI용 데이터 패브릭 소개 | 4월 8일

지금 등록하기
  • Cloudera Cloudera
  • 클라우데라에 문의하기

    AI 라이프사이클의 모든 단계를 보호하면서 AI를 개발하고 배포하세요.

    NVIDIA NIM 마이크로서비스 기반의 Cloudera AI Inference Service는 최대 36배 빠른 NVIDIA GPU 추론 성능과 CPU에서 약 4배 높은 처리량을 제공하여 AI 관리 및 거버넌스를 퍼블릭 및 프라이빗 클라우드 전반에서 원활하게 통합합니다.

    AI Inference Service 다이어그램

    엔터프라이즈 AI 추론을 위한 단 하나의 서비스

    원클릭 배포: 환경에 관계없이 모델을 개발 단계에서 프로덕션으로 빠르게 전환합니다.

    단일 보안 환경: AI 라이프사이클의 모든 단계를 아우르는 강력한 엔드 투 엔드 보안을 제공합니다.

    단일 플랫폼: 모든 AI 요구 사항을 처리하는 단일 플랫폼으로 모든 모델을 원활하게 관리합니다.

    원스톱 지원: 하드웨어 및 소프트웨어에 관련된 모든 문의를 통합적으로 지원합니다.

    AI Inference Service 주요 기능

    하이브리드 및 멀티 클라우드 지원

    온프레미스, 퍼블릭 클라우드 및 하이브리드 환경 전반에서 유연한 배포를 지원하여 다양한 엔터프라이즈 인프라 요구 사항을 충족합니다.

    상세 데이터 및 모델 계보

    데이터 변환 및 모델 라이프사이클 이벤트를 포괄적으로 추적하고 문서화하여 재현 가능성과 감사 가능성을 향상합니다.

    엔터프라이즈급 보안

    인증, 권한 관리*, 데이터 암호화 등 강력한 보안 조치를 구현하여 데이터와 모델을 전송 중이거나 저장 상태일 때도 안전하게 보호합니다.

    실시간 추론 기능

    낮은 지연 시간으로 실시간 예측을 제공하고 대규모 데이터세트를 위한 배치 처리를 지원하여 다양한 성능 지표에 맞는 AI 모델을 유연하게 운영합니다.

    고가용성 및 동적 확장

    고가용성 구성과 동적 확장 기능을 통해 다양한 로드를 효율적으로 처리하는 동시에 지속적인 서비스 운영을 보장합니다.

    유연한 통합

    기존 워크로드 및 애플리케이션을 Open Inference Protocol API(기존 ML 모델용) 및 OpenAI 호환 API(LLM용)와 손쉽게 통합합니다.

    다양한 AI 프레임워크 지원

    TensorFlow, PyTorch, Scikit-learn, Hugging Face Transformers 등 인기 있는 ML 프레임워크와의 통합을 통해 다양한 유형의 모델을 손쉽게 배포합니다.

    고급 배포 패턴

    카나리아 배포, 블루-그린 배포* 혹은 A/B 테스트*와 같은 정교한 배포 전략을 활용하여 새로운 버전의 모델을 안전하게 점진적으로 배포합니다.

    개방형 API

    개방형 표준을 준수하여 온라인 모델 및 애플리케이션*을 배포, 관리, 모니터링하고 CI/CD 파이프라인 및 기타 MLOps 도구와의 원활한 통합을 지원합니다.

    비즈니스 모니터링

    감정 분석, 사용자 피드백, 드리프트 등 생성형 AI 모델 지표를 지속적으로 모니터링하여 모델의 품질과 성능을 유지합니다.

    *출시 예정. 자세한 내용을 확인하려면 Cloudera에 문의 *하세요.

    AI 추론 서비스 배포 옵션

    성능, 보안 또는 제어 기능을 유지하면서 온프레미스 또는 클라우드에서 추론 워크로드를 실행하세요.  

    클라우드에서의 Cloudera

    • 멀티 클라우드 유연성: 퍼블릭 클라우드 전반에 배포하고 에코시스템 종속을 방지하세요.
    • 신속한 가치 실현: 별도의 인프라 구축 없이 즉시 추론을 시작하세요. 신속한 실험에 적합합니다.
    • 탄력적 확장:  리소스를 0까지 줄이는 자동 확장 기능과 GPU 최적화 마이크로서비스를 통해 트래픽 변동에 유연하게 대응하세요.

    온프레미스에서의 Cloudera

    • 데이터 주권: 완전한 제어를 유지하세요. 모델, 프롬프트 및 자산을 방화벽 내부에 그대로 유지하세요.
    • 외부 네트워크와 분리된 환경에서도 운영 가능:  정부, 의료 및 금융 서비스와 같은 규제 환경을 위해 설계되었습니다.
    • 예측 가능하고 낮은 TCO: 고정 요금제를 통해 예기치 않은 비용을 방지하고 토큰 기반 클라우드 API 대비 TCO를 절감하세요.
    데모

    손쉬운 모델 배포를 직접 경험해 보세요.

    강력한 Cloudera 도구로 대규모 언어 모델을 손쉽게 배포하여 대규모 AI 애플리케이션을 효과적으로 관리하는 방법을 확인하세요.

    모델 레지스트리 통합: 
    중앙 집중식 Cloudera AI Registry 리포지토리를 통해 모델을 원활하게 액세스, 저장, 버전 관리 및 운영합니다.

    간편한 구성 및 배포: 클라우드 환경 전반에서 모델을 배포하고 엔드포인트를 설정하며 자동 확장 기능을 조정하여 효율성을 높입니다.

    성능 모니터링:
    지연 시간, 처리량, 리소스 사용률, 모델 상태와 같은 주요 지표를 기반으로 문제를 해결하여 최적화합니다.

    headshot of Sanjeev Mohan
    Cloudera AI Inference는 NVIDIA의 AI 전문성을 기반으로 데이터의 잠재력을 최대한 활용하고 엔터프라이즈급 보안 기능으로 데이터를 안전하게 보호합니다. 이를 통해 온프레미스 또는 클라우드에서 안정적으로 데이터를 보호하고 워크로드를 실행하는 동시에 유연성 및 거버넌스를 갖춘 효율적인 AI 모델을 배포할 수 있습니다.

    —Sanjeev Mohan, SanjMo 수석 애널리스트

    참여하기

    이제 다음 단계로

    강력한 기능을 확인하고, 빠른 시작을 위한 다양한 리소스와 가이드를 통해 더욱 자세한 내용을 확인해 보세요. 

    AI 추론 서비스 제품 투어

    제품 둘러보기 아이콘

    Cloudera AI Inference service 내부 살펴보기

    지금 시작하기

    AI 추론 서비스 설명서

    문서 라이브러리

    기능 설명부터 유용한 구현 가이드까지 관련 내용을 모두 확인해 보세요.

    문서 살펴보기

    더 많은 제품 살펴보기

    Cloudera AI


    안전하고 확장 가능한 엔터프라이즈 AI용 오픈 플랫폼을 기반으로 연구에서 프로덕션까지 데이터 기반 의사 결정을 가속화합니다.

    AI Studios


    로우코드의 속도와 풀코드의 제어력을 통해 모든 기술 수준에 맞는 프라이빗 생성형 AI 및 에이전틱 워크플로를 실행할 수 있습니다. 

    AI Assistants


    AI의 강력한 기능을 안전하고 확장 가능한 방식으로 비즈니스에 적용해, 모든 인사이트의 추적 가능성, 설명 가능성 및 신뢰성을 보장합니다.

    AMP


    AMP는 비즈니스용 ML 애플리케이션을 즉시 구축, 배포, 모니터링할 수 있도록 엔드투엔드 프레임워크를 제공합니다.

    시작할 준비가 되셨나요?

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.