Cloudera와 NVIDIA는 Cloudera의 데이터 관리 기능과 NVIDIA의 풀스택 서비스를 결합하여, 조직이 복잡한 데이터 파이프라인을 대규모 환경에서도 효율적으로 운영할 수 있도록 지원합니다.
데이터 처리 Cloudera Apache Spark와 NVIDIA RAPIDS Accelerator for Apache Spark를 활용하면 피처 엔지니어링과 데이터 엔지니어링 워크로드 실행을 간소화할 수 있습니다.
AI/ML 모델 배포 : Cloudera AI Inference 와 NVIDIA NIM 마이크로서비스를 통해 (전통적 AI/ML 모델과 생성형 AI 모델 모두에서) 처리량과 응답 속도를 개선할 수 있습니다.
에이전틱 AI 오케스트레이션: NVIDIA AI-Q Blueprint를 통해 AI 에이전트를 내부 데이터와 통합하고, API를 통해 다른 시스템과 상호작용하도록 구성할 수 있습니다.
(그림 1: Cloudera와 NVIDIA가 데이터 과학 라이프사이클 전반에 걸쳐 제공하는 가치)
이 블로그에서는 Cloudera와 NVIDIA가 금융 서비스 기관을 대상으로 분석과 AI를 통해 어떻게 가치를 제공하는지를 보여주는 세 가지 활용 사례를 소개합니다.
대형 금융기관의 자금세탁방지(AML) 및 고객신원확인(KYC) 규제 준수 라이프사이클은 엄청난 양의 컴퓨팅을 필요로 하는 프로세스입니다. 다음과 같이 다양한 활동 전반에서 방대한 데이터를 통합하고 표준화해야 하기 때문입니다.
엔티티 해석: 국가별로 상이한 데이터 승인 절차를 거치며 다양한 거래 시스템과 외부 기관에서 제공되는 국제 데이터(예: 신용카드 거래, 전신 송금 및 SWIFT 메시지)를 표준화해야 합니다.
데이터 통합: 서로 다른 형식으로 정보를 저장하는 여러 AML/KYC 시스템에서 데이터를 수집한 후, 단일 스키마로 정규화하고 데이터 제품(예: 비즈니스 단위 간 AML 데이터 마트)으로 구조화해야 합니다.
지속적인 거래 모니터링 및 규제 관련 보고: 데이터 처리, 데이터 보강 및 규칙 적용 작업을 수행해야 합니다.
AML/KYC 이용 사례를 구현한 많은 Cloudera 고객은 이러한 분석 워크로드를 지원하는 핵심 도구로 Apache Spark를 활용하고 있습니다. Apache Spark는 인메모리 컴퓨팅과 분산 처리와 같은 기능을 제공하는 강력한 데이터 엔지니어링 엔진입니다. 그러나 거래량 급증과 AML/KYC 규정 준수를 위한 신규 데이터 소스의 다양화로 인해 기존 컴퓨팅 인프라에 큰 부담이 발생하고 있으며, 이에 따라 더 높은 성능이 요구됩니다.
NVIDIA RAPIDS Apache Spark용 라이브러리는 CPU에서 수행되던 특정 데이터 처리 작업을 코드 수정 없이 GPU로 투명하게 오프로드할 수 있습니다. 그 결과, Cloudera 고객들은 NVIDIA RAPIDS Apache Spark용 라이브러리 3.0 워크로드에서 최대 20배 향상된 성능을 경험했습니다.
부정 행위 방지 분야에서 가장 중요한 당면 과제 2가지는 디지털 및 신용카드 결제 거래량의 폭발적 증가와 점점 더 정교해지는 부정 행위 수법입니다. 이러한 요인들은 AI/ML 추론에서 자원 경쟁과 확장성 문제를 초래하며, 새로운 부정 행위 수법에 대응하기 위해 여러 개의 조합 가능한 AI/ML 모델을 배포해야 할 필요성이 커지고 있습니다.
Cloudera AI Inference 서비스에는 이러한 문제를 해결할 수 있도록 NVIDIA GPU 가속 환경에서 부정 결제 방지 AI 모델을 고성능으로 빠르게 실행하고, 지연 시간을 최소화하며, 동시에 많은 요청을 효율적으로 처리할 수 있도록 설계된 NVIDIA NIM이 포함되어 있습니다. 예를 들어, Cloudera AI Inference 서비스는 NVIDIA NIM을 활용하여 PyTorch 모델(Torch-TensorRT 라이브러리 사용)의 경우 최대 6배, TensorFlow 모델(TF-TensorRT 라이브러리 사용)의 경우 2.5배 향상된 성능을 제공하며 두 모델 모두 부정 결제 방지 분야에서 널리 사용되고 있습니다.
또한 Cloudera AI Inference 서비스는 NVIDIA의 다이내믹 배칭 기능을 활용하여 NVIDIA 가속 컴퓨팅 환경에서 실행되는 추론 요청의 속도를 높입니다. 이 기능은 서버에서 발생하는 여러 추론 요청을 하나로 결합하여, 요청을 한 번에 하나씩 처리할 때 GPU 대부분이 유휴 상태로 남는 비효율을 방지합니다. 이를 통해 NVIDIA NIM이 적용된 Cloudera AI Inference 서비스는 GPU 활용도를 높이고, 증가하는 부정 행위 방지 수요에 대응하기 위한 향후 GPU 투자 비용을 줄일 수 있습니다.
신용 인수는 모기지, 신용카드 대출, 기업금융, 무역금융 등 다양한 대출 활동에서 수행되는 은행의 핵심 기능입니다. 이러한 프로세스는 신청서 제출부터 자금 집행에 이르기까지 여러 집행 단계를 포함하고, 의사결정 과정에 다양한 역할이 참여하기 때문에 전통적으로 비효율적이었습니다.
기존의 AI/ML 모델은 대출 실행 워크플로의 수많은 개별 업무를 효율화할 수 있지만, 고객 입장에서는 여전히 이 프로세스가 느리고 단절적으로 느껴집니다. 이 한계를 극복하는 것이 바로 에이전틱 AI입니다. 에이전틱 AI는 정보 수집, 요약, 신용심사 초안 작성에 필요한 작업량을 줄입니다. 또한 승인 과정의 검토 절차를 표준화하여 개인화되고 일관된 대출 경험을 제공할 수 있습니다. 에이전틱 AI는 다양한 도구, 데이터, AI 에이전트를 유기적으로 연계하는 멀티에이전트 워크플로를 통해 고객의 행동과 소비 패턴을 기반으로 맞춤형 상품을 제공하기도 합니다.
은행은NVIDIA 가속 컴퓨팅 환경에서 Cloudera AI Inference 서비스를 통해 NVIDIA AI-Q Blueprint를 활용하여 이러한 혁신적 비전을 실현할 수 있습니다. 예를 들어, Cloudera는 AI-Q Blueprint를 활용하여 NVIDIA NIM에 배포된 생성형 AI 기반 맞춤형 대출 상담 에이전트, 광학 문자 인식(OCR)과 자연어 처리(NLP) 기술이 적용된 AI 문서 처리 에이전트, 그리고 기존의 신용 의사결정 도구를 아우르는 멀티에이전트 워크플로를 구성할 수 있습니다.
Cloudera의 통합된 클라우드 환경 기반 데이터 플랫폼과 NVIDIA의 하드웨어 및 소프트웨어 역량이 만나 에이전틱 AI 솔루션 개발을 위한 종합 솔루션을 제공합니다.
Cloudera AI Inference 서비스에 대해 자세히 알아보려면 이 페이지를 방문하세요.
Cloudera와 NVIDIA의 공동 가치 제안에 대해 자세히 알아보려면 Enterprise Strategy Group의 백서를 읽어보세요.
This may have been caused by one of the following: