ClouderaNOW AI 에이전트, 클라우드 버스팅 및 AI용 데이터 패브릭 소개 | 4월 8일

지금 등록하기
  • Cloudera Cloudera
  • 클라우데라에 문의하기
    | 파트너

    확장 가능한 AI 경제성: Cloudera, AMD, Dell Technologies로 구현하는 안전한 하이브리드 인텔리전스

    Steve Catanzano
    사무실에서 대화 중인 두 명의 여성들

    지난 2년 동안 생성형 AI와 에이전트 기반 AI에 대한 기업들의 관심 *은 급격히 증가했습니다. 다양한 산업의 조직들은 AI 에이전트, 지능형 어시스턴트, 자동화를 통해 생산성을 높이고 운영을 효율화하며, 점점 증가하는 데이터 자산에서 인사이트를 도출하는 방안을 모색하고 있습니다. 하지만 관심이 커질수록 비용, 보안, 운영 복잡성을 둘러싼 문제도 함께 늘어나고 있습니다.

    한 가지 사실이 점점 분명해지고 있습니다. 모든 AI 워크로드에 GPU나 대규모 파운데이션 모델이 필요한 것은 아닙니다. 실제로 많은 고부가가치 엔터프라이즈 활용 사례는 CPU와 보다 작고 특정 작업에 최적화된 언어 모델을 활용해 효율적으로 구현할 수 있으며, 특히 데이터가 위치한 곳과 가까운 환경에 배포할수록 그 효과가 큽니다.

    이러한 관점에서 AI 전략을 재검토하는 조직이 점점 늘어나고 있습니다. 이들은 비용을 불문한 확장보다, 보안성과 비용 효율성을 갖춘 상태에서 AI를 안정적으로 확장 배포할 수 있는 실질적 성과를 더 중시하고 있습니다. 이러한 변화는 AI가 실험 단계를 넘어 실제 운영 단계로 이동함에 따라, 인프라, 데이터 아키텍처, 거버넌스에 대한 기업의 접근 방식을 바꾸고 있습니다.

    엔터프라이즈 AI 경제 구조의 변화

    Enterprise Strategy Group(현재 Omdia 소속)의 연구에 따르면, 약 80%의 조직이 AI 에이전트를 최우선 또는 주요 비즈니스 과제로 인식하고 있습니다. 이러한 에이전트는 자동화, 더 빠른 의사결정, 그리고 직원 및 고객 경험 개선을 통해 실질적인 가치를 제공합니다. 그러나 많은 조직은 여전히 GPU 중심 배포로 인해 발생하는 비용과 운영 부담에 어려움을 겪고 있습니다.

    GPU 인프라는 상당한 자본 지출, 높은 전력 소비, 공급망 제약을 초래할 수 있습니다. 특히 실시간 추론이나 지식 기반 워크로드에서는 이러한 접근 방식이 비즈니스 요구와 맞지 않는 경우도 적지 않습니다. 이에 따라 기업들은 워크로드 요구사항에 맞게 컴퓨팅 리소스를 보다 적절히 배분할 수 있는 대안을 적극적으로 모색하고 있습니다.

    이 지점에서 CPU 기반 AI와 소규모 언어 모델의 조합이 실용적인 선택지로 부상하고 있습니다. 조직들은 가능한 한 가장 큰 모델을 도입하는 대신 기존에 보유한 인프라와 자산을 활용해 GPU 구매나 액세스에 따른 예산 부담을 완화하려 하고 있습니다. 이는 효율성, 보안, 확장성을 중심으로 AI 아키텍처를 적정 수준으로 설계하는 접근입니다.

    적정 규모 AI와 소규모 언어 모델의 역할

    소규모 언어 모델(SLM)은 요약, 질의응답, 콘텐츠 생성, 코드 지원 등 특정 엔터프라이즈 작업을 수행하도록 설계된 모델입니다. SLM은 일반적으로 대규모 언어 모델보다 훨씬 적은 파라미터로 구성되어 있으며, 최신 CPU 환경에서도 효과적으로 실행되면서 특정 활용 사례에서는 충분한 성능을 제공합니다.

    이 접근 방식은 여러 가지 이점을 제공합니다. CPU 기반 추론은 인프라 비용을 절감하고 전력 소비를 낮추며, 배포를 단순화합니다. 또한 조직이 기존 데이터 센터나 프라이빗 클라우드 환경에서 AI 워크로드를 실행할 수 있도록 하여 데이터 주권과 규정 준수에 대한 요구에도 대응할 수 있습니다.

    이러한 맥락에서 Cloudera는 엔터프라이즈가 자체 통제 환경 내에서 AI 시스템을 배포하고 운영할 수 있도록 지원하는 프라이빗 AI 전략을 추진하고 있습니다. Cloudera는 개방형 데이터 레이크하우스 아키텍처와 통합된 거버넌스 및 MLOps 기능을 결합함으로써 AI 개발 *이 기업 데이터와 가까운 위치에서 이루어지도록 지원합니다.

    인프라의 중요성: CPU와 엔터프라이즈 플랫폼

    CPU 기반 AI의 효과는 이를 뒷받침하는 기반 인프라에 크게 좌우됩니다. 최신 프로세서의 발전으로 분석 및 추론 워크로드의 비용 대비 성능이 크게 향상되었습니다. 예를 들어 AMD EPYC™ 프로세서는 높은 코어 밀도, 뛰어난 메모리 대역폭, 내장 보안 기능을 제공하도록 설계되어 AI 추론과 데이터 집약적 워크로드에 적합합니다.

    또한 Dell Technologies의 엔터프라이즈급 시스템에 배포할 경우, 조직은 데이터 및 AI 플랫폼에 최적화된 검증된 아키텍처를 활용하면서 AI 워크로드를 안정적으로 확장할 수 있습니다. 이러한 조합을 통해 기업은 전체 인프라 환경을 다시 설계하지 않고도 AI 역량을 현대화할 수 있습니다.

    운영 측면에서도 이 모델은 기존 투자 자산을 다시 활용하고, 배포 기간을 단축하며, 특수 하드웨어에 대한 의존을 줄이는 데 도움이 됩니다. 이 모든 시나리오에서 중요한 것은 모델의 크기가 아니라 효율성, 민첩성, 그리고 신뢰성입니다.

    CPU 기반 실용적 AI 활용 사례

    오늘날 높은 가치를 제공하는 많은 AI 활용 사례는 대규모 모델이나 GPU 가속 없이도 CPU 기반으로 효율적으로 구현할 수 있습니다. 예를 들면 다음과 같습니다.

    내부 지식 어시스턴트

    기업은 문서, 이메일, 보고서 전반에 걸쳐 중요한 지식을 축적하고 있습니다. 이러한 데이터에 SLM을 적용하면 자연어를 기반으로 내부 정보에 액세스할 수 있어, 민감한 데이터를 온프레미스 환경에 유지하면서도 의사결정의 질을 높일 수 있습니다.

    직원 및 상담원 지원 챗봇

    인사, IT, 고객 지원 부서는 반복적으로 발생하는 문의에 대응해야 하며 이러한 업무는 보안이 확보된 내부 챗봇으로 자동화할 수 있습니다. CPU 기반 AI는 데이터가 외부로 노출되지 않는 환경에서 상시 지원을 제공할 수 있습니다.

    콘텐츠 및 문서 생성

    마케팅, 규정 준수, 엔지니어링 팀은 반복적인 콘텐츠를 자주 생성합니다. AI 기반 생성 및 요약 기능을 활용하면 워크플로를 가속화하면서도 일관성과 거버넌스를 유지할 수 있습니다.

    소프트웨어 개발 지원

    SLM 기반 어시스턴트는 기업 내부 방화벽 환경에서 코드 스니펫, 테스트, 문서를 생성할 수 있어, 지식재산을 공용 AI 서비스로 전송하지 않고도 개발 생산성을 높일 수 있습니다.

    예측 분석 및 최적화

    제조 및 운영 환경에서는 CPU 기반 AI 모델이 센서 데이터와 운영 데이터를 분석해 장애를 예측하고 성능을 최적화함으로써 다운타임과 운영 비용을 줄일 수 있습니다.

    데이터 중력과 온프레미스 AI의 중요성

    클라우드 도입이 확산되고 있음에도 불구하고, 상당한 양의 기업 데이터는 여전히 온프레미스에 남아 있습니다. Omdia 연구에 따르면 많은 조직이 전체 데이터의 약 26%에서 75%를 로컬 또는 프라이빗 환경에 저장하고 있습니다. 데이터가 특정 인프라에 집중되는 데이터 중력은 AI 처리 과정에서 민감한 정보를 외부 플랫폼으로 이동해야 하는 상황에 여러 가지 문제를 초래합니다.

    프라이빗 AI 아키텍처는 데이터를 이동시키는 대신 AI를 데이터가 있는 위치로 가져오는 방식으로 이 문제를 해결합니다. 기존 환경 내에서 AI 워크로드를 실행하면 지연 시간을 줄이고 성능을 높일 수 있을 뿐 아니라, GDPR, HIPAA 및 산업별 요구사항에 대한 규정 준수도 유지할 수 있습니다.

    Cloudera의 접근 방식 *은 데이터 수집, 거버넌스, 모델 관리 및 서빙을 단일 플랫폼에서 통합합니다. 여기에 CPU 기반 인프라를 결합하면, 기업은 파일럿 단계에서 실제 운영 환경으로 AI를 보다 효율적으로 전환할 수 있습니다.

    파일럿에서 운영까지: 성과 측정

    AI 도입에서 가장 큰 장벽 중 하나는 개념 검증 단계와 실제 운영 배포 사이의 격차였습니다. CPU 기반 AI 아키텍처는 비용과 운영 복잡성을 낮춤으로써 이 격차를 줄이는 데 기여합니다.

    이 접근 방식을 도입한 조직은 다음과 같은 성과를 보고하고 있습니다.

    • 추론 중심 워크로드에서 총소유비용 절감
    • 특수 하드웨어 도입 없이 배포 주기 단축
    • 지속가능성 목표에 부합하는 에너지 소비 절감
    • 워크로드 특성에 맞는 컴퓨팅 선택을 통한 ROI 개선

    이러한 효과는 엔터프라이즈 AI의 성공이 모델 성능뿐만 아니라 경제성과 거버넌스에 크게 좌우된다는 점을 보여줍니다.

    결론: 엔터프라이즈 AI를 위한 실용적인 추진 방향

    엔터프라이즈 AI의 다음 단계는 가장 큰 모델이나 가장 강력한 하드웨어로 결정되지 않을 것입니다. 대신 실제 비즈니스 요구에 맞는 아키텍처를 기반으로 보안성과 비용 효율성을 확보하면서 확장 가능한 방식으로 AI를 배포할 수 있는 조직이 변화를 주도하게 될 것입니다.

    Cloudera의 데이터 및 거버넌스 플랫폼 *에 AMD EPYC 프로세서와 Dell Technologies 인프라를 결합하면 기업은 자체 환경 내에서 AI를 실제 운영에 적용할 수 있는 현실적인 경로를 확보할 수 있습니다. 이러한 적정 규모 접근 방식을 통해 조직은 인프라 복잡성이 아니라 성과에 집중하고, 데이터가 있는 위치에서 AI의 가치를 실현할 수 있습니다.

    기업들이 AI를 실험이 아니라 실제 업무에 활용하는 단계로 나아갈수록 CPU 기반 프라이빗 AI 아키텍처의 중요성은 더욱 커질 것입니다.

    Cloudera, AMD 및 Dell Technologies와 함께 비용 효율적인 AI를 구현하는 방안을 확인하려면 Omdia Showcase Brief를 다운로드하시기 바랍니다.

    시작할 준비가 되셨나요?

    Your form submission has failed.

    This may have been caused by one of the following:

    • Your request timed out
    • A plugin/browser extension blocked the submission. If you have an ad blocking plugin please disable it and close this message to reload the page.