• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "가상머신"에 대한 통합 검색 내용이 82개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
레드햇-구글클라우드, 엔터프라이즈용 개방형 AI 및 에이전틱 AI 추진 위한 협력 확대
레드햇과 구글클라우드는 레드햇의 오픈소스 기술과 구글클라우드의 맞춤형 인프라 및 구글의 개방형 모델 제품군인 젬마(Gemma)를 결합해 엔터프라이즈 애플리케이션용 AI를 향상하기 위한 협력을 확대한다고 발표했다. 양사는 AI 확장을 위한 엔터프라이즈급 사용 사례 개선을 위해 여러 분야에서 협력을 진행할 예정이다. 주요한 협력 내용으로는 ▲구글이 창립 기여자로 참여하는 오픈소스 프로젝트 ‘llm-d’ 론칭 ▲구글 클라우드 TPU(Cloud TPU) 및 GPU 기반 가상머신(VM)에서 vLLM 지원 통해 AI 추론 성능 강화 ▲젬마 3 모델 배포판에서 vLLM에 대한 0일차 지원 제공 ▲구글 클라우드 상에서 레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server) 지원 ▲레드햇이 구글 A2A(Agent2Agent) 프로토콜의 커뮤니티 기여자로서 참여해 에이전틱 AI 활성화 등 있다.   젬마 3를 시작으로, 레드햇은 구글의 개방형 모델 제품군인 젬마의 초기 테스터로 참여해 vLLM에 대한 즉각적인 지원을 제공한다. vLLM은 생성형 AI 애플리케이션의 출력 속도를 높이는 오픈소스 추론 서버다. 레드햇은 vLLM의 상용 기여자로서 생성형 AI 애플리케이션을 위한 보다 비용 효율적이고 반응성(responsive)이 높은 플랫폼을 제공할 계획이다. 또한 구글 AI 포트폴리오를 지원하는 고성능 AI 가속기인 구글 클라우드 TPU를 이제 vLLM에서 완전히 사용할 수 있다. 이 통합을 통해 개발자는 빠르고 정확한 추론에 필수인 성능과 효율을 달성하면서 리소스를 최대화할 수 있다. AI가 연구에서 실제 배포로 전환됨에 따라, 조직은 다양한 AI 생태계의 복잡성과 분산 컴퓨팅 전략으로 전환해야 할 필요성에 직면해 있다. 이를 해결하기 위해 레드햇은 구글이 창립 기여자로 참여한 llm-d 오픈소스 프로젝트를 출시했다. 이 프로젝트는 vLLM 커뮤니티 성과를 기반으로 생성형 AI 추론의 새로운 시대를 선도하며, 이기종 리소스 전반에서 확장성을 높이고 비용을 최적화하며 워크로드 효율성을 향상하는 동시에 지속적인 혁신을 촉진하는 것을 목표로 한다. 이제 구글 클라우드에서 레드햇 AI 인퍼런스 서버 사용이 가능하며 최신 업스트림 커뮤니티의 개선 사항을 기업에 제공한다. 레드햇의 엔터프라이즈용 vLLM 배포판인 레드햇 AI 인퍼런스 서버는 기업이 하이브리드 클라우드 환경 전반에서 모델 추론을 최적화할 수 있도록 지원한다. 기업은 견고하고 신뢰할 수 있는 구글 클라우드의 인프라를 활용하여 반응성이 뛰어나고 비용 효율적인 프로덕션 단계의 생성형 AI 모델을 대규모로 배포할 수 있다. 또한 레드햇은 개방형 AI에 대한 공동의 노력의 일환으로 구글의 A2A 프로토콜에도 기여하고 있다. 이는 다양한 플랫폼과 클라우드 환경에서 최종사용자 또는 에이전트 간의 원활한 커뮤니케이션을 위한 애플리케이션 레벨 프로토콜이다. 레드햇은 A2A 생태계에 적극적으로 참여함으로써 빠른 혁신을 위한 새로운 길을 열어 사용자가 에이전틱 AI를 통해 AI 워크플로를 역동적이고 효과적으로 유지할 수 있도록 지원한다.
작성일 : 2025-05-29
퓨어스토리지 포트웍스, 엔터프라이즈급 현대적 가상화 설루션 공개
퓨어스토리지가 자사의 대표 컨테이너 데이터 관리 플랫폼인 포트웍스 엔터프라이즈(Portworx Enterprise)의 최신 업데이트를 발표했다. 이번 업데이트는 기업이 엔터프라이즈 규모에서 현대적 가상화를 실현할 수 있도록 지원하며, 데이터 스토리지 관련 의사결정권자가 각자의 속도에 맞춰 현대화 여정을 이어갈 수 있도록 돕는다. 브로드컴의 VM웨어 인수 이후 많은 기업들이 비용 상승 없이 가상화 전략을 추진할 수 있는 현대적 설루션을 모색하고 있다. 이에 따라 컨테이너와 가상머신을 동시에 지원할 수 있는 쿠버네티스를 대안으로 채택하거나 도입을 검토 중인 기업들이 늘고 있다. 쿠버네티스를 활용하면 하나의 플랫폼에서 클라우드 네이티브 애플리케이션 개발과 인프라 현대화를 함께 추진할 수 있다. 2024년 쿠버네티스 전문가 대상 설문조사에 따르면, 응답자의 81%가 가상머신을 쿠버네티스로 이전하거나 현대화할 계획이며, 이 중 3분의 2가량은 2년 이내 이를 완료할 계획이다. 하지만 가상머신을 쿠버네티스로 이전하면서 새로운 과제도 등장하고 있다. 이번에 출시된 포트웍스 엔터프라이즈 3.3(Portworx Enterprise 3.3)은 컨테이너 데이터 관리 플랫폼을 엔터프라이즈급 가상머신 워크로드까지 확장 지원한다. 포트웍스는 미션 크리티컬 워크로드를 위한 고성능, 데이터 복원력, 데이터 보호를 제공하면서도, 대규모 프로덕션 환경에서 요구되는 단순함, 유연성, 신뢰성을 함께 제공한다. 쿠버네티스를 기반으로 한 포트웍스의 사용을 통해 기존 설루션 대비 30%에서 최대 50%까지 비용을 절감할 수 있으며, 기업은 이를 통해 더 큰 비용 효율을 기대할 수 있다. 별도의 리소스 투자 없이도 기존 가상머신을 쿠버네티스 상에 계속 유지할 수 있으며, 필요에 따라 클라우드 네이티브 애플리케이션으로 전환하거나 신규 개발할 수 있다. 포트웍스 3.3은 쿠베버트(KubeVirt) 가상머신을 위한 RWX 블록(RWX Block) 기능을 제공하며, 이는 퓨어스토리지의 플래시어레이(FlashArray)는 물론 다양한 스토리지 벤더 환경에서도 작동한다. 이를 통해 쿠버네티스 상에서 실행되는 가상머신에 강력한 읽기/쓰기 성능을 제공할 수 있다. 이제 하나의 관리 환경에서 쿠버네티스 상의 가상머신 데이터를 통합 관리할 수 있으며, 데이터 손실 없는 동기화 재해복구(zero RPO)를 지원한다. 또한, 리눅스 기반 가상머신에 대한 파일 단위 백업 및 복원이 가능해져 더욱 세분화된 데이터 보호가 가능하다. 또한 수세(SUSE), 스펙트로클라우드(Spectro Cloud), 쿠버매틱(Kubermatic) 등 주요 쿠버베트 플랫폼과의 파트너십 및 레퍼런스 아키텍처를 제공하며, 기존 레드햇과의 협업도 지속된다. 퓨어스토리지의 벤캇 라마크리슈난(Venkat Ramakrishnan) 포트웍스 부문 부사장 겸 총괄 매니저는 “포트웍스는 쿠버네티스를 기반으로 구축되어 클라우드 네이티브 애플리케이션의 유연성과 자동화, 셀프 서비스 기능을 모두 갖췄다. 이번 포트웍스 3.3은 하나의 통합 플랫폼과 다양한 통합 기능을 통해 기업이 자신만의 속도로 인프라 현대화를 추진할 수 있도록 돕는다”고 전했다. 
작성일 : 2025-04-23
HPE, 하이브리드 클라우드의 가상화를 효율화하는 VM 에센셜 출시
HPE는 하이브리드 클라우드 운영 모델로의 원활한 전환을 지원하는 비용 효율적인 가상화 설루션인 HPE VM 에센셜(HPE Virtual Machine Essentials)을 전 세계에 출시했다고 발표했다. HPE는 파트너 중심 전략 강화를 위해 HPE VM 에센셜을 채널 생태계에 독점 제공하며, 이를 통해 파트너가 고객의 가상화 전략 변화에 효과적으로 대응할 수 있도록 지원한다. HPE VM 에센셜은 독립형 설루션으로, 고객이 기존 운영중인 VM웨어(VMware) 하이퍼바이저와 더불어 새로운 HPE VM 에센셜 하이퍼바이저(KVM기반)까지 광범위한 종류의 VM(가상머신)을 관리할 수 있게 지원한다. 또한 HPE는 국내 파트너 네트워크를 통해 고객이 보다 개방적이고 비용 효율적인 가상화 인프라 환경을 만들어 갈 수 있도록 돕는다는 계획이다. 많은 기업이 가상화 환경에서 예기치 않은 비용 증가, 비용 효율적인 엔터프라이즈 지원 가상화 옵션에 대한 요구, 벤더 락인(lock-in)에 대한 우려 등 지속적인 과제에 직면해 있다. HPE VM 에센셜은 소켓 기반의 합리적인 가격 모델을 제공하고, VM웨어와 HPE VM 에센셜 하이퍼바이저의 통합 동시 운영을 지원하여 이러한 과제를 해결하는 데에 초점을 맞추었다. 또한, 통합적인 클라우드 관리 설루션인 모피어스(Morpheus)로 업그레이드할 수 있는 옵션을 마련하여, 하이브리드 클라우드 환경을 더욱 간소화할 수 있도록 돕는다.     HPE VM 에센셜은 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) Gen11 서버와 새롭게 발표된 Gen12 서버, HPE 알레트라 스토리지(Alletra Storage) MP B10000 등을 지원한다. 고객은 이를 통해 높은 가용성과 성능을 확보함과 동시에, 가상화 환경의 비용과 복잡성을 줄일 수 있다. HPE는 서버와 스토리지, 하이퍼컨버지드 인프라(HCI) 설루션 등 자사 포트폴리오 전반에 걸쳐 HPE VM 에센셜 지원 범위를 확대하고 있으며, 향후 타사 시스템으로도 확장할 계획이다. 또한, HPE는 국내 채널 지원 정책에 따라 가상화 기술력을 갖추고 있는 파트너사를 중심으로 HPE VM 에센셜 공급의 중심 역할을 수행할 수 있도록 지원할 계획이다. 이를 통해 파트너는 고객에게 신뢰할 수 있고 비용 효율적인 HPE 가상화 설루션을 제공하며, HPE VM 에센셜을 기반으로 부가가치 서비스를 구축해 고객 관계를 더욱 강화하고, 지속가능한 가상화 설루션을 찾는 기업의 총소유비용(TCO)을 절감할 수 있다. HPE의 사이먼 유잉턴(Simon Ewington) 월드와이드 채널 및 파트너 생태계 수석 부사장은 “HPE VM 에센셜 소프트웨어의 채널 중심 판매 전략은 가상화 시장의 기회를 극대화하는 동시에, 고객에게 더 많은 선택권과 낮은 총소유비용(TCO)을 제공한다”며, “또한 HPE의 에지-투-클라우드(edge-to-cloud) 전략을 실현하는 데 있어 채널의 역할이 중요해진 만큼, 설루션사들과의 생태계 구축 모델의 가속화를 추진하고 있다”고 덧붙였다. 한국휴렛팩커드의 김영채 대표이사는 “HPE VM 에센셜의 출시는 비용 효율적인 가상화 대안을 찾는 고객의 요구를 해결하는 데 있어 중요한 진전이다. 가상화 데이터센터 구축에 필요한 필수 기능과 성능을 갖춘 설루션을 경쟁력 있는 가격에 제공함으로써 HPE는 고객의 요구를 충족하고 있으며, 파트너가 주도적으로 설루션을 제공할 수 있도록 지원함으로써 채널에 대한 기술지원 능력 강화와 판매에 집중하고자 한다”고 말했다.
작성일 : 2025-02-28
지코어코리아-몬드리안에이아이, GPU 클라우드 사업 고도화 위한 MOU 체결
퍼블릭 클라우드, 에지 컴퓨팅 및 에지 AI 전문 기업인 지코어코리아는 AI 플랫폼 전문기업 몬드리안에이아이와 GPU 클라우드 사업의 고도화를 위한 양해각서(MOU)를 체결했다고 밝혔다. 지코어는 엔비디아 GPU 기반으로 고성능 머신러닝 및 AI 작업을 지원하는 클라우드 인프라를 제공한다. 또한 엄격한 기준을 충족하는 6개 대륙 180개 이상의 PoP(point of presence)를 토대로 한 글로벌 저지연 네트워크를 통해 클라우드 및 에지 AI 솔루션을 운영하고 있다.  몬드리안에이아이는 AI 클라우드 서비스 'Runyour AI’를 통해 고성능 GPU 자원을 저렴한 비용으로 수요자에게 연결하는 서비스를 제공하고 있다. 이번 협약으로 양사는 지코어의 고성능 GPU 데이터센터 자원과 Runyour AI 플랫폼을 결합해 클라우드 사업에서 시너지를 창출할 예정이다. 몬드리안에아이는 지코어의 GPU 기반 클라우드 및 스토리지 인프라를 활용해 한국을 비롯한 아시아 시장에서 구독형 AI 클라우드 서비스인 GPUaaS(GPU-as-a-Service)를 공급해 나갈 예정이다. 지코어코리아의 정현용 지사장은 “지코어의 빠르고 안정적인 GPU 클라우드가 몬드리안에이아이의 플랫폼과 만나, 그 동안 지코어의 클라우드를 선듯 도입하지 못했던 기업들에게 익숙하고 편리한 UI 환경을 제공할 수 있게 되었다”며, “양사의 이번 협업을 통해 국내 AI 비즈니스 시장 저변 확대에 기여할 것이라 자신한다”고 말했다. 몬드리안에이아이의 홍대의 대표는 “이번 지코어와의 협력으로 Runyour AI의 글로벌 시장 진출에 중요한 발판을 마련했다”며, “글로벌 AI 및 클라우드 시장에서의 경쟁력을 더욱 강화해 나가겠다”고 전했다. 몬드리안에이아이는 Runyour AI에 ‘Dev Cloud’ 기능을 추가할 예정이다. 몬드리안에이아이는 이 기능이 가상머신(VM) 기반의 CPU 상품을 월 단위로 제공함으로써 AI 모델 추론 및 데이터 분석 작업에 효과를 더할 것으로 기대하고 있다. 한편 지코어는 지난 6월에 ‘인퍼런스 앳더 에지’ 솔루션을 출시했다. 이 서비스는 사전 학습된 머신러닝 모델을 전 세계에 분포되어 있는 에지 추론 노드 중 사용자와 가장 가까운 경로 또는 위치에서 응답할 수 있도록 함으로써 원활한 실시간 추론을 지원하고 있다.
작성일 : 2024-10-15
오라클, “오라클 클라우드 VM웨어 솔루션으로 글로벌 기업의 비즈니스 성장 지원”
오라클은 다양한 산업 분야의 글로벌 기업들이 오라클 클라우드 VM웨어 솔루션(Oracle Cloud VMware Solution)을 사용해 기존의 온프레미스 데이터센터 운영을 종료하고, 비즈니스 주요 애플리케이션을 오라클 클라우드 인프라스트럭처(OCI)로 이전한다고 밝혔다. 오라클 클라우드 VM웨어 솔루션은 높은 수준의 확장성과 성능, 보안, 제어를 필요로 하는 기업을 위해 설계됐다. 기업 고객은 자사의 VM웨어 스택 전반에 대한 관리 제어 운영을 위해 클라우드 인프라스트럭처와 VM웨어 콘솔을 직접 관리할 수 있다. 기업은 이로써 기존의 기술과 모범 사례, 도구를 유지하면서 온프레미스의 VM웨어 자산을 클라우드로 신속히 마이그레이션할 수 있게 됐다. 오라클은 이 서비스에 새로운 기능을 지속적으로 추가하기 위해 오라클 클라우드 VM웨어 솔루션용 엔비디아 A10 텐서 코어(NVIDIA A10 Tensor Core) GPU와 인텔 제온 플래티넘 8358 프로세서(Intel Xeon Platinum 8358 Processor)를 갖춘 새로운 OCI 컴퓨트 구성을 발표했다. 또한 AMD 에픽(EPYC) 9J14 프로세서 기반의 또 다른 추가 구성을 출시할 계획이다. 이를 통해 오라클은 고객들에게 광범위한 워크로드 전반에서 추가 컴퓨트 옵션과 향상된 성능을 제공한다는 방침이다.     히타치 건설 기계는 유압 굴삭기, 휠 로더, 도로 시설 및 광산 장비의 개발, 제조, 판매, 임대, 관리 서비스를 제공하며 전세계에서 40만 대 이상의 건설 장비를 운용 중인 글로벌 기업이다. 히타치 건설 기계는 디지털 전환 전략의 일환으로 약 500대의 가상 서버와 100개의 데이터베이스를 온프레미스 VM웨어 가상화 환경에서 OCI 상의 오라클 클라우드 VM웨어 솔루션과 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service)로 마이그레이션 중에 있다. 히타치 건설 기계는 이를 통해 이미 인프라 운영 비용을 20% 절감하고, 온라인 트랜잭션 처리 성능을 50%, 배치 처리 성능을 60% 개선했다. 렘트랜스는 우크라이나의 철도 차량 민간 운영사로, 연간 5천2백만 톤 이상의 화물을 운송하는 1만 5000대 이상의 무개 화차를 운영하고 있다. 열차 일정 관리, ID 및 액세스 관리 등 핵심 프로세스 및 데이터베이스를 클라우드로 긴급하게 전환해야 했던 렘트랜스는 오라클 클라우드 VM웨어 솔루션을 통해 데이터 및 애플리케이션을 우크라이나 외부로 신속하게 이전해 데이터 복원력을 높이고 자사의 IT 투자를 보호할 수 있었다. 마츠다 모터스 로지스틱스 유럽 N.V.(MLE)는 유럽 고객에게 차량 및 부품을 유통하는 업무를 담당하고 있다. MLE는 유럽 30여 개국의 2300여 개 이상의 딜러 및 독립 유통업체에 직접 예비 부품을 공급하고 바르셀로나, 앤트워프, 제브뤼주 항구로 차량을 배송하여 유럽 전역에 유통한다. 회사는 데이터센터를 단계적으로 축소하고 운영을 현대화한다는 목표를 달성하기 위해 500개의 VM웨어 가상머신을 마이그레이션하고 오라클 엑사데이터 시스템을 OCI 기반 엑사데이터 데이터베이스 서비스에서 실행되는 80개의 오라클 데이터베이스에 통합했다. MLE는 또한 자사의 비즈니스 크리티컬 애플리케이션을 오라클 클라우드 VM웨어 솔루션의 12개 호스트를 갖춘 여러 소프트웨어 정의 데이터센터(SDDC)로 통합했다. 그 결과 MLE는 프랑크푸르트에 있는 2개의 데이터센터 운영을 종료하면서도 높은 수준의 애플리케이션 맞춤화 및 데이터베이스 호환성을 유지할 수 있었다. 아홀드 델레이즈는 세계 최대 규모의 식료품 리테일 기업으로, 16개의 지역별 브랜드와 7,700개의 매장, 40만명 이상의 직원을 보유하고 있다. 수년간 자체 온프레미스 VM웨어 환경 및 그 운영을 뒷받침하기 위한 여러 IT 시스템과 솔루션을 운영해 온 아홀드 델레이즈는 VM웨어에서 오라클 핵심 비즈니스 프로세스용 애플리케이션과 타사 앱을 실행하며 비교해본 후 성능 개선 및 비용 절감을 위해 클라우드로의 마이그레이션을 결정했다. 이후 회사는 자사의 네덜란드 핵심 로컬 브랜드인 앨버트 하인, 에토스, 갤앤갤을 시작으로 전자상거래 및 공급망, 리테일 프로세스를 지원하는 400개 이상의 VM웨어 가상머신(VM)을 오라클 클라우드 VM웨어 솔루션으로 마이그레이션했다. 이를 통해 남아 있던 데이터센터 상면공간을 제거하고 자사의 VM웨어 환경에 대한 전반적인 관리 제어 권한을 유지할 수 있게 되었다.  오라클의 마헤쉬 티아가라얀(Mahesh Thiagarajan) OCI 총괄 부사장은 “VM웨어 자산을 클라우드로 옮겨 운영하기를 원하는 많은 기업들이 새로운 운영방식으로 인해 IT 기술을 배워야 한다는 부담감을 느끼고 있다”면서, “오라클 클라우드 VM웨어 솔루션은 조직이 VM웨어 클러스터를 완벽하게 제어하고 기존의 도구, 기술, 프로세스를 유지해줘 재교육에 대한 부담을 덜 수 있도록 지원한다. 오라클의 솔루션은 고객이 온프레미스 VM웨어 클러스터와 동일한 운영 모델을 유지할 수 있게 하기 때문에, 클라우드를 통한 시스템 현대화 추진 시 위험성이 낮은 접근 방식”이라고 설명했다.
작성일 : 2024-07-22
AMD 인스팅트 MI300X 가속기, 애저 오픈AI 서비스 워크로드와 새로운 애저 가상머신 지원
AMD는 ‘마이크로소프트 빌드(Microsoft Build)’ 콘퍼런스에서 마이크로소프트 고객 및 개발자를 위한 최신 엔드투엔드 컴퓨팅 및 소프트웨어 기능을 공개했다. 마이크로소프트는 AMD 인스팅트(AMD Instinct) MI300X 가속기, ROCm 개방형 소프트웨어, 라이젠(Ryzen) AI 프로세서 및 소프트웨어와 알베오(Alveo) MA35D 미디어 가속기 등 AMD의 솔루션을 통해 광범위한 시장에 걸쳐 AI 기반을 구축할 수 있는 툴을 지원한다. 마이크로소프트의 새로운 애저(Azure) ND MI300X 가상머신(VM)은 현재 공식 출시되었으며, 까다로운 AI 워크로드를 처리해야 하는 허깅 페이스(Hugging Face)와 같은 고객에게 높은 성능과 효율성을 제공한다. 2023년 11월 프리뷰로 발표된 애저 ND MI300x v5 가상머신 시리즈는 고객들이 AI 워크로드를 실행할 수 있도록 캐나다 중부 지역에 공식 배포되고 있다. 최상급의 성능을 제공하는 이러한 가상머신은 높은 HBM 용량과 메모리 대역폭을 제공함으로써 고객들이 GPU 메모리에 더 큰 모델을 탑재하거나 더 적은 GPU를 이용해 궁극적으로 전력, 비용 및 솔루션 구현 시간을 절감할 수 있도록 지원한다. 또한, 이러한 가상머신과 이를 지원하는 ROCm 소프트웨어는 애저 오픈AI 서비스를 비롯한 애저 AI 프로덕션 워크로드에도 사용되고 있어, 고객들이 GPT-3.5 및 GPT-4 모델에 액세스할 수 있도록 지원한다. 마이크로소프트는 AMD 인스팅트 MI300X와 ROCm 개방형 소프트웨어 스택을 통해 GPT 추론 워크로드에서 높은 수준의 가격 대비 성능을 달성했다고 설명했다.   ▲ AMD 인스팅트 MI300X   한편, AMD 라이젠 AI 소프트웨어는 개발자들이 AMD 라이젠 AI 기반 PC에서 AI 추론을 최적화하고 구축할 수 있도록 지원한다. 라이젠 AI 소프트웨어를 이용하면 AI 전용 프로세서인 AMD XDNA 아키텍처 기반 신경망 처리장치(NPU)를 통해 애플리케이션을 실행할 수 있다. AI 모델을 CPU 또는 GPU에서만 실행하면 배터리가 빠르게 소모될 수 있지만, 라이젠 AI 기반 노트북은 임베디드 NPU을 활용해 AI 모델이 구동하기 때문에 CPU 및 GPU 리소스를 다른 컴퓨팅 작업에 활용할 수 있다. 이를 통해 배터리 수명을 늘리는 것은 물론, 개발자가 온디바이스 LLM AI 워크로드와 애플리케이션을 로컬에서 동시에 효율적으로 실행할 수 있다. 4세대 AMD 에픽 프로세서는 애저에서 사용되는 범용 가상머신을 비롯해 메모리 집약적, 컴퓨팅 최적화 및 가속 컴퓨팅 가상머신 등 수많은 솔루션을 지원하고 있다. 이러한 가상머신은 클라우드 분야에서 AMD 에픽 프로세서의 성장 및 수요 증가를 이끌고 있으며, 더욱 향상된 가격 대비 성능으로 범용 및 메모리 집약적 가상머신의 성능을 최대 20%까지 향상시키는 것은 물론, 애저를 지원하는 이전 세대 AMD 에픽 프로세서 기반 가상머신에 비해 컴퓨팅 최적화 가상머신에 대한 CPU 성능을 최대 2배까지 높일 수 있다. 프리뷰로 공개되었던 Dalsv6, Dasv6, Easv6, Falsv6 및 Famsv6 가상머신 시리즈는 향후 수개월 이내에 정식 공급될 예정이다. AMD의 빅터 펭(Victor Peng) 사장은 “AMD 인스팅트 MI300X 및 ROCm 소프트웨어 스택은 세계에서 가장 까다로운 AI 워크로드 중 하나인 애저 오픈AI(OpenAI) 챗GPT(Chat GPT) 3.5 및 4 서비스를 지원하고 있다”면서, “애저의 새로운 가상머신이 공식 출시됨에 따라 AI 고객들이 더욱 폭넓게 MI300X에 액세스하여 AI 애플리케이션을 위한 고성능, 고효율의 솔루션을 활용할 수 있게 되었다”고 밝혔다. 마이크로소프트의 최고기술책임자인 케빈 스콧(Kevin Scott) AI 부문 수석 부사장은 “마이크로소프트와 AMD는 PC를 시작으로, 엑스박스(Xbox)용 맞춤형 실리콘과 HPC, 현재의 AI에 이르기까지 여러 컴퓨팅 플랫폼에 걸쳐 다양한 파트너십을 이어오고 있다”면서, “최근에는 놀라운 AI 성능과 가치를 제공하기 위해 강력한 컴퓨팅 하드웨어와 최적화된 시스템 및 소프트웨어의 결합이 중요하다는 점에 주목했다. 우리는 마이크로소프트의 AI 고객 및 개발자들이 최첨단 컴퓨팅 집약적인 프론티어 모델에 대해 탁월한 가격 대비 성능 결과를 달성할 수 있도록 AMD의 ROCm 및 MI300X를 이용했다. 앞으로도 AI 발전을 가속화하기 위해 AMD와의 협력에 주력할 것”이라고 말했다.
작성일 : 2024-05-22
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
엔비디아, 주요 클라우드 기업과 AI 관련 협력 강화 계획 소개
엔비디아는 GTC 행사에서 디지털 트윈과 인공지능 등 다양한 영역에서 업계 주요 기업과의 파트너십 내용을 소개했다. 이 가운데 AWS, 마이크로소프트, 구글 클라우드, 오라클 등과는 클라우드 상에서 AI 활용을 확대하는 것을 중심으로 협력을 강화할 계획이다.   AWS : 차세대 GPU 플랫폼 및 AI 인프라 제공 엔비디아는 차세대 GPU 플랫폼인 블랙웰(NVIDIA Blackwell)이 AWS에 제공된다고 발표했다. AWS는 5세대 엔비디아 NV링크로 상호 연결된 72개의 블랙웰 GPU와 36개의 그레이스 CPU로 구성된 GB200 NVL72를 갖춘 엔비디아 블랙웰 플랫폼을 제공할 예정이다. 엔비디아는 엔비디아 블랙웰이 AWS상에서 상당한 양의 컴퓨터 리소스를 필요로 하는 수조 개의 파라미터의 언어 모델의 추론 작업을 크게 향상시킬 것으로 전망하고 있다. 엔비디아와 AWS는 양사의 기술을 지속적으로 통합해 나가는 파트너십을 강화할 계획이다. 여기에는 차세대 엔비디아 블랙웰 플랫폼과 AI 소프트웨어를 비롯해 AWS의 니트로 시스템(Nitro System)과 AWS KMS(키 관리 서비스)의 고급 보안, 엘라스틱 패브릭 어댑터(EFA) 페타비트 규모의 네트워킹, 아마존 EC2(엘라스틱 컴퓨트 클라우드) 울트라클러스터 하이퍼스케일 클러스터링 등이 있다. 양사는 이런 기술을 함께 사용함으로써 아마존 EC2에서 이전 세대 엔비디아 GPU보다 더 빠르고, 저렴한 비용으로 대규모로 수조 개의 파라미터 거대 언어 모델(LLM)에 대한 실시간 추론을 구축, 실행할 수 있을 것으로 보고 있다. AWS는 엔비디아 H100 기반 EC2 P5 인스턴스의 성공을 기반으로, 대규모로 생성형 AI 훈련과 추론을 가속화하는 EC2 울트라클러스터에 배치된 새로운 B100 GPU를 탑재한 EC2 인스턴스를 제공할 계획이다. 또한 AWS에서 공동으로 만들어진 AI 플랫폼인 엔비디아 DGX 클라우드에서도 GB200을 사용할 수 있다.    마이크로소프트 : 생성형 AI 및 디지털 트윈 기술을 클라우드에서 통합 엔비디아는 GTC에서 마이크로소프트 애저(Azure), 애저 AI 서비스, 마이크로소프트 패브릭(Fabric), 마이크로소프트 365에 최신 엔비디아 생성형 AI와 옴니버스(Omniverse) 기술을 통합한다고 밝혔다. 엔비디아 옴니버스 클라우드 API(Omniverse Cloud API)는 올해 말 마이크로소프트 애저에서 먼저 제공되며, 개발자들은 기존 소프트웨어 애플리케이션에서 향상된 데이터 상호운용성, 협업, 물리 기반 시각화를 이용할 수 있도록 지원할 예정이다. 엔비디아 GPU와 엔비디아 트리톤 추론 서버(Triton Inference Server)는 마이크로소프트 365용 마이크로소프트 코파일럿에서 AI 추론 예측을 지원한다.  또한, 마이크로소프트는 엔비디아 그레이스 블랙웰 GB200과 고급 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand) 네트워킹의 성능을 애저에 도입할 예정이다. 이외에도 마이크로소프트는 엔비디아 H100 NVL 플랫폼에 기반한 애저 NC H100 v5 VM(가상머신)의 정식 출시를 발표했다. 미드레인지 훈련과 추론을 위해 설계된 NC 시리즈 VM은 이는 고객들에게 1개에서 2개의 엔비디아 H100 94GB PCIe 텐서 코어(Tensor Core) GPU로 구성된 두 등급의 VM을 제공하며, 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원한다.   구글 클라우드 : 생성형 AI 앱의 구축과 관리 지원 엔비디아는 구글 클라우드와의 파트너십을 강화해 머신러닝(ML) 커뮤니티가 생성형 AI 애플리케이션을 쉽게 구축, 확장, 관리할 수 있도록 지원할 예정이다. 구글은 자사 제품과 개발자에게 AI 혁신을 지속적으로 제공하기 위해 새로운 엔비디아 그레이스 블랙웰(Grace Blackwell) AI 컴퓨팅 플랫폼을 도입하고, 구글 클라우드에 엔비디아 DGX 클라우드(DGX Cloud) 서비스를 적용한다고 발표했다. 아울러 엔비디아 H100 기반 DGX 클라우드 플랫폼은 이제 구글 클라우드에서 정식으로 사용할 수 있다. 구글은 최근 개방형 모델인 젬마(Gemma) 제품군 최적화를 위한 협력을 기반으로, 엔비디아 NIM 추론 마이크로서비스도 도입한다고 밝혔다. 이를 통해 구글은 개발자들이 선호하는 툴과 프레임워크를 사용해 훈련하고 배포할 수 있는 개방적이고 유연한 플랫폼을 제공할 계획이다. 또한, 양사는 엔비디아 GPU와 엔비디아 H100 그리고 L4 텐서 코어(L4Tensor Core) GPU 기반의 버텍스 AI(Vertex AI) 인스턴스에서 JAX를 지원한다고 발표했다.   오라클 : 데이터 관리용 가속 컴퓨팅과 생성형 AI 솔루션 제공 엔비디아는 자사의 풀스택 AI 플랫폼과 오라클 엔터프라이즈 AI를 결합해 운영, 위치, 보안에 대한 제어력을 강화한 AI 솔루션을 제공한다. 오라클 엔터프라이즈 AI는 OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud)에 배포 가능하다. 양사의 통합 솔루션은 퍼블릭 클라우드 또는 특정 위치의 고객 데이터센터에 유연한 운영 제어를 통해 배포할 수 있다. 오라클은 어디서나 로컬로 AI와 전체 클라우드 서비스를 제공할 수 있는 역량을 내세우면서, 배포 유형에 관계없이 일관적인 서비스와 가격을 통해 계획, 이동성, 관리를 간소화한다고 강조했다. 오라클 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 비롯한 다양한 엔비디아 스택을 활용한다. 또한, 새로 발표된 엔비디아 NIM 추론 마이크로서비스는 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버(Triton Inference Server)와 같은 엔비디아 추론 소프트웨어를 기반으로 구축된다.
작성일 : 2024-03-21
[케이스 스터디] 현대엔지니어링, 클라우드의 가상화 기술로 플랜트 설계 인프라 혁신
종합 엔지니어링 기업인 현대엔지니어링은 플랜트 설계의 시간과 비용을 줄일 수 있는 방안을 고민했고, 해결책으로 클라우드 기반의 애플리케이션 가상화 및 가상 데스크톱 인프라 기술을 선택했다. 다양한 설계 프로젝트의 복잡한 환경에 맞춰 최적화된 IT 인프라를 빠르게 구축하고 관리 효율을 높임으로써, 전반적인 시간 및 비용 효과를 추구할 수 있게 됐다. ■ 정수진 편집장   다양한 프로젝트에 따른 설계 환경의 복잡성 증가 창립 50주년을 맞은 현대엔지니어링은 화공 플랜트와 전력/에너지 플랜트 설계 및 건설을 중심으로 건축/항만 인프라와 자산관리, 친환경 에너지 등 폭넓은 비즈니스를 전개하고 있다. 2023년에는 국내 건축 프로젝트 및 해외 대형 프로젝트 실적 증가에 힘입어 국토교통부의 시공능력평가에서 4위에 오르기도 했다. 현대엔지니어링 IT지원팀의 이다영 매니저는 “발주처의 요구나 프로젝트의 성격에 따라 다양한 CAD 소프트웨어를 사용하고 있다”고 소개했다. 피드(FEED)라고 불리는 기본설계 프로젝트의 경우 3D CAD만으로 빠르게 진행하기도 하고, 설계/시공/구매/조달이 포함되는 EPC 프로젝트에서는 2D와 3D CAD를 함께 사용한다는 것이다.   ▲ 아마존 앱스트림 2.0에서 구동하는 스마트 3D   3D 설계 인프라 개선 위해 클라우드 도입 현대엔지니어링은 특히 사용 빈도가 높은 3D 설계를 위해 클라우드 인프라와 서비스를 도입했다. 주된 목적은 설계 인프라의 구축 기간을 줄이는 것이었다. 워크스테이션으로 설계를 진행하는 기존의 환경에서는 CAD 소프트웨어를 구동하기에 적절한 시스템 사양을 결정하는 것부터 시스템 구매와 시스템/서비스의 안정화까지 짧지 않은 시간이 걸린다. 현대엔지니어링은 이 부분을 클라우드 기반의 가상화 기술로 해결할 수 있을 것으로 보았다. 또한 코로나19의 대유행으로 재택근무 및 원격근무가 늘어나는 환경의 변화에 대응해야 한다는 인식이 늘어난 것도 클라우드를 고려하게 된 배경이 되었다고 한다. 현대엔지니어링은 AWS의 클라우드 컴퓨팅 인프라인 EC2, 애플리케이션 가상화 서비스인 앱스트림 2.0(Amazon AppStream 2.0), VDI(가상 데스크톱 인프라) 서비스인 아마존 워크스페이스(Amazon WorkSpaces)를 도입했다.  이다영 매니저는 “AWS는 VDI, 앱 가상화, 클라우드 그래픽 등 다양한 서비스를 제공하며, 전 세계의 리전(region)을 통해 해외 현장에서도 활용할 수 있을 것으로 보았다”면서, “국내외 엔지니어링 분야에서 레퍼런스가 나오면서 진입장벽이 낮아졌다고 판단해, POC를 통해 지난 2021년부터 클라우드를 도입하게 되었다”고 소개했다.   설계 인프라 구축 시간 줄이고 효율과 유연성은 향상 클라우드 기반 플랜트 설계 인프라의 주된 강점은 시간과 비용이다. 이다영 매니저는 “설계를 위한 IT 인프라의 구축에 걸리는 시간이 5~6개월에서 1개월로 줄었다”면서, 향후에는 코드 자동화 기술을 적용해 이 기간을 2~3주까지 줄일 수 있을 것이라고 전했다. 시간 절감은 비용 절감으로 이어진다. 피드 사업에서 클라우드로 IT 인프라 비용을 줄이고, 이를 통해 전체 프로젝트의 비용 절감도 가능하다. 또한, 워크스테이션을 장기간 사용하면 성능이 저하될 수 있는데, 가상머신을 초기화하면 이런 문제를 해결하고 퍼포먼스의 일관성을 유지할 수 있다. 가상머신의 사양을 최적화해 설계 업무의 효율을 높이게 된 것도 이점이다. 물리적인 서버와 워크스테이션은 한 번 구축하면 업그레이드나 증설이 어려워서 처음부터 높은 사양으로 도입했다. 반면, 가상머신은 최적화된 사양으로 도입한 후에도 확장이 손쉽기 때문에 설계 인프라를 유연하게 운영할 수 있게 됐다. 이다영 매니저는 “클라우드 가상머신은 설계 소프트웨어마다 요구하는 사양에 맞춰 활용이 가능하다. 예를 들어 헥사곤의 스마트 3D는 앱스트림 2.0의 그래픽 성능을 활용하고, 상대적으로 낮은 사양에서도 설계를 할 수 있는 아비바 PDMS는 GPU가 없는 VDI를 구성하는 식이다. 이렇게 필요 없는 리소스를 정리하면서 가상머신의 사양을 최적화할 수 있다”고 설명했다.   ▲ 아마존 워크스페이스에서 구동하는 PDMS   성능·비용 효과에 집중하며 클라우드 도입의 장벽 제거 현대엔지니어링은 5가지의 사양으로 클라우드 가상머신을 테스트했고, 그 결과를 바탕으로 사내 설계 환경에 맞춰 가상머신 사양을 정형화한 후 확산한다는 전략을 추진하고 있다. 2021년 정식 오픈 이후에는 베트남과 러시아 등 2개 프로젝트에 클라우드를 도입했다. 이다영 매니저는 “피드 사업에서 클라우드의 효과를 체감한다면 향후 EPC 사업으로 전환하더라도 클라우드 사용에 대한 거부감을 줄일 수 있을 것”이라고 전했다. 현대엔지니어링의 클라우드 인프라 도입이 순탄한 것만은 아니었다고 한다. 가장 큰 장벽은 클라우드의 보안에 대한 우려였다. 이에 대해 현대엔지니어링은 사내망으로 구축해 보안 문제를 해소하고, AWS의 보안 솔루션을 통해 모니터링할 수 있도록 했다. 또한 사용자 권한 제어와 파일 다운로드 제한 등의 장치도 마련했다. 이다영 매니저는 “기존의 프로세스를 바꾸어야 한다는 부담도 있었는데, 이 부분은 클라우드의 성능과 비용 효과를 중심으로 사내 구성원들을 설득했다”고 전했다. 설계 소프트웨어 인프라 관리 측면에서는 빠른 구축과 관리 포인트 감소라는 이점을, 설계 담당자 측면에서는 고성능의 PC가 없어도 쉽게 접속해 사용할 수 있다는 장점을 사내 구성원들이 이해하면서 클라우드 도입이 진전을 보일 수 있었다고 한다.   클라우드 인프라 확대 추진할 계획 현대엔지니어링은 피드백 수렴과 안정화를 거쳐 향후 대규모 프로젝트에 클라우드를 도입할 예정이다. 그리고, 2024년에는 해외 현장에서 AWS의 해외 리전을 활용해 클라우드 인프라를 구축할 계획이다. IT 요구사항이 까다로운 대규모의 해외 프로젝트에 클라우드를 적용할 예정이며, 인도에 오픈 예정인 설계센터에도 클라우드를 도입할 계획이라고 한다. 또한, 현재 적용 중인 3D CAD 외에 2D 설계를 위한 클라우드도 테스트 중으로, 2023년 말 오픈 예정이다.   ▲ 현대엔지니어링 이다영 매니저는 “클라우드는 설계 실무와 인프라 관리 측면에서 시간과 비용 등 이점을 제공한다”고 설명했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-12-04
오라클, AI 인프라 및 범용 컴퓨팅을 위한 클라우드 인스턴스 확대
오라클은 오라클 클라우드 인프라스트럭처 컴퓨트(OCI Compute)에 추가될 엔비디아 H100 텐서 코어(NVIDIA H100 Tensor Core) GPU, 엔비디아 L40S GPU, 암페어 암페어원(Ampere AmpereOne) CPU 기반 신규 인스턴스를 발표했다. 신규 OCI 컴퓨트 인스턴스는 AI 모델의 학습, 미세 조정, 추론에서부터 클라우드 전용 애플리케이션 및 비디오 트랜스코딩 애플리케이션의 실행에 이르는 다양한 워크로드를 더욱 간단히 실행할 수 있도록 설계되었고, 가성비 또한 향상되었다. 엔비디아 H100 GPU 기반 OCI 컴퓨트 베어메탈 인스턴스(OCI Compute Bare Metal Instances Powered by NVIDIA H100 GPUs)는 자연어 처리 및 추천 시스템용 모델과 같은 대규모 AI 모델의 학습 시간을 단축시킨다. 엔비디아 H100 텐서 코어 GPU 인스턴스를 사용하는 기업은 이전 세대 엔비디아 A100 텐서 코어 GPU 대비 AI 추론 사용 사례에서 최대 30배 성능 향상, AI 모델 학습에서 4배 성능 향상을 경험했다. AI 모델 학습과 같은 고강도 컴퓨팅 워크로드를 실행하는 고객의 경우 OCI 슈퍼클러스터(OCI Supercluster)의 고성능 초저지연 클러스터 네트워크를 통해 수만 개의 엔비디아 H100 GPU를 상호 연결할 수 있다. 이 인스턴스는 올해 말 오라클 클라우드 런던 리전 및 오라클 클라우드 시카고 리전에서 정식 출시되며, 이후 다른 리전에서도 지원될 예정이다. 엔비디아 L40S GPU 기반 OCI 컴퓨트 베어메탈 인스턴스(OCI Compute Bare Metal Instances Powered by NVIDIA L40S GPUs)는 AI 추론 또는 중소형 AI 모델 학습 등의 워크로드 실행을 위한 대체 옵션을 제공한다. 오라클의 테스트 결과 이 인스턴스는 이전 세대 엔비디아 A100 GPU 대비 생성형 AI 워크로드의 경우 최대 20%, AI 모델 미세 조정의 경우 최대 70%의 성능 향상을 기록했다. 정식 출시는 2024년으로 예정되어 있다. 암페어 암페어원 CPU 기반 OCI 컴퓨트 A2 인스턴스(OCI Compute A2 Instances Powered by Ampere AmpereOne CPUs)는 웹 서버 실행, 비디오 트랜스코딩, CPU 기반 AI 추론 요청 서비스 등 다양한 범용 클라우드 워크로드를 위한 가성비 및 높은 프로세서 코어 수(베어메탈 구성 320 코어, 유연한 VM 구성 최대 156 코어)를 제공한다. 이 인스턴스는 높은 코어 수를 기반으로 향상된 성능, 가상머신 밀도, 확장성을 제공함으로써 고객사가 컴퓨팅 워크로드를 보다 효율적으로 관리하고 데이터센터 설치 공간 및 전력 소비를 줄일 수 있도록 지원한다. 또한 고객사는 이 인스턴스의 유연한 가상머신용 구성을 통해 프로세싱 파워 및 메모리를 미세 조정함으로써, 리소스 활용도를 극대화하고 비용을 최소화함과 동시에 간단하고 예측 가능한 가격 모델을 제공할 수 있다. 정식 출시는 2024년으로 예정되어 있다.     오라클의 도널드 루(Donald Lu) OCI 소프트웨어 개발 담당 수석 부사장은 "OCI는 전용 베어메탈 인스턴스를 최초로 제공한 클라우드 제공업체 중 하나다. 이는 전 세계의 모든 고객사에 보다 간단히 사용 가능한 고성능 컴퓨팅 서비스를 제공하기 위한 핵심 요소다. OCI의 엔비디아 및 암페어 컴퓨팅 프로세서 기반 인스턴스는 고객사의 클라우드 인프라에 필요한 광범위한 성능, 효율성, 유연성을 제공하므로 고객사는 범용 워크로드부터 고성능 AI 프로젝트에 이르는 모든 작업을 자유롭게 수행할 수 있다"면서, "오라클은 AI의 개발 및 사용을 지원하기 위해 특별히 설계된 클라우드 컴퓨팅 오퍼링 시장을 선도하고 있다. 시장의 성장과 함께 증가해 나갈 AI 제공업체 및 사용자를 지원하며 클라우드 컴퓨팅 산업을 주도할 수 있는 유리한 위치를 선점했다"고 말했다. 엔비디아의 이언 벅(Ian Buck) 하이퍼스케일 및 고성능 컴퓨팅 담당 부사장은 "엔비디아와 오라클의 협업을 통해 OCI에서의 최첨단 GPU 사용을 보다 대중화할 수 있게 됐다"면서, "OCI의 엔비디아 H100 및 L40S GPU는 전 업종의 고객사에 전례 없는 성능, 확장성, 보안성을 제공함으로써 AI 혁신에 기여할 것"이라고 전했다.
작성일 : 2023-09-25