• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " EC2"에 대한 통합 검색 내용이 56개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AWS, 딥시크-R1 모델 제공 시작… “생성형 AI 활용 확장 지원”
아마존웹서비스(AWS)는 딥시크-R1(DeepSeek-R1) 모델을 아마존 베드록(Amazon Bedrock)과 아마존 세이지메이커 AI(Amazon SageMaker AI)에서 제공한다고 발표했다. AWS는 이를 통해 기업이 최신 생성형 AI 모델을 보다 효과적으로 활용할 수 있으며, 비용 절감과 성능 향상을 동시에 누릴 수 있다고 밝혔다. 딥시크(DeepSeek)는 2023년에 중국 항저우에서 설립된 인공지능(AI) 스타트업으로, AI 모델 개발 비용을 기존보다 크게 낮춘 것으로 평가되면서 최근 주목을 받고 있다. 이 회사는 2024년 12월 6710억 개의 파라미터를 가진 딥시크-V3를 출시한 이후, 2025년 1월 20일 딥시크-R1, 딥시크-R1-제로, 딥시크-R1-디스틸 모델을 공개했다. 또한, 1월 27일에는 비전 기반 야누스-프로 7B(Janus-Pro 7B) 모델을 추가했다. 딥시크에 따르면, 메모리 사용량을 줄이고 속도를 높인 이들 모델은 기존 AI 모델 대비 90~95%의 비용을 절감해 비용 효율을 제공하며, 강화 학습 기법을 적용해 높은 추론 능력을 갖췄다. AWS는 고객들이 딥시크-R1 모델을 다양한 방식으로 활용할 수 있도록 지원한다는 계획이다. 아마존 베드록에서는 API를 통해 사전 학습된 모델을 쉽게 통합할 수 있으며, 아마존 세이지메이커 AI를 통해 맞춤형 학습과 배포가 가능하다. 또한, AWS 트레이니움(AWS Trainium)과 AWS 인퍼런시아(AWS Inferentia)를 활용하면 딥시크-R1-디스틸 모델을 더욱 경제적으로 운영할 수 있다. AWS는 보안성과 확장성을 강화하기 위해 아마존 베드록 가드레일(Amazon Bedrock Guardrails)을 활용할 것을 권장하며, 이를 통해 생성형 AI 애플리케이션의 입력 및 출력 데이터를 모니터링하고 유해 콘텐츠를 필터링할 수 있다. 딥시크-R1 모델은 현재 AWS에서 네 가지 방식으로 배포할 수 있다. 아마존 베드록 마켓플레이스(Amazon Bedrock Marketplace)에서는 모델 카탈로그에서 딥시크-R1을 검색하여 손쉽게 배포할 수 있으며, 아마존 세이지메이커 점프스타트(Amazon SageMaker JumpStart)를 통해 머신러닝 허브에서 클릭 한 번으로 배포 및 활용이 가능하다. 또한, 아마존 베드록 커스텀 모델 임포트를 활용하면 딥시크-R1-디스틸 모델을 맞춤형 모델로 가져와 활용할 수 있으며, AWS EC2 Trn1 인스턴스(AWS EC2 Trn1 Instance)를 사용하면 딥시크-R1-디스틸 모델을 AWS 트레이니움 및 AWS 인퍼런시아 기반 인프라에서 최적의 성능과 비용 효율성을 제공하며 실행할 수 있다. AWS는 “딥시크-R1 모델을 통해 고객들이 AI 기술을 더욱 효과적으로 활용하고, 안전하고 책임감 있는 AI 환경을 조성할 수 있도록 적극 지원할 예정”이라고 전했다.
작성일 : 2025-02-03
엔비디아, AWS에 엔비디아 NIM 제공 확대해 AI 추론 향상 지원
엔비디아가 아마존웹서비스(AWS)의 AI 서비스 전반에 자사의 NIM 마이크로서비스를 확장한다고 발표하면서, 이를 통해 생성형 AI 애플리케이션을 위한 더 빠른 AI 추론과 짧은 지연 시간을 지원한다고 전했다. 12월 4일 열린 ‘리인벤트(re:Invent)’ 연례 콘퍼런스에서 AWS는 엔비디아와의 협업을 확대해 주요 AWS AI 서비스 전반에 걸쳐 엔비디아 NIM 마이크로서비스를 확장한다고 발표했다.  엔비디아 NIM 마이크로서비스는 이제 AWS 마켓플레이스(Marketplace), 아마존 베드록 마켓플레이스(Bedrock Marketplace), 아마존 세이지메이커 점프스타트(SageMaker JumpStart)에서 직접 제공된다. 이로 인해 개발자가 일반적으로 사용되는 모델에 대해 엔비디아 최적화 추론을 대규모로 배포하는 것이 더욱 쉬워졌다.     엔비디아 NIM은 AWS 마켓플레이스에서 제공되는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼의 일부이다. 이는 개발자에게 클라우드, 데이터센터, 워크스테이션 전반에서 고성능 엔터프라이즈급 AI 모델 추론을 안전하고 안정적으로 배포하도록 설계된 사용하기 쉬운 마이크로서비스 세트를 제공한다. 사전 구축된 컨테이너는 엔비디아 트리톤 추론 서버(Triton Inference Server), 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 파이토치(PyTorch)와 같은 추론 엔진을 기반으로 구축됐다. 아울러 오픈 소스 커뮤니티 모델부터 엔비디아 AI 파운데이션(AI Foundation) 모델, 맞춤형 모델에 이르기까지 광범위한 범위의 AI 모델을 지원한다. NIM 마이크로서비스는 아마존 엘라스틱 컴퓨트 클라우드(Elastic Compute Cloud : EC2), 아마존 엘라스틱 쿠버네티스 서비스(Elastic Kubernetes Service : EKS), 아마존 세이지메이커를 비롯한 다양한 AWS 서비스에 배포할 수 있다. 개발자는 일반적으로 사용되는 모델과 모델 제품군으로 구축된 100개 이상의 NIM 마이크로서비스를 엔비디아 API 카탈로그에서 미리 볼 수 있다. 여기에는 메타의 라마 3(Llama 3), 미스트랄 AI의 미스트랄과 믹스트랄(Mixtral), 엔비디아의 네모트론(Nemotron), 스태빌리티 AI의 SDXL 등이 있다. 가장 일반적으로 사용되는 모델은 AWS 서비스에 배포하기 위한 자체 호스팅에 사용할 수 있으며, AWS의 엔비디아 가속 컴퓨팅 인스턴스에서 실행되도록 최적화돼 있다. 엔비디아는 다양한 산업 분야의 고객과 파트너가 AWS에서 NIM을 활용하며 시장에 더 빨리 진입하고, 생성형 AI 애플리케이션과 데이터의 보안과 제어를 유지하며, 비용을 절감하고 있다고 소개했다. 개발자는 고유한 필요와 요구사항에 따라 AWS에 엔비디아 NIM 마이크로서비스를 배포할 수 있다. 이를 통해 개발자와 기업은 다양한 AWS 서비스 전반에서 엔비디아에 최적화된 추론 컨테이너로 고성능 AI를 구현할 수 있다.
작성일 : 2024-12-06
AWS, 딥러닝 및 생성형 AI를 위한 트레이니움2 인스턴스 출시
아마존웹서비스(AWS)는 ‘AWS 리인벤트’ 행사에서 AWS 트레이니움2(AWS Trainium2) 칩 기반의 아마존 EC2(Amazon EC2) 인스턴스를 공식 출시했다고 발표했다. 또한, AWS는 대규모 언어 모델(LLM) 및 파운데이션 모델(FM)의 학습과 추론을 지원하는 트레이니움2 울트라서버(Trn2 UltraServers)와 차세대 트레이니움3(Trainium3) 칩도 함께 공개했다. Trn2 인스턴스는 16개의 트레이니움2 칩을 탑재하여 최대 20.8 페타플롭스(PF)의 연산 성능을 제공한다. 이는 수십억 개의 매개변수를 가진 LLM의 학습 및 배포에 적합하다. Trn2 인스턴스는 동일한 비용으로 기존 GPU 기반 EC2 P5e 및 P5en 인스턴스 대비 30~40% 더 나은 가격 대비 성능을 제공하며, 메모리 대역폭도 개선되어 비용 효율성이 높다는 것이 AWS의 설명이다. Trn2 울트라서버는 새로운 EC2 제품군으로, 초고속 뉴런링크(NeuronLink) 기술을 사용해 64개의 트레이니움2 칩을 연결하여 최대 83.2 피크 페타플롭스의 연산 성능을 제공한다. 이는 단일 Trn2 인스턴스 대비 연산, 메모리, 네트워킹 성능을 각각 4배로 확장해 대규모의 모델 학습과 배포를 가능하게 한다. Trn2 인스턴스는 현재 미국 동부(오하이오) AWS 리전에서 사용 가능하며, 추가 리전에서도 곧 제공될 예정이다. Trn2 울트라서버는 현재 프리뷰 상태로 제공되고 있다. 한편, AWS는 앤스로픽(Anthropic)과 협력해 수십만 개의 트레이니움2 칩을 포함하는 EC2 울트라클러스터(UltraClusters)를 구축하고 있다고 밝혔다. 이 프로젝트는 ‘프로젝트 레이니어(Project Rainier)’로 명명되었으며, 현재 세대의 최첨단 AI 모델 훈련에 사용된 엑사플롭스의 5배 이상의 성능을 갖출 것으로 기대된다. 이외에도 AWS는 차세대 AI 학습 칩인 트레이니움3를 공개했다. 트레이니움3는 트레이니움2 대비 최대 2배 성능과 40% 개선된 에너지 효율성을 제공하며, 이를 통해 고객은 더 큰 모델을 더 빠르게 구축하고 실시간 성능을 극대화할 수 있다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “트레이니움2는 AWS가 개발한 칩 중 가장 강력한 성능을 자랑하며, 대규모 및 최첨단 생성형 AI 워크로드를 지원하기 위해 설계되었다. 이 칩은 학습과 추론 모두에서 최고의 가격 대비 성능을 제공한다”면서, “매개변수가 수조 개에 달하는 모델이 등장하면서, 고객들에게 대규모 모델을 효율적으로 학습하고 운영할 수 있는 새로운 접근 방식이 필요해졌다. Trn2 울트라서버는 AWS에서 가장 빠른 학습 및 추론 성능을 제공하며, 모든 규모의 조직이 세계 최대 모델을 더 빠르고 비용 효율적으로 학습하고 배포할 수 있도록 돕는다”고 전했다.
작성일 : 2024-12-04
AWS, 오라클과 전략적 파트너십 발표 및 ‘오라클 데이터베이스@AWS’ 출시
아마존웹서비스(AWS)와 오라클은 고객이 전용 인프라 상의 오라클 자율운영 데이터베이스(Oracle Autonomous Database)와 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service)를 AWS 내에서 사용할 수 있게 하는 신규 오퍼링인 ‘오라클 데이터베이스@AWS(Oracle Database@AWS)’를 출시했다고 발표했다. 오라클 데이터베이스@AWS는 고객에게 오라클 클라우드 인프라스트럭처(OCI)와 AWS 간의 통합된 경험을 제공해 데이터베이스 관리와 과금, 통합 고객 지원 등을 간소화할 수 있도록 지원한다. 또한, 고객은 오라클 데이터베이스(Oracle Database)에 있는 엔터프라이즈 데이터를 아마존 엘라스틱 컴퓨트 클라우드(Amazon EC2), AWS 애널리틱스(AWS Analytics) 서비스 또는 아마존 베드록(Amazon Bedrock)을 포함한 AWS의 인공지능(AI) 및 머신러닝(ML) 서비스에서 실행되는 애플리케이션에 원활하게 연결할 수 있게 된다. 오라클 데이터베이스@AWS는 전용 인프라의 오라클 자율운영 데이터베이스와 오라클 RAC(Oracle Real Application Clusters)에서 실행되는 워크로드 등 AWS 상의 오라클 엑사데이터 데이터베이스 서비스에 대한 직접 액세스를 포함해, 고객이 모든 엔터프라이즈 데이터를 통합하여 혁신을 추진할 수 있도록 지원한다. 이 새로운 오퍼링은 오라클 데이터베이스와 AWS 상의 애플리케이션 간에 저지연 네트워크 연결을 제공한다. 이를 통해 고객은 완전히 자동화된 관리형 오라클 데이터베이스 서비스인 오라클 자율운영 데이터베이스와 오라클 엑사데이터 데이터베이스 서비스의 성능과 가용성, 보안, 비용효율성을 활용하는 동시에 AWS가 제공하는 보안, 민첩성, 유연성, 지속가능성 등을 확보할 수 있다. 오라클의 래리 엘리슨 회장 겸 CTO는 “멀티 클라우드에 대한 수요가 크게 증가하고 있는 가운데, 아마존과 오라클은 이러한 수요를 충족하고 고객에게 선택권과 유연성을 제공하기 위해 AWS 서비스와 오라클 자율운영 데이터베이스를 비롯한 최신 오라클 데이터베이스 기술을 원활하게 연결하고 있다. AWS 데이터센터 내부에 구축된 OCI를 통해 고객에게 최상의 데이터베이스와 네트워크 성능을 제공할 수 있다”고 말했다. AWS의 맷 가먼 CEO는 “고객들은 2008년부터 클라우드에서 오라클 워크로드를 실행할 수 있었고, 그 이후로 많은 보안에 민감한 거대한 조직들이 AWS에 오라클 소프트웨어를 배포하기로 선택했다. 새롭고 심도 깊은 이번 파트너십을 통해 AWS 내에서 오라클 데이터베이스 서비스를 제공하게 됨으로써 고객들은 세계에서 가장 널리 채택된 클라우드의 유연성과 안정성, 확장성을 그들이 사용 중인 엔터프라이즈 소프트웨어와 함께 활용할 수 있게 될 것”이라고 말했다. 오라클 데이터베이스@AWS는 고객이 클라우드로의 이전을 지속적으로 가속화하고 IT 환경을 현대화할 수 있도록 지원한다. 고객은 파이프라인을 구축할 필요 없이 오라클 데이터베이스 서비스와 AWS에서 실행 중인 애플리케이션 간의 데이터를 원활하고 안전하게 연결하고 분석하여 더 빠르고 심층적인 인사이트를 얻을 수 있다. 오라클 제로 다운타임 마이그레이션(Oracle Zero Downtime Migration)과 같은 마이그레이션 도구와의 호환성을 포함해, 클라우드로의 오라클 데이터베이스 마이그레이션을 간소화하고 가속화할 수 있는 유연한 옵션을 제공한다. 그리고, AWS 마켓플레이스를 통해 기존 AWS 약정으로 오라클 데이터베이스 서비스를 구매할 수 있는 간소화된 구매 경험과 기존 오라클 라이선스가 제공하는 BYOL(Bring Your Own License) 및 오라클 서포트 리워드(Oracle Support Rewards) 등 할인 프로그램 혜택을 활용할 수 있다. 고객은 AWS 매니지먼트 콘솔(AWS Management Console)이나 CLI(Command Line Interface), AWS 클라우드포메이션(AWS CloudFormation)과 같은 툴을 사용해 오라클 데이터베이스@AWS 환경을 쉽게 시작할 수 있다. 또한, AWS의 다중 가용 영역(AZ) 아키텍처를 활용해 여러 독립적인 위치에 걸쳐 애플리케이션을 설계할 수 있어 더 높은 수준의 가용성을 갖춘 워크로드를 구축하고 실행할 수 있다. 오라클 데이터베이스@AWS는 올해 말 프리뷰 버전으로 제공되며, 2025년에는 고객의 요구를 충족하기 위해 새로운 리전으로 확장되어 더 폭넓은 가용성을 제공할 예정이다. 기업 조직에서는 새로운 오라클 데이터베이스@AWS 기능을 통해 기존 기술을 활용하고 오라클 자율운영 데이터베이스 및 오라클 엑사데이터 데이터베이스 서비스를 AWS에서 배포, 관리, 사용하기 위한 완전히 통합된 경험을 즉시 시작할 수 있다. AWS와 오라클은 오라클 데이터베이스@AWS를 공동으로 출시하여 금융 서비스, 헬스케어, 제조, 소매, 통신, 유틸리티 등 다양한 산업 분야의 전 세계 조직들에 혜택을 제공할 예정이다.
작성일 : 2024-09-11
AWS, “AI 워크로드를 클라우드로 전환해 탄소 배출량 절감 가능”
아마존웹서비스(AWS)가 IT 워크로드를 온프레미스 인프라에서 AWS 클라우드 데이터센터로 이전하면 인공지능(AI) 활용에 따른 환경적 영향을 효과적으로 최소화할 수 있다는 새로운 연구 결과를 발표했다. AWS의 의뢰로 글로벌 IT 컨설팅 기업 엑센츄어(Accenture)에서 진행한 연구에 따르면, AWS의 글로벌 인프라에서 워크로드를 실행했을 때 온프레미스 대비 에너지 효율이 최대 4.1배 더 높은 것으로 나타났다. 특히 한국 기업들이 AWS상에서 AI 워크로드를 최적화할 경우 온프레미스 대비 탄소 배출을 최대 95%까지 줄일 수 있는 것으로 나타났다. 연구에 따르면 국내에서 컴퓨팅 부하가 높은 AI 워크로드를 AWS 데이터센터에서 실행할 경우, 에너지 효율이 더 높은 하드웨어 사용(22%)과 향상된 전력 및 냉각 시스템(50%)을 통해 온프레미스 대비 탄소 배출량을 72%까지 줄일 수 있다. 추가로 AWS에서 최적화하고 AI 전용 실리콘을 사용할 경우 AWS로 이전하고 최적화한 국내 기업은 AI 워크로드의 총 탄소 배출량을 최대 95%까지 감축할 수 있다. AWS가 에너지 효율을 혁신하는 대표적인 방법 중 하나는 자체 칩에 대한 투자다. AWS는 지난 2018년 자체 개발 맞춤형 범용 프로세서인 그래비톤(Graviton)을 첫 출시했다. 최신 프로세서인 그래비톤4의 성능은 기존 그래비톤보다 4배 향상되었으며, 동급의 아마존 EC2 인스턴스 대비 동일한 성능을 구현하는 데에 60% 더 적은 에너지를 사용하는 그래비톤3보다도 더 에너지 효율적이다. AWS는 생성형 AI 애플리케이션의 성능과 에너지 소비를 최적화하기 위해 AWS 트레이니움(AWS Trainium), AWS 인퍼런시아(AWS Inferentia)와 같은 AI 전용 실리콘을 개발하여 동급의 가속 컴퓨팅 인스턴스보다 높은 처리량을 달성했다. AWS 트레이니움은 생성형 AI 모델의 학습 시간을 몇 달에서 몇 시간으로 단축한다. 트레이니움2는 1세대 트레이니움에 비해 최대 4배 빠른 훈련 성능과 3배 더 많은 메모리 용량을 제공하는 동시에 에너지 효율(와트당 성능)을 최대 2배까지 개선하도록 설계되었다. 한편, AWS 인퍼런시아는 AWS 칩 중 가장 전력 효율이 높은 머신러닝 추론 칩이다. AWS 인퍼런시아2는 와트당 최대 50% 더 높은 성능을 제공하며, 동급 인스턴스 대비 최대 40%까지 비용을 절감할 수 있다.  이와 함께, AWS는 리소스 활용을 최적화하여 유휴 용량을 최소화하고 인프라의 효율성을 지속적으로 개선하고 있다고 전했다. AWS는 데이터센터 설계에서 대형 중앙 무정전전원공급장치(UPS)를 제거하는 대신 모든 랙에 통합되는 소형 배터리팩과 맞춤형 전원공급장치를 사용하여 전력 효율성을 개선하고 가용성을 높였다. 교류(AC)에서 직류(DC)로, 또는 그 반대로 전압을 변환할 때 발생하는 전력 손실을 줄이기 위해 중앙 UPS를 제거하고 랙 전원 공급 장치를 최적화하여 에너지 변환 손실을 약 35% 감소시켰다. AWS 데이터센터에서 서버 장비에 전력을 공급하는 것 다음으로 에너지 사용량이 많은 부분 중 하나는 냉각 시스템이다. 효율성을 높이기 위해 AWS는 장소와 시간에 따른 프리 쿨링(free air cooling) 등 다양한 냉각 기술을 활용하고 실시간 데이터를 통해 기상 조건에 적응한다. AWS의 최신 데이터센터 설계는 최적화된 공랭 솔루션과 엔비디아(NVIDIA)의 그레이스 블랙웰 슈퍼칩과 같은 가장 강력한 AI 칩셋을 위한 액체 냉각 기능을 통합한다. 유연한 다중 모드 냉각을 통해 기존 워크로드 혹은 AI 모델 등 실행하는 워크로드에 상관없이 성능과 효율성을 극대화할 수 있다. AWS는 SK텔레콤 등 자사의 고객들이 그래비톤의 탄소 절감 효과를 누리고 있다고 소개했다. AWS는 SK텔레콤의 차세대 AI 네트워크 관리 시스템인 탱고 솔루션 구축에 대규모 데이터 처리와 인공지능 및 머신러닝 워크로드에 최적화된 그래비톤 인스턴스를 제공함으로써, 온프레미스 대비 AWS 워크로드의 탄소배출량을 약 27% 감축하는데 기여했다. 또한, AWS는 자사의 클라우드 인프라가 스타트업, 기업, 헬스케어, 연구, 교육 기관 등 수만 곳의 한국 기업에게 신기술에 대한 접근성을 향상해 국내 비즈니스 생태계의 혁신과 성장을 지원하고 있다고 전했다. 종합에너지그룹 삼천리는 AWS를 활용해 대고객서비스 및 소비자 현장 지원 애플리케이션을 안정적으로 운영하고, 고객탄소발자국 툴(Customer Carbon Footprint Tool)을 통해 IT 운영에 따른 탄소 배출량을 상시 모니터링할 계획이다. AWS는 삼천리가 이번 클라우드 도입으로 향후 5년간 탄소배출량을 약 29.6% 감축할 것으로 기대하고 있다. AWS의 켄 헤이그(Ken Haig) 아시아 태평양 및 일본 에너지 및 환경 정책 총괄은 “전 세계 기업의 IT 지출 중 85%가 온프레미스에 집중된 상황에서, 한국 기업이 AWS상에서 AI 워크로드 최적화를 통해 탄소 배출량을 최대 95% 줄일 수 있다는 것은 지속가능성 측면에서 의미 있는 기회”라고 강조했다. 이어 “지속가능성의 혁신은 한국이 2050년까지 탄소 중립 목표를 달성하는데 중요한 역할을 할 것이며, 전력망에서 재생에너지 비중을 늘리려는 한국의 노력은 AI 워크로드의 탈탄소화를 앞당길 것”이라면서, “AWS는 데이터센터 설계 최적화부터 AI 전용 칩에 대한 투자까지 데이터센터 전반의 지속가능성을 위해 끊임없이 혁신하여 고객의 컴퓨팅 수요를 충족하기 위해 에너지 효율성을 지속적으로 높이고 있다”고 덧붙였다.
작성일 : 2024-09-04
엔비디아, 주요 클라우드 기업과 AI 관련 협력 강화 계획 소개
엔비디아는 GTC 행사에서 디지털 트윈과 인공지능 등 다양한 영역에서 업계 주요 기업과의 파트너십 내용을 소개했다. 이 가운데 AWS, 마이크로소프트, 구글 클라우드, 오라클 등과는 클라우드 상에서 AI 활용을 확대하는 것을 중심으로 협력을 강화할 계획이다.   AWS : 차세대 GPU 플랫폼 및 AI 인프라 제공 엔비디아는 차세대 GPU 플랫폼인 블랙웰(NVIDIA Blackwell)이 AWS에 제공된다고 발표했다. AWS는 5세대 엔비디아 NV링크로 상호 연결된 72개의 블랙웰 GPU와 36개의 그레이스 CPU로 구성된 GB200 NVL72를 갖춘 엔비디아 블랙웰 플랫폼을 제공할 예정이다. 엔비디아는 엔비디아 블랙웰이 AWS상에서 상당한 양의 컴퓨터 리소스를 필요로 하는 수조 개의 파라미터의 언어 모델의 추론 작업을 크게 향상시킬 것으로 전망하고 있다. 엔비디아와 AWS는 양사의 기술을 지속적으로 통합해 나가는 파트너십을 강화할 계획이다. 여기에는 차세대 엔비디아 블랙웰 플랫폼과 AI 소프트웨어를 비롯해 AWS의 니트로 시스템(Nitro System)과 AWS KMS(키 관리 서비스)의 고급 보안, 엘라스틱 패브릭 어댑터(EFA) 페타비트 규모의 네트워킹, 아마존 EC2(엘라스틱 컴퓨트 클라우드) 울트라클러스터 하이퍼스케일 클러스터링 등이 있다. 양사는 이런 기술을 함께 사용함으로써 아마존 EC2에서 이전 세대 엔비디아 GPU보다 더 빠르고, 저렴한 비용으로 대규모로 수조 개의 파라미터 거대 언어 모델(LLM)에 대한 실시간 추론을 구축, 실행할 수 있을 것으로 보고 있다. AWS는 엔비디아 H100 기반 EC2 P5 인스턴스의 성공을 기반으로, 대규모로 생성형 AI 훈련과 추론을 가속화하는 EC2 울트라클러스터에 배치된 새로운 B100 GPU를 탑재한 EC2 인스턴스를 제공할 계획이다. 또한 AWS에서 공동으로 만들어진 AI 플랫폼인 엔비디아 DGX 클라우드에서도 GB200을 사용할 수 있다.    마이크로소프트 : 생성형 AI 및 디지털 트윈 기술을 클라우드에서 통합 엔비디아는 GTC에서 마이크로소프트 애저(Azure), 애저 AI 서비스, 마이크로소프트 패브릭(Fabric), 마이크로소프트 365에 최신 엔비디아 생성형 AI와 옴니버스(Omniverse) 기술을 통합한다고 밝혔다. 엔비디아 옴니버스 클라우드 API(Omniverse Cloud API)는 올해 말 마이크로소프트 애저에서 먼저 제공되며, 개발자들은 기존 소프트웨어 애플리케이션에서 향상된 데이터 상호운용성, 협업, 물리 기반 시각화를 이용할 수 있도록 지원할 예정이다. 엔비디아 GPU와 엔비디아 트리톤 추론 서버(Triton Inference Server)는 마이크로소프트 365용 마이크로소프트 코파일럿에서 AI 추론 예측을 지원한다.  또한, 마이크로소프트는 엔비디아 그레이스 블랙웰 GB200과 고급 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand) 네트워킹의 성능을 애저에 도입할 예정이다. 이외에도 마이크로소프트는 엔비디아 H100 NVL 플랫폼에 기반한 애저 NC H100 v5 VM(가상머신)의 정식 출시를 발표했다. 미드레인지 훈련과 추론을 위해 설계된 NC 시리즈 VM은 이는 고객들에게 1개에서 2개의 엔비디아 H100 94GB PCIe 텐서 코어(Tensor Core) GPU로 구성된 두 등급의 VM을 제공하며, 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원한다.   구글 클라우드 : 생성형 AI 앱의 구축과 관리 지원 엔비디아는 구글 클라우드와의 파트너십을 강화해 머신러닝(ML) 커뮤니티가 생성형 AI 애플리케이션을 쉽게 구축, 확장, 관리할 수 있도록 지원할 예정이다. 구글은 자사 제품과 개발자에게 AI 혁신을 지속적으로 제공하기 위해 새로운 엔비디아 그레이스 블랙웰(Grace Blackwell) AI 컴퓨팅 플랫폼을 도입하고, 구글 클라우드에 엔비디아 DGX 클라우드(DGX Cloud) 서비스를 적용한다고 발표했다. 아울러 엔비디아 H100 기반 DGX 클라우드 플랫폼은 이제 구글 클라우드에서 정식으로 사용할 수 있다. 구글은 최근 개방형 모델인 젬마(Gemma) 제품군 최적화를 위한 협력을 기반으로, 엔비디아 NIM 추론 마이크로서비스도 도입한다고 밝혔다. 이를 통해 구글은 개발자들이 선호하는 툴과 프레임워크를 사용해 훈련하고 배포할 수 있는 개방적이고 유연한 플랫폼을 제공할 계획이다. 또한, 양사는 엔비디아 GPU와 엔비디아 H100 그리고 L4 텐서 코어(L4Tensor Core) GPU 기반의 버텍스 AI(Vertex AI) 인스턴스에서 JAX를 지원한다고 발표했다.   오라클 : 데이터 관리용 가속 컴퓨팅과 생성형 AI 솔루션 제공 엔비디아는 자사의 풀스택 AI 플랫폼과 오라클 엔터프라이즈 AI를 결합해 운영, 위치, 보안에 대한 제어력을 강화한 AI 솔루션을 제공한다. 오라클 엔터프라이즈 AI는 OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud)에 배포 가능하다. 양사의 통합 솔루션은 퍼블릭 클라우드 또는 특정 위치의 고객 데이터센터에 유연한 운영 제어를 통해 배포할 수 있다. 오라클은 어디서나 로컬로 AI와 전체 클라우드 서비스를 제공할 수 있는 역량을 내세우면서, 배포 유형에 관계없이 일관적인 서비스와 가격을 통해 계획, 이동성, 관리를 간소화한다고 강조했다. 오라클 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 비롯한 다양한 엔비디아 스택을 활용한다. 또한, 새로 발표된 엔비디아 NIM 추론 마이크로서비스는 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버(Triton Inference Server)와 같은 엔비디아 추론 소프트웨어를 기반으로 구축된다.
작성일 : 2024-03-21
[케이스 스터디] 현대엔지니어링, 클라우드의 가상화 기술로 플랜트 설계 인프라 혁신
종합 엔지니어링 기업인 현대엔지니어링은 플랜트 설계의 시간과 비용을 줄일 수 있는 방안을 고민했고, 해결책으로 클라우드 기반의 애플리케이션 가상화 및 가상 데스크톱 인프라 기술을 선택했다. 다양한 설계 프로젝트의 복잡한 환경에 맞춰 최적화된 IT 인프라를 빠르게 구축하고 관리 효율을 높임으로써, 전반적인 시간 및 비용 효과를 추구할 수 있게 됐다. ■ 정수진 편집장   다양한 프로젝트에 따른 설계 환경의 복잡성 증가 창립 50주년을 맞은 현대엔지니어링은 화공 플랜트와 전력/에너지 플랜트 설계 및 건설을 중심으로 건축/항만 인프라와 자산관리, 친환경 에너지 등 폭넓은 비즈니스를 전개하고 있다. 2023년에는 국내 건축 프로젝트 및 해외 대형 프로젝트 실적 증가에 힘입어 국토교통부의 시공능력평가에서 4위에 오르기도 했다. 현대엔지니어링 IT지원팀의 이다영 매니저는 “발주처의 요구나 프로젝트의 성격에 따라 다양한 CAD 소프트웨어를 사용하고 있다”고 소개했다. 피드(FEED)라고 불리는 기본설계 프로젝트의 경우 3D CAD만으로 빠르게 진행하기도 하고, 설계/시공/구매/조달이 포함되는 EPC 프로젝트에서는 2D와 3D CAD를 함께 사용한다는 것이다.   ▲ 아마존 앱스트림 2.0에서 구동하는 스마트 3D   3D 설계 인프라 개선 위해 클라우드 도입 현대엔지니어링은 특히 사용 빈도가 높은 3D 설계를 위해 클라우드 인프라와 서비스를 도입했다. 주된 목적은 설계 인프라의 구축 기간을 줄이는 것이었다. 워크스테이션으로 설계를 진행하는 기존의 환경에서는 CAD 소프트웨어를 구동하기에 적절한 시스템 사양을 결정하는 것부터 시스템 구매와 시스템/서비스의 안정화까지 짧지 않은 시간이 걸린다. 현대엔지니어링은 이 부분을 클라우드 기반의 가상화 기술로 해결할 수 있을 것으로 보았다. 또한 코로나19의 대유행으로 재택근무 및 원격근무가 늘어나는 환경의 변화에 대응해야 한다는 인식이 늘어난 것도 클라우드를 고려하게 된 배경이 되었다고 한다. 현대엔지니어링은 AWS의 클라우드 컴퓨팅 인프라인 EC2, 애플리케이션 가상화 서비스인 앱스트림 2.0(Amazon AppStream 2.0), VDI(가상 데스크톱 인프라) 서비스인 아마존 워크스페이스(Amazon WorkSpaces)를 도입했다.  이다영 매니저는 “AWS는 VDI, 앱 가상화, 클라우드 그래픽 등 다양한 서비스를 제공하며, 전 세계의 리전(region)을 통해 해외 현장에서도 활용할 수 있을 것으로 보았다”면서, “국내외 엔지니어링 분야에서 레퍼런스가 나오면서 진입장벽이 낮아졌다고 판단해, POC를 통해 지난 2021년부터 클라우드를 도입하게 되었다”고 소개했다.   설계 인프라 구축 시간 줄이고 효율과 유연성은 향상 클라우드 기반 플랜트 설계 인프라의 주된 강점은 시간과 비용이다. 이다영 매니저는 “설계를 위한 IT 인프라의 구축에 걸리는 시간이 5~6개월에서 1개월로 줄었다”면서, 향후에는 코드 자동화 기술을 적용해 이 기간을 2~3주까지 줄일 수 있을 것이라고 전했다. 시간 절감은 비용 절감으로 이어진다. 피드 사업에서 클라우드로 IT 인프라 비용을 줄이고, 이를 통해 전체 프로젝트의 비용 절감도 가능하다. 또한, 워크스테이션을 장기간 사용하면 성능이 저하될 수 있는데, 가상머신을 초기화하면 이런 문제를 해결하고 퍼포먼스의 일관성을 유지할 수 있다. 가상머신의 사양을 최적화해 설계 업무의 효율을 높이게 된 것도 이점이다. 물리적인 서버와 워크스테이션은 한 번 구축하면 업그레이드나 증설이 어려워서 처음부터 높은 사양으로 도입했다. 반면, 가상머신은 최적화된 사양으로 도입한 후에도 확장이 손쉽기 때문에 설계 인프라를 유연하게 운영할 수 있게 됐다. 이다영 매니저는 “클라우드 가상머신은 설계 소프트웨어마다 요구하는 사양에 맞춰 활용이 가능하다. 예를 들어 헥사곤의 스마트 3D는 앱스트림 2.0의 그래픽 성능을 활용하고, 상대적으로 낮은 사양에서도 설계를 할 수 있는 아비바 PDMS는 GPU가 없는 VDI를 구성하는 식이다. 이렇게 필요 없는 리소스를 정리하면서 가상머신의 사양을 최적화할 수 있다”고 설명했다.   ▲ 아마존 워크스페이스에서 구동하는 PDMS   성능·비용 효과에 집중하며 클라우드 도입의 장벽 제거 현대엔지니어링은 5가지의 사양으로 클라우드 가상머신을 테스트했고, 그 결과를 바탕으로 사내 설계 환경에 맞춰 가상머신 사양을 정형화한 후 확산한다는 전략을 추진하고 있다. 2021년 정식 오픈 이후에는 베트남과 러시아 등 2개 프로젝트에 클라우드를 도입했다. 이다영 매니저는 “피드 사업에서 클라우드의 효과를 체감한다면 향후 EPC 사업으로 전환하더라도 클라우드 사용에 대한 거부감을 줄일 수 있을 것”이라고 전했다. 현대엔지니어링의 클라우드 인프라 도입이 순탄한 것만은 아니었다고 한다. 가장 큰 장벽은 클라우드의 보안에 대한 우려였다. 이에 대해 현대엔지니어링은 사내망으로 구축해 보안 문제를 해소하고, AWS의 보안 솔루션을 통해 모니터링할 수 있도록 했다. 또한 사용자 권한 제어와 파일 다운로드 제한 등의 장치도 마련했다. 이다영 매니저는 “기존의 프로세스를 바꾸어야 한다는 부담도 있었는데, 이 부분은 클라우드의 성능과 비용 효과를 중심으로 사내 구성원들을 설득했다”고 전했다. 설계 소프트웨어 인프라 관리 측면에서는 빠른 구축과 관리 포인트 감소라는 이점을, 설계 담당자 측면에서는 고성능의 PC가 없어도 쉽게 접속해 사용할 수 있다는 장점을 사내 구성원들이 이해하면서 클라우드 도입이 진전을 보일 수 있었다고 한다.   클라우드 인프라 확대 추진할 계획 현대엔지니어링은 피드백 수렴과 안정화를 거쳐 향후 대규모 프로젝트에 클라우드를 도입할 예정이다. 그리고, 2024년에는 해외 현장에서 AWS의 해외 리전을 활용해 클라우드 인프라를 구축할 계획이다. IT 요구사항이 까다로운 대규모의 해외 프로젝트에 클라우드를 적용할 예정이며, 인도에 오픈 예정인 설계센터에도 클라우드를 도입할 계획이라고 한다. 또한, 현재 적용 중인 3D CAD 외에 2D 설계를 위한 클라우드도 테스트 중으로, 2023년 말 오픈 예정이다.   ▲ 현대엔지니어링 이다영 매니저는 “클라우드는 설계 실무와 인프라 관리 측면에서 시간과 비용 등 이점을 제공한다”고 설명했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-12-04
AWS, 자체 설계한 차세대 프로세서 그래비톤4와 트레이니움2 공개
아마존웹서비스(AWS)는 연례 콘퍼런스 ‘AWS 리인벤트 2023’에서 차세대 자체 설계 칩 제품군인 AWS 그래비톤4(AWS Graviton4)와 AWS 트레이니움2(AWS Trainium2)를 발표했다. 그래비톤4와 트레이니움2는 머신러닝(ML) 트레이닝과 생성형 인공지능(AI) 애플리케이션을 포함한 워크로드에서 개선된 가격 대비 성능과 에너지 효율을 제공한다.  그래비톤4는 기존 그래비톤3 프로세서 대비 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공해 아마존 EC2(Amazon EC2)에서 실행되는 워크로드에서 가격 대비 성능과 에너지 효율을 높이며, 모든 고속 물리적 하드웨어 인터페이스를 완전히 암호화해 보안성을 높인 것이 특징이다. 그래비톤4는 메모리에 최적화된 아마존 EC2 R8g 인스턴스로 제공돼 고객이 고성능 데이터베이스, 인메모리 캐시, 빅데이터 분석 워크로드의 실행을 개선할 수 있도록 지원한다. R8g 인스턴스는 기존 세대 R7g 인스턴스보다 최대 3배 더 많은 vCPU와 3배 더 많은 메모리로 더 큰 인스턴스 크기를 제공한다. 고객은 이를 통해 더 많은 양의 데이터 처리, 워크로드 확장, 결과 도출 시간 개선, 총 소유 비용 절감을 달성할 수 있다. 그래비톤4 기반 R8g 인스턴스는 현재 프리뷰 버전으로 제공되며, 향후 몇 달 내에 정식 출시될 예정이다.  그래비톤은 아마존 오로라(Amazon Aurora), 아마존 엘라스티캐시(Amazon ElastiCache), 아마존 EMR(Amazon EMR), 아마존 메모리DB(Amazon MemoryDB), 아마존 오픈서치(Amazon OpenSearch), 아마존 RDS(Amazon RDS), AWS 파게이트(AWS Fargate), AWS 람다(AWS Lambda)등 AWS 관리형 서비스에서 지원된다. 현재 AWS는 전 세계적으로 150개 이상의 그래비톤 기반 아마존 EC2 인스턴스 유형을 제공하고 있다. 또한 200만 개 이상의 그래비톤 프로세서를 구축했고, 상위 100대 EC2 고객을 포함해 5만 개 이상의 고객이 애플리케이션의 가격 대비 성능 최적화를 위해 그래비톤 기반 인스턴스를 사용하고 있다.   ▲ 이미지 출처 : AWS 웹사이트 캡처   한편, 트레이니움2는 1세대 트레이니움 칩 대비 최대 4배 빠른 학습 속도를 제공하도록 설계됐으며, 최대 10만 개의 칩으로 구성된 EC2 울트라클러스터(UltraClusters)에 배포할 수 있다. 이를 통해 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 빠르게 학습시키고 에너지 효율을 최대 2배까지 높인다. 트레이니움2는 1세대 트레이니움 칩에 비해 최대 4배 빠른 학습 성능과 3배 더 많은 메모리 용량을 제공하는 동시에, 와트당 성능을 최대 2배까지 개선할 수 있도록 설계됐다. 트레이니움2는 단일 인스턴스에 16개의 트레이니움 칩이 포함된 아마존 EC2 Trn2 인스턴스로 제공될 예정이다. Trn2 인스턴스는 AWS 엘라스틱 패브릭 어댑터(EFA) 페타비트급 네트워킹과 상호 연결되어 고객이 차세대 EC2 울트라클러스터에서 최대 10만 개의 트레이니움2 칩을 규모에 맞게 확장해 최대 65 엑사플롭의 컴퓨팅을 제공하고, 슈퍼컴퓨터급 성능에 온디맨드 방식으로 액세스할 수 있도록 지원한다. 이로써 고객은 기존에는 몇 달이 소요되던 3000억 개 파라미터 규모 LLM의 학습을 단 몇 주 만에 수행할 수 있다. AWS는 “각 칩 세대마다 더 나은 가격 대비 성능과 에너지 효율을 제공하며, 고객에게 AMD, 인텔, 엔비디아 등 타사의 최신 칩이 포함된 칩/인스턴스 조합 외에도 다양한 선택권을 제공해 거의 모든 애플리케이션 또는 워크로드를 아마존 EC2에서 실행할 수 있도록 지원한다”고 설명했다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “고객에게 중요한 실제 워크로드에 집중해 칩을 설계함으로써, AWS는 고객에게 진보한 클라우드 인프라를 제공할 수 있게 됐다”면서, “그래비톤4는 5년 만에 출시한 4세대 칩으로서 광범위한 워크로드를 위해 지금까지 개발한 칩 중 가장 강력하고 에너지 효율적이다. 또한, 생성형 AI에 대한 관심이 급증함에 따라 트레이니움2는 고객이 더 낮은 비용으로 더 빠르게, 그리고 더 높은 에너지 효율로 ML 모델을 훈련할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2023-11-29
엔비디아, AWS와 협력 확대하며 생성형 AI 위한 인프라부터 서비스까지 제공
엔비디아는 아마존웹서비스(AWS)와 전략적 협력을 확대한다고 발표했다. 이번 협력으로 양사는 고객의 생성형 AI(generative AI) 혁신을 위한 최첨단 인프라, 소프트웨어, 서비스를 제공할 수 있도록 지원할 예정이다. 양사는 파운데이션 모델(foundation model) 훈련과 생성형 AI 애플리케이션 구축에 적합한 엔비디아와 AWS의 기술을 결합할 계획이다. 여기에는 차세대 GPU, CPU와 AI 소프트웨어를 갖춘 엔비디아의 멀티노드 시스템부터 AWS의 니트로(Nitro) 시스템 고급 가상화와 보안, EFA(Elastic Fabric Adapter) 상호 연결과 울트라클러스터(UltraCluster) 확장성까지 다양한 기술이 포함된다. AWS는 새로운 멀티노드 NV링크(NVLink) 기술이 적용된 엔비디아 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchips)을 클라우드에 도입한 최초의 클라우드 제공업체가 된다. 엔비디아 GH200 NVL32 멀티노드 플랫폼은 32개의 그레이스 호퍼 슈퍼칩과 엔비디아 NV링크 및 NV스위치(NVSwitch) 기술을 하나의 인스턴스로 연결한다. 이 플랫폼은 아마존 EC2(Elastic Compute Cloud) 인스턴스에서 사용할 수 있다. GH200 NVL32가 탑재된 단일 아마존 EC2 인스턴스는 최대 20TB의 공유 메모리를 제공함으로써 테라바이트 규모의 워크로드를 지원하며, AWS의 3세대 EFA 인터커넥트를 통해 슈퍼칩당 최대 400Gbps의 저지연, 고대역폭 네트워킹 처리량을 제공한다.      그리고, 엔비디아의 서비스형 AI 훈련인 엔비디아 DGX 클라우드(DGX Cloud)가 AWS에 호스팅된다. 이는 GH200 NVL32를 탑재한 DGX 클라우드로 개발자에게 단일 인스턴스에서 큰 공유 메모리를 제공한다. 엔비디아 DGX 클라우드는 기업이 복잡한 LLM(대규모 언어 모델)와 생성형 AI 모델을 훈련하기 위한 멀티노드 슈퍼컴퓨팅에 빠르게 액세스할 수 있도록 지원하는 AI 슈퍼컴퓨팅 서비스이다. AWS의 DGX 클라우드는 1조 개 이상의 파라미터에 이르는 최첨단 생성형 AI와 대규모 언어 모델의 훈련을 가속화하며, 이를 통해 통합된 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어와 함께 엔비디아 AI 전문가에게 직접 액세스할 수 있다. 한편, 엔비디아와 AWS는 세계에서 가장 빠른 GPU 기반 AI 슈퍼컴퓨터를 구축하기 위해 프로젝트 세이바(Project Ceiba)에서 협력하고 있다. 이 슈퍼컴퓨터는 엔비디아의 리서치와 개발팀을 위해 AWS가 호스팅하는 GH200 NVL32와 아마존 EFA 인터커넥트를 갖춘 대규모 시스템이다. 이는 1만 6384개의 엔비디아 GH200 슈퍼칩을 탑재하고 65 엑사플롭(exaflops)의 AI를 처리할 수 있다. 엔비디아는 이 슈퍼컴퓨터를 연구 개발에 활용해 LLM, 그래픽과 시뮬레이션, 디지털 생물학, 로보틱스, 자율주행 자동차, 어스-2(Earth-2) 기후 예측 등을 위한 AI를 발전시킬 계획이다. 이외에도, AWS는 세 가지의 새로운 아마존 EC2 인스턴스를 추가로 출시할 예정이다. 여기에는 대규모 최첨단 생성형 AI와 HPC 워크로드를 위한 엔비디아 H200 텐서 코어(Tensor Core) GPU 기반의 P5e 인스턴스가 포함된다. P5e 인스턴스에 탑재된 H200 GPU는 141GB의 HBM3e GPU 메모리를 제공하며, 최대 3200Gbps의 EFA 네트워킹을 지원하는 AWS 니트로 시스템을 결합해 최첨단 모델을 지속적으로 구축, 훈련, 배포할 수 있다. 또한 G6와 G6e 인스턴스는 각각 엔비디아 L4 GPU와 엔비디아 L40S GPU를 기반으로 하며 AI 미세 조정, 추론, 그래픽과 비디오 워크로드와 같은 애플리케이션에 적합하다. 특히 G6e 인스턴스는 생성형 AI 지원 3D 애플리케이션을 연결하고 구축하기 위한 플랫폼인 엔비디아 옴니버스(Omniverse)를 통해 3D 워크플로, 디지털 트윈과 기타 애플리케이션을 개발하는 데 적합하다. AWS의 아담 셀립스키(Adam Selipsky) CEO는 “AWS와 엔비디아는 세계 최초의 GPU 클라우드 인스턴스를 시작으로 13년 이상 협력해 왔다. 오늘날 우리는 그래픽, 게이밍, 고성능 컴퓨팅, 머신러닝, 그리고 이제 생성형 AI를 포함한 워크로드를 위한 가장 광범위한 엔비디아 GPU 솔루션을 제공한다. 우리는 차세대 엔비디아 그레이스 호퍼 슈퍼칩과 AWS의 강력한 네트워킹, EC2 울트라클러스터의 하이퍼스케일 클러스터링, 니트로의 고급 가상화 기능을 결합해 AWS가 GPU를 실행하기 가장 좋은 환경이 될 수 있도록 엔비디아와 함께 지속적으로 혁신하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 클라우드 워크로드를 혁신하고 가속 컴퓨팅을 다양한 콘텐츠 생성의 기반에 도입하고 있다. 모든 고객에게 비용 효율적인 최첨단 생성형 AI를 제공한다는 목표로, 엔비디아와 AWS는 전체 컴퓨팅 스택에 걸쳐 협력하고 있다. 이로써 AI 인프라, 가속 라이브러리, 기반 모델부터 생성형 AI 서비스를 확장한다”고 전했다.
작성일 : 2023-11-29
머신러닝용 아마존 EC2 캐퍼시티 블록에 엔비디아 H100 GPU 탑재
엔비디아는 아마존웹서비스(AWS)와 협력해 차세대 머신러닝 워크로드용 아마존 EC2 캐퍼시티 블록(Amazon Elastic Compute Cloud Capacity Blocks)에 자사의 H100 텐서 코어 GPU를 탑재한다고 밝혔다. 이번 협력을 통해 고객들은 아마존 일래스틱 컴퓨트 클라우드(EC2)로 고성능 머신러닝 워크로드용 아마존 EC2 울트라클러스터(UltraCluster)에 구축된 수백 개의 엔비디아 GPU를 확보할 수 있다. 머신러닝의 발전으로 모든 규모의 산업 분야 조직은 새로운 제품을 개발하고 비즈니스를 혁신할 수 있는 기회가 생겼다. 기존 머신러닝 워크로드에는 상당한 컴퓨팅 용량이 필요하다. 여기에 생성형 AI의 등장으로 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 훈련하는 데 사용되는 방대한 데이터세트를 처리하기 위해서는 보다 더 큰 컴퓨팅 용량이 요구된다. GPU 클러스터는 병렬 처리 기능이 결합돼 훈련과 추론 프로세스를 가속화함으로써 이 과제에 적합하다. 머신러닝용 아마존 EC2 캐퍼시티 블록은 새로운 소비형 아마존 EC2 사용 모델로, GPU 인스턴스에 쉽게 액세스해 머신러닝과 생성형 AI 모델을 훈련하고 배포할 수 있도록 함으로써 머신러닝을 대중화하는 데에 기여할 수 있다. EC2 캐퍼시티 블록을 통해 고객은 고성능 머신러닝 워크로드로 설계된 EC2 울트라클러스터에 배치된 수백 개의 엔비디아 GPU를 예약할 수 있다. 페타비트(peta-bit) 규모의 논블로킹(non-blocking) 네트워크에서 EFA(Elastic, Fabric Adapter) 네트워킹을 사용해 아마존 EC2에서 사용 가능한 높은 네트워크 성능을 제공할 수 있다. EC2 캐퍼시티 블록은 최대 8주 전에 미리 확보할 수 있으며, 예약 가능한 총 일수는 1일 단위로 1~14일이다. EC2 캐퍼시티 블록은 1~64개 인스턴스(512개 GPU)의 클러스터 크기로 엔비디아 H100 텐서 코어 GPU 기반의 아마존 EC2 P5 인스턴스에서 사용할 수 있다. 이를 통해 고객은 광범위한 머신러닝 워크로드를 유연하게 실행하고 필요한 GPU 시간만큼만 비용을 지불할 수 있다. EC2 캐퍼시티 블록은 고객이 중요한 머신러닝 프로젝트에 필요한 GPU 컴퓨팅 용량에 안정적이고 예측 가능하며 중단 없이 액세스할 수 있도록 지원한다. EC2 캐퍼시티 블록을 통해 EC2에서 머신러닝을 훈련하기 위한 높은 성능을 제공하는 EC2 P5 인스턴스를 예측 가능하도록 쉽게 이용할 수 있다. 또한 이를 통해 몇 번의 클릭만으로 GPU 인스턴스를 확보하고 머신러닝 개발을 계획할 수 있다. EC2 캐퍼시티 블록이 예약되면, 고객은 필요할 때 GPU 용량을 확보할 수 있다는 것을 알고 확실하게 머신러닝 워크로드 배포를 계획할 수 있다. 더불어 EC2 캐퍼시티 블록은 머신러닝 모델을 훈련하고 미세 조정과 짧은 실험, 향후 머신러닝 애플리케이션에 대한 수요 급증에 대비하기 위해 용량 보장이 필요할 때 사용될 수 있다. 또는 비즈니스 핵심 애플리케이션, 규제 요구 사항 또는 재해 복구 등 컴퓨팅 용량 보장이 필요한 다른 모든 워크로드 유형에 대해 온디맨드 용량 예약(On-Demand Capacity Reservations)을 계속 사용할 수 있다. EC2 캐퍼시티 블록은 AWS 미국 동부 오하이오 지역에서 사용할 수 있으며, 향후 다른 지역으로 확대될 예정이다.
작성일 : 2023-11-03