• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "슈퍼컴퓨터"에 대한 통합 검색 내용이 167개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, “새로운 HPC 클러스터로 AI 처리 능력 2배 향상”
인텔은 델 테크놀로지스, 엔비디아, 오하이오 슈퍼컴퓨터 센터(OSC)와 협업한 결과로 최첨단 고성능 컴퓨팅(HPC) 클러스터인 카디널(Cardinal)을 공개했다. 카디널은 연구, 교육 및 산업 혁신, 특히 인공지능(AI) 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 설계되었다. AI와 머신러닝은 과학, 공학, 바이오 의학 분야에서 복잡한 연구 문제를 해결하기 위해 필수로 활용되고 있다. 이러한 기술의 효능이 지속적으로 입증되면서 농업 과학, 건축학, 사회학과 같은 학문 분야에서도 활용도 늘어나고 있다. 카디널 클러스터는 증가하는 AI 워크로드의 수요를 충족할 수 있는 하드웨어를 갖추고 있다. 인텔은 이 새로운 클러스터가 “2016년에 출시된 오웬스 클러스터(Owens Cluster)를 대체할 시스템보다 기능과 용량 모든 면에서 더 대규모의 업그레이드가 될 것”이라고 밝혔다.     카디널 클러스터는 메모리 사용량이 많은 HPC 및 AI 워크로드를 효율적으로 관리하는 동시에 프로그래밍 기능, 이식성(portability) 및 에코시스템 채택을 촉진하는 기반이 되는 델 파워엣지(Dell PowerEdge) 서버와 고대역폭 메모리(HBM)를 갖춘 인텔 제온 CPU 맥스 시리즈(Intel Xeon CPU Max Series)를 활용한 이기종 시스템이다. 이 시스템은 총 3만 9312 개의 CPU 코어를 제공하는 756개 맥스 시리즈(Max Series) CPU 9470 프로세서와 128 기가바이트(GB) HBM2e 및 노드 당 512 GB의 DDR5 메모리를 탑재했다. 단일 소프트웨어 스택과 x86 기반 기존 프로그래밍 모델을 갖춘 이 클러스터는 광범위한 사용 케이스를 처리하고 쉽게 도입 및 배포할 수 있도록 지원하면서 OSC의 처리 능력을 두 배 이상 향상시킬 수 있다. 또한, 이 시스템은 32개의 노드로 104개의 코어, 1테라바이트(TB)의 메모리, 4개의 NV링크(NVLink) 연결로 상호 연결된 94GB HBM2e 메모리를 갖춘 엔비디아 호퍼 아키텍처 기반 H100 텐서 코어(H100 Tensor Core) GPU 4개를 탑재했다. 초당 400기가비트(Gbps)의 네트워킹 성능과 짧은 지연 시간을 제공하는 엔비디아 퀀텀-2(Nvidia Quantum-2) 인피니밴드(InfiniBand)로 대규모 AI 기반 과학 애플리케이션을 위한 500페타플롭(petaflop)의 최고 AI 성능(희소성 포함 FP8 텐서 코어)을 제공하며, 16개의 노드에 104개의 코어, 128GB HBM2e 및 2TB DDR5 메모리를 탑재해 대규모 대칭형 멀티프로세싱(SMP) 스타일 작업을 처리할 수 있다. 인텔의 데이터 센터 AI 솔루션 제품군을 총괄하는 오기 브르기치(Ogi Brkic) 부사장은 “인텔 제온 CPU 맥스 시리즈는 널리 채택된 AI 프레임워크와 라이브러리를 활용하여 HPC 및 AI 워크로드를 개발하고 구현하는 데 최적의 선택지”라면서, “이 시스템의 고유한 이기종성을 통해 OSC의 엔지니어, 연구원 및 과학자들이 이 시스템이 제공하는 두 배 이상 메모리 대역폭 성능을 최대한 활용할 수 있도록 지원할 것”이라고 전했다.
작성일 : 2024-02-23
설계-해석 통합 플랫폼, RNTier CAP
설계-해석 통합 플랫폼, RNTier CAP   주요 CAE 소프트웨어 소개   ■ 개발 및 자료 제공 : 클루닉스, 02-3486-5896, www.clunix.com RNTier CAP(Centralized Analysis Platform)는 여러 대의 서버를 고성능 병렬 컴퓨터로 구성하고, 그 위에 다양한 상용 애플리케이션 및 In-house 코드를 설치하여 웹 브라우저로 용이하게 접근, 사용할 수 있게 하는 RNTier의 해석 모듈이다.  RNTier CAP는 엔지니어링 연구 분야의 다양한 시뮬레이션 소프트웨어를 SaaS 클라우드 방식으로 제공하며, 이를 통하여 다양한 시뮬레이션 작업을 고속으로 수행할 수 있다. 1. 주요 기능  ■ 고속 원격 그래픽 기능 ■ 라이선스 모니터링 기능 ■ 데이터 통합 관리 기능 ■ 설계 소프트웨어 작업 환경 관리 기능 ■ 3D 설계 서비스 자동 관리 기능 ■ 유휴 자원 회사 기능 등  2. 구축 사례 (1) 삼성전자 삼성전자는 해석 업무 향상을 위해 RNTier를 도입했다.   1)  도입 배경  ■ 외부 슈퍼컴퓨터 활용에 따른 불편 사항 발생  ■ 자원 할당의 대기시간이 발생하여 대규모 해석 작업을 위한 자원 부족  ■ 빠른 해석 작업을 위한 부서 전용 해석 시스템 필요  ■ 고성능 슈퍼컴퓨터 기술을 이용한 해석 및 설계 성능 향상 필요  2) 도입 효과  ■ 기존의 시스템 성능 부족으로 하지 못했던 대규모 해석 작업 가능  ■ 동시에 대량으로 작업 처리 가능  ■ 해석 업무 절차를 자동화하여 업무 속도 향상  ■ 고속 병렬 클러스터 컴퓨팅 시스템의 활용으로 해석 작업 시간 대폭 감소  ■ 제출된 해석 작업의 실시간 작업 모니터링 가능  ■ 중앙에 전체 서버 자원을 집중시키고, 전체/개인/부서/프로젝트 단위  또는 용도별로 그룹화하여 자원을 분할, 할당 및 재구성   좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2023-12-31
HPE, 생성형 AI를 위한 슈퍼컴퓨팅 솔루션 턴키로 제공
HPE가 생성형 AI를 위한 슈퍼컴퓨팅 솔루션을 발표했다. 이 솔루션은 대기업, 연구기관 및 정부 기관을 대상으로 한 생성형 AI에 최적화되었으며, 이를 통해 프라이빗 데이터 세트를 활용하여 인공지능(AI) 모델의 훈련과 조정을 효율적으로 가속화할 수 있다. HPE의 슈퍼컴퓨팅 솔루션은 소프트웨어 제품군을 통해 고객이 AI 모델을 훈련하고 조정하며 AI 애플리케이션을 개발하는 데 도움이 되는 기능을 한다. 더불어, 수냉식 슈퍼컴퓨터, 가속 연산, 네트워킹, 스토리지, 서비스를 포함하여 기업이 AI의 가치를 신속하게 실현할 수 있도록 종합적인 지원을 제공한다. 생성형 AI용 슈퍼컴퓨팅 솔루션의 핵심 구성요소는 AI 애플리케이션을 개발하고, 사전 구성된 모델을 맞춤화하며, 코드를 개발하고 수정하는 데 필요한 소프트웨어 도구이다. 이 소프트웨어는 HPE 크레이 슈퍼컴퓨팅 기술을 기반으로 하고 있다. HPE 크레이 슈퍼컴퓨팅 기술은 빠른 슈퍼컴퓨팅에도 사용되는 아키텍처를 기반으로 하고 있으며, 엔비디아 그레이스 호퍼 GH200 슈퍼칩(NVIDIA Grace Hopper GH200 Superchips)으로 구동된다. 이러한 기술이 적용된 솔루션을 바탕으로 기업 및 기관들은 LLM(대규모 언어 모델) 및 DLRM(딥러닝 추천 모델) 훈련과 같이 거대한 AI 워크로드에 필요한 규모와 성능을 구축할 수 있다. 또한 해당 시스템에 포함된 HPE 머신러닝 개발 환경(MLDE)을 사용함으로써 오픈소스이자 700억개 매개 변수를 가진 라마(Llama) 2 모델을 3분 이내에 미세 조정할 수 있어 고객이 가치 창출에 이르는 시간을 단축시켜준다. 이로써 엔비디아 기술과 함께 더욱 향상된 HPE 슈퍼컴퓨팅은 2~3배 향상된 성능을 제공한다. 생성형 AI를 위한 HPE의 슈퍼컴퓨팅 솔루션은 목적에 맞게 구축된 통합형 AI 네이티브 제품으로 엔드 투 엔드 기술 및 서비스를 제공한다. AI/ML 가속화를 위한 3개의 소프트웨어 툴이 포함된 제품군을 활용해 고객은 인공지능 모델을 훈련하고, 조정하며, 맞춤화된 AI 애플리케이션을 만들 수 있다. HPE 머신러닝 개발 환경은 머신러닝 소프트웨어 플랫폼으로, 인기 있는 머신 러닝 프레임워크와 통합하고 데이터 준비를 간소화해 AI 모델을 보다 빠르게 개발하고 배치할 수 있다. 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)는 보안, 안정성, 관리 및 지원 기능을 기반으로 기업과 기관이 최첨단 AI 기술을 더 적극적으로 사용할 수 있도록 돕는다. 또한, 생산용 AI의 개발 및 배치를 간소화하는 광범위한 프레임워크, 사전 훈련된 모델과 도구를 제공한다. 엑사스케일 수준의 시스템인 HPE 크레이 EX2500(HPE Cray EX2500)을 기반으로 엔비디아 GH200 그레이스 호퍼 슈퍼칩을 탑재한 이 솔루션은 가치 실현 시간을 더욱 단축할 수 있도록 단일 AI 워크로드에 노드 전체 용량을 배치할 수 있으며, 최대 수천 개의 GPU까지 확장할 수 있다. 또한, 이 시스템은 최초로 네 개의 GH200 수퍼칩 노드로 구성되어 제공된다. HPE 슬링샷 인터커넥트(HPE Slingshot Interconnect)는 엑사스케일 수준의 워크로드를 지원하도록 설계된 개방형 이더넷 기반 고성능 네트워크를 제공한다. HPE 크레이 기술을 기반으로 한 이 조정 가능한 상호연결은 매우 빠른 속도의 네트워킹을 가능하게 해 전체 시스템의 성능을 극대화한다. 생성형 AI용 슈퍼컴퓨팅 솔루션에는 더욱 간편하게 AI를 도입할 수 있도록 설정, 설치에서 라이프사이클 전반을 지원하는 글로벌 전문가를 제공하는 ‘HPE 컴플리트 케어 서비스(HPE Complete Care Services)’도 포함된다. HPE의 저스틴 호타드(Justin Hotard) 수석 부사장 겸 HPC·AI & Labs 총괄은 “세계 유수의 기업과 연구소들은 AI 모델의 훈련과 조정을 통해 연구 분야에서 혁신을 이끌어 내고 있으며, 이를 효과적이고 효율적으로 수행하기 위해서는 목적에 맞게 구축된 솔루션이 필요하다”며, “생성형 AI를 활용하기 위해서 기업 및 기관들은 지속가능한 솔루션을 사용하고, 슈퍼컴퓨터에 최적화된 성능과 규모를 기반으로 AI 모델 훈련을 지원해야 한다. HPE는 엔비디아와의 협력을 확대해 고객이 AI 모델 훈련과 성과 달성을 더욱 가속화할 수 있도록 지원하는 턴키 AI 네이티브 솔루션을 제공하게 돼 기쁘다”고 밝혔다. 엔비디아의 이안 벅(Ian Buck) 하이퍼스케일 및 HPC 부문 부사장은 “생성형 AI는 모든 산업과 과학 분야에 변화를 일으키고 있다”며, “엔비디아 GH200 그레이스 호퍼 슈퍼칩으로 구동되는 턴키 AI 훈련 및 시뮬레이션 솔루션을 위한 엔비디아와 HPE의 협력은 고객이 생성형 AI 이니셔티브의 돌파구를 마련하는데 필요한 성능을 제공할 것”이라고 말했다.
작성일 : 2023-11-20
엔비디아, DGX 클라우드로 생성형 AI 훈련 사용 확대
엔비디아가 엔비디아 DGX 클라우드(NVIDIA DGX Cloud)로 생성형 AI 훈련에 새 지평을 열었다고 발표했다. 이제 DGX 클라우드는 미국과 영국에 위치한 엔비디아 인프라뿐만 아니라 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure)에 있는 수천 개의 엔비디아 GPU를 통해 온라인에서도 광범위하게 사용할 수 있다. 지난 3월 엔비디아 GTC 기조연설에서 공개된 DGX 클라우드는 AI 슈퍼컴퓨팅 서비스이다. 엔비디아 DGX 클라우드는 대부분의 기업을 AI 기업으로 전환할 수 있는 툴을 제공하며, 이를 통해 기업은 생성형 AI와 기타 혁신적인 애플리케이션의 사용을 위해 고급 모델을 훈련할 때 필요한 인프라와 소프트웨어에 즉시 액세스할 수 있다.  무어 인사이트 & 스트래티지 (Moor Insight & Strategy)의 수석 애널리스티인 팻 무어헤드(Pat Moorhead)는 “생성형 AI는 모든 산업 분야의 선도 기업들에게 신속한 AI 도입을 비즈니스 필수 요소로 만들었으며, 이로 인해 많은 기업이 더욱 가속화된 컴퓨팅 인프라를 찾고 있다"고 말했다. 글로벌 경영 컨설팅 업체인 맥킨지(McKinsey)는 생성형 AI가 전 세계 산업 전반에 걸친 독점적인 비즈니스 지식을 차세대 AI 애플리케이션으로 전환해 매년 4조 달러 이상의 경제 가치를 창출할 수 있다고 전망했다. 생성형 AI로 비즈니스 혁신 주도 생성형 AI는 대부분의 산업에서 활용 가능하며, 초기 선구자들은 이미 시장 전반에 걸쳐 혁신적인 변화를 주도하고 있다. 헬스케어 기업은 DGX 클라우드를 사용해 단백질 모델을 생성한다. 이로써 자연어 처리를 통한 신약 개발과 임상 보고 속도를 높인다.  금융 서비스 제공업체는 트렌드 예측, 포트폴리오 최적화, 추천 시스템 구축, AI챗봇 개발 등에 DGX 클라우드를 활용한다. 또한 보험사는 DGX 클라우드로 보험금 청구 처리를 자동화하는 모델을 구축하고 있으며, 소프트웨어 회사는 AI 기반 기능과 애플리케이션을 개발하는 데 DGX 클라우드를 사용하고 있다.  이외 다른 기업들도 DGX 클라우드를 통해 AI 팩토리와 주요 자산의 디지털 트윈을 구축하고 있다. 즉시 사용 가능한 전용 AI 슈퍼컴퓨팅 DGX 클라우드 인스턴스(instances)는 기업이 월 단위로 임대하는 전용 인프라를 제공한다. 이를 통해 고객은 수요가 많은 가속 컴퓨팅 리소스를 기다릴 필요 없이 대규모 멀티노드(multi-node) 훈련 워크로드를 빠르고 쉽게 개발할 수 있다. 무어헤드는 "엔비디아 DGX 클라우드 출시로 즉각적으로 액세스 가능한 새로운 AI 슈퍼컴퓨팅 리소스 풀을 제공됐다"고 전했다. 이러한 AI 슈퍼컴퓨팅에 대한 간단한 접근 방식은 온프레미스(on-premises) 인프라의 획득, 배포, 관리의 복잡성을 제거한다. DGX 클라우드는 엔비디아 DGX AI 슈퍼컴퓨팅과 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어가 결합된 형태로, 기업들이 어디서나 웹 브라우저를 사용해 자체 AI 슈퍼컴퓨터에 액세스할 수 있도록 지원한다. 브라우저 기반 엔비디아 AI 슈퍼컴퓨팅과 소프트웨어 DGX 클라우드의 각 인스턴스는 노드당 640GB의 GPU 메모리를 위한 8개의 엔비디아 80GB 텐서 코어(Tensor Core) GPU를 갖추고 있다. 고성능, 저지연 패브릭은 상호 연결된 시스템 클러스터에서 워크로드를 확장할 수 있도록 보장해 여러 인스턴스가 하나의 대규모 GPU처럼 작동할 수 있다. 여기에 고성능 스토리지가 DGX 클라우드에 통합돼 완전한 솔루션을 제공한다. 엔비디아 베이스 커맨드 플랫폼(Base Command Platform) 소프트웨어를 사용해 기업들은 DGX 클라우드 훈련 워크로드를 관리하고 모니터링한다. 이 플랫폼은 DGX 클라우드와 온프레미스 엔비디아 DGX 슈퍼컴퓨터 전반에서 원활한 사용자 경험을 제공하므로 기업은 필요할 때 리소스를 결합할 수 있다. 또한 DGX 클라우드에는 엔비디아 AI 플랫폼의 소프트웨어 계층인 엔비디아 AI 엔터프라이즈가 포함된다. 엔비디아 AI 엔터프라이즈는 데이터 사이언스 파이프라인을 가속화하고 프로덕션 AI의 개발과 배포를 간소화하기 위해 100개 이상의 엔드투엔드 AI 프레임워크와 사전 학습된 모델을 제공한다.  
작성일 : 2023-07-27
마이크로소프트, 양자 슈퍼컴퓨터 혁신 가속화 위한 로드맵 발표
  ▲마이크로소프트 애저 퀀텀 개발 랩(lab)의 저온 유지 장치(cryostat)   “양자기술, AI 결합해 화학 발전 250년을 25년으로 압축”   마이크로소프트가 과학적 발견을 가속화하기 위한 새로운 양자 서비스를 공개하고, 양자 슈퍼컴퓨터 구축을 위한 로드맵을 발표했다. 마이크로소프트는 이날 화학 회사가 신소재 연구 및 개발 속도를 높일 수 있도록 돕는 ‘애저 퀀텀 엘리먼트(Azure Quantum Elements)’와 양자기술에 인공지능(AI)을 적용한 ‘애저 퀀텀 코파일럿(Copilot in Azure Quantum)’을 소개했다. 사티아 나델라(Satya Nadella) 마이크로소프트 CEO 겸 이사회 의장은 온라인 브리핑을 통해 “AI로 발전된 추론 기능이 가장 보편적인 사용자 인터페이스인 자연어와 결합되어 새 컴퓨팅 시대를 만들고 있으며, 최근 양자컴퓨팅의 발전으로 가장 다루기 힘든 문제를 해결할 수 있는 확장 가능한 양자 머신에 대한 약속에 그 어느 때보다 가까워지고 있다”라며, “오늘 마이크로소프트는 애저 퀀텀 엘리먼트를 발표하고 처음으로 AI와 양자를 결합함으로써 과학적 발견의 새로운 시대를 열게 됐다”라고 전했다.   애저 퀀텀 엘리먼트 애저 퀀텀 엘리먼트는 고성능 컴퓨팅(HPC, High-performance computing), AI, 양자컴퓨팅의 최신 혁신 기술을 통합해 과학적 발견을 가속화한다. 과학자와 제품 개발자는 애저 퀀텀 엘리먼트를 통해 다음과 같은 결과를 기대할 수 있다.   -   R&D 파이프라인을 가속화하고 혁신 제품을 더 빠르게 시장에 출시해 시간과 비용을 줄일 수 있다. 일부 고객은 프로젝트 시작부터 솔루션 출시까지 6개월에서 1주일로 단축 효과를 기대하고 있다. -  신소재를 찾는 검색 공간을 극적으로 늘릴 수 있다. 이는 수천개의 후보에서 수천만개로 확장할 수 있는 잠재력을 갖는다. -  특정 화학 시뮬레이션 속도를 50만 배까지 높일 수 있으며, 이는 1년을 1분으로 압축하는 것과 같다. -  AI와 HPC로 오늘날 양자 화학 문제를 해결하는 동시에 기존 양자 하드웨어 실험을 지속하고 향후 마이크로소프트의 양자 슈퍼컴퓨터에 대한 우선적인 액세스를 통해 확장된 양자컴퓨팅에 대비할 수 있다.   연구자들은 이 포괄적인 시스템을 사용해 전례 없는 규모, 속도, 정확성으로 화학 및 재료 과학을 발전시켜 나갈 수 있다. 규모면에서 과학자들은 애저 퀀텀 엘리먼트를 통해 제품 생산에 필요한 복잡한 반응을 이해하고, 새로운 후보물질을 찾고, 전체 프로세스를 최적화할 수 있다. 예를 들어, 5만개의 기본 단계로 구성된 복잡한 반응에서 150만개의 잠재적 구성을 탐색할 수 있다. 속도면에서는 수백만개의 화학 및 재료 데이터를 학습한 마이크로소프트의 화학용 AI 모델이 애저 퀀텀 엘리먼트에 통합되어 시뮬레이션이 빨라진다. 이 모델은 생성 AI와 같은 기술을 기반으로 하는데, 코파일럿이 인간의 언어를 이해하는 것처럼 자연의 언어인 화학을 이해한다. 정확도면에서는 기존 컴퓨팅과 양자컴퓨팅을 통합해 시뮬레이션 정확도를 훨씬 더 높일 수 있는 진입로를 제공한다. 애저 퀀텀 엘리먼트는 6월 30일 프라이빗 프리뷰로 제공될 예정이다. AI, HPC 및 미래 양자 기술에 대한 마이크로소프트 소프트웨어를 기반으로 화학 및 재료 과학자들이 필요로 하는 속도를 지원할 수 있을 것으로 보고 있다.   애저 퀀텀 코파일럿 애저 퀀텀 코파일럿은 과학자가 자연어를 사용해 복잡한 화학 및 재료 과학 문제를 추론할 수 있도록 지원한다. 더 안전하고 지속 가능한 제품을 만들고, 신약 개발을 돕거나 지구상에서 가장 시급한 문제를 해결하는 등 과학적 발견을 혁신하고 가속화하는 것을 목표로 한다. 과학자는 애저 퀀텀 코파일럿을 통해 현재 사용하는 도구와 완전히 통합된 클라우드 슈퍼컴퓨팅, 고급 AI, 양자 패브릭을 기반으로 복잡한 작업을 수행할 수 있다. 코파일럿은 기본적인 계산 및 시뮬레이션 생성, 데이터 쿼리 및 시각화, 복잡한 개념에 대한 가이드 답변 등을 지원한다. 또한 애저 퀀텀 코파일럿은 복잡한 과정을 보다 쉽게 관리하고 누구나 양자, 화학 및 재료 과학을 탐구할 수 있도록 설계됐다. 코파일럿은 양자컴퓨팅 학습과 양자컴퓨터용 코드 작성을 돕는다. 내장된 코드 편집기, 양자 시뮬레이터, 코드 컴파일러를 무료로 사용해 볼 수 있는 통합 브라우저 기반 환경을 제공한다.   마이크로소프트의 양자 슈퍼컴퓨터 로드맵 마이크로소프트는 ▲기초(Foundational) ▲회복탄력(Resilient) ▲확장(Scale)을 포함하는 3가지 범주의 양자컴퓨팅 구현 단계를 소개하고, 6가지 마일스톤으로 구성된 로드맵을 발표했다. 이를 통해 향후 250년의 화학 및 재료 과학 발전을 25년으로 압축할 수 있을 것으로 기대하고 있다.   ▲마이크로소프트 양자 슈퍼컴퓨팅 구축 로드맵   먼저 기초 단계(Level-1)는 노이즈가 있는 물리적 큐비트(qubit)에서 실행되는 양자 시스템으로 현재 모든 NISQ (Noisy Intermediate Scale Quantum)가 여기에 포함된다. 회복탄력 단계(Level-2)는 안정적인 논리적 큐비트에서 작동하는 양자 시스템이 해당된다. 마지막 확장 단계(Level-3)는 기존 슈퍼컴퓨터에서 다루지 못한 중요한 문제를 해결할 수 있는 양자 슈퍼컴퓨터 단계다.   ▲마이크로소프트 양자컴퓨팅 구현 단계   이날 마이크로소프트는 미국물리학회(American Physical Society) 저널 상호심사를 거친 데이터를 발표했다. 이에 따르면 이제 마요라나(Majorana) 준입자를 생성하고 제어할 수 있게 됐다. 이는 마이크로소프트가 하드웨어로 보호되는 새로운 큐비트 엔지니어링을 위한 목표를 잘 수행하고 있음을 보여주며, 양자 슈퍼컴퓨터를 향한 첫 번째 이정표를 달성했음을 의미한다. 마이크로소프트는 앞으로 신뢰할 수 있는 논리적 큐비트를 엔지니어링하고, 그 다음 레벨인 회복탄력 단계와 확장 단계로 나아갈 예정이다. 더불어 마이크로소프트는 슈퍼컴퓨터의 성능을 측정하는 새 기준을 제시했다. 흔히 물리적 또는 논리적 큐비트 단위를 세는 것으로 슈퍼컴퓨터의 성능을 측정하는데, 마이크로소프트는 초당 얼마나 많은 안정적인 연산을 실행할 수 있는지를 측정하는 rQOPS (reliable Quantum Operations Per Second) 메트릭을 제공한다. 이는 큐비트 성능만이 아닌 전체 시스템 성능을 고려하므로 알고리즘이 올바르게 실행될 것이라는 확신을 제공한다. 마이크로소프트 기준에 따르면, 오늘날 산업은 아직 NISQ에 해당되므로, 모두 rQOPS가 0인 기초 단계에 있다. 최초의 양자 슈퍼컴퓨터는 최소 100만 rQOPS를 필요로 할 것으로 보이며, 중대한 화학 및 재료 과학 문제를 해결하기 위해서는 이를 10억 이상으로 확장해야 한다. 한편 마이크로소프트는 회사의 책임 있는 AI 원칙을 양자에도 적용한다. 애저 퀀텀 엘리먼트와 같은 신규 서비스를 개발하고 최초의 양자 슈퍼컴퓨터를 엔지니어링하는 프로세스 전반에 걸쳐 피드백을 통합하는 엄격한추가 조치를 적용할 계획이다.      
작성일 : 2023-06-24
HPE, 대규모 언어모델을 위한 AI 클라우드 공개
HPE가 자사의 연례행사인 'HPE 디스커버 라스베가스 2023'에서 대규모 언어모델을 위한 제품 ‘LLM용 HPE 그린레이크 (HPE GreenLake for LLM)’을 공개하면서, HPE 그린레이크의 포트폴리오 확장 및 AI 클라우드 시장 진출을 밝혔다. 이번에 공개된 대규모 언어모델(LLM)을 위한 HPE 그린레이크는 AI 소프트웨어와 고성능의 슈퍼컴퓨터를 함께 활용할 수 있는 지속가능한 슈퍼컴퓨팅 플랫폼이다. HPE는 스타트업부터 포춘 선정 500대 기업에 이르기까지 다양한 규모의 기업들이 온디맨드 형식으로 멀티 태넌트 슈퍼컴퓨팅 클라우드 서비스를 이용할 수 있도록 지원한다는 계획이다. HPE LLM용 그린레이크는 알레프 알파(Aleph Alpha)의 사전 훈련된 대규모 언어모델인 루미너스(Luminous)에 대한 접근도 제공하며, 이 모델은 영어, 프랑스어, 독일어, 이탈리아어 및 스페인어 등 다양한 언어로 서비스된다. 또한 고객들은 이를 활용해 자사 데이터를 활용하고 맞춤형 모델을 훈련 및 미세조정(Fine-tune)하며 예측가능한 정보를 바탕으로 실시간 인사이트를 도출해 낼 수 있다. 기업들은 이 서비스를 통해 다양한 시장에 맞게 AI 애플리케이션을 구축하고 워크플로에 통합시켜 비즈니스 및 연구를 기반으로 한 가치를 창출할 수 있다. HPE LLM용 그린레이크는 HPE 크레이 XD 슈퍼컴퓨터(HPE Cray XD supercomputers)에서 구동되며 온디맨드로 이용 가능하다. 이를 통해 고객들은 비용이 높고 관리가 복잡하며 전문 기술이 필요한 슈퍼컴퓨터를 자체적으로 구매하거나 관리할 필요가 없어졌다. 이 서비스는 HPE 크레이 프로그래밍 환경(HPE Cray Programming Environment)을 통해 제공되는데 HPE 크레이 프로그래밍 환경은 소프트웨어 제품군에 통합된 서비스로 HPC 및 AI 애플리케이션을 최적화해주며 개발, 포팅(porting), 디버깅 및 코드 조정을 위한 툴셋을 제공한다. 이에 더해, 슈퍼컴퓨팅 플랫폼은 HPE의 AI/ML 소프트웨어를 제공한다. 그 중 HPE 머신러닝 개발 환경(HPE Machine Learning Development Environment)은 대규모 모델을 빠르게 훈련하는 것을 돕고, HPE 머신러닝 데이터 매니지먼트 소프트웨어(HPE Machine Learning Data Management Software)는 재현가능한(reproducible) AI 역량을 바탕으로 데이터를 통합, 추적 및 검사함으로써 믿을 수 있고 정확한 모델을 생성할 수 있도록 한다. HPE의 LLM용 그린레이크는 기업이 자체적으로 대규모 AI 모델을 훈련, 조정 및 배포할 수 있게 한다. HPE는 고객들이 업계에서 검증된 LLM을 바로 사용할 수 있도록 독일 AI 스타트업 파트너 알레프 알파(Aleph Alpha)와 협력해 LLM용 HPE 그린레이크를 제공할 계획이다. HPE는 "기업들이 텍스트와 이미지 처리 및 분석이 필요한 사용사례 개발에 박차를 가하도록 지원할 것"이라고 전했다. 또한, HPE는 향후 기후 모델, 헬스케어, 생명과학, 금융 서비스, 제조 및 운송에 이르기까지 다양한 업계 및 도메인에 특화된 AI 애플리케이션 시리즈를 출시할 예정이다. HPE의 LLM 그린레이크는 컴퓨팅 역량을 최대로 활용해 대규모 단일 AI 트레이닝 및 시뮬레이션 워크로드를 처리할 수 있도록 특별히 제작된 AI 네이티브 아키텍처에서 구동된다. 이 제품은 수백에서 수천 개의 CPU 또는 GPU에서 구동되던 AI 및 HPC 업무를 한 번에 지원할 수 있다. HPE는 이러한 역량이 AI를 훈련하고 더욱 정확한 모델을 생성하는데 있어 더욱 효과적이며, 신뢰할 수 있고 효율적이라는 점을 내세운다. 또한, 기업들이 이를 통해 개념검증(POC) 단계에서 생산에 이르기까지 모든 과정을 더욱 가속화하여 기업이 직면한 문제를 더욱 빠르게 처리할 수 있게 될 것으로 기대했다. 한편, HPE는 LLM을 훈련하고 조정할 수 있는 HPE LLM용 그린레이크에 더해 AI 추론 컴퓨팅 솔루션도 공개했다. 이 시스템은 에지의 컴퓨터 비전이나 생성형 시각적 AI 및 자연어 처리 AI 등 에지와 데이터센터 내에 있는 워크로드를 타기팅하도록 조정되었다. 해당 제품은 HPE 프로라이언트 Gen11 서버에 기반을 두고 있다. HPE 프로라이언트 Gen11은 한층 더 발전된 GPU 가속화 역량을 통합할 수 있도록 맞춤 설계되었으며 이는 AI 성능에 핵심적이다. HPE 프로라이언트 DL380a와 DL 380 Gen11서버는 이전 모델보다 5배 더 뛰어난 AI 추론 역량을 지원한다. HPE는 이 추론 컴퓨팅 솔루션이 유통, 숙박, 제조, 미디어 및 엔터테인먼트에 이르기까지 다양한 산업들의 가치창출을 더욱 가속화할 수 있도록 지원할 수 있을 것으로 보고 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 "오늘날 우리는 웹, 모바일 및 클라우드만큼 혁신적인 AI 시장의 세대 변화를 마주하고 있다. HPE의 입증된 지속가능한 슈퍼컴퓨팅에서 구동되는 LLM 등 다양한 AI 애플리케이션을 제공함으로써, HPE는 자금력이 풍부한 정부출연연구소나 글로벌 클라우드 대기업의 전유물이었던 AI를 HPE의 검증된 슈퍼컴퓨터를 통해 모두가 접근할 수 있는 영역으로 만들고 있다"면서, "이제 많은 기관과 기업들은 온디맨드 클라우드 서비스를 통해 AI 모델을 훈련, 조정 및 배포함으로써, AI를 활용해 혁신을 일으키고 시장에 변화를 꾀하고 돌파구를 찾을 수 있게 되었다”고 전했다.
작성일 : 2023-06-22
엔비디아, 대형 AI 모델 개발 지원하는 DGX GH200 슈퍼컴퓨터 발표
엔비디아가 대용량 메모리의 AI 슈퍼컴퓨터 DGX GH200을 발표했다. DGX 슈퍼컴퓨터는 엔비디아 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchip)과 엔비디아 NVLink 스위치 시스템(NVLink Switch System)을 탑재하고, 생성형 AI 언어 애플리케이션과 추천 시스템, 데이터 애널리틱스 워크로드에 사용될 차세대 거대 모델들의 개발을 지원한다. 엔비디아 DGX GH200의 넓은 공유 메모리 공간은 NVLink 인터커넥트 테크놀로지와 NVLink 스위치 시스템으로 GH200 슈퍼칩 256개를 결합해 단일 GPU로 기능하게 한다. 이를 통해 1엑사플롭(exaflop)의 성능과 144테라바이트(terabytes)의 공유 메모리를 제공하는데, 이는 단일 엔비디아 DGX A100 시스템 메모리의 500배에 가까운 용량이다.     GH200 슈퍼칩은 엔비디아 NVLink-C2C 칩 인터커넥트를 이용해 Arm 기반 엔비디아 그레이스(Grace) CPU와 엔비디아 H100 텐서 코어(Tensor Core) GPU를 동일 패키지에 결합하므로, 기존처럼 CPU와 GPU를 PCIe로 연결할 필요가 없다. 이에 따라 GPU와 CPU 간 대역폭이 최신 PCIe 기술 대비 7배까지 증가해 상호 연결에 필요한 전력 소비가 5배 넘게 절감된다. 아울러 DGX GH200 슈퍼컴퓨터를 위한 600GB의 호퍼 아키텍처 GPU 빌딩 블록이 확보된다. DGX GH200은 그레이스 호퍼 슈퍼칩과 엔비디아 NVLink 스위치 시스템을 페어링해 시스템 내 모든 GPU가 하나로 작동한다. 이전 세대 시스템에서는 NVLink를 사용해 성능의 저하 없이 결합 가능한 GPU의 개수가 8개에 불과했다. DGX GH200 아키텍처는 이전 세대보다 10배 많은 대역폭과 함께 단일 GPU에 맞먹는 프로그래밍 단순성으로 거대 AI 슈퍼컴퓨터의 강력한 성능을 제공한다. DGX GH200 슈퍼컴퓨터는 엔비디아 소프트웨어를 포함해 턴키(turnkey) 방식의 풀스택 솔루션을 제공하여 최대 규모의 AI와 데이터 애널리틱스 워크로드를 지원한다. 엔비디아 베이스 커맨드(Base Command) 소프트웨어는 AI 워크플로 관리와 엔터프라이즈급 클러스터 관리, 컴퓨팅/스토리지/네트워크 인프라 가속 라이브러리, AI 워크로드 실행에 최적화된 시스템 소프트웨어를 제공한다. DGX GH200에는 엔비디아 AI 엔터프라이즈(AI Enterprise)도 추가된다. 엔비디아 AI 플랫폼의 소프트웨어 레이어인 엔비디아 AI 엔터프라이즈는 100개가 넘는 프레임워크와 사전 훈련 모델, 개발용 툴을 통해 생성형 AI와 컴퓨터 비전, 음성 AI 등을 아우르는 프로덕션 AI의 개발과 배포를 간소화한다. 엔비디아에 따르면 구글 클라우드와 메타, 마이크로소프트가 DGX GH200을 도입해 생성형 AI 워크로드 역량을 탐구한다. 엔비디아는 또한 클라우드 서비스 제공업체와 기타 하이퍼스케일러가 DGX GH200 설계를 청사진으로 삼아 자체 인프라로 커스터마이징할 수 있도록 지원할 계획이다. 한편, 엔비디아는 자사 연구자와 개발팀을 지원할 DGX GH200 기반 AI 슈퍼컴퓨터를 자체 구축 중이다. 엔비디아 헬리오스(Helios)라는 이름의 이 슈퍼컴퓨터에는 DGX GH200 시스템 4개가 탑재된다. 헬리오스 슈퍼컴퓨터의 각 시스템은 최대 400Gb/s의 대역폭을 가진 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹으로 상호 연결해 대규모 AI 모델의 훈련을 위한 데이터 처리량을 극대화한다. 헬리오스는 그레이스 호퍼 슈퍼칩 1024개를 탑재하며, 올해 말 가동을 시작할 예정이다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI와 대규모 언어 모델, 그리고 추천 시스템이 현대 경제의 디지털 엔진이다. DGX GH200 AI 슈퍼컴퓨터는 엔비디아의 가장 진일보한 가속 컴퓨팅과 네트워킹 테크놀로지를 통합해 AI의 영역을 확장한다”고 말했다.
작성일 : 2023-05-30
AMD, "최신 에픽 프로세서와 인스팅트 가속기로 슈퍼컴퓨터 시장 점유율 확장"
AMD는 국제 슈퍼컴퓨팅 콘퍼런스 2023(ISC 2023)에서 자사의 고성능 컴퓨팅(HPC) 솔루션에 대해 발표했다. AMD는 지난 몇 년간 전세계 슈퍼컴퓨터에 에픽(EPYC) 프로세서 및 AMD 인스팅트(AMD Instinct) 가속기를 공급해 왔으며, 최신 톱500(Top500) 리스트 중 총 121개의 슈퍼컴퓨터에 자사의 솔루션을 제공한다고 전했다. AMD 프로세서 및 액셀러레이터가 탑재된 오크리지 국립연구소의 프론티어(Frontier) 슈퍼컴퓨터는 세 번 연속으로 세계에서 가장 빠른 슈퍼컴퓨터로 톱500 리스트에 등재됐다. 프론티어 슈퍼컴퓨터는 지난 2022년 11월 기록으로부터 92 페타플롭스(petaflops) 향상된 1.194 엑사플롭스의 성능을 달성했다. 92 페타플롭스는 톱500 리스트에서 8위 수준에 해당하는 성능이다. 또한, 프론티어는 에너지 효율이 가장 높은 시스템을 선별하는 그린500(Green500) 리스트의 테스트 및 개발 시스템 부문에서 2위, 전체 시스템에서 6위를 기록했다. 프론티어는 2022년 엑사스케일의 장벽을 넘어선 이후, 현재 본격적인 운영 단계에 접어들며 수많은 과학 분야의 혁신을 위한 첨단 연구를 지원할 방침이다. 한편, AMD는 급속도로 증가하는 AI 애플리케이션 수요에 맞춰 최적의 하드웨어 및 소프트웨어 포트폴리오를 제공한다는 계획도 소개했다. 프론티어 및 루미(LUMI) 슈퍼컴퓨터에 탑재된 AMD 인스팅트 MI250X 및 EPYC 프로세서는 HPC 및 AI 워크로드 처리 기능을 측정하는 HPL-MxP 혼합 정밀도 벤치마크(HPL-MxP mixed-precision benchmark)에서 상위 1, 2위를 차지했다. 프론티어는 9.95 엑사플롭스의 혼합 정밀도 컴퓨팅 성능을 달성했으며 지난 기록 대비 2 엑사플롭스 향상된 성능을 보였다. 한편, 루미는 2.2 엑사플롭스의 혼합 정밀도 컴퓨팅 성능을 기록했다. AMD는 하드웨어뿐만 아니라 오픈 소프트웨어 분야에서도 새로운 솔루션을 제공하고 혁신을 만들어 나가기 위해 HPC 및 AI 커뮤니티와 협력하고 있다. AMD ROCm 오픈 소프트웨어 플랫폼은 여러 대규모 HPC 시스템에서 활용되고 있다. 또한, 텐서플로우(TensorFlow) 및 파이토치(PyTorch) 프레임워크에서 대규모 AI 모델에 대한 ROCm 플랫폼이 확산됨에 따라 사용자들은 AMD 인스팅트 가속기에서 AI 워크로드를 보다 빠르게 실행할 수 있다. 지속가능성 및 차세대 시스템 구현에 있어 에너지 효율성이 최우선 과제로 떠오르는 가운데, AMD는 에너지 효율에 대한 새로운 업계 표준을 확립하기 위해 노력하고 있다. 최신 그린500 리스트에서 2~7위를 포함한 상위 10위권 시스템 중 7개의 슈퍼컴퓨터가 AMD EPYC 프로세서 및 인스팅트 가속기를 탑재한다. AMD 플랫폼 기반 루미 슈퍼컴퓨터는 에너지 효율성이 극대화된 대표적인 모델로 유럽에서 가장 빠른 동시에 가장 효율적인 시스템이다. 100% 탄소중립 수력 발전으로 구동되며 잔여 열을 이용해 주변 도시의 전력을 공급한다. AMD의 포레스트 노로드(Forrest Norrod) 데이터 센터 솔루션 그룹 총괄 수석 부사장은 “AMD는 다양한 분야에서 고객들의 난제 해결을 위해 최상의 HPC 솔루션을 선보이고 있다”며, “AMD 에픽 프로세서 및 인스팅트 가속기의 획기적인 성능과 효율성을 바탕으로 주요 파트너사의 새로운 혁신 및 첨단 연구 활동을 가속화하기 위해 앞장서고 있다”고 밝혔다.
작성일 : 2023-05-24
엔비디아-마이크로소프트, 대규모 클라우드 AI 컴퓨터 구축 위해 협력
엔비디아가 강력한 AI 슈퍼컴퓨터를 구축하기 위해 마이크로소프트와 협력한다고 밝혔다. 양사가 만들 슈퍼컴퓨터는 엔비디아 GPU, 네트워킹 및 AI 소프트웨어 풀 스택과 결합된 마이크로소프트 애저(Azure)의 고급 슈퍼컴퓨팅 인프라로, 기업의 대규모 최신 모델을 포함한 AI 훈련과 배포 및 확장을 지원한다. 애저의 클라우드 기반 AI 슈퍼컴퓨터에는 AI 분산 훈련 및 추론에 최적화된 강력하고 확장 가능한 ND 및 NC 시리즈 가상머신이 포함된다. 이는 엔비디아의 고급 AI 스택을 통합한 최초의 퍼블릭 클라우드로, 수만 개의 엔비디아 A100 및 H100 GPU, 엔비디아 퀀텀-2 400Gb/s 인피니밴드(Quantum-2 400Gb/s InfiniBand) 네트워킹 및 엔비디아 AI 엔터프라이즈(Enterprise) 소프트웨어 제품군이 플랫폼에 추가됐다. 협업의 일환으로 엔비디아는 애저의 확장 가능한 가상 머신 인스턴스를 활용해 생성형 AI(Generative AI)의 발전을 연구하고 더욱 가속화한다는 계획이다. 생성형 AI는 메가트론 튜링 NLG 530B(Megatron Turing NLG 530B)와 같은 기본 모델이 새로운 텍스트, 코드, 디지털 이미지, 비디오 또는 오디오를 생성하는 자율 학습 알고리즘의 기반이 되며 AI 분야에서 빠르게 부상하고 있는 분야이다. 또한 양사는 마이크로소프트의 딥스피드(DeepSpeed) 딥 러닝 최적화 소프트웨어의 활용성을 높이기 위해 협력할 예정이다. 애저 엔터프라이즈 고객에게는 애저에 최적화된 엔비디아의 전체 AI 워크플로 및 소프트웨어 개발 키트 스택이 제공된다.     마이크로소프트 애저의 AI 최적화 가상 머신 인스턴스는 엔비디아의 최첨단 데이터 센터 GPU로 설계됐으며, 엔비디아 퀀텀-2 400Gb/s 인피니밴드 네트워킹을 통합한 최초의 퍼블릭 클라우드 인스턴스이다. 고객은 단일 클러스터에 수천 개의 GPU를 배포해 방대한 대규모 언어 모델을 교육하고, 가장 복잡한 추천 시스템을 대규모로 구축하며, 대규모로 생성 AI를 활성화할 수 있다. 현재 애저 인스턴스는 엔비디아 A100 GPU와 함께 엔비디아 퀀텀 200Gb/s 인피니밴드 네트워킹을 제공한다. 미래에는 엔비디아 퀀텀-2 400Gb/s 인피니밴드 네트워킹 및 엔비디아 H100 GPU와 통합될 예정이다. 애저의 고급 컴퓨팅 클라우드 인프라, 네트워킹 및 스토리지와 결합된 이러한 AI 최적화 제품은 모든 규모의 AI 교육과 딥 러닝 추론 워크로드에 대해 확장 가능한 고성능을 제공한다. 또한, 양사가 개발할 플랫폼은 마이크로소프트 딥스피드와 엔비디아 AI 엔터프라이즈 소프트웨어 제품군을 포함한 AI 애플리케이션과 서비스를 지원할 예정이다. 마이크로소프트 딥소프트는 엔비디아 H100 트랜스포머 엔진(H100 Transformer Engine)을 활용한다. 이를 통해 다른 애플리케이션 중에서 대규모 언어 모델, 생성 AI 및 컴퓨터 코드 작성에 사용되는 트랜스포머 기반 모델을 가속화한다. 이 기술은 8비트 부동 소수점 정밀도 기능을 딥스피드에 적용해 16비트 연산 처리량의 2배인 트랜스포머용 AI 계산을 가속화한다. 전 세계적으로 채택된 엔비디아 AI 플랫폼 소프트웨어인 엔비디아 AI 엔터프라이즈는 엔비디아 A100 GPU를 사용하는 마이크로프트 애저 인스턴스에서 인증되고 지원된다. 엔비디아 H100 GPU를 사용하는 애저 인스턴스에 대한 지원은 향후 소프트웨어 릴리스에 추가될 예정이다. 음성 AI용 엔비디아 리바(Riva)와 엔비디아 모피어스(Morpheus) 사이버 보안 애플리케이션 프레임워크를 포함하는 엔비디아 AI 엔터프라이즈는 데이터 처리 및 AI 모델 훈련에서 시뮬레이션과 대규모 배포에 이르는 AI 워크플로의 각 단계를 간소화한다. 엔비디아의 마누비르 다스(Manuvir Das) 엔터프라이즈 컴퓨팅 부사장은 “AI 기술 발전과 산업 채택이 가속화되고 있다. 기초 모델의 혁신은 연구의 물결을 촉발시켰고, 신생 스타트업을 육성했으며, 새로운 엔터프라이즈 애플리케이션을 가능하게 했다. 마이크로소프트와의 협력은 연구원들과 기업들에게 AI의 혁신적인 힘을 활용할 수 있는 최첨단 AI 인프라와 소프트웨어를 제공할 것"이라고 말했다. 마이크로소프트의 스콧 거스리(Scott Guthrie) 클라우드 및 AI 그룹 수석 부사장은 "AI는 기업과 산업용 컴퓨팅 전반에 걸쳐 차세대 자동화 물결을 촉진하고 있으며, 조직이 경제적 불확실성을 다루면서 더 적은 것으로 더 많은 일을 할 수 있도록 한다. 엔비디아와의 협력을 통해 마이크로소프트 애저를 사용하는 모든 기업에 최첨단 AI 기능을 제공하며, 세계에서 가장 확장성이 뛰어난 슈퍼컴퓨터 플랫폼을 구축할 수 있었다"고 전했다.
작성일 : 2022-11-17
AMD, "슈퍼컴퓨터의 성능과 전력 효율 높여 혁신 지원"
AMD는 에픽(EPYC) 프로세서 및 AMD 인스팅트(AMD Instinct) 액셀러레이터를 앞세워 시뮬레이션과 모델링 등 복잡한 워크로드를 지원하며 HPC 분야에서 영향력을 확장해왔다. 최근에는 슈퍼컴퓨팅 콘퍼런스 2022(SC22)에서 고성능 컴퓨팅(HPC) 솔루션 부문 업데이트를 발표했다. AMD의 데이터 센터 솔루션 그룹을 총괄하는 포레스트 노로드(Forrest Norrod) 수석 부사장은 “HPC 기술의 발전은 새로운 혁신을 위한 연구 활동을 촉진시켜 모두의 삶의 질을 향상시키고 사회 전반에 큰 영향을 미친다”며, “AMD는 지속적으로 에픽 프로세서와 인스팅트 액셀러레이터의 혁신을 이루어 여러 난제 해결을 위한 첨단 연구를 지원해나갈 것”이라고 밝혔다.   ▲ AMD 에픽 CPU 및 인스팅트 GPU 가속기 기반의 프론티어 슈퍼컴퓨터   또한, AMD는 전세계 슈퍼컴퓨터 순위를 산정하는 톱500(Top500) 최신 리스트에 AMD 프로세서를 탑재한 슈퍼컴퓨터 101대가 이름을 올렸다고 밝혔다. 이는 2021년 11월 톱500 리스트의 73대보다 38% 늘어난 것이다. AMD 프로세서 및 액셀러레이터가 탑재된 오크리지 국립연구소(Oak Ridge National Laboratory : ORNL)의 프론티어(Frontier) 슈퍼컴퓨터는 1.1 엑사플롭스(exaflops)의 성능으로 최신 톱500 리스트에서 1위를 차지했다. 프론티어는 HPC 및 인공지능(AI) 워크로드 처리 성능을 측정하는 HPL-MxP 혼합 정밀도 벤치마크(HPL-MxP Mixed-Precision Benchmark)에서도 7.94 엑사플롭스의 혼합 정밀도 컴퓨팅 성능을 기록했다. 에픽 프로세서 및 인스팅트 액셀러레이터를 탑재한 포시(Pawsey) 슈퍼컴퓨팅 센터의 세토닉스(Setonix) 시스템은 27.2 페타플롭스의 성능으로 최신 톱500 리스트에서 15위를 기록했다. AMD의 솔루션은 그린500(Green500) 리스트에도 높은 순위를 기록했다. 에픽 프로세서와 인스팅트 액셀러레이터는 프론티어 테스트 및 개발 시스템(TDS) 부문 2위와 전체 시스템 부문 6위를 차지한 슈퍼컴퓨터를 포함해, 상위 20개 75%의 시스템에 탑재된 것으로 확인됐다. 특히, 프랑스 과학 연구 센터(Grand équipement national de calcul intensif : GENCI)의 아다스트라(Adastra) 슈퍼컴퓨터는 58.02 와트당 기가플롭스(gigaflops/watt)의 성능으로 그린500 리스트에서 3위를 기록했는데, 아다스트라는 4세대 에픽 CPU와 AMD 인스팅트 MI250(AMD Instinct MI250) 액셀러레이터를 탑재한 최초의 슈퍼컴퓨터였다.   ▲ 4세대 AMD 에픽 프로세서   한편, AMD는 파트너사와 폭넓은 협업을 통해 HPC 분야에서 AMD 프로세서와 액셀러레이터의 영향력을 키운다는 계획을 소개했다. '젠 4(Zen 4)' 코어 아키텍처를 기반으로 설계된 4세대 에픽 프로세서는 최대 96 코어, 12 채널, 384GB의 DDR5 메모리를 탑재해 다양한 워크로드에 필요한 HPC 성능을 제공한다. 그리고 기업용 보안 프로그램인 차세대 AMD 인피니티 가드(AMD Infinity Guard)를 지원해, 이전 세대 대비 2배 많은 암호화 키를 활용하여 4세대 에픽 프로세서 하드웨어 또는 클라우드에 저장된 데이터를 보호할 수 있게 했다. AI 및 머신 러닝 애플리케이션 구동에 필요한 DDR5 메모리와 PCIe 5.0, 메모리 용량 확장을 위한 CXL 1.1+를 지원하는 것도 특징이다. 휴렛 팩커드 엔터프라이즈(HPE)는 4세대 에픽 프로세서와 AMD 인스팅트 MI250X가 탑재된 HPE 크레이 EX2500(HPE Cray EX2500) 및 HPE 크레이 XD2000(HPE Cray XD2000) 슈퍼컴퓨터를 발표했다. 레노버(Lenovo)는 독일 포츠담 기후 영향 연구소(PIK)가 차세대 슈퍼컴퓨터에 4세대 에픽 프로세서와 레노버의 HPC, 레노버 넵튠(Neptune) 수냉 솔루션을 도입한다고 발표했다. 마이크로소프트의 새로운 HPC 전용 가상 머신인 HBv4-시리즈 VM과 새로운 HX-시리즈 VM은 4세대 에픽 프로세서를 탑재하고 AMD 3D V-캐시(AMD 3D V-Cache) 기술을 지원할 예정이다.
작성일 : 2022-11-17