• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 슈퍼컴퓨터"에 대한 통합 검색 내용이 184개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
슈나이더 일렉트릭, 데이터센터 위한 리퀴드쿨링 포트폴리오 공개
슈나이더 일렉트릭이 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화된 리퀴드쿨링(Liquid Cooling) 설루션 포트폴리오를 공개했다. 이는 올해 초 인수한 모티브에어(Motivair)와의 통합 이후 처음으로 선보이는 리퀴드쿨링 설루션으로, 슈나이더 일렉트릭은 AI 팩토리 구현을 위한 데이터센터 열 관리 시장에 본격 진출하는 것이라고 설명했다. 고성능 컴퓨팅 및 AI 기술의 발전으로 데이터센터의 랙 당 전력 밀도는 140kW를 넘어 1MW 이상까지 고려해야 하는 상황에 직면해 있다. 이처럼 AI 칩이 더욱 뜨겁고 조밀해짐에 따라, 기존 공기 냉각 방식으로는 이러한 고발열 환경을 감당하기 어려워지고 있다. 쿨링이 데이터센터 전력 예산의 40%를 차지하고 있는 가운데 리퀴드쿨링은 공기 냉각에 비해 최대 3000배 더 효율적인 열 제거 성능을 제공하며, 칩 수준에서 직접 열을 제거해 냉각 효율과 에너지 사용량을 동시에 개선할 수 있다. 이로 인해 직접적인 리퀴드쿨링이 차세대 데이터센터의 핵심 기술로 자리 잡고 있다. 슈나이더 일렉트릭의 리퀴드쿨링 설루션은 높은 GPU 밀도와 전력 수요를 안정적이고 효율적으로 충족할 수 있도록 설계되었다. 이는 ▲CDUs(Coolant Distribution Unit) ▲후면 도어 열 교환기(RDHx) ▲HDUs(Liquid-to-Air Heat Dissipation Unit) ▲다이나믹 콜드 플레이트(dynamic cold plates) ▲공랭식 프리쿨링 칠러(Air cooled Free cooling chillers) 등의 데이터센터 물리적 인프라 뿐 아니라 소프트웨어 및 서비스를 포함한 종합적인 열 관리 설루션이다.     CDUs는 차세대 CPU 및 GPU와의 원활한 통합을 위해 설계되었으며, 105kW에서 최대 2.5MW까지 확장 가능하다. 이 기술은 이미 전 세계 상위 10대 슈퍼컴퓨터 중 6대의 냉각을 담당하고 있으며, 엔비디아의 최신 하드웨어에 대해 인증을 획득했다. 후면 도어 열 교환기(RDHx)는 최대 75kW의 랙 밀도를 쿨링할 수 있는 고성능 장비로, 다양한 고성능 컴퓨팅 환경에 유연하게 적용 가능하다. 또한, HDUs은 물 공급이 제한적인 코로케이션 전산실, 실험실 등과 같은 환경에서 AI GPU를 사용하기에 최적화됐으며, 600mm 너비에서 100kW의 열을 제거할 수 있는 성능을 제공한다. 이 유닛은 엔비디아의 NVL144 아키텍처에 1:1로 대응 가능한 132kW급 쿨링 워터 루프를 구성할 수도 있다. 이외에도 공랭식 프리쿨링 칠러와 TCS(Technology Cooling System)는 공랭식 방식의 밀폐 루프로 설계되어, 메가와트(MW) 단위의 냉각 수요를 충족시키는 과정에서 매년 수백만 갤런의 물 사용과 에너지를 절감할 수 있다. 특히 소프트웨어 측면에서 슈나이더 일렉트릭의 에코스트럭처(EcoStruxure) 플랫폼이 공랭 및 리퀴드쿨링 환경 모두에서 최적의 열 관리, 성능, 운영 효율을 지원한다. 한편, 슈나이더 일렉트릭은 리퀴드쿨링 설루션이 요구하는 복잡한 쿨링 요구사항을 제품 설계, 기술 조달, 설치, 소프트웨어 연동, 유지보수에 이르는 전 과정을 엔드 투 엔드 방식으로 해결하고 있다고 전했다. 또한 전 세계 현장에서 축적한 경험과 서비스 역량을 강점 중 하나로 내세운다. “모티브에어는 고밀도 리퀴드쿨링 설루션 분야에서 글로벌 최대 설치 기반을 보유하고 있으며, 현재 전 세계 600명 이상의 현장 HVAC 전문가와 에코엑스퍼트(EcoXpert) 파트너들이 주요 거점 지역에 배치되어 고객 요청에 전문적으로 대응할 수 있는 체계를 갖추고 있다”는 것이 슈나이더 일렉트릭의 설명이다. 모티브에어의 리차드 위트모어(Richard Whitmore) CEO는 “AI 시대의 데이터센터 쿨링 과제가 점점 더 복잡해짐에 따라 우리의 쿨링 포트폴리오는 지속적으로 진화해왔다”면서, “엔비디아 등 주요 GPU 제조업체와 공동으로 설루션을 개발함으로써 반도체 제조업체 수준에서 검증된 전문성을 보여주는 유일한 리퀴드쿨링 공급업체로 거듭났다. 슈나이더 일렉트릭과 협업을 통해 단순히 시장 출시 시간을 단축한 것 뿐만 아니라 전례 없는 포트폴리오를 제공하게 되어 기쁘다”고 전했다. 슈나이더 일렉트릭의 앤드류 브래드너(Andrew Bradner) 쿨링 사업부 수석 부사장은 “AI는 차세대 기술 혁명의 중심에 있으며, 이에 리퀴드쿨링은 단순한 성능 향상 수단을 넘어 데이터센터의 전략적 필수 요소로 자리잡았다”며, “모티브에어와의 결합을 통해 글로벌 수준의 생산력과 공급망을 갖춘 독보적인 리퀴드쿨링 포트폴리오를 제공하게 되었다”고 말했다.
작성일 : 2025-09-30
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크’ 국내 예약 주문 시작
엔비디아가 차세대 개인용 AI 슈퍼컴퓨터 ‘엔비디아 DGX 스파크(NVIDIA DGX Spark)’의 국내 예약 주문을 시작한다고 밝혔다. DGX 스파크는 책상 위에 올려 놓을 수 있는 크기의 AI 슈퍼컴퓨터로 생성형 AI, 거대 언어 모델(LLM), 고속 추론 등 다양한 AI 워크플로를 로컬 환경에서 효율적으로 구현할 수 있도록 설계됐다. AI 개발이 고도화됨에 따라, 조직은 데이터 보안 강화와 지연 최소화, 배포 유연성 등을 고려해 로컬 환경에서 직접 AI 모델을 개발하고 실행할 수 있는 시스템을 요구하고 있다. DGX 스파크는 이러한 수요에 대응해 데스크톱 환경에서도 데이터 크기나 위치, 모델 규모에 제약 없이 민첩하고 효율적인 AI 개발이 가능하도록 지원한다.     DGX 스파크는 데스크톱 폼팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)을 탑재해 FP4 정밀도 기준, 최대 1페타플롭의 AI 성능을 제공한다. 또한, 고성능 엔비디아 커넥트-X(Connect-X) 네트워킹으로 두 대의 엔비디아 DGX 스파크 시스템을 연결해 최대 4,050억 개 파라미터의 AI 모델을 처리할 수 있다. DGX 스파크는 128GB 메모리를 탑재했으며, 엔비디아 AI 소프트웨어 스택이 사전 설치돼 있다. 이를 통해 딥시크, 메타, 구글 등에서 선보인 최대 2000억 개 파라미터의 최신 AI 모델도 로컬 환경에서 직접 프로토타이핑, 미세 조정, 추론할 수 있다. 또한, 사용자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama) 등 익숙한 개발 도구를 사용할 수 있으며, 이를 DGX 클라우드나 가속화된 데이터센터 환경으로 손쉽게 확장할 수 있다. 이와 함께 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprint)에 대한 액세스를 통해 AI 애플리케이션을 더욱 빠르게 개발하고 배포할 수 있도록 지원한다. 엔비디아는 “DGX 스파크는 올해 엔비디아 연례 개발자 콘퍼런스인 GTC와 컴퓨텍스(COMPUTEX)에서 공개된 이후 큰 관심을 받아왔으며, 이번 국내 예약 주문을 계기로 본격적인 보급이 기대된다”고 전했다. DGX 스파크의 국내 예약 주문은 엔비디아 공식 홈페이지를 통해 진행된다. 국내 주요 파트너사 중 원하는 업체를 선택해 예약할 수 있으며, 대량 구매도 가능하다. 공식 파트너사로는 에즈웰에이아이, 비엔아이엔씨, 디에스앤지, 아이크래프트, 리더스시스템즈, 메이머스트, MDS테크, 유클릭, 씨이랩, 제스프로가 있다.
작성일 : 2025-07-29
IBM, 일본 이화학연구소에 양자 컴퓨터 ‘IBM 퀀텀 시스템 투’ 가동
IBM은 일본의 국립 연구기관인 이화학연구소(RIKEN)와 함께 미국 외 지역에서는 첫 번째로 IBM 퀀텀 시스템 투(IBM Quantum System Two)를 설치, 가동했다고 밝혔다. 이 시스템은 일본의 슈퍼컴퓨터인 후가쿠(Fugaku)와 함께 배치된 첫 양자컴퓨터이다. 이번 프로젝트는 일본 경제산업성 산하의 신에너지·산업기술종합개발기구(NEDO)가 추진하는 ‘양자 및 슈퍼컴퓨터 통합 활용 기술 개발’의 일환으로 진행된다. IBM 퀀텀 시스템 투는 IBM의 156 큐비트 양자 프로세서인 IBM 퀀텀 헤론(IBM Quantum Heron)을 탑재하고 있다. 헤론은 이전 세대의 127 큐비트 IBM 퀀텀 이글(Eagle)보다 성능이 향상됐다. 2 큐비트 에러율로 측정되는 성능은 3×10⁻³(최저 오류율 1×10⁻³)로 이글에 비해 10배 개선되었으며, 회로 레이어 작업 속도(CLOPS)는 초당 25만 회를 기록하며 이 역시 10배 향상됐다. 156 큐비트 규모의 헤론은 기존 고전 컴퓨터로는 불가능했던 양자 회로 실행이 가능하며, 후가쿠와 연결해 양자 중심 슈퍼컴퓨팅 연구를 더욱 진전시킬 수 있다. IBM은 특히 화학 분야의 근본적인 문제를 해결하기 위한 첨단 알고리즘 개발에 있어 중요한 역할을 할 것으로 기대하고 있다.     IBM 퀀텀 시스템 투는 일본의 고성능 컴퓨팅(HPC) 센터인 RIKEN 계산과학연구센터(R-CCS) 내에서 후가쿠 슈퍼컴퓨터와 함께 구축됐다. 두 시스템은 명령어 수준에서 고속 네트워크로 긴밀히 연결되어, 양자 중심 슈퍼컴퓨팅을 위한 실험 환경을 조성하고 있다. 이러한 통합을 통해 RIKEN과 IBM의 엔지니어들은 병렬화된 작업 부하, 지연 시간이 적은 고전-양자 통신 프로토콜, 고급 컴파일 기술 및 라이브러리 개발 등을 함께 진행하고 있다. 양자 컴퓨팅과 고전 컴퓨팅이 서로 다른 계산적 강점을 지니고 있기 때문에, 이와 같은 연계는 각 시스템이 가장 적합한 연산을 자연스럽게 분담하여 처리할 수 있게 한다. RIKEN과 IBM은 RIKEN의 이번 IBM 퀀텀 시스템 투 도입이 양자 우위를 제공하는 알고리즘을 개발하는 데 있어 기존 성과를 한 단계 더 발전시키는 계기가 될 것으로 기대하고 있다. 양자 우위란 양자 컴퓨터가 기존의 고전적 방법보다 더 빠르고, 비용 효율적이며, 정확하게 문제를 해결할 수 있는 지점을 뜻한다. 이는 최근 ‘사이언스 어드밴시스(Science Advances)’ 표지에 실린 샘플 기반 양자 대각화(SQD) 기술을 통해 철황화물과 같은 복잡한 화합물의 전자 구조를 정확히 모델링하는 데 성공한 연구도 포함한다. 철황화물은 자연과 생명체에서 흔히 발견되는 화합물로, 이를 현실적으로 모델링하는 능력은 화학 연구에서 매우 중요하다. 과거에는 이러한 작업이 오류 내성이 있는 양자 컴퓨터가 필요하다고 여겨졌으나, SQD 워크플로는 오늘날의 양자 컴퓨터와 강력한 고전적 인프라를 결합해 과학적 가치를 창출할 수 있음을 보여주는 사례로 평가받는다.
작성일 : 2025-06-24
엔비디아, 앤시스·DCAI와 협력해 유체역학용 양자 알고리즘 개발 가속화
엔비디아가 ‘엔비디아 GTC 파리’ 행사에서 앤시스 및 덴마크 AI 혁신 센터(DCAI)와 협력해 유체역학용 양자 알고리즘 개발 가속화에 나섰다고 발표했다. AI 슈퍼컴퓨팅은 새로운 양자 애플리케이션의 개발을 가속화하며 항공우주, 자동차, 제조업 등 핵심 산업에서 획기적인 발전을 이끌고 있다. 이러한 가능성을 보여주는 사례로, 앤시스는 DCAI에서 운영하는 슈퍼컴퓨터 ‘게피온(Gefion)’에서 실행되는 엔비디아 쿠다-Q(NVIDIA CUDA-Q) 양자 컴퓨팅 플랫폼을 활용해 유체역학 응용을 위한 양자 알고리즘을 발전시키고 있다고 발표했다. 덴마크 최초의 AI 슈퍼컴퓨터인 게피온은 엔비디아 DGX SuperPOD과 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹으로 상호 연결돼 있다. 앤시스는 오픈 소스인 엔비디아 쿠다-Q 소프트웨어 플랫폼을 활용해, 이 슈퍼컴퓨터의 성능을 기반으로 유체역학에 적용 가능한 양자 알고리즘의 GPU 가속 시뮬레이션을 수행했다. 쿠다-Q는 GPU 가속 라이브러리를 활용해, 게피온이 ‘양자 격자 볼츠만 방법(Quantum Lattice Boltzmann Method)’이라 불리는 알고리즘 계열의 복잡한 시뮬레이션을 실행할 수 있게 한다. 앤시스는 이 알고리즘이 39큐비트 양자 컴퓨터에서 어떻게 작동할지 시뮬레이션함으로써, 유체역학 응용에 미칠 영향을 빠르고 비용 효율적으로 탐색할 수 있었다.     엔비디아의 양자와 쿠다-X(CUDA-X) 부문 수석 이사인 팀 코스타(Tim Costa)는 “미래의 실용적인 양자 응용 분야를 발견하려면, 연구자들이 현재 그에 걸맞은 대규모 시뮬레이션을 실행할 수 있어야 한다. 엔비디아는 앤시스, DCAI와 같은 협력 파트너들에게 양자 컴퓨팅의 영향력을 확장할 수 있도록 슈퍼컴퓨팅 플랫폼을 제공하고 있다”고 말했다. 앤시스의 프리스 바네르지(Prith Banerjee) 최고기술책임자는 “쿠다-Q의 GPU 가속 시뮬레이션을 통해 우리는 양자 응용이 실제로 영향을 발휘하기 시작하는 영역에서 이를 연구할 수 있었다. 우리는 엔비디아 그리고 DCAI와의 협력을 통해 전산유체역학(CFD)과 같은 공학 분야에서 양자 컴퓨팅의 역할을 확장해 나가고 있다”고 말했다. DCAI의 나디아 칼스텐(Nadia Carlsten) CEO는 “우리는 쿠다-Q를 통해 게피온을 사용하는 연구자들이 양자-클래식 하이브리드 컴퓨팅을 실현할 수 있는 가능성을 직접 목격하고 있다. 엔비디아, 앤시스와의 파트너십 덕분에 양자 기술과 AI 슈퍼컴퓨팅 간의 융합을 이끌어낼 수 있었다”고 말했다.
작성일 : 2025-06-12
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크, ‘DGX 스테이션’ 공개
엔비디아는 글로벌 시스템 제조업체들이 개인용 AI 슈퍼컴퓨터인 엔비디아 DGX 스파크(NVIDIA DGX Spark)와 DGX 스테이션(DGX Station) 시스템을 구축할 예정이라고 발표했다. 엔비디아는 DGX 스파크와 DGX 스테이션의 가용성이 확대되면서 전 세계 개발자, 데이터 과학자, 연구원이 높은 성능과 효율을 경험할 수 있게 될 것으로 기대하고 있다.  기업, 소프트웨어 제공업체, 정부 기관, 스타트업, 연구 기관 등에서은 데이터 크기, 독점 모델 프라이버시 또는 확장 속도에 영향을 주지 않으면서 데스크톱 폼 팩터에서 AI 서버의 성능과 기능을 제공할 수 있는 강력한 시스템을 필요로 한다. 자율적인 의사 결정과 작업 수행이 가능한 에이전틱 AI(Agentic AI) 시스템의 부상은 이러한 요구를 더욱 증폭시키고 있다. 엔비디아 그레이스 블랙웰(Grace Blackwell) 플랫폼을 기반으로 하는 DGX 스파크와 DGX 스테이션은 개발자들이 데스크톱에서 데이터센터에 이르기까지 모델의 프로토타이핑, 미세 조정, 추론 등을 실행할 수 있도록 지원한다.     DGX 스파크에는 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Superchip)과 5세대 텐서 코어(Tensor Core)가 탑재돼 있다. 이는 최대 1페타플롭(petaflop)의 AI 컴퓨팅 성능과 128GB의 통합 메모리를 제공하며, 엔비디아 DGX 클라우드(DGX Cloud)나 기타 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 내보낼 수 있다. 간소한 패키지로 강력한 성능과 기능을 제공하는 DGX 스파크는 개발자, 연구원, 데이터 과학자, 학생들이 생성형 AI의 한계를 뛰어넘고 산업 전반의 워크로드를 가속화할 수 있도록 지원한다. 까다로운 AI 워크로드를 위해 설계된 DGX 스테이션은 엔비디아 GB300 그레이스 블랙웰 울트라 데스크톱 슈퍼칩(Ultra Desktop Superchip)을 탑재해 최대 20페타플롭의 AI 성능과 784GB의 통합 시스템 메모리를 제공한다. 또한 이 시스템에는 고속 연결과 멀티스테이션 확장을 위해 최대 800Gb/s의 네트워킹 속도를 지원하는 엔비디아 커넥트X-8 슈퍼NIC(ConnectX-8 SuperNIC)도 탑재했다. DGX 스테이션은 고급 AI 모델을 로컬 데이터로 실행하는 단일 사용자용 데스크톱으로 활용할 수 있으며, 여러 사용자를 위한 온디맨드 중앙 집중식 컴퓨팅 노드로도 사용할 수 있다. 이 시스템은 엔비디아 멀티 인스턴스(Multi-Instance) GPU 기술을 지원해 최대 7개의 인스턴스로 분할할 수 있다. 각 인스턴스는 독립적인 고대역폭 메모리, 캐시, 컴퓨팅 코어를 갖춰 데이터 과학과 AI 개발 팀을 위한 개인 클라우드로 활용할 수 있다. 또한, DGX 스파크와 DGX 스테이션은 산업용 AI 팩토리를 구동하는 소프트웨어 아키텍처를 반영한다. 두 시스템 모두 최신 엔비디아 AI 소프트웨어 스택으로 사전 구성된 엔비디아 DGX 운영 체제를 사용하며, 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprints)에 대한 액세스를 제공한다. 개발자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama)와 같은 일반적인 도구를 사용해 DGX 스파크에서 프로토타이핑 생성, 미세 조정, 추론을 수행할 수 있다. 그리고 이를 DGX 클라우드나 가속화된 데이터센터 또는 클라우드 인프라에 원활하게 배포할 수 있다. DGX 스파크는 7월부터 에이서, 에이수스, 델 테크노로지스, 기가바이트, HP, 레노버, MSI를 비롯한 글로벌 채널 파트너를 통해 출시될 예정이며, 현재 예약이 진행 중이다. DGX 스테이션은 올해 말 에이수스, 델 테크놀로지스, 기가바이트, HP, MSI에서 출시될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “AI는 실리콘에서 소프트웨어에 이르기까지 컴퓨팅 스택의 모든 계층을 혁신했다. AI 혁신을 촉발한 DGX-1 시스템의 직계 후속인 DGX 스파크와 DGX 스테이션은 차세대 AI 연구와 개발을 지원하기 위해 처음부터 새롭게 설계됐다”고 말했다.
작성일 : 2025-05-19
HPE, ‘국가 슈퍼컴퓨터 6호기’ 구축 사업자로 선정
HPE는 한국과학기술정보연구원(KISTI)의 국가 슈퍼컴퓨터 6호기 ‘KISTI-6’ 구축 사업자로 선정됐다고 발표했다. KISTI-6는 한층 발전된 다목적 컴퓨팅 아키텍처를 구축할 계획이며, 이번 슈퍼컴퓨터는 국내 최고 성능을 갖추게 될 것으로 예상된다. 이 슈퍼컴퓨터는 100% 팬 없는 직접 수냉 방식(DLC : Direct Liquid Cooling) 아키텍처를 채택하여 효율성과 지속가능성, 집적도를 높인 것이 특징이다. KISTI는 오랫동안 연구기관, 대학, 다양한 규모의 민간 기업 등 폭넓은 사용자를 대상으로 슈퍼컴퓨팅 서비스를 제공해왔다. 새롭게 도입될 이번 슈퍼컴퓨터는 데이터 집약적인 고난도 연구 과제를 폭넓게 지원하며, 국내 인공지능(AI), 시뮬레이션 기반 연구개발의 핵심 인프라 역할을 수행할 예정이다. 이 시스템은 이론상 최대 600 페타플롭스(PF)의 연산 성능을 제공하며, 이는 엑사플롭의 절반 이상에 해당한다. 슈퍼컴퓨터 6호기는 두 개의 파티션으로 구성된 HPE 크레이 슈퍼컴퓨팅 EX4000을 기반으로, 엔비디아 GH200 그레이스 호퍼 슈퍼칩(NVIDIA GH200 Grace-Hopper Superchips)과 5세대 AMD 에픽(EPYC) 프로세서를 탑재할 예정이다. 최신 가속기는 AI 학습, 추론 및 시뮬레이션에 필요한 대용량 데이터를 처리할 예정이다. 또한, 엑사스케일 인터커넥트를 지원하는 HPE 슬링샷 인터커넥트 400(HPE Slingshot Interconnect 400)은 컴퓨팅 및 스토리지 유닛 간 초당 400Gb(기가비트) 속도의 고속 데이터 전송을 지원하며, 워크로드와 애플리케이션의 시스템 전반 확장성을 높인다. KISTI는 데이터 집약적인 워크로드 수요 증가에 대응하기 위해 효율적이고 확장 가능한 데이터 관리를 위한 고속 NVMe와 대용량 NL-SAS 디스크, HPE 데이터 매니지먼트 프레임워크(HPE Data Management Framework)를 탑재한 HPE 크레이 슈퍼컴퓨팅 스토리지 시스템 E2000(Cray Supercomputing Storage Systems E2000)도 함께 도입한다. KISTI의 복잡한 연구 요구 사항에 맞춘 완전 통합형 설루션은 HPE가 설계 및 제공하며, 수냉식 시스템을 위해 특별히 맞춰진 정부 데이터 센터에 배치될 예정이다. HPE의 조셉 양(Joseph Yang) APAC 및 인도 HPC & AI 부문 총괄은 “슈퍼컴퓨팅의 선두주자로서 전 세계에서 가장 빠르고 에너지 효율적인 HPC 및 AI용 시스템을 다수 구축한 HPE는 전력 소비를 최소화하면서 비즈니스 성과를 극대화할 수 있도록 지원하는 독보적인 위치에 있다”며, “이번 전략적 사업을 통해 한국의 기초 과학 연구 및 첨단 AI 역량 강화에 기여하게 되어 매우 뜻깊게 생각하며, 이는 국가 연구개발 혁신을 가속화하려는 한국의 중장기 비전과도 부합한다”고 전했다. KISTI의 이식 원장은 “HPE, AMD 및 엔비디아와의 협력을 통해 한국이 슈퍼컴퓨팅 및 소버린 AI 혁신 분야에서 선도국으로서의 입지를 공고히 하는 것이 목표”라며, “데이터 활용, 고성능 컴퓨팅, AI 기술 분야의 전문가를 양성해 과학기술 경쟁력을 더욱 강화하고자 한다. 또한, 산업 전반의 혁신을 촉진하고 사회적 가치를 높이기 위해서는 AI의 접근성과 포용성을 확보하는 것이 매우 중요하다”고 전했다.
작성일 : 2025-05-14
케이던스, 엔비디아 블랙웰 기반 밀레니엄 M2000 슈퍼컴퓨터 공개
케이던스는 연례 플래그십 사용자 행사인 ‘케이던스라이브 실리콘 밸리 2025(CadenceLIVE Silicon Valley 2025)’에서 엔비디아 블랙웰(NVIDIA Blackwell) 시스템을 탑재한 ‘밀레니엄 M2000(Millennium M2000)’ 슈퍼컴퓨터를 출시하고, 케이던스 밀레니엄 엔터프라이즈 플랫폼(Cadence Millennium Enterprise Platform)을 대대적으로 확장한다고 발표했다.  이 제품은 케이던스의 솔버와 엔비디아의 HGX B200 시스템 및 RTX PRO 6000 블랙웰 서버 에디션 GPU, CUDA-X 라이브러리 및 솔버 소프트웨어를 통합한다. 케이던스는 “이 조합은 전자 설계 자동화(EDA), 시스템 설계 및 분석(SDA), 신약 발견 애플리케이션에 대해 시뮬레이션 실행 시간을 줄이고, CPU 기반 시스템 대비 최대 80배 더 높은 성능을 제공한다. 또한 여러 분야에 걸쳐 최대 20배 더 낮은 전력으로 획기적인 성능을 구현하며, 최적화된 하드웨어-소프트웨어 스택을 통해 AI 인프라 구축을 가속화하고 물리적 AI 기계 설계를 발전시키며 신약 설계의 최전선을 확장한다”고 소개했다. 차세대 인프라 AI, 물리적 AI 및 과학 AI는 데이터센터 및 에지 장치에서 정교한 계산 기능을 요구한다. 밀레니엄 M2000 슈퍼컴퓨터는 고충실도 전산 유체 역학(CFD) 시뮬레이션에서 높은 성능과 에너지 효율성을 제공하는 밀레니엄 M1 슈퍼컴퓨터의 성공을 기반으로 하고 있다. 클라우드 및 온프레미스 어플라이언스로 사용할 수 있는 이 슈퍼컴퓨터는 케이던스의 EDA, SDA 및 분자 소프트웨어 솔버를 활용하여 이전에는 불가능했던 대규모 시뮬레이션을 수행함으로써, 반도체 및 3D-IC 설계, 데이터센터의 디지털 트윈, 신약 발견 모델링 및 하이퍼스케일 컴퓨팅, 자동차, 데이터센터, 항공우주 및 방위 시장 전반의 기타 엔지니어링 과제에 대한 접근 방식을 혁신하기 위해 개발됐다.     AI 설계를 위해 제작된 에뮬레이터인 밀레니엄 M2000 슈퍼컴퓨터는 전력, 열, 응력 및 전자기 등 3D-IC 및 고급 패키징 설계를 분석하고 최적화하는 데 필요한 다중 물리 기능을 결합한다. 이를 통해 단 시간 내에 높은 품질을 구현하여 엔지니어링 팀이 제품 개발 주기에서 더 큰 신뢰성과 효율성을 달성할 수 있도록 지원한다. 예를 들어, 기존 반도체 칩 수준의 전력 무결성 시뮬레이션은 짧은 시간으로 제한된다. 케이던스는 수백 개의 CPU로 거의 2주가 걸렸던 시뮬레이션이 밀레니엄 M2000 슈퍼컴퓨터 한 대로 하루 안에 가능하다고 소개했다. AI 인프라 구축에는 데이터센터 및 컴퓨팅 인프라에 대한 상당한 투자가 필요하다. 에너지 및 자원 효율적인 방식으로 이를 수행하는 것은 AI 공장에서 차세대 파운데이션 모델을 제공하는 데 중요하다. 디지털 트윈은 운영 효율을 개선하고 위험을 줄이며 총 전력 소비를 낮춘다. 밀레니엄 M2000 슈퍼컴퓨터는 이러한 데이터센터 디지털 트윈의 설계 및 운영과 이를 구동하는 랙, 보드 및 장비에 필요한 모델링 프로세스를 가속화한다. 또한 밀레니엄 M2000 슈퍼컴퓨터는 데이터센터 외부에서 AI를 구현할 자율 운송, 드론, 로봇과 같은 기계의 고정확도 및 고용량 가상 시뮬레이션을 가능하게 한다. 이러한 시스템을 효과적으로 설계하기 위해 가속 컴퓨팅과 계산 소프트웨어의 조합은 실제 조건을 정확하게 시뮬레이션할 수 있는 가상 풍동을 제공함으로써 더 짧은 시간에 개선된 설계를 구현한다. 전자 및 기계 전자 시스템 설계자는 수십만 개의 프로세서를 갖춘 CPU 기반 톱 500 슈퍼컴퓨터 클러스터를 사용하는 것에 비해 여러 날이 걸렸던 중요한 결정을 하루 안에 내릴 수 있어, 시간과 에너지를 절약할 수 있다. 또한, 케이던스의 분자 과학 기술은 제약 산업 고객이 밀레니엄 M2000 슈퍼컴퓨터를 통해 더 짧은 시간에 더 많은 시뮬레이션을 수행할 수 있도록 하여 신약 발견을 가속화한다. 밀레니엄 M2000에서 사용할 수 있는 케이던스 온클라우드(Cadence OnCloud)의 케이던스 오라이언(Cadence Orion) 분자 설계 플랫폼은 연구원에게 높은 계산 능력을 제공하여 잠재적인 신약 후보 발견 속도를 높이고 프로세스 확장성을 향상시킨다. 결과적으로 고객은 더 짧은 기간에 더 많은 설계 시나리오와 반복을 탐색할 수 있고, 이는 더 빠른 혁신과 개선된 제품 개발로 이어진다. 케이던스의 아니루드 데브간(Anirudh Devgan) 사장 겸 CEO는 “밀레니엄 M2000 슈퍼컴퓨터는 대규모 확장 가능한 솔버, 전용 엔비디아 블랙웰 가속 컴퓨팅 및 AI를 활용하여 설계자가 한계를 계속해서 뛰어넘을 수 있도록 지원함으로써 AI 가속 엔지니어링의 도약을 이끌 것”이라면서, “가장 진보된 AI 모델을 위해 특별히 제작된 밀레니엄 M2000 슈퍼컴퓨터는 차세대 AI 인프라, 물리적 AI 시스템 및 신약 발견을 추진하기 위한 전례 없는 설계자 생산성을 제공한다”고 전했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생물학부터 칩 설계에 이르기까지 세계에서 가장 복잡한 엔지니어링 과제는 가속 컴퓨팅으로만 가능한 규모와 속도로 시뮬레이션을 수행해야 한다”면서, “엔비디아 블랙웰, CUDA-X 및 케이던스의 계산 소프트웨어로 구축된 밀레니엄 M2000 슈퍼컴퓨터는 새로운 종류의 인프라이다. 이는 학문 전반에 걸쳐 발견을 혁신할 획기적인 발전을 이끌 과학을 위한 AI 팩토리”라고 말했다.
작성일 : 2025-05-12
엔비디아, “차세대 AI 성장 위한 인텔리전스 구축 나선다”
엔비디아가 AI 팩토리에서 인텔리전스를 생산하는 기반을 구축해 미국을 포함한 전 세계의 차세대 성장을 이끌겠다는 포부를 밝혔다. 모든 기업과 국가는 성장과 경제적 기회 창출을 원하지만, 이를 위해서는 사실상 무한한 인텔리전스가 필요하다. 엔비디아는 이러한 상황에서 에코시스템 파트너와 협력해 추론 기술, AI 모델, 컴퓨팅 인프라를 발전시켜 AI 팩토리를 통해 인텔리전스를 생산하겠다고 전했다. 엔비디아는 미국 내에서 AI 슈퍼컴퓨터를 제조할 것이라고 발표했는데, 향후 4년 내에 파트너들과 협력해 미국에서 최대 5000억 달러 규모의 AI 인프라를 생산할 계획이다. 엔비디아는 미국 AI 팩토리를 위한 AI 슈퍼컴퓨터 구축이 수십만 명에게 기회를 제공하고, 향후 수십 년 동안 수조 달러의 성장을 견인할 것으로 기대하고 있다. 이러한 AI 슈퍼컴퓨터의 핵심인 엔비디아 블랙웰(Blackwell) 컴퓨팅 엔진 중 일부는 이미 미국 애리조나에 있는 TSMC 공장에서 생산되고 있다.     또한 엔비디아는 차세대 AI 모델 훈련과 대규모 애플리케이션 실행을 위한 엔비디아 블랙웰 GB200 NVL72 랙 스케일 시스템이 코어위브(CoreWeave)를 통해 제공된다고 발표했다. 코어위브는 현재 수천 개의 엔비디아 그레이스(Grace) 블랙웰 프로세서를 통해 차세대 AI를 훈련하고 배포할 수 있다. 한편, 엔비디아는 보다 효율적이고 지능적인 모델을 만들기 위해 하드웨어 혁신을 넘어 AI 소프트웨어 분야도 강화한다는 전략을 소개했다. 이러한 발전의 최신 사례는 엔비디아 라마 네모트론 울트라(Llama Nemotron Ultra) 모델이다. 이 모델은 최근 아티피셜 애널리시스(Artificial Analysis)에서 과학적이고 복잡한 코딩 작업을 위한 정확한 오픈소스 추론 모델로 인정받았다. 또한 이는 현재 세계 최고 수준의 추론 모델 중 하나로 평가받고 있다.
작성일 : 2025-04-17
엔비디아, 개인용 AI 컴퓨터 ‘DGX 스파크’ 및 ‘DGX 스테이션’ 발표
엔비디아가 자사의 연례 콘퍼런스인 GTC에서 엔비디아 그레이스 블랙웰(NVIDIA Grace Blackwell) 플랫폼을 기반으로 한 엔비디아 DGX 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크(DGX Spark)’와 ‘DGX 스테이션(DGX Station)’을 발표했다. DGX 스파크와 DGX 스테이션은 블랙웰 울트라(Blackwell Ultra) 플랫폼을 기반으로 한 고성능 그레이스 블랙웰 데스크톱 슈퍼컴퓨터이다. 이들 제품은 AI 개발자, 연구자, 데이터 과학자, 학생이 데스크톱에서 대규모 모델을 프로토타입 제작, 미세 조정, 추론할 수 있도록 지원한다. 사용자는 이러한 모델을 로컬에서 실행하거나 엔비디아 DGX 클라우드(DGX Cloud), 기타 가속 클라우드, 데이터센터 인프라에 배포할 수 있다. DGX 스파크와 DGX 스테이션은 기존에 데이터센터에서만 사용할 수 있었던 그레이스 블랙웰 아키텍처의 성능을 데스크톱으로 가져온다. DGX 스파크와 DGX 스테이션을 개발하는 글로벌 시스템 빌더로는 에이수스, 델 테크놀로지스, HP, 레노버 등이 있다.     DGX 스파크는 작은 크기의 AI 슈퍼컴퓨터로, 수백만 명의 연구자, 데이터 과학자, 로봇 개발자, 학생에게 높은 성능과 다양한 기능을 제공한다. 이를 통해 생성형 AI와 물리 AI의 한계를 뛰어넘을 수 있도록 지원한다. DGX 스파크의 핵심은 데스크톱 폼 팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)이다. GB10은 5세대 텐서 코어(Tensor Core)와 FP4를 지원하는 엔비디아 블랙웰 GPU를 탑재해 초당 최대 1000조 회의 연산을 수행할 수 있다. 또한, 엔비디아 코스모스 추론(Cosmos Reason) 월드 파운데이션 모델과 엔비디아 GR00T N1 로봇 파운데이션 모델 비롯한 최신 AI 추론 모델을 통해 미세 조정과 추론을 수행할 수 있다. GB10 슈퍼칩은 엔비디아 NV링크(NVLink)-C2C 상호 연결 기술을 사용해 5세대 PCIe 대비 5배 높은 대역폭을 지원하는 CPU+GPU 코히어런트 메모리 모델을 구현한다. 이를 통해 GPU와 CPU 간 데이터에 액세스해 메모리 집약형 AI 개발자 워크로드 성능을 최적화할 수 있다. DGX 스파크 사용자는 엔비디아의 풀스택 AI 플랫폼을 사용해 코드를 거의 변경하지 않고도 모델을 데스크톱에서 DGX 클라우드 또는 기타 가속화된 클라우드나 데이터센터 인프라로 원활하게 이동할 수 있다. 이를 통해 그 어느 때보다도 쉽게 워크플로의 프로토타이핑, 미세 조정, 반복 작업을 수행할 수 있다. DGX 스테이션은 데스크톱에 AI 개발을 위한 데이터센터 수준의 성능을 구현한다. 이는 엔비디아 GB300 그레이스 블랙웰 울트라 데스크톱 슈퍼칩이 탑재된 첫 번째 데스크톱 시스템으로, 대규모 훈련과 추론 워크로드 가속화를 위한 784GB의 코히어런트 메모리 공간을 갖추고 있다. GB300 데스크톱 슈퍼칩은 최신 세대 텐서 코어와 FP4 정밀도를 갖춘 엔비디아 블랙웰 울트라 GPU를 탑재하고 있다. 또한 NV링크-C2C를 통해 고성능 엔비디아 그레이스 CPU에 연결돼 빠른 시스템 통신과 높은 성능을 지원한다. 또한, DGX 스테이션은 하이퍼스케일 AI 컴퓨팅 워크로드를 강화하도록 최적화된 엔비디아 커넥트X(ConnectX)-8 슈퍼NIC(SuperNIC)를 갖추고 있다. 초당 최대 800기가비트(Gb/s)의 네트워킹을 지원하는 커넥트X-8 슈퍼NIC는 빠르고 효율적인 네트워크 연결을 제공한다. 이를 통해 보다 큰 워크로드에서도 다수의 DGX 스테이션을 고속 연결하고, AI 워크로드를 위한 네트워크 가속 데이터 전송을 구현한다. 엔비디아는 “이러한 최첨단 DGX 스테이션 기능과 엔비디아 쿠다(CUDA)-X AI 플랫폼을 결합하면 탁월한 데스크톱 AI 개발 성능을 확보할 수 있다”고 설명했다. 또한 사용자는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼을 사용해 엔비디아 NIM 마이크로서비스에 액세스할 수 있다. 이를 통해 엔터프라이즈 지원이 포함된 고도로 최적화되고 배포하기 쉬운 추론 마이크로서비스를 사용할 수 있다. 엔비디아에 따르면 DGX 스파크 시스템의 사전 예약은 3월 19일 시작하며, DGX 스테이션은 올해 하반기에 에이수스, BOXX, 델, HP, 람다 랩스, 슈퍼마이크로와 같은 제조 파트너를 통해 출시될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “AI는 컴퓨팅 스택의 모든 계층을 변화시키고 있다. AI 네이티브 개발자와 AI 네이티브 애플리케이션을 위해 설계된 새로운 유형의 컴퓨터가 등장하는 것은 필연적인 일이다. 새로운 DGX 개인용 AI 컴퓨터를 통해 AI가 클라우드 서비스부터 데스크톱, 에지 애플리케이션까지 확장될 것”이라고 말했다.
작성일 : 2025-03-19
HPE, 엔비디아 블랙웰 기반 첫 번째 시스템 GB200 NVL72 공식 출하
HPE는 엔비디아 블랙웰(NVIDIA Blackwell) 기반 첫 번째 설루션인 엔비디아 GB200 NVL72의 출하를 발표했다. 이 랙 스케일 시스템은 서비스 제공기업(SP)과 대기업이 첨단 DLC 설루션을 통해 효율성과 성능을 최적화하며, 복잡한 대규모 인공지능(AI) 클러스터를 빠르게 구축할 수 있도록 설계되었다. HPE가 새롭게 출하한 엔비디아 GB200 NVL72는 생성형 AI, 과학적 발견 및 기타 컴퓨팅 집약적인 워크로드를 위한 다양한 고성능 컴퓨팅 및 슈퍼컴퓨팅 시스템 중 하나이다. HPE 기반 엔비디아 GB200 NVL72시스템은 고속 엔비디아 NV링크(NVIDIA NVLink)을 통해 상호 연결된 72개의 엔비디아 블랙웰 GPU 및 36개의 엔비디아 그레이스(NVIDIA Grace) CPU를 탑재했다. 최대 13.5 TB의 HBM3e 메모리 및 초당 576TB 대역폭을 지원하며, HPE의 DLC 기술을 적용했다. 엔비디아 GB200 NVL72는 하나의 메모리 공간에서 1조 개 이상의 파라미터로 구성된 초대규모 AI 모델을 처리할 수 있도록 설계된 그래픽 처리장치(GPU) 기술과 공유 메모리(shared-memory) 및 저지연 아키텍처를 갖추고 있다. 또한, 이는 엔비디아의 중앙처리장치(CPU), GPU, 컴퓨트 및 스위치 트레이, 네트워킹, 소프트웨어를 통합하여, 엔비디아 소프트웨어 애플리케이션과 함께 생성형 AI(GenAI) 모델 학습 및 추론과 같은 병렬화 가능한 워크로드를 처리할 수 있는 고성능을 제공한다. 전력 요구사항 및 데이터센터 집적도의 증가에 따라, HPE는 50년 간 쌓아온 수냉 전문 지식을 바탕으로 고객이 복잡한 수냉 환경에 대해 신속한 구축과 광범위한 인프라 지원 시스템을 제공할 수 있도록 지원하고 있다. 이러한 경험을 바탕으로 HPE는 세계에서 가장 에너지 효율적인 슈퍼컴퓨터를 선정하는 그린500(Green500) 리스트의 상위 15개 슈퍼컴퓨터 중 8대를 제공할 수 있었다. HPE는 또한 DLC 기술 분야에서 선도적인 기업으로 인정받으며, 세계에서 가장 빠른 슈퍼컴퓨터 상위 10개 중 7대를 구축한 바 있다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 설루션 부문 수석 부사장 겸 총괄은 “AI 서비스 제공기업과 대기업 모델 개발자는 확장성, 최상의 성능, 빠른 구축 속도를 제공해야 한다는 압박을 받고 있다”며, “DLC를 통해 세계 3대 최고속 시스템을 구축한 HPE는 업계 최고의 서비스 전문성으로 고객에게 토큰 당 학습 비용을 낮추고 동급 최고의 성능을 제공한다”고 전했다. 엔비디아의 밥 페트(Bob Pette) 엔터프라이즈 플랫폼 부문 부사장은 “엔지니어, 과학자, 연구원은 증가하는 전력과 컴퓨팅 요구사항을 따라잡기 위해 최첨단 수냉 기술이 필요하다”며, “HPE와 엔비디아 간의 지속적인 협업을 바탕으로, HPE의 첫 번째 엔비디아 GB200 NVL72 출하는 서비스 제공기업과 대기업이 대규모 AI 클러스터를 효율적으로 구축하고 배포하며 확장할 수 있도록 도울 것”이라고 소개했다. 한편, HPE는 전문가 현장 지원, 맞춤형 서비스 및 지속 가능성 서비스 등 역량을 바탕으로 대규모 맞춤형 AI 클러스터를 지원하며, 글로벌 규모에서 AI 설루션을 제공한다고 소개했다. HPC 및 AI 맞춤형 지원 서비스는 고객의 요구사항에 맞게 최적화되어 있다. 여러 수준의 서비스 수준 계약(SLA)을 제공하는 HPE는 전담 원격 엔지니어를 통한 적극적인 지원으로 사고 관리 기능을 강화하고, 신속한 설치와 빠른 가치 실현 시간을 지원한다. 
작성일 : 2025-02-20