• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "인그라시스"에 대한 통합 검색 내용이 2개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
웨스턴디지털, AI 워크로드 위한 고성능 패브릭 연결 분산형 스토리지 공동 개발
웨스턴디지털은 폭스콘의 자회사인 인그라시스(Ingrasys)와 전략적 협약을 맺고, 스토리지 기능이 내장된 차세대 플래그십 탑 오브 랙(Top-of-Rack : TOR) 스위치 공동 개발에 착수했다고 밝혔다. 이번에 선보이는 TOR EBOF(Ethernet Bunch of Flash)는 네트워크 에지에서 분산형 스토리지를 제공해 스토리지 접근 지연 시간을 줄이고, 별도의 스토리지 네트워크나 중앙 집중형 어레이에 대한 접근을 최소화할 수 있도록 설계됐다. 이번 협업에서 인그라시스는 웨스턴디지털의 ‘래피드플렉스 NVMe-oF(RapidFlex NVMe-oF)’ 브리지 기술을 적용한 고밀도 TOR EBOF를 제조할 계획이다. 웨스턴디지털은 아키텍처 설계 단계부터 인그라시스와 협력하며, 클라우드 서비스 제공업체(CSP) 및 스토리지 OEM을 대상으로 NVMe-oF 기반 분산형 스토리지 설루션의 시장 진출을 모색할 예정이다. 이번 협업은 빠르게 성장하고 있는 인공지능(AI) 시장에서 패브릭 기반 분산형 스토리지 도입을 가속화해, AI 워크플로의 폭발적인 수요에 효과적으로 대응하기 위한 것이다. 양사는 GPU 서버 분야에서 축적된 인그라시스의 제조 역량과 NVMe-oF 및 패브릭 연결 스토리지 기술에 대한 웨스턴디지털의 전문성을 결합해 유연하면서 확장성 높은 분산형 인프라를 구현하고, 이를 통해 AI 시대의 복잡한 데이터 환경을 다루는 데이터센터에 새로운 수준의 효율성과 성능을 제공할 수 있을 것으로 기대하고 있다. 인그라시스가 2027년 출시를 목표로 개발 중인 TOR EBOF는 네트워킹과 스토리지 기술이 통합된 고성능 설루션이다. 웨스턴디지털의 차세대 래피드플렉스 패브릭 브리지 기술을 기반으로, 100G 이더넷과 NVMe/PCIe Gen6 기반 E3.S/L SSD 슬롯을 지원하는 내장형 스토리지를 탑재했다. 또한, TOR 스위치에는 엔비디아의 스펙트럼-4(Spectrum-4) 스위치 ASIC가 적용돼 고성능 스위칭을 구현하며, 400/800GbE 케이블 옵션을 통해 미래형 데이터센터의 요구에 부합하는 유연성과 확장성을 제공한다. 웨스턴디지털의 래피드플렉스 NVMe-oF 패브릭 브릿지 디바이스는 최신 데이터센터 환경에 필요한 저전력 설계와 고성능 및 유연성을 내세운다. 이 디바이스는 고도화된 하드웨어 가속 기술을 기반으로, 데이터 처리 경로에서 펌웨어를 제거해 I/O 데이터가 최소한의 지연으로 직접 이더넷을 통해 처리될 수 있도록 설계됐다. 이러한 차별화된 설계를 통해 NVMe SSD를 분산형 아키텍처에 고성능으로 매끄럽게 통합할 수 있으며, 컴퓨트 자원과 스토리지 자원을 분리해 스토리지를 독립적으로 유연하게 확장할 수 있다는 것이 웨스턴디지털의 설명이다. 웨스턴디지털의 커트 챈(Kurt Chan) 플랫폼사업부 부사장 겸 총괄은 “웨스턴디지털은 인그라시스와 함께 AI와 현대 워크로드의 데이터 수요에 대응하는 최첨단 패브릭 연결 설루션을 공동 개발하며, 분산형 인프라로의 전환을 가속화하고 있다”며, “스토리지 인프라 혁신을 이끄는 두 선도 기업이 힘을 모은 이번 협업은, 고객에게 새로운 수준의 효율성과 성능을 제공하는 유연하고 확장성 높은 아키텍처를 실현한다는 데 의미가 있다”고 말했다. 인그라시스의 벤자민 팅(Benjamin Ting) 사장은 “웨스턴디지털과의 이번 협업은 장기적인 혁신과 고객 중심 설계에 대한 양사의 확고한 의지를 반영한다”며, “인그라시스의 확장형 시스템 통합 역량과 웨스턴디지털의 스토리지 기술 리더십을 결합해, AI와 분산형 인프라의 진화하는 수요에 대응할 수 있는 미래형 패브릭 연결 설루션의 기반을 함께 구축하고 있다”고 말했다. 이어 “이번 파트너십은 지속적인 공동 혁신의 시작이 될 것이며, 앞으로도 긴 여정을 함께 이어가게 될 것이라 기대한다”고 덧붙였다. 엔비디아의 길라드 샤이너(Gilad Shainer) 네트워킹 부문 수석 부사장은 “웨스턴디지털과 인그라시스 간의 협업은 초고속 컴퓨팅의 잠재력을 극대화하기 위해 필수적인 고성능 스토리지와 확장 가능한 시스템 혁신을 결합한 사례”라면서, “AI와 데이터 중심 워크로드가 인프라의 한계를 마주한 현 시점에서, 이번 파트너십은 차세대 데이터센터에 요구되는 패브릭 연결 기반의 고성능, 저지연, 그리고 유연한 확장성을 제공할 것”이라고 말했다.
작성일 : 2025-05-16
엔비디아, AI 컴퓨팅 플랫폼 HGX H200 출시
엔비디아가 엔비디아 HGX H200을 출시한다고 밝혔다. 이 플랫폼은 엔비디아 호퍼(Hopper) 아키텍처를 기반으로 고급 메모리가 내장된 엔비디아 H200 텐서 코어 GPU(H200 Tensor Core GPU)를 탑재하고 있다. 따라서 생성형 AI와 고성능 컴퓨팅 워크로드를 위한 방대한 양의 데이터를 처리할 수 있다. 엔비디아는 이번 HGX H200 출시로 고성능의 AI 컴퓨팅 플랫폼을 가속화할 수 있을 것으로 기대된다. 엔비디아 H200은 HBM3e를 제공하는 GPU이다. HBM3e은 더 빠르고 대용량 메모리로 생성형 AI와 대규모 언어 모델의 가속화를 촉진하는 동시에 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200은 HBM3e를 통해 초당 4.8테라바이트(Terabytes)의 속도로 141GB의 메모리를 제공하며, 이전 모델인 엔비디아 A100에 비해 거의 두 배 용량과 2.4배 더 많은 대역폭을 제공한다. 엔비디아 H200은 4개와 8개 구성의 엔비디아 HGX H200 서버 보드에서 사용할 수 있으며, HGX H200 시스템의 하드웨어와 소프트웨어와 모두 호환된다. 또한 8월 발표된 HBM3e를 탑재한 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH200 Grace Hopper Superchip)이 포함된다.     HGX H200은 엔비디아 NV링크(NVLink)와 NV스위치(NVSwtich) 고속 인터커넥트를 기반으로 한다. 1750억 개 이상의 파라미터가 포함된 대규모의 모델에 대한 LLM 훈련과 추론 등 다양한 애플리케이션 워크로드에서 높은 성능을 제공한다. 8개 방식으로 구동되는 HGX H200은 32페타플롭(Petaflops) 이상의 FP8 딥 러닝 컴퓨팅과 총 1.1TB의 고대역폭 메모리를 제공한다. 이를 통해 생성형 AI와 HPC 애플리케이션에서 높은 성능을 발휘한다. H200을 초고속 NV링크-C2C 인터커넥트를 갖춘 엔비디아 그레이스 CPU와 결합하면 GH200 그레이스 호퍼 슈퍼칩을 만들 수 있다. 여기에는 대규모 HPC와 AI 애플리케이션을 지원하도록 설계된 통합 모듈인 HBM3e가 포함된다. 이러한 선택 사항을 통해 H200은 온프레미스(on-premises), 클라우드, 하이브리드 클라우드와 에지 등 다양한 유형의 데이터센터에 배포할 수 있다. 또한 엔비디아 글로벌 파트너 서버 제조업체 에코시스템은 기존 시스템을 H200로 업데이트할 수 있다. 파트너사로는 애즈락랙, 에이수스, 델 테크놀로지스, 에비덴, 기가바이트, 휴렛팩커드 엔터프라이즈, 인그라시스, 레노버, QCT, 슈퍼마이크로, 위스트론과 위윈 등이 포함된다. 그리고 아마존웹서비스, 구글 클라우드, 마이크로소프트 애저와 오라클 클라우드 인프라스트럭처는 내년부터 코어위브, 람다, 벌쳐에 이어 H200 기반 인스턴스를 배포하는 클라우드 서비스 제공업체가 될 예정이다. 글로벌 서버 제조업체와 클라우드 서비스 제공업체의 H200 기반 시스템은 2024년 2분기에 출시된다. 엔비디아 호퍼 아키텍처는 이전 버전에 비해 성능 도약을 제공한다. 최근 출시된 엔비디아 텐서RT-LLM(TensorRT-LLM)과 같은 오픈 소스 라이브러리를 비롯해 H100의 지속적인 소프트웨어 개선을 통해 계속해서 기준을 높여가고 있다. 엔비디아는 H200 도입으로 700억 개의 파라미터를 보유한 LLM인 라마 2(Llama 2)의 추론 속도가 H100에 비해 거의 두 배로 빨라질 것으로 예상하고 있으며, 또한 향후 소프트웨어 업데이트를 통해 H200의 추가적인 성능 개선을 기대하고 있다.  엔비디아의 이안 벅(Ian Buck) 하이퍼스케일과 HPC 담당 부사장은 “생성형 AI와 HPC 애플리케이션으로 인텔리전스를 생성하기 위해서는 대규모의 빠른 GPU 메모리를 통해 방대한 양의 데이터를 빠르고 효율적으로 처리해야 한다. 업계 최고의 엔드투엔드 AI 슈퍼컴퓨팅 플랫폼인 엔비디아 H200을 통해 세계에서 가장 중요한 과제를 해결할 수 있는 속도가 더욱 빨라졌다”고 말했다.
작성일 : 2023-11-14