• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "슈퍼마이크로"에 대한 통합 검색 내용이 58개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, “최신 AI 추론 벤치마크에서 제온 6의 성능 입증”
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.0(MLPerf Interference v5.0) 벤치마크에서 인제온 6 P-코어(Intel Xeon 6 with Performance-cores)의 성능을 입증했다고 밝혔다. 6가지 주요 벤치마크에서 진행된 테스트 결과, 제온 6는 이전 세대 프로세서 대비 인공지능(AI) 성능이 1.9배 향상된 것으로 나타났다. AI 도입이 가속화됨에 따라, CPU는 데이터 전처리, 전송, 시스템 오케스트레이션 등 핵심 기능을 관리하는 호스트 노드로서 AI 시스템 운영에 필수 요소로 자리잡고 있다. 인텔은 MLPerf에 서버용 CPU 성능 결과를 제출했는데, 인텔 제온 6 P-코어는 MLPerf 추론 v5.0의 ResNet50, RetinaNet, 3D-UNet 및 신규 GNN-RGAT를 포함한 주요 벤치마크에서 5세대 인텔 제온 프로세서 대비 평균 1.9배 높은 성능을 기록했다. 이런 결과에 대해 인텔은 “제온 6가 AI에 적합한 CPU임을 입증하는 동시에, 소형 언어 모델(SLM)을 위한 경쟁력 있는 대안이 될 수 있음을 보여준다”고 설명했다.     인텔은 지난 2021년 3세대 인텔 제온 프로세서를 MLPerf에 처음 제출한 이후 ResNet50 성능은 15 배 향상됐으며, 소프트웨어 최적화를 통해 GPT-J에서는 22%, 3D U-Net에서는 11% 추가 성능 향상을 달성했다고 소개했다. 또한, “새로운 MLPerf 결과는 OEM(주문자 상표부착 생산) 및 생태계 파트너 설루션 전반에서 인텔 제온의 성능을 입증한다”면서, “AI 워크로드가 엔터프라이즈 시스템과 점점 더 통합됨에 따라, OEM은 고객이 최상의 AI 성능을 구현할 수 있도록 제온 기반 시스템을 우선 채택하고 있다”고 전했다. 인텔은 시스코, 델 테크놀로지스, 콴타, 슈퍼마이크로 등 4개의 주요 OEM 파트너사와 협력해 인텔 제온 6 P코어에 대한 MLPerf 결과를 함께 제출하며 다양한 AI 워크로드와 배포 역량을 선보였다. 인텔의 데이터센터 및 AI 그룹을 임시 총괄하는 카린 엡시츠 시갈(Karin Eibschitz Segal) 부사장은 “이번 MLPerf 벤치마크 결과는 인텔 제온 6가 고성능과 에너지 효율의 완벽한 균형을 제공하는 AI 워크로드에 가장 적합한 중앙처리장치(CPU)임을 입증한다”면서, “세대를 거듭할수록 다양한 AI 벤치마크에서도 꾸준히 성능이 개선되고 있어, 인텔 제온이 여전히 AI 시스템용 CPU 시장에서 선도적인 입지를 유지하고 있음을 보여준다”고 설명했다.
작성일 : 2025-04-04
슈퍼마이크로, 인텔 제온 6 프로세서 기반 ‘X14 서버’ 대량 출하 시작
슈퍼마이크로컴퓨터가 인텔 제온 6900 시리즈 프로세서(P-코어) 기반의 고성능 X14 서버를 대량으로 출하하고 있다고 밝혔다. 이 서버는 협업 설계 및 미디어 배포처럼 대량의 GPU를 요구하는 작업 환경은 물론이고 대규모 AI, 클러스터 규모 HPC 등 까다로운 고성능 워크로드에 최적화된 새로운 아키텍처와 업그레이드된 기술을 제공한다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “현재 대량으로 출하되고 있는 X14 서버는 전 세계 고객에게 강력한 기능과 향상된 성능을 제공한다. 여기에는 낮은 지연 시간, I/O 최대 확장을 통한 빠른 데이터 전송, 시스템당 256개 고성능 코어, CPU당 12개 메모리 채널(MRDIMM 지원), 고성능 EDSFF 스토리지 옵션이 포함된다”면서, “슈퍼마이크로가 이처럼 새로운 애플리케이션에 최적화 기술을 탑재한 전체 제품군을 출시할 수 있던 것은 당사만의 서버 빌딩 블록 설루션 설계 덕분이다. 슈퍼마이크로는 다양한 규모의 설루션을 공급할 수 있는 글로벌 역량과 타의 추종을 불허하는 자체 개발 수냉식 냉각 설루션을 통해 업계를 최고 성능 컴퓨팅을 향한 새로운 시대로 이끌 것”이라고 말했다. 슈퍼마이크로 X14 서버는 각기 다른 성능 집약적 워크로드에 최적화된 다양한 폼 팩터로 제공된다. 대표적인 모델로는 ▲최신 SXM 및 PCIe GPU를 지원하며, 일부 모델은 향상된 냉각 역량과 DTC(direct-to-chip) 수냉식 냉각 기능을 제공하는 GPU 최적화 플랫폼 ▲새로운 플렉스트윈 및 그랜드트윈 모델을 포함한 고집적 다중 노드 및 슈퍼블레이드 아키텍처 등이 있다. 이러한 모델은 효율을 높이기 위해 공용 부품을 활용하며, 집적도를 높이기 위해 DTC(direct-to-chip) 수냉식 냉각장치를 장착할 수 있다. 하이퍼 랙 마운트는 단일 또는 이중 소켓 아키텍처와 기존 폼 팩터의 유연한 I/O 및 스토리지 구성이 결합됐으며, 엔터프라이즈와 데이터센터가 워크로드 증가에 따라 스케일업 및 스케일아웃을 할 수 있도록 지원한다.
작성일 : 2025-01-15
퓨어스토리지, AI 혁신 가속화를 위한 ‘생성형 AI 포드’ 발표
퓨어스토리지가 자사 플랫폼 기반의 턴키 설계를 제공하는 풀스택 설루션인 새로운 퓨어스토리지 생성형 AI 포드(GenAI Pod)를 발표했다. 기업은 이를 통해 AI 기반 혁신을 가속화하고, 생성형 AI 프로젝트 구축에 필요한 시간, 비용, 전문 기술력을 절감할 수 있다.  오늘날 기업들은 프라이빗 클라우드에서 생성형 AI와 검색 증강 생성(RAG)을 배포하는데 어려움을 겪고 있다. 이는 생성형 AI 워크로드를 지원하는 하드웨어, 소프트웨어, 기본 모델, 개발 도구를 적시에 비용 효율적으로 배포하는 복잡성을 포함한다. 따라서 기업들은 AI로 인해 진화하는 모든 스토리지 요구사항을 해결할 수 있는 단일 통합 스토리지 플랫폼이 필요로 한다. 퓨어스토리지 플랫폼에 구축된 생성형 AI 포드는 새로운 설계를 통해 생성형 AI 사용사례를 위한 턴키 설루션을 제공하며, 기업들이 이들 과제를 해결하도록 지원한다. 생성형 AI 포드는 원클릭 구축과 벡터 데이터베이스 및 기반 모델에 대한 간소화된 2일차(Day 2) 운영을 통해 기업의 AI 이니셔티브를 가속화한다. 포트웍스(Portworx)와 통합된 생성형 AI 포드는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼과 밀버스(Milvus) 벡터 데이터베이스를 통해 엔비디아 네모 (NeMo) 및 NIM 마이크로서비스(NIM microservices)의 배포 자동화를 지원하며, 2일차 운영을 더욱 간소화한다. 이러한 검증된 설계의 초기 산업 애플리케이션으로는 신약 개발, 무역 조사 및 투자 분석, 시맨틱 검색, 지식 관리 및 챗봇을 위한 에이전트 프레임워크를 갖춘 검색 증강 생성(RAG)이 포함된다. 퓨어스토리지의 풀스택 설루션에는 하드웨어, 소프트웨어 및 기본 모델은 물론, 업계 주요 AI 공급업체의 전문 서비스가 포함된다. 초기 검증 설계를 위해 퓨어스토리지는 아리스타, 시스코, KX, 메타, 엔비디아, 레드햇, 슈퍼마이크로 및 WWT와 파트너십을 체결했다. 퓨어스토리지 생성형 AI 포드는 2025년 상반기에 정식 출시될 예정이다. 한편, 퓨어스토리지는 플래시블레이드//S500(FlashBlade//S500)가 엔비디아 DGX 슈퍼포드(NVIDIA DGX SuperPOD)의 이더넷 호환성 인증을 통해 엔터프라이즈 AI 구축을 가속화한다고 밝혔다.  대규모 AI를 구축하는 기업은 복잡한 아키텍처 설계와 성능, 전력, 공간 요건을 충족해야 하는 과제를 안고 있다. 이에 따라 퓨어스토리지는 이더넷 기반의 플래시블레이드//S500에 대한 엔비디아 DGX 슈퍼포드 인증을 획득했다. 이 인증을 통해 고객은 향후 증가하는 AI 요구사항에 대비할 수 있도록 유연하고 안정적이며 공간 및 에너지 효율성이 높은 고성능 스토리지 플랫폼으로 하이엔드 엔터프라이즈 AI 트레이닝을 가속화할 수 있다. 새로운 생성형 AI 검증 설계는 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증과 함께, 엔비디아 DGX 베이스포드 인증 받은 에이리(AIRI with NVIDIA DGX BasePOD), 검증된 엔비디아 OVX 서버, 시스코와 공동 설계한 AI용 플래시스택(FlashStack for AI with Cisco) 등 퓨어스토리지의 AI 설루션 포트폴리오를 더욱 확장한다. 이번 발표를 통해 퓨어스토리지는 이제 막 AI 여정을 시작한 고객부터 대규모, 고성능 컴퓨팅 및 데이터 집약적인 요구사항을 가진 고객까지 아우르는 포괄적인 AI 인프라 설루션을 제공하는 선도적인 기업으로서의 입지를 다질 전망이다. 퓨어스토리지의 댄 코건(Dan Kogan) 엔터프라이즈 성장 및 설루션 부문 부사장은 “혁신의 속도가 빨라지면서 기업 고객들은 비즈니스 전 영역에 AI를 활용해야 하지만, 사일로화된 데이터 플랫폼과 복잡한 생성형 AI 파이프라인이라는 근본적인 문제로 어려움을 겪고 있다”며, “퓨어스토리지의 확장된 AI 설루션 포트폴리오는 생성형 AI 및 대규모 엔터프라이즈 AI 클러스터를 위한 검증된 턴키 설계를 통해 고객이 이러한 과제를 해결하도록 지원한다. 검증된 설계는 기술 스택의 모든 계층에서 요구사항을 총체적으로 해결해 AI 프로젝트의 가치 실현 시간과 운영 리스크를 획기적으로 줄인다”고 말했다. 엔비디아의 토니 백데이(Tony Paikeday) AI 시스템 부문 수석 디렉터는 “AI는 전례 없는 속도로 산업을 혁신하고 있으며, 기업들은 이를 달성하기 위해 강력하고 검증된 설루션과 인프라가 필요하다”며, “퓨어스토리지 생성형 AI 포드와 엔비디아 AI 엔터프라이즈 소프트웨어, 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증은 기업들이 인프라 복잡성을 제거하고, 구축 속도를 높이며, 운영을 간소화할 수 있도록 지원한다”고 말했다.
작성일 : 2024-11-22
슈퍼마이크로, 엔비디아 블랙웰용 직접 액체 냉각 슈퍼 클러스터 공개
슈퍼마이크로컴퓨터(SMCI)가 슈퍼 클러스터 포트폴리오에 엔비디아 블랙웰 플랫폼을 탑재한 엔드 투 엔드 AI 데이터센터 설루션을 추가했다고 밝혔다. 새로운 슈퍼 클러스터는 수냉식 랙 내 엔비디아 HGX B200 8-GPU 시스템 수를 늘렸다. 이로 인해 기존 수냉식 엔비디아 HGX H100 및 H200 기반 슈퍼마이크로 슈퍼 클러스터 대비 GPU 컴퓨팅 집적도가 향상됐다. 또한, 슈퍼마이크로는 엔비디아 호퍼 시스템 포트폴리오를 강화해 급속도로 증가하고 있는 HPC 애플리케이션과 대중적인 엔터프라이즈 AI의 가속 컴퓨팅 도입에 대응하고 있다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “슈퍼마이크로는 세계 최대 규모의 수냉식 AI 데이터센터 프로젝트에 기여할 수 있는 전문성, 배포 속도, 그리고 배송 역량을 지니고 있다”면서, “최근 슈퍼마이크로와 엔비디아는 GPU 10만개 규모의 AI 데이터센터를 성공적으로 구축했다”고 말했다. 그는 이어 “슈퍼마이크로 슈퍼 클러스터는 직접 액체 냉각(DLC)의 효율성을 통해 전력 수요량을 줄인다. 이제 여기에 엔비디아 블랙웰 플랫폼을 사용하는 설루션이 추가됐다”며, “슈퍼마이크로의 빌딩 블록 방법론을 통해 빠르게 엔비디아 HGX B200 8-GPU 서버를 설계할 수 있으며, 이는 수냉식과 공냉식 냉각 모두 가능하다. 슈퍼 클러스터는 전례 없는 집적도, 성능, 그리고 효율성을 제공하고, 더욱 향상된 AI 컴퓨팅 설루션으로 나아가는 길을 열고 있다. 슈퍼마이크로 클러스터는 직접 액체 냉각을 통해 데이터센터 전반의 성능은 향상시키고 전력 소비를 줄이며 운영 비용 절감 효과를 제공한다”고 설명했다.
작성일 : 2024-11-22
슈퍼마이크로, 신규 AI 데이터센터 최적화 서버 및 GPU 가속 시스템 출시
슈퍼마이크로컴퓨터가 AMD 에픽(EPYC) 9005 시리즈 프로세서 및 AMD 인스팅트 MI325X GPU 기반의 새로운 서버 포트폴리오, GPU 가속 시스템, 그리고 스토리지 서버를 출시한다고 밝혔다. 슈퍼마이크로가 이번에 출시한 H14 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버, 그리고 AI 추론 GPU 시스템을 포함하고 있으며, 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. AMD의 젠5(Zen5) 프로세서 코어 아키텍처는 CPU 기반 AI 추론을 위한 전체 데이터 경로 AVX-512 벡터 명령어를 구현하며, 사이클 당 명령어 처리 횟수(IPC)가 기존의 4세대 EPYC 프로세서 대비 17% 개선돼 더욱 향상된 코어당 성능을 제공한다.   새로운 H14 서버 포트폴리오는 5세대 AMD 에픽 프로세서를 사용해 CPU당 최대 192개의 코어, 최대 500W 열 설계 전력(TDP)을 지원한다. 슈퍼마이크로는 높아진 열 요구 사항을 충족하기 위해 H14 포트폴리오에 하이퍼 및 플렉스트윈 시스템을 구축했다. H14는 AI 훈련 및 추론 워크로드용 시스템 3개를 포함하며, 최대 10개의 GPU를 지원한다. 세 시스템은 AMD 에픽 9005 시리즈 CPU를 호스트 프로세서로 탑재하며, 이 중 2개는 AMD 인스팅트 MI325X GPU를 지원한다. 슈퍼마이크로는 점프스타트 프로그램(JumpStart Program)을 통해 AMD 에픽 CPU가 탑재된 H14 서버에 대한 테스트 액세스도 지원할 예정이다.     슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “슈퍼마이크로의 H14 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 슈퍼마이크로의 H11 서버 대비 2.44배 더 빠른 SPECrate2017_fp_base1 성능을 제공한다. 이런 성능 향상으로 인해 고객은 데이터센터의 총 면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다. 이는 데이터센터의 전력 효율성으로 이어진다. H14 서버 포트폴리오는 슈퍼마이크로의 공냉식 및 수냉식 옵션, 다양한 시스템 설계, 검증된 빌딩 블록 솔루션을 통해 최고의 성능, 집적도, 전력 효율성을 제공한다”고 말했다.
작성일 : 2024-10-15
인텔, 고성능 AI 및 컴퓨팅을 위한 제온 6 프로세서 및 가우디 3 가속기 출시
인텔은 제온 6 P-코어(Xeon 6 with Performance-cores)와 가우디 3(Gaudi 3) AI 가속기를 출시하면서, 최적의 와트(watt)당 성능과 더 낮은 총 소유 비용(TCO)을 제공해 강력한 AI 시스템을 지원하겠다고 밝혔다.   ▲ 인텔 제온 6 P-코어 프로세서   인텔 제온 6 P-코어는 컴퓨팅 집약적인 워크로드를 높은 효율로 처리할 수 있도록 설계돼 이전 세대 대비 2배 높은 성능을 제공한다. 코어 수 증가, 메모리 대역폭 2배 증가, 모든 코어에 내장 AI 가속 기능을 갖춘 것이 특징이다. 이 프로세서는 에지에서 데이터센터 및 클라우드 환경에 이르기까지 AI의 성능 요구를 충족하도록 설계되었다. 대규모 생성형 AI에 최적화된 인텔 가우디 3 AI 가속기는 64개의 텐서 프로세서 코어(TPC)와 8개의 행렬 곱셈 엔진(MME)을 통해 심층 신경망 연산을 가속화한다. 가우디 3은 학습 및 추론 작업을 위한 128GB의 HBM2e 메모리와, 확장 가능한 네트워킹을 위한 24개의 200Gb 이더넷 포트를 갖추고 있다. 또한 파이토치(PyTorch) 프레임워크와 허깅페이스(Hugging Face)의 고급 트랜스포머 및 디퓨전 모델과의 호환성을 제공한다. 인텔은 최근 IBM과 협력하여 IBM 클라우드에서 가우디 3 AI 가속기를 서비스 방식으로 배포한다고 발표한 바 있다. 이를 통해 인텔과 IBM은 AI를 활용하고 확장하는 데 있어 총 소유 비용을 줄이고 성능을 향상시킬 계획이다.   ▲ 인텔 가우디 3 AI 가속기   대규모 AI 배포를 위해서는 유연한 배포 옵션, 경쟁력 있는 가격 대비 성능, 접근 가능한 AI 기술 등을 고려해야 한다. 인텔은 x86 인프라와 개방형 생태계를 앞세워 기업이 최적의 TCO와 성능 대 전력비를 갖춘 고부가가치 AI 시스템을 구축할 수 있도록 지원한다는 전략이다. 인텔은 델 테크놀로지스, 슈퍼마이크로 등 주요 OEM 파트너들과 협력하여 고객의 특정 요구에 맞춘 AI 배포 시스템을 공동 설계하고 있다. 델 테크놀로지스는 현재 가우디 3과 제온 6을 활용한 RAG(검색 증강 생성) 기반 솔루션을 공동 설계 중이다. 생성형 AI 솔루션을 프로토타입에서 생산 준비가 완료된 시스템으로 전환하는 과정에는 실시간 모니터링, 오류 처리, 로깅, 보안, 확장성 등에 대한 과제가 포함된다. 인텔은 OEM 및 파트너들과의 공동 엔지니어링을 통해 이러한 문제를 해결하며, 생산 준비가 완료된 RAG 솔루션을 제공한다. 이 솔루션은 오픈 플랫폼 엔터프라이즈 AI(OPEA) 플랫폼을 기반으로 하며, OPEA 기반 마이크로서비스를 통합하여 확장 가능한 RAG 시스템을 구축하고, 제온 및 가우디 AI 시스템에 최적화되어 고객이 쿠버네티스(Kubernetes), 레드햇 오픈시프트 AI(Red Hat OpenShift AI) 및 레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI)에서 쉽게 애플리케이션을 통합할 수 있도록 설계되었다. 인텔의 데이터센터 및 AI 사업을 총괄하는 저스틴 호타드(Justin Hotard) 수석부사장은 “AI에 대한 수요가 데이터센터의 대규모 변화를 이끌고 있으며, 업계는 하드웨어, 소프트웨어, 개발 도구에서 다양한 선택지를 원하고 있다”면서, “제온 6 P-코어 프로세서 및 가우디 3 AI 가속기의 출시와 함께, 인텔은 고객들이 더 높은 성능, 효율성, 보안을 갖춘 워크로드를 구현할 수 있도록 개방형 생태계를 지원하고 있다”고 강조했다. 인텔의 나승주 데이터센터 및 AI 사업부 한국 영업 총괄 상무는 “지난 6월 E코어 기반 제온 6를 출시한데 이어, 이번에 코어당 고성능 제품을 원하는 고객을 공략할 수 있는 P코어 제품을 출시하며 제온 6 라인업이 좀 더 풍성해졌다”면서, “이뿐 아니라 AI 가속기 신제품인 가우디 3 제품을 출시함으로써, 국내 고객들에게 AI 인프라 구축에 폭넓은 선택지를 제공할 수 있게 되었다. 조만간 주요 OEM에서 이번에 출시한 인텔 제품을 탑재한 서버를 국내 출시할 계획인만큼, 국내 고객들도 인텔 신제품의 강점을 빠른 시일안에 경험할 수 있을 것으로 예상한다”고 밝혔다.
작성일 : 2024-09-26
엔비디아, 무선 네트워크 최적화 위한 ‘AI 에리얼’ 출시
엔비디아가 무선 네트워크를 최적화하고 단일 플랫폼에서 차세대 AI 경험을 제공하는 ‘엔비디아 AI 에리얼(NVIDIA AI Aerial)’을 공개했다. 통신 사업자들은 음성과 데이터 서비스를 넘어 AI 컴퓨팅 인프라를 통해 무선 네트워크를 최적화하고 모바일, 로봇, 자율주행 자동차, 스마트 공장, 5G 등의 차세대 AI 요구 사항을 충족하기 위해 혁신을 거듭하고 있다. 최근 출시된 엔비디아 AI 에리얼은 AI 시대의 무선 네트워크를 위한 AI-RAN(AI radio access network)을 설계, 시뮬레이션, 훈련, 배포하기 위한 가속 컴퓨팅 소프트웨어와 하드웨어 제품군이다. 이 플랫폼은 다양한 신규 서비스의 수요를 충족하기 위해 대규모로 네트워크를 최적화할 수 있는 중요한 기반이 된다. 이를 통해 통신 사업자는 총소유비용을 절감하고 기업과 소비자 서비스를 위한 새로운 수익 기회를 창출할 수 있다.     엔비디아 AI 에리얼은 통신 서비스 제공업체가 제조 로봇과 자율주행차를 위한 원격 작업을 할 수 있도록 지원한다. 또한, 제조업, 농업, 물류 분야의 컴퓨터 비전, 생성형 AI 기반 코파일럿과 개인 비서, 새로운 공간 컴퓨팅 애플리케이션, 로봇 수술, 3D 협업, 5G와 6G 발전 등을 가능하게 한다. 엔비디아 AI 에리얼은 생성형 AI와 RAN 트래픽을 호스팅하고 네트워크 최적화에 AI를 통합할 수 있는 AI-RAN 플랫폼이다. AI-RAN은 고성능의 에너지 효율적인 소프트웨어 정의 RAN, 향상된 네트워크 경험, 내부 또는 타사 생성형 AI 애플리케이션 호스팅을 위한 엣지 AI 애플리케이션을 통해 새로운 수익 기회를 제공한다. 엔비디아 AI 에리얼 플랫폼은 고성능 소프트웨어 정의 RAN과 함께 훈련, 시뮬레이션, 추론을 포함한 전체 기능에 대한 액세스를 제공한다. 이를 통해 통신 사업자는 차세대 무선 네트워크를 위한 개발부터 배포까지 모든 단계에서 참여할 수 있다. 엔비디아 AI 에리얼 플랫폼은 엔비디아 에리얼 쿠다(CUDA) 가속 RAN, 엔비디아 에리얼 AI 라디오 프레임워크,  엔비디아 에리얼 옴니버스 디지털 트윈 개발 플랫폼 등을 포함한다. 엔비디아 에리얼 쿠다 가속 RAN에는 파트너들이 엔비디아 가속 컴퓨팅 플랫폼에서 고성능 가상 RAN 워크로드를 개발하고 배포할 수 있도록 지원하는 소프트웨어 라이브러리가 포함된다. 엔비디아 에리얼 AI 라디오 프레임워크에는 파이토치(PyTorch)와 텐서플로우(TensorFlow) 기반 소프트웨어 라이브러리가 포함된다. 이를 통해 스펙트럼 효율성을 개선하고 5G와 6G 무선 신호 처리에 새로운 기능을 추가하기 위한 모델을 개발하고 훈련할 수 있다. 여기에는 신경망 기반 5G와 6G 무선 알고리즘의 개발과 훈련을 제공하는 링크 수준 시뮬레이터인 엔비디아 시오나(Sionna)가 포함된다. 엔비디아 에리얼 옴니버스 디지털 트윈(Aerial Omniverse Digital Twin, AODT)은 시스템 수준의 네트워크 디지털 트윈 개발 플랫폼이다. AODT를 사용하면 단일 기지국부터 도시 전체를 아우르는 다수의 기지국이 있는 포괄적인 네트워크까지 무선 시스템을 물리적으로 정확하게 시뮬레이션할 수 있다. 여기에는 실제 세계의 사실적인 지형과 물체 속성과 함께 소프트웨어 정의 RAN(에리얼 쿠다 가속 RAN)과 사용자 장비 시뮬레이터가 통합된다. 한편, 엔비디아는 T모바일, 에릭슨, 노키아와 협력해 AI-RAN 혁신 센터(AI-RAN Innovation Center)를 설립하고 AI-RAN의 상용화를 가속화하고 있다고 밝혔다. 이 센터는 엔비디아 AI 에리얼 플랫폼의 핵심 기능을 활용할 예정이다. 이번 협력은 AI-RAN 개발을 통해 고객에게 혁신적인 네트워크 경험을 제공하고자 RAN과 AI 혁신을 더욱 긴밀히 결합하는 데 중점을 두고 있다. 또한, 엔비디아는 소프트뱅크와 후지쯔를 비롯해 엔비디아 AI 에리얼 생태계의 주요 파트너도 소개했다. 여기에는 ▲테스트와 시뮬레이션 시스템에 엔비디아 AODT를 사용하고 있는 앤시스와 키사이트 ▲6G 연구와 엔비디아 에리얼 AI 라디오 프레임워크에 협력 중인 딥시그, 취리히연방공과대학, 노스이스턴 대학교, 삼성 ▲클라우드 스택 소프트웨어 제공업체인 아르나 네트웍스, 캐노니컬, 레드햇, 윈드리버 ▲네트워킹 스택 제공업체인 아커스 네트워크 ▲서버 인프라 제공업체인 델 테크놀로지스, HPE, 슈퍼마이크로 ▲베이퍼.io 등의 에지 솔루션 제공업체 ▲AI 프루빙 그라운드를 갖춘 월드 와이드 테크놀로지와 같은 시스템 통합업체가 포함된다.
작성일 : 2024-09-20
슈퍼마이크로, 차세대 인텔 제온 프로세서 탑재한 X14 서버 선공개
슈퍼마이크로컴퓨터가 새로운 X14 서버 플랫폼을 사전 공개했다. 슈퍼마이크로는 컴퓨팅 집약적 워크로드 및 애플리케이션의 성능을 극대화하기 위해 2024년 6월에 성공적으로 출시된 X14 서버를 최신 기술로 업그레이드했다.   새로운 X14 서버는 단일 노드에서 256개의 P-코어를 지원하며, 최대 8800MT/s의 메모리 그리고 차세대 SXM, OAM 및 PCIe GPU와 호환되는 차세대 DLAM 모듈 MRDIMM을 지원한다. 해당 구성은 AI와 컴퓨팅을 가속화할 뿐만 아니라 대규모 AI 학습, 고성능 컴퓨팅, 복잡한 데이터 분석 작업 등에 들어가는 시간 및 비용을 줄일 수 있다. 슈퍼마이크로는 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램(JumpStart Program)으로 원격 액세스를 지원할 예정이다.   재설계된 X14 서버는 차세대 GPU와 집적도가 더 높은 CPU를 지원하기 위해 새로운 10U 및 다중 노드 폼 팩터를 탑재했다. 또, CPU당 12개의 메모리 채널을 갖출 수 있도록 구성이 강화된 메모리 슬롯과 더불어 메모리 성능이 최대 37% 향상된 차세대 MRDIMM을 갖추는 등 아키텍처를 새롭게 구축했다. 스토리지 인터페이스의 업데이트는 더 높은 드라이브 집적도를 제공하고, 서버 아키텍처에 직접 통합된 수냉식 냉각 시스에 대한 지원을 확장한다.     슈퍼마이크로 X14 제품군에 10개가 넘는 서버가 새롭게 추가된 가운데, 일부는 ▲고성능과 향상된 냉각 역량을 통해 전력 소모가 가장 큰 GPU를 지원하는 GPU 최적화 플랫폼 ▲DTC 수냉식 냉각을 활용해 표준 랙의 성능 코어를 기존보다 늘린 고집적 컴퓨팅 다중 노드 ▲단일 또는 이중 소켓 아키텍처와 기존 폼 팩터의 유연한 I/O 및 스토리지 구성이 결합된 하이퍼 랙 마운트 등 세 가지 특정 워크로드를 위한 새로운 아키텍처를 지원한다.    슈퍼마이크로 X14 성능 최적화 시스템은 출시를 앞둔 P-코어 탑재 인텔 제온 6900 시리즈 프로세서를 지원하며, 2025년 1분기에는 E-코어가 탑재된 인텔 제온 6900 시리즈 프로세서를 지원하는 소켓 호환성도 제공할 예정이다. 이러한 내장형 기능은 코어당 성능 또는 와트당 성능에 맞춰 워크로드를 최적화하는 시스템의 구축을 지원한다. 인텔 제온 6900 시리즈 프로세서(P-코어)를 탑재한 슈퍼마이크로 서버는 내장된 인텔 AMX 가속기에서 새로운 FP16 명령어를 지원해 AI 워크로드 성능을 더욱 향상시킨다. 해당 서버는 CPU당 12개의 메모리 채널을 갖춰 최대 8800MT/s의 DDR5-6400과 MRDIMM을 모두 지원하며, CXL 2.0을 포함하고, 고집적 산업 표준 EDSFF E1.S 및 E3.S NVMe 드라이브를 보다 광범위하게 지원한다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “슈퍼마이크로는 X14 재설계를 통해 당사 역사상 가장 중요한 혁신 중 하나를 이뤘으며, 이는 전례 없는 성능과 새로운 최첨단 기능을 지원할 것”이라고 말했다. 이어서 “슈퍼마이크로는 이처럼 뛰어난 성능을 랙 스케일로 제공할 준비가 됐다. 해당 서버는 업계에서 가장 포괄적인 DTC(direct-to-chip) 수냉식 냉각 및 랙, 통합 연동 서비스와 함께 제공된다. 또한, 1350개의 수냉식 냉각 랙 포함 월 최대 5000개의 랙을 생산할 수 있는 능력과 글로벌 제조 역량을 갖췄다. 이로 인해 납품 시간을 단축하면서 TCO까지 줄이는, 완벽하게 최적화된 솔루션을 제공할 수 있을 것”이라고 덧붙였다.
작성일 : 2024-09-06
슈퍼마이크로, 엔비디아 옴니버스용 플러그 앤 플레이 슈퍼클러스터 출시
슈퍼마이크로컴퓨터(SMCI)가 슈퍼클러스터 포트폴리오에 엔비디아 옴니버스 플랫폼용 플러그 앤 플레이 AI 인프라 솔루션을 새롭게 추가했다. 새로운 슈퍼클러스터 솔루션은 엔터프라이즈 규모에서 고성능 생성형 AI 기반 3D 워크플로를 제공한다. 또한 최신 슈퍼마이크로 엔비디아 OVX 시스템을 탑재했으며, 기업이 워크로드 증가에 따라 쉽게 확장할 수 있도록 지원한다. 슈퍼마이크로는 엔비디아 옴니버스용 슈퍼클러스터를 출시하며 애플리케이션 최적화 AI 랙 솔루션 제품군을 확장했다. 다양한 전문가들이 제품 디자인부터 산업 디지털 트윈에 이르기까지 다양한 용도로 사용 가능한 컴퓨팅 집약적인 3D 워크플로에 의존하고 있다. 생성형 AI는 기존 3D 워크플로를 향상시키면서 새로운 애플리케이션 시대를 맞이하고 있다. 엔비디아 옴니버스용 슈퍼클러스터는 3D 및 AI의 다중 워크로드 요구사항에 맞춰 확장 가능한 인프라 구축을 간소화한다.     슈퍼마이크로 엔비디아 OVX 시스템은 클러스터 컴퓨팅 성능의 기본 빌딩 블록 역할을 한다. 각 시스템 노드는 최신 엔비디아 PCIe GPU를 최대 8개까지 탑재함으로써 높은 수준의 3D 성능을 제공하며 텐서 코어 및 트렌스포머 엔진을 통해 생성형 AI 성능을 지원한다. 시스템은 공기 흐름이 원활한 섀시 내에서 2700W 티타늄 레벨 PSU 4개로 구동되며, 고사용 시나리오에서도 안정성을 보장한다. 시스템당 최대 4개의 엔비디아 블루필드-3 SuperNIC 또는 4개의 엔비디아 커넥트X-7 NIC를 탑재해 400Gb/s의 네트워킹 속도와 함께 높은 확장성 및 보안성을 제공한다. 슈퍼마이크로의 4U PCIe GPU 시스템은 성능, 안정성, 확장성, 그리고 보안에 대한 검증 프로세스를 거쳤으며, 엔비디아의 인증을 받아 엔비디아 옴니버스를 활용한다. 기업은 엔비디아 옴니버스 개발 플랫폼에서 전 세계에 구축된 오픈USD(OpenUSD) 생태계와 옴니버스 클라우드 API를 활용한 생성형 AI 기술을 비롯해 다양한 워크로드의 성능을 극대화할 수 있다. 엔비디아 옴니버스용 슈퍼클러스터는 상호 연결된 인프라 솔루션으로 개발자, 아티스트, 엔지니어 등이 필요에 따라 최고 수준의 GPU 컴퓨팅에 액세스할 수 있도록 지원하며, 가상 GPU에 대한 원활한 액세스 또는 전체 시스템 노드에 대한 베어메탈 액세스를 제공한다. 또한, 400Gb/s 고성능 네트워크 패브릭은 엔비디아 스펙트럼-X 이더넷 플랫폼을 지원한다. 이로 인해 맞춤형 LLM(대규모 언어 모델)을 개발하는 기업은 시스템 노드 전반에 걸쳐 결합된 GPU 메모리 풀을 활용할 수 있으며, 이는 대규모 AI 모델 훈련에 필수이다. 슈퍼마이크로의 랙 솔루션은 4개의 GPU부터 256개의 GPU 스케일러블 유닛까지 다양하며, 모든 규모의 기업에 맞춰 추가로 확장할 수 있다. 고객은 L12 레벨에서 테스트를 거쳐 철저하게 검증된 플러그 앤 플레이 랙을 제공받으며, 첫날부터 바로 사용할 수 있다. 엔비디아 옴니버스용 슈퍼마이크로 슈퍼클러스터는 고객의 요구 사항에 따라 다양한 크기와 옵션으로 구축될 수 있다. 시스템 노드는 시스템당 4개 또는 8개의 GPU를 탑재할 수 있다. 또, 배포 규모는 시스템 4개를 포함한 단일 랙부터 시스템 32개를 탑재한 5개의 랙까지 다양하다. 대규모 배포는 확장 가능한 장치를 통해 추가로 확대해 거의 모든 규모의 클러스터를 구축할 수 있다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “AI의 등장으로 기업은 하나의 패키지에 모든 기능이 결합된 컴퓨팅 인프라를 찾고 있다”면서, “슈퍼마이크로가 그동안 3D 그래픽 및 애플리케이션 가속을 위한 GPU 최적화 제품을 개발하며 업계를 선도해왔다면, 이제는 AI를 위한 제품을 개발하는 중”이라고 전했다. 또한 “슈퍼마이크로 슈퍼클러스터는 엔비디아 L40S PCIe GPU를 최대 256개까지 확장 가능하며 엔비디아 옴니버스를 위해 상호 연결된 4U PCIe GPU 엔비디아 인증 시스템을 갖췄다. 생성형 AI 통합을 비롯해 옴니버스 플랫폼 전반에서 높은 성능을 지원한다. 슈퍼마이크로의 옴니버스용 슈퍼클러스터 개발은 단순한 제품 제공이 아닌, 애플리케이션 개발과 혁신의 미래를 향한 교두보가 될 것"이라고 설명했다.
작성일 : 2024-08-09
슈퍼마이크로, HPC와 AI 환경에 최적화된 데이터센터용 냉각 솔루션 출시
슈퍼마이크로컴퓨터가 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에 참가해 데이터센터 전력 소모량 감축과 동시에 AI 및 HPC 용량 확장을 목표로 할 때 직면하는 까다로운 요구사항을 충족할 수 있는 방안을 발표했다.   슈퍼마이크로는 콜드 플레이트, CDU, CDM, 냉각탑 전체 등을 포함한 수냉식 냉각 솔루션을 제공한다. 데이터센터에 수냉식 냉각 서버 및 인프라를 도입할 경우 데이터센터의 PUE가 크게 감소해 총 전력 소비량을 최대 40%까지 줄일 수 있다.   슈퍼마이크로 애플리케이션에 최적화된 고성능 서버는 높은 성능의 CPU 및 GPU를 탑재해 시뮬레이션, 데이터 분석 및 머신러닝에 적합하다. 슈퍼마이크로 4U 8-GPU 수냉식 냉각 서버는 엔비디아 H100/H200 HGX GPU를 통해 집적도가 높은 폼팩터에서 페타플롭스(PetaFlops) 수준의 AI 컴퓨팅 성능을 제공한다. 슈퍼마이크로는 곧 수냉식 X14 8U/6U 슈퍼블레이드, 랙마운트 X14 하이퍼, 그리고 슈퍼마이크로 X14 빅트윈을 출시할 예정이다. 다양한 HPC 최적화 서버 플랫폼이 P 코어(성능 코어)를 탑재한 콤팩트 멀티 노드 폼팩터 형태로 인텔 제온 6900을 지원한다.   슈퍼마이크로는 광범위한 수냉식 냉각 MGX 제품 포트폴리오를 지속적으로 출시하고 있다. 최근에는 새로운 인텔 가우디 3 가속기 및 AMD MI300X 가속기와 함께 인텔의 최신 가속기 지원을 확정했다. 랙당 최대 120개의 노드를 제공하는 슈퍼마이크로 슈퍼블레이드를 사용하면 대규모 HPC 애플리케이션을 단 몇 개의 랙에서 실행할 수 있다. 슈퍼마이크로는 인텔 제온 6 프로세서를 통합한 슈퍼마이크로 X14 서버를 비롯해 다양한 제품군을 ISC 2024에서 선보였다.     한편, 슈퍼마이크로는 ISC 2024에서 HPC 및 AI 환경을 위해 설계된 다양한 솔루션을 선보였다. 슈퍼마이크로의 새로운 4U 8-GPU 수냉식 냉각 서버는 엔비디아 HGX H100 및 H200 GPU를 탑재한 대표적인 제품군이다. 해당 제품을 비롯한 다양한 서버들이 출시되는 대로 엔비디아 B200 HGX GPU를 지원할 예정이다. 새로운 시스템은 고급 GPU를 탑재했으며, 고속 HBM3 메모리를 사용해 기존 시스템보다 더 많은 데이터를 GPU에 보다 가까이 가져와 AI 훈련 및 HPC 시뮬레이션을 가속화한다.    또한, 슈퍼마이크로는 ISC 2024에서 인텔 가우디 3 AI 액셀러레이터를 탑재한 8U 서버를 소개했다. 이 신규 서버는 AI 훈련 및 추론을 위해 설계됐으며, 기존 이더넷 패브릭과 직접 연결될 수 있다. 모든 인텔 가우디 3 가속기에 24개의 200Gb 이더넷 포트가 통합돼 유연한 개방형 표준 네트워킹을 제공한다. 또한 128GB의 HBM2e 고속 메모리가 포함된다. 인텔 가우디 3 가속기는 단일 노드에서 수천 개의 노드까지 효율적으로 확장 및 추가될 수 있도록 설계됐다. 이로 인해 생성형 AI 모델의 까다로운 요구 사항의 충족이 가능하다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 데이터센터에 종합 수냉식 냉각 솔루션과 같은 최신 기술을 도입하기 위해 AI 및 HPC 고객과 지속적으로 협력하고 있다”며, “슈퍼마이크로의 완전한 수냉식 냉각 솔루션은 랙당 최대 100kW를 처리할 수 있다. 이로 인해 데이터센터의 TCO(총 소유 비용) 감축과 AI 및 HPC 컴퓨팅의 집적도 향상이 가능하다. 당사는 빌딩 블록 아키텍처를 통해 최신 GPU와 가속기를 시장에 출시하고 있다. 또한, 새로운 랙 스케일 솔루션을 지속적으로 출시함으로써 고객에게 보다 신속하게 제품을 공급하고 있다. 이 프로세스는 검증된 공급업체와 함께 이루어진다”고 설명했다.
작성일 : 2024-05-17