• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "슈퍼마이크로"에 대한 통합 검색 내용이 48개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
슈퍼마이크로, X14 서버 제품군에 6세대 인텔 제온 프로세서 탑재 예정
슈퍼마이크로컴퓨터(SMCI)가 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 공개했다. 이번 신제품에는 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 인텔 제온 6 프로세서 제품군이 결합됐으며, 이를 통해 다양한 워크로드와 규모에 최적화된 솔루션을 높은 성능과 효율성으로 제공하는 데에 초점을 맞추었다. 슈퍼마이크로는 고객이 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온 6 프로세서에 대한 소켓 호환성을 지원한다. 이 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어(효율 코어) SKU와 AI, HPC, 스토리지 및 에지 워크로드에 대해 코어당 성능을 높이는 P-코어(성능 코어) SKU로 제공된다. 인텔 AMX(Intel Advanced Matrix Extensions)에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다.     인텔의 라이언 타브라(Ryan Tabrah) 부사장 겸 제온 E-코어 제품 부문 총괄은 “제온 6 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다. 고객은 온프레미스, 클라우드, 또는 에지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다. 슈퍼마이크로와의 강력한 파트너십은 차세대 프로세서의 이점을 고객에게 제공하는 데 도움이 될 것”이라고 설명했다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 수냉식 100kW 랙 1,350개를 포함해 전 세계적으로 매월 5000개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다. 현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다”면서, “슈퍼마이크로는 폭넓은 애플리케이션 최적화 솔루션의 설계 및 제공하는 것에 있어서 업계를 선도하고 있다. 인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것”이라고 전했다.
작성일 : 2024-04-17
대원씨티에스-딥엑스, AI 솔루션 확산 위해 ‘맞손’, 딥엑스 총판 계약 체결
  대원씨티에스와 딥엑스가 AI 솔루션 확산을 위해 총판계약을 체결했다.(좌로부터 대원씨티에스 정명천 회장, 딥엑스 김녹원 대표, 대원씨티에스 하성원 대표) 대원씨티에스는 4월 11일, 국내 최대의 AI 반도체 스타트업인 딥엑스와 총판 계약을 체결했다. 대원씨티에스는 11일, 판교 딥엑스 본사에서 김녹원 대표이사, 정명천 대원씨티에스 회장 등 양사 관계자들이 참석한 가운데 온디바이스 AI 솔루션을 전산업으로 확산하기 위해 B2B, B2C 비즈니스 총판 계약을 체결했다고 밝혔다. 대원씨티에스는 1988년 창립된 회사로 국내에서 AMD, 델, 슈퍼마이크로, 케이투스 등 글로벌 반도체 및 서버 업체들의 국내 총판을 담당하고 있다. 또한 LG, 삼성, HP 등 국내외 IT 제조사와 총판 계약을 통해 국내 IT 제품의 유통을 주도해왔으며, 작년 7,200억의 유통 매출을 달성했다. 생성형 AI 기술의 확산과 더불어 AI 인프라 시장이 확대되면서 AI 반도체가 주목받고 있다. 전통적인 반도체 기업을 비롯해 글로벌 빅테크 기업들까지 AI 반도체 개발에 뛰어들고 있다. 추론 기술을 구현하기 위한 인공신경망(NPU) 알고리즘을 저전력, 고속으로 처리할 수 있는 AI 반도체는 디지털 4차 혁명과 더불어 어느 산업보다 빠르게 성장하고 있다. 가트너는 오는 2027년 AI 반도체 시장이 1194억 달러로 현재보다 3배 이상 성장할 것으로 전망하고 있다. AI 반도체 시장 선점을 위해 정부에서도 지원을 아끼지 않고 있다. 과학기술정보통신부와 산업통상자원부는 AI 일상화를 지원하기 위해 국내 7대 주력산업이 참여하는 AI 반도체 협업포럼을 출범시켰다. 이런 상황에 대원씨티에스와 딥엑스의 전략적 유통 협력 계약 체결은 남다른 의미를 갖는다. 양사의 계약 체결로 대원씨티에스는 기존 데이터센터 시장에서 NPU 서버, 스토리지, AI 네트워킹 솔루션 공급에서 더 나아가 엣지 인프라 환경까지 영역을 확대해 나간다는 계획이다. 대원씨티에스는 딥엑스와의 협업을 통해 AI를 위한 단일 패키지 솔루션을 공급할 수 있을 것으로 기대된다. 국내 대형 유통 네트워크를 보유하고 있는 대원씨티에스와의 협업은 딥엑스의DX-V1 및 DX-M1과 같은 온디바이스 AI 반도체 제품을 양산 초기부터 대형 유통 네트워크를 통해 고객에게 효율적으로 공급할 수 있다는 전략적 가치가 있다. 더불어 대원씨티에스는 딥엑스가 협력을 타진하고 있는 글로벌 서버 개발사들인 델, 슈퍼마이크로, 케이투스 등의 국내 총판 유통사이기 때문에 딥엑스의 서버 시장 공략에서도 시너지를 발휘할 것으로 기대하고 있다. 대원씨티에스의 하성원 대표는 “그동안 국내 시장에서 다양한 서버 업체들의 총판을 담당하면서 GPU 서버 중심의 AI 인프라 시장을 타깃으로 해왔다”면서 “이번에 딥엑스와의 총판 계약 체결로 명실상부한 국내 AI 인프라 구축 솔루션 전문업체로 거듭날 계획”이라고 밝혔다. 딥엑스 김녹원 대표는 “대원씨티에스의 탄탄하고 폭넓은 유통망과 딥엑스의 우수한 기술력의 제품으로 AI 반도체 시장에서 입지를 확대해 나가겠다. 올해 하반기부터 양산되는 4개의 AI 반도체로 구성된 1세대 제품을 통해 글로벌 시장 공략을 본격화하면서 AI 일상화 시대를 열어가겠다”고 밝혔다.  
작성일 : 2024-04-14
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
엔비디아, AI 컴퓨팅 플랫폼 HGX H200 출시
엔비디아가 엔비디아 HGX H200을 출시한다고 밝혔다. 이 플랫폼은 엔비디아 호퍼(Hopper) 아키텍처를 기반으로 고급 메모리가 내장된 엔비디아 H200 텐서 코어 GPU(H200 Tensor Core GPU)를 탑재하고 있다. 따라서 생성형 AI와 고성능 컴퓨팅 워크로드를 위한 방대한 양의 데이터를 처리할 수 있다. 엔비디아는 이번 HGX H200 출시로 고성능의 AI 컴퓨팅 플랫폼을 가속화할 수 있을 것으로 기대된다. 엔비디아 H200은 HBM3e를 제공하는 GPU이다. HBM3e은 더 빠르고 대용량 메모리로 생성형 AI와 대규모 언어 모델의 가속화를 촉진하는 동시에 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200은 HBM3e를 통해 초당 4.8테라바이트(Terabytes)의 속도로 141GB의 메모리를 제공하며, 이전 모델인 엔비디아 A100에 비해 거의 두 배 용량과 2.4배 더 많은 대역폭을 제공한다. 엔비디아 H200은 4개와 8개 구성의 엔비디아 HGX H200 서버 보드에서 사용할 수 있으며, HGX H200 시스템의 하드웨어와 소프트웨어와 모두 호환된다. 또한 8월 발표된 HBM3e를 탑재한 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH200 Grace Hopper Superchip)이 포함된다.     HGX H200은 엔비디아 NV링크(NVLink)와 NV스위치(NVSwtich) 고속 인터커넥트를 기반으로 한다. 1750억 개 이상의 파라미터가 포함된 대규모의 모델에 대한 LLM 훈련과 추론 등 다양한 애플리케이션 워크로드에서 높은 성능을 제공한다. 8개 방식으로 구동되는 HGX H200은 32페타플롭(Petaflops) 이상의 FP8 딥 러닝 컴퓨팅과 총 1.1TB의 고대역폭 메모리를 제공한다. 이를 통해 생성형 AI와 HPC 애플리케이션에서 높은 성능을 발휘한다. H200을 초고속 NV링크-C2C 인터커넥트를 갖춘 엔비디아 그레이스 CPU와 결합하면 GH200 그레이스 호퍼 슈퍼칩을 만들 수 있다. 여기에는 대규모 HPC와 AI 애플리케이션을 지원하도록 설계된 통합 모듈인 HBM3e가 포함된다. 이러한 선택 사항을 통해 H200은 온프레미스(on-premises), 클라우드, 하이브리드 클라우드와 에지 등 다양한 유형의 데이터센터에 배포할 수 있다. 또한 엔비디아 글로벌 파트너 서버 제조업체 에코시스템은 기존 시스템을 H200로 업데이트할 수 있다. 파트너사로는 애즈락랙, 에이수스, 델 테크놀로지스, 에비덴, 기가바이트, 휴렛팩커드 엔터프라이즈, 인그라시스, 레노버, QCT, 슈퍼마이크로, 위스트론과 위윈 등이 포함된다. 그리고 아마존웹서비스, 구글 클라우드, 마이크로소프트 애저와 오라클 클라우드 인프라스트럭처는 내년부터 코어위브, 람다, 벌쳐에 이어 H200 기반 인스턴스를 배포하는 클라우드 서비스 제공업체가 될 예정이다. 글로벌 서버 제조업체와 클라우드 서비스 제공업체의 H200 기반 시스템은 2024년 2분기에 출시된다. 엔비디아 호퍼 아키텍처는 이전 버전에 비해 성능 도약을 제공한다. 최근 출시된 엔비디아 텐서RT-LLM(TensorRT-LLM)과 같은 오픈 소스 라이브러리를 비롯해 H100의 지속적인 소프트웨어 개선을 통해 계속해서 기준을 높여가고 있다. 엔비디아는 H200 도입으로 700억 개의 파라미터를 보유한 LLM인 라마 2(Llama 2)의 추론 속도가 H100에 비해 거의 두 배로 빨라질 것으로 예상하고 있으며, 또한 향후 소프트웨어 업데이트를 통해 H200의 추가적인 성능 개선을 기대하고 있다.  엔비디아의 이안 벅(Ian Buck) 하이퍼스케일과 HPC 담당 부사장은 “생성형 AI와 HPC 애플리케이션으로 인텔리전스를 생성하기 위해서는 대규모의 빠른 GPU 메모리를 통해 방대한 양의 데이터를 빠르고 효율적으로 처리해야 한다. 업계 최고의 엔드투엔드 AI 슈퍼컴퓨팅 플랫폼인 엔비디아 H200을 통해 세계에서 가장 중요한 과제를 해결할 수 있는 속도가 더욱 빨라졌다”고 말했다.
작성일 : 2023-11-14
AMD, 신규 에픽 8004 프로세서 발표로 4세대 서버 프로세서 제품군 완성
AMD가 AMD 에픽 8004 시리즈(AMD EPYC 8004 Series) 프로세서를 선보이며, 완성된 4세대 AMD 에픽 프로세서 제품군을 발표했다. '젠 4c(Zen 4c)' 코어 기반의 AMD 에픽 8004 시리즈 프로세서는 하드웨어 제조사의 효율적이고 차별화된 플랫폼 개발을 지원하며 유통, 제조 및 통신을 포함한 인텔리전트 에지(intelligent edge)부터 클라우드 서비스, 스토리지 등을 위한 데이터 센터까지 다양한 애플리케이션 구동에 도움을 준다. AMD 에픽 8004 시리즈 프로세서는 높은 성능은 물론 에너지 효율, 플랫폼 집적도, 저소음 구동 등 다양한 고객 요구에 맞춰 4세대 AMD 에픽 제품군에 한 층 더 확장된 기능을 지원한다. 젠 4c 코어 기반의 에픽 8004 시리즈 프로세서는 새로운 SP6 소켓의 간소화된 메모리 및 I/O 기능을 활용해 경쟁사 최상위 네트워킹 모델 대비 시스템 와트당 최대 두 배 더 높은 SPECpower 성능을 제공한다. 제한된 공간 및 인프라에서도 높은 와트당 성능에 대한 업계의 요구가 증가함에 따라 에픽 8004 시리즈 프로세서는 뛰어난 에너지 효율성과 균형 잡힌 성능을 지원하도록 설계됐다. 에픽 8534P 프로세서는 비디오 인코딩 워크로드에서 경쟁사 동급 네트워킹 제품 대비 최대 2.4배 우수한 프레임, 인코딩 시간, 시스템 전력 소비을 제공한다. 8코어 에픽 8024P 프로세서 기반 서버는 IoT 에지 게이트웨이(IoT Edge gateway) 워크로드에서 경쟁사 8코어 프로세서 대비 8kW 랙당 최대 1.8배 더 높은 총 처리량 성능을 제공한다. 인텔리전트 에지 구축은 데이터 센터 내 예상되는 풀랙(full racks)이 아닌 소규모 서버 노드에 중점을 두고 진행된다. 1, 3, 10대의 서버로 구성된 인텔리전트 에지 시스템 구축 시 에픽 8004 시리즈 프로세서 기반 서버는 향상된 코어 집적도 및 처리량으로 경쟁 제품 대비 뛰어난 에너지 효율성을 제공하며, 향후 5년 동안 수천 달러의 잠재적인 에너지 비용을 절감한다. AMD의 댄 맥나마라(Dan McNamara) 에픽 사업부 총괄 수석 부사장은 “새로운 에픽 8004 시리즈 프로세서는 공간 및 전력에 제약이 있는 인프라에서도 뛰어난 CPU 에너지 효율성을 제공하며 한 단계 더 진화된 싱글 소켓 플랫폼 성능을 지원한다”면서, “AMD는 엔터프라이즈 및 클라우드부터 인텔리전트 에지, 기술 컴퓨팅에 이르기까지 광범위한 워크로드에 뛰어난 효율과 성능을 제공해 왔다. 이번 발표로 완성된 4세대 에픽 프로세서 제품군을 선보이며 기술 혁신을 위한 노력을 지속해 나갈 것”이라고 밝혔다. 한편, AMD의 주요 OEM 및 파트너사는 AMD 에픽 8004 시리즈 프로세서의 기능을 활용한 다양한 시스템 및 솔루션을 공개했다. 에픽 8004 시리즈 프로세서는 전력 및 온도 등 여러 요구사항에 적합한 성능은 물론 고집적도 데이터 센터, 도시 내 통신사 건물, 공장 현장과 같은 극한의 물리적 환경에서의 원활한 구축을 지원한다. 델 테크놀로지스는 ’델 파워엣지 C6615(Dell PowerEdge C6615)’ 서버를 새롭게 출시했다. 효율적인 폼 팩터로 컨테이너, 마이크로서비스와 같은 스케일 아웃 워크로드에 최적화된 성능과 합리적인 TCO (Total Cost of Ownership, 총 소유비용)을 제공한다. 에릭슨은 AMD 에픽 8004 시리즈 프로세서를 활용한 클라우드 RAN 컴퓨팅 가속화 솔루션을 출시했는데, 에픽 8004 시리즈 프로세서의 코어 집적도 및 AVX512 기능으로 FDD 및 TDD 스펙트럼에서 과부하된 사이트의 트래픽을 처리할 수 있는 용량을 지원한다. 레노버는 최신 플래그십 엣지 최적화 서버인 ‘레노버 씽크엣지 SE455 V3(Lenovo ThinkEdge SE455 V3)’를 발표했다. 씽크엣지 SE455 V3 서버는 엣지 환경에서 차세대 AI 애플리케이션 구현을 위한 에너지 효율성을 지원하고 에지 AI 워크로드에서 동급 제품 대비 최상의 성능, 스토리지 및 확장성을 내세운다. 슈퍼마이크로는 AMD 에픽 8004 시리즈를 지원하는 신규 에지 플랫폼을 공개했다. 슈퍼마이크로 H13 세대 WIO 서버 기반의 신규 플랫폼은 에지 및 통신사 데이터 센터에 강력한 성능과 에너지 효율성을 제공할 예정이다.
작성일 : 2023-09-19
엔비디아, AI 컴퓨팅 향상 위해 인텔 제온 스케일러블 프로세서 채택
엔비디아가 인텔과 협력해 AI 컴퓨팅 효율성 극대화에 나선다고 밝혔다. 엔비디아의 AI 플랫폼을 위한 서버 시스템에 인텔이 최근 출시한 데이터센터용 CPU인 4세대 제온 스케일러블 프로세서를 탑재한다는 것이 주요 내용이다. 인공지능(AI)은 코로나 백신을 빠른 속도로 개발했을 뿐만 아니라 암 진단, 자율주행 자동차 동력 공급, 기후 변화 분석 등 인류를 변화시키는 혁신의 핵심이 됐다. 한편으로 신경망이 복잡해지면서 기술은 더욱 자원 집약적으로 변화했다. 따라서 최대한 효율적인 기반 기술이 필요한데, 이러한 기술은 컴퓨터 인프라 운영에 필요한 전력 생산이 지속 불가능한 수준이 되지 않도록 예방한다. 엔비디아는 자사의 GPU와 AI 플랫폼으로 구동되는 가속 컴퓨팅을 통해 데이터센터가 지속적으로 차세대 혁신을 이어갈 수 있도록 효율성을 제공한다는 계획이다. 여기에 4세대 인텔 제온 스케일러블 프로세서를 활용해 높은 에너지 효율성을 가진 AI로 구축된 차세대 가속 컴퓨팅 시스템을 제작할 수 있다는 것이 엔비디아의 설명이다. 엔비디아 H100 텐서 코어(Tensor Core) GPU와 결합된 이 시스템은 이전 세대보다 뛰어난 성능, 큰 규모, 높은 효율성을 제공해, 와트당 더 높은 연산 성능과 문제 해결 능력을 제공한다.     새로운 인텔 CPU는 엔비디아 DGX H100 시스템을 비롯해 H100 GPU를 탑재한 60개 이상의 서버에 사용될 계획이다. 인텔의 새로운 CPU가 탑재된 엔비디아 시스템을 통해 기업들은 기존 CPU 전용 데이터센터 서버 대비 평균 25배 높아진 효율성으로 워크로드를 실행할 수 있다. 와트당 제공되는 성능이 향상되었다는 것은 작업을 마치는 데 필요한 전력이 적게 소요된다는 뜻이다. 따라서 데이터센터에 쓰이는 전력을 최대한 효율적으로 사용해 가장 중요한 작업에 힘을 쏟을 수 있게 해준다. 엔비디아는 "신세대 엔비디아 가속 서버가 훈련과 추론 속도를 높이기 때문에 이전 세대의 가속 시스템 대비 에너지 효율성을 3.5배 높여준다. 다시 말해 AI 데이터센터는 총 소유 비용(TCO)을 3배 이상 절감한다"고 설명했다. 한편, 4세대 인텔 제온 CPU의 기능 중 하나는 PCIe Gen 5를 지원하는 것이다. 이는 CPU에서 엔비디아 GPU와 네트워킹으로의 데이터 전송 속도를 두 배로 높인다. PCIe 레인(lane)이 증가하면 각 서버 내에서 GPU와 고속 네트워킹의 밀도가 향상된다. 또한 빨라진 메모리 대역폭으로 AI처럼 데이터 집약적인 워크로드의 성능을 향상시킨다. 여기에 연결 당 최대 400Gbps(초당 기가비트)의 네트워킹 속도로 서버와 스토리지 간의 데이터 전송 속도를 높였다. 목적 기반 AI 인프라인 4세대 엔비디아 DGX H100 시스템은 가속 데이터센터의 운영 체제인 엔비디아 베이스 코멘드(Base Command) 소프트웨어를 기반으로 최적화된 플랫폼을 제공한다. DGX H100 시스템에는 각각 8개의 엔비디아 H100 GPU, 10개의 엔비디아 ConnectX-7 네트워크 어댑터 및 듀얼 4세대 인텔 제온 스케일러블 프로세서를 갖추고 있다. 다라서 대규모 생성 AI 모델, 대형 언어 모델, 추천 시스템 등을 구축하는 데 필요한 성능을 제공한다. 엔비디아 네트워킹과 결합된 이 시스템은 이전 세대보다 최대 9배 더 높은 성능을 제공한다. 또한 AI 훈련 및 HPC 워크로드에 대해 가속화되지 않은 X86 듀얼 소켓 서버보다 20배에서 40배 더 높은 성능을 제공해 규모에 맞게 컴퓨팅을 효율적으로 만든다. 엔비디아는 "이전에는 언어 모델을 X86 전용 서버 클러스터에서 훈련시키는 데 40일이 필요했지만, 인텔 제온 CPU와 ConnectX-7 구동 네트워킹을 사용하는 엔비디아 DGX H100에서 동일한 작업을 완료하는 데는 불과 하루 이틀 밖에 소요되지 않는다"고 설명했다. 엔비디아에 따르면, H100 GPU와 4세대 인텔 제온 스케일러블 CPU를 갖춘 시스템은 에이수스, 아토스, 시스코, 델 테크놀로지스, 후지쯔, 기가바이트, 휴렛팩커드 엔터프라이즈, 레노버, QCT, 슈퍼마이크로, 인스퍼 등의 엔비디아 파트너에서 출시될 예정이다.
작성일 : 2023-01-19
슈퍼마이크로, 성능·속도·친환경성 높인 X13 서버 포트폴리오 출시
슈퍼마이크로컴퓨터가 AI, HPC, 클라우드, 미디어, 엔터프라이즈 및 5G/통신/에지 워크로드에 중점을 둔 15종 이상의 성능 최적화 시스템과 함께 광범위한 1등급 서버 및 스토리지 포트폴리오를 출시했다.  이번 신제품은 새로운 4세대 인텔 제온 스케일러블 프로세서를 탑재해 성능, 속도, 친환경 측면이 강화되었다. 최대 60% 향상된 워크로드 최적화 성능, 강화된 보안(하드웨어 자체 보안 기능(HRoT) 인증), 그리고 관리 용이성을 제공하고 통합된 AI, 스토리지 및 클라우드 가속으로 보다 빨라졌으며, 고온 환경 및 수랭 옵션으로 환경 영향과 운영 비용을 줄여 더욱 친환경적이라는 것이 슈퍼마이크로의 설명이다. 인텔의 4세대 제온 스케일러블 프로세서에 탑재된 엑셀러레이터 엔진은 효율성을 높이고, 데이터센터에서 많은 크리티컬 워크로드로 인한 CPU 부하를 줄여준다. 4세대 인텔 제온 스케일러블 프로세서는 딥러닝 추론 및 학습 성능을 향상시키는 인텔 어드밴스드 매트릭스 익스텐션(AMX), 스토리지와 네트워킹, 데이터 처리 집약적인 작업에서 CPU 오버헤드를 줄이는 인텔 데이터 스트리밍 액셀러레이터(DSA), 잘 알려진 암호화와 데이터 압축 및 압축 해제 알고리즘의 하드웨어 오프로드를 위한 인텔 퀵어시스트 테크놀로지(QAT), vRAN 워크로드의 용량을 개선하고 전력 소비를 줄이기 위한 vRAN용 인텔 AVX가 포함된다. 또한, 슈퍼마이크로 서버는 폭넓은 서버군에서 새로운 인텔 데이터센터 GPU 맥스 시리즈를 지원할 예정이다. 인텔 데이터센터 GPU 맥스 시리즈는 최대 128개의 Xe-HPC 코어를 포함하며 AI, HPC, 그리고 시각화 워크로드를 가속화할 수 있다.     차세대 데이터센터 인프라를 위한 새 슈퍼마이크로 X13 시스템은 빌딩 블록 솔루션 접근방식으로 설계되어, 높은 성능과 효율을 내면서 고객의 특정 워크로드 및 규모에 맞는 유연성을 제공한다. 슈퍼마이크로 X13 시스템은 1개, 2개, 4개, 8개의 4세대 인텔 제온 스케일러블 프로세서로 구동 가능하며, 각각 최대 60개의 코어를 지닌 프로세서는 인텔, 엔비디아 등의 차세대 내장 엑셀러레이터와 최대 700W GPU를 지원한다. 더불어 OCP 3.0 호환 Advanced IO Module(AIOM), EDSFF 스토리지, OCP OAM, SXM GPU 상호 연결을 포함한 다양한 오픈 산업 표준을 지원하여 독점 기술에 대한 의존도를 줄인다. 슈퍼마이크로는 "고객의 데이터센터 전반의 구성요소를 표준화하고 슈퍼마이크로 시스템을 최소한의 변경으로 기존 인프라에 통합 가능하게 한다. 슈퍼마이크로 서버는 개방형 표준 기반 서버 관리를 활용해 매끄럽게 기존 IT 환경에 통합될 수 있다"고 설명했다. 슈퍼마이크로의 X13 시스템은 4세대 인텔 제온 스케일러블 프로세서와 최대 350W의 인텔 제온 CPU 맥스 시리즈를 기반으로 하며, 일부 시스템에서 고대역폭 메모리(High Bandwidth Memory : HBM)를 지원하여 4배 확장된 메모리 대역폭을 제공한다. X13 시스템은 CPU와 액셀러레이터 사이에 통합되고 일관성 있는 메모리 공간 생성을 위한 CXL 1.1, DDR4의 성능 및 용량이 최대 1.5배인 DDR5-4800 MT/s 메모리, 이전 세대 대비 I/O 대역폭을 두 배로 확대하는 PCIe 5.0, CPU당 최대 80개 레인, 그리고 핫 티어 및 웜 티어 스토리지 애플리케이션에 전례 없는 속도, 용량, 그리고 밀도를 제공하도록 설정된 EDSFF E1.S와 E3.S 같은 새로운 스토리지 폼 팩터 등의 차세대 산업 기술도 지원한다. 네트워킹의 경우, 다중 400Gbps InfiniBand(NDR)과 데이터 프로세싱 유닛(DPU) 지원으로 분산 학습, 분리형 스토리지, 그리고 지연이 적은 실시간 협업이 가능하다. 이외에도, 슈퍼마이크로 X13 시스템은 고급 열 아키텍처 및 최적화된 공기 흐름으로 인해 최대 40℃까지 높은 주변 환경 온도에서도 작동 가능하며, 냉각 관련 인프라 비용 및 운영비용(OPEX)을 줄인다. 수랭 옵션 또한 많은 X13 시스템에서 사용 가능하며 표준 에어컨과 비교 시 운영비용을 최대 40%까지 줄일 수 있다. 멀티 노드 시스템을 위한 슈퍼마이크로의 리소스 절약형 아키텍처는 공유 냉각 및 전력을 활용해 전력 소비와 원자재 사용을 줄이고 TCO와 TCE를 모두 낮춘다. 게다가 티타늄 레벨의 전력 공급 장치 내장 설계가 작동 효율성 향상을 보장한 결과 데이터센터 PUE가 업계 평균인 1.60에서 1.05로 줄어들 수 있다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “15개가 넘는 X13 서버군으로 구성된 슈퍼마이크로의 광범위한 포트폴리오는 특정 데이터센터 및 인텔리전트 에지 워크로드를 위해 성능, 기능, 그리고 비용이 최적화된 설계로 구성되어 있다. 새로운 4세대 인텔 제온 스케일러블 프로세서를 탑재한 슈퍼마이크로 시스템은 전반적인 성능과 와트당 성능 면에서 전례 없는 성과를 낼 수 있다”고 전했다.
작성일 : 2023-01-12
슈퍼마이크로, NEC에 인공지능 연구 위한 GPU 서버 시스템 공급
슈퍼마이크로컴퓨터는 글로벌 AI 설비 기업인 NEC 코퍼레이션에 듀얼 소켓 3세대 인텔 제온 스케일러블 프로세서와 각각 8개의 엔비디아 A100 80GB GPU를 갖춘 116개 이상의 슈퍼마이크로 GPU 서버를 제공했다고 밝혔다. 슈퍼마이크로에 따르면, NEC의 새 AI 슈퍼컴퓨터는 580 페타플롭 이상의 성능으로 일본 업계 내 최대 규모를 제공할 예정이며, 이미 수백 명의 NEC 연구원들이 AI 개발을 위해 일부 시스템을 사용하고 있다. 슈퍼마이크로 580 페타플롭 시스템은 일본에서 최고의 AI 전용 연구 및 개발 환경 구축이 가능하도록 지원하고, 이를 통해 보다 발전된 AI 알고리즘 개발을 가속화할 수 있다. 이러한 슈퍼마이크로 솔루션은 엔비디아 NVLink 및 엔비디아 NV스위치(NVIDIA NVSwitch)를 포함하는 엔비디아 HGX AI 슈퍼컴퓨팅 플랫폼을 기반으로 한다. 특히 슈퍼마이크로의 새로운 시스템은 대규모 분산 학습 애플리케이션에 최적화된 SYS-420GP-TNAR 서버를 포함한다. 각 서버는 2개의 인텔 제온 플래티넘 8358 프로세서(32코어, 2.6GHz), 1TB 메모리, 8개의 엔비디아 A100 80GB 텐서 코어 GPU를 갖추었다. 또한 각 서버의 로컬 스토리지는 데이터와 관련해 1.9TB NVMe SSD 및 4개의 7.6TB NVMe SSD를 탑재했다. 서버 간의 상호 연결은 엔비디아 ConnectX-6 싱글 포트 인터페이스 5개와 스토리지용 엔비디아 ConnectX-6 듀얼 포트 인터페이스 1개로 구성되어 있다.     슈퍼마이크로의 찰스 리앙(Charles Liang) 사장은 “NEC 코퍼레이션은 슈퍼마이크로의 GPU 서버를 설치해 최첨단 AI 연구에 사용하고 있다. 이번에 슈퍼마이크로가 NEC의 글로벌 AI 설비에 공급한 580 페타플롭 AI 퍼포먼스 솔루션 서버는 고난이도의 AI 워크로드에 대비하여 최고 성능의 CPU와 GPU를 갖추었다. 슈퍼마이크로는 고급 랙 스케일 서버 솔루션을 사용하여 전 세계 기업이 비즈니스 목표를 더 빠르고 효율적으로 달성하도록 다양한 기업과 지속 협력하고 있다”고 소개했다. NEC의 기타노 다카토시(Takatoshi Kitano) 수석 AI 플랫폼 설계자는 “NEC 코퍼레이션은 슈퍼마이크로의 GPU 서버로 최첨단 연구를 수행하여 AI 혁명을 주도하고 있다. 슈퍼마이크로 GPU 서버는 높은 확장성과 커스터마이징 용이성을 갖춰, 향후 AI 연구 성장에 따라 시스템이 탄력적으로 진화 가능하도록 지원한다. AI 연구 발전을 위해 앞으로도 지속적으로 슈퍼마이크로와 협력할 예정”이라고 전했다.
작성일 : 2022-10-17
슈퍼마이크로, AI 및 메타버스를 위한 8U 범용 GPU 서버 발표
슈퍼마이크로컴퓨터(Super Micro Computer)가 8개의 엔비디아 H100 텐서 코어 GPU를 통합한 최신 GPU 서버를 발표했다. 새로운 하이엔드 GPU 시스템은 향상된 에어플로 설계로 흡입구 온도를 높이고, 데이터 센터의 전체 전력사용효율(PUE)을 줄여서 고성능을 유지하는 것이 특징이다. 슈퍼마이크로는 범용 GPU 서버 신제품으로 GPU 서버 라인업을 확장하고 있다. 슈퍼마이크로의 범용 GPU 시스템은 4U, 5U, 그리고 새로운 8U 8GPU 서버로 구성되어 있다. 범용 GPU 플랫폼은 인텔 및 AMD CPU를 모두 지원하며 최대 400W, 350W 이상의 전력을 공급한다.     8U 서버는 데이터 센터의 성능 극대화를 목적으로 한 다양하고 계산 집약적인 워크로드를 위해 설계됐다. 새로운 8U GPU 시스템은 고성능 엔비디아 H100 GPU를 탑재했다. 최대 8TB의 메모리 용량으로 방대한 데이터 세트를 메모리에 저장할 수 있어 AI 교육이나 HPC 애플리케이션을 더 빠르게 실행할 수 있다. 또한 고급 아키텍처는 GPU와 GPU 사이의 통신을 위해 설계되어 AI 교육이나 HPC 시뮬레이션 시간을 단축시킨다. 엔비디아 GPUDirect 스토리지 탑재는 GPU가 데이터에 직접 액세스할 수 있게 해 효율성을 더욱 향상시킨다. 신제품에 적용된 에어플로 설계는 팬 속도를 줄여 데이터 센터의 소음, 전력 소비, 그리고 총 유지 비용을 줄여준다. 또한 시스템은 표준 OCP DC 랙 구성에 대한 지원을 포함하여 AC 및 DC 전원을 모두 지원한다. 슈퍼마이크로는 "개방형 표준을 지원하고 개방형 전력 사양을 준수하며, 최신 서버를 고객이 있는 장소에 신속하게 제공 및 설치할 수 있어 생산 시간을 단축시킨다"고 설명했다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 강력한 엔비디아 A100 및 H100 GPU를 탑재해 높은 유연성과 고성능을 제공하는 GPU 서버로 업계를 선도하고 있다. 새로운 서버는 차세대 CPU와 GPU를 지원하며, 동일한 섀시로 최대화된 냉각 용량을 제공할 수 있도록 설계됐다. 확대된 고객층에 맞춰 토털 IT 솔루션을 지속 제공하는 혁신적인 방법을 모색하고 있다”고 전했다.
작성일 : 2022-09-19
인텔, 지능형 비주얼 클라우드를 위한 데이터센터용 GPU 발표
  인텔은 코드명 ‘아틱 사운드-M’으로 알려졌던 '인텔 데이터센터 GPU 플렉스 시리즈(Intel Data Center GPU Flex Series)' 제품을 공개한다고 밝혔다.  이번에 발표한 신규 GPU 제품은 고립되고 사용 제한된(proprietary) 환경의 제약에서 자유롭도록 지원하며, 데이터센터가 별도의 개별 솔루션을 사용할 필요를 절감하도록 지원한다. 인텔은 성능 또는 품질에 영향을 주지 않으면서 광범위한 워크로드를 유연하게 처리하도록 구축된 단일 GPU 솔루션을 제공한다. 더불어, 미디어 전송, 클라우드 게이밍, AI, 메타버스 및 기타 새로운 비주얼 클라우드 사용 사례 등 다양한 클라우드 워크로드에 대한 총소유비용(TCO) 절감 및 최적화를 지원한다. 인텔 플렉스 시리즈 GPU는 품질, 밀도, 지연시간에 대한 요구사항을 충족하는 제품이다. 인텔은 "플렉스 시리즈 GPU는 데이터센터 GPU에 하드웨어 기반 AV1 인코더를 탑재, 경쟁사 GPU 대비 절반의 전력 소모량으로 5배 높은 미디어 트랜스코드 처리 성능과 2배 높은 디코딩 처리 성능을 제공한다. 더불어, 30% 이상의 대역폭 기능 개선을 바탕으로 TCO를 절감하며, 대중적인 미디어툴, API, 프레임워크, 최신 코덱을 광범위하게 지원한다"고 소개했다. 인텔 플렉스 시리즈 GPU는 인텔의 Xe-HPG 아키텍처 기반으로 설계되고 및 하드웨어 벤더와 소프트웨어 개발자의 생태계 지원을 받고 있다. 더불어, 개발자들이 소프트웨어 저작권에 제한을 받지 않고도 CPU 및 GPU 간 미디어 분석, 스마트 시티, 의료 영상 등 다양한 AI 추론 워크로드를 유연하게 확장할 수 있도록 지원한다. 현재 데이터센터 내에서 미디어 처리, 미디어 제공, AI 시각적 추론, 클라우드 게임 및 데스크탑 가상화 등이 급증하고 있다. 그 결과, 비주얼 클라우드용 데이터센터 GPU 시장은 2026년4까지 150억 달러 규모로 성장할 것으로 예상된다. 이는 GPU 프로그래밍을 위한 쿠다(CUDA)와 같은 저작권 소프트웨어에 산업이 의존하게 되는 현상을 야기한다. 인텔 플렉스 시리즈 GPU 솔루션 스택은 이러한 한계를 극복하는 동시에 여타 솔루션 대비 유연성, 확장성, 전력 소모 부문에 있어 이점을 제공하는 것을 목표로 한다. 더 적은 수의 서버로 더 많은 구독자를 지원해 솔루션 공급업체의 TCO 절감할 수 있도록 지원한다는 것이다. 소프트웨어 스택은 가속 컴퓨팅을 위한 생산적인 경로를 제시하는 oneAPI 기반으로 구동되며 개발자들이 소프트웨어 프로그램 저작권으로 인한 경제적, 기술적 문제에서 자유로울 수 있도록 지원한다. 기존 언어와 병렬 모델을 보완하는 안전하고 입증된 도구들을 통해 하드웨어 성능을 최대한 발휘하도록 지원하는 독점 개발언어 종속현상에 대한 개방형 대안을 제시한다. 이를 통해 사용자는 인텔 CPU와 GPU에서 다양한 조합을 최대한 활용할 수 있는 개방형 휴대용 코드를 개발할 수 있다. 또한, 개발자는 oneAPI 및 오픈비노(OpenVINO) 지원을 포함해 비주얼 클라우드 워크로드를 위한 플렉스 시리즈 GPU 기능을 효과적으로 구현할 수 있도록 오픈소스 구성요소와 도구를 결합한 광범위한 소프트웨어 스택을 활용할 수 있다. 인텔의 oneAPI 툴을 통해 인텔 oneAPI 영상 처리 라이브러리(oneVPL), 인텔 vTune 프로파일러 등 애플리케이션 및 서비스를 신속하게 제공하도록 지원한다. 향후 델 테크놀로지스, HPE, H3C, 인스퍼, 레노버, 슈퍼마이크로 등 글로벌 제조사를 통해 플렉스 시리즈 GPU를 탑재한 제품이 공개될 예정이다. 미디어 제공 및 안드로이드 클라우드 게임 워크로드 등을 시작으로 향후 플렉스 시리즈 GPU를 사용한 솔루션이 다수 출시될 예정이다. 인텔 데이터센터 GPU 플렉스 시리즈는 먼저 안드로이드 클라우드 게이밍, 미디어 처리 및 제공 기능을 제공하며, 이후 윈도우 클라우드 게이밍, AI 및 VDI 워크로드 등에서도 활용될 예정이다. 인텔의 제프 멕베이(Jeff McVeigh) 슈퍼 컴퓨팅 그룹 총괄 및 부사장은 “현재 그래픽 사용 환경은 소비자, 애플리케이션 및 해상도 증가로 인해 기하급수적으로 픽셀이 증가하는 현상을 마주하고 있다. 현재 데이터센터 인프라는 시각적 정보의 계산, 인코딩, 디코딩, 이동, 저장 및 표시 등 상당한 워크로드를 처리해야 하는 상황”이라며 “인텔 플렉스 시리즈 GPU는 오늘날의 컴퓨팅 요구사항을 특별하게 해결하는 동시에 향후 몰입할 수 있는 경험을 제공하기 위한 유연성과 확장성을 제공할 제품”이라고 말했다.
작성일 : 2022-08-25