• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "DPU"에 대한 통합 검색 내용이 111개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
엔비디아, “델·HPE·레노버 서버에 AI용 이더넷 네트워킹 기술 통합”
엔비디아가 AI용 엔비디아 스펙트럼-X(NVIDIA Spectrum-X) 이더넷 네트워킹 기술이 델 테크놀로지스, 휴렛팩커드 엔터프라이즈, 레노버의 서버 라인업에 통합된다고 밝혔다. 엔비디아 AI 스택을 탑재한 델 테크놀로지스, HPE, 레노버의 새로운 시스템은 2024년 1분기에 출시될 예정이다. 스펙트럼-X는 생성형 AI를 위해 설계된 것이 특징으로 기존 이더넷 제품보다 1.6배 높은 AI 통신 네트워킹 성능을 구현하며, 기업이 생성형 AI 워크로드를 가속화할 수 있도록 지원한다. 3곳의 시스템 제조업체에서 선보이는 서버 시스템은 스펙트럼-X와 엔비디아 텐서 코어 GPU, 엔비디아 AI 엔터프라이즈 소프트웨어, 엔비디아 AI 워크벤치 소프트웨어를 결합했다. 이로써 기업들에게 생성형 AI로 비즈니스를 혁신할 수 있는 빌딩 블록을 제공한다. 스펙트럼-X는 네트워크 집약적인 대규모 병렬 컴퓨팅을 위해 설계된 엔비디아 블루필드-3 슈퍼NIC(BlueField-3 SuperNIC) 가속 소프트웨어를 결합했다. 엔비디아 블루필드-3 슈퍼NIC는 초당 51Tb/s의 AI용 이더넷 스위치인 스펙트럼-4의 성능을 통해 하이퍼스케일 AI 워크로드를 강화하는 새로운 등급의 네트워크 가속기이다. 이로써 스펙트럼-X는 AI 워크로드의 효율성을 높이며, 엔비디아의 인프라 컴퓨팅 플랫폼인 블루필드-3 DPU를 보완한다. 스펙트럼-X는 차세대 AI 시스템을 위한 레퍼런스 아키텍처인 엔비디아 이스라엘-1(Israel-1) 슈퍼컴퓨터를 지원한다. 이스라엘-1은 델 테크놀로지스와 협력한 것으로, 엔비디아 HGX H100 8-GPU 플랫폼 기반의 델 파워엣지(PowerEdge) XE9680 서버와 스펙트럼-4 스위치 기반의 블루필드-3 DPU와 슈퍼NIC를 사용한다.     엔비디아의 젠슨 황(Jensen Huang) CEO는 “기업이 워크로드를 처리하기 위해 데이터센터를 업그레이드하면서 생성형 AI와 가속 컴퓨팅이 세대 간 전환을 주도하고 있다. 가속 네트워킹은 엔비디아의 선도적인 서버 제조업체 파트너사들이 생성형 AI 시대로 신속하게 전환할 수 있도록 새로운 시스템 파동을 일으키는 촉매제가 될 것”이라고 말했다. 델 테크놀로지스의 마이클 델(Michael Dell) CEO는 “가속 컴퓨팅과 네트워킹은 대규모 언어 모델(LLM)과 생성형 AI 애플리케이션의 요구 사항을 충족시키는 시스템 구축에 핵심적인 역할을 한다. 델 테크놀로지스와 엔비디아의 협력을 통해 고객에게 데이터에서 인텔리전스를 빠르고 안전하게 추출하는 데 필요한 인프라와 소프트웨어를 제공하고 있다”고 말했다. HPE의 안토니오 네리(Antonio Neri) CEO는 “여러 산업에서 혁신을 주도할 생성형 AI는 다양하고 동적인 워크로드를 지원하기 위해 근본적으로 다른 아키텍처를 필요로 한다. 고객이 생성형 AI의 잠재력을 최대한 실현할 수 있도록 HPE는 엔비디아와 협력해 애플리케이션을 지원하는 데 필요한 성능, 효율성, 확장성을 갖춘 시스템을 구축하고 있다”고 말했다. 레노버의 양 위안칭(Yuanqing Yang) CEO는 “생성형 AI는 전례 없는 혁신을 실현할 수 있지만 기업 인프라에 대한 요구 사항도 전례 없이 높아졌다. 레노버는 엔비디아와 긴밀히 협력해 최신 AI 애플리케이션을 구동하는 데 필요한 네트워킹, 컴퓨팅, 소프트웨어를 갖춘 효율적이고 가속화된 시스템을 구축하고 있다”고 말했다.
작성일 : 2023-11-22
엔비디아-레노버, 기업의 생성형 AI 도입 지원하는 파트너십 확대
엔비디아가 새로운 하이브리드 솔루션과 엔지니어링 협업을 위해 레노버와의 파트너십을 확대한다고 밝혔다. 양사는 이번 파트너십을 통해 모든 기업이 생성형 AI를 활용할 수 있도록 지원하겠다는 공동 비전을 실현한다. 레노버는 엔비디아와의 협력을 통해 에지에서 클라우드에 이르기까지 데이터가 생성되는 모든 곳에 AI 기반 컴퓨팅을 구현하는 통합 시스템을 제공한다. 이로써 기업이 맞춤 생성형 AI 애플리케이션을 쉽게 배포해 모든 산업에서 혁신과 변화를 주도할 수 있도록 지원한다. 엔비디아의 젠슨 황(Jensen Huang) CEO와 레노버의 양 위안칭(Yuanqing Yang) CEO는 미국 텍사스 오스틴에서 열린 연례 글로벌 레노버 테크 월드(Tech World) 기조연설에서 엔드 투 엔드 솔루션의 필요성에 대해 논의했다. 엔드 투 엔드 솔루션은 가속화된 시스템, AI 소프트웨어, 전문가 서비스의 결합을 통해 자체 데이터를 활용하는 맞춤형 AI 모델을 신속하게 구축하고 실행할 수 있도록 하는 솔루션이다.     이 솔루션은 새로운 레노버 AI 프로페셔널 서비스 프랙티스(AI Professional Services Practice)의 지원을 받는다. 이를 통해 기업은 하이브리드 클라우드 접근 방식을 사용할 수 있다. 또한, 기업들은 엔비디아 AI 파운데이션(AI Foundation) 클라우드 서비스를 이용해 맞춤형 AI 모델을 구축한 다음, 생성형 AI를 위해 설계된 엔비디아의 최신 하드웨어, 소프트웨어로 구동되는 온프레미스 레노버 시스템에서 이를 실행할 수 있다. 엔비디아 기반의 레노버 시스템은 보안과 안정적인 프로덕션 AI(Production AI)를 위해 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어를 실행하도록 최적화돼 있다. 기업들은 엔비디아 엔터프라이즈에 포함된 엔비디아 네모(NeMo) 프레임워크를 통해 엔비디아 AI 파운데이션에서 사용할 수 있는 엔터프라이즈급 대규모 언어 모델(LLM)을 맞춤 설정할 수 있다. 또한 최신 검색 증강 생성(RAG) 기술과 미세 조정 방법을 사용해 기업들은 프로덕션에 최적화되며 레노버 하이브리드 AI 솔루션에서 실행되는 생성형 AI 애플리케이션을 구축할 수 있다. 양사의 확대된 파트너십 중심에는 엔비디아 AI 엔터프라이즈를 실행하는 프로덕션 AI에 최적화된 레노버 씽크시스템 SR675 V3(ThinkSystem SR675 V3) 서버와 씽크스테이션 PX 워크스테이션(ThinkStation PX Workstation)이 있다. 씽크시스템 SR675 V3에는 엔비디아 L40S GPU, 엔비디아 블루필드-3 DPU(BlueField-3 DPUs), 엔비디아 스펙트럼-X(Spectrum-X) 네트워킹이 탑재된다. 씽크스테이션 PX는 시스템에서 최대 4개의 엔비디아 RTX 6000 에이다 GPU(RTX 6000 Ada GPU)를 지원해 데스크톱에 확장된 AI 기능과 데이터센터 성능을 제공한다. 또한, 레노버와 엔비디아는 유연한 엔비디아 MGX 모듈형 레퍼런스 디자인(MGX modular reference design)을 기반으로 차세대 시스템을 개발해, 까다로운 생성형 AI 워크로드를 위한 솔루션을 폭넓게 제공한다. 아울러 오픈USD(OpenUSD) 애플리케이션 연결과 개발 플랫폼인 엔비디아 옴니버스(Omniverse)로 기업이 몰입형 시뮬레이션과 인지적 결정을 대규모로 구현할 수 있도록 지원할 계획이다. 한편, 양사는 새로운 '레노버 AI 프로페셔널 서비스 프랙티스'와 종량제 모델을 활용할 수 있는 레노버 트루스케일(TruScale) aaS 제품을 통해 기업이 확신을 가지고 AI를 간편하게 배포하고 AI 기반 혁신을 추진할 수 있도록 돕는다. 레노버 AI 프로페셔널 서비스 프랙티스는 다양한 서비스, 솔루션, 플랫폼을 제공함으로써 모든 규모의 기업이 AI 환경을 탐색하고 적합한 솔루션을 찾아 조직에 신속하고 비용 효율적이면서도 대규모로 AI를 적용할 수 있도록 한다. 이는 AI 로드맵 설계부터 플랫폼 배포, 레노버 트루스케일 허브를 통한 기술 활용에 대한 투명성 제공 등 AI를 개념에서 현실로 구현하는 데 도움을 준다. 레노버 인프라스트럭처 솔루션 그룹의 커크 스카우젠(Kirk Skaugen) 사장은 "레노버와 엔비디아는 기업용 하이브리드 AI의 새로운 시대를 함께 주도하며, AI 기반 미래를 구현하고, 데이터가 생성되는 모든 곳에서 데이터의 힘을 활용하도록 차세대 기술을 설계하고 있다. 레노버는 엔비디아와 확대된 엔지니어링, 출시 기간 파트너십을 통해 모든 고객들이 생성형 AI로 진입하는 경로를 간소화하고, 어디서나 최첨단 AI를 빠르게 사용해 비즈니스를 혁신할 수 있도록 지원한다”고 말했다. 엔비디아의 밥 피트(Bob Pette) 엔터프라이즈 플랫폼 담당 부사장은 "생성형 AI가 우리 시대 가장 큰 기술 혁신을 주도하면서 기업들은 워크스테이션, 데이터센터, 클라우드 전반에 걸쳐 워크로드를 유연하게 개발하고 배포할 수 있는 솔루션을 찾고 있다. 엔비디아와 레노버는 기업들이 거의 모든 곳에서 생성형 AI를 구동할 수 있도록 신뢰할 수 있는 포괄적인 하이브리드 AI 시스템 포트폴리오를 제공하고 있다"고 말했다.
작성일 : 2023-10-25
레노버-VM웨어, 엔비디아 기반 생성형 AI 및 멀티 클라우드 턴키 솔루션 제공
레노버와 VM웨어는 ‘VM웨어 익스플로어 2023’에서 양사의 공동 에지 및 클라우드 혁신 연구소가 출시하는 첫 번째 턴키 솔루션을 발표했다. 이번에 새롭게 출시되는 생성형 AI 및 멀티 클라우드 솔루션은 중소·중견 기업을 대상으로 현대적인 하이브리드 멀티 클라우드 역량을 제공하고, 고객들이 데이터를 보다 간편히 활용하여 인텔리전트 트랜스포메이션을 달성하도록 돕는다. 레노버는 VM웨어와의 파트너십을 통해 생성형 AI용 최신 레퍼런스 디자인인 레노버 씽크시스템(Lenovo ThinkSystem) 솔루션을 새롭게 공개했다. ‘레노버 씽크시스템 생성형 AI 솔루션’은 차세대 AI와 데이터 인텔리전스의 배포를 간소화하는 통합 에지 투 클라우드 솔루션이다. 이는 레노버와 VM웨어 간 파트너십 확대의 일환으로, 모든 규모의 기업이 디지털 트랜스포메이션을 보다 신속하게 실현할 수 있도록 출시됐다. 레노버는 VM웨어, 엔비디아와의 협업을 통해 신규 ‘VM웨어 프라이빗 AI 파운데이션 위드 엔비디아 생성형 AI 솔루션(VMware Private AI Foundation with NVIDIA generative AI solution)’을 지원하고 있다. 데이터 확산에 따라 컴퓨팅에 대한 수요 역시 빠르게 증가하고 있다. 제조업 및 소매업을 포함한 전 산업들은 데이터센터에서 에지 및 클라우드에 이르기까지 AI를 이용하고 언제 어디서나 실시간으로 인사이트를 얻을 수 있는 IT 솔루션을 필요로 하고 있다. 레노버는 VM웨어와의 협업을 통해 고객들이 데이터의 가치를 최대로 활용할 수 있도록 지원하고 있으며, ‘엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)’를 활용해 보다 예측 가능한 비즈니스 성과를 도출할 수 있도록 돕는다. ‘엔비디아 AI 엔터프라이즈’는 엔비디아 AI 플랫폼을 구동하는 엔터프라이즈급 소프트웨어이면서, 대규모 언어 모델(LLM) 개발과 배포를 가속화하기 위해 ‘엔비디아 니모 (NVIDIA NeMo)’ 소프트웨어를 포함하고 있다. LLM을 기반으로 하는 레노버의 최신 생성형 AI용 레퍼런스 디자인은 기업들을 대상으로 강력한 생성형 AI 툴 및 파운데이션 모델을 배포, 상용화할 수 있는 방법을 전달한다. 이러한 AI 툴과 파운데이션 모델은 VM웨어v스피어에서 운영되는 데이터 센터를 위해 사전 검증되고 완전 통합됐다. ‘레노버 씽크시스템 생성형 AI 솔루션’은 ‘레노버 씽크시스템 SR675 V3(Lenovo ThinkSystem SR675 V3)’ 및 ‘레노버 씽크시스템 SR670 V2(ThinkSystem SR670 V2)’를 포함해 AI 워크로드를 위해 설계된 엔비디아 GPU 집적 플랫폼을 특징으로 한다. 컴팩트한 3U 또는 더 작은 설치 공간에 최대 여덟 개의 GPU를 제공하여 최고 성능으로 워크로드를 처리한다. 레노버 컴퓨팅 플랫폼은 세 가지 서버 구성을 하나로 통합하고 있다. 이는 엔비디아 NVLink 기술과 레노버 넵튠 하이브리드 액체 냉각 기술을 사용한 ‘엔비디아 HGX A100 4-GPU 시스템’을 지원한다. 뿐만 아니라 ‘엔비디아 L40S’, ‘80GB 엔비디아 H100 텐서 코어 GPU’를 특징으로 하는 네 개 또는 여덟 개의 GPU 구성을 지원하거나, ‘엔비디아 H100 NVL(NVIDIA H100 NVL) 서버’를 제공한다. 이 서버들은 전세계 전문가들이 AI를 발전시키고 인텔리전트 챗봇, 서치 및 요약 툴 등 생성형 AI 플리케이션을 전 산업에 활용할 수 있도록 돕는다. 레노버는 주요 네트워크 통합을 지원하기 위해 자사 AI 포트폴리오에 최신 ‘엔비디아 스펙트럼-XTM(NVIDIA Spectrum-X)’ 네트워킹 기술을 추가했다. 보다 선진적인 AI 워크로드 통합을 위해, 생성형 AI 레퍼런스 디자인에 ‘엔비디아 블루필드-3(NVIDIA BlueField-3) 데이터 프로세싱 유닛(DPU)’ 및 ‘엔비디아 스펙트럼 4(NVIDIA Spectrum-4) 스위치’를 사용한다. 이는 ‘엔비디아 커넥트X-7 이더넷 NIC(NVIDIA ConnectX-7 Ethernet NIC)’을 통해 네트워킹을 가속화하는 기존 옵션에 추가된다. 이에 더해, VM웨어와의 협업으로 새롭게 출시한 ‘레노버 씽크애자일 VX 통합 시스템(ThinkAgile VX Integrated Systems)’은 미드마켓 고객들이 하이브리드 멀티 클라우드 및 에지 환경 배포에 수월한 IT 솔루션을 통해 AI와 머신러닝의 새로운 국면에 진입할 수 있도록 설계됐다. 레노버와 VM웨어가 공동으로 개발한 해당 하이퍼컨버지드 인프라 솔루션은 제조 과정에서 통합되고, 사전 구성됐으며, 즉시 사용 가능하다. 이는 중소·중견기업 고객들이 하이브리드 멀티 클라우드를 보다 간편하게 접근할 수 있도록 돕는다. 높은 확장성, 뛰어난 성능 및 신뢰성을 제공하는 ‘레노버 씽크애자일 VX 위드 VM웨어 클라우드 파운데이션(Lenovo ThinkAgile VX with VMware Cloud Foundation)’은 인프라 및 애플리케이션의 배포와 관리를 자동화하는 VM웨어 툴을 활용해 프라이빗 및 하이브리드 클라우드의 구축, 운영을 위한 통합 멀티 클라우드 인프라 솔루션이다. 또한, 레노버는 미래 지향적인 온디맨드 모델인 ‘레노버 트루스케일 하이브리드 클라우드 포 VM웨어(Lenovo TruScale Hybrid Cloud for VMware)’를 제공하고 있다. 프라이빗 클라우드 서비스형 인프라스트럭처(Infrastructure as a Service)는 IT 관리자와 개발자들이 다수의 프라이빗 데이터 센터와 클라우드 제공처에 걸쳐, 보다 간편하게 기존 및 차세대 애플리케이션을 구축, 실행, 관리 및 보호할 수 있도록 지원한다. 또한, VM웨어 클라우드 인프라스트럭처의 확장 가능성과 강력한 보안을 결합하여, 고객들이 보다 간편한 방식으로 하이브리드 클라우드 워크로드를 온디맨드로 확장할 수 있도록 돕는다. 단일 통합 결제 방식으로 사용량에 따라 비용을 지불하는 레노버 트루스케일 모델을 통해 총 소유 비용을 절약할 수도 있다. 레노버 인프라스트럭처 솔루션 그룹(ISG)의 수미르 바티아(Sumir Bhatia) 아시아 태평양 사장은 "IT 현대화를 통해 기업들의 비즈니스를 강화하고자 하는 우리의 노력이 VM웨어와 함께 새로운 지평을 열게 됐다. 양사의 에지 및 클라우드 혁신 연구소에서 탄생한 레노버와 VM웨어의 공동 솔루션은 기업 내 디지털 트랜스포메이션을 재정의한다"면서, "우리는 VM웨어와의 협력을 확대함으로써 어드밴스드 에지, AI 및 하이브리드 클라우드 역량으로 비즈니스를 강화하는 데 있어 혁신적인 단계를 밟고 있다. 레노버 씽크시스템 생성형 AI, 레노버 트루스케일 하이브리드 클라우드, 그리고 VM웨어의 전문성은 AI 및 클라우드 인텔리전스의 미래를 열어 모든 규모의 기업 및 조직을 지원할 것"이라고 말했다. VM웨어의 크리시 프라사드(Krish Prasad) 클라우드 인프라 비즈니스 그룹 (CIBG) 수석 부사장 겸 총괄 매니저는 “VM웨어와 레노버는 생성형 AI와 같은 차세대 최신 애플리케이션을 구동하는 데 필요한 인프라에 투자함으로써 모든 규모의 고객들이 디지털 기업으로 거듭날 수 있도록 협력하고 있다”며, “양사의 공동 에지 및 클라우드 연구소에서 출시한 레노버 신규 시스템에서 얻은 결과는 우리의 중요한 이정표가 됐다. 레노버와 VM웨어는 미드 마켓 및 엔터프라이즈 고객들이 변화하는 IT 환경을 관리하고, 보다 빠른 혁신을 실현하며, 비즈니스 성과를 향상할 수 있도록 돕고 있다”고 말했다.
작성일 : 2023-08-31
엔비디아, 생성형 AI 가속화 돕는 엔터프라이즈용 서버 솔루션 출시
엔비디아가 세계 주요 시스템 제조업체들이 별도로 발표된 VM웨어 프라이빗 AI 파운데이션(VMware Private AI Foundation)을 지원하는 엔비디아 AI 레디 서버(NVIDIA AI-ready)를 제공할 예정이라고 발표했다. 이 서버는 기업이 독자적인 비즈니스 데이터를 사용해 생성형 AI 애플리케이션을 맞춤화하고 배포할 수 있도록 지원한다. 엔비디아 AI 레디 서버에는 엔비디아 L40S GPU, 엔비디아 블루필드-3 (BlueField-3) DPU, 엔비디아 AI 엔터프라이즈 소프트웨어가 탑재된다. 이를 통해 기업들은 생성형 AI 기반 모델을 미세 조정하고 지능형 챗봇, 검색, 요약 도구 등과 같은 생성형 AI 애플리케이션을 구현할 수 있다. 엔비디아 AI 레디 서버는 생성형 AI를 도입하려는 여러 업계에 풀 스택 가속 인프라와 소프트웨어를 제공하도록 설계됐다. 여기에는 신약 개발, 유통 제품 설명, 지능형 가상 어시스턴트, 제조 시뮬레이션 등 광범위한 애플리케이션이 해당된다.     이 서버에는 엔비디아 AI 플랫폼 운영 체제인 엔비디아 AI 엔터프라이즈가 탑재된다. 이 소프트웨어는 LLM을 위한 엔비디아 네모(NeMo), 시뮬레이션을 위한 엔비디아 모듈러스(Modulus), 데이터 사이언스를 위한 엔비디아 래피즈(RAPIDS), 프로덕션 AI를 위한 엔비디아 트리톤 추론 서버(Triton Inference Server)  등 100개 이상의 프레임워크, 사전 훈련된 모델, 툴킷, 소프트웨어에 대한 프로덕션 지원과 보안을 제공한다. L40S GPU는 수십억 개의 매개변수가 있는 복잡한 AI 워크로드를 처리하도록 설계됐으며, 4세대 텐서 코어와 FP8 트랜스포머 엔진이 포함된다. 이를 통해 1.45페타플롭스 이상의 텐서 처리 성능과 엔비디아 A100 텐서 코어 GPU에 비해 최대 1.7배의 훈련 성능을 제공한다. 지능형 챗봇, 어시스턴트, 검색, 요약 등과 같은 생성형 AI 애플리케이션의 경우, 엔비디아 L40S는 엔비디아 A100 GPU에 비해 최대 1.2배 더 뛰어난 생성형 AI 추론 성능을 제공한다. 엔비디아 블루필드 DPU를 통합하면 가상화, 네트워킹, 스토리지, 보안과 기타 클라우드 기반 AI 서비스의 엄청난 컴퓨팅 부하를 가속화, 오프로드 또는 격리해 속도를 더욱 높일 수 있다. 또한, 엔비디아 커넥트X-7 스마트NIC(ConnectX-7 SmartNIC)는 고급 하드웨어 오프로드와 초저지연을 제공해 데이터 집약적인 생성형 AI 워크로드를 위한 높은 확장성을 제공한다. L40S GPU와 블루필드 DPU가 탑재된 엔비디아 AI 레디 서버는 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버 등 글로벌 시스템 제조업체를 통해 연말 출시를 앞두고 있으며, 향후 몇 달 내 클라우드 서비스 제공업체를 통해 인스턴스를 이용할 수 있게 되어 엔터프라이즈용 생성형 AI 가속화에 활용될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 "새로운 컴퓨팅 시대가 시작됐다. 모든 산업 분야의 기업들이 생성형 AI를 도입하기 위해 경쟁하고 있다. 엔비디아는 세계 최고의 소프트웨어와 시스템 파트너 에코시스템을 통해 전 세계 기업들에게 생성형 AI를 제공하고 있다"고 말했다.
작성일 : 2023-08-23
VM웨어, 강력한 측면 보안에 초점 맞춘 보안 솔루션의 기능 업데이트 공개
VM웨어는 글로벌 보안 행사인 'RSA 콘퍼런스 2023'에서 멀티 클라우드 환경 전반에서 강력한 측면 보안을 제공해 고객이 사이버 위협을 사전에 감지하고 차단할 수 있는 새로운 보안 솔루션 기능 업데이트를 공개했다고 밝혔다. VM웨어의 보안 솔루션 제품군을 지원하는 위협 인텔리전스 클라우드인 VM웨어 콘텍사(Contexa)에 따르면, 사이버 위협은 공격 목표에 도달하기 위해 단 2~3번의 측면 이동을 하는 것으로 나타났다. 측면 이동을 방지하기 위해서는 사용자, 기기, 네트워크, 애플리케이션, 데이터 전반에 걸친 엔드 투 엔드 가시성이 필요하다. 이번에 공개된 기능 업데이트는 ▲VM웨어 NSX 성능 가속화를 위한 스마트NIC 사용 DPU 기반 가속화 ▲클라우드 네이티브 아키텍처를 위해 설계된 보안을 위한 VM웨어 카본 블랙 워크로드 및 클라우드 환경 설정 ▲기업 지사에서 운영을 간소화할 수 있도록 VM웨어 SD-WAN 에지 어플라이언스에 NSX 고급 위협 방지 기능을 제공하는 향상된 방화벽 서비스 ▲애플리케이션과 클라우드 전반에서 더욱 안전한 애플리케이션 연결성을 위한 VM웨어 시큐어 앱(Secure App) IX ▲피싱 및 콘텐츠 보호, 보안 액세스, 패치 관리를 위한 VM웨어 워크스페이스 원(Workspace ONE) 업데이트 등을 포함한다.     최근 몇 달 동안 VM웨어는 VM웨어 NSX의 DPU 기반 가속화를 강조하는 제품을 연이어 출시했다. 기술 프리뷰로 제공된 기능이 VM웨어 NSX 4.1에서 정식 버전으로 제공됨에 따라 고객은 스마트NIC를 사용하여 DPU 기반 가속을 활용할 수 있게 됐다. 이 제품을 통해 고객은 DPU에서 NSX 네트워킹 및 보안 서비스를 실행함으로써 높은 처리량, 줄어든 연결 지연 시간 및 보안이 필요한 애플리케이션에 가속화된 NSX 네트워킹 및 보안 성능을 경험할 수 있다. 멀티 클라우드 환경의 보안을 유지하는 것은 IT 및 보안 담당 팀 뿐만 아니라 최고 경영진에게도 공동의 책임이자 최우선 과제이다. VM웨어 카본 블랙 워크로드 및 클라우드 환경 설정의 도입은 클라우드 네이티브 아키텍처를 위해 설계된 보안을 제공함으로써 이러한 요구를 해결하고, 고객이 워크로드의 수명주기 전반에 걸쳐 보안을 지속적인 프로세스로 간주하도록 지원한다. VM웨어는 보안 클라우드를 위한 VM웨어 카본 블랙 워크로드와 VM웨어 아리아 오토메이션(Aria Automation)의 장점을 결합, 위협 분석을 위한 VM웨어 콘텍사 기반의 심층적인 맥락 정보를 제공함으로써 워크로드 상태에 대한 가시성 향상, 컴플라이언스 강화, 가성양성 감소 및 자동화된 워크플로로 인한 운영 편의성, 복잡성 감소 등의 이점을 누릴 수 있다. 또한, VM웨어는 향상된 방화벽 서비스 기능을 공개하여 VM웨어 SD-WAN 엣지 어플라이언스에 NSX 고급 위협 방지 기능을 제공함으로써 포괄적인 VM웨어 보안 액세스 서비스 에지(SASE) 기능을 더욱 강화했다. 이 기능은 다른 모든 VM웨어 SASE 서비스와 마찬가지로 운영을 간소화하고 별도의 보안 관리가 필요하지 않도록 VM웨어 SASE 오케스트레이터에 통합된다. 고객은 NSX의 고급 위협 방지 기능과 VM웨어 SD-WAN 에지 플랫폼을 결합하여 보안을 유지하면서 각 지점의 레거시 방화벽을 제거하고 네트워크 및 보안 운영을 간소화할 수 있으며, 위협 인텔리전스에 대한 VM웨어의 투자를 활용할 수 있다. 향상된 방화벽 서비스 기능은 VM웨어 SD-WAN, 클라우드 웹 보안, AIOps용 에지 네트워크 인텔리전스, 원격 액세스를 위한 SD-WAN 클라이언트와 함께 클라우드에서 관리되며, 클라우드 네이티브 및 클라우드 제공 SASE 기능을 지원한다. VM웨어는 멀티 클라우드 환경에서 애플리케이션을 보다 안전하게 연결하고 애플리케이션 팀과 비즈니스 팀이 애플리케이션 및 디지털 혁신 이니셔티브를 가속화하도록 지원하여 기업의 거버넌스 및 컴플라이언스 준수를 달성하도록 설계된 신제품 VM웨어 시큐어 앱 IX를 발표했다. VM웨어 시큐어 앱 IX는 기업이 단일 및 멀티 클라우드 환경 전반에서 거버넌스 및 컴플라이언스 준수를 위해 실시간 가시성과 인사이트를 바탕으로 일관된 보안 애플리케이션 연결 정책을 표준화하고 시행할 수 있는 기능을 제공한다. 이를 통해 끊임없이 변화하는 보안 위협 및 취약성으로부터 애플리케이션 엔드 유저, 애플리케이션/API 및 전송 중인 중요한 데이터를 보호할 수 있다. 한편, VM웨어는 피싱 및 콘텐츠 보호, 보안 액세스, 패치 관리를 아우르는 워크스페이스 원의 혁신을 발표, 하이브리드 업무 환경에서 기업의 임직원을 더욱 안전하게 보호할 수 있도록 지원한다. 기업을 대상으로 하는 모바일 피싱 캠페인은 지난 2년 동안 그 수와 영향력이 증가했다. VM웨어 워크스페이스 원 모바일 위협 방어는 피싱 및 컨텐츠 보호를 워크스페이스 원 플랫폼과 통합하여 위협 행위자가 개인 기기의 기업 프로필을 비롯한 보안 제어를 회피하는 위험을 해결하도록 지원한다. 모바일 위협 방어를 통해 고객은 이메일, SMS, 일반 웹 콘텐츠, 메시징 및 소셜 앱 전반의 잠재적인 피싱 위협을 더 효과적으로 방지할 수 있다. 피싱 및 콘텐츠 보호는 워크스페이스 원 터널과의 고유한 통합을 사용하여 외부 및 내부의 모든 트래픽에 적용된다. 피싱 및 콘텐츠 보호 솔루션과 VPN 간의 충돌은 피싱 및 콘텐츠 보호와 보안 액세스를 터널 내에서 통합함으로써 제거할 수 있다. VM웨어의 서밋 다완(Sumit Dhawan) 사장은 "사이버 보안 위협의 양상이 진화함에 따라 고객은 인프라가 기업을 보호하는 데 보다 적극적인 역할을 수행할 것을 요구하고 있다"고 말했다. 그는 또한 "VM웨어는 인프라 혁신을 주도하여 현재와 미래의 사이버 위협에 대해 더욱 강력한 보호 기능을 제공하기 위해 최선을 다하고 있다. 이번 RSA 콘퍼런스에서 공개하는 혁신 기술을 통해 멀티 클라우드 환경을 노리는 사이버 공격에 대한 다양한 상황별 가시성과 보호 기능을 강화할 수 있게 되었다"라고 덧붙였다.
작성일 : 2023-04-25
델 테크놀로지스, AI 추론 성능과 전력 효율 높인 차세대 파워엣지 서버 공개
한국 델 테크놀로지스는 델 파워엣지(Dell PowerEdge) 포트폴리오에 13종의 차세대 모델을 추가했다고 밝혔다. 이번 신제품은 코어 데이터센터부터 대규모 퍼블릭 클라우드나 에지 환경까지 강력한 컴퓨팅 성능과 안정성을 구현했다. 4세대 인텔 제온 스케일러블(Xeon Scalable) 프로세서가 탑재된 델 파워엣지 신제품군은 랙, 타워, 멀티-노드 등 다양한 형태로 제공되며, 새로운 ‘스마트 플로우(Smart Flow)’ 설계를 비롯해 소프트웨어 및 엔지니어링 상의 다양한 진전을 이뤄내며, 전력 및 비용 효율성을 개선했다. 또한 델은 고객들이 서비스형(as-a-Service) 방식을 유연하게 선택할 수 있도록 ‘델 에이펙스(Dell Apex)’ 포트폴리오에 컴퓨트 서비스를 추가해, 리스크를 최소화하면서 보다 효과적인 IT 운영을 지원할 계획이다.     새로운 델 파워엣지 서버는 인공지능 및 분석에서 대규모 데이터베이스에 이르기까지 다양한 워크로드의 요구사항을 충족하도록 설계됐다. 포트폴리오에 추가된 제품들은 엔비디아 H100 텐서코어 GPU(NVIDIA H100 Tensor Core GPU)와 풀 스택 운영 AI 플랫폼을 위한 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어 제품군 등 인공지능 및 머신러닝 분야의 최신 기술이 적용됐다. 델 파워엣지 HS5610 및 HS5620 서버는 1U 또는 2U 폼팩터의 2 소켓 서버로 대규모의 멀티벤더 데이터 센터를 관리하는 CSP(클라우드 서비스 공급자)에게 최적화된 솔루션을 제공하며, 냉기 통로(cold aisle) 서비스 가능 구성이 가능하다. CSP가 HS5610 및 HS5620 서버와 함께 오픈BMC(OpenBMC)에 기반한 시스템 관리 솔루션인 ‘델 오픈 서버 매니저(Dell Open Server Manager)’를 이용하면 다양한 이기종의 서버들을 보다 간편하게 관리할 수 있다.  델 파워엣지 R760을 비롯한 차세대 파워엣지 제품군은 ‘인텔 딥러닝 부스트(Intel Deep Learning Boost)’와 ‘인텔 어드밴스드 매트릭스 익스텐션(Intel Advanced Matrix Extensions)’을 내장한 4세대 인텔 제온 스케일러블 프로세서를 탑재해, AI 추론 성능을 최대 2.9배 끌어 올렸다. 또한 이전 세대와 비교했을 때 단일 서버에서 최대 20% 더 많은 VDI 사용자를 지원하고, 50% 더 많은 SAP S&D(SAP Sales & Distribution) 사용자를 지원한다. 델 파워엣지 시스템 구매 시 엔비디아 블루필드(NVIDIA Bluefield-2) DPU를 탑재해 함께 구매할 수 있으며, 이를 통해 추가 오프로드, 가속화 및 워크로드 격리 기능을 활용하여 프라이빗, 하이브리드 및 멀티 클라우드 구축 시 전력 효율을 높일 수 있다. 이와 함께 델은 간편한 서버 관리를 위해 강화된 모니터링 소프트웨어와 신규 서비스를 소개했다. 여기에는 ▲사전 예방적 모니터링, 머신러닝 및 예측 분석을 결합하여 서버가 어디에 있든 관계없이 포괄적인 뷰를 제공하는 델 클라우드IQ(Dell CloudIQ) ▲제품 수령 직후 즉시 설치가 가능하도록 고객이 원하는 운영 체제, 하이퍼바이저 소프트웨어 및 RAID, BIOS 및 iDRAC 설정으로 사전 구성하여 출고하는 델 프로디플로이 팩토리 구성 서비스(Dell ProDeploy Factory Configuration) ▲데이터센터를 확장하거나 IT 현대화를 추진하고자 하는 기업에게 운영 환경에 최적화된 랙 및 네트워크 구성을 제공하는 델 프로디플로이 랙 통합 서비스(Dell ProDeploy Rack Integration) ▲보다 간편하게 시스템을 구축하고 진단할 수 있도록 인증서 만료 알림, 델 콘솔 원격 제어, GPU 모니터링 등의 기능을 업데이트한 iDRAC(통합 Dell 원격 액세스 컨트롤러) 등이 있다. 또한, 델 파워엣지 차세대 서버는 지속가능성의 가치가 설계에 적용됐다. 이번 신제품은 2017년에 출시된 14세대 파워엣지 서버와 비교해 3배 향상된 성능을 갖췄으며, 차지하는 공간은 줄이고 더 강력하고 효율적인 기술들을 구현했다. 델 스마트 플로우(Dell Smart Flow) 설계를 적용해 이전 세대 서버 대비 냉각 팬에 소모되는 전력을 최대 52% 절감했고, 델 오픈매니지 엔터프라이즈 파워 매니저 3.0(Dell OpenManage Enterprise Power Manager 3.0)은 탄소 배출량을 모니터링하며 전력 상한을 최대 82% 더 빨리 설정하여 전체 에너지 사용량을 제한할 수 있다. 델 파워엣지 서버 중 4개 시스템은 미국의 전자제품 친환경 인증제도인 EPEAT ‘실버’ 등급으로, 46개 시스템은 ‘브론즈’ 등급으로 지정될 예정이다. 이외에도, 차세대 파워엣지 서버는 조직 내 IT 환경의 제로 트러스트 구현을 가속화할 수 있도록 지원한다. 하드웨어 수준에서 반도체 기반 RoT(root of trust)와 ‘델 시큐어드 컴포넌트 인증(Dell Secured Component Verification, SCV)’을 통해 통해 설계부터 배송 단계까지의 공급망 보안을 유지하고, 멀티팩터 인증 및 통합 iDRAC으로 접근를 승인하기 전에 사용자를 확인한다. 공급망 보안이 확보되면 기업들은 제로 트러스트 접근 방식을 강화할 수 있으며, 델 SCV를 통해 구성 요소의 암호화 검증 기능을 사용해 공급망 보안을 사업장 내부로까지 확장할 수 있다. 한국 델 테크놀로지스의 김경진 총괄사장은 “고객들이 델을 찾는 가장 큰 이유는 비즈니스에 중요한 워크로드가 최적의 성과를 낼 수 있도록 하기 위함이다. 아무리 복잡한 환경이더라도 손쉽게 관리할 수 있고, 효율적으로 스마트하게 구동되는 서버를 사용하기 원한다”고 말하며, “델의 차세대 파워엣지 서버는 전력 효율성, 성능, 안전성에 대한 기준을 다른 차원으로 끌어올렸다. 또 전체 IT 환경의 보안을 향상시키고자 하는 고객들이 간소화된 방식으로 제로 트러스트를 구현할 수 있도록 지원한다”고 덧붙였다. 델 파워엣지 R760 서버는 2월 중, 델 파워엣지 HS5620과 HS5610은 4월 중 국내에 출시될 예정이며, 차세대 파워엣지 서버 중 나머지 모델들은 상반기 중 국내 출시가 완료될 계획이다. 프로디플로이 팩토리 구성 서비스는 한국을 비롯해 전체 시장에서 이용 가능하며, 프로디플로이 랙 통합 서비스는 하반기에 국내 출시될 예정이다. 새롭게 추가되는 델 에이펙스 컴퓨트 서비스는 하반기 중 공개될 예정이다.
작성일 : 2023-02-14
엔비디아, AI 컴퓨팅 향상 위해 인텔 제온 스케일러블 프로세서 채택
엔비디아가 인텔과 협력해 AI 컴퓨팅 효율성 극대화에 나선다고 밝혔다. 엔비디아의 AI 플랫폼을 위한 서버 시스템에 인텔이 최근 출시한 데이터센터용 CPU인 4세대 제온 스케일러블 프로세서를 탑재한다는 것이 주요 내용이다. 인공지능(AI)은 코로나 백신을 빠른 속도로 개발했을 뿐만 아니라 암 진단, 자율주행 자동차 동력 공급, 기후 변화 분석 등 인류를 변화시키는 혁신의 핵심이 됐다. 한편으로 신경망이 복잡해지면서 기술은 더욱 자원 집약적으로 변화했다. 따라서 최대한 효율적인 기반 기술이 필요한데, 이러한 기술은 컴퓨터 인프라 운영에 필요한 전력 생산이 지속 불가능한 수준이 되지 않도록 예방한다. 엔비디아는 자사의 GPU와 AI 플랫폼으로 구동되는 가속 컴퓨팅을 통해 데이터센터가 지속적으로 차세대 혁신을 이어갈 수 있도록 효율성을 제공한다는 계획이다. 여기에 4세대 인텔 제온 스케일러블 프로세서를 활용해 높은 에너지 효율성을 가진 AI로 구축된 차세대 가속 컴퓨팅 시스템을 제작할 수 있다는 것이 엔비디아의 설명이다. 엔비디아 H100 텐서 코어(Tensor Core) GPU와 결합된 이 시스템은 이전 세대보다 뛰어난 성능, 큰 규모, 높은 효율성을 제공해, 와트당 더 높은 연산 성능과 문제 해결 능력을 제공한다.     새로운 인텔 CPU는 엔비디아 DGX H100 시스템을 비롯해 H100 GPU를 탑재한 60개 이상의 서버에 사용될 계획이다. 인텔의 새로운 CPU가 탑재된 엔비디아 시스템을 통해 기업들은 기존 CPU 전용 데이터센터 서버 대비 평균 25배 높아진 효율성으로 워크로드를 실행할 수 있다. 와트당 제공되는 성능이 향상되었다는 것은 작업을 마치는 데 필요한 전력이 적게 소요된다는 뜻이다. 따라서 데이터센터에 쓰이는 전력을 최대한 효율적으로 사용해 가장 중요한 작업에 힘을 쏟을 수 있게 해준다. 엔비디아는 "신세대 엔비디아 가속 서버가 훈련과 추론 속도를 높이기 때문에 이전 세대의 가속 시스템 대비 에너지 효율성을 3.5배 높여준다. 다시 말해 AI 데이터센터는 총 소유 비용(TCO)을 3배 이상 절감한다"고 설명했다. 한편, 4세대 인텔 제온 CPU의 기능 중 하나는 PCIe Gen 5를 지원하는 것이다. 이는 CPU에서 엔비디아 GPU와 네트워킹으로의 데이터 전송 속도를 두 배로 높인다. PCIe 레인(lane)이 증가하면 각 서버 내에서 GPU와 고속 네트워킹의 밀도가 향상된다. 또한 빨라진 메모리 대역폭으로 AI처럼 데이터 집약적인 워크로드의 성능을 향상시킨다. 여기에 연결 당 최대 400Gbps(초당 기가비트)의 네트워킹 속도로 서버와 스토리지 간의 데이터 전송 속도를 높였다. 목적 기반 AI 인프라인 4세대 엔비디아 DGX H100 시스템은 가속 데이터센터의 운영 체제인 엔비디아 베이스 코멘드(Base Command) 소프트웨어를 기반으로 최적화된 플랫폼을 제공한다. DGX H100 시스템에는 각각 8개의 엔비디아 H100 GPU, 10개의 엔비디아 ConnectX-7 네트워크 어댑터 및 듀얼 4세대 인텔 제온 스케일러블 프로세서를 갖추고 있다. 다라서 대규모 생성 AI 모델, 대형 언어 모델, 추천 시스템 등을 구축하는 데 필요한 성능을 제공한다. 엔비디아 네트워킹과 결합된 이 시스템은 이전 세대보다 최대 9배 더 높은 성능을 제공한다. 또한 AI 훈련 및 HPC 워크로드에 대해 가속화되지 않은 X86 듀얼 소켓 서버보다 20배에서 40배 더 높은 성능을 제공해 규모에 맞게 컴퓨팅을 효율적으로 만든다. 엔비디아는 "이전에는 언어 모델을 X86 전용 서버 클러스터에서 훈련시키는 데 40일이 필요했지만, 인텔 제온 CPU와 ConnectX-7 구동 네트워킹을 사용하는 엔비디아 DGX H100에서 동일한 작업을 완료하는 데는 불과 하루 이틀 밖에 소요되지 않는다"고 설명했다. 엔비디아에 따르면, H100 GPU와 4세대 인텔 제온 스케일러블 CPU를 갖춘 시스템은 에이수스, 아토스, 시스코, 델 테크놀로지스, 후지쯔, 기가바이트, 휴렛팩커드 엔터프라이즈, 레노버, QCT, 슈퍼마이크로, 인스퍼 등의 엔비디아 파트너에서 출시될 예정이다.
작성일 : 2023-01-19
슈퍼마이크로, 성능·속도·친환경성 높인 X13 서버 포트폴리오 출시
슈퍼마이크로컴퓨터가 AI, HPC, 클라우드, 미디어, 엔터프라이즈 및 5G/통신/에지 워크로드에 중점을 둔 15종 이상의 성능 최적화 시스템과 함께 광범위한 1등급 서버 및 스토리지 포트폴리오를 출시했다.  이번 신제품은 새로운 4세대 인텔 제온 스케일러블 프로세서를 탑재해 성능, 속도, 친환경 측면이 강화되었다. 최대 60% 향상된 워크로드 최적화 성능, 강화된 보안(하드웨어 자체 보안 기능(HRoT) 인증), 그리고 관리 용이성을 제공하고 통합된 AI, 스토리지 및 클라우드 가속으로 보다 빨라졌으며, 고온 환경 및 수랭 옵션으로 환경 영향과 운영 비용을 줄여 더욱 친환경적이라는 것이 슈퍼마이크로의 설명이다. 인텔의 4세대 제온 스케일러블 프로세서에 탑재된 엑셀러레이터 엔진은 효율성을 높이고, 데이터센터에서 많은 크리티컬 워크로드로 인한 CPU 부하를 줄여준다. 4세대 인텔 제온 스케일러블 프로세서는 딥러닝 추론 및 학습 성능을 향상시키는 인텔 어드밴스드 매트릭스 익스텐션(AMX), 스토리지와 네트워킹, 데이터 처리 집약적인 작업에서 CPU 오버헤드를 줄이는 인텔 데이터 스트리밍 액셀러레이터(DSA), 잘 알려진 암호화와 데이터 압축 및 압축 해제 알고리즘의 하드웨어 오프로드를 위한 인텔 퀵어시스트 테크놀로지(QAT), vRAN 워크로드의 용량을 개선하고 전력 소비를 줄이기 위한 vRAN용 인텔 AVX가 포함된다. 또한, 슈퍼마이크로 서버는 폭넓은 서버군에서 새로운 인텔 데이터센터 GPU 맥스 시리즈를 지원할 예정이다. 인텔 데이터센터 GPU 맥스 시리즈는 최대 128개의 Xe-HPC 코어를 포함하며 AI, HPC, 그리고 시각화 워크로드를 가속화할 수 있다.     차세대 데이터센터 인프라를 위한 새 슈퍼마이크로 X13 시스템은 빌딩 블록 솔루션 접근방식으로 설계되어, 높은 성능과 효율을 내면서 고객의 특정 워크로드 및 규모에 맞는 유연성을 제공한다. 슈퍼마이크로 X13 시스템은 1개, 2개, 4개, 8개의 4세대 인텔 제온 스케일러블 프로세서로 구동 가능하며, 각각 최대 60개의 코어를 지닌 프로세서는 인텔, 엔비디아 등의 차세대 내장 엑셀러레이터와 최대 700W GPU를 지원한다. 더불어 OCP 3.0 호환 Advanced IO Module(AIOM), EDSFF 스토리지, OCP OAM, SXM GPU 상호 연결을 포함한 다양한 오픈 산업 표준을 지원하여 독점 기술에 대한 의존도를 줄인다. 슈퍼마이크로는 "고객의 데이터센터 전반의 구성요소를 표준화하고 슈퍼마이크로 시스템을 최소한의 변경으로 기존 인프라에 통합 가능하게 한다. 슈퍼마이크로 서버는 개방형 표준 기반 서버 관리를 활용해 매끄럽게 기존 IT 환경에 통합될 수 있다"고 설명했다. 슈퍼마이크로의 X13 시스템은 4세대 인텔 제온 스케일러블 프로세서와 최대 350W의 인텔 제온 CPU 맥스 시리즈를 기반으로 하며, 일부 시스템에서 고대역폭 메모리(High Bandwidth Memory : HBM)를 지원하여 4배 확장된 메모리 대역폭을 제공한다. X13 시스템은 CPU와 액셀러레이터 사이에 통합되고 일관성 있는 메모리 공간 생성을 위한 CXL 1.1, DDR4의 성능 및 용량이 최대 1.5배인 DDR5-4800 MT/s 메모리, 이전 세대 대비 I/O 대역폭을 두 배로 확대하는 PCIe 5.0, CPU당 최대 80개 레인, 그리고 핫 티어 및 웜 티어 스토리지 애플리케이션에 전례 없는 속도, 용량, 그리고 밀도를 제공하도록 설정된 EDSFF E1.S와 E3.S 같은 새로운 스토리지 폼 팩터 등의 차세대 산업 기술도 지원한다. 네트워킹의 경우, 다중 400Gbps InfiniBand(NDR)과 데이터 프로세싱 유닛(DPU) 지원으로 분산 학습, 분리형 스토리지, 그리고 지연이 적은 실시간 협업이 가능하다. 이외에도, 슈퍼마이크로 X13 시스템은 고급 열 아키텍처 및 최적화된 공기 흐름으로 인해 최대 40℃까지 높은 주변 환경 온도에서도 작동 가능하며, 냉각 관련 인프라 비용 및 운영비용(OPEX)을 줄인다. 수랭 옵션 또한 많은 X13 시스템에서 사용 가능하며 표준 에어컨과 비교 시 운영비용을 최대 40%까지 줄일 수 있다. 멀티 노드 시스템을 위한 슈퍼마이크로의 리소스 절약형 아키텍처는 공유 냉각 및 전력을 활용해 전력 소비와 원자재 사용을 줄이고 TCO와 TCE를 모두 낮춘다. 게다가 티타늄 레벨의 전력 공급 장치 내장 설계가 작동 효율성 향상을 보장한 결과 데이터센터 PUE가 업계 평균인 1.60에서 1.05로 줄어들 수 있다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “15개가 넘는 X13 서버군으로 구성된 슈퍼마이크로의 광범위한 포트폴리오는 특정 데이터센터 및 인텔리전트 에지 워크로드를 위해 성능, 기능, 그리고 비용이 최적화된 설계로 구성되어 있다. 새로운 4세대 인텔 제온 스케일러블 프로세서를 탑재한 슈퍼마이크로 시스템은 전반적인 성능과 와트당 성능 면에서 전례 없는 성과를 낼 수 있다”고 전했다.
작성일 : 2023-01-12