• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "HPE"에 대한 통합 검색 내용이 184개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HPE-고려대, “차세대 지능형 캠퍼스 위한 ICT 인프라 구축”
HPE는 고려대학교와 함께 차세대 지능형 캠퍼스 ICT 인프라를 구축하기 위한 업무협약(MOU)을 체결했다고 발표했다. 고려대학교는 개교 120주년인 2025년까지 더욱 고도화된 네트워크 환경을 구축하고 효율적인 ICT 환경 운영을 통해 더 선진화된 교육 환경을 제공할 수 있도록 할 뿐만 아니라, 국내외 대학의 차세대 지능형 캠퍼스 네트워크의 표준을 선도한다는 목표를 설정하였다. 이번 MOU 체결에 따라 양 기관은 학생 및 교직원을 위하여 효율적인 운영 및 더욱 향상된 학습 환경 제공을 최우선시하며 차세대 지능형 캠퍼스를 구축하기 위한 비전을 함께 수립하고, 이에 필요한 기술 및 운영 협력 방안을 모색할 계획이다. 고려대와 HPE는 첫 번째 단계로 HPE 아루바 네트워킹의 최신 시스템 교체를 통해 네트워크 사용 현황을 개선하고, 사용자 역할 기반 보안 정책을 적용한 더욱 정밀한 인증체계로 보안을 강화하며, 아루바 UXI(Aruba User Experience Insight) 센서 등의 도입을 통해 사전 장애 감지 및 원격 모니터링 기능으로 네트워크 운용 편의성을 더욱 높인다는 계획이다. 또한, 무선 네트워크를 가장 많이 사용하는 학생들의 상황을 고려해, 새로운 6GHz 대역에 액세스할 수 있는 와이파이 6E 지원 가능 AP로 전수 교체함으로써 무선 네트워크 품질도 높일 예정이다.     고려대학교의 김동원 총장은 “최근 IT 기술의 발전에 따라 더욱 효율적인 IT 환경에 대한 학생들의 기대는 더욱 높아져 왔다. 고려대학교는 그 동안 학생들이 선진화된 IT 환경에서 학업을 이어나갈 수 있도록 다양한 투자를 진행해 왔다. 이번 업무 협약은 더욱 고도화된 지능형 캠퍼스를 구축하기 위한 노력의 일환”이라면서, “HPE와 협력해 캠퍼스 내 어디서든 인텔리전트 모빌리티를 경험하고 활용할 수 있는 환경을 마련함으로써, 향후 전 세계 다른 유수 대학들의 모범이 되는 사례를 만들 것”이라고 말했다. 한국HPE의 김영채 대표이사는 “이제 최첨단 기술과 인프라는 더 수준 높은 교육 환경 조성을 위해 필수적인 요소가 되었다. HPE는 인프라에서 소프트웨어까지 아우르는 광범위한 포트폴리오를 바탕으로 앞으로 고려대학교와 함께 협력하여 스마트 캠퍼스 실현을 통해 글로벌 인재 육성에 기여하겠다. 동시에 HPE만의 기술을 기반으로 ESG를 실천하는 ICT 환경 조성도 적극 지원할 것”이라고 전했다.
작성일 : 2023-12-20
엔비디아, “델·HPE·레노버 서버에 AI용 이더넷 네트워킹 기술 통합”
엔비디아가 AI용 엔비디아 스펙트럼-X(NVIDIA Spectrum-X) 이더넷 네트워킹 기술이 델 테크놀로지스, 휴렛팩커드 엔터프라이즈, 레노버의 서버 라인업에 통합된다고 밝혔다. 엔비디아 AI 스택을 탑재한 델 테크놀로지스, HPE, 레노버의 새로운 시스템은 2024년 1분기에 출시될 예정이다. 스펙트럼-X는 생성형 AI를 위해 설계된 것이 특징으로 기존 이더넷 제품보다 1.6배 높은 AI 통신 네트워킹 성능을 구현하며, 기업이 생성형 AI 워크로드를 가속화할 수 있도록 지원한다. 3곳의 시스템 제조업체에서 선보이는 서버 시스템은 스펙트럼-X와 엔비디아 텐서 코어 GPU, 엔비디아 AI 엔터프라이즈 소프트웨어, 엔비디아 AI 워크벤치 소프트웨어를 결합했다. 이로써 기업들에게 생성형 AI로 비즈니스를 혁신할 수 있는 빌딩 블록을 제공한다. 스펙트럼-X는 네트워크 집약적인 대규모 병렬 컴퓨팅을 위해 설계된 엔비디아 블루필드-3 슈퍼NIC(BlueField-3 SuperNIC) 가속 소프트웨어를 결합했다. 엔비디아 블루필드-3 슈퍼NIC는 초당 51Tb/s의 AI용 이더넷 스위치인 스펙트럼-4의 성능을 통해 하이퍼스케일 AI 워크로드를 강화하는 새로운 등급의 네트워크 가속기이다. 이로써 스펙트럼-X는 AI 워크로드의 효율성을 높이며, 엔비디아의 인프라 컴퓨팅 플랫폼인 블루필드-3 DPU를 보완한다. 스펙트럼-X는 차세대 AI 시스템을 위한 레퍼런스 아키텍처인 엔비디아 이스라엘-1(Israel-1) 슈퍼컴퓨터를 지원한다. 이스라엘-1은 델 테크놀로지스와 협력한 것으로, 엔비디아 HGX H100 8-GPU 플랫폼 기반의 델 파워엣지(PowerEdge) XE9680 서버와 스펙트럼-4 스위치 기반의 블루필드-3 DPU와 슈퍼NIC를 사용한다.     엔비디아의 젠슨 황(Jensen Huang) CEO는 “기업이 워크로드를 처리하기 위해 데이터센터를 업그레이드하면서 생성형 AI와 가속 컴퓨팅이 세대 간 전환을 주도하고 있다. 가속 네트워킹은 엔비디아의 선도적인 서버 제조업체 파트너사들이 생성형 AI 시대로 신속하게 전환할 수 있도록 새로운 시스템 파동을 일으키는 촉매제가 될 것”이라고 말했다. 델 테크놀로지스의 마이클 델(Michael Dell) CEO는 “가속 컴퓨팅과 네트워킹은 대규모 언어 모델(LLM)과 생성형 AI 애플리케이션의 요구 사항을 충족시키는 시스템 구축에 핵심적인 역할을 한다. 델 테크놀로지스와 엔비디아의 협력을 통해 고객에게 데이터에서 인텔리전스를 빠르고 안전하게 추출하는 데 필요한 인프라와 소프트웨어를 제공하고 있다”고 말했다. HPE의 안토니오 네리(Antonio Neri) CEO는 “여러 산업에서 혁신을 주도할 생성형 AI는 다양하고 동적인 워크로드를 지원하기 위해 근본적으로 다른 아키텍처를 필요로 한다. 고객이 생성형 AI의 잠재력을 최대한 실현할 수 있도록 HPE는 엔비디아와 협력해 애플리케이션을 지원하는 데 필요한 성능, 효율성, 확장성을 갖춘 시스템을 구축하고 있다”고 말했다. 레노버의 양 위안칭(Yuanqing Yang) CEO는 “생성형 AI는 전례 없는 혁신을 실현할 수 있지만 기업 인프라에 대한 요구 사항도 전례 없이 높아졌다. 레노버는 엔비디아와 긴밀히 협력해 최신 AI 애플리케이션을 구동하는 데 필요한 네트워킹, 컴퓨팅, 소프트웨어를 갖춘 효율적이고 가속화된 시스템을 구축하고 있다”고 말했다.
작성일 : 2023-11-22
HPE, 생성형 AI를 위한 슈퍼컴퓨팅 솔루션 턴키로 제공
HPE가 생성형 AI를 위한 슈퍼컴퓨팅 솔루션을 발표했다. 이 솔루션은 대기업, 연구기관 및 정부 기관을 대상으로 한 생성형 AI에 최적화되었으며, 이를 통해 프라이빗 데이터 세트를 활용하여 인공지능(AI) 모델의 훈련과 조정을 효율적으로 가속화할 수 있다. HPE의 슈퍼컴퓨팅 솔루션은 소프트웨어 제품군을 통해 고객이 AI 모델을 훈련하고 조정하며 AI 애플리케이션을 개발하는 데 도움이 되는 기능을 한다. 더불어, 수냉식 슈퍼컴퓨터, 가속 연산, 네트워킹, 스토리지, 서비스를 포함하여 기업이 AI의 가치를 신속하게 실현할 수 있도록 종합적인 지원을 제공한다. 생성형 AI용 슈퍼컴퓨팅 솔루션의 핵심 구성요소는 AI 애플리케이션을 개발하고, 사전 구성된 모델을 맞춤화하며, 코드를 개발하고 수정하는 데 필요한 소프트웨어 도구이다. 이 소프트웨어는 HPE 크레이 슈퍼컴퓨팅 기술을 기반으로 하고 있다. HPE 크레이 슈퍼컴퓨팅 기술은 빠른 슈퍼컴퓨팅에도 사용되는 아키텍처를 기반으로 하고 있으며, 엔비디아 그레이스 호퍼 GH200 슈퍼칩(NVIDIA Grace Hopper GH200 Superchips)으로 구동된다. 이러한 기술이 적용된 솔루션을 바탕으로 기업 및 기관들은 LLM(대규모 언어 모델) 및 DLRM(딥러닝 추천 모델) 훈련과 같이 거대한 AI 워크로드에 필요한 규모와 성능을 구축할 수 있다. 또한 해당 시스템에 포함된 HPE 머신러닝 개발 환경(MLDE)을 사용함으로써 오픈소스이자 700억개 매개 변수를 가진 라마(Llama) 2 모델을 3분 이내에 미세 조정할 수 있어 고객이 가치 창출에 이르는 시간을 단축시켜준다. 이로써 엔비디아 기술과 함께 더욱 향상된 HPE 슈퍼컴퓨팅은 2~3배 향상된 성능을 제공한다. 생성형 AI를 위한 HPE의 슈퍼컴퓨팅 솔루션은 목적에 맞게 구축된 통합형 AI 네이티브 제품으로 엔드 투 엔드 기술 및 서비스를 제공한다. AI/ML 가속화를 위한 3개의 소프트웨어 툴이 포함된 제품군을 활용해 고객은 인공지능 모델을 훈련하고, 조정하며, 맞춤화된 AI 애플리케이션을 만들 수 있다. HPE 머신러닝 개발 환경은 머신러닝 소프트웨어 플랫폼으로, 인기 있는 머신 러닝 프레임워크와 통합하고 데이터 준비를 간소화해 AI 모델을 보다 빠르게 개발하고 배치할 수 있다. 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)는 보안, 안정성, 관리 및 지원 기능을 기반으로 기업과 기관이 최첨단 AI 기술을 더 적극적으로 사용할 수 있도록 돕는다. 또한, 생산용 AI의 개발 및 배치를 간소화하는 광범위한 프레임워크, 사전 훈련된 모델과 도구를 제공한다. 엑사스케일 수준의 시스템인 HPE 크레이 EX2500(HPE Cray EX2500)을 기반으로 엔비디아 GH200 그레이스 호퍼 슈퍼칩을 탑재한 이 솔루션은 가치 실현 시간을 더욱 단축할 수 있도록 단일 AI 워크로드에 노드 전체 용량을 배치할 수 있으며, 최대 수천 개의 GPU까지 확장할 수 있다. 또한, 이 시스템은 최초로 네 개의 GH200 수퍼칩 노드로 구성되어 제공된다. HPE 슬링샷 인터커넥트(HPE Slingshot Interconnect)는 엑사스케일 수준의 워크로드를 지원하도록 설계된 개방형 이더넷 기반 고성능 네트워크를 제공한다. HPE 크레이 기술을 기반으로 한 이 조정 가능한 상호연결은 매우 빠른 속도의 네트워킹을 가능하게 해 전체 시스템의 성능을 극대화한다. 생성형 AI용 슈퍼컴퓨팅 솔루션에는 더욱 간편하게 AI를 도입할 수 있도록 설정, 설치에서 라이프사이클 전반을 지원하는 글로벌 전문가를 제공하는 ‘HPE 컴플리트 케어 서비스(HPE Complete Care Services)’도 포함된다. HPE의 저스틴 호타드(Justin Hotard) 수석 부사장 겸 HPC·AI & Labs 총괄은 “세계 유수의 기업과 연구소들은 AI 모델의 훈련과 조정을 통해 연구 분야에서 혁신을 이끌어 내고 있으며, 이를 효과적이고 효율적으로 수행하기 위해서는 목적에 맞게 구축된 솔루션이 필요하다”며, “생성형 AI를 활용하기 위해서 기업 및 기관들은 지속가능한 솔루션을 사용하고, 슈퍼컴퓨터에 최적화된 성능과 규모를 기반으로 AI 모델 훈련을 지원해야 한다. HPE는 엔비디아와의 협력을 확대해 고객이 AI 모델 훈련과 성과 달성을 더욱 가속화할 수 있도록 지원하는 턴키 AI 네이티브 솔루션을 제공하게 돼 기쁘다”고 밝혔다. 엔비디아의 이안 벅(Ian Buck) 하이퍼스케일 및 HPC 부문 부사장은 “생성형 AI는 모든 산업과 과학 분야에 변화를 일으키고 있다”며, “엔비디아 GH200 그레이스 호퍼 슈퍼칩으로 구동되는 턴키 AI 훈련 및 시뮬레이션 솔루션을 위한 엔비디아와 HPE의 협력은 고객이 생성형 AI 이니셔티브의 돌파구를 마련하는데 필요한 성능을 제공할 것”이라고 말했다.
작성일 : 2023-11-20
HPE, 최신 슈퍼컴퓨팅 및 AI 전략 소개
한국HPE가 각각 고객, 파트너 및 개발자를 대상으로 ‘데이터 사이언스 세미나’ 및 ‘HPE ForCAST 2023’ 행사를 열고, AI의 핵심요소인 슈퍼컴퓨팅과 복잡하고 어려운 개발과정을 혁신할 수 있는 머신러닝(ML) 솔루션 활용 전략을 소개했다. 이번 행사에서는 HPE 글로벌 데이터 및 AI 부문 CTO 겸 차세대 테크 이노베이션 부사장인 소린 체란(Sorin Cheran) 박사, 리드하브 마하얀(Ridhav Mhajan), HPE APAC 에즈메랄 헤드 겸 CTO, 조던 나노스(Jordan Nanos) HPE 북아메리카 CTO실 마스터 테크놀로지스트 등 여러 주요 글로벌 임원도 참여하여 HPE의 AI 전략과 고객의 관점, 생성형 AI를 위해 HPE가 고객을 지원하는 법, AI 사용자를 위한 플랫폼 구축 방법을 제시했다. 주요 세션에서 HPE는 향후 로봇과 생성형 AI의 상호작용이 증가함에 따라 견고한 로보틱스 및 거버넌스의 중요성이 증가할 것이라고 전망했다. 또한, 이제 고객이 AI 및 ML 개발에 있어 어느 단계에 있고 그들의 요구사항이 무엇인지에 따라 이를 실현시켜 줄 수 있는 모델과 서비스를 제공하는 것이 무엇보다 중요하며 HPE는 위한 준비가 되어있음을 강조했다. HPE는 기업들이 진행하는 머신러닝 프로젝트에는 주로 언어, 비주얼 등 특정 영역에 집중한 프로젝트와 보안, 거버넌스에 집중하며 다양한 종류의 데이터와 모델을 활용하는 더 넓은 영역의 프로젝트 두 가지 유형이 있다고 설명했다.     HPE는 각각의 프로젝트를 위한 솔루션도 소개했다. HPE 머신러닝 디벨롭먼트 인바이런먼트(HPE MLDE)는 AI 모델 개발 관련 복잡성 및 비용 부담을 제거함으로써, 엔지니어 및 데이터 사이언티스트들이 더욱 정확한 AI 모델을 개발을 위한 혁신에 집중하고 가속화할 수 있도록 지원한다. 그리고 HPE 머신러닝 데이터 매니지먼트(HPE MLDM) 소프트웨어는 데이터 엔지니어들이 복잡한 데이터 파이프라인을 자동화하고 데이터 계보 관리(data lineage)를 할 수 있도록 지원한다. 다양한 결과를 재생산할 수 있고, 확장 가능하며, 클라우드나 온프레미스 환경 내 모두 구동 가능하여 데이터처리 및 머신러닝 워크로드에 최적화되어 있다. 또한, HPE 에즈메랄 유니파이드 애널리틱스(HPE Ezmeral Unified Analytics)는 하이브리드 멀티 클라우드 환경에서 예측가능한 SaaS(서비스형 소프트웨어) 솔루션을 제공함으로써 기업들이 다양한 규모로 전 세계의 데이터를 활용해 애널리틱스를 진행할 수 있도록 고안되었다. 한편, HPE는 지난 6월 대규모 언어 모델(LLM)용 HPE 그린레이크를 출시한 바 있다. LLM용 HPE 그린레이크는 HPE의 AI 소프트웨어와 슈퍼컴퓨팅 역량을 통합해주고 기업들이 멀티 테넌트 슈퍼컴퓨팅 클라우드 서비스를 온디맨드로 이용할 수 있게 해주는 슈퍼컴퓨팅 플랫폼이다. 이 플랫폼을 활용해 기업은 자체적으로 대규모 AI 모델을 훈련(train), 조정(fine-tune) 및 배포(deployment)할 수 있다. 또한, 이 서비스는 독일 AI 스타트업 알레프 알파(Aleph Alpha)와 파트너십을 통해 텍스트와 이미지 처리 및 분석을 지원하고 있다. 한국HPE의 김영채 대표이사는 “AI는 이전 시대와는 또다른 새로운 도전의 장이라고 할 수 있기에 남다른 각오를 갖고 사업에 임하고 있으며 대규모 언어 모델의 수요는 지속될 것으로 예상한다. HPE는 HPC 및 AI 사업을 위하여 지난 크레이(Cray) 인수로 시작해 기반을 다졌고, 그 이후로도 사업의 확장 및 개발을 위해 노력해왔다. 그동안 HPE가 직접 경험해오며 쌓아온 인사이트를 개발자 및 파트너와 공유하며 함께 AI 혁신을 이룰 수 있는 길을 열겠다”고 말했다.
작성일 : 2023-10-10
엔비디아, 생성형 AI 가속화 돕는 엔터프라이즈용 서버 솔루션 출시
엔비디아가 세계 주요 시스템 제조업체들이 별도로 발표된 VM웨어 프라이빗 AI 파운데이션(VMware Private AI Foundation)을 지원하는 엔비디아 AI 레디 서버(NVIDIA AI-ready)를 제공할 예정이라고 발표했다. 이 서버는 기업이 독자적인 비즈니스 데이터를 사용해 생성형 AI 애플리케이션을 맞춤화하고 배포할 수 있도록 지원한다. 엔비디아 AI 레디 서버에는 엔비디아 L40S GPU, 엔비디아 블루필드-3 (BlueField-3) DPU, 엔비디아 AI 엔터프라이즈 소프트웨어가 탑재된다. 이를 통해 기업들은 생성형 AI 기반 모델을 미세 조정하고 지능형 챗봇, 검색, 요약 도구 등과 같은 생성형 AI 애플리케이션을 구현할 수 있다. 엔비디아 AI 레디 서버는 생성형 AI를 도입하려는 여러 업계에 풀 스택 가속 인프라와 소프트웨어를 제공하도록 설계됐다. 여기에는 신약 개발, 유통 제품 설명, 지능형 가상 어시스턴트, 제조 시뮬레이션 등 광범위한 애플리케이션이 해당된다.     이 서버에는 엔비디아 AI 플랫폼 운영 체제인 엔비디아 AI 엔터프라이즈가 탑재된다. 이 소프트웨어는 LLM을 위한 엔비디아 네모(NeMo), 시뮬레이션을 위한 엔비디아 모듈러스(Modulus), 데이터 사이언스를 위한 엔비디아 래피즈(RAPIDS), 프로덕션 AI를 위한 엔비디아 트리톤 추론 서버(Triton Inference Server)  등 100개 이상의 프레임워크, 사전 훈련된 모델, 툴킷, 소프트웨어에 대한 프로덕션 지원과 보안을 제공한다. L40S GPU는 수십억 개의 매개변수가 있는 복잡한 AI 워크로드를 처리하도록 설계됐으며, 4세대 텐서 코어와 FP8 트랜스포머 엔진이 포함된다. 이를 통해 1.45페타플롭스 이상의 텐서 처리 성능과 엔비디아 A100 텐서 코어 GPU에 비해 최대 1.7배의 훈련 성능을 제공한다. 지능형 챗봇, 어시스턴트, 검색, 요약 등과 같은 생성형 AI 애플리케이션의 경우, 엔비디아 L40S는 엔비디아 A100 GPU에 비해 최대 1.2배 더 뛰어난 생성형 AI 추론 성능을 제공한다. 엔비디아 블루필드 DPU를 통합하면 가상화, 네트워킹, 스토리지, 보안과 기타 클라우드 기반 AI 서비스의 엄청난 컴퓨팅 부하를 가속화, 오프로드 또는 격리해 속도를 더욱 높일 수 있다. 또한, 엔비디아 커넥트X-7 스마트NIC(ConnectX-7 SmartNIC)는 고급 하드웨어 오프로드와 초저지연을 제공해 데이터 집약적인 생성형 AI 워크로드를 위한 높은 확장성을 제공한다. L40S GPU와 블루필드 DPU가 탑재된 엔비디아 AI 레디 서버는 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버 등 글로벌 시스템 제조업체를 통해 연말 출시를 앞두고 있으며, 향후 몇 달 내 클라우드 서비스 제공업체를 통해 인스턴스를 이용할 수 있게 되어 엔터프라이즈용 생성형 AI 가속화에 활용될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 "새로운 컴퓨팅 시대가 시작됐다. 모든 산업 분야의 기업들이 생성형 AI를 도입하기 위해 경쟁하고 있다. 엔비디아는 세계 최고의 소프트웨어와 시스템 파트너 에코시스템을 통해 전 세계 기업들에게 생성형 AI를 제공하고 있다"고 말했다.
작성일 : 2023-08-23
HPE, 대규모 언어모델을 위한 AI 클라우드 공개
HPE가 자사의 연례행사인 'HPE 디스커버 라스베가스 2023'에서 대규모 언어모델을 위한 제품 ‘LLM용 HPE 그린레이크 (HPE GreenLake for LLM)’을 공개하면서, HPE 그린레이크의 포트폴리오 확장 및 AI 클라우드 시장 진출을 밝혔다. 이번에 공개된 대규모 언어모델(LLM)을 위한 HPE 그린레이크는 AI 소프트웨어와 고성능의 슈퍼컴퓨터를 함께 활용할 수 있는 지속가능한 슈퍼컴퓨팅 플랫폼이다. HPE는 스타트업부터 포춘 선정 500대 기업에 이르기까지 다양한 규모의 기업들이 온디맨드 형식으로 멀티 태넌트 슈퍼컴퓨팅 클라우드 서비스를 이용할 수 있도록 지원한다는 계획이다. HPE LLM용 그린레이크는 알레프 알파(Aleph Alpha)의 사전 훈련된 대규모 언어모델인 루미너스(Luminous)에 대한 접근도 제공하며, 이 모델은 영어, 프랑스어, 독일어, 이탈리아어 및 스페인어 등 다양한 언어로 서비스된다. 또한 고객들은 이를 활용해 자사 데이터를 활용하고 맞춤형 모델을 훈련 및 미세조정(Fine-tune)하며 예측가능한 정보를 바탕으로 실시간 인사이트를 도출해 낼 수 있다. 기업들은 이 서비스를 통해 다양한 시장에 맞게 AI 애플리케이션을 구축하고 워크플로에 통합시켜 비즈니스 및 연구를 기반으로 한 가치를 창출할 수 있다. HPE LLM용 그린레이크는 HPE 크레이 XD 슈퍼컴퓨터(HPE Cray XD supercomputers)에서 구동되며 온디맨드로 이용 가능하다. 이를 통해 고객들은 비용이 높고 관리가 복잡하며 전문 기술이 필요한 슈퍼컴퓨터를 자체적으로 구매하거나 관리할 필요가 없어졌다. 이 서비스는 HPE 크레이 프로그래밍 환경(HPE Cray Programming Environment)을 통해 제공되는데 HPE 크레이 프로그래밍 환경은 소프트웨어 제품군에 통합된 서비스로 HPC 및 AI 애플리케이션을 최적화해주며 개발, 포팅(porting), 디버깅 및 코드 조정을 위한 툴셋을 제공한다. 이에 더해, 슈퍼컴퓨팅 플랫폼은 HPE의 AI/ML 소프트웨어를 제공한다. 그 중 HPE 머신러닝 개발 환경(HPE Machine Learning Development Environment)은 대규모 모델을 빠르게 훈련하는 것을 돕고, HPE 머신러닝 데이터 매니지먼트 소프트웨어(HPE Machine Learning Data Management Software)는 재현가능한(reproducible) AI 역량을 바탕으로 데이터를 통합, 추적 및 검사함으로써 믿을 수 있고 정확한 모델을 생성할 수 있도록 한다. HPE의 LLM용 그린레이크는 기업이 자체적으로 대규모 AI 모델을 훈련, 조정 및 배포할 수 있게 한다. HPE는 고객들이 업계에서 검증된 LLM을 바로 사용할 수 있도록 독일 AI 스타트업 파트너 알레프 알파(Aleph Alpha)와 협력해 LLM용 HPE 그린레이크를 제공할 계획이다. HPE는 "기업들이 텍스트와 이미지 처리 및 분석이 필요한 사용사례 개발에 박차를 가하도록 지원할 것"이라고 전했다. 또한, HPE는 향후 기후 모델, 헬스케어, 생명과학, 금융 서비스, 제조 및 운송에 이르기까지 다양한 업계 및 도메인에 특화된 AI 애플리케이션 시리즈를 출시할 예정이다. HPE의 LLM 그린레이크는 컴퓨팅 역량을 최대로 활용해 대규모 단일 AI 트레이닝 및 시뮬레이션 워크로드를 처리할 수 있도록 특별히 제작된 AI 네이티브 아키텍처에서 구동된다. 이 제품은 수백에서 수천 개의 CPU 또는 GPU에서 구동되던 AI 및 HPC 업무를 한 번에 지원할 수 있다. HPE는 이러한 역량이 AI를 훈련하고 더욱 정확한 모델을 생성하는데 있어 더욱 효과적이며, 신뢰할 수 있고 효율적이라는 점을 내세운다. 또한, 기업들이 이를 통해 개념검증(POC) 단계에서 생산에 이르기까지 모든 과정을 더욱 가속화하여 기업이 직면한 문제를 더욱 빠르게 처리할 수 있게 될 것으로 기대했다. 한편, HPE는 LLM을 훈련하고 조정할 수 있는 HPE LLM용 그린레이크에 더해 AI 추론 컴퓨팅 솔루션도 공개했다. 이 시스템은 에지의 컴퓨터 비전이나 생성형 시각적 AI 및 자연어 처리 AI 등 에지와 데이터센터 내에 있는 워크로드를 타기팅하도록 조정되었다. 해당 제품은 HPE 프로라이언트 Gen11 서버에 기반을 두고 있다. HPE 프로라이언트 Gen11은 한층 더 발전된 GPU 가속화 역량을 통합할 수 있도록 맞춤 설계되었으며 이는 AI 성능에 핵심적이다. HPE 프로라이언트 DL380a와 DL 380 Gen11서버는 이전 모델보다 5배 더 뛰어난 AI 추론 역량을 지원한다. HPE는 이 추론 컴퓨팅 솔루션이 유통, 숙박, 제조, 미디어 및 엔터테인먼트에 이르기까지 다양한 산업들의 가치창출을 더욱 가속화할 수 있도록 지원할 수 있을 것으로 보고 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 "오늘날 우리는 웹, 모바일 및 클라우드만큼 혁신적인 AI 시장의 세대 변화를 마주하고 있다. HPE의 입증된 지속가능한 슈퍼컴퓨팅에서 구동되는 LLM 등 다양한 AI 애플리케이션을 제공함으로써, HPE는 자금력이 풍부한 정부출연연구소나 글로벌 클라우드 대기업의 전유물이었던 AI를 HPE의 검증된 슈퍼컴퓨터를 통해 모두가 접근할 수 있는 영역으로 만들고 있다"면서, "이제 많은 기관과 기업들은 온디맨드 클라우드 서비스를 통해 AI 모델을 훈련, 조정 및 배포함으로써, AI를 활용해 혁신을 일으키고 시장에 변화를 꾀하고 돌파구를 찾을 수 있게 되었다”고 전했다.
작성일 : 2023-06-22
HPE, 유연한 하이브리드 클라우드 위한 차세대 스토리지 아키텍처 출시
HPE가 파일, 블록, 재해복구 및 백업 데이터 기능이 추가된 신규 서비스를 출시했다. 신규 서비스를 통해 고객은 데이터 사일로 현상을 제거하고 비용과 복잡성을 줄이는 동시에 IT 환경의 성능을 더욱 향상시킬 수 있게 되었다. 신규 파일 스토리지는 데이터 집약적인 워크로드를 다룰 수 있도록 엔터프라이즈급의 스케일아웃 성능을 제공하며 HPE 알레트라 MP기반 블록 서비스는 미드레인지 대상 미션 크리티컬 스토리지를 제공하고 있다. 신규 파일 및 블록 서비스는 'HPE 알레트라 스토리지 MP(HPE Alletra Storage MP)'를 통해 유연한 아키텍처를 활용함으로써 고객들이 단일 플랫폼에서 하이브리드 클라우드 전반에 걸쳐 모든 종류의 데이터를 저장, 관리 및 보호할 수 있도록 한다. 동시에, 이 서비스는 직관적인 클라우드 운영 경험을 통해 고객들이 데이터 생애주기 관리 방안을 더욱 혁신하고 인사이트를 통해 더욱 성장할 수 있도록 돕고 있다.   ▲ HPE 알레트라 스토리지 MP   모든 규모의 비즈니스들이 데이터 관리의 비용과 복잡성도 통제하면서도 더 나은 결과를 도출하기 위해 데이터를 활용할 수 있는 방안을 모색하고 있다. 한편, 2026년까지 전세계에서 생성되는 데이터의 양은 두 배로 불어날 것으로 예측된다. 이에 기업들은 그 어느 때보다 혼란스러운 워크로드 종류와 데이터 프로토콜을 해결해야 하며, 각각 서로 다른 지원 방식과 관리 시스템이 필요하다. 또한, 기업들은 비즈니스를 좌우하는 데이터를 백업하고 보호 및 복구하는 데도 큰 노력을 들이고 있다. 기업들의 이러한 데이터 관리의 어려움을 해소하고자, HPE는 새로운 모듈방식의 스토리지 솔루션을 선보이게 되었다. HPE 알레트라 스토리지 MP는 블록, 파일, 오브젝트 스토리지 프로토콜을 성능과 용량에 따라 독립적으로 확장할 수 있는 동일한 하드웨어에서 제공함으로써 기존 컨트롤러와 디스크 인클로저가 하나의 하드웨어로 구성된 스토리지의 문제점을 해결한다. 이를 통해 고객은 워크로드 및 스토리지 프로토콜에 관계없이 스토리지 서비스를 배포, 관리 및 오케스트레이션할 수 있게 되었다. HPE 알레트라 스토리지 MP는 유연하여 합리적인 비용에 더 좋은 성능을 누릴 수 있고, 향후 동일한 하드웨어에서 인프라스트럭처를 더 비용효율적으로 확장할 수 있어 동시에 투자비용 보호 효과도 더욱 향상되었다. 뿐만 아니라, AI옵스(AIOps) 기반의 직관적인 클라우드 경험으로 특별한 기술 없이도 스토리지를 프로비전하고 관리할 수 있다. 신규 HPE 파일 및 블록 스토리지 서비스는 HPE 알레트라 스토리지 MP의 유연한 아키텍처를 기반으로 하며 HPE 그린레이크를 통해 제공된다. 파일 및 블록 데이터 서비스를 단일 플랫폼에서 오케스트레이션 및 관리할 수 있는 기능은 고객들이 데이터를 동력으로 삼아 혁신하고 경쟁력을 강화할 수 있도록 돕고 있다. 파일 스토리지용 HPE 그린레이크(HPE GreenLake for File Storage)는 초당 수백 기가바이트의 스루풋(throughput)을 제공하며, 대규모의 엔터프라이즈급 성능으로 데이터 집약적인 워크로드 처리를 더욱 가속화할 수 있다. 신규 파일 스토리지 서비스는 HPE 그린레이크 클라우드 경험과 VAST 데이터 소프트웨어를 함께 제공함으로써 엑사바이트 규모의 업무를 위한 탄력성이 뛰어난 파일 서비스이다. 블록 스토리지용 HPE 그린레이크(HPE GreenLake for Block Storage)는 미드레인지 시장에 미션 크리티컬 스토리지의 가용성, 성능 및 확장성을 제공하기 위해 서비스를 확대하고 있다. HPE는 "이 서비스는 데이터 가용성을 100% 보장하는 분산형 스케일아웃 블록 스토리지"라고 설명하고 있다. 블록 스토리지용 HPE 그린레이크는 성능 대비 합리적인 비용에 미션 크리티컬 애플리케이션과 복합 워크로드의 서비스기술수준협약(SLA)을 충족할 수 있도록 고안된 빠른 속도의 올웨이즈온(always-on) 아키텍처를 동일하게 제공한다. HPE의 톰 블랙(Tom Black) 스토리지 총괄 겸 총괄부사장(EVP)은 “오늘날 고객들은 전례 없는 데이터 관리의 어려움을 겪고 있다. 급격히 증가하는 데이터의 양과 복잡성 때문에 비용과 사일로 현상이 결합된 문제들을 떠안고 있는 것”이라면서, “이번 신규 HPE 그린레이크(HPE GreenLake) 데이터 서비스와 더욱 확대된 HPE 알레트라 포트폴리오는 고객들이 모든 종류의 데이터, 스토리지 프로토콜 및 워크로드를 더욱 쉽고 경제적으로 관리할 수 있도록 지원할 것이며, 이를 통해 고객들은 혁신을 더욱 가속화하고 비즈니스 목표를 달성하는데 집중할 수 있을 것”이라고 말했다.
작성일 : 2023-04-05
HPE, 차세대 데이터 스토리지 서버 ‘HPE 알레트라 4000’ 시리즈 출시
휴렛팩커드 엔터프라이즈(HPE)가 차세대 데이터 스토리지 서버인 HPE 알레트라 4000(HPE Alletra 4000) 시리즈를 출시했다. HPE 알레트라 포트폴리오는 이번 HPE 알레트라 4000 시리즈를 통해 서버 기반 클라우드 네이티브 데이터 인프라스트럭처 기능을 더욱 강화하게 되었다. HPE 알레트라 4000은 엔드-투-엔드의 보안을 강화하는 디자인으로 설계된 데이터 애플리케이션으로 더욱 직관적인 클라우드 경험을 제공한다.   ▲ HPE 알레트라 4120   HPE 알레트라 4000 제품군은 클라우드 네이티브 데이터 인프라스트럭처 솔루션인 HPE 알레트라 포트폴리오 내, 최초의 서버 기반 제품이다. 이 제품군은 기존의 HPE 아폴로 4000(HPE Apollo 4000) 브랜드에서 사용된 차세대 데이터 스토리지 서버를 제공함으로써, 경제적이고 운영이 간편한 동시에 데이터 수요에 안정적으로 대응할 수 있도록 제작된 현대적인 데이터 인프라스트럭처다. 4세대 인텔 제온 스케일러블(4th Gen Intel Xeon Scalable) 프로세서를 기반으로, HPE 알레트라 4000 데이터 스토리지 서버는 고도의 데이터 레이크 및 아카이브에서부터 높은 스루풋(throughput)과 인플레이스 애널리틱스(in-place analytics), 인공지능 및 머신러닝에 이르기까지 데이터 집약적인 워크로드 스펙트럼의 양끝을 아우르는 역량을 갖추었다. 이 제품은 실시간 데이터 처리, 랜섬웨어 차단, 컴플라이언스, 전자증거개시(e-discovery), 비디오 감시, 의료 이미지, 머신러닝 훈련 및 추론, 스트리밍 및 배치 분석(stream and batch analytics), 즉시 공유 가능한 콘텐츠 저장소, 데이터 통합 및 오프로드 등 다양한 부문에 걸쳐 활용할 수 있다. 공급망부터 시스템의 부팅, 해체에 이르기까지 전반을 보호하는 HPE의 역량을 기반으로, HPE 알레트라 4000 데이터 스토리지 서버는 시스템 및 데이터의 엔드-투-엔드 보안을 더욱 강화하였다. 하드웨어부터 소프트웨어, 팩토리에서 클라우드에 이르기까지, HPE 알레트라 4000 데이터 스토리지 서버는 제로 트러스트 수준의 보안으로 엔지니어링되었으며, 통합적이고 확장가능한 IT 보안과 비즈니스의 민첩성을 더욱 향상시킬 수 있도록 고안되었다. 사용자는 HPE 그린레이크 에지-투-클라우드(edge-to-cloud) 플랫폼에서 HPE 그린레이크 컴퓨터 옵스 매니지먼트(HPE GreenLake for Compute Ops Management)를 통해 HPE 알레트라 4000 데이터 스토리지 서버를 더욱 용이하게 직접 관리할 수 있다. 또한, 이러한 직관적인 클라우드 경험으로 이용자는 REST API도 자동화할 수 있다.   ▲ HPE 알레트라 4110   또한 HPE 알레트라 4000 시스템은 HPE 그린레이크와 함께 이용할 수 있어, 프로젝트 배포 시간을 줄여주고 비용 및 IT 리소스도 절약할 수 있다. 또한, 비즈니스의 필요에 따라 비용을 조절해 더욱 유연하게 재정을 관리하는 동시에 운영 속도도 높일 수 있다. 알레트라 4110은 1U all-NVMe 데이터 스토리지 서버로, 듀얼 인텔 제온 스케일러블 프로세서가 장착되어 최대 3테라바이트의 DDR 메모리를 보유하고 있다. 이 제품은 퍼포먼스 중심의 데이터 집약적인 워크로드를 위해 설계되었으며 머신러닝을 위한 데이터 저장, 배포 및 NoSQL데이터베이스, 고성능 소프트웨어 정의 스토리지, 고용량 데이터 하이퍼컨버지드 인프라스트럭처 등을 위해 사용될 수 있다 알레트라 4120은 2U 하이브리드 NVMe 데이터 스토리지 서버로, 10개의 4세대 인텔 제온 스케일러블 프로세서를 장착하고 있으며 최대 6테라바이트의 DDR5 메모리를 제공한다. 이 제품은 넓은 범위의 데이터 집약적인 워크로드를 지원하는데 작업 중인 애널리틱스 데이터 레이크, 소프트웨어 정의(software-defined) 스토리지, 컨버지드 데이터 보호 및 딥아카이브 등에 사용될 수 있다.  한국HPE의 성이현 카테고리 매니저는 “HPE 알레트라 4000 데이터 스토리지 서버는 데이터 애플리케이션을 위해 설계된 제품으로써 엔드-투-엔드 보안을 자랑하고 더욱 직관적으로 클라우드를 이용할 수 있도록 도와주고 있다. 향후 이 제품은 기업들의 데이터 기반 이니셔티브 진행에 박차를 가하고 기업이 혁신을 이루고 비즈니스 경쟁력을 확보할 수 있도록 데이터를 통한 가치 있는 인사이트를 추출해 내는데 큰 도움을 줄 것”이라고 말했다.
작성일 : 2023-02-28
엔비디아, 'GTC 2023'에서 생성 AI·산업용 메타버스 등 최신 기술 소개
엔비디아가 3월 20일부터 23일까지 'GTC 2023' 콘퍼런스를 가상 이벤트로 개최한다고 발표했다. 이번 콘퍼런스에서는 엔비디아 젠슨 황(Jensen Huang) CEO의 기조연설을 비롯해 생성 AI, 메타버스, 대형 언어 모델, 로보틱스, 클라우드 컴퓨팅 등의 최신 발전을 다룰 예정이다. GTC 2023에서는 모든 컴퓨팅 영역의 연구원, 개발자 및 업계 리더들이 650개 이상의 세션을 제공하며, 25만 명 이상이 등록할 것으로 예상된다. 또한 GTC 2023은 젠슨 황과 오픈AI(OpenAI) 공동 설립자인 일리야 수츠케버(Ilya Sutskever)와의 대담뿐만 아니라 딥마인드(DeepMind)의 데미스 허사비스(Demis Hassabis), 스태빌리티 AI(Stability AI)의 이마드 모스타크(Emad Mostaque)등의 대담을 준비했다.      또한, 광범위한 청중을 대상으로 생성 AI에 대한 이해를 돕는 여러 강연이 진행된다. 어도비의 스콧 벨스키(Scott Belsky) 최고 제품 책임자와 엔비디아의 브라이언 카탄자로(Bryan Catanzaro) 응용 연구 부사장이 생성 AI가 크리에이티브 프로세스를 어떻게 변화시키고 있는지에 대한 담화를 진행하며, 엔비디아의 자동차 팀이 생성 AI가 어떻게 AV 개발을 혁신하고 있는지에 대한 대화를 나눌 예정이다. 이외에도 GTC 2023에서는 미국 노동부, 메타, 넷플릭스, IBM, 지멘스 디지털 인더스트리 소프트웨어 등이 발표를 진행한다. 그리고 아마존 로보틱스, AWS, 바이트댄스, 델 테크놀로지스, 딜로이트, 에픽게임즈, 포드, 프라운호퍼, GM, 구글, HPE, 재규어 랜드로버, 레노버, 록히드 마틴, 마이크로소프트, MIT, 오라클 클라우드, 픽사, 삼성, 셸, TSMC, VM웨어 등이 참여한다. 한편, GTC 2023에서는 AI 인력의 준비도를 높이고 보다 포괄적인 AI 생태계를 만들기 위해 초기 경력자 및 학생 참가자를 위한 교육과 세션을 제공하며, 스타트업이 AI, 데이터 사이언스, 머신 러닝 전문가로부터 직접 배울 수 있는 기회도 마련된다. 최첨단 스타트업을 육성하기 위해 설계된 글로벌 프로그램인 엔비디아 인셉션(Inception)은 스타트업의 사업 성장과 업계 지식을 습득할 수 있도록 지원하는 트랙을 주최할 예정이다. 엔비디아의 젠슨 황 CEO는 "AI 역사상 지금이 가장 놀라운 순간이다. 새로운 AI 기술과 빠르게 확산되는 채택은 과학과 산업을 변화시키고 수천 개의 새로운 기업을 위한 새로운 지평을 열고 있다. 이것은 우리의 가장 중요한 GTC가 될 것”이라고 말했다.
작성일 : 2023-02-22