• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "HPE"에 대한 통합 검색 내용이 194개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, H200 GPU로 AI 개발 강화 위한 일본 ABCI 3.0 슈퍼컴퓨터 지원
엔비디아는 일본 산업기술총합연구소(AIST)의 ABCI 3.0 슈퍼컴퓨터에 수천 개의 엔비디아 H200 텐서 코어(Tensor Core) GPU가 통합된다고 밝혔다. 또한, 휴렛팩커드 엔터프라이즈(HPE)의 크레이(Cray) XD 시스템은 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹을 채택해 높은 성능과 확장성을 제공할 예정이다. ABCI 3.0은 AI 연구 개발을 발전시키기 위해 설계된 일본의 대규모 개방형 AI 컴퓨팅 인프라의 최신 버전이다. AIST와 그 사업 자회사인 AIST 솔루션스, 시스템 통합업체인 HPE가 구축 및 운영하며, 도쿄 인근 카시와에 위치한 일본 AIST 운영 시설에 설치될 예정이다.   ABCI 3.0 프로젝트는 경제 안전 기금을 통해 컴퓨팅 자원을 강화하기 위한 일본 경제산업성의 지원에 따른 것으로, METI의 10억 달러 규모 이니셔티브의 일환이다. 엔비디아는 “2023년 젠슨 황(Jensen Huang) CEO가 기시다 후미오 일본 총리를 비롯한 정재계 인사를 만나 AI의 미래를 논의한 이후 꾸준히 연구와 교육 분야에서 METI와 긴밀히 협력하고 있다”고 소개했다. 젠슨 황 CEO는 특히 생성형 AI, 로보틱스, 양자 컴퓨팅 분야의 연구 협력, AI 스타트업 투자, AI에 대한 제품 지원, 훈련, 교육을 제공하기로 약속했다.     초고밀도 데이터 센터와 에너지 효율적인 설계를 갖춘 ABCI는 AI와 빅데이터 애플리케이션 개발을 위한 강력한 인프라를 제공한다. 이 시스템은 올해 말까지 가동돼 최첨단 AI 연구와 개발 자원을 제공할 계획이다. 이 시설은 6 AI 엑사플롭(exaflops)의 컴퓨팅 용량과 410 배정밀도 페타플롭(petaflops)의 용량을 제공하며, 각 노드는 퀀텀-2 인피니밴드 플랫폼을 통해 200GB/s의 양분(bisectional) 대역폭으로 연결된다. 엔비디아 기술은 이 이니셔티브의 중심에서 수백 개의 노드에 각각 8개의 NV링크(NVLink) 연결 H200 GPU를 장착해 높은 컴퓨팅 성능과 효율성을 제공한다. 엔비디아 H200은 초당 4.8테라바이트(TB/s)의 속도로 140기가바이트(GB) 이상의 HBM3e 메모리를 제공하는 GPU이다. H200의 더 크고 빠른 메모리는 생성형 AI와 대규모 언어 모델(LLM)을 가속화하는 동시에 더 나은 에너지 효율과 낮은 총소유비용으로 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200 GPU는 LLM 토큰 생성과 같은 AI 워크로드에 대해 ABCI의 이전 세대 아키텍처보다 에너지 효율이 15배 더 높다. 네트워킹 장치가 데이터에 대한 연산을 수행해 CPU의 작업을 분산(offloading)시키는 인-네트워크 컴퓨팅(In-Network Computing)과 고급 엔비디아 퀀텀-2 인피니밴드의 통합은 집약적인 AI 워크로드와 방대한 데이터 세트를 처리하는 데 필수적인 고효율, 고속, 저지연 통신을 지원한다. AIST의 다나카 요시오(Yoshio Tanaka) 이사는 “2018년 8월 우리는 세계 최초의 대규모 개방형 AI 컴퓨팅 인프라인 ABCI를 출범했다. 지난 몇 년간 ABCI를 관리해 온 경험을 바탕으로 이제 ABCI 3.0으로 업그레이드하게 됐다. 엔비디아와 HPE와의 협력을 통해 ABCI 3.0이 일본 생성형 AI 연구 개발 역량을 더욱 발전시킬 컴퓨팅 인프라로 발전하는 것이 목표”라고 말했다. AIST 솔루션스의 오가와 히로타카(Hirotaka Ogawa) 생산 겸 ABCI 운영 책임자는 “생성형 AI가 글로벌 변화를 촉진할 준비를 하고 있는 지금, 일본 내에서 연구 개발 역량을 빠르게 배양하는 것이 매우 중요하다. 엔비디아와 HPE의 협력을 통한 ABCI의 대대적인 업그레이드는 일본 산업과 학계에서 ABCI의 리더십을 강화해 일본이 AI 개발 분야에서 글로벌 경쟁력을 갖추는 미래 혁신의 기반이 될 것으로 확신한다”고 말했다.
작성일 : 2024-07-15
유니티 6 프리뷰 : 게임 및 비주얼 콘텐츠 제작 전반의 기능과 편의성 강화
개발 및 공급 : 유니티 주요 특징 : 렌더링을 위한 URP와 HDRP의 성능 향상, 조명 기능 개선, 풍부한 환경 렌더링의 정확성 향상, 멀티 플랫폼 지원 개선, XR 입력 및 상호작용 간소화, AI를 활용한 동적 런타임 경험 제공 등     유니티 6(Unity 6) 프리뷰 버전(이전 명칭은 2023.3 테크 스트림)은 2024년 출시되는 유니티 6 정식 버전의 개발 사이클에서 마지막 릴리스에 해당하며, 유니티 2023.1과 2023.2 버전에서 릴리스된 기능을 포함한다. 유니티는 2023년 11월 진행된 ‘유나이트’ 이벤트에서 명명 규칙을 업데이트한다고 발표한 바 있다. 유니티 6 프리뷰는 테크 스트림 릴리스처럼 구성되어 있으며, 지원되는 릴리스이므로 탐색 중이거나 프로토타이핑 단계에 있는 프로젝트에서 최신 기능과 업데이트된 기능을 미리 사용해 볼 수 있다. 정식 제작 중인 프로젝트에는 향상된 안정성과 지원이 제공되는 유니티 2022 LTS릴리스를 사용하는 것이 좋다.   렌더링 성능 향상 유니티 6 프리뷰에서는 URP(유니버설 렌더 파이프라인)와 HDRP(고해상도 렌더 파이프라인)의 성능이 향상되어 여러 플랫폼 전반에서 제작 속도를 높일 수 있다. 콘텐츠에 따라 다르지만, CPU 워크로드를 30~50%까지 줄이는 동시에 다양한 플랫폼 전반에서 더 원활하고 빠르게 렌더링할 수 있다. 새로운 GPU 상주 드로어를 사용하면 복잡한 수동 최적화를 거치지 않고도 규모가 크고 풍부한 월드를 효율적으로 렌더링할 수 있다. 고사양 모바일 기기, PC, 콘솔 등의 플랫폼에서 복잡한 대형 신(scene)을 렌더링할 때 게임 오브젝트에 사용되는 CPU 프레임 시간을 50%까지 단축하여 게임을 최적화할 수 있다.   ▲ 복잡한 대형 신을 렌더링할 때 게임 오브젝트에 사용되는 CPU 프레임 시간을 50%까지 단축하여 게임을 최적화한다.   GPU 상주 드로어와 함께 GPU 오클루전 컬링 또한 프레임마다 오버드로되는 양을 줄여 게임 오브젝트의 성능을 향상시킨다. 즉, 렌더러가 보이지 않는 오브젝트를 드로하느라 리소스를 낭비하지 않게 한다. GPU 오클루전 컬링은 GPU 기반 접근 방식을 통해 신에서 보이지 않는 오브젝트를 렌더링하지 않게 한다.  STP(시공간 포스트 프로세싱)로 GPU 성능을 최적화하고 시각적 품질과 런타임 성능을 높일 수 있다. STP는 저해상도에서 렌더링된 프레임을 정확도 손실 없이 업스케일링하도록 설계되어, 플랫폼에 다양한 성능 수준과 화면 해상도로 일관적인 고품질 콘텐츠를 제공할 수 있다. STP는 데스크톱과 콘솔 전반에서, 무엇보다도 컴퓨팅 가능한 모바일 기기에서 URP 및 HDRP 모두와 호환된다.   ▲ STP는 GPU 성능을 최적화하고 시각적 품질과 런타임 성능을 높인다.   URP용 렌더 그래프(Render Graph)는 새로운 렌더링 프레임워크 및 API로, 렌더 파이프라인의 유지 관리와 확장을 간소화하고 렌더링 효율성과 성능을 높인다. 최신 시스템에는 특히 타일 기반(모바일) GPU에서 메모리 대역폭 사용량과 에너지 소비를 줄이기 위한 네이티브 렌더 패스의 자동 병합 및 생성 같은 핵심 최적화 기능이 다양하게 추가되었다. 또한 새로운 렌더 그래프 API를 통해 커스텀 패스 추가 워크플로를 간소화할 수 있기 때문에, 사용자는 커스텀 래스터와 커스텀 패스로 렌더 파이프라인을 확장하고 새로운 컨텍스트 컨테이너를 사용하여 필요한 파이프라인 리소스에 모두 안전하게 액세스할 수 있다. 마지막으로, 새로운 렌더 그래프 뷰(Render Graph Viewer) 툴을 사용해 엔진의 렌더 패스 생성과 프레임 리소스 사용량을 에디터 내에서 직접 분석하고, 렌더 파이프라인 디버깅과 최적화 과정을 간소화할 수 있다.   ▲ 렌더 그래프 뷰를 사용하여 렌더 파이프라인, 패스, 리소스를 분석한다.   URP의 포비티드 렌더링(Foveated Rendering) API를 사용하면 포비티드 렌더링 수준을 설정하여 사용자 주변의 중거리/원거리 정확도를 낮추는 대신 GPU 성능을 높일 수 있다. 유니티 6 프리뷰에서는 두 가지 새로운 포비티드 렌더링 모드를 사용할 수 있다. 고정 포비티드 렌더링(Fixed Foveated Rendering)의 경우 스크린 공간 중앙 영역의 품질이 높아지고, 시선 추적 포비티드 렌더링(Gazed Foveated Rendering)에서는 시선 추적을 통해 스크린 공간에서 품질을 높여야 할 영역을 결정한다. 포비티드 렌더링 API는 오큘러스 XR(Oculus XR) 플러그인을 사용하는 메타 퀘스트(Meta Quest), 그리고 소니 플레이스테이션 VR2(Sony PlayStation VR2) 플러그인과 호환되며, OpenXR 플러그인에 대한 지원이 곧 추가될 예정이다.   ▲ 시선이 집중되는 영역의 품질을 높이는 방법으로 GPU 성능을 향상하여, VR에서 시각적 품질을 높이고 프레임 속도를 개선한다.   HDRP 및 URP에서의 볼륨 프레임워크 향상으로 모든 플랫폼에서 CPU 성능이 최적화되어 저사양 하드웨어에서도 실행이 가능하다. 이제 URP에서도 HDRP처럼 전반적으로 향상된 사용자 인터페이스를 사용하여 전역 볼륨과 품질 수준별 볼륨을 설정할 수 있다. 또한 이제 손쉽게 URP용 커스텀 포스트 프로세싱 효과와 함께 볼륨 프레임워크를 사용하여 커스텀 안개와 같은 효과를 직접 제작할 수 있다.    ▲ URP 커스텀 포스트 프로세싱   조명 개선 사항 APV(적응적 프로브 볼륨)는 유니티에서 전역 조명을 구현하는 새로운 방법을 제공한다. 라이트 프로브를 통해 빛을 받는 오브젝트의 저작(authoring) 및 반복 작업(iteration)을 더 간소화했으며, 시간대 시나리오나 스트리밍 등의 새로운 작업을 수행할 수 있다. 유니티 2023.1 및 2023.2 테크 스트림 릴리스에서 제공된 APV의 개발을 기반으로, 유니티 6 프리뷰에서는 탁월한 조명 전환을 구현하기 위해 저작 워크플로 개선, 스트리밍 기능 확장, 제어 및 플랫폼 도달률(Reach) 확장 등의 개선이 이루어졌다.  APV 시나리오 블렌딩을 URP로 확장하여, 낮과 밤을 전환하거나 방에서 불을 켜고 끄는 상황에 대한 베이크된 프로브 볼륨 데이터를 손쉽게 블렌딩할 수 있도록 더 광범위한 플랫폼을 지원한다. 여러 조명 시나리오를 베이크한 다음 런타임에 블렌딩할 수 있다. 이 기능은 프로브 볼륨 데이터에만 적용된다. 반사 프로브, 라이트맵, 광원 위치 또는 강도와 같은 기타 요소는 직접 조정해야 한다.  URP와 HDRP에서 모두 지원하는 APV 스카이 오클루전을 사용하면 가상 환경에 시간대별 조명 시나리오를 적용하여 APV 시나리오 블렌딩에 비해 다양한 컬러 배리에이션으로 하늘의 정적 간접 조명을 구현할 수 있다. 스카이 오클루전을 사용하면 APV 시나리오 블렌딩에 비해 다양한 컬러 배리에이션으로 하늘의 정적 간접 조명을 구현할 수 있다.  이제 APV 디스크 스트리밍이 URP에서 비컴퓨트(non-compute) 경로를 지원하며, AssetBundles 및 Addressables 지원 또한 활성화되었다.  Probe Adjustment Volumes 툴을 활용하여 APV 콘텐츠를 미세 조정하고 빛 번짐 효과를 해결할 수 있다. 이러한 볼륨 내부의 프로브에 대해 샘플 카운트 오버라이드 및 프로브 무효화 등을 조정할 수 있다. 조정 볼륨의 영향을 받지 않는 라이트 프로브는 숨길 수 있고, 이제 영향을 받는 프로브의 프로브 조명 데이터만 미리 확인할 수 있으며, Probe Volume 및 Probe Adjustment Volume 컴포넌트에서 곧바로 베이크할 수 있다. 마지막으로, C# Light Probe Baking API가 추가되어 이제 한 번에 베이크할 프로브의 개수를 제어하여 실행 시간과 메모리 사용량 간의 균형을 맞출 수 있다.    더 정확하고 풍부한 환경 유니티 6 프리뷰는 HDRP에서 프로젝트의 시간대 시나리오를 더 사실적으로 구현할 수 있도록 일몰과 일출의 하늘 렌더링을 개선하였다. 또한 먼 거리의 안개를 보완하기 위해 오존층 지원과 대기 산란이 추가되었다. 커스틱을 샘플링하여 볼류메트릭 광원의 빛줄기를 생성하는수중 볼류메트릭 포그 지원이 추가되어 물의 표현도 개선되었다. 성능 최적화 측면에서는 CPU로 시뮬레이션을 모사하는 대신, 몇 프레임이 지연되며 GPU에서 시뮬레이션을 다시 읽어 오는 옵션이 추가되었다. 혼합 트레이싱 모드가 포함된 투명한 표면 지원도 추가되어, 물과 같은 표면을 터레인이나 초목과 함께 렌더링할 때 레이트레이싱과 스크린 공간 효과를 혼합할 수 있다. 대규모의 동적인 월드를 렌더링하려면 무엇보다 성능이 중요하므로 URP와 HDRP의 SpeedTree 초목 렌더링을 최적화했으며, 앞에서 언급한 새로운 GPU 상주 드로어를 활용한다.   VFX 그래프 아티스트 워크플로 유니티 프리뷰 6에서는 VFX 아티스트가 더 많은 플랫폼에 효율적으로 도달할 수 있도록 툴과 URP 지원을 개선했다. VFX 그래프 프로파일링 툴을 사용하면 VFX 아티스트는 메모리와 성능에 대한 피드백을 받고, 그래프 내에서 최적화할 부분을 찾아서 특정 효과를 미세 조정하고 성능을 극대화할 수 있다.   ▲ VFX 그래프 프로파일링 툴   셰이더 그래프 키워드의 지원을 받아 VFX 셰이더를 제작할 수 있으며, URP 뎁스 및 컬러 버퍼를 사용하여 빠른 충돌이나 월드 내 파티클 생성을 위해 URP로 더 복잡한 효과를 만들 수 있다. VFX 그래프의 개념과 기능을 학습할 수 있도록 제작된 VFX 애셋 모음인 신규 학습 템플릿으로 VFX 그래프를 빠르게 시작할 수 있다.   셰이더 그래프 아티스트 워크플로 유니티 6 프리뷰에는 셰이더 그래프 사용자들이 많이 겪는 고충을 해결하기 위해 편집이 가능한 키보드 단축키, 그래프에서 가장 GPU 사용량이 많은 노드를 빠르게 식별할 수 있는 히트맵 컬러 모드를 추가하였으며, 실행 취소/재실행 또한 더 빨라졌다.   ▲ 노드의 상대적 GPU 비용을 보여 주는 히트맵 컬러 모드   여러 셰이더 그래프 애셋이 담긴 신규 노드레퍼런스 플을 사용할 수 있다. 샘플에 포함된 각 그래프는 하나의 노드를 설명하고, 내부적으로 작동하는 수학을 요약하며, 가능한 노드 사용 방법에 대한 예시를 포함한다.    멀티 플랫폼 개선 사항 유니티 6 프리뷰는 멀티 플랫폼 개발 워크플로를 최적화하고 인기 있는 플랫폼 전반에서 도달률을 향상하는 것을 목표로 데스크톱과 모바일, 웹 및 XR에서 향상된 멀티 플랫폼 기능을 제공한다.   빌드 창 편의성 향상 및 새로운 빌드 프로필 새로운 빌드 프로필 기능을 통해 더욱 유연하고 효율적으로 빌드를 관리할 수 있다. 각 프로필에서 빌드 설정을 구성하는 것 외에 이제 서로 다른 신 목록을 넣어 빌드의 콘텐츠를 커스터마이즈할 수 있어, 게임에서 가장 선보이고 싶은 신이 사용된 고유의 플레이 가능한 데모를 여러 개 만들 수 있다. 또한 플레이어 설정에서 볼 수 있는 스크립팅에 더해 어떤 프로필이든 정의하는 커스텀 스크립팅을 설정할 수 있으며, 이를 통해 빌드와 에디터 플레이 모드의 기능과 동작을 미세 조정할 수 있다. 버티컬 슬라이스(시연 버전)를 만들거나 플랫폼별로 동작을 다르게 설정하려 할 때 이 기능을 활용할 수 있다. 프로필마다 플레이어 설정 오버라이드를 추가하여 플랫폼 모듈에 맞게 설정을 커스터마이즈할 수 있다. 이 기능을 이용하면 프로필마다 다른 퍼블리싱 설정을 손쉽게 구성할 수 있다. 전반적으로 이 최신 기능을 사용하면 에디터에서의 빌드 관리 방식을 커스터마이즈하기 위해 커스텀 빌드 스크립트를 사용해야 하는 빈도를 낮출 수 있다. 마지막으로, 에디터에서 플랫폼을 쉽게 확인할 수 있도록 플랫폼 브라우저를 추가했다. 플랫폼 브라우저에서 Unity가 지원하는 모든 플랫폼을 확인하고 원하는 플랫폼의 빌드 프로필을 생성할 수 있다.   ▲ 유니티 6의 새로운 빌드 프로필 창   웹 런타임으로 모바일 게임 도달률 향상 안드로이드 및 iOS 브라우저 지원이 유니티 6 프리뷰에 추가되었다. 이제 모든 웹에서 유니티 게임을 실행할 수 있으며, 브라우저 게임을 데스크톱 플랫폼으로 제한해 개발하지 않아도 된다. 또한 게임을 네이티브 앱의 웹 뷰에 임베드하거나, 유니티의 프로그레시브 웹 앱 템플릿을 사용해 고유한 바로 가기와 오프라인 기능을 가진 네이티브 앱처럼 게임이 작동하도록 구현할 수 있다. 모바일 기기 컴파스 지원과 GPS 위치 트래킹 같은 기능이 추가되어, 게이머가 플레이하는 플랫폼에 맞게 대응하도록 웹 게임을 구현할 수 있다. Emscripten 3.1.38 툴체인 업데이트와 부호 확장 명령 코드, 트랩 없는 부동 소수점-정수 변환, 벌크 메모리, BigInt, Wasm 테이블, 네이티브 Wasm 예외, Wasm SIMD와 같은 새로운 WebAssembly 언어 기능 모음을 통한 최신 WebAssembly 2023 지원을 통해 웹 게임을 미세 조정할 수 있다. 또한 WebAssembly 2023은 힙 메모리를 4GB까지 지원하므로 최신 하드웨어에서 더 많은 RAM을 사용할 수 있다.   ▲ 아이폰 15 프로의 사파리에서 실행되는 유니티의 2D 샘플 프로젝트 해피 하비스트(Happy Harvest)   유니티 6 프리뷰에는 최신 안드로이드 툴, 즉시 사용 가능한 자바(Java) 17 지원, 안드로이드 앱 번들에 디버그 심볼을 추가하는 기능 등을 비롯한 더 많은 모바일 개선 사항이 포함된다. 이를 통해 구글 플레이 스토어(Google Play Store)에 제출하는 시간을 절약하고 플레이 콘솔(Play Console)에서 항상 스택트레이스 정보를 확인할 수 있다.   WebGPU 백엔드 얼리 액세스 WebGPU 백엔드의 실험 단계 지원을 도입하는 것은 웹 기반 그래픽스 가속의 중대한 이정표로서, 앞으로 유니티 웹 게임의 그래픽스 렌더링 정확도를 도약시키는 디딤돌이 될 것이다. WebGPU는 컴퓨트 셰이더 지원과 같은 최신 GPU 기능을 웹에 노출하고 활용하려는 목적으로 설계되었다. WebGPU는 새로운 웹 API로서, 다이렉트X 12(DirectX 12), 벌칸(Vulkan), 메탈(Metal)과 같은 네이티브 GPU API를 통해 내부적으로 구현하는 최신 그래픽스 가속 인터페이스를 데스크톱 기기에 따라 제공한다. WebGPU 그래픽스 백엔드는 여전히 실험 단계이므로 정식 제작에 사용하는 것은 권장하지 않는다.   ▲ GPU(컴퓨트) 스키닝의 장점을 활용해 높은 프레임 속도를 유지하면서 로봇들의 골격 위에 스킨을 메시 처리한 데모   유니티 에디터의 ARM 기반 윈도우 기기 지원 유니티는 2023.1에서 ARM 기반 윈도우 기기에 대한 지원을 제공하여 새로운 하드웨어로 타이틀을 가져올 수 있게 했다. 유니티 6 프리뷰를 통해 유니티 6에서 ARM 기반 윈도우 기기에 대한 네이티브 유니티 에디터 지원을 제공한다. 따라서 이제 ARM 기반 기기의 성능과 유연성을 활용하여 유니티 게임을 제작할 수 있다.   다이렉트X 12 백엔드 개선 사항 유니티의 다이렉트X 12 그래픽스 백엔드가 정식으로 제작에 사용 가능하며, DX12를 지원하는 윈도우 플랫폼을 타깃으로 제작할 때 사용할 수 있다. 이번 변경에 앞서 렌더링 안정성과 성능에 대한 포괄적인 향상이 이루어진 바 있다. 유니티 에디터와 유니티 플레이어는 DX12에서 Split Graphics Jobs를 사용하여 향상된 CPU 성능의 혜택을 누릴 수 있다. 성능 향상 수준은 신의 복잡도와 제출되는 드로 콜 횟수에 따라 다를 수 있다.     무엇보다도 DX12 그래픽스 API는 광범위한 최신 그래픽스 성능을 지원할 수 있으므로, 유니티의 레이트레이싱 파이프라인 같은 차세대 렌더링 기법을 사용할 수 있다. 조만간 그래픽스에서 머신러닝에 이르는 DX12의 고급 기능을 활용하여, 높은 수준의 정확도와 성능을 실현할 수 있을 것이다.   마이크로소프트 GDK 패키지로 마이크로소프트 플랫폼 생태계 도입 마이크로소프트와 유니티의 지속적인 파트너십 덕분에 이제 유니티 6 프리뷰와 2022 LTS, 2021 LTS에서 2개의 새로운 마이크로소프트 GDK 패키지를 이용할 수 있다. Microsoft GDK Tools와 Microsoft GDK API 패키지를 동일한 구성 및 코드 베이스로 마이크로소프트 게이밍 플랫폼에서 사용할 수 있다. 이 패키지를 사용하면 사용자 ID, 플레이어 데이터, 소셜, 클라우드 스토리지 등의 엑스박스(Xbox) 서비스를 활용할 때와 같은 코드를 사용하여, 윈도우 및 엑스박스같은 마이크로소프트 게이밍 플랫폼에서 더욱 손쉽게 게임을 빌드할 수 있다. 통합 마이크로소프트 GDK 패키지를 사용하면 공유 코드 베이스와 API를 통한 빌드 프로세스 자동화 기능을 활용하여 마이크로소프트 플랫폼에서 게임을 제작할 수 있다. 패키지에 포함된 다양한 기능을 선보이는 새로운 샘플도 제공된다. 이전에는 엑스박스 콘솔과 윈도우의 마이크로소프트 스토어를 타깃으로 삼는 경우 마이크로소프트와 유니티에서 제공하는 별도의 GDK 패키지를 설치하는 것이 지침이었다. 그렇게 하려면 타깃으로 삼은 각 마이크로소프트 플랫폼별로 다른 코드 브랜치를 관리해야 했다. 새로운 마이크로소프트 GDK 패키지를 사용하면 그럴 필요가 없다. 또한 이제 빌드 서버에서 직접 API로 MicrosoftGame.config 파일을 수정할 수 있다. 유니티 6의 새로운 빌드 프로필 기능과 함께 사용하면 하나의 프로젝트만으로도 손쉽게 마이크로소프트 게이밍 생태계에 게임을 공개할 수 있다.   ▲ 유니티 패키지 관리자의 새로운 마이크로소프트 GDK API(1단계) 및 마이크로소프트 GDK 툴즈(2단계). 유니티 패키지 관리자에서 직접 마이크로소프트 GDK 패키지를 설치하고 마이크로소프트 GDK를 사용해 개발을 시작할 수 있다.   XR 경험 유니티는 AR킷(ARKit), AR코어(ARCore), 비전OS(visionOS), 메타 퀘스트, 플레이스테이션 VR, 윈도우 MR(Windows Mixed Reality) 등 많이 알려진 알려진 XR(확장현실) 플랫폼을 지원한다. 유니티 6 프리뷰는 혼합 현실, 손 및 시선 입력, 개선된 시각적 정확도 같은 최신 크로스 플랫폼 기능을 포함한다. 이제 향상된 템플릿에 이러한 많은 최신 기능이 통합되어 더 빠르게 시작할 수 있다.   현실 세계를 게임에서 구현하기 기존 게임을 혼합 현실로 확장하려 할 때나 아니면 완전히 새로운 게임을 제작하려는 경우에도 AR 파운데이션(AR Foundation)을 사용하면 크로스 플랫폼 방식으로 현실 세계를 플레이어 경험에 통합할 수 있다. 유니티 6 프리뷰에는 AR코어에서의 이미지 안정화 지원을 추가하였으며, 메타 퀘스트(Meta Quest)와 같은 혼합 현실 플랫폼을 대상으로 메시 및 바운딩 박스 기능 등에 대한 지원을 개선했다.   ▲ 최신 AR 파운데이션 메시 기능   XR 입력 및 상호작용 상호작용을 간소화할 수 있도록 XRI(XR Interaction Toolkit) 3.0에 여러 주요 개선 사항이 추가되었다. 그중에서도 Near-Far Interactor라는 새로운 인터랙터는 프로젝트에서 인터랙터의 동작을 커스터마이즈할 때 유연성과 모듈성을 향상시킬 수 있다.  새로운 Input Reader의 추가로 XRI 입력 처리 방식이 개선되었으며, 이를 통해 입력 프로세스가 간소화되고 다양한 입력 유형 전반에서 코드의 복잡도가 줄어든다. 마지막으로, 크로스 플랫폼 방식으로 게임 내 키보드를 구현하고 커스터마이즈할 수 있도록 새로운 가상 키보드 샘플을 출시할 계획이다.   고유의 손 제스처 손을 사용하여 콘텐츠와 상호작용하도록 하는 플랫폼이 점점 더 많아지는 추세이다. 유니티의 XR Hands 패키지를 사용하면 커스텀 손 제스처(예 : 엄지 척, 엄지 다운, 가리키기)나 일반적인 오픈XR 손 제스처를 구현할 수 있다. 샘플이 포함되어 있어 빠르게 작업을 시작할 수 있다. 손 모양과 제스처의 제작, 미세 조정 및 디버깅을 위한 툴이 함께 지원되므로 더 많은 사용자를 대상으로 폭넓은 콘텐츠를 제공할 수 있다.   시각적 정확도 향상 게임의 시각적 정확도를 향상하려는 방법의 하나로 현재 실험 단계 패키지로만 이용할 수 있는 Composition Layers 기능이 있다. 이 기능은 런타임의 합성 레이어에 대한 네이티브 지원을 사용하여 텍스트, 비디오, UI 및 이미지를 더욱 양호한 품질로 렌더링하고, 더 선명한 텍스트, 뚜렷한 윤곽선을 비롯해 전반적으로 더 나은 결과물을 제공하는 동시에 아티팩트도 상당히 줄일 수 있다.   멀티플레이어 제작 간소화 유니티 6 프리뷰는 간단한 엔드 투 엔드 통합 솔루션으로, 멀티플레이어 게임의 제작, 출시, 성장을 가속한다. 실험 단계 멀티플레이어 센터 유니티는 패키지 레지스트리에서 사용할 새로운 실험 단계 멀티플레이어 센터(Experimental Multiplayer Center) 패키지를 제작했다. 멀티플레이어 센터는 멀티플레이어 개발을 시작할 수 있도록 안내하는 간소화된 가이드 툴이다. 에디터의 중심에 있는 이 가이드를 활용하면 프로젝트별 요구 사항에 맞는 유니티 툴과 서비스에 액세스할 수 있다.  멀티플레이어 센터는 프로젝트의 멀티플레이어 사양에 따른 인터랙티브 가이드, 리소스와 교육 자료에 대한 액세스, 그리고 멀티플레이어 기능을 빠르게 배포하고 간단하게 실험할 간편한 방법을 제공한다.   멀티플레이어 플레이 모드 유니티 에디터 내에서 각 프로세스 전반의 멀티플레이어 기능을 테스트해 볼 수 있는 멀티플레이어 플레이 모드(Multiplayer Play Mode) 1.0 버전이 릴리스되었다. 디스크의 동일한 소스 애셋을 사용하면서 하나의 개발 기기에서 최대 4명의 플레이어(기본 에디터 플레이어 및 가상의 플레이어 3명)를 동시에 시뮬레이션할 수 있다. 멀티플레이어 플레이 모드를 사용하면 프로젝트를 빌드하고, 로컬에서 실행하고, 서버-클라이언트 관계를 테스트하는 데 걸리는 시간을 단축하는 멀티플레이어 개발 워크플로를 구축할 수 있다.   ▲ 멀티플레이어 플레이 모드는 개발 과정에서 멀티플레이어 게임을 테스트하기 위한 설정 시간을 단축하고 빠른 반복 루프를 유지한다.   멀티플레이어 툴즈 멀티플레이어 툴즈(Multiplayer Tools) 패키지를 2.1.0 버전으로 업데이트하며, 새로운 디버깅 시각화 툴인 네트워크 신 비주얼라이제이션(Network Scene Visualization)을 추가했다. 네트워크 신 비주얼라이제이션(NetSceneVis)은 멀티플레이어 툴즈 패키지에 포함된 강력한 툴로, 유니티 에디터 신 뷰에서 프로젝트를 보며 메시 셰이딩이나 텍스트 오버레이와 같은 시각화 기능을 통해 오브젝트별 네트워크 커뮤니케이션을 시각화하고 디버깅할 수 있다.   Netcode for GameObjects용 실험 단계 분산형 권한 새로운 Experimental Multiplayer Services SDK 0.4.0 버전(com.unity.services.multiplayer)과 함께 사용할 때의 분산형 권한 모드를 Netcode for GameObjects 2.0.0-exp.2 버전(com.unity.netcode.gameobjects)에 추가했다. 분산형 권한 모드에서는 클라이언트가 게임 세션에서 생성된 넷코드(Netcode) 오브젝트에 대해 분산된 소유권/권한을 가진다. 넷코드 시뮬레이션 워크로드는 클라이언트 전반에 분산되며, 네트워크 상태는 유니티가 제공하는 고성능 클라우드 백엔드를 통해 조율된다.   넷코드 포 엔티티즈 게임 오브젝트가 디버그 바운딩 박스를 렌더링할 수 있도록 지원하여 넷코드 포 엔티티즈(Netcode for Entities) 경험을 개선했다. 또한 코드를 수정할 필요 없이 커스터마이즈할 수 있는 넷코드 설정 변수 대부분이 포함된 NetCodeConfig ScriptableObject를 추가했다.   데디케이디드 서버 패키지 프로젝트를 별도로 만들지 않아도 프로젝트에서 서버와 클라이언트 역할을 전환하도록 허용하는 데디케이디드 서버(Dedicated Server) 패키지를 출시했다. 멀티플레이어 역할을 사용하면 클라이언트 및 서버 전반에 게임 오브젝트와 컴포넌트를 배분할 수 있다.  멀티플레이어 역할로 각 빌드 타깃에서 사용할 멀티플레이어 역할(클라이언트, 서버)을 결정할 수 있다. 이는 다음과 같이 구성된다. 콘텐츠 선택 : 여러 멀티플레이어 역할을 대상으로 포함하거나 제거할 콘텐츠(게임 오브젝트, 컴포넌트)를 선택하는 UI 및 API를 제공한다. 자동 선택 : 여러 멀티플레이어 역할에서 자동으로 제거되어야 할 컴포넌트 유형을 선택하는 UI 및 API를 제공한다. 안전성 확인 : 멀티플레이어 역할에서 오브젝트를 제거하여 발생할 수 있는 잠재적인 널(null) 참조 예외를 감지하기 위한 경고를 활성화한다. 이 패키지에는 데디케이디드 서버 플랫폼 개발에 추가로 필요한 최적화 및 워크플로 개선 사항도 포함된다.   Experimental Multiplayer Services SDK Experimental Multiplayer Services SDK는 유니티 6 프리뷰에서 개발하는 게임에 온라인 멀티플레이어 요소를 한 번에 추가할 수 있는 솔루션이다. UGS(Unity Gaming Services)를 기반으로 릴레이(Relay) 및 로비(Lobby) 서비스의 여러 기능을 새로운 단일 ‘세션’ 시스템으로 결합한 솔루션으로, 빠르게 플레이어 그룹의 연결 방식을 정의할 수 있도록 지원한다. Experimental Multiplayer Services SDK 0.4.0 버전(com.unity.services.multiplayer)을 사용하면 P2P(peer-to-peer) 세션을 생성하고 플레이어가 참여 코드, 활성 세션 목록 검색 또는 ‘빠른 참여’ 기능 등 다양한 방법으로 참여하도록 구현할 수 있다.   유니티 6 프리뷰의 멀티플레이어 유니티 6 프리뷰에 포함된 많은 기능은 아직 실험 단계에 있으며, 아직 정식 제작에 사용할 수는 없다. 유니티 6가 완전한 지원 경험을 갖출 수 있도록 사용자의 피드백을 바탕으로 해당 기능을 빠르게 사전 릴리스 및 릴리스 단계로 전환할 예정이다.   엔티티 워크플로 개선 사항 유니티 6 프리뷰는 ECS 워크플로를 간소화하고 사용자가 흔히 겪는 어려움을 해결한다. 이러한 노력의 하나로, 유니티는 향후 엔티티와 게임 오브젝트 워크플로가 통합되는 상황에 대비하여 엔티티의 저장 방식을 변경했다. 이제 엔티티 ID가 전역적으로 고유의 값을 가지며, 한 엔티티 시스템에서 다른 시스템으로 원활하게 옮길 수 있다. 이러한 변경이 ECS 워크플로에 영향을 주지는 않지만, 항상 정확한 엔티티를 표시하므로 디버깅 시 모호함을 줄일 수 있다. 또한 유니티 2022 LTS에 제공된 최신 ECS 개선 사항이 유니티 6 프리뷰에도 적용되었다. ECS 1.1 : 주요 물리 콜라이더 워크플로 및 성능 개선, ECS 프레임워크 전반에서 80개 이상의 수정 사항 ECS 1.2 : 에디터 워크플로 전반의 편의성 및 성능 개선, 직렬화, 베이킹, 50개 이상의 수정 사항 및 유니티 6 호환성   AI를 활용한 동적 런타임 경험 제공 유니티 6 프리뷰에는 런타임에 AI 모델을 통합하는 뉴럴 엔진인 유니티 센티스(Unity Sentis)가 포함된다. 센티스를 통해 오브젝트 인식, 스마트 NPC, 그래픽스 최적화 같은 새로운 AI 기반 기능을 활용할 수 있다. 센티스는 최근에 성능과 사용 초기 경험 간소화에 집중하여 개선이 이루어졌다.   성능 이제 유니티 에디터에서 AI 모델 가중치 양자화(FP16 또는 UINT8)를 지원하므로 필요한 경우 모델 크기를 최대 75%까지 줄일 수 있다. 모바일 게임을 출시하는 경우 상당한 절약 효과를 볼 수 있다. 모델 스케줄링 속도 또한 2배 향상되었고, 메모리 누수와 가비지 컬렉션은 줄어들었다. 마지막으로, 이제 더 많은 ONNX 연산자를 지원한다.   시작하기 프로젝트에 적합한 AI 모델을 더 쉽게 찾을 수 있도록, 유니티는 대규모 60만 개 이상의 AI 모델을 보유한 AI 모델 허브인 허깅 페이스(Hugging Face)와 협력 관계를 맺었다. 이제 센티스에서 ‘바로 사용할 수 있는’ AI 모델을 즉시 찾을 수 있으므로 손쉬운 연동이 가능하다.  적합한 모델을 찾았으면 이제 게임에 연결해야 한다. 더 쉽게 연결할 수 있도록 유니티는 AI 모델을 제작, 수정, 연결하는 데 활용할 새로운 Functional API를 도입했다. 직관적이고, 안정적이며, 인퍼런스에 최적화된 API이다. 메모리 관리 및 스케줄링 전반을 제어하기 위해 완전히 커스터마이즈할 수 있는 낮은 레벨의 API가 필요하다면 Backend API를 계속 사용할 수 있다.   생산성 및 기능성 향상 유니티 엔진은 비주얼 스크립팅에서부터 UI 툴킷까지 사용자의 생산성과 기능성을 향상하기 위한 다양한 툴을 제공한다. 기존 툴에 더해 유니티 6 프리뷰에서는 특히 프로파일링 툴 포트폴리오에 두 가지 업데이트가 추가되었다.   메모리 프로파일러 유니티 6 프리뷰에서는 메모리 프로파일러(Memory Profiler)와 관련해 두 가지 주요 업데이트가 적용되었다. 우선, 기존에는 분류되지 않았던 그래픽스 메모리가 이제 측정되며 리소스별 보고가 이루어진다.(예 : 렌더 텍스처 및 컴퓨트 셰이더) 그리고, 상주 메모리에 대한 정보가 더 자세히 보고된다. 예를 들어 디스크로 전환되는 메모리는 더 이상 여기에 포함되지 않는다. 이러한 업데이트는 특히 네이티브 메모리 사용량을 파악하기 어렵다는 사용자의 직접적인 피드백을 해결한다.   ▲ 업데이트된 메모리 프로파일러     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-07-03
HPE, 파트너 수익성 강화 위한 신규 AI 및 하이브리드 클라우드 프로그램 공개
HPE가 엔비디아(NVIDIA)와 협력하여 파트너들이 수익성을 더욱 강화하고 새로운 수익원을 창출할 수 있도록 지원하는 인공지능(AI) 활성화 프로그램을 발표했다. 해당 프로그램은 AI, 컴퓨팅, 스토리지, 네트워킹, 하이브리드 클라우드, 지속가능성 부문을 모두 아우르는 새로운 기능 및 추가 리소스와 함께 향상된 HPE 그린레이크(HPE GreenLake) 프로그램 및 역량을 제공한다.    HPE는 새롭게 공개한 HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오(NVIDIA AI Computing by HPE)의 일환으로 엔비디아와 협력하여 새로운 AI 파트너 전략을 수립했다. 해당 전략을 바탕으로 양사는 HPE의 선두적인 엣지-투-클라우드(edge-to-cloud) 포트폴리오를 활용해 더 큰 혁신과 기회를 도모할 계획이다. HPEHPE의 주요 파트너사들이 자사 AI 기술을 더욱 발전시킬 수 있도록 다음과 같은 차별화된 트레이닝 및 자격 과정 AI 워크숍 및 역량 프로그램을 제공할 예정이다:   -   AI 가속화 워크숍(AI Acceleration workshop): 해당 워크숍은 AI 활용을 희망하는 파트너들을 지원하며, AI 활용 준비 상태를 평가하고 맞춤형 AI 성장 전략, 성공여부 평가기준, AI 서비스 사례 구축을 위한 로드맵 등을 제공한다.  -   AI 기술 개발 워크숍, 자기주도 학습 콘텐츠 및 자격증 프로그램: HPE 테크 프로(HPE Tech Pro)에서는 해당 워크숍 및 프로그램 등 모든 기능들을 이용할 수 있으며, 엔비디아가 개발한 자기주도 트레이닝 프로그램도 제공될 예정이다. 또한 HPE는 엔비디아의 최신 자격증 프로그램도 활용할 계획이다. 이러한 자료들은 HPE와 엔비디아의 AI 솔루션 포트폴리오의 풀스택 AI 솔루션을 판매하고 구축할 수 있는 역량 등, 파트너사들의 AI 역량을 한층 더 발전시킬 수 있도록 도와준다.  -   HPE AI 솔루션 역량: 해당 역량은 파트너들이 AI의 모든 라이프 사이클에 걸쳐서 폭넓은 AI 사용 사례를 개발할 수 있도록 지원한다. AI를 처음 도입하는 고객사, 또는 기존 사용 사례를 더욱 확장하는 경우, 고급 AI 연구를 실행하는 사례에 이르기까지 다양한 단계에 거쳐 활용할 수 있다. 엔비디아와 협력하여, HPE는 채널 파트너들을 대상으로 더욱 종합적인 역량 강화 프로그램을 제공한다. 이를 통해 채널 파트너들은 AI 워크로드용으로 설계된 풀스택 턴키 프라이빗 클라우드인 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)와 같은 AI 소프트웨어 및 하드웨어 솔루션 스택을 추천, 배포 및 관리할 수 있는 역량을 기를 수 있다. 파트너들은 완전한 AI 솔루션을 설계할 수 있는 기술을 개발함으로써 고객이 리소스를 집중 활용하여 더욱 빠르게 AI 사용 사례를 개발하고 구축하여 생산성을 높이고 새로운 수익원을 창출할 수 있도록 지원한다.     HPE 컴퓨팅 역량: 해당 역량은 파트너들로 하여금 고객이 계획한 AI 모델과 사용사례를 더욱 원활하게 지원할 수 있도록 추론 솔루션에 대한 전문성을 개발할 수 있도록 한다. 일례로 엔비디아 인증 HPE 프로라이언트 GenAI 추론 서버(NVIDIA-Certified HPE ProLiant GenAI inference server)는 고객이 원하는 추론 성능 요구 사항에 최적화된 AI 및 데이터 소프트웨어를 갖추고 있으며 성능 대비 효율성도 뛰어나 투자수익률(ROI)에도 긍정적인 효과를 가져올 수 있다. 파트너들은 파트너 프로그램을 통해 이처럼 최적화된 HPE의 컴퓨팅 역량을 고객에게 추천할 수도 있다.  -   HPE의 엔터프레이즈 레벨 고성능 컴퓨팅(HPC) 역량: 해당 역량은 파트너들이 더욱 독자적인 생성형 AI 모델을 개발하고 있는 기업 고객들의 더욱 높은 수준을 지원할 수 있도록 한다. 또한, HPC 역량은 딥러닝, 자율주행, 금융 모델링과 같은 데이터 집약적인 모델과 사용사례를 지원할 수 있는 전문성을 더욱 개발할 수 있다. 해당 역량은 파트너들이 엔비디아 인증 HPE 크레이 시스템(NVIDIA-Certified HPE Cray system) 등 HPE 크레이 포트폴리오를 자사 AI 및 HPC 전략에 통합하여 활용할 수 있도록 한다.  -   HPE 스토리지 및 데이터 서비스 역량: 해당 역량은 HPE Alletra MP File 스토리지를 지원할 수 있는 전문성이 더욱 강화되어 업데이트되었다. NVIDIA DGX BasePOD 인증 및 NVIDIA OVX 검증이 완료된 엔터프라이즈급 파일 스토리지 솔루션을 제공해 AI, 생성형 AI 및 GPU 집약적인 워크로드의 대규모 활용을 가속화한다.  사이먼 유잉턴(Simon Ewington) HPE 월드와이드 채널 및 파트너 생태계 부사장은 “이러한 최신 기술들을 통해 HPE는 파트너 에코시스템이 더욱 확장하고 새로운 수익원을 창출할 수 있도록 계속해서 투자하고 있다. 파트너들이 AI를 활용할 수 있도록 필요한 툴과 기술을 제공하고 시장에서 거대한 기회를 모색할 수 있도록 지원하고 있는 노력들이 이에 해당된다. 엔비디아와의 협력을 더욱 확대하면서, HPE의 새로운 기술 개발 프로그램은 파트너들로 하여금 그들의 고객이 새로운 AI 기술을 개발하고 배포하는 방법을 더욱 잘 안내할 수 있도록 지원한다. 이로써 고객은 다양한 사용 사례를 개발하고 전 산업부문에 걸쳐 경쟁력을 더욱 강화할 수 있게 된다”고 말했다.    HPE 파트너 레디 벤티지(HPE Partner Ready Vantage) 프로그램을 통한 수익성 증대 HPE 파트너 레디 벤티지 프로그램은 파트너들이 연간 반복 매출(ARR)을 증대시키고 서비스를 지속적으로 성장시킬 수 있는 기반을 제공하는 프로그램이다. 해당 프로그램은 포괄적인 영역을 다루는 COE(Centers of Expertise) 및 역량(competency)을 제공해 파트너들이 새로운 역량과 더욱 차별화된 솔루션 및 서비스를 개발하여 수익과 성장을 견인할 수 있도록 지원한다.  또한, HPE는 글로벌 시장조사기관 카날리스(Canalys)와 협력하여 파트너 경제 승수 지표에 대한 연구를 통해 프로그램에 등록한 파트너들이 수익을 낼 수 있는 기회들을 수치화했다. 해당 연구에 따르면, 고객이 HPE 솔루션에 투자한 1달러당, 파트너의 제품 및 서비스에 최대 4.9달러를 지출한다. 이는 곧 HPE 파트너 레디 벤티지 프로그램에 등록해 고객들에게 추가적인 서비스를 제공하는 파트너들은 잠재적으로 지속 우상향하는 수익 창출 기회를 얻을 수 있다는 점을 시사한다.  제시 차베스(Jesse Chavez) HPE 글로벌 파트너 프로그램 운영 부사장은 “해당 연구는 HPE 프로그램의 기반을 잘 입증해준다. HPE는 파트너들이 HPE의 혁신 기술과 자신들의 독보적인 서비스를 통해서 고객들에게 가치를 더욱 확대할 수 있는 역량과 전문성을 갖추고 있다고 믿는다. HPE 파트너 레디 벤티지 프로그램과 자신들의 독자적인 IP를 HPE 솔루션에 통합하여 기회를 확대시킨 파트너들을 통해서 우리는 파트너의 승수효과(multiplier effect)를 입증했다”고 말했다.   
작성일 : 2024-06-30
HPE-엔비디아, “생성형 AI 산업 혁명 가속화 위한 컴퓨팅 포트폴리오 출시”
HPE는 미국 라스베이거스에서 개최한 연례행사 ‘HPE 디스커버 2024’에서 새로운 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE) 포트폴리오’를 출시했다. 이는 HPE가 기업 고객들이 생성형 AI의 도입을 가속화할 수 있도록 엔비디아와 협력해 공동 개발한 AI 솔루션 및 고투마켓(Go-to-market) 포트폴리오다. 이 포트폴리오가 제공하는 주요 서비스 중 하나는 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)이다. HPE 프라이빗 클라우드 AI는 엔비디아의 AI 컴퓨팅, 네트워킹과 소프트웨어를 HPE의 AI 스토리지, 컴퓨팅, 및 HPE 그린레이크 클라우드(HPE GreenLake Cloud)와 견고하게 통합한 솔루션으로, 모든 규모의 기업이 에너지 효율적이고 빠르며 유연한 방식으로 생성형 AI 애플리케이션을 지속 가능하게 개발하고 배포할 수 있도록 한다. 새로운 옵스램프 AI 코파일럿(OpsRamp AI copilot)을 통해 IT 운영이 워크로드 및 IT 효율성을 향상시킬 수 있도록 지원하는 HPE 프라이빗 클라우드(HPE Private Cloud AI)는 전체 수명주기 관리를 포함한 셀프 서비스 클라우드 경험을 제공하며, 다양한 AI 워크로드와 사용 사례를 지원하기 위해 4가지 사이즈의 다른 구성으로 제공된다. HPE 프라이빗 클라우드 AI 솔루션은 ▲고유 데이터(proprietary data)를 활용한 추론, 미세 조정 및 RAG AI 워크로드 지원 ▲데이터 프라이버시, 보안, 투명성, 거버넌스 요건을 위한 엔터프라이즈급 제어 기능 ▲생산성 향상을 위한 ITOps 및 AIOps 기능이 포함된 클라우드 경험 ▲미래의 AI 기회와 성장을 충족하기 위한 유연한 소비 경로 등을 제공한다.     AI 및 데이터 소프트웨어 스택의 기반은 엔비디아 NIM 추론 마이크로 서비스(NVIDIA NIM inference microservice)를 포함한 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어 플랫폼으로 시작된다. 엔비디아 AI 엔터프라이즈는 데이터 사이언스 파이프라인을 가속화하고, 프로덕션급 코파일럿 및 기타 생성형 AI 애플리케이션의 개발 및 배포를 간소화한다. 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM은 최적화된 AI 모델 추론을 위한 사용하기 쉬운 마이크로서비스를 제공하여 다양한 사용 사례에 대해 프로토타입에서 안전한 AI 모델 배포로 원활하게 전환할 수 있도록 한다. 엔비디아 AI 엔터프라이즈 및 엔비디아 NIM을 보완하는 HPE AI 에센셜(HPE AI Essentials) 소프트웨어는 적응형 솔루션, 지속적인 기업 지원, 안전한 AI 서비스를 제공하는 통합 컨트롤 플레인(control plane)을 갖춘 준비된(curate) AI 및 데이터 기반 툴 세트를 제공하며, 이를 통해 데이터 및 모델 준수, 확장 가능한 기능 등 AI 수명 주기 전반에 걸쳐, AI 파이프라인이 규정을 준수하는 동시에 설명 및 재현이 가능하도록 보장한다. AI 및 데이터 소프트웨어 스택에 최적의 성능을 제공하기 위해, HPE 프라이빗 클라우드 AI는 엔비디아 스펙트럼-X 이더넷(NVIDIA Specturm-X Ethernet) 네트워킹, HPE Alletra MP File 스토리지, 엔비디아 L40S, 엔비디아 H100 NVL 텐서 코어 GPU, 엔비디아 GH200 NVL2 플랫폼을 지원하는 HPE 프로라이언트(ProLiant) 서버가 포함된 완전 통합형 AI 인프라 스택을 제공한다. HPE가 제공하는 모든 엔비디아 AI 컴퓨팅 제품 및 서비스는 양사의 공통 고투마켓 전략을 기반으로 제공된다. 이 전략에는 판매팀 및 채널 파트너, 교육, 그리고 딜로이트, HCL테크, 인포시스, TCS 및 위프로 등의 SI 업체를 아우르는 글로벌 네트워크가 포함되어, 이를 통해 다양한 분야의 기업이 복잡한 AI 워크로드를 실행할 수 있도록 돕게 될 것이다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI는 기업 혁신을 위한 엄청난 잠재력을 가지고 있지만, 단편화된 AI 기술의 복잡성은 대규모 기업의 AI 기술 도입을 어렵게 하는 많은 리스크와 장애물을 포함하고 있으며, 기업의 가장 가치 있는 자산인 고유 데이터를 위험에 처하게 할 수 있다”면서, “HPE와 엔비디아는 기업에서 생성형 AI의 엄청난 잠재력을 발휘할 수 있도록 하기 위해 AI를 위한 포괄적인 턴키 프라이빗 클라우드를 공동 개발하였고, 기업이 생산성을 높이고 새로운 수익원을 창출할 수 있는 새로운 AI 사용 사례 개발에 자원을 집중할 수 있도록 했다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI와 가속 컴퓨팅은 모든 산업이 산업 혁명에 동참하기 위해 경쟁하면서 근본적인 변화를 일으키고 있다. 엔비디아와 HPE는 우리의 기술을 이렇게 깊게 통합한 적이 없었으며, 엔비디아의 전체 AI 컴퓨팅 스택과 HPE의 프라이빗 클라우드 기술을 결합하여 기업 고객과 AI 전문가들에게 AI의 경계를 확장할 수 있는 가장 진보된 컴퓨팅 인프라와 서비스를 제공할 계획”이라고 말했다.
작성일 : 2024-06-19
HPE, 미국 아르곤 국립 연구소에 엑사스케일 슈퍼컴퓨터 제공
HPE는 미국에서 열린 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에서 미국 에너지부 산하 아르곤 국립 연구소에 인텔과 협력해 엑사스케일 슈퍼컴퓨터인 ‘오로라(Aurora)’를 공급했다고 발표했다. 오로라는 시스템의 87%만 가동한 상태에서 1.012 엑사플롭(exaflop)에 도달하면서, ‘TOP500’ 슈퍼컴퓨터 차트에서 전 세계 두 번째로 빠른 슈퍼컴퓨터로 등재되었다. 오로라는 HPE가 두 번째로 제작한 엑사스케일 시스템일 뿐만 아니라 대규모의 인공지능 지원(AI-capable) 시스템이다. HPC 및 AI 워크로드 처리 성능을 측정하는 HPL 혼합 정밀도(Mixed-Precision : MxP) 벤치마크에서 전체 시스템의 89%만을 가동한 상태에서 10.6 엑사플롭을 달성했다. 엑사스케일 컴퓨팅 시스템은 초당 10의 18제곱 번의 작업을 처리할 수 있으며, 이러한 대규모 컴퓨팅 역량을 통해 인류가 당면한 어려운 문제를 해결해 나갈 수 있다. 오로라는 엑사스케일의 규모와 범위를 지원할 수 있도록 설계된 HPE 크레이 EX 슈퍼컴퓨터(HPE Cray EX supercomputer)로 구축됐다. 또한, 오로라는 단일 시스템으로는 개방형 이더넷 기반 슈퍼컴퓨팅 인터커넥트 솔루션인 HPE 슬링샷(HPE Slingshot)이 최대 규모로 배포된 시스템이기도 하다. 이러한 패브릭 시스템은 오로라의 컴퓨팅 노드 엔드포인트 7만 5000개, 2400개의 스토리지 및 서비스 네트워크 엔드포인트를 5600개의 스위치와 연결한다. 이를 통해 오로라의 컴퓨팅 블레이드 1만 624개, 인텔 제온 CPU 맥스 시리즈 프로세서(Intel Xeon CPU Max Series Processor) 2만 1248개 및 인텔 데이터 센터의 GPU 6만 3744개 유닛 전반에 걸쳐 고속 네트워킹을 지원함으로써 성능을 향상시킨다.     초기 설계 단계부터 AI 지원 시스템으로 개발된 오로라를 기반으로 연구원들은 생성형 AI 모델을 구동함으로써 과학 발전을 더욱 가속할 수 있게 되었다. 일례로 과학자들은 인간 두뇌 속 800억 개의 뉴런에 대해 더 깊이 연구하기 위한 브레인 매핑(brain mapping : 뇌 지도화) 연구, 딥러닝을 활용한 고에너지 입자 물리학, 머신 러닝 기술을 통한 신약 설계 및 개발 등 오로라를 활용해 초기 AI 기반 연구를 진행한 바 있다. 오로라 엑사스케일 슈퍼컴퓨터는 HPE, 인텔, 미국 에너지부, 아르곤 국립 연구소간 파트너십의 결과로, 혁신 엔지니어링 기술로 과학 기술 발전에 이바지하기 위해 공동 투자 및 협력을 진행했다. 오로라 초기 과학 프로그램(Aurora Early Science Program)을 통해 입증된 바와 같이 민관 부문의 파트너십은 과학 기술 진보를 위해서 필수이다. 나아가, 연구원들은 오로라 시스템의 최적화 및 스트레스 테스트(stress-test) 과정의 일환으로 이미 다양한 프로그래밍 모델, 언어 및 애플리케이션을 시스템에서 성공적으로 실행했다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 솔루션 담당 수석 부사장 겸 총괄은 “오로라는 세계가 당면한 가장 어려운 문제들을 해결하고 획기적인 과학 기술을 발견하기 위한 대규모 컴퓨팅 역량을 제공할 수 있으며, 이러한 오로라를 통해 엑사스케일 컴퓨팅에 또 하나의 이정표를 만들어갈 수 있게 되었다”면서, “HPE는 미국 에너지부, 아르곤 국립 연구소, 그리고 인텔과의 견고한 파트너십을 통해 이러한 대규모 수준의 시스템을 현실화할 수 있게 된 점을 자랑스럽게 여기며, 이러한 성과는 혁신적인 공동 엔지니어링, 다양한 부서들의 협력 그리고 무엇보다 과학 발전과 인류를 위해 최첨단 기술을 발전시키겠다는 핵심 가치를 공유함으로써 달성할 수 있었다”고 말했다.
작성일 : 2024-05-23
HPE, 크레이 슈퍼컴퓨터로 씨유박스의 영상인식 AI 개발 지원
HPE는 인공지능(AI) 얼굴 및 영상인식 전문기업인 씨유박스(CUBOX)가 HPE 크레이 XD 슈퍼컴퓨터(HPE Cray XD Supercomputer)를 활용하여 기존 영상인식 솔루션을 훈련시키기 위한 생성형 AI 모델을 개발하고 있다고 발표했다. 씨유박스는 해당 시스템을 통해 새로운 영상 처리 기술 개발에 중점을 두고 혁신을 더욱 강화할 계획이다. 얼굴인식 기술 기반 보안 분야의 국내 기업인 씨유박스는 인천국제공항 내 자동 출입국 심사대 및 주요 정부 기관에 얼굴인식 단말기를 공급하고 있다. 씨유박스는 이번 HPE 크레이 XD 슈퍼컴퓨터의 도입을 통해 생성형 AI 모델 훈련을 최적화한다는 계획이다. 기존 공공시장(B2G)에서 더 나아가 금융 부문 AI 솔루션에 중점을 두고 B2B 시장으로 영역을 더욱 확대하고 있는 씨유박스는 다양한 B2C 서비스를 구축하는데 있어 생성형 AI 역할의 중요성을 인식하고, B2C AI 서비스 모델에 대한 투자도 이어가고 있다.  씨유박스의 시스템은 HPE 크레이 XD6500 슈퍼컴퓨터를 사용하여 구축되었다. 이 시스템은 이론상 최대 8.136 페타플롭스(petaFLOPs)의 성능을 제공하며, 전 세계 슈퍼컴퓨터 순위인 TOP500 목록에서 156위를 차지했다. HPE 크레이 XD 슈퍼컴퓨터의 향상된 컴퓨팅 성능과 첨단 기능은 씨유박스가 영상, 텍스트, 음성 및 비디오 처리의 기반이 되는 대규모 언어모델(LLM) 및 대규모 멀티모달모델(LMM)과 같은 대규모 AI 기술을 지원하는 기술 로드맵을 수립하는데 핵심 역할을 했다는 것이 HPE의 설명이다. 씨유박스의 남운성 대표는 “씨유박스는 영상인식 기술의 발전을 주도하고, AI 기반 솔루션으로 인간 상호작용을 새롭게 정의하며 보안을 발전시키는 미래를 만들어가고 있다. 새로운 인프라를 기반으로 생성형 AI 서비스를 구축하여 사업을 확장하고, 의료 서비스, 로봇 시스템 및 디지털 트윈과 같은 새로운 비즈니스에 영상 인식 솔루션을 적용하고 있다”고 전했다. 한국HPE의 김영채 대표이사는 “AI, 모델링, 시뮬레이션 등의 작업은 강력한 스케일링과 대규모 성능이 필요하다. 슈퍼컴퓨터는 이러한 컴퓨팅 및 데이터 집약적인 워크로드를 효율적으로 지원할 수 있는 이상적인 플랫폼을 제공한다. 세계에서 가장 강력한 슈퍼컴퓨터 중 하나를 구동하여 씨유박스를 지원하고, 정부 기관 및 다양한 조직의 혁신을 촉진하는 영상인식 솔루션을 발전시키는데 기여할 수 있게 되어 영광스럽게 생각한다”고 말했다.
작성일 : 2024-04-30
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26