• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "네트워킹"에 대한 통합 검색 내용이 641개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
슈퍼마이크로, X14 서버 제품군에 6세대 인텔 제온 프로세서 탑재 예정
슈퍼마이크로컴퓨터(SMCI)가 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 공개했다. 이번 신제품에는 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 인텔 제온 6 프로세서 제품군이 결합됐으며, 이를 통해 다양한 워크로드와 규모에 최적화된 솔루션을 높은 성능과 효율성으로 제공하는 데에 초점을 맞추었다. 슈퍼마이크로는 고객이 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온 6 프로세서에 대한 소켓 호환성을 지원한다. 이 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어(효율 코어) SKU와 AI, HPC, 스토리지 및 에지 워크로드에 대해 코어당 성능을 높이는 P-코어(성능 코어) SKU로 제공된다. 인텔 AMX(Intel Advanced Matrix Extensions)에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다.     인텔의 라이언 타브라(Ryan Tabrah) 부사장 겸 제온 E-코어 제품 부문 총괄은 “제온 6 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다. 고객은 온프레미스, 클라우드, 또는 에지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다. 슈퍼마이크로와의 강력한 파트너십은 차세대 프로세서의 이점을 고객에게 제공하는 데 도움이 될 것”이라고 설명했다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 수냉식 100kW 랙 1,350개를 포함해 전 세계적으로 매월 5000개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다. 현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다”면서, “슈퍼마이크로는 폭넓은 애플리케이션 최적화 솔루션의 설계 및 제공하는 것에 있어서 업계를 선도하고 있다. 인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것”이라고 전했다.
작성일 : 2024-04-17
델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원
델 테크놀로지스는 자사의 고성능 AI 서버인 ‘델 파워엣지 XE9680(Dell PowerEdge XE9680)’에 ‘인텔 가우디 3(Intel Gaudi 3)’ AI 가속기 지원을 추가한다고 밝혔다. 델은 데이터 집약적이고 복잡한 워크로드를 효과적으로 지원하게끔 설계된 XE9680의 확장된 라인업을 통해 AI 활용을 고려하는 엔터프라이즈 고객들에게 더 넓어진 선택지를 제공하게 됐다고 전했다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써, 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다.     안전성과 확장성에 중점을 두고 설계된 XE9680은 가우디3 가속기를 추가함으로써 보다 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블(Intel Xeon Scalable) 프로세서를 2개를 장착했으며, 고난도의 AI/ML 워크로드에 대한 데이터 처리 및 분석에 최적화되어 있다. 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 대응하기 위한 스펙을 갖췄다. 가우디3는 또한 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결이 가능해 인프라를 단순화하고, 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 또한 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 높인다. 기존 하드웨어 성능을 넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 것도 특징이다. 인텔 가우디 3 AI 가속기를 탑재한 파워엣지 XE9680 서버 모델은 2024년 안에 국내 출시될 계획이다  한국 델 테크놀로지스의 김경진 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”면서, “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고 미래에 필요하게 될 요구 성능에 대비하는 동시에, 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 덧붙였다.
작성일 : 2024-04-15
대원씨티에스-딥엑스, AI 솔루션 확산 위해 ‘맞손’, 딥엑스 총판 계약 체결
  대원씨티에스와 딥엑스가 AI 솔루션 확산을 위해 총판계약을 체결했다.(좌로부터 대원씨티에스 정명천 회장, 딥엑스 김녹원 대표, 대원씨티에스 하성원 대표) 대원씨티에스는 4월 11일, 국내 최대의 AI 반도체 스타트업인 딥엑스와 총판 계약을 체결했다. 대원씨티에스는 11일, 판교 딥엑스 본사에서 김녹원 대표이사, 정명천 대원씨티에스 회장 등 양사 관계자들이 참석한 가운데 온디바이스 AI 솔루션을 전산업으로 확산하기 위해 B2B, B2C 비즈니스 총판 계약을 체결했다고 밝혔다. 대원씨티에스는 1988년 창립된 회사로 국내에서 AMD, 델, 슈퍼마이크로, 케이투스 등 글로벌 반도체 및 서버 업체들의 국내 총판을 담당하고 있다. 또한 LG, 삼성, HP 등 국내외 IT 제조사와 총판 계약을 통해 국내 IT 제품의 유통을 주도해왔으며, 작년 7,200억의 유통 매출을 달성했다. 생성형 AI 기술의 확산과 더불어 AI 인프라 시장이 확대되면서 AI 반도체가 주목받고 있다. 전통적인 반도체 기업을 비롯해 글로벌 빅테크 기업들까지 AI 반도체 개발에 뛰어들고 있다. 추론 기술을 구현하기 위한 인공신경망(NPU) 알고리즘을 저전력, 고속으로 처리할 수 있는 AI 반도체는 디지털 4차 혁명과 더불어 어느 산업보다 빠르게 성장하고 있다. 가트너는 오는 2027년 AI 반도체 시장이 1194억 달러로 현재보다 3배 이상 성장할 것으로 전망하고 있다. AI 반도체 시장 선점을 위해 정부에서도 지원을 아끼지 않고 있다. 과학기술정보통신부와 산업통상자원부는 AI 일상화를 지원하기 위해 국내 7대 주력산업이 참여하는 AI 반도체 협업포럼을 출범시켰다. 이런 상황에 대원씨티에스와 딥엑스의 전략적 유통 협력 계약 체결은 남다른 의미를 갖는다. 양사의 계약 체결로 대원씨티에스는 기존 데이터센터 시장에서 NPU 서버, 스토리지, AI 네트워킹 솔루션 공급에서 더 나아가 엣지 인프라 환경까지 영역을 확대해 나간다는 계획이다. 대원씨티에스는 딥엑스와의 협업을 통해 AI를 위한 단일 패키지 솔루션을 공급할 수 있을 것으로 기대된다. 국내 대형 유통 네트워크를 보유하고 있는 대원씨티에스와의 협업은 딥엑스의DX-V1 및 DX-M1과 같은 온디바이스 AI 반도체 제품을 양산 초기부터 대형 유통 네트워크를 통해 고객에게 효율적으로 공급할 수 있다는 전략적 가치가 있다. 더불어 대원씨티에스는 딥엑스가 협력을 타진하고 있는 글로벌 서버 개발사들인 델, 슈퍼마이크로, 케이투스 등의 국내 총판 유통사이기 때문에 딥엑스의 서버 시장 공략에서도 시너지를 발휘할 것으로 기대하고 있다. 대원씨티에스의 하성원 대표는 “그동안 국내 시장에서 다양한 서버 업체들의 총판을 담당하면서 GPU 서버 중심의 AI 인프라 시장을 타깃으로 해왔다”면서 “이번에 딥엑스와의 총판 계약 체결로 명실상부한 국내 AI 인프라 구축 솔루션 전문업체로 거듭날 계획”이라고 밝혔다. 딥엑스 김녹원 대표는 “대원씨티에스의 탄탄하고 폭넓은 유통망과 딥엑스의 우수한 기술력의 제품으로 AI 반도체 시장에서 입지를 확대해 나가겠다. 올해 하반기부터 양산되는 4개의 AI 반도체로 구성된 1세대 제품을 통해 글로벌 시장 공략을 본격화하면서 AI 일상화 시대를 열어가겠다”고 밝혔다.  
작성일 : 2024-04-14
슈나이더 일렉트릭, 지능형 냉각 기술 탑재된 ‘마이크로 데이터센터’ 제품군 출시
슈나이더 일렉트릭이 지능형 냉각 기술을 탑재한 마이크로 데이터센터(Micro Data Center) 신제품을 출시했다고 밝혔다. 자동화 및 디지털화가 가속화됨에 따라 디지털 변혁의 핵심인 데이터센터의 수요도 높아지고 있다. 동시에 데이터센터의 IT 인프라의 에너지 및 전력 효율에 대한 요구도 증대하고 있다. 특히 대량의 데이터에 대한 실시간 응답과 네트워크 대역폭 한계를 극복하는 에지 컴퓨팅에 기반한 ‘마이크로 데이터센터’도 필수 요소로 꼽힌다. 슈나이더 일렉트릭의 마이크로 데이터센터는 에지 컴퓨팅 환경에서 스토리지, 프로세싱, 네트워킹 등 안전한 컴퓨팅 인프라 환경을 제공하는 통합 랙(rack) 솔루션이다. 이를 통해 여러 환경에 걸쳐 설계를 표준화하고, 단일 올인원 솔루션으로 운영할 수 있으므로 유지 관리가 편리하다는 점을 내세운다.     슈나이더 일렉트릭이 새롭게 선보인 마이크로 데이터센터 C-시리즈(Micro Data Center-C series)는 자사의 상업 및 산업 시설용 마이크로 데이터센터 제품군 중 최대 용량을 제공한다. 실시간 요구 사항에 따라 활성, 절전, 비상 등 3가지 냉각 모드를 자동으로 전환하는 솔루션으로, 향상된 보호 기능과 에너지 효율을 제공한다. 특히 고객이 모든 에지 컴퓨팅 또는 상용 환경에서 간단하고 안정적으로 IT 인프라를 운영할 수 있도록 하는 솔루션을 갖춘 모델로, 전용 IT 룸이 필요하지 않아 20%의 시간 단축 및 최대 48% 비용 절감 효과를 보인다. 또한 슈나이더 일렉트릭의 마이크로 데이터센터 C-시리즈는 에코스트럭처 IT 소프트웨어 및 디지털 서비스를 통해 원격으로 모니터링할 수 있는 에지 관리 솔루션을 제공한다. 고객이 직접 또는 파트너와 함께 중요 인프라 장치를 원활하게 관리하거나, 슈나이더 일렉트릭의 전문 서비스 엔지니어가 대신 관리할 수 있도록 성능과 유연성을 제공한다. 이 제품은 금융, 상업 시설, 의료, 정부 및 교육기관 등을 포함한 다양한 분야의 IT 인프라를 위해 설계됐다. 공간의 한계, 전력 변동 및 온도 변화 등에 민감한 IT 인프라를 위해 설계되어 특별한 장소에서도 안전하게 사용 가능하다. 슈나이더 일렉트릭의 장 밥티스트 플라뉴(Jean-Baptiste Plagne) 에너지 관리 부문 랙 및 에지 시스템 오퍼 담당 부사장은 “슈나이더 일렉트릭의 에코스트럭처 마이크로 데이터센터 C-시리즈는 더 많은 용량과 내부 기능을 추가하여 더 많은 비용 및 에너지를 절감할 수 있는 신제품”이라며 “상업 환경의 고유한 문제 해결과 함께 디지털 환경의 상시 가동을 보장하는 IT 인프라 제공업체 및 운영자들을 위해 설계됐다”고 전했다.
작성일 : 2024-04-04
마이크로소프트, 개발자 및 엔지니어 대상 ‘Microsoft AI Tour in Seoul’ 개최
한국마이크로소프트가 4월 30일 서울 양재 aT센터에서 ‘개발자와 엔지니어를 위한 AI의 모든 것’을 주제로 ‘Microsoft AI Tour in Seoul’을 개최한다고 밝혔다. Microsoft AI Tour는 ‘한발 앞선 AI 트랜스포메이션의 실현’이라는 주제 아래 지난해 9월 미국 뉴욕에서 시작돼 전 세계 14개 도시를 순회하고 있다. 이번에 한국에서 개최되는 Microsoft AI Tour는 마이크로소프트 애저(Microsoft Azure)와 마이크로소프트 코파일럿(Microsoft Copilot)을 활용한 AI 기술과 기능을 직접 체험하고 배울 수 있는 다양한 세션이 열리며, 공식 파트너사인 엔비디아와 함께 AI 기술 콘텐츠와 노하우도 제공할 예정이다.     키노트는 한국마이크로소프트의 조원우 대표와 마이크로소프트 스콧 한셀만(Scott Hanselman) 개발자 커뮤니티 부사장이 ‘개발자를 위한 차세대 AI’를 주제로 진행한다. 이 세션에서는 마이크로소프트 애저와 코파일럿을 활용해 업무 생산성을 높이는 노하우와 혁신적인 AI 시스템 구축 방법이 소개된다. 특히 한셀만 부사장은 한글이 대규모 언어 모델(LLM)에서 어떤 의미를 가지는지 및 앞으로의 발전 방향성에 대한 인사이트도 공유할 예정이다.  브레이크 아웃 세션에서는 새로운 AI 기술과 기능이 소개된다. ▲생성형 AI의 새로운 기능 ▲마이크로소프트 패브릭(Microsoft Fabric)에서 코파일럿으로 AI 앱 빌드하기 ▲비즈니스 앱 및 데이터로 마이크로소프트 365 코파일럿 확장하기 ▲GPT 및 비전 AI를 사용한 멀티모달 대화형 인터페이스 등 4개의 주제가 발표된다. 이를 통해 참가자들은 최신 AI 기술 트렌드와 발전 상황을 파악하고, 사용자 경험 개선과 혁신적인 솔루션 개발에 필요한 AI 기술과 노하우를 습득할 수 있다. 워크숍 세션은 개발자들의 실전 AI 기술 향상을 위한 실습 형태로 진행된다. 마이크로소프트 코파일럿 스튜디오(Microsoft Copilot Studio)를 활용해 나만의 코파일럿을 만들고, 마이크로소프트 패브릭을 사용해 AI를 위한 데이터 및 머신러닝 및 애저 오픈AI 서비스 생성형 AI 솔루션을 구현해 볼 수 있다. 커넥션 허브에서는 마이크로소프트 제품 및 엔지니어링 전문가와의 대면 상담 기회를 제공한다. 참가자들은 16개의 주제별 부스에서 전문가와 만나 자신의 프로젝트에 대한 조언을 듣고, 기술적인 문제에 대한 궁금증을 해소할 수 있다. 이와 함께 코파일럿을 체험해 볼 수 있는 시간도 마련된다.  네트워킹 리셉션에서는 발표자, 업계 리더, 개발자들이 모여 지식과 경험을 공유하고 새로운 협업 기회를 찾을 수 있다. 또한 IT 업계 동향과 최신 기술에 대한 인사이트를 나누며 새로운 커뮤니티에 참여하는 것도 가능하다.
작성일 : 2024-04-04
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
엔비디아, 주요 클라우드 기업과 AI 관련 협력 강화 계획 소개
엔비디아는 GTC 행사에서 디지털 트윈과 인공지능 등 다양한 영역에서 업계 주요 기업과의 파트너십 내용을 소개했다. 이 가운데 AWS, 마이크로소프트, 구글 클라우드, 오라클 등과는 클라우드 상에서 AI 활용을 확대하는 것을 중심으로 협력을 강화할 계획이다.   AWS : 차세대 GPU 플랫폼 및 AI 인프라 제공 엔비디아는 차세대 GPU 플랫폼인 블랙웰(NVIDIA Blackwell)이 AWS에 제공된다고 발표했다. AWS는 5세대 엔비디아 NV링크로 상호 연결된 72개의 블랙웰 GPU와 36개의 그레이스 CPU로 구성된 GB200 NVL72를 갖춘 엔비디아 블랙웰 플랫폼을 제공할 예정이다. 엔비디아는 엔비디아 블랙웰이 AWS상에서 상당한 양의 컴퓨터 리소스를 필요로 하는 수조 개의 파라미터의 언어 모델의 추론 작업을 크게 향상시킬 것으로 전망하고 있다. 엔비디아와 AWS는 양사의 기술을 지속적으로 통합해 나가는 파트너십을 강화할 계획이다. 여기에는 차세대 엔비디아 블랙웰 플랫폼과 AI 소프트웨어를 비롯해 AWS의 니트로 시스템(Nitro System)과 AWS KMS(키 관리 서비스)의 고급 보안, 엘라스틱 패브릭 어댑터(EFA) 페타비트 규모의 네트워킹, 아마존 EC2(엘라스틱 컴퓨트 클라우드) 울트라클러스터 하이퍼스케일 클러스터링 등이 있다. 양사는 이런 기술을 함께 사용함으로써 아마존 EC2에서 이전 세대 엔비디아 GPU보다 더 빠르고, 저렴한 비용으로 대규모로 수조 개의 파라미터 거대 언어 모델(LLM)에 대한 실시간 추론을 구축, 실행할 수 있을 것으로 보고 있다. AWS는 엔비디아 H100 기반 EC2 P5 인스턴스의 성공을 기반으로, 대규모로 생성형 AI 훈련과 추론을 가속화하는 EC2 울트라클러스터에 배치된 새로운 B100 GPU를 탑재한 EC2 인스턴스를 제공할 계획이다. 또한 AWS에서 공동으로 만들어진 AI 플랫폼인 엔비디아 DGX 클라우드에서도 GB200을 사용할 수 있다.    마이크로소프트 : 생성형 AI 및 디지털 트윈 기술을 클라우드에서 통합 엔비디아는 GTC에서 마이크로소프트 애저(Azure), 애저 AI 서비스, 마이크로소프트 패브릭(Fabric), 마이크로소프트 365에 최신 엔비디아 생성형 AI와 옴니버스(Omniverse) 기술을 통합한다고 밝혔다. 엔비디아 옴니버스 클라우드 API(Omniverse Cloud API)는 올해 말 마이크로소프트 애저에서 먼저 제공되며, 개발자들은 기존 소프트웨어 애플리케이션에서 향상된 데이터 상호운용성, 협업, 물리 기반 시각화를 이용할 수 있도록 지원할 예정이다. 엔비디아 GPU와 엔비디아 트리톤 추론 서버(Triton Inference Server)는 마이크로소프트 365용 마이크로소프트 코파일럿에서 AI 추론 예측을 지원한다.  또한, 마이크로소프트는 엔비디아 그레이스 블랙웰 GB200과 고급 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand) 네트워킹의 성능을 애저에 도입할 예정이다. 이외에도 마이크로소프트는 엔비디아 H100 NVL 플랫폼에 기반한 애저 NC H100 v5 VM(가상머신)의 정식 출시를 발표했다. 미드레인지 훈련과 추론을 위해 설계된 NC 시리즈 VM은 이는 고객들에게 1개에서 2개의 엔비디아 H100 94GB PCIe 텐서 코어(Tensor Core) GPU로 구성된 두 등급의 VM을 제공하며, 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원한다.   구글 클라우드 : 생성형 AI 앱의 구축과 관리 지원 엔비디아는 구글 클라우드와의 파트너십을 강화해 머신러닝(ML) 커뮤니티가 생성형 AI 애플리케이션을 쉽게 구축, 확장, 관리할 수 있도록 지원할 예정이다. 구글은 자사 제품과 개발자에게 AI 혁신을 지속적으로 제공하기 위해 새로운 엔비디아 그레이스 블랙웰(Grace Blackwell) AI 컴퓨팅 플랫폼을 도입하고, 구글 클라우드에 엔비디아 DGX 클라우드(DGX Cloud) 서비스를 적용한다고 발표했다. 아울러 엔비디아 H100 기반 DGX 클라우드 플랫폼은 이제 구글 클라우드에서 정식으로 사용할 수 있다. 구글은 최근 개방형 모델인 젬마(Gemma) 제품군 최적화를 위한 협력을 기반으로, 엔비디아 NIM 추론 마이크로서비스도 도입한다고 밝혔다. 이를 통해 구글은 개발자들이 선호하는 툴과 프레임워크를 사용해 훈련하고 배포할 수 있는 개방적이고 유연한 플랫폼을 제공할 계획이다. 또한, 양사는 엔비디아 GPU와 엔비디아 H100 그리고 L4 텐서 코어(L4Tensor Core) GPU 기반의 버텍스 AI(Vertex AI) 인스턴스에서 JAX를 지원한다고 발표했다.   오라클 : 데이터 관리용 가속 컴퓨팅과 생성형 AI 솔루션 제공 엔비디아는 자사의 풀스택 AI 플랫폼과 오라클 엔터프라이즈 AI를 결합해 운영, 위치, 보안에 대한 제어력을 강화한 AI 솔루션을 제공한다. 오라클 엔터프라이즈 AI는 OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud)에 배포 가능하다. 양사의 통합 솔루션은 퍼블릭 클라우드 또는 특정 위치의 고객 데이터센터에 유연한 운영 제어를 통해 배포할 수 있다. 오라클은 어디서나 로컬로 AI와 전체 클라우드 서비스를 제공할 수 있는 역량을 내세우면서, 배포 유형에 관계없이 일관적인 서비스와 가격을 통해 계획, 이동성, 관리를 간소화한다고 강조했다. 오라클 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 비롯한 다양한 엔비디아 스택을 활용한다. 또한, 새로 발표된 엔비디아 NIM 추론 마이크로서비스는 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버(Triton Inference Server)와 같은 엔비디아 추론 소프트웨어를 기반으로 구축된다.
작성일 : 2024-03-21
델, 엔비디아 기반의 ‘AI 팩토리 솔루션’ 선보여
델 테크놀로지스가 엔비디아와 엔터프라이즈 AI 적용 확산을 위해 전략적 협력을 강화하면서, 신규 솔루션인 ‘델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)’를 비롯해 ‘델 생성형 AI 솔루션(Dell Generative AI Solutions)’ 포트폴리오를 확대한다고 밝혔다. 이는 기업과 기관이 자체 보유한 데이터와 AI 툴, 그리고 온프레미스 인프라를 보다 안전하고 빠르게 통합하여 생성형 AI 투자 효과를 극대화하도록 돕는 것이 핵심이다. 델과 엔비디아는 델의 엔드-투-엔드 생성형 AI 솔루션 포트폴리오를 강화하고, 고객들이 비즈니스 혁신을 가속화하는 한편 생산성을 높일 수 있도록 지원할 계획이다. ‘델 AI 팩토리 위드 엔비디아’는 델의 서버, 스토리지, 클라이언트 디바이스, 소프트웨어 및 서비스와 엔비디아의 AI 인프라 및 소프트웨어 팩키지를 결합한 엔드-투-엔드 솔루션으로 고속 네트워크 패브릭을 기반으로 구성된다. 엄격한 테스트와 검증을 거친 랙 단위 설계가 가능하며, 이를 통해 데이터로부터 가치 있는 통찰력과 성과를 이끌어낼 수 있도록 돕는다. 이 솔루션은 또한 엔터프라이즈 데이터 보안 분야의 기존 오퍼링들을 비롯해 보안 및 개인 정보 보호를 위한 델의 서비스 오퍼링과 함께 활용할 수 있다.      ‘델 AI 팩토리 위드 엔비디아’는 모델 생성 및 튜닝에서부터 증강, 그리고 추론에 이르는 생성형 AI의 전체 수명주기에 걸쳐 다양한 AI 활용 사례와 애플리케이션을 지원한다. 델이 제공하는 프로페셔널 서비스를 활용해 조직에서는 전략을 세우고, 데이터를 준비하여 구현하고 적용하기 까지의 과정을 가속할 수 있으며, 조직 전반의 AI 역량을 향상시킬 수 있다. 이 솔루션은 기존의 채널 파트너를 통해 구매하거나, ‘델 에이펙스(Dell APEX)’ 구독형 모델을 통해 도입할 수 있다. 델 파워엣지 XE9680(Dell PowerEdge XE9680) 서버는 ‘엔비디아 B200 텐서 코어 GPU’를 포함한 신규 엔비디아 GPU 모델을 지원할 예정이며, 이를 통해 최대 15배 높은 AI 추론 성능과 TCO 절감을 기대할 수 있다. 또한 델 파워엣지 서버는 엔비디아 블랙웰 아키텍처 기반의 다른 여러 GPU와 H200 텐서 코어 GPU, 엔비디아 퀀텀-2 인피니밴드(NVIDIA Quantum-2 InfiniBand) 및 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워킹 플랫폼도 지원할 예정이다. ‘검색 증강 생성을 위한 델과 엔비디아의 생성형 AI 솔루션(Dell Generative AI Solutions with NVIDIA - Retrieval-Augmented Generation)’은 ‘엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)’의 새로운 마이크로서비스를 활용하여 사전 검증된 풀스택 솔루션을 제공함으로써 RAG(검색 증강 생성) 기술 도입을 가속한다. 자체 보유한 고유 데이터 및 지식 베이스와 같이 사실에 근거한 새로운 데이터 세트를 통해 생성형 AI 모델 품질을 개선하고 결과 정확도를 높일 수 있다. ‘모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션(Dell Generative AI Solutions with NVIDIA - Model Training)은 자체적으로 도메인 맞춤형 AI 모델을 구축하려는 기업 및 기관들을 위해 사전 검증된 풀스택 솔루션을 제공한다. 이와 함께 ‘생성형 AI를 위한 델 프로페셔널 서비스(Dell Professional Services for GenAI)’는 포트폴리오 전반에 대한 통합, 관리, 보호를 지원하여 비즈니스 성과를 더 빠르게 달성할 수 있게끔 돕는다. 델 구현 서비스(Dell Implementation Services)에는 델의 신규 RAG 솔루션 및 모델 훈련을 비롯해 보안 위험을 평가하고 영향을 최소화하도록 돕는 ‘생성형 AI 데이터 보호를 위한 자문 서비스(Advisory Services for GenAI Data Security)’ 등이 포함된다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “AI 팩토리는 향후 산업군 별로 인텔리전스를 창출하는 핵심 역할을 할 것”이라고 전망하며, “엔비디아와 델은 함께 기업이 AI 팩토리를 통해 기업들이 자체 보유한 고유의 데이터를 강력한 인사이트로 전환할 수 있도록 지원하고 있다”고 말했다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “엔터프라이즈 고객들은 복잡한 AI 요구에 대응하고 이를 빠르게 해결할 수 있는 솔루션을 갈망하고 있다. 델과 엔비디아가 협력하는 이유도 여기에 있다”고 설명하며 “양사의 노력으로 탄생한 턴키 솔루션은 데이터와 사용 사례를 원활하게 통합하고, 맞춤형 생성 AI 모델 개발을 간소화한다”고 덧붙였다.
작성일 : 2024-03-19
레노버, 기업에 맞춤형 생성형 AI 제공하는 하이브리드 AI 솔루션 공개
레노버가 엔비디아와 협력해 모든 기업 및 클라우드에 맞춤형 생성형 AI 애플리케이션을 제공하는 신규 하이브리드 AI 솔루션을 발표했다.  양사의 엔지니어링 협력을 통해 이번 하이브리드 AI 솔루션은 포켓에서 클라우드에 이르는 고객 데이터에 AI를 효과적으로 활용할 수 있도록 만들어졌다. 개발자들은 엔비디아 AI 엔터프라이즈 소프트웨어 실행에 최적화된 레노버 하이브리드 AI 솔루션을 통해 엔비디아 NIM 및 네모 리트리버(NeMo Retriever)와 같은 마이크로 서비스에 액세스할 수 있게 된다. 레노버는 대규모 AI 워크로드를 효율적으로 처리하기 위해 확장된 레노버 씽크시스템 AI 포트폴리오를 새롭게 공개했다. 이 포트폴리오는 두 개의 엔비디아 8방향 GPU 시스템을 탑재하고 있으며, AI 구현을 가속하기 위한 전력 효율성 및 거대 컴퓨팅 능력을 갖추고 있다. 생성형 AI, 자연어 처리(NLP) 및 대규모 언어 모델(LLM) 개발을 위해 설계됐으며, 엔비디아 HGX AI 슈퍼컴퓨팅 플랫폼에는 엔비디아 H100, H200 텐서 코어 GPU, 신규 엔비디아 그레이스 블랙웰 GB200 슈퍼칩, 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-X800 이더넷 네트워킹 플랫폼이 포함되어 있다. 레노버 씽크시스템 AI 서버는 엔비디아 B200 텐서 코어 GPU를 탑재해 생성형 AI의 새로운 막을 열었다. 엔비디아 블랙웰 아키텍처는 생성형 AI 엔진, 엔비디아 NV링크(NVLink) 인터커넥트 및 향상된 보안 기능을 갖추고 있는 점이 특징이다. 또한, B200 GPU는 최대 25배 더 빠른 실시간 추론 성능으로 1조 매개변수를 갖춘 언어 모델을 지원한다. 이는 AI, 데이터 분석 및 HPC 워크로드에 최적 설계됐다.     신규 레노버 씽크시스템 SR780a V3 서버는 1.1대의 전력효율지수(PUE)를 갖춘 5U 시스템으로, 설치 공간을 절약할 수 있는 점이 특징이다. 한편, CPU와 GPU에는 레노버 넵튠 다이렉트 수냉식 기술과 엔비디아 NV스위치(NVSwitch) 기술이 사용되어 발열 문제없이 최대 성능을 유지할 수 있다. 레노버 씽크시스템 SR680a V3 서버는 듀얼 소켓 공랭 시스템으로, 엔비디아 GPU와 인텔 프로세서를 탑재하여 AI를 최대 활용할 수 있도록 설계됐다. 이 시스템은 업계 표준 19인치 서버 랙 타입으로써 과도한 공간을 차지하거나 선반을 필요로 하지 않는 고밀도 하드웨어로 구성되어 있다. 한편, 레노버 PG8A0N 서버는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재한 AI용 1U 서버이자 가속기용 개방형 수냉식 기술을 갖췄다. GB200은 45배 더 빠른 실시간 LLM 추론 성능과 더불어 40배 더 낮은 총소유비용(TCO), 40배 더 적은 에너지로 구동된다. 레노버는 엔비디아와의 긴밀한 협업을 통해 AI 트레이닝, 데이터 처리, 엔지니어링 설계 및 시뮬레이션을 위한 GB200 랙 시스템을 제공할 예정이다. 고객들은 레노버가 지닌 엔비디아 인증 시스템 포트폴리오를 통해 ‘엔비디아 AI 엔터프라이즈’를 사용할 수 있게 된다. 이는 프로덕션급 AI 애플리케이션 개발 및 배포를 위한 엔드 투 엔드 클라우드 네이티브 소프트웨어 플랫폼이다. 또한, 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM 추론 마이크로 서비스를 레노버 엔터프라이즈 인프라에서 실행함으로써, 고성능 AI 모델 추론을 할 수 있다. 또한, 레노버는 워크스테이션에서 클라우드에 이르기까지 엔비디아 OVX와 엔비디아 옴니버스 설계, 엔지니어링 및 구동을 지원하고 있다고 소개했다. 기업들이 맞춤형 AI, HPC 및 옴니버스 애플리케이션을 신속하게 구축할 수 있도록 레노버는 엔비디아 MGX 모듈형 레퍼런스 디자인을 통해 신속하게 모델을 구축하고 있다. 이로써 맞춤형 모델을 제공받은 CSP 업체들은 가속화된 컴퓨팅을 통해 AI 및 옴니버스 워크로드를 대규모 처리할 수 있게 된다. 엔비디아 H200 GPU를 기반으로 한 해당 시스템은 테라바이트급의 데이터를 처리하는 AI 및 고성능 컴퓨팅 애플리케이션을 통해 과학자와 연구자들이 직면한 문제를 해결할 수 있도록 돕는다. 이외에도 레노버는 엔비디아와 협력을 통해 대규모 AI 트레이닝, 미세 조정, 추론 및 그래픽 집약적 워크로드 처리를 위한 최대 4개의 RTX 6000 에이다 제너레이션(RTX 6000 Ada Generation) GPU를 제공하여 데이터 사이언스 워크스테이션을 강화했다. 이는 자동화된 워크플로를 통해 AI 개발자의 생산성을 향상시킨다. 엔비디아 AI 워크벤치(AI Workbench)를 갖춘 신규 레노버 워크스테이션은 소프트웨어 툴을 통해 추론, 대규모 시뮬레이션, 까다로운 워크플로를 위한 강력한 AI 솔루션을 개발 및 배포할 수 있도록 돕는다. 엔비디아 AI 워크벤치는 모든 개발자로 하여금 생성형 AI 및 머신 러닝 개발을 지원하는 솔루션이다. 레노버 씽크스테이션과 씽크패드 워크스테이션에서 이용 가능한 신규 엔비디아 A800 GPU는 AI용으로 특별히 설계되어, 모든 종류의 AI 워크플로를 활용하는 조직들을 위해 안전하고 프라이빗한 데이터 사이언스 및 생성형 AI 지원 환경을 제공한다. 레노버 인프라스트럭처 솔루션 그룹(ISG)의 커크 스카우젠 사장은 “레노버와 엔비디아는 전 세계 비즈니스를 위한 증강 지능(Augmented Intelligence)의 경계를 허물고 있다. 생성형 AI를 지원하는 최첨단 하이브리드 AI 솔루션 포트폴리오를 통해 데이터가 있는 어느 곳이든 AI 컴퓨팅을 활용할 수 있게 됐다”면서, “우리는 실시간 컴퓨팅, 전력 효율성, 배포 용이성 개선을 기반으로 새로운 AI 활용 사례가 시장에 나올 수 있는 변곡점에 놓여있다. 레노버는 엔비디아와 파트너십을 통해 효율성, 성능, 비용 측면에서 획기적인 발전을 이루어 모든 산업 군에서 AI 애플리케이션 활용을 가속화할 것이다. 또한, 리테일 경험 향상, 도시 재편, 스마트 제조 지원 등 기업들이 대규모 데이터셋의 인사이트를 즉시 활용할 수 있도록 도울 것”이라고 말했다. 엔비디아의 밥 피트(Bob Pette) 엔터프라이즈 플랫폼 부문 부사장은 “AI는 기업들이 데이터를 통해 새로운 인사이트를 얻고 생산성을 향상시킬 수 있는 강력한 힘”이라며, “엔비디아 기술과 통합된 레노버의 새로운 엔터프라이즈 AI 솔루션은 AI를 위한 컴퓨팅 성능을 강화하는 데 있어 중추적인 이정표일 뿐만 아니라, 기업들이 생성형 AI를 활용할 수 있도록 신뢰도 있는 하이브리드 시스템을 제공한다”고 말했다.
작성일 : 2024-03-19
한국산업지능화협회, 한-일 IT 기업을 잇는 비즈니스 네트워킹 투어 진행
한국산업지능화협회가 지난 2월 27일부터 3월 1일까지 3박 4일간 일본 도쿄에서 ‘2024 DX GO in Japan’ 프로그램을 진행했다고 전했다. 이번 행사는 지난 2023년 10월 싱가포르에서 개최한 ‘글로벌 데이터 비즈니스 라운드테이블’에 이은 글로벌 네트워킹 행사로, 딥인사이트, 몬드리안AI, 유비씨, 제온스 등 한국 IT 기업 4개사가 참여하였다. 참여 기업은 ▲일본 진출 성공 전략 세미나 ▲한-일 Biz-Mathing Day ▲일본 비즈니스 문화 투어 등의 프로그램을 통해 일본 진출에 대한 전략적 기회를 탐색하였다. 특히 2월 28일에는 일본 KDDI종합연구소의 지원을 받아 도쿄시스템하우스가 운영하는 비즈니스 컬래버레이션 단체인 KT-NET과 한국산업지능화협회가 공동 주최한 ‘한-일 Biz-Matching Day’를 통해 일본 기업과 비즈니스 교류의 기회를 모색하였다. 비즈니스 매칭에 참여한 한국 기업과 System Soft, ITbook Technology, ISF NET, TRIPLEIZE, Tokyo System House 등 일본 기업은 각사의 솔루션 교류 및 협업 방안에 대해 논의하였다. 한국산업지능화협회의 김태환 부회장은 “일본 IT 시장을 심층 탐색하고 비즈니스 교류 기회를 모색하는 의미 있는 시간이었다”면서, “협회는 지속적으로 이와 같은 행사를 개최하여 우리 기업의 글로벌 진출 동반자로서의 역할을 이어나갈 것”이라고 밝혔다.
작성일 : 2024-03-06