• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " OCP"에 대한 통합 검색 내용이 111개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
슈퍼마이크로, 하이퍼스케일 데이터센터 및 AI 팩토리 위한 엔비디아 HGX B300 탑재 수냉식 설루션 출시
슈퍼마이크로컴퓨터가 엔비디아 HGX B300 기반의 4U 및 2-OU(OCP) 수냉식 설루션을 출시하고, 출하를 시작했다고 밝혔다. 슈퍼마이크로의 엔비디아 블랙웰 아키텍처 제품군에 새롭게 추가된 두 제품은 슈퍼마이크로 데이터센터 빌딩 블록 설루션(Data Center Building Block Solutions : DCBBS)의 핵심 구성으로, 하이퍼스케일 데이터센터와 AI 팩토리를 위한 높은 GPU 집적도와 에너지 효율을 구현한다. 엔비디아 HGX B300 기반 2-OU(OCP) 수냉식 설루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격으로 설계됐다. 랙당 최대 144개의 GPU를 탑재하는 높은 수준의 GPU 집적도를 제공한다. 이를 통해 하이퍼스케일 및 클라우드 기업은 공간 효율과 서비스성(serviceability)을 동시에 확보할 수 있다. 또한, 랙스케일 설계로 블라인드-메이트 매니폴드 커넥션, 모듈형 GPU/CPU 트레이 아키텍처, 최첨단 구성 요소(component) 수냉식 냉각 설루션을 탑재했다. 이 시스템은 8개의 엔비디아 블랙웰 울트라 GPU(개당 TPU 최대 1100W)를 통해 보다 작은 면적에서 적은 에너지로 AI 워크로드를 처리한다. 단일 ORV3 랙은 최대 18개의 노드와 총 144의 GPU를 지원하며, 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로 1.8MW 인로(In-Row) CDU를 통해 확장된다. 엔비디아 HGX B300 컴퓨트 랙 8개, 엔비디아 퀀텀-X800 인피니밴드 네트워킹 랙 3개, 슈퍼마이크로 인로 CDU 2개로 구성된 슈퍼마이크로 슈퍼클러스터는 GPU를 유닛 당 총 1152개까지 확장 가능하다.     또 다른 엔비디아 HGX B300 기반 신제품인 4U 전면 I/O 수냉식 설루션은 기존의 대규모 AI 팩토리용 19인치 EIA 랙 폼팩터에 엔비디아 HGX 기반 2-OU(OCP) 설루션과 동일한 연산 성능 및 냉각 효율을 제공한다. 이 설루션은 슈퍼마이크로의 DLC 기술을 기반으로 시스템 열을 최대 98%까지 수냉식으로 제거한다. 동시에 고집적 학습 및 추론 클러스터의 에너지 효율성 강화, 소음 저감, 서비스성 향상을 돕는다. 슈퍼마이크로의 엔비디아 HGX B300 설루션은 시스템당 2.1TB의 HBM3e GPU 메모리를 탑재해 시스템 단에서 보다 큰 규모의 모델을 처리할 수 있으며, 이는 성능 향상으로 이어진다. 이에 더해, 두 설루션을 엔비디아 퀀텀-X800 인피니밴드 또는 엔비디아 스펙트럼-4 이더넷과 함께 사용할 경우, 통합된 엔비디아 커넥트 X-8 슈퍼NICs를 통해 컴퓨트 패브릭 네트워크 처리량을 최대 800Gb/s까지 늘려 클러스터 단의 성능을 향상시킨다. 그 결과, 에이전틱 AI 애플리케이션, 기반 모델 학습, 멀티모달 대규모 추론 등 AI 팩토리의 다양한 고부하 AI 워크로드를 빠르게 처리할 수 있다. 새롭게 선보인 두 가지의 엔비디아 HGX B300 설루션은 고객의 TCO 절감과 운영 효율 향상을 위해 개발되었다. 슈퍼마이크로는 DLC-2 기술이 데이터센터의 에너지 사용량을 최대 40% 절감하고, 45°C 온수로 냉각해 보다 적은 양의 물을 사용한다고 설명했다. 이때, 기존의 냉각수와 압축기는 필요하지 않다. 또한 슈퍼마이크로 DCBBS는 랙 형태로 L11 및 L12 설루션 테스트를 거쳐 사전 검증된 상태로 출하된다. 이를 통해 하이퍼스케일, 엔터프라이즈, 정부기관의 데이터센터 가동 준비 시간을 단축한다. 슈퍼마이크로는 이번 제품 출시로 자사의 엔비디아 블랙웰 기반 제품군이 한층 강화되었다고 전했다. 기존 제품군에는 엔비디아 GB300 NVL72, 엔비디아 HGX B200, 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 등을 지원하는 설루션이 포함된다. 이 모든 설루션은 다양한 AI 애플리케이션 및 사용 사례에서 최적의 성능을 테스트하고 엔비디아 인증을 획득했다. 이 과정은 각 설루션에 엔비디아 AI 엔터프라이즈, 엔비디아 런에이아이(Run:ai) 등의 엔비디아 AI 소프트웨어 및 엔비디아 네트워킹을 적용한 상태에서 이뤄진다. 고객은 단일 노드부터 풀스택 AI 팩토리에 이르기까지 유연하게 확장 가능한 AI 인프라를 손쉽게 구축할 수 있다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “전 세계적으로 AI 인프라 수요가 빠르게 증가하고 있다. 이번에 선보인 엔비디아 HGX B300 기반 수냉식 설루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다”면서, ”업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 설루션이며, 단일 랙에서 최대 144개의 GPU를 지원한다. 또한, 슈퍼마이크로의 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다”고 말했다. 또한 그는 “슈퍼마이크로는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며, 준비 시간(time-to-market) 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드 투 엔드 통합 제공이 그 핵심”이라고 덧붙였다.
작성일 : 2025-12-15
AMD–HPE, 개방형 랙 스케일 AI 인프라 혁신 위한 협력 확대
AMD는 차세대 개방형·확장형 AI 인프라 구축을 가속화하기 위해 HPE와의 협력을 확대한다고 밝혔다. 이에 따라 HPE는 AMD의 ‘헬리오스(Helios)’ 랙 스케일 AI 아키텍처를 도입하는 최초의 시스템 제공업체 중 하나가 된다. 헬리오스 아키텍처는 이더넷 기반의 고대역폭 연결을 매끄럽게 지원하고자 브로드컴과 협력해 설계한 ‘HPE 주니퍼 네트워킹(Juniper Networking)’ 스케일업 스위치와 소프트웨어를 통합한 것이 특징이다. HPE는 2026년부터 AMD 헬리오스 AI 랙 스케일 아키텍처를 전 세계에 공급할 예정이다. 헬리오스는 AMD 에픽(EPYC) CPU, AMD 인스팅트(Instinct) GPU, AMD 펜산도(Pensando) 네트워킹, AMD ROCm 개방형 소프트웨어 스택을 결합해 성능과 효율, 확장성에 최적화된 통합 플랫폼을 제공한다. 이 시스템은 대규모 AI 클러스터 배포 과정을 간소화하여 연구소, 클라우드 및 엔터프라이즈 환경 전반에서 설루션 구축 시간을 단축하고 인프라 유연성을 확보하도록 지원한다. AMD 헬리오스 랙 스케일 AI 플랫폼은 AMD 인스팅트 MI455X GPU, 차세대 AMD 에픽 ‘베니스(Venice)’ CPU 및 스케일아웃 네트워킹을 위한 AMD 펜산도 ‘불카노(Vulcano)’ NIC를 탑재해 랙당 최대 2.9 엑사플롭스(exaFLOPS)의 FP4 성능을 제공한다. 또한 이 모든 하드웨어는 AI 및 HPC 워크로드 전반에 걸쳐 유연성과 혁신을 지원하는 개방형 ROCm 소프트웨어 생태계를 통해 통합된다. 헬리오스는 OCP(Open Compute Project)의 오픈 랙 와이드(Open Rack Wide) 디자인을 기반으로 구축되어, 고객과 파트너가 설루션을 효율적으로 배포하고 까다로운 AI 워크로드에도 유연하게 대응할 수 있도록 돕는다. 이를 위해 HPE는 차별화된 기술인 ‘헬리오스 전용 스케일업 이더넷 스위치’를 통합했다. 브로드컴과 협력하여 개발한 이 스위치는 AMD의 AI 인프라용 패브릭인 UALoE(Ultra Accelerator Link over Ethernet) 표준을 기반으로 AI 워크로드에 최적화된 성능을 제공한다. AMD의 리사 수(Lisa Su) CEO는 “HPE는 고성능 컴퓨팅의 가능성을 재정의하기 위해 오랜 기간 협력해 온 파트너”라며, “헬리오스를 통해 더 깊어진 양사의 협력은 AMD의 풀 스택 컴퓨팅 기술과 HPE의 시스템 혁신을 결합해, AI 시대 고객에게 새로운 차원의 효율과 확장성, 혁신적 성능을 갖춘 개방형 랙 스케일 AI 플랫폼을 제공하게 될 것”이라고 강조했다. HPE의 안토니오 네리(Antonio Neri) CEO 역시 “HPE와 AMD는 10년 이상 슈퍼컴퓨팅의 경계를 넓히며 엑사스케일급 시스템을 제공하고 개방형 표준을 주도해 왔다”며, "새로운 AMD 헬리오스와 HPE의 특수 목적용 스케일업 네트워킹 설루션을 통해 클라우드 서비스 분야의 고객은 더 빠른 배포와 높은 유연성을 얻게 될 것이며, AI 컴퓨팅 확장에 따른 리스크를 줄일 수 있을 것"이라고 말했다.
작성일 : 2025-12-03
델, 엔터프라이즈 AI 혁신을 위한 하드웨어 및 서비스 포트폴리오 업데이트
델 테크놀로지스가 엔터프라이즈 AI 여정을 간소화하고 가속하도록 돕는 ‘델 AI 팩토리(Dell AI Factory)’의 제품 라인업을 강화했다. 델은 확장된 포트폴리오를 통해 AI 워크로드의 병목 현상을 제거해 성능 및 자동화 기능을 강화하는 한편, 기업이나 기관이 보다 탄력적이고 통합된 환경의 온프레미스 인프라를 갖추고 강력한 제어 권한을 가질 수 있게끔 돕는다는 계획이다. 이에 따라 ‘델 오토메이션 플랫폼(Dell Automation Platform)’이 ‘델 AI 팩토리’로 지원을 확장하여, 보안 프레임워크를 통해 검증되고 최적화된 설루션을 배포함으로써 보다 스마트하고 자동화된 경험을 제공한다. ‘델 오토메이션 플랫폼’의 업데이트를 통해 탭나인(Tabnine)의 AI 코드 어시스턴트 및 코히어 노스(Cohere North)의 에이전틱 AI 플랫폼 등의 소프트웨어 기반 도구가 자동화되었다. 이는 AI 워크로드를 더 빠르게 운영 환경에 적용하고 운영을 간소화하며 확장성을 강화한다. 델 프로페셔널 서비스(Dell Professional Services)는 실제 고객 데이터를 활용한 턴키 방식의 대화형 AI 사용 사례 파일럿을 제공하여, 본격적인 프로젝트 착수에 앞서 비즈니스 가치를 검증한다. 전문가 주도의 파일럿으로서 명확한 KPI(핵심 성과 지표)가 제공되는 핸즈온 프리뷰를 통해 실질적인 ROI(투자 대비 수익)를 실현하게끔 방향을 제시한다. 데이터 관리를 강화하는 ‘델 AI 데이터 플랫폼(Dell AI Data Platform)’의 스토리지 엔진인 델 파워스케일(Dell PowerScale)과 델 오브젝트스케일(Dell ObjectScale)은 성능, 확장성 및 데이터 탐색 기능이 향상됐다. 델 파워스케일은 델 파워엣지 R7725xd와 같이 관련 요건이 갖춰진 델 서버 상에서 설치할 수 있는 소프트웨어 라이선스로 형태로 제공될 예정이다. 이러한 새로운 구성은 클라우드 서비스 제공업체가 인프라 요구를 충족하기 위해 최신 서버 및 네트워킹 기술을 유연하게 채택해 더 뛰어난 AI 성능을 실현하도록 확장성과 선택의 폭을 넓혔다. 그리고, 델 파워스케일 병렬 NFS(pNFS) 지원과 플렉서블 파일 레이아웃(Flexible File Layout)을 통해 메타데이터 서버와 클라이언트 간 양방향 통신이 가능해져 파워스케일 클러스터 내 여러 노드에 걸쳐 데이터를 더 효율적으로 병렬 분배할 수 있다. 이번 업데이트는 병렬 처리 능력을 강화하여 까다로운 AI 워크플로에 맞춤화된 대규모 확장성과 처리량을 제공하도록 고안됐다. 델은 오브젝트스케일 AI 맞춤형 검색(Dell ObjectScale AI-Optimized Search) 기능으로 두 가지 상호 보완적인 AI 최적화 검색 기능인 S3 테이블(S3 Tables)과 S3 벡터(S3 Vector)를 제공한다. 이 두 가지 특수 API는 오브젝트스케일에 직접 저장된 복잡한 데이터에 대한 고속 액세스를 제공하여 분석 및 추론, 검색 강화 생성(RAG)과 같은 주요 AI 워크로드를 지원한다. 대규모 데이터 세트를 보다 용이하게 저장, 검색하고, 더 빠르게 의사 결정할 수 있다.     델 파워엣지(Dell PowerEdge) 서버는 엔터프라이즈 AI의 초석으로서 더 빠른 훈련, 분산 추론을 실현하는 한편 다양한 프로세서와 냉각 방식을 제공한다. AI를 위한 파워엣지 서버 포트폴리오에 추가된 모델은 XE9785, XE9785L, R770AP 등이다. 10U 폼팩터의 공랭식 델 파워엣지 XE9785 서버와 3OU 폼팩터의 DLC(다이렉트 리퀴드 쿨링) 방식 델 파워엣지 XE9785L 서버는 듀얼 소켓 AMD 에픽(EPYC) 프로세서와 노드당 8개의 AMD 인스팅트(Instinct) MI355X GPU가 탑재된다. AMD 펜산도 폴라라(Pensando Pollara) 400 AI NIC(네트워크 인터페이스 카드) 및 델 파워스위치(Dell PowerSwitch) AI 패브릭과 결합하여 확장 가능한 컴퓨팅 성능과 운영 비용 절감을 실현할 수 있다.  새롭게 공개된 델 파워엣지 R770AP는 향상된 병렬 처리, 메모리 지연 시간 단축 및 풍부한 PCIe 레인을 제공하여 가속화된 트레이딩 알고리즘, 확장 가능한 메모리 구성 및 개선된 네트워크 성능을 제공한다. 공랭식의 이 모델은 인텔 제온(Intel Xeon) 6 P-코어 6900 시리즈 프로세서를 탑재해, 높은 CPU 코어 개수와 대용량 캐시 및 CXL 메모리 확장 지원을 특징으로 한다.  AI를 위한 네트워킹 고도화를 위해 델은 오픈 네트워킹을 발전시키고, AI 패브릭 구축을 가속화하여 급증하는 네트워킹 수요에 맞춘 확장성을 지원한다. 델 파워스위치(Dell PowerSwitch) Z9964F-ON 및 Z9964FL-ON은 브로드컴 토마호크6(Broadcom Tomahawk-6) 기반으로, 여러가지 전송 속도 설정이 가능하며 초당 102.4테라바이트의 스위칭 용량을 제공한다. AI 워크로드와 HPC 데이터센터를 가속화하며, 10만 개 이상의 가속기 칩을 지원하는 공랭식 및 다이렉트 리퀴드 쿨링(DLC) 방식의 대규모 구축이 가능하다. 델 테크놀로지스가 지원하는 엔터프라이즈 소닉 배포판(Enterprise SONiC Distribution by Dell Technologies)과 소닉을 위한 스마트패브릭 매니저(SmartFabric Manager for SONiC)를 결합하면 획기적인 네트워킹 기능을 보다 쉽게 구현하고, 대규모 AI 패브릭을 가속화하는 동시에 구축, 라이프사이클 관리 및 모니터링을 간소화하고 자동화할 수 있다. ‘델 AI 팩토리’에 통합된 스마트패브릭 매니저는 자동화된 블루프린트를 통해 AI 인프라 구축을 간소화하고 더 빠르고 오류 없는 설정을 가능하게 한다, 델 파워스케일 스토리지 설루션에 대한 새로운 자동 적용을 포함하여 최소한의 수동 개입으로 구축 시간을 단축한다. 또한 오픈매니지 엔터프라즈(OpenManage Enterprise)와의 랙 스케일 통합을 통해 GPU 인프라 전반에 걸친 포괄적인 종단 간 가시성을 제공함으로써 보다 빠르게 문제를 해결할 수 있도록 돕는다. 한편, 델은 AI PC를 위한 에코시스템을 확장한다고 소개했다. AMD 라이젠(Ryzen) AI 프로세서를 포함해 실리콘 지원을 넓혔다. 간소화된 워크플로 및 성능 최적화와 더불어 호환성을 향상시킴으로써 온디바이스 AI 애플리케이션을 보다 효율적으로 생성할 수 있도록 지원한다. 탄력적인 통합 인프라를 위한 제어 측면 또한 강화됐다. 델의 ‘통합 랙 스케일러블 시스템(Dell Integrated Rack Scalable Systems, IRSS)’ 프로그램에 새롭게 추가된 기능과 설루션은 다음과 같다. ‘오픈매니지 엔터프라이즈(OpenManage Enterprise : OME)’로 개별 서버 및 랙 규모 환경을 통합 관리할 수 있다. OME는 컴퓨팅, 전력 및 냉각 관리를 단일 콘솔로 통합하여 최대 2만 5000대의 디바이스를 자동화하며, 내장된 누수 모니터링 및 자동 대응 기능을 통해 가동 시간을 극대화한다. 통합 랙 컨트롤러(Integrated Rack Controller : IRC)는 하드웨어와 소프트웨어가 결합된 설루션으로 OME 및 iDRAC(델 통합 원격 액세스 컨트롤러)와 원활하게 연동된다. 랙 내부의 누수가 생길 경우, 신속하고 자동적으로 누수 감지 및 대응이 가능해져 가동 중단 시간과 위험을 최소화한다. 델 파워쿨 랙 장착형 냉각수 분배 장치(PowerCool Rack-mount Coolant Distribution Unit. 이하 RCDU)는 고성능의 컴팩트한 4U 액체 냉각 설루션으로, 에너지 효율적인 AI 구축을 위해 최대 150kW의 랙 밀도를 지원한다. 19인치 델 IR5000 랙 및 OCP 표준 기반 21인치 델 IR7000 랙과 호환되며, 중앙 집중식 냉각 생태계 관리를 위해 OME에 연결된다. 델 프로서포트(Dell ProSupport)를 통해 예방적 유지보수를 제공하고 최상의 성능과 안정적인 시스템 지원을 보장한다. 델은 ‘엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)’ 포트폴리오를 강화함으로써 기업이 더 빠르게 성과를 창출하고 복잡성을 줄이는 한편 투자 수익을 극대화하도록 지원에 나선다고 전했다.  델 AI 데이터 플랫폼의 비정형 데이터용 스토리지 엔진인 델 파워스케일 및 오브젝트스케일이 엔비디아 다이나모(NVIDIA Dynamo)의 일부인 엔비디아 NIXL 라이브러리와 통합된다. 이를 통해 확장 가능한 KV 캐시 오프로딩이 가능해져, 131K 토큰의 전체 컨텍스트 윈도우에서 1초의 첫 토큰 처리 시간(TTFT)을 달성한다. 이는 표준 vLLM보다 19배 빠른 속도이며, 인프라 비용을 절감하고 GPU 메모리 용량 병목 현상을 해소한다. ‘엔비디아 기반 델 AI 팩토리’ 포트폴리오에 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU 및 엔비디아 호퍼(Hopper) GPU를 탑재한 델 파워엣지 XE7740 및 XE7745 모델이 추가됐다. 대규모 멀티 모달 모델부터 새로운 에이전틱 AI 애플리케이션과 더불어 엔터프라이즈급 추론부터 훈련 워크로드에 이르기까지 다양한 사용 사례를 실행할 수 있다. 데이터센터 설루션 외에도 AI PC 생태계 지원을 확대해 폭넓은 실리콘 옵션을 제공한다. 엔비디아 RTX 블랙웰 GPU(NVIDIA RTX Blackwell GPU)와 엔비디아 RTX 에이다 GPU(NVIDIA RTX Ada GPU)를 지원해 델 제품과의 호환성을 넓혔다. 델과 엔비디아는 AI 에코시스템을 확대하기 위해 ‘엔비디아 기반 델 AI 팩토리’를 위한 레드햇 오프시프트(Red Hat OpenShift) 검증 제품을 추가했다. 델 파워엣지 R760xa에 더해 엔비디아 H100 및 H200 텐서 코어 GPU를 탑재한 델 파워엣지 XE9680에 대한 지원이 추가되어, 대규모 AI 도입 가속화를 필요로 하는 기업 및 기관에 폭넓은 선택지를 제공한다.
작성일 : 2025-11-18
AMD, AI용 오픈 랙 플랫폼 기반 ‘헬리오스’ 랙 스케일 플랫폼 공개
AMD는 미국 산호세에서 열린 오픈 컴퓨트 프로젝트(OCP) 글로벌 서밋에서 자사의 ‘헬리오스(Helios)’ 랙 스케일 플랫폼을 첫 공개했다. 메타가 도입한 ‘오픈 랙 와이드(Open Rack Wide : ORW) 스펙을 기반으로 개발된 헬리오스에 대해 AMD는 “개방형 하드웨어 철학을 반도체에서 시스템, 그리고 랙 수준으로 확장하여, 개방적이고 상호운용 가능한 AI 인프라 구축의 중요한 진전을 보여준다”고 소개했다. 헬리오스 플랫폼은 세계적으로 증가하는 AI 컴퓨팅 수요를 뒷받침할 개방적이고 확장 가능한 인프라를 제공하는 기반을 마련한다. 기가와트 규모 데이터센터의 요구 사항을 충족하도록 설계된 새 ORW 스펙은 차세대 AI 시스템의 전력과 냉각 및 손쉬운 유지 보수에 대한 요구에 최적화된 개방형 더블 와이드 랙을 특징으로 한다. 헬리오스는 ORW 및 OCP 표준을 채택함으로써 업계에 고성능 및 고효율의 AI 인프라를 대규모로 개발하고 배포할 수 있는 통합 표준 기술의 기반을 제공한다.     헬리오스 랙 스케일 플랫폼은 OCP DC-MHS, UALink, UEC(Ultra Ethernet Consortium) 아키텍처 등 오픈 컴퓨트 표준을 통합해 개방형 스케일업(scale-up) 및 스케일아웃(scale-out) 패브릭을 모두 지원한다. 이 랙은 지속적인 열 성능을 위한 퀵 디스커넥트(quick-disconnect) 액체 냉각, 유지 보수 편의성을 향상시키는 더블 와이드 구조, 다중 경로 복원력을 위한 표준 기반 이더넷을 특징으로 한다. 헬리오스는 레퍼런스 디자인의 역할을 통해 OEM, ODM 및 하이퍼스케일러가 개방형 AI 시스템을 빠르게 도입하고 확장, 최적화할 수 있도록 지원한다. 이를 통해 AI 인프라의 배포 시간을 단축하고, 상호 운용성을 높여 AI 및 HPC 워크로드의 효율적인 확장이 가능하다. 헬리오스 플랫폼은 전 세계 AI 배포를 위한 개방적이고 확장 가능한 인프라를 구현하기 위해 AMD가 OCP 커뮤니티와 지속적으로 협력한 결과물이다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 그룹 총괄 부사장은 “개방형 플랫폼을 통한 협업은 AI의 효율적인 확장의 핵심”이라며, “‘헬리오스를 통해 우리는 개방형 표준을 실제 배포 가능한 시스템으로 전환해 나가고 있다. AMD 인스팅트(Instinct) GPU, 에픽(EPYC) CPU 및 개방형 패브릭의 결합은 유연하고 고성능의 플랫폼을 통해 차세대 AI 워크로드를 위한 기반을 마련할 것”이라고 말했다.
작성일 : 2025-10-15
인텔, 추론 최적화 데이터센터용 GPU 신제품 발표
인텔은 2025 OCP 글로벌 서밋에서, 자사 AI 가속기 포트폴리오에 추가되는 주요 제품인 인텔 데이터센터용 GPU 신제품 코드명 ‘크레센트 아일랜드(Crescent Island)’를 발표했다. 이 GPU는 증가하는 AI 추론 워크로드 수요를 충족하도록 설계되었으며, 고용량 메모리·에너지 효율적인 성능을 제공한다. 추론이 주요한 AI(인공지능) 워크로드로 자리잡으며, 강력한 칩 이상의 요소, 즉 시스템 차원의 혁신이 성공을 가늠하는 주요 요소가 되었다. 하드웨어부터 오케스트레이션까지, 추론은 다양한 컴퓨팅 유형을 개발자 중심의 개방형 소프트웨어 스택과 통합하는 워크로드 중심의 개방형 접근 방식을 필요로 하며, 이러한 접근 방식은 배포 및 확장이 용이한 시스템으로 제공된다. 인텔은 “인텔 제온 6 프로세서, 인텔 GPU를 기반으로 구축한 설루션을 통해 AI PC부터 데이터 센터, 산업용 에지까지 엔드 투 엔드 설루션을 제공할 수 있는 입지를 갖추고 있다”면서, “성능, 에너지 효율성, 개발자 연속성을 위한 시스템 공동 설계 및 OCP(Open Compute Project)와 같은 커뮤니티와의 협력을 통해 AI 추론이 가장 필요한 모든 곳에서 실행될 수 있도록 지원하고 있다”고 전했다. 코드명 크레센트 아일랜드로 명명된 새로운 데이터센터 GPU는 공랭식 엔터프라이즈 서버에 맞춰 전력 및 비용 최적화를 이루었으며, 추론용 워크플로에 최적화된 대용량 메모리 및 대역폭을 제공하도록 설계되었다. 와트당 성능(PPW)이 최적화된 Xe3P 마이크로아키텍처에 기반을 둔 크레센트 아일랜드 GPU는 160GB의 LPDDR5X 메모리를 탑재했다. 또한 ‘서비스형 토큰(Token-as-a-Service)’ 공급업체 및 추론 사용 사례에 적합한 광범위한 데이터 유형을 지원한다. 인텔의 이기종 AI 시스템을 위한 개방형 통합 소프트웨어 스택은 조기 최적화 및 이터레이션(iteration) 작업이 가능하도록 현재 아크 프로 B(Arc Pro B) 시리즈 GPU에서 개발 및 테스트 중이다. 새로운 데이터센터용 GPU의 고객 샘플링은 2026년 하반기에 제공될 예정이다. 인텔의 사친 카티(Sachin Katti) 최고기술책임자(CTO)는 “인공지능은 정적 학습에서 에이전트형 AI가 주도하는 실시간·전역 추론으로 전환되고 있다”면서, “이러한 복잡한 워크로드를 확장하려면 적절한 실리콘을 적절한 작업에 매칭하는 이종 시스템이 필요하다. 인텔의 Xe 아키텍처 데이터센터 GPU는 토큰 처리량이 급증함에 따라 고객이 필요로 하는 효율적인 헤드룸 성능과 더 큰 가치를 제공할 것”이라고 밝혔다. 
작성일 : 2025-10-15
델, AI 서버 ‘파워엣지 XE7740’에 인텔 가우디 3 PCIe 가속기 탑재
델 테크놀로지스가 인텔 가우디 3(Intel Gaudi 3) PCIe 가속기를 통합 구성한 ‘델 파워엣지 XE7740 (Dell PowerEdge XE7740)’ 서버를 출시했다고 밝혔다. ‘델 파워엣지 XE7740’은 파워엣지 R 시리즈의 통합 용이성과 XE 시리즈의 성능 및 확장성을 결합한 4U 폼팩터 서버로서 성능, 비용 효율, 유연성을 바탕으로 기업들이 엔터프라이즈 AI에 대한 접근성을 높일 수 있도록 설계되었다. 델 파워엣지 XE7740 서버는 기존 데이터센터에 원활하게 구축할 수 있는 최적화된 규모의 설루션을 제공한다. 동시에 LLM(대규모 언어 모델)의 미세 조정 및 고성능 추론을 포함한 광범위한 AI 워크로드의 배포와 운영을 간소화해 엔터프라이즈 AI의 가격 대비 성능 측면을 고려했다.     이번 신제품은 최대 8개의 더블 와이드 또는 PCIe 가속기를 수용할 수 있는 유연한 구성을 제공한다. 최대 8개의 개별 가우디 3 가속기를 탑재할 수 있으며, 옵션으로 2개의 4-웨이(4-way) 브리지 가속기 그룹을 구성하는 것도 가능하다. RoCE(RDMA 오버 컨버지드 이더넷) v2를 통한 4-웨이(4-way) 가우디 3 PCIe 가속기 브리지 연결은 대규모 AI 모델과 더 큰 메모리 공간을 지원하며, 워크플로의 확장성과 유연성을 제공한다. 또한 8개의 표준 높이 PCIe 슬롯과 통합 OCP 네트워킹 모듈을 통해 가속기와 네트워크 인터페이스 카드(NIC)를 최대 1:1 비율로 매칭할 수 있는 유연한 네트워킹을 제공한다. 기존 인프라에 원활하게 통합 가능한 델 파워엣지 XE7740은 많은 기업들이 직면하고 있는 랙당 전력 한계를 극복하여 기존 데이터 센터에서 일반적으로 사용되는 최대 10kW 랙에서 효율적으로 작동한다. 엔터프라이즈 AI를 위한 제품으로서 기존의 공냉식 랙에 장착할 수 있는 XE7740은 ‘델 스마트 쿨링(Dell Smart Cooling)’ 설루션이 적용됐다. 또한 라마4(Llama4), 라마3(Llama3), 딥시크(Deepseek), 파이4(Phi4), 쿠엔3(Qwen3), 팔콘3(Falcon3) 등과 같은 인기 모델에 최적화되어 원활한 AI 워크플로 통합을 지원한다. 다양한 기존 모델 카탈로그와 함께 가우디 3를 사용하면 기업에서 손쉽게 AI 도입을 가속화할 수 있으며, 큰 비용이 소모되는 전력 및 냉각 업그레이드 없이도 높은 성능을 보장한다. 델은 파워엣지 XE7740가 ▲LLM(대규모 언어 모델) 추론 및 미세 조정 ▲이미지 및 음성 인식과 같은 멀티 모달 AI 애플리케이션 ▲데이터 집약적인 의료 분석 및 유전체 염기서열 분석 ▲금융 서비스 사기 탐지 및 위험 완화 ▲유통 및 전자상거래의 실시간 개인화 등 다양한 AI 워크로드를 지원해 엔터프라이즈 AI에 최적화되어 있다고 전했다. AI 워크로드가 증가함에 따라 기업이나 기관들은 사용량 기반으로 과금하는 GPU 가속기 구독 비용이나 클라우드 데이터의 외부 전송(egress) 비용에 부담을 느끼고 있다.  델은 “파워엣지 XE7740은 이런 비용을 절감하면서도 뛰어난 성능과 데이터 보안을 확보해 온프레미스 AI 프로젝트를 간소화하는데 특화된 설루션”이라고 전했다.  한국 델 테크놀로지스의 김경진 총괄사장은 “현재의 경쟁력을 유지하고 AI 미래에 대비하기 위해서는 확장이 용이하고 적응력이 뛰어난 인프라를 확보해 유연한 준비 태세를 갖추어야 한다. 검증된 AI 설계와 기존 에코시스템과의 원활한 통합이 가능한 XE7740은 경쟁이 치열한 시장에서 특히 주목할 만한 제품”이라고 말했다.
작성일 : 2025-09-22
슈나이더 일렉트릭, 고밀도 AI 클러스터 대비 위한 신규 데이터센터 인프라 설루션 출시
슈나이더 일렉트릭이 고밀도 AI 클러스터 환경에 최적화된 차세대 데이터센터 설루션을 소개했다. 이번에 선보인 신규 설루션은 슈나이더 일렉트릭의 통합 인프라 플랫폼인 에코스트럭처 데이터센터 설루션(EcoStruxure Data Center Solutions) 포트폴리오의 일환으로 ▲프리패브 모듈형 팟 데이터센터 아키텍처 ▲고밀도 랙(rack) 시스템 ▲신규 전력 분배 유닛(PDU) 등을 중심으로 구성됐다. 이들 설루션은 모두 엔비디아 MGX 아키텍처를 비롯한 최신 AI 서버 인프라와 호환되며, 글로벌 시장에 동시 출시된다. 현재 데이터센터 업계는 AI 클러스터 도입 가속화에 따라 랙당 전력 밀도가 1MW 이상으로 치솟고 있으며, 기존의 인프라로는 이러한 수요에 안정적으로 대응하기 어려운 상황이다. 슈나이더 일렉트릭은 “설계-구축-운영 전 단계에 걸쳐 검증된 고효율 설루션을 제공함으로써 고객이 빠르게 배치하고, 예측 가능하게 확장하며, 지속 가능하게 운영할 수 있는 데이터센터 환경을 구현하도록 지원하고 있다”고 전했다.     신제품 중 하나인 ‘프리패브 모듈형 에코스트럭처 팟 데이터센터(Prefabricated Modular EcoStruxure Pod Data Center)’는 사전 제작된 형태로, 최대 1MW 이상의 고밀도 랙을 지원하며 액체 냉각, 고전력 부스웨이(Busway), 핫아일(Hot Aisle) 격리 구조 등을 통합해 고효율·고밀도 워크로드에 최적화됐다. 사전 설계 및 조립을 통해 배치 속도와 공급망 안정성을 높인 것이 특징이다. 함께 출시된 ‘에코스트럭처 랙(EcoStruxure Rack) 설루션’은 ORV3, EIA, NVIDIA MGX와 같은 최신 모듈형 서버 표준을 지원하며, 다양한 전력 및 냉각 구성과 호환된다. 특히 ▲높은 중량과 깊이를 지원하는 ‘넷쉘터 SX 어드밴스드 랙(NetShelter SX Advanced Rack)’ ▲AI 서버 전용 고전력 대응 PDU ‘넷쉘터 랙 PDU 어드밴스드(NetShelter Rack PDU Advanced)’ ▲ OCP(Open Compute Project) 아키텍처 기반의 ‘넷쉘터 오픈 아키텍처(NetShelter Open Architecture)’로 구성되어, AI 서버의 설치 및 운영 안정성을 높인다. 특히 넷쉘터 오픈 아키텍처는 엔비디아의 최신 GB200 NVL72 시스템의 MGX 랙 설계를 지원하며, 슈나이더 일렉트릭이 엔비디아의 HGX 및 MGX 생태계에 공식적으로 통합된 첫 사례이다. 이번 신규 포트폴리오는 데이터센터 운영자와 파트너 생태계가 공통적으로 겪고 있는 ▲AI 워크로드에 대응한 전력·냉각 문제 ▲복잡한 인프라 설계 및 배치 ▲빠른 시장 진입 및 공급망 안정성 확보 ▲운영 인력의 전문성 부족 등의 과제를 해결하고자 기획됐다. 슈나이더 일렉트릭은 이번 출시를 통해 기존의 에코스트럭처 기반 하드웨어와 소프트웨어, 그리고 에코케어(EcoCare), 에코컨설트(EcoConsult)와 같은 서비스, 나아가 주요 IT 기업들과의 전략적 파트너십을 포함한 엔드 투 엔드 AI 인프라 설루션 제공 역량을 한층 강화했다고 평가했다. 슈나이더 일렉트릭의 히맘슈 프라사드(Himamshu Prasad) 에코스트럭처 IT, 트랜잭셔널 & 에지, 에너지 저장 센터 오브 엑설런스 부문 수석 부사장은 “AI 시대의 핵심 기반인 데이터센터는 더 이상 단순한 IT 인프라가 아닌, 기업의 지속 가능한 성장 전략 그 자체”라면서, “슈나이더는 고객이 효율적이고 회복력 있는 AI 최적화 데이터센터를 구축할 수 있도록 앞으로도 기술 혁신과 생태계 협업을 이어갈 것”이라고 강조했다.
작성일 : 2025-07-07
슈나이더 일렉트릭, 엔비디아와 협력해 대규모 AI 공장 개발 및 구축 가속화
슈나이더 일렉트릭이 엔비디아와 협력을 통해 대규모 AI 팩토리 구축을 위한 인프라 개발을 가속화한다고 밝혔다. 이번 파트너십은 유럽연합(EU)의 AI 인프라 비전과 ‘인베스트(Invest) AI 이니셔티브’에 부응하는 전략적 협력으로, 양사는 전력, 냉각, 제어 시스템, 고밀도 랙 인프라 등 AI 데이터센터 핵심 요소에 대한 공동 연구개발(R&D)을 본격 추진한다. 슈나이더 일렉트릭와 엔비디아는 특히, EU 집행위원회의 ‘AI 대륙 액션 플랜(AI Continent Action Plan)’ 실현을 위해 긴밀히 협력하고 있다. 이 플랜은 유럽 전역에 최소 13개의 AI 팩토리와 최대 5개의 AI 기가팩토리를 설립하는 것을 목표로 하며, 양사는 지속 가능한 AI 인프라 설계 및 구축을 통해 이를 뒷받침하고 있다. 슈나이더 일렉트릭은 이번 협력 발표와 함께, AI 인프라를 위한 새로운 설루션 라인업을 공개했다. 대표적으로 ‘EcoStruxure Pod 및 랙 인프라’가 있으며, 이 중 모듈형 구조의 마이크로 데이터센터 솔루션은 AI 데이터센터를 빠르게 구축할 수 있는 확장형 아키텍처로 주목받고 있다. 또한 슈나이더 일렉트릭은 엔비디아의 GB200 NVL72 플랫폼을 지원하는 새로운 OCP(Open Compute Project) 기반 랙(Rack) 시스템도 함께 선보였다. 이로써 슈나이더 일렉트릭은 엔비디아의 HGX 및 MGX 생태계에 통합되며, AI 컴퓨팅 생태계와의 협력을 한층 강화했다.     슈나이더 일렉트릭의 올리비에 블룸(Olivier Blum) CEO는 “슈나이더 일렉트릭과 엔비디아는 단순한 협력 그 이상으로, 차세대 AI 팩토리를 위한 인프라를 공동 개발하며 글로벌 시장을 선도하고 있다”며, “양사가 함께 구축한 전력 및 액체 냉각 기반의 차세대 데이터센터 솔루션은 AI 워크로드에 최적화된 지속 가능한 인프라의 새로운 기준을 제시할 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “AI는 지금 이 시대를 정의하는 기술이며, 산업과 사회 전반을 변화시키고 있다”며, “슈나이더 일렉트릭과 함께 우리는 AI가 실현될 수 있는 기반이 되는 AI 팩토리를 만들고 있다”고 밝혔다.
작성일 : 2025-07-01
웨스턴디지털, AI 가속화·분산형 스토리지·SDS 혁신 전략 제시
웨스턴디지털(WDC)은 컴퓨텍스 2025에서 클라우드 서비스 제공업체(CSP), 엔터프라이즈, 서비스형 스토리지(STaaS) 기업을 위한 AI/ML, 분산형 스토리지, 소프트웨어 정의 스토리지(SDS) 기반의 차세대 스토리지 인프라 비전을 제시했다. 웨스턴디지털 플랫폼 사업부는 고신뢰성의 대용량 JBOD(Just a Bunch of Disks)부터 AI 워크로드에 최적화된 초고속 EBOF(Ethernet Bunch of Flash) NVMe-oF 기반 분산형 스토리지 설루션까지, HDD 및 SSD를 기반으로 한 스토리지 설루션을 통해 높은 수준의 처리 성능을 요구하는 워크로드를 지원하고 있다. 웨스턴디지털은 고객의 인프라 확장을 용이하게 만들고 파트너 의존도를 줄이기 위해 ▲ 오픈 컴포저블 컴패터빌리티 랩(Open Composable Compatibility Lab, 이하 OCCL) 확장 ▲신규 울트라스타 데이터102 ORv3 JBOD(Ultrastar Data102 ORv3 JBOD) ▲단일 포트 SSD 기반 오픈플렉스 데이터24 4100(OpenFlex Data24 4100) ▲오픈플렉스 데이터24 NVMe-oF 스토리지 플랫폼(OpenFlex Data24 NVMe-oF storage platform)에 대한 SSD 인증도 확대했다고 밝혔다. 미국 콜로라도 스프링스에 위치한 웨스턴디지털의 OCCL은 패브릭 연결 기기 및 소프트웨어 정의 스토리지(SDS)의 업계 전반 상호운용성을 향상시키기 위한 테스트 환경을 제공한다. 클라우드 서비스 제공업체와 엔터프라이즈 고객을 위해 설립된 OCCL은 실제 환경과 유사한 워크로드를 시뮬레이션할 수 있는 벤더 중립 테스트 공간으로, 시스템 호환성, 상호운용성, 에너지 효율성, 성능 최적화에 대한 핵심 인사이트를 제공한다. OCCL 2.0은 컴포저블 분리형 인프라의 효율적인 구축 및 운영을 위한 세부 설루션 아키텍처를 제공하며, 기업이 효율과 확장성을 극대화할 수 있도록 분산형 스토리지 운영에 대한 모범 사례를 제시한다. 또한, OCCL 2.0은 컴포저블 인프라 분야에서 전략적 인사이트와 기술 혁신을 지속적으로 제공하며, SSD 파트너의 성능을 평가한 종합적인 벤치마크 결과를 제공해 고객이 최적의 스토리지 설루션을 채택하도록 지원한다. 웨스턴디지털은 “이러한 개선을 통해 OCCL은 고객 및 공급업체와의 협업을 더욱 강화하고, 아키텍처 설계의 핵심 기준을 마련하기 위한 벤치마킹 역할을 수행하게 된다. 또한, 독점적 구조를 대체할 수 있는 새로운 개방형 생태계의 도입과 확산을 주도하는 업계 선도 테스트 랩으로서의 입지를 더욱 공고히 할 것”이라고 전했다.   ▲ 오픈플렉스 데이터24 4000 시리즈   웨스턴디지털은 컴퓨텍스에서 자사의 ‘Data24 4200’ 시리즈를 확장한 신제품인 ‘오픈플렉스 데이터24 4100 EBOF(OpenFlex Data24 4100 EBOF)’를 선보인다. 이번 신규 제품은 기존에 출시된 데이터24 4200 듀얼 포트 SSD 모델을 보완하는 구성으로, 고가용성이 필수적이지 않은 클라우드 환경 등을 위해 설계되었다. 데이터24 4100은 단일 포트 SSD를 사용해 각 SSD에 단일 연결을 통해 성능을 최적화하며, 스토리지 시스템 미러링을 통해 이중화도 구현한다. 이를 통해 고객은 스토리지 인프라를 최적화할 수 있는 다양한 선택지를 확보할 수 있다. 이 제품은 2025년 3분기에 출시될 예정이다. 웨스턴디지털은 증가하는 클라우드 데이터센터 수요를 충족시키기 위해 ‘울트라스타 데이터102 3000 Orv3 JBOD(Ultrastar Data102 3000 ORv3 JBOD)’를 출시할 예정이다. 이번 신제품은 글로벌 오픈 컴퓨트 프로젝트(Open Compute Project, OCP) 이니셔티브에 부합하도록 Open Rack v3(ORv3) 사양을 충족하며, 특히 랙 설계와 전원 공급 규제를 중심으로 설계되었다. 또한 데이터102 3000 ORv3는 동일 시리즈의 컨트롤러, 인클로저, CRU(고객 교체용 부품) 등 핵심 부품을 공통으로 사용해 설계 효율을 높였으며, FIPS 140-3 Level 3 및 TAA 인증을 모두 충족해 신뢰성과 안정성을 제공한다. 이 제품은 올해 4분기 출시 예정이다.   ▲ 울트라스타 데이터102 ORv3   웨스턴디지털 플랫폼 사업부는 고객이 스토리지 인프라를 구축할 때 더욱 유연하고 폭 넓은 선택이 가능하도록 지원한다. 멀티 SSD 벤더 전략을 통해 다푸스토어, 키옥시아, 파이슨, 샌디스크, 스케일플럭스 등 주요 업체들의 SSD를 공식 인증했으며, 추가 벤더에 대한 인증 절차도 진행 중이다. 이를 통해 고객은 다양한 SSD 브랜드를 선택해 최적의 성능과 비용 효율성을 갖춘 스토리지 시스템을 구성할 수 있다.  웨스턴디지털의 커트 챈(Kurt Chan) 플랫폼사업부 부사장 겸 총괄은 “워크로드가 점점 더 복잡해지고 AI가 인프라 수요를 가속화하는 지금, 더 스마트하게 확장하고 더 빠르게 대응하며 자신 있게 구축할 수 있는 역량이 미래를 좌우할 것”이라면서, “웨스턴디지털은 OCCL 2.0과 최신 플랫폼 혁신을 통해 변화에 대응하는 것을 넘어, 분산형·소프트웨어 정의 데이터센터의 새로운 기준을 제시한다”고 말했다. 이어 그는 “앞으로도 변화하는 데이터 환경에 맞춰 고객이 유연하게 확장 가능한 인프라를 구축할 수 있도록, 개방적이고 유연한 아키텍처 제공에 최선을 다하겠다”고 덧붙였다.
작성일 : 2025-05-20
인텔, 컴퓨텍스에서 AI·워크스테이션용 최신 GPU 공개
인텔은 전문가와 개발자를 위한 신규 그래픽 처리 장치(GPU) 및 AI 가속기 제품군을 컴퓨텍스 2025에서 공개했다. 이번에 발표된 신제품은 ▲AI 추론 및 전문가용 워크스테이션에 최적화된 구성으로 설계된 인텔 아크 프로 B60(Intel Arc Pro B60) 및 인텔 아크 프로 B50(Intel Arc Pro B50) GPU ▲기업 및 클라우드 환경의 AI 추론을 위한 확장 가능하고 개방형 설루션을 제공하는 인텔 가우디 3 AI 가속기(Intel Gaudi 3 AI accelerators) ▲인텔 플랫폼에 최적화된 로컬 기반 목적 특화형 AI 에이전트를 개발자가 직접 생성할 수 있도록 지원하는 인텔 AI 어시스턴트 빌더(Intel AI Assistant Builder) 등이다.   ▲ 인텔 아크 프로 B60 및 B50 GPU   Xe2 아키텍처 기반의 인텔 아크 프로 B60 및 B50 GPU는 Xe 매트릭스 확장(XMX) AI 코어와 고급 레이 트레이싱 유닛을 탑재해 크리에이터, 개발자, 엔지니어를 위한 고성능 컴퓨팅 기능을 제공한다. 인텔은 이 두 GPU를 통해 전문가용 GPU 라인업을 확대하며, 고부하 AI 추론 작업과 워크스테이션 애플리케이션에 적합한 설계를 적용했다. AI 지원 기능, 24GB/16GB 메모리, 멀티 GPU 확장성을 갖춘 아크 프로 B 시리즈는 크리에이터, AI 개발자, 전문가에게 유연하고 강력한 설루션을 제공한다. 이들 GPU는 AEC(건축, 엔지니어링, 건설) 및 AI 추론용 워크스테이션에 최적화되어 있으며, 다양한 ISV 인증과 최적화된 소프트웨어를 통해 높은 안정성과 성능을 제공한다는 것이 인텔의 설명이다. 인텔 아크 프로 B 시리즈의 GPU들은 윈도우에서 일반 및 전문가용 드라이버와 호환되며, 리눅스에서는 AI 배포를 간소화하기 위한 컨테이너 기반 소프트웨어 스택을 지원한다. 향후 기능 추가 및 성능 최적화도 순차적으로 적용될 예정이다.  고용량 메모리와 주요 소프트웨어 호환성을 갖춘 인텔 아크 프로 B 시리즈는 크리에이터와 AI 개발자에게 확장가능하면서도 비용 효율적인 설루션을 제공한다. 인텔은 AI 개발 과정에서 발생하는 여러 마찰 지점을 최소화하도록 설계된 워크스테이션급 인텔 제온(Intel Xeon) 기반 플랫폼(코드명 ‘Project Battlematix)도 공개했다. 이 플랫폼은 최대 8개의 인텔 아크 프로 B60 24GB GPU를 지원해, 최대 1500억 개 매개변수의 중형 AI 모델을 고정밀도로 구동할 수 있으며, 최대 192GB의 비디오 전용 메모리를 제공한다. 인텔 아크 프로 B60 GPU는 2025년 6월부터 애즈락(ASRock), 니르(Gunnir), 래너(Lanner), 맥선(Maxsun), 오닉스(Onix), 세나오(Senao), 스파클(Sparkle) 등 다양한 애드인 보드 파트너사를 통해 샘플링이 시작되며, 아크 프로 B50 GPU는 2025년 7월부터 리테이너 채널을 통해 구매할 수 있다.   ▲ 인텔 가우디 3 PCIe 카드   인텔 가우디 3 PCIe 카드는 기존 데이터센터 서버 환경에서 확장형 AI 추론을 지원한다. 라마(LLaMA)와 같은 AI 모델을 사용할 경우, 소규모 기업부터 대기업까지 다양한 고객이 확장 가능한 구성 덕분에 LLaMA 3.1 8B부터 LLaMA 4 스카우트(Scout), 매버릭(Maverick) 모델까지 유연하게 실행할 수 있다. 인텔 가우디 3 PCIe 카드는 2025년 하반기부터 제공될 예정이다. 인텔 가우디 3 랙 스케일 시스템의 레퍼런스 디자인은 유연성과 확장성을 염두하고 설계되어, 랙당 최대 64개의 가속기를 지원하며 8.2TB의 고대역폭 메모리를 지원한다. 개방형 및 모듈형 구조로 특정 벤더 종속을 방지하고, ‘케이블드 백플레인(cabled backplane)’과 ‘블라인드-메이트 2D 풀-랙’ 배선 방식 덕분에 설치와 유지보수가 한층 간편하며, 액체 냉각을 적용해 뛰어난 성능을 유지하면서도 총소유비용(TCO)을 효과적으로 관리할 수 있다.  가우디 랙 스케일 아키텍처는 대규모 AI 모델 실행에 최적화되어 있으며, 낮은 지연 시간의 실시간 추론 작업에서 뛰어난 성능을 발휘한다. 이러한 구성은 개방적이고 유연하며 안전한 AI 인프라 구축에 대한 인텔의 의지를 보여주며, 클라우드 서비스 제공업체(CSP)를 위한 맞춤형 설계와 OCP(Open Compute Project) 표준 설계를 모두 지원한다. CES 2025에서 처음 공개된 인텔 AI 어시스턴트 빌더는 인텔 기반 AI PC에서 맞춤형 AI 에이전트를 로컬 환경에서 구축하고 실행할 수 있도록 설계된 경량형 오픈 소프트웨어 프레임워크로, 현재 깃허브(GitHub)에서 제공되는 베타 버전을 통해 누구나 사용할 수 있다. AI 어시스턴트 빌더는 개발자와 파트너가 자사 조직 및 고객을 위한 AI 에이전트를 빠르게 구축하고 배포할 수 있도록 지원한다.
작성일 : 2025-05-20