• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 하이퍼스케일"에 대한 통합 검색 내용이 95개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔–구글, 차세대 AI 및 클라우드 인프라 협력 확대
인텔과 구글은 차세대 AI와 클라우드 인프라 발전을 위해 다년간 협력하기로 했다. 양사는 이번 협력을 통해 최신 이기종 AI 시스템을 대규모로 구현하는 과정에서 중앙처리장치(CPU)와 주문형 인프라 처리 장치(IPU)의 역할을 강화한다는 계획이다. 최근 인공지능 도입이 빨라지면서 인프라는 더욱 복잡한 이기종 구조로 변하고 있다. 이에 따라 데이터 처리와 시스템 성능을 관리하기 위한 CPU 의존도가 높아지는 추세다. 인텔과 구글은 인텔 제온 프로세서의 여러 세대에 걸쳐 협력하며 구글의 글로벌 인프라 전반에서 성능과 에너지 효율, 총 소유 비용을 개선할 예정이다. 구글 클라우드는 최신 인텔 제온 6 프로세서를 탑재한 C4와 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스에 인텔 제온 프로세서를 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론과 범용 컴퓨팅까지 넓은 범위의 워크로드를 지원한다. 동시에 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU의 공동 개발을 확대하고 있다. 프로그래밍이 가능한 이 가속기는 호스트 CPU가 맡던 네트워킹, 스토리지, 보안 기능을 분담한다. 이를 통해 자원 활용도를 높이고 효율성을 개선하며 하이퍼스케일 AI 환경에서 더욱 예측 가능한 성능을 구현할 수 있다. IPU는 최신 데이터 센터 아키텍처의 핵심 요소로 꼽힌다. 기존 CPU가 담당하던 인프라 작업을 처리해 효율적인 컴퓨팅 성능을 제공하기 때문이다. 클라우드 서비스 제공업체는 이를 활용해 시스템 복잡성을 높이지 않고도 인프라를 확장할 수 있다. 제온 CPU와 IPU는 긴밀하게 통합된 플랫폼을 구성해 범용 컴퓨팅과 특정 목적에 특화된 가속 기능을 균형 있게 제공한다. 이번 협력 확대는 AI 시대에 필요한 개방적이고 확장 가능한 인프라를 발전시키려는 양사의 노력을 담고 있다. 인텔과 구글은 범용 컴퓨팅과 AI 시스템 설계에 특화된 가속 기능을 결합해 복잡성을 줄이고 효율적인 확장이 가능한 AI 시스템 설계 방식을 구현해 나갈 계획이다. 인텔의 립 부 탄 CEO는 “AI는 인프라 구축과 확장 방식을 재편하고 있다”면서, “AI 확장을 위해서는 가속기 이상의 균형 잡힌 시스템이 필수이며 CPU와 IPU는 최신 AI 워크로드가 요구하는 성능과 유연성을 제공하는 핵심 역할을 한다”고 설명했다. 구글 AI 인프라 부문의 아민 바흐다트 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습부터 배포까지 AI 시스템의 핵심 요소로 남아 있다”면서, “인텔은 20년 가까이 신뢰해 온 파트너로 인텔의 제온 로드맵을 통해 워크로드의 성능과 효율 요구 사항을 지속적으로 충족할 수 있을 것으로 확신한다”고 전했다.
작성일 : 2026-04-10
엔비디아, 메타와 차세대 AI 인프라 구축 위한 파트너십 체결
엔비디아가 메타와 온프레미스와 클라우드를 아우르는 차세대 AI 인프라 구축을 위한 장기 전략적 파트너십을 체결했다고 밝혔다. 메타는 자사의 장기적인 AI 인프라 로드맵 지원을 위해 훈련과 추론에 최적화된 하이퍼스케일 데이터센터를 구축할 예정이다. 이번 파트너십을 통해 엔비디아 CPU와 수백만 대의 엔비디아 블랙웰(Blackwell), 루빈(Rubin) GPU가 메타의 페이스북 오픈 스위칭 시스템(Facebook Open Switching System) 플랫폼에 대규모로 배포되며, 엔비디아 스펙트럼-X 이더넷(Spectrum-X Ethernet) 스위치가 함께 통합될 예정이다. 엔비디아와 메타는 데이터센터 프로덕션 애플리케이션에 Arm 기반 엔비디아 그레이스(Grace) CPU를 배포하기 위해 지속적으로 협력 중이다. 이는 메타의 장기적인 인프라 전략의 일환으로, 데이터센터 전반에서 전력 대비 성능을 개선하고 있다. 이번 협력은 엔비디아 그레이스 단독 아키텍처의 첫 대규모 배포 사례로, CPU 생태계 라이브러리에 대한 공동 설계와 소프트웨어 최적화 투자를 통해 세대별 전력 대비 성능을 지속적으로 향상시키고 있다. 또한 양사는 엔비디아 베라 CPU 배포를 위해 협력하고 있으며, 2027년 대규모 배포 가능성을 검토하고 있다. 이를 통해 메타의 에너지 효율적인 AI 컴퓨팅 역량을 한층 확장하고, Arm 기반 소프트웨어 생태계 발전을 가속화할 계획이다. 메타는 엔비디아 GB300 기반 시스템을 도입하고, 온프레미스 데이터센터와 엔비디아 클라우드 파트너(NVIDIA Cloud Partner : NCP) 배포 환경을 아우르는 통합 아키텍처를 구축할 예정이다. 이를 통해 운영을 간소화하는 동시에 성능과 확장성을 극대화할 수 있다. 또한 메타는 인프라 전반에 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼을 도입해, AI 규모에 최적화된 네트워킹을 제공하고 있다. 이를 통해 예측 가능한 저지연 성능을 보장하고, 활용도를 극대화하며, 운영과 전력 효율성을 향상시킬 예정이다. 한편, 메타는 엔비디아 컨피덴셜 컴퓨팅(Confidential Computing)을 왓츠앱(WhatsApp)의 프라이빗 프로세싱(private processing)에 도입했다. 이를 통해 사용자 데이터의 기밀성과 무결성을 보장하는 동시에, 메시징 플랫폼 전반에 AI 기반 기능을 구현할 수 있다. 양사는 왓츠앱을 넘어 메타 포트폴리오 전반에 엔비디아 컨피덴셜 컴퓨팅 역량을 확장하기 위해 협력하며, 대규모 프라이버시 강화를 위한 AI를 지원하고 있다. 엔비디아와 메타의 엔지니어링 팀은 메타의 핵심 워크로드 전반에 걸쳐 최첨단 AI 모델을 최적화하고 가속화하기 위한 심층 공동 설계를 진행하고 있다. 이러한 협력은 엔비디아의 풀스택 플랫폼과 메타의 대규모 프로덕션 워크로드를 결합해, 전 세계 수십억 명이 사용하는 새로운 AI 기능의 성능과 효율성을 향상시키는 것을 목표로 한다.     엔비디아의 젠슨 황 창립자 겸 CEO는 “메타처럼 대규모로 AI를 배포하는 기업은 없다. 메타는 최첨단 연구를 산업 규모의 인프라와 통합해 수십억 명의 사용자를 위한 세계 최대 수준의 개인화와 추천 시스템을 제공하고 있다. 엔비디아는 CPU, GPU, 네트워킹, 소프트웨어 전반에 걸친 긴밀한 공동 설계를 통해 메타 연구진과 엔지니어들이 차세대 AI 혁신을 위한 기반을 구축할 수 있도록 엔비디아 풀스택 플랫폼을 제공하고 있다”고 말했다. 메타의 마크 저커버그 창립자 겸 CEO는 “엔비디아와의 협력을 확대해 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축함으로써, 전 세계 모든 사람에게 개인 맞춤형 슈퍼 인텔리전스를 제공하게 돼 매우 기쁘게 생각한다”고 말했다.
작성일 : 2026-02-20
가트너, “올해 전 세계 IT 지출 10.8% 증가해 약 9천조 원 전망”
가트너는 2026년 전 세계 IT 지출 규모가 전년 대비 10.8% 증가한 6조 1500억 달러(약 8961조 원)에 이를 것으로 전망했다. 가트너의 존 데이비드 러브록 수석 VP 애널리스트는 “AI 버블 우려에도 AI 관련 하드웨어와 소프트웨어 전반에서 지출이 확대되며, AI 인프라 성장은 여전히 빠른 속도를 유지하고 있다”면서, “하이퍼스케일 클라우드 서비스 제공업체들의 수요가 AI 워크로드에 최적화된 서버 투자 확대를 지속적으로 견인하고 있다”고 분석했다. 올해 데이터 센터 시스템 지출은 작년 약 5000억 달러 대비 31.7% 증가해 6500억 달러를 넘어설 것으로 예상된다. 이는 해당 항목에 속한 서버 지출이 증가세를 보이며 전년 대비 36.9% 증가한 영향이 크다. 세부 항목 중에서는 데이터 센터 시스템이 가장 가파른 성장세를 보였다. 애플리케이션, 인프라 소프트웨어를 포함하는 소프트웨어 지출 성장률 전망치는 올해 15.2%에서 14.7%로 소폭 하향 조정됐다. 2025년 소프트웨어 분야 성장률인 11.5%보다는 확대될 전망이다. 러브록 애널리스트는 “전망치가 다소 조정됐지만, 올해 전체 소프트웨어 지출 규모는 1조 4000억 달러를 웃돌 것”이라며, “이 가운데 올해 생성형 AI 모델 지출 성장률 전망치는 80.8%를 유지하고 있다. 생성형 AI 모델은 상승세를 이어가며, 올해 소프트웨어 시장 내 비중이 1.8%포인트 늘어날 것”이라고 예상했다. IT 서비스 부문은 2026년 지출 규모가 약 1조 8668억 달러로, 전체 IT 시장에서 가장 큰 비중을 차지하는 단일 항목이 될 것으로 예상된다. 한편 스마트폰, PC, 태블릿 등 디바이스 출하량은 안정적인 성장세를 이어가고 있다. 가트너는 올해 디바이스 지출이 8360억 달러에 이를 것으로 전망했다. 다만 시장 수요 제약으로 성장률은 2025년 9.1%에서 2026년 6.1%로 둔화될 것으로 보인다. 러브록 애널리스트는 “디바이스 부문의 둔화는 메모리 가격 상승으로 평균판매가격이 높아지면서, 소비자들의 디바이스 교체 수요가 위축된 데 따른 영향이 크다”며, “수익성이 낮은 저가형 시장에서 공급 부족 현상이 발생하고 있으며, 디바이스 출하량 성장세를 제한하고 있다”고 분석했다.
작성일 : 2026-02-09
세일즈포스, WEF 2026서 AI 컨시어지 앱 ‘EVA’ 공개
세일즈포스는 56회 세계경제포럼(WEF) 연차총회에서 에이전트포스 360 기반의 컨시어지 앱 ‘EVA’를 공개하면서, 3000여 명 참석자의 일정 관리와 정보 탐색 여정을 최적화하고 WEF의 AX(인공지능 전환) 가속화를 지원한다고 밝혔다. 이번 연차총회는 1월 19일부터 23일까지 스위스 다보스에서 개최된다. WEF 역사상 가장 큰 규모로 행사 기간 450여 개 세션과 수천 건의 회담, 특별 프로그램이 예정되어 있어 참석자들의 개별 일정 관리와 정보 탐색 여정이 매우 복잡해질 것으로 예측된다. 세일즈포스는 WEF가 10년 이상 축적한 데이터와 신뢰할 수 있는 자체 AI 에이전트 플랫폼을 기반으로 참석자 개개인에게 최적화된 포럼 경험을 제공한다는 계획이다.     EVA는 기존 챗봇의 한계를 넘어 참석자를 대신해 추론하고 우선순위를 판단하며 필요한 행동까지 수행할 수 있는 AI 에이전트 기능을 포함한다. 특히 참석자의 관심에 맞춘 세션 추천, 양자 회담 일정 조정, 실시간 브리핑 자료 생성 등의 기능은 현장에서 참석자가 직접 처리해야 하는 업무 부담을 줄이는 한편, 포럼 간 참석자의 신속하고 효율적인 의사결정과 정보 탐색 여정을 지원한다. 일정 관리 기능은 참석자의 성향과 특성에 따라 맞춤형 회담과 세션을 추천하고, 일정 예약부터 변경·취소까지 자동으로 처리한다. 실시간 내비게이션 기능은 행사장 정보와 연동되어 참석자가 원하는 장소와 정보를 손쉽게 찾을 수 있도록 지원하며, 회의 준비 지원 기능은 회담과 세션의 배경 정보와 브리핑 자료를 자동으로 생성해 참석자의 사전 준비 부담을 줄인다. 이러한 EVA의 추론과 행동 기능은 세일즈포스의 ‘에이전트포스 360 플랫폼’을 기반으로 작동한다. 에이전트포스 360 플랫폼은 ‘데이터 360’, ‘세일즈포스 하이퍼스케일 데이터 엔진’, ‘에이전트포스 마케팅’ 등의 세일즈포스 주요 제품과 연동되어 참석자의 상황에 맞춰 현장에서 필요한 지원을 제공한다. 또한 데이터 360에는 세일즈포스 CRM을 기반으로 500여 개 이상의 맞춤형 오브젝트(데이터 항목)가 저장돼 있어, AI가 정보를 자율적으로 처리하고 브리핑 자료를 신속하게 생성할 수 있도록 돕는다. EVA는 현장 지원을 넘어 ‘에이전트포스 서비스’를 통해 웹·모바일 옴니채널 지원과 고객 지원 관리 기능을 제공하며, WEF의 오픈 이노베이션 플랫폼인 업링크(UpLink)와도 연동된다. 에이전트포스 마케팅은 맞춤형 이벤트 초대, 사용자 여정 관리, 커뮤니티 참여 확대를 담당한다. 또한 세일즈포스의 ‘뮬소프트(MuleSoft)’는 세일즈포스의 AI CRM과 제3자 시스템(금융·인사·여행·운영 등) 간의 안전한 연결 및 통합을 지원하며, 세일즈포스의 지능형 데이터 분석 플랫폼 ‘태블로(Tableau)’는 참석자의 참여도와 활동 데이터를 실행 가능한 인사이트로의 전환을 담당한다. 이 밖에도 WEF는 AI 중심의 에이전틱 엔터프라이즈(Agentic Enterprise) 모델과 EVA를 기반으로 회원 등록과 케이스 관리 절차를 간소화하는 등 행사 운영 효율성을 높이고 참석자 경험을 고도화해 나갈 계획이라고 전했다. WEF의 뵈르게 브렌데(Børge Brende) 총재는 “행사 준비 과정에서 임직원들의 업무 수행을 지원하고, 참석자들의 경험을 한층 강화하기 위해 AI 에이전트를 도입했다”면서, “EVA를 통해 참석자들은 단순히 일정을 최적화하는 차원을 넘어 WEF가 축적한 방대한 지식을 손안에서 직접 경험 및 활용할 수 있을 것”이라고 언급했다. 세일즈포스의 마크 베니오프(Marc Benioff) 최고경영자(CEO)는 “역대 최대 규모로 진행되는 이번 다보스 포럼에서 모든 참석자가 AI 에이전트와 협업하는 것이 어떤 의미인지 직접 경험을 하게 될 것”이라면서, “에이전트포스 360에 기반한 EVA는 기존의 챗봇을 넘어, 신뢰할 수 있는 데이터를 기반으로 리더들이 보다 신속하게 움직이고, 철저히 준비하며, 즉각적으로 실행할 수 있도록 돕는 AI 컨시어지 역할을 수행할 것이며, 이것이 바로 실제로 구현된 ‘에이전틱 엔터프라이즈’의 모습”이라고 강조했다.
작성일 : 2026-01-19
씨게이트, AI 기반 영상 분석 지원하는 32TB HDD 소개
씨게이트 테크놀로지가 AI 기반 영상을 분석하고 의사결정에 즉각 활용 가능한 인텔리전스로 구현하는데 핵심이 될 첨단 스토리지 설루션을 선보였다. 에지부터 클라우드까지 아우르는 이 포트폴리오는 기업이 데이터의 가치를 최대한 활용하고 보다 스마트하며 신속한 의사결정을 내릴 수 있도록 설계됐다. 비디오 이미징 및 분석 분야에 적용되는 AI 기술은 네트워크 에지에서 전례 없는 데이터 증가를 불러오고 있다. IDC에 따르면, AI가 각 프레임에 요약, 주석 및 메타데이터를 추가하면서 전체 조직의 75% 이상이 비디오 데이터가 향후 5년 내 최소 2 배 이상 증가할 것으로 전망된다. 여러 산업군 전반에서 조사 속도의 향상 및 경보 자동화, 규정 준수 보장, 심층적인 운영 통찰력 확보 등 새로운 활용 사례가 이러한 데이터 급증을 촉진시키고 있다. 1월 12일~14일 아랍에미리트 두바이에서 열린 인터섹 2026(Intersec 2026)에서 씨게이트는 이러한 수요를 충족하기 위한 최신 대용량 스토리지 혁신 기술을 선보였다. 씨게이트는 전통적 자기기록(CMR) 기술 분야에서 쌓아온 입지를 기반으로, 유통 채널 및 소매 파트너사에 엑소스 (Exos), 스카이호크 AI (SkyHawk AI) 및 아이언울프 프로(IronWolf Pro) 제품군 전반에 걸쳐 32 TB 하드 드라이브를 제공한다. 특히, 하이퍼스케일 클라우드 환경에서 검증된 씨게이트 모자이크 기술(Seagate Mozaic technology)을 바탕으로, 기업 고객은 복잡한 하이브리드 및 멀티클라우드 인프라 전반에서 AI 작업 부하를 안심하고 확장할 수 있다.하드 드라이브는 뛰어난 용량, 성능 및 확장성을 제공해 기업이 방대한 양의 데이터를 효율적으로 저장하고 처리할 수 있기 때문에, 에지와 데이터센터에서 유연하게 AI를 도입할 수 있다.     스카이호크 AI 32TB는 AI 지원 NVR 및 에지 보안 애플리케이션을 위해 설계된 영상 최적화 CMR 드라이브이다. 표준 영상 드라이브 대비 3배 높은 작업 부하 처리 능력으로 1만 시간 이상의 영상 및 분석을 지원한다. 또한 스카이호크 헬스 관리(SkyHawk Health Management), 5년 제한 보증, 3년 데이터 복구 서비스(Rescue Data Recovery Services)를 비롯해 최고 수준의 신뢰성을 보장한다는 것이 씨게이트의 설명이다. 아이언울프 프로 32TB는 크리에이티브 전문가, 중소기업 및 온프레미스 AI 작업 부하를 위한 대용량 드라이브이다. CMR 기술과 애자일어레이(AgileArray) 펌웨어를 지원해, 24시간 내내 끊김 없는 가동 시간을 보장하는 엔터프라이즈급 NAS 성능을 제공한다. 연간 550TB의 작업 부하 등급, 아이언울프 헬스 관리(IronWolf Health Management), 5년 제한 보증, 3년 데이터 복구 서비스를 지원한다. 엑소스 32TB는 클라우드 및 엔터프라이즈 데이터센터를 위한 용량과 전력 효율을 제공하며, 플래터당 최대 3TB의 밀도를 지원해 AI, 빅데이터 및 하이퍼스케일 작업 부하에 최적화됐다. 드라이브의 90%가 검증된 부품을 사용해 제작되어 신뢰할 수 있는 장기 성능과 지속가능한 운영을 보장한다. 씨게이트의 멜리사 밴다(Melyssa Banda) 에지 스토리지 및 설루션 부문 수석 부사장은 “컴퓨터 비전과 같은 AI 적용 기술은 산업 전반에서 영상 활용 방식을 변화시키고 있다”면서, “스마트 시티 프로젝트부터 소매업 및 핵심 인프라에 이르기까지, 영상은 검색 가능한 비즈니스 인텔리전스로 진화하고 있으며 이는 일상적인 운영 방식에 변화를 의미한다”고 강조했다. 이어 “이러한 전환에는 새로운 형태의 데이터 백본이 필요하다. 즉, 인사이트 흐름을 유지하고 아카이브 검색을 가능하게 하기 위해 에지 컴퓨팅 및 데이터센터에 대용량 스토리지가 필수이다. 이러한 기반을 확보하지 못한다면 AI 기반 영상 분석의 잠재력은 대폭 제한될 수밖에 없다”고 설명했다. 씨게이트 스카이호크  AI, 엑소스 및 아이언울프 프로 32TB 하드 드라이브는 1월 15일부터 전세계 씨게이트 공식 채널 파트너를 통해 구매 가능하다. 스카이호크 AI, 엑소스 및 아이언울프 프로는 소비자권장가 169만 원에 제공된다.
작성일 : 2026-01-13
슈나이더 일렉트릭, 고성능 컴퓨팅 및 AI 서버 전용 CDU 2종 출시
슈나이더 일렉트릭이 고성능 컴퓨팅(HPC) 및 인공지능(AI) 워크로드로 인한 열 수요 증가에 대응하고자 CDU(냉각수 분배 장치) 2종을 새롭게 출시했다. 새롭게 출시된 ‘MCDU-45’와 ‘MCDU-55’는 슈나이더 일렉트릭이 올해 초 인수한 액체 냉각 전문기업 모티브에어(Motivair)와 선보이는 리퀴드쿨링(Liquid Cooling) 설루션 제품으로, 냉각 설비실 설치에 최적화되도록 개발한 전용 CDU 모델이다. 이번 제품은 데이터센터 운영자를 대상으로 한층 더 강화된 유연성과 성능, 광범위한 배포 환경에서의 통합성 등을 제공하는 것이 특징이다.     이번 신제품의 특장점은 ▲신규 및 기존 CDU 옵션을 제공해, 특정 배포 목표에 부합하는 적합한 모델을 선택할 수 있도록 하는 ‘공간 최적화 및 유연성 확보’ ▲더 넓은 작동 범위를 제공해, 열 배출 시스템의 에너지 효율성을 확보하고 PUE(전력 사용 효율)를 개선할 수 있도록 하는 ‘에너지 절감 효과’ ▲다양한 배치를 통해 AI 워크로드나 IT 운영을 방해하지 않으면서 서비스 접근을 위한 유연성을 향상시킨 ‘간소화된 유지보수 및 접근성 확대’ ▲전체 범위의 CDU는 정밀한 유량 제어, 실시간 모니터링, 적응형 부하 분산을 통해 최적화된 설비 성능과 에너지 소비 감소를 위한 고급 열 관리 전략을 지원하여 ‘냉각 설비와의 통합성 향상’ 등이다. 특히 이번 신제품 출시를 통해, 독립 설치형 CDU와 랙 내장형 장치 라인업을 강화하여, 하이퍼스케일, AI, 코로케이션, 에지, 레트로핏 등 다양한 환경에 최적화된 냉각 전략을 지원한다. 또한 이번 제품은 AI 시대 속에서 변화하는 인프라 배포 방식과 리퀴드쿨링 분야의 발전 등을 반영해 설계됐다. MCDU-55는 기존 MCDU-50 대비 더 큰 열교환기와 펌프를 탑재해 냉각 용량을 +25%에서 40%까지 확장한 반면 설치 공간은 축소했다. 뿐만 아니라, 동일 냉각 용량에서도 높은 압력 수두를 확보했다. MCDU-45는 기존 MCDU-40 대비 +15%에서 35%까지 더 높은 냉각 용량을 제공한다. 또한 PICV(압력 독립형 제어 밸브)가 내장돼, 안정적인 조절은 물론 THDi 필터를 통한 네트워크 고조파 왜곡 제한, 1차측 통합 필터를 활용해 장비를 보호하는 일체형 패키지 구성을 갖췄다. 모티브에어의 리차드 위트모어(Richard Whitmore) CEO는 “모티브에어는 고밀도 리퀴드쿨링 설루션 분야의 신뢰받는 파트너로서, AI시대에 그 역할의 중요성이 더욱 커지고 있다”라며, “슈나이더 일렉트릭과 함께 모든 HPC, AI 또는 고급 데이터센터 배포에 적용하여, 원활한 확장성, 성능, 신뢰성을 제공하는 차세대 리퀴드쿨링 설루션을 제공하는 것이 목표”라고 전했다. 슈나이더 일렉트릭의 앤드류 브래드너(Andrew Bradner) 쿨링 사업부 수석 부사장은 “데이터 센터 리퀴드쿨링 분야에 있어 유연성이 핵심이며, 더 다양하고 더 큰 엔드투엔드(End-to-End) 설루션 포트폴리오가 요구되고 있는 추세”라며, “이번에 새롭게 선보인 CDU는 더 광범위한 가속 컴퓨팅 애플리케이션에 배포 전략을 맞추는 동시에 수십 년간의 전문 리퀴드쿨링 경험을 활용하여 최적의 성능, 신뢰성 그리고 미래 대응성까지 지원할 것”이라고 말했다.
작성일 : 2025-12-19
슈퍼마이크로, 하이퍼스케일 데이터센터 및 AI 팩토리 위한 엔비디아 HGX B300 탑재 수냉식 설루션 출시
슈퍼마이크로컴퓨터가 엔비디아 HGX B300 기반의 4U 및 2-OU(OCP) 수냉식 설루션을 출시하고, 출하를 시작했다고 밝혔다. 슈퍼마이크로의 엔비디아 블랙웰 아키텍처 제품군에 새롭게 추가된 두 제품은 슈퍼마이크로 데이터센터 빌딩 블록 설루션(Data Center Building Block Solutions : DCBBS)의 핵심 구성으로, 하이퍼스케일 데이터센터와 AI 팩토리를 위한 높은 GPU 집적도와 에너지 효율을 구현한다. 엔비디아 HGX B300 기반 2-OU(OCP) 수냉식 설루션은 21인치 OCP 오픈 랙 V3(ORV3) 규격으로 설계됐다. 랙당 최대 144개의 GPU를 탑재하는 높은 수준의 GPU 집적도를 제공한다. 이를 통해 하이퍼스케일 및 클라우드 기업은 공간 효율과 서비스성(serviceability)을 동시에 확보할 수 있다. 또한, 랙스케일 설계로 블라인드-메이트 매니폴드 커넥션, 모듈형 GPU/CPU 트레이 아키텍처, 최첨단 구성 요소(component) 수냉식 냉각 설루션을 탑재했다. 이 시스템은 8개의 엔비디아 블랙웰 울트라 GPU(개당 TPU 최대 1100W)를 통해 보다 작은 면적에서 적은 에너지로 AI 워크로드를 처리한다. 단일 ORV3 랙은 최대 18개의 노드와 총 144의 GPU를 지원하며, 엔비디아 퀀텀-X800 인피니밴드 스위치와 슈퍼마이크로 1.8MW 인로(In-Row) CDU를 통해 확장된다. 엔비디아 HGX B300 컴퓨트 랙 8개, 엔비디아 퀀텀-X800 인피니밴드 네트워킹 랙 3개, 슈퍼마이크로 인로 CDU 2개로 구성된 슈퍼마이크로 슈퍼클러스터는 GPU를 유닛 당 총 1152개까지 확장 가능하다.     또 다른 엔비디아 HGX B300 기반 신제품인 4U 전면 I/O 수냉식 설루션은 기존의 대규모 AI 팩토리용 19인치 EIA 랙 폼팩터에 엔비디아 HGX 기반 2-OU(OCP) 설루션과 동일한 연산 성능 및 냉각 효율을 제공한다. 이 설루션은 슈퍼마이크로의 DLC 기술을 기반으로 시스템 열을 최대 98%까지 수냉식으로 제거한다. 동시에 고집적 학습 및 추론 클러스터의 에너지 효율성 강화, 소음 저감, 서비스성 향상을 돕는다. 슈퍼마이크로의 엔비디아 HGX B300 설루션은 시스템당 2.1TB의 HBM3e GPU 메모리를 탑재해 시스템 단에서 보다 큰 규모의 모델을 처리할 수 있으며, 이는 성능 향상으로 이어진다. 이에 더해, 두 설루션을 엔비디아 퀀텀-X800 인피니밴드 또는 엔비디아 스펙트럼-4 이더넷과 함께 사용할 경우, 통합된 엔비디아 커넥트 X-8 슈퍼NICs를 통해 컴퓨트 패브릭 네트워크 처리량을 최대 800Gb/s까지 늘려 클러스터 단의 성능을 향상시킨다. 그 결과, 에이전틱 AI 애플리케이션, 기반 모델 학습, 멀티모달 대규모 추론 등 AI 팩토리의 다양한 고부하 AI 워크로드를 빠르게 처리할 수 있다. 새롭게 선보인 두 가지의 엔비디아 HGX B300 설루션은 고객의 TCO 절감과 운영 효율 향상을 위해 개발되었다. 슈퍼마이크로는 DLC-2 기술이 데이터센터의 에너지 사용량을 최대 40% 절감하고, 45°C 온수로 냉각해 보다 적은 양의 물을 사용한다고 설명했다. 이때, 기존의 냉각수와 압축기는 필요하지 않다. 또한 슈퍼마이크로 DCBBS는 랙 형태로 L11 및 L12 설루션 테스트를 거쳐 사전 검증된 상태로 출하된다. 이를 통해 하이퍼스케일, 엔터프라이즈, 정부기관의 데이터센터 가동 준비 시간을 단축한다. 슈퍼마이크로는 이번 제품 출시로 자사의 엔비디아 블랙웰 기반 제품군이 한층 강화되었다고 전했다. 기존 제품군에는 엔비디아 GB300 NVL72, 엔비디아 HGX B200, 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 등을 지원하는 설루션이 포함된다. 이 모든 설루션은 다양한 AI 애플리케이션 및 사용 사례에서 최적의 성능을 테스트하고 엔비디아 인증을 획득했다. 이 과정은 각 설루션에 엔비디아 AI 엔터프라이즈, 엔비디아 런에이아이(Run:ai) 등의 엔비디아 AI 소프트웨어 및 엔비디아 네트워킹을 적용한 상태에서 이뤄진다. 고객은 단일 노드부터 풀스택 AI 팩토리에 이르기까지 유연하게 확장 가능한 AI 인프라를 손쉽게 구축할 수 있다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “전 세계적으로 AI 인프라 수요가 빠르게 증가하고 있다. 이번에 선보인 엔비디아 HGX B300 기반 수냉식 설루션은 하이퍼스케일 데이터센터와 AI 팩토리가 요구하는 성능 집적도와 에너지 효율성을 충족한다”면서, ”업계에서 가장 컴팩트한 엔비디아 HGX B300 탑재 설루션이며, 단일 랙에서 최대 144개의 GPU를 지원한다. 또한, 슈퍼마이크로의 검증된 DLC 기술을 통해 에너지 소비량과 냉각 비용을 절감한다”고 말했다. 또한 그는 “슈퍼마이크로는 DCBBS를 통해 대규모 AI 인프라 구축을 지원하며, 준비 시간(time-to-market) 단축, 와트 당 최고 성능 구현, 설계부터 배포까지의 엔드 투 엔드 통합 제공이 그 핵심”이라고 덧붙였다.
작성일 : 2025-12-15
에퀴닉스, 그록과 손잡고 아태지역에 저지연 AI 추론 제공
에퀴닉스(Equinix)는 AI 추론 분야의 글로벌 기업인 그록(Groq)이 호주 시드니의 에퀴닉스 IBX(International Business Exchange) 데이터센터에 인프라를 구축하며, 자사의 글로벌 AI 인프라를 아시아 태평양 지역으로 확장했다고 전했다. 에퀴닉스는 미국과 유럽, 중동 및 아프리카 지역 출시 이후, 이번 협력을 통해 그록의 빠르고 저렴하며 확장 가능한 LPU 추론 엔진이 한국 및 아시아 태평양 전역의 기업과 공공 부문에 확대 제공된다고 설명했다. 이번 파트너십을 통해 그록과 에퀴닉스는 호주 시드니에 4.5MW 규모의 그록 시설을 구축하여, 호주 최대 규모의 고속 AI 추론 인프라 중 하나를 마련할 예정이다. 이 시설은 기존 GPU 및 하이퍼스케일 클라우드 보다 최대 5배 더 빠르고 비용 효율적인 컴퓨팅 성능을 제공한다. 소프트웨어 정의 상호연결 서비스인 에퀴닉스 패브릭(Equinix Fabric)을 활용하여 아시아 태평양 지역 기업들은 안전하면서 지연 시간이 짧은 고속 상호연결성을 통해 생산 AI 워크로드를 위한 그록클라우드(GroqCloud)에 원활하게 접근하고, 완벽한 제어 및 규제 준수를 충족할 수 있다. 아시아 태평양 지역에서 AI 기반 설루션에 대한 수요와 도입이 지속적으로 증가하고 있다. IDC의 최신 ‘전 세계 AI 및 생성형 AI 지출 가이드’에 따르면, 아시아 태평양 지역의 AI 및 생성형 AI 투자는 2028년까지 1100억 달러에 달할 것으로 예상되며, 2023년부터 2028년까지 연평균 24.0%의 성장률을 기록할 것으로 전망된다. 에퀴닉스는 자사의 글로벌 인프라 및 벤더 중립적인 연결 설루션과 그록의 최첨단 AI 추론 기술을 결합함으로써, 기업이 비용 효율과 속도를 유지하면서 AI 워크로드를 효율적으로 확장할 수 있다고 전했다. 맞춤형 컴파일러로 최적화된 그록의 LPU 추론 엔진은 차세대 오픈소스 LLM에서 추론을 위한 처리량과 지연 시간을 제공한다. LPU는 즉각적인 속도, 높은 경제성, 대규모 에너지 효율을 제공한다. GPU와 근본적으로 다른 LPU는 AI 추론과 언어 처리를 위해 설계됐다. 그록은 에퀴닉스의 온디맨드 소프트웨어 정의 상호연결 서비스(software-defined interconnection service)를 활용해 37개국 270개 이상의 에퀴닉스 시설에서 기업과 클라우드, 파트너 및 디지털 에코시스템을 안전하게 연결한다. 이번 파트너십은 차세대 AI 기업이 자체 인프라를 구축 없이도 글로벌 확장이 가능하도록 지원하는 방식을 보여준다는 것이 에퀴닉스의 설명이다. 그록의 기술은 누구나 그록클라우드를 통해 접근할 수 있으며, 기업 및 파트너는 클라우드 또는 온프레미스 AI 컴퓨팅 센터 구축 중에서 선택할 수 있다. 그록의 스콧 알빈(Scott Albin) 아태지역 총괄은 “그록클라우드를 사용하는 개발자 중 절반 이상이 아시아 태평양 지역에 있는 만큼, 이 지역은 그록에게 핵심 성장 시장이다. 에퀴닉스 시드니 데이터센터에 인프라를 구축한 것은 고성능의 비용 효율적인 AI 추론 설루션을 아태지역에 더 가깝게 제공하기 위한 첫 걸음으로, 데이터 주권과 프라이버시를 보장하면서 안전한 저지연 접근을 지원한다. 양사는 아시아 태평양 지역의 AI 혁신과 성장을 주도할 인프라를 공동 구축하고 있다”고 전했다. 에퀴닉스의 사이러스 아다그라(Cyrus Adaggra) 아시아 태평양 사장은 “그록은 AI 추론 분야의 선도 기업이다. 그록이 에퀴닉스를 통해 고성능 인프라를 전 세계로 빠르게 확장하고 있어 기쁘다. 에퀴닉스의 독보적인 에코시스템과 글로벌 데이터센터 네트워크는 고객과 클라우드, 파트너 간 연결의 허브 역할을 하며, 대규모 엔터프라이즈 AI 워크플로를 효율적으로 지원하고 있다”고 밝혔다.
작성일 : 2025-11-19
웨스턴디지털, 슈퍼컴퓨팅 콘퍼런스에서 차세대 AI 스토리지 혁신 설루션 공개
웨스턴디지털이 11월 16일~21일 미국 세인트루이스에서 열리는 ‘슈퍼컴퓨팅 2025(Supercomputing 2025)’에 참가해 AI와 고성능 컴퓨팅(HPC) 환경을 위한 차세대 스토리지 혁신 전략을 공개한다고 전했다. 웨스턴디지털은 이번 행사를 통해 AI 및 HPC 고객의 성능, 용량, 유연성 및 확장성을 근본적으로 혁신할 새로운 설루션과 파트너십을 선보일 예정이다. 웨스턴디지털은 전략적 파트너십을 통해 대용량 스토리지의 접근성을 확대하고, 기존 하이퍼스케일러를 넘어 더 폭넓은 고객에게 고급 UltraSMR 기술을 제공하고 있다. SMR 기술 기반 Ultrastar JBOD 플랫폼은 대용량 데이터 환경에서도 높은 경제성을 제공하며, OpenFlex Data24 분리형 스토리지 설루션과 RapidFlex NVMe-oF 컨트롤러는 AI 및 HPC 워크로드에서 발생하는 병목 현상을 해소한다. 또한, 주요 기업의 새 참여로 확대된 ‘오픈 컴포저블 컴패터빌리티 랩(OCCL)’을 통해 규모에 관계없이 모든 조직이 혁신을 더욱 빠르게 추진할 수 있도록 지원하고 있다. 이러한 통합 접근 방식은 고객이 스토리지와 컴퓨팅을 유연하게 확장하면서 총소유비용(TCO)을 절감하고, 신뢰할 수 있는 확장형 스토리지 인프라를 기반으로 새로운 비즈니스 기회를 창출할 수 있게 한다. 웨스턴디지털은 자사 스토리지 플랫폼이 주요 AI 인프라 기업들과 긴밀히 연동되어, 데이터 병목을 줄이고 혁신적인 연구 성과를 앞당길 수 있는 방식을 선보인다. 특히 피크AIO(PEAK:AIO) 등 AI 인프라 기업과 협력해, 스토리지와 컴퓨팅 리소스를 분리해 확장할 수 있는 NVMe-oF 아키텍처를 시연할 예정이다. 이 설루션은 실제 환경에서 스토리지와 컴퓨팅을 독립적으로 확장함으로써 GPU 활용률을 극대화하고, AI 모델 개발·배포 및 분석은 물론 HPC 애플리케이션 전반의 처리 속도를 크게 향상시킨다. 웨스턴디지털은 파일 시스템 최적화를 통해 하이퍼스케일 환경을 넘어 SMR 기술의 가치를 극대화할 수 있는 방안을 선보인다. 이를 통해 기업 규모와 관계없이 다양한 조직이 테라바이트(TB)당 전력 소비를 줄이면서 더 높은 저장 밀도를 구현할 수 있다. 또한, 릴 스토리지(Leil Storage)와 스위스 볼트(Swiss Vault)와 협력해, SMR의 순차 쓰기 성능을 최대한 활용하면서 호스트 시스템의 운영 요구사항을 효율적으로 관리할 수 있는 소프트웨어를 공동 개발했다. 이러한 파트너십을 기반으로 웨스턴디지털의 Ultrastar Data60과 Data102 JBOD는 SMR 드라이브를 탑재해 기존 HDD보다 한층 높은 저장 효율을 제공한다. 특히 최신 32TB UltraSMR HDD가 장착된 Data102는 단일 인클로저에서 최대 3.26페타바이트(PB)의 용량을 구현해, 연구기관 및 대학, 중견기업 등이 AI, HPC, 연구 워크로드에서 엑사바이트(EB)급 데이터 분석을 보다 효율적이고 지속가능한 방식으로 수행할 수 있도록 지원한다. 한편, 웨스턴디지털은 에이수스, 릴 스토리지, 오픈-E, 솔리다임, 스위스 볼트 등 새롭게 참여한 기업들과 함께 확장된 OCCL 생태계를 선보인다고 전했다. 확대된 OCCL 생태계는 사전 검증된 상호운용 설루션을 통해 벤더 종속을 최소화하고, 고객이 신뢰를 바탕으로 보다 빠르게 시스템을 구축할 수 있도록 지원한다. 또한 기존 참여사인 다푸스토어, 피슨, 샌디스크와 신규 참여사 솔리다임의 SSD 검증을 완료해, 기업들이 성능, 비용 및 공급망 안정성을 균형 있게 최적화할 수 있도록 돕는다. 아울러 OCCL은 벤더 중립적인 검증 환경에서 실제 고객 환경을 시뮬레이션함으로써 통합 리스크를 줄이고, 고객이 특정 벤더 구조에 얽매이지 않고 스토리지와 컴퓨팅을 독립적으로 확장할 수 있는 유연성을 제공한다.
작성일 : 2025-11-17
오라클, OCI 전용 리전25 통해 소버린 AI 및 클라우드 서비스 배포 지원
오라클은 더 많은 기업이 퍼블릭 클라우드의 민첩성, 경제성 및 확장성을 누릴 수 있도록 오라클 클라우드 인프라스트럭처(OCI) 전용 리전25(Dedicated Region25)를 출시했다고 발표했다. 기업은 OCI 전용 리전25를 통해 단 몇 주 내에 최소 3개의 랙으로 구성된 풀스택 OCI 환경을 구축할 수 있으며, 공간 제약이 있는 환경에서도 손쉽게 전용 리전을 배포할 수 있다. 지난 2020년 처음 출시된 OCI 전용 리전(OCI Dedicated Region)은 대규모 하이퍼스케일 폼팩터에서 더욱 유연한 배포 형태로 발전해 왔다. 현재 전 세계적으로 60개 이상의 OCI 전용 리전과 오라클 알로이(Oracle Alloy) 리전이 운영 중이거나 계획되어 있으며, 고객은 성능, 거버넌스, 퍼블릭 OCI 환경의 호환성을 저해하지 않으면서 자사 비즈니스 규모에 최적화된 배포 모델을 선택할 수 있다.     OCI 전용 리전25는 OCI의 분산형 클라우드 제품군에 속하며, 모듈형 인프라와 간소화된 서비스 설계를 갖춘 엔터프라이즈급 소버린 클라우드를 통해 공공 및 민간 조직이 민첩성을 높이고 제품 출시 기간을 단축하도록 지원한다. 오라클은 “200개 이상의 AI 및 클라우드 서비스가 내장된 완전한 퍼블릭 클라우드 리전을 3개 랙만으로 구축 가능하고, 하이퍼스케일 수준까지 확장 가능하며, 고객 데이터센터 내에서 안전하게 운영할 수 있도록 지원한다”고 소개했다. 이에 따라 시공간적 제약 혹은 규제 관련 제약으로 전용 클라우드 리전 운영이 어려웠던 고객도 혁신을 가속화하고 새로운 비즈니스 모델을 구현할 수 있게 된다는 것이 오라클의 설명이다. 기존의 전용 클라우드 리전은 많은 조직의 전면적 클라우드 전환에 걸림돌이 되었다. OCI 전용 리전25는 ▲고도화된 네트워크 중심의 모듈형 확장성 ▲하이퍼컨버지드 표준 인프라 ▲통합 다계층(multi-layered) 보안 ▲SaaS, AI를 포함한 퍼블릭 클라우드 수준의 서비스 제공 ▲데이터 주권 요건 지원 ▲오라클 운영 클라우드 리전 등의 이점을 제공하여 클라우드 전환의 방해요소를 제거한다. OCI 전용 리전25는 최소 3개 랙으로 시작해 다운타임이나 재설계 없이 네트워크 확장 랙을 추가함으로써 하이퍼스케일까지 원활하게 확장할 수 있다. 그리고 오라클의 표준화된 고밀도 컴퓨팅 및 스토리지 랙을 활용해 데이터센터 공간 및 전력 사용을 절감할 수 있다. 고객은 더 높은 신뢰성, 빠른 복구 시간, 최대 가동 시간을 확보할 수 있으며, 복잡한 운영 부담 없이 컴팩트한 규모로 운영 가능하다. OCI 전용 리전25는 물리, 가상 전 계층에 걸친 다중적 보안 장치로 데이터와 워크로드를 보호해 높은 수준의 보안, 프라이버시, 규제 요건을 충족할 수 있도록 한다. 통합 다계층 보안 기능으로는 생체인식 잠금(biometric-locked) 랙, 암호화된 소프트웨어 정의 네트워크 패브릭 등이 포함된다. 또한 200개 이상의 OCI AI 및 클라우드 서비스를 고객 환경에서 직접 제공함으로써 데이터 주권 및 데이터 지역성 요건을 충족하면서도 퍼블릭 OCI와 동일한 운영 환경을 구현할 수 있다. 이외에도 정부 및 공공기관이 전체 오라클 클라우드 스택을 자체 환경에 배포하고 데이터 및 시스템에 대한 완전한 통제권을 유지할 수 있도록 함으로써 엄격한 수준의 데이터 주권, 프라이버시, 보안, 규제 요건을 충족할 수 있도록 지원한다. OCI 전용 리전25는 오라클이 직접 운영하는 완전한 클라우드 운영 서비스 형태로 제공되므로, 고객은 인프라 관리가 아닌 혁신에 집중할 수 있다. 스콧 트와들 OCI 제품 및 산업 담당 수석 부사장은 “기업은 가장 큰 가치 창출이 가능한 곳에서 AI와 클라우드 서비스를 자유롭게 구동하길 원하며, 소버린 AI(sovereign AI)에 대한 관심이 높아짐에 따라 데이터의 위치와 데이터 통제에 대한 요건이 엄격해져 이러한 요구 사항이 더욱 강화되고 있다”면서, “OCI 전용 리전25의 출시로 오라클은 사실상 모든 데이터센터로 오라클 클라우드의 역량을 확장할 수 있게 되었다. 이 새로운 배포 옵션은 탁월한 유연성, 운영 단순성 및 엔터프라이즈급 데이터 주권을 제공해 전용 클라우드의 기준을 새롭게 정의하고, 고객이 미래 혁신을 대비할 수 있도록 돕는다”고 말했다.
작성일 : 2025-10-20