• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "가속기"에 대한 통합 검색 내용이 265개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔–구글, 차세대 AI 및 클라우드 인프라 협력 확대
인텔과 구글은 차세대 AI와 클라우드 인프라 발전을 위해 다년간 협력하기로 했다. 양사는 이번 협력을 통해 최신 이기종 AI 시스템을 대규모로 구현하는 과정에서 중앙처리장치(CPU)와 주문형 인프라 처리 장치(IPU)의 역할을 강화한다는 계획이다. 최근 인공지능 도입이 빨라지면서 인프라는 더욱 복잡한 이기종 구조로 변하고 있다. 이에 따라 데이터 처리와 시스템 성능을 관리하기 위한 CPU 의존도가 높아지는 추세다. 인텔과 구글은 인텔 제온 프로세서의 여러 세대에 걸쳐 협력하며 구글의 글로벌 인프라 전반에서 성능과 에너지 효율, 총 소유 비용을 개선할 예정이다. 구글 클라우드는 최신 인텔 제온 6 프로세서를 탑재한 C4와 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스에 인텔 제온 프로세서를 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론과 범용 컴퓨팅까지 넓은 범위의 워크로드를 지원한다. 동시에 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU의 공동 개발을 확대하고 있다. 프로그래밍이 가능한 이 가속기는 호스트 CPU가 맡던 네트워킹, 스토리지, 보안 기능을 분담한다. 이를 통해 자원 활용도를 높이고 효율성을 개선하며 하이퍼스케일 AI 환경에서 더욱 예측 가능한 성능을 구현할 수 있다. IPU는 최신 데이터 센터 아키텍처의 핵심 요소로 꼽힌다. 기존 CPU가 담당하던 인프라 작업을 처리해 효율적인 컴퓨팅 성능을 제공하기 때문이다. 클라우드 서비스 제공업체는 이를 활용해 시스템 복잡성을 높이지 않고도 인프라를 확장할 수 있다. 제온 CPU와 IPU는 긴밀하게 통합된 플랫폼을 구성해 범용 컴퓨팅과 특정 목적에 특화된 가속 기능을 균형 있게 제공한다. 이번 협력 확대는 AI 시대에 필요한 개방적이고 확장 가능한 인프라를 발전시키려는 양사의 노력을 담고 있다. 인텔과 구글은 범용 컴퓨팅과 AI 시스템 설계에 특화된 가속 기능을 결합해 복잡성을 줄이고 효율적인 확장이 가능한 AI 시스템 설계 방식을 구현해 나갈 계획이다. 인텔의 립 부 탄 CEO는 “AI는 인프라 구축과 확장 방식을 재편하고 있다”면서, “AI 확장을 위해서는 가속기 이상의 균형 잡힌 시스템이 필수이며 CPU와 IPU는 최신 AI 워크로드가 요구하는 성능과 유연성을 제공하는 핵심 역할을 한다”고 설명했다. 구글 AI 인프라 부문의 아민 바흐다트 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습부터 배포까지 AI 시스템의 핵심 요소로 남아 있다”면서, “인텔은 20년 가까이 신뢰해 온 파트너로 인텔의 제온 로드맵을 통해 워크로드의 성능과 효율 요구 사항을 지속적으로 충족할 수 있을 것으로 확신한다”고 전했다.
작성일 : 2026-04-10
[포커스] 인텔, 코어 울트라 시리즈 3로 온디바이스 AI 및 에지 시장 공략 가속화
인텔은 지난 1월 28일 ‘2026 AI PC 쇼케이스 서울’을 통해 최첨단 18A 공정이 적용된 차세대 프로세서 ‘인텔 코어 울트라(Core Ultra) 시리즈 3’를 국내에 공식적으로 선보였다. 이번 신제품은 기존 모델 대비 전력 효율을 높이고 그래픽과 AI 연산 성능을 향상시킨 것이 특징이다. 인텔은 온디바이스 AI의 보안성과 효율을 앞세워 클라우드 의존도를 낮추고 사용자 경험을 혁신하겠다는 의지를 밝혔다. 또한 한국 시장의 전략적 중요성을 강조하면서, PC를 넘어 에지 AI 분야까지 생태계를 확장하겠다는 비전을 제시했다. ■ 정수진 편집장   18A 공정 기반의 차세대 아키텍처와 혁신 기술 집약 코드명 팬서레이크인 인텔 코어 울트라 시리즈 3는 인텔의 18A 반도체 공정 기술을 기반으로 설계된 첫 번째 플래그십 프로세서이다. 각 트랜지스터에 공급되는 전력을 정밀하게 제어하는 게이트 올 어라운드(GAA) 구조의 리본펫(RibbonFET)과 복잡한 칩의 전력 배선 구조를 단순화해 칩 밀도를 높이는 파워비아(PowerVia) 기술이 적용되어 전력 및 공간 효율을 높인 것이 특징이다. 성능 코어(P-코어)와 효율 코어(E-코어)로 구성된 하이브리드 코어 아키텍처를 재설계한 것도 눈에 띈다. 인텔은 18A 공정에 맞춰 성능 코어와 효율 코어를 전면 재설계했다고 밝혔는데, 특히 저전력 아일랜드(Low Power Island)에 위치한 4개의 효율 코어에 추가 캐시를 탑재해서 더 많은 워크로드를 저전력으로 처리할 수 있도록 설계되었다. 인텔의 조쉬 뉴먼(Josh Newman) 컨수머 PC 부문 총괄은 “코어 울트라 시리즈 3는 NPU(50 TOPS)와 GPU(120 TOPS) 등을 합쳐 플랫폼 전체에서 최고 180 TOPS의 AI 연산 성능을 제공한다”면서, “이를 통해 보안을 유지하면서도 기기 내에서 로컬 LLM(거대 언어 모델)을 원활하게 구동할 수 있다”고 소개했다. 또한, 코어 울트라 시리즈 3는 차세대 내장 그래픽인 인텔 아크(Arc) B390을 탑재했다. 아크 B390은 Xe3 아키텍처를 기반으로 12개의 Xe 코어와 96개의 XMX 엔진, 이전 세대 대비 2배 늘어난 16MB의 L2 캐시를 탑재했다. 이를 통해 이산형(discrete) 모바일 GPU에 맞먹는 성능을 제공한다는 것이 인텔의 설명이다.   ▲ 인텔의 조쉬 뉴먼 컨수머 PC 부문 총괄이 코어 울트라 시리즈 3를 소개했다.   루나레이크 대비 향상된 전성비와 AI 성능 구현 이번 신제품은 이전 세대인 루나레이크와 비교해 CPU/GPU 성능과 전력 효율, AI 성능 등에서 폭넓은 개선이 이뤄졌다. 코어 울트라 시리즈 3는 최대 8개의 효율 코어를 추가로 구성해서 루나레이크 대비 멀티스레드 성능이 최대 60% 향상되었으며, 전반적인 CPU 속도 역시 60% 더 빨라졌다. 또한, 동일한 싱글 스레드 성능을 최대 40% 더 낮은 전력으로 구현할 수 있다. 인텔은 “시스템 전체의 전력 소모를 줄여서, 배터리 수명을 시간 단위가 아닌 일(days) 단위로 측정할 수 있을 만큼 연장했다”고 전했다. GPU 성능 역시 내장 그래픽 크기를 키우고 아키텍처를 개선하면서, 루나레이크 대비 게이밍 그래픽 성능이 77% 이상 향상되었다. 이는 60W로 구동되는 경쟁사 랩톱 GPU의 성능과 맞먹으면서도 45W의 더 적은 전력을 소비하는 수준이라는 것이 인텔의 설명이다. 이외에 96개의 AI 가속기(XMX)를 내장해 AI 성능을 이전 세대 대비 약 2배 가까이 끌어올렸으며, AI 추론 성능은 53% 향상되었다. 이와 함께 50 TOPS 성능의 저전력 NPU를 별도로 탑재해서, 화상 회의의 배경 흐림이나 오디오 노이즈 제거, 보안 작업 등의 상시 AI 작업을 최소화된 배터리 소모와 함께 구동할 수 있도록 했다. 뉴먼 총괄은 “인텔의 접근 방식은 인텔 코어 울트라 시리즈 3 아키텍처와 곧 출시될 차세대 시리즈 3 코어를 중심으로, 단일 아키텍처 기반에서 폭넓은 제품 포트폴리오를 제공하는 것이다. 이를 통해 다양한 세그먼트별 수요와 가격대, 지역별 요구사항을 포괄할 수 있도록 설계했다”고 전했다.   PC를 넘어 온디바이스·에지 AI까지 영역 확장 인텔은 350개 이상의 독립 소프트웨어 공급업체(ISV)와 협력해서 500개 이상의 AI 기능에 최적화된 환경을 갖추고 있다고 전했다. 또한, 인텔의 오픈비노(OpenVINO) 툴킷을 통해 개발자들이 맞춤형 하드웨어 재작성 없이도 파이토치(PyTorch)나 라마(Llama) CCP 등 최신 생성형 AI 모델과 비전 모델을 즉시 배치하고 최적화할 수 있도록 지원한다. 예를 들어, 어도비 프리미어 프로(Adobe Premiere Pro)에서는 GPU 기반 AI를 통해 사용자가 입력한 설명만으로 원하는 미디어나 영상을 손쉽게 검색할 수 있다. 줌(Zoom)에서는 NPU를 활용하여 시스템 전력 소모를 줄이면서도 가상 링 조명 효과나 배경 어둡게 하기 등의 기능을 지원한다. 또한, 마이크로소프트와 긴밀히 협력해 코파일럿 플러스(Copilot+)의 차세대 AI 경험을 윈도우 11 생태계 전반에서 지원한다. 기업 환경에서는 클라우드로 데이터를 전송할 때 발생하는 보안 우려에 대해 민감할 수밖에 없다. 인텔은 “민감한 데이터는 기업 내부(로컬)에서 유지하면서 AI 기반 생산성 작업을 안전하게 수행할 수 있는 온디바이스 AI 환경을 제공한다”고 전했다. 인텔은 코어 울트라 시리즈 3를 통해 PC를 넘어 에지 AI(edge AI) 시장으로 확장한다는 계획도 소개했다. 스마트 공장, 스마트 시티, 헬스케어 등 에지 환경에서도 코어 울트라 시리즈 3의 AI 성능과 전력 효율을 그대로 활용할 수 있다는 것이다. 인텔은 코어 울트라 시리즈 3가 환경을 실시간으로 인지해야 하는 로보틱스나 품질 관리용 비전 언어 모델(VLM) 구동에 적합하다는 점을 내세운다. 뉴먼 총괄은 “경쟁사의 AI 가속기 설루션과 비교해 LLM 지연 시간(latency) 성능을 2배가량 높였으며, 영상 분석 애플리케이션에서 총소유비용(TCO)을 2배 이상 개선했다”면서, “외장 그래픽 카드 없이도 내장된 GPU와 NPU만으로 환경을 인지하고 기계를 정밀하게 제어할 수 있다”고 소개했다.     국내 AI 생태계 전략 및 비즈니스 비전 소개 최근 메모리 가격이 오르면서 PC 가격에 대한 부담이 커지고 있다. 인텔은 이런 우려에 대응하고 소비자의 다양한 세그먼트별 수요를 충족하기 위해, 시리즈 3 단일 아키텍처 기반의 폭넓은 제품 포트폴리오를 제공한다는 계획을 소개했다. 조쉬 총괄은 “이전 세대가 프리미엄 및 게이밍에 집중했다면, 시리즈 3은 다변화된 가격대와 지역별 요구사항을 모두 포괄할 수 있도록 설계해서 파트너사이 각자의 시스템 가격 목표에 맞춰 시장에 정밀하게 대응할 수 있도록 지원할 것”이라고 밝혔다. 인텔은 자사의 AI 기술력을 PC 디바이스에 한정짓지 않고 스마트 공장, 첨단 헬스케어 등 에지 AI 시장으로 확장하고 있다. 이 부분에서도 국내 파트너와의 협업을 추진 중인데, 대표적으로 스마트 공장 및 비전 인식 AI 분야에서는 LG이노텍과, 실시간 영상 진단 등 디지털 헬스케어 분야에서는 삼성메디슨과 협력하면서 에지 영역의 AI 컴퓨팅 생태계를 구축하고 있다. 인텔은 한국 시장을 AI PC 및 AI 반도체 생태계의 전략적 핵심 기지로 삼고 있다고 전했다. 인텔코리아의 배태원 사장은 “우리나라는 전 세계에서 새로운 기술을 가장 빠르게 수용하는 역동적인 시장으로, 인텔 코어 울트라 시리즈 3의 글로벌 첫 출시 국가 중 하나로 선정되었다. 실제로 2025년 기준 국내 주요 리테일 채널에서 판매된 인텔 칩 기반 AI PC 비중이 이미 40%를 넘어설 만큼 높은 수요를 보이고 있다”고 설명했다. 또한 삼성전자, LG전자 등 국내 주요 파트너와 협력해 폭넓은 AI PC 라인업을 제공하고, 생태계를 한 차원 더 도약시키겠다는 전략을 밝혔다. 최근 AI 반도체 트렌드에서 CPU, GPU뿐만 아니라 메모리의 중요성도 부각되고 있다. 인텔은 세계적인 메모리 선도 기업인 삼성전자와 SK하이닉스를 포함한 국내 AI 관련 생태계의 핵심 기업들과 협력을 지속하면서 AI 반도체 리더십을 탄탄히 다지겠다는 계획이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-03-05
마이크로소프트, 차세대 AI 추론 가속기 ‘마이아 200’ 공개
마이크로소프트가 대규모 AI 토큰 생성의 경제성을 개선하기 위해 설계된 추론 가속기 ‘마이아 200(Maia 200)’을 공개했다. 마이아 200은 마이크로소프트 애저(Azure) 환경에서 AI 모델을 더욱 빠르고 경제적으로 구동할 수 있도록 지원하며 차세대 AI 인프라의 핵심 역할을 수행할 예정이다. 마이아 200은 TSMC의 3나노미터(nm) 공정을 기반으로 고성능 AI 추론에 최적화된 구조를 갖췄다. 특히 초당 7TB 대역폭의 216GB HBM3e 메모리 시스템과 네이티브 FP8/FP4 텐서 코어, 그리고 데이터 이동 엔진을 유기적으로 결합해 거대 모델에 최적화된 추론 성능을 제공하는 것이 특징이다. 마이아 200은 1400억 개 이상의 트랜지스터를 탑재해 대규모 AI 워크로드에 특화된 설계를 갖췄다. 750W SoC TDP(설계 전력) 범위 내에서 각 칩은 FP4 기준 10 PFLOPS 초과, FP8 기준 5 PFLOPS 초과 성능을 제공한다. 이러한 연산 성능은 대규모 모델 구동을 원활히 지원하며, 향후 등장할 차세대 모델까지 대응 가능한 수준의 성능 여유를 확보한다. 또한 데이터 공급 병목 현상 해결을 위해 메모리 하위 시스템을 전면 재설계해 토큰 처리량을 최적화했다.     이러한 성능은 대규모 클러스터 환경에서도 일관되게 구현된다. 마이크로소프트는 표준 이더넷 기반의 새로운 2계층 스케일업 네트워크를 도입했으며, 맞춤형 전송 계층과 통합 NIC를 통해 독점적인 패브릭 없이도 성능과 신뢰성, 비용 이점을 확보했다. 각 가속기는 초당 2.8TB의 양방향 전용 스케일업 대역폭을 지원하며, 이는 최대 6144개의 가속기를 연결하는 대규모 클러스터 전체에서 일관된 성능을 유지하고 애저 인프라의 전력 소모와 전체 소유 비용(TCO)을 절감하는 기반이 된다. 시스템 효율은 개별 단위인 트레이와 랙 수준의 정밀한 연결 구조를 통해 구현된다. 하나의 트레이 내부에 탑재된 4개의 가속기를 직접 연결해 내부 통신 효율을 높였으며, 동일한 통신 프로토콜을 사용해 랙 단위까지 원활하게 확장할 수 있도록 설계했다. 이러한 통합 네트워킹 환경은 프로그래밍을 단순화하고 워크로드의 유연성을 높여 시스템 운영 효율을 강화한다. 마이크로소프트는 “실제 연산 성능에서 마이아 200은 4비트 정밀도(FP4) 기준 3세대 아마존 트레이니움(Amazon Trainium) 대비 3배 높은 처리량을 기록했으며, 8비트 정밀도(FP8)에서도 구글의 7세대 TPU를 상회한다”고 소개했다. 마이크로소프트는 이러한 기술력을 바탕으로 자사 인벤토리 내 최신 하드웨어 대비 달러당 성능을 30% 개선하며 효율적인 추론 시스템을 구축했다. 마이크로소프트의 이기종AI 인프라에서 핵심 역할을 수행할 마이아 200은 오픈AI의 최신 GPT-5.2 모델을 비롯한 다양한 모델을 지원한다. 이로써 마이크로소프트 파운드리(Microsoft Foundry)와 마이크로소프트 365 코파일럿(Microsoft 365 Copilot)의 가격 대비 성능 효율을 제공한다. 마이크로소프트 슈퍼인텔리전스 팀은 차세대 사내 모델 개선을 위한 합성 데이터 생성 및 강화 학습에 마이아 200을 투입할 계획이다. 이 칩은 고품질 도메인 특정 데이터의 생성 및 필터링 속도를 가속화해 후속 학습에 정교한 신호를 공급하는 중추 역할을 맡게 된다. 마이아 200은 아이오와주 디모인(Des Moines) 인근 미국 중부(US Central) 데이터 센터 지역을 시작으로 배포가 진행된다. 향후 애리조나주 피닉스(Phoenix) 인근 US West 3 지역 등으로 확대될 예정이다. 마이크로소프트 실리콘 개발 프로그램은 칩 출시 전 시스템 전반을 검증하는 엔드 투 엔드 방식을 원칙으로 한다. 설계 초기부터 LLM의 연산 및 통신 패턴을 모델링하는 프리 실리콘 환경을 구축해, 실제 칩 제작 전 이미 실리콘과 네트워킹, 시스템 소프트웨어를 하나의 체계로 최적화했다. 데이터센터 투입 준비도 설계 단계부터 병행했다. 백엔드 네트워크와 2세대 액체 냉각 시스템 등 복잡한 요소를 조기 검증하고 애저 제어 플레인)과 네이티브로 통합했다. 그 결과 마이아 200은 첫 부품 입고 수일 만에 실제 모델 구동에 성공했으며, 칩 입고부터 데이터 센터 배치까지의 기간을 기존 대비 절반 이하로 단축했다. 칩부터 소프트웨어, 데이터 센터를 아우르는 엔드투엔드 방식은 자원 활용률을 높이고 클라우드 규모에서의 비용 및 전력 효율을 지속적으로 개선한다. 마이크로소프트는 대규모 AI 시대가 본격화됨에 따라 인프라가 기술적 가능성을 결정짓는 핵심 요소가 될 것으로 내다보고 있다. 마이아 가속기 프로그램은 다세대 로드맵을 기반으로 설계됐으며, 향후 지속적인 혁신을 통해 새로운 벤치마크를 제시하고 핵심 AI 워크로드에 최적화된 성능과 효율을 제공할 예정이다.
작성일 : 2026-01-27
HPE, “세계에서 가장 빠른 슈퍼컴 상위 3개에 엑사스케일 시스템 공급”
HPE는 최근 발표된 TOP500 슈퍼컴퓨터 리스트에서 전 세계에서 가장 빠른 엑사스케일 슈퍼컴퓨터 3대가 자사가 구축한 시스템으로 선정되었다고 소개하면서, “AI 시대에 최적화된 고성능컴퓨팅(HPC) 시스템을 제공하는 글로벌 리더십을 다시 한번 입증했다”고 전했다. 또한 HPE는 에너지 효율적인 슈퍼컴퓨터를 꼽는 Green500 리스트에서 상위 20대 슈퍼컴퓨터 가운데 10대에 자사의 직접 수냉 방식(DLC) 기술이 적용된 시스템이 선정되면서, 업계 최고 수준의 전력 효율성을 증명했다고 덧붙였다. HPE가 구축한 시스템은 매년 6월과 11월 2회 발표되는 TOP500 리스트에서 세계 최고속 슈퍼컴퓨터로 8회 연속 선정되었다. 특히 이번 발표에서는 HPE가 구축한 엑사스케일 슈퍼컴퓨터가 상위 3개 순위를 세 번째로 모두 차지했다. 이번 TOP500 리스트에서 HPE가 구축한 상위 10대 슈퍼컴퓨터는 총 6대이다. 1위인 엘 캐피탄(El Capitan)은 미국 로렌스 리버모어 국립연구소(LLNL)를 위해 구축된 HPE 크레이 슈퍼컴퓨팅 EX(HPE Cray Supercomputing EX) 기반 슈퍼컴퓨터이다. 이번에 1.809 엑사플롭스라는 기록을 달성했다. 엘 캐피탄은 과학 계산 효율을 측정하는 HPCG와 HPC·AI 혼합 정밀 성능을 평가하는 HPL-MxP에서도 1위를 차지했고, 에너지 효율성에서도 Green500 리스트 23위에 올랐다. AMD 인스팅트(Instinct) MI300A APU 기반의 이 시스템은 지구과학, 물리학, 재료과학, 분자생물학 등 다양한 분야의 핵심 연구를 가능하게 한다.     2위인 프론티어(Frontier)는 오크리지 국립연구소(ORNL)를 위해 구축된 시스템으로, AMD 인스팅트 MI250 GPU와 AMD 에픽(EPYC) CPU를 기반으로 한다. 현재도 1.353 엑사플롭스의 성능을 제공하며 양자물리, 재생에너지, 정밀공학 분야의 연구 발전을 돕고 있다. 3위인 오로라(Aurora)는 인텔과 공동 개발해 아르곤 국립연구소(Argonne)에 구축된 슈퍼컴퓨터로, 1.021 엑사플롭스의 성능을 제공한다. 또한 AI와 데이터 기반 연구에 중요한 혼합정밀 계산 성능을 측정하는 HPL-MxP에서 11.6 엑사플롭스를 기록하며 2위에 올랐다. 이외에도 에너지 기술 기업 중 하나인 에니(Eni)를 위해 개발된 HPC6(6위), 스위스 국립 슈퍼컴퓨팅 센터(CSCS)를 위해 구축된 알프스(Alps, 8위), 유로HPC 공동체(EuroHPC JU)를 위해 제작된 루미(LUMI, 9위) 등이 상위 10위에 이름을 올렸다. HPE는 세계 최고속 슈퍼컴퓨터 다수를 제공하는 성과와 더불어, 크레이가 50년에 걸쳐 축적해 온 DLC 기반 에너지 효율성 혁신을 계승하며 지속가능한 슈퍼컴퓨팅 분야에서도 리더십을 이어가고 있다고 전했다. HPE의 최신 시스템은 100% 팬리스 직접 수냉 방식(DLC) 아키텍처를 적용해 업계 최고 수준의 에너지 효율을 제공한다. 이번 Green500 리스트에서 상위 20대 중 10대가 HPE가 구축·제공한 시스템으로 확인되었는데, 이 가운데 삼성전자의 SSC-24 에너지 모듈(SSC-24 Energy Module)이 7위를 기록했다. 지난 1년 동안 HPE는 고객에게 턴키 방식으로 구현할 수 있는 서비스를 기반으로 새로운 AI 및 HPC 시스템을 구축 및 제공해왔다. 그 결과 최근 6개월 사이, 캐나다 텔루스(TELUS) 소버린 AI 팩토리와 중앙아시아 아렘.클라우드(Alem.Cloud) 소버린 AI가 TOP500과 Green500 리스트에 새롭게 이름을 올렸다. 또한 HPE의 최근 구축 성과로는 디스커버리(Discovery)와 럭스(Lux), 미션 (Mission) 과 비전 (Vision), 자누스(Janus), 그리고 하이브리드 양자-고전 컴퓨팅 발전이 기대되는, 양자 오류 수정에 초점을 맞춘 새 시스템 등이 있다. HPE는 새로운 포트폴리오 공개와 광범위한 산업 파급력을 지닌 오픈소스 업데이트를 통해 향후 AI 및 HPC의 미래를 주도해 나가고 있다고 소개했다. 슈퍼컴퓨팅 리더십 확장을 위해, HPE는 재설계된 아키텍처, 스토리지, 컴퓨트 및 가속기 블레이드, 네트워킹, 소프트웨어, 직접 수냉 방식 (DLC) 등 엔드투엔드 설루션 및 2세대 엑사스케일 슈퍼컴퓨터를 공개했다. 아울러 HPE는 채플(Chapel) 프로젝트가 새로운 오픈소스 소프트웨어 재단에 합류함에 따라 AI 및 HPC 산업 전반의 혁신을 가속화할 오픈소스 기술 발전에도 지속적으로 기여하고 있다고 전했다.
작성일 : 2025-11-20
델, 엔터프라이즈 AI 혁신을 위한 하드웨어 및 서비스 포트폴리오 업데이트
델 테크놀로지스가 엔터프라이즈 AI 여정을 간소화하고 가속하도록 돕는 ‘델 AI 팩토리(Dell AI Factory)’의 제품 라인업을 강화했다. 델은 확장된 포트폴리오를 통해 AI 워크로드의 병목 현상을 제거해 성능 및 자동화 기능을 강화하는 한편, 기업이나 기관이 보다 탄력적이고 통합된 환경의 온프레미스 인프라를 갖추고 강력한 제어 권한을 가질 수 있게끔 돕는다는 계획이다. 이에 따라 ‘델 오토메이션 플랫폼(Dell Automation Platform)’이 ‘델 AI 팩토리’로 지원을 확장하여, 보안 프레임워크를 통해 검증되고 최적화된 설루션을 배포함으로써 보다 스마트하고 자동화된 경험을 제공한다. ‘델 오토메이션 플랫폼’의 업데이트를 통해 탭나인(Tabnine)의 AI 코드 어시스턴트 및 코히어 노스(Cohere North)의 에이전틱 AI 플랫폼 등의 소프트웨어 기반 도구가 자동화되었다. 이는 AI 워크로드를 더 빠르게 운영 환경에 적용하고 운영을 간소화하며 확장성을 강화한다. 델 프로페셔널 서비스(Dell Professional Services)는 실제 고객 데이터를 활용한 턴키 방식의 대화형 AI 사용 사례 파일럿을 제공하여, 본격적인 프로젝트 착수에 앞서 비즈니스 가치를 검증한다. 전문가 주도의 파일럿으로서 명확한 KPI(핵심 성과 지표)가 제공되는 핸즈온 프리뷰를 통해 실질적인 ROI(투자 대비 수익)를 실현하게끔 방향을 제시한다. 데이터 관리를 강화하는 ‘델 AI 데이터 플랫폼(Dell AI Data Platform)’의 스토리지 엔진인 델 파워스케일(Dell PowerScale)과 델 오브젝트스케일(Dell ObjectScale)은 성능, 확장성 및 데이터 탐색 기능이 향상됐다. 델 파워스케일은 델 파워엣지 R7725xd와 같이 관련 요건이 갖춰진 델 서버 상에서 설치할 수 있는 소프트웨어 라이선스로 형태로 제공될 예정이다. 이러한 새로운 구성은 클라우드 서비스 제공업체가 인프라 요구를 충족하기 위해 최신 서버 및 네트워킹 기술을 유연하게 채택해 더 뛰어난 AI 성능을 실현하도록 확장성과 선택의 폭을 넓혔다. 그리고, 델 파워스케일 병렬 NFS(pNFS) 지원과 플렉서블 파일 레이아웃(Flexible File Layout)을 통해 메타데이터 서버와 클라이언트 간 양방향 통신이 가능해져 파워스케일 클러스터 내 여러 노드에 걸쳐 데이터를 더 효율적으로 병렬 분배할 수 있다. 이번 업데이트는 병렬 처리 능력을 강화하여 까다로운 AI 워크플로에 맞춤화된 대규모 확장성과 처리량을 제공하도록 고안됐다. 델은 오브젝트스케일 AI 맞춤형 검색(Dell ObjectScale AI-Optimized Search) 기능으로 두 가지 상호 보완적인 AI 최적화 검색 기능인 S3 테이블(S3 Tables)과 S3 벡터(S3 Vector)를 제공한다. 이 두 가지 특수 API는 오브젝트스케일에 직접 저장된 복잡한 데이터에 대한 고속 액세스를 제공하여 분석 및 추론, 검색 강화 생성(RAG)과 같은 주요 AI 워크로드를 지원한다. 대규모 데이터 세트를 보다 용이하게 저장, 검색하고, 더 빠르게 의사 결정할 수 있다.     델 파워엣지(Dell PowerEdge) 서버는 엔터프라이즈 AI의 초석으로서 더 빠른 훈련, 분산 추론을 실현하는 한편 다양한 프로세서와 냉각 방식을 제공한다. AI를 위한 파워엣지 서버 포트폴리오에 추가된 모델은 XE9785, XE9785L, R770AP 등이다. 10U 폼팩터의 공랭식 델 파워엣지 XE9785 서버와 3OU 폼팩터의 DLC(다이렉트 리퀴드 쿨링) 방식 델 파워엣지 XE9785L 서버는 듀얼 소켓 AMD 에픽(EPYC) 프로세서와 노드당 8개의 AMD 인스팅트(Instinct) MI355X GPU가 탑재된다. AMD 펜산도 폴라라(Pensando Pollara) 400 AI NIC(네트워크 인터페이스 카드) 및 델 파워스위치(Dell PowerSwitch) AI 패브릭과 결합하여 확장 가능한 컴퓨팅 성능과 운영 비용 절감을 실현할 수 있다.  새롭게 공개된 델 파워엣지 R770AP는 향상된 병렬 처리, 메모리 지연 시간 단축 및 풍부한 PCIe 레인을 제공하여 가속화된 트레이딩 알고리즘, 확장 가능한 메모리 구성 및 개선된 네트워크 성능을 제공한다. 공랭식의 이 모델은 인텔 제온(Intel Xeon) 6 P-코어 6900 시리즈 프로세서를 탑재해, 높은 CPU 코어 개수와 대용량 캐시 및 CXL 메모리 확장 지원을 특징으로 한다.  AI를 위한 네트워킹 고도화를 위해 델은 오픈 네트워킹을 발전시키고, AI 패브릭 구축을 가속화하여 급증하는 네트워킹 수요에 맞춘 확장성을 지원한다. 델 파워스위치(Dell PowerSwitch) Z9964F-ON 및 Z9964FL-ON은 브로드컴 토마호크6(Broadcom Tomahawk-6) 기반으로, 여러가지 전송 속도 설정이 가능하며 초당 102.4테라바이트의 스위칭 용량을 제공한다. AI 워크로드와 HPC 데이터센터를 가속화하며, 10만 개 이상의 가속기 칩을 지원하는 공랭식 및 다이렉트 리퀴드 쿨링(DLC) 방식의 대규모 구축이 가능하다. 델 테크놀로지스가 지원하는 엔터프라이즈 소닉 배포판(Enterprise SONiC Distribution by Dell Technologies)과 소닉을 위한 스마트패브릭 매니저(SmartFabric Manager for SONiC)를 결합하면 획기적인 네트워킹 기능을 보다 쉽게 구현하고, 대규모 AI 패브릭을 가속화하는 동시에 구축, 라이프사이클 관리 및 모니터링을 간소화하고 자동화할 수 있다. ‘델 AI 팩토리’에 통합된 스마트패브릭 매니저는 자동화된 블루프린트를 통해 AI 인프라 구축을 간소화하고 더 빠르고 오류 없는 설정을 가능하게 한다, 델 파워스케일 스토리지 설루션에 대한 새로운 자동 적용을 포함하여 최소한의 수동 개입으로 구축 시간을 단축한다. 또한 오픈매니지 엔터프라즈(OpenManage Enterprise)와의 랙 스케일 통합을 통해 GPU 인프라 전반에 걸친 포괄적인 종단 간 가시성을 제공함으로써 보다 빠르게 문제를 해결할 수 있도록 돕는다. 한편, 델은 AI PC를 위한 에코시스템을 확장한다고 소개했다. AMD 라이젠(Ryzen) AI 프로세서를 포함해 실리콘 지원을 넓혔다. 간소화된 워크플로 및 성능 최적화와 더불어 호환성을 향상시킴으로써 온디바이스 AI 애플리케이션을 보다 효율적으로 생성할 수 있도록 지원한다. 탄력적인 통합 인프라를 위한 제어 측면 또한 강화됐다. 델의 ‘통합 랙 스케일러블 시스템(Dell Integrated Rack Scalable Systems, IRSS)’ 프로그램에 새롭게 추가된 기능과 설루션은 다음과 같다. ‘오픈매니지 엔터프라이즈(OpenManage Enterprise : OME)’로 개별 서버 및 랙 규모 환경을 통합 관리할 수 있다. OME는 컴퓨팅, 전력 및 냉각 관리를 단일 콘솔로 통합하여 최대 2만 5000대의 디바이스를 자동화하며, 내장된 누수 모니터링 및 자동 대응 기능을 통해 가동 시간을 극대화한다. 통합 랙 컨트롤러(Integrated Rack Controller : IRC)는 하드웨어와 소프트웨어가 결합된 설루션으로 OME 및 iDRAC(델 통합 원격 액세스 컨트롤러)와 원활하게 연동된다. 랙 내부의 누수가 생길 경우, 신속하고 자동적으로 누수 감지 및 대응이 가능해져 가동 중단 시간과 위험을 최소화한다. 델 파워쿨 랙 장착형 냉각수 분배 장치(PowerCool Rack-mount Coolant Distribution Unit. 이하 RCDU)는 고성능의 컴팩트한 4U 액체 냉각 설루션으로, 에너지 효율적인 AI 구축을 위해 최대 150kW의 랙 밀도를 지원한다. 19인치 델 IR5000 랙 및 OCP 표준 기반 21인치 델 IR7000 랙과 호환되며, 중앙 집중식 냉각 생태계 관리를 위해 OME에 연결된다. 델 프로서포트(Dell ProSupport)를 통해 예방적 유지보수를 제공하고 최상의 성능과 안정적인 시스템 지원을 보장한다. 델은 ‘엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)’ 포트폴리오를 강화함으로써 기업이 더 빠르게 성과를 창출하고 복잡성을 줄이는 한편 투자 수익을 극대화하도록 지원에 나선다고 전했다.  델 AI 데이터 플랫폼의 비정형 데이터용 스토리지 엔진인 델 파워스케일 및 오브젝트스케일이 엔비디아 다이나모(NVIDIA Dynamo)의 일부인 엔비디아 NIXL 라이브러리와 통합된다. 이를 통해 확장 가능한 KV 캐시 오프로딩이 가능해져, 131K 토큰의 전체 컨텍스트 윈도우에서 1초의 첫 토큰 처리 시간(TTFT)을 달성한다. 이는 표준 vLLM보다 19배 빠른 속도이며, 인프라 비용을 절감하고 GPU 메모리 용량 병목 현상을 해소한다. ‘엔비디아 기반 델 AI 팩토리’ 포트폴리오에 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU 및 엔비디아 호퍼(Hopper) GPU를 탑재한 델 파워엣지 XE7740 및 XE7745 모델이 추가됐다. 대규모 멀티 모달 모델부터 새로운 에이전틱 AI 애플리케이션과 더불어 엔터프라이즈급 추론부터 훈련 워크로드에 이르기까지 다양한 사용 사례를 실행할 수 있다. 데이터센터 설루션 외에도 AI PC 생태계 지원을 확대해 폭넓은 실리콘 옵션을 제공한다. 엔비디아 RTX 블랙웰 GPU(NVIDIA RTX Blackwell GPU)와 엔비디아 RTX 에이다 GPU(NVIDIA RTX Ada GPU)를 지원해 델 제품과의 호환성을 넓혔다. 델과 엔비디아는 AI 에코시스템을 확대하기 위해 ‘엔비디아 기반 델 AI 팩토리’를 위한 레드햇 오프시프트(Red Hat OpenShift) 검증 제품을 추가했다. 델 파워엣지 R760xa에 더해 엔비디아 H100 및 H200 텐서 코어 GPU를 탑재한 델 파워엣지 XE9680에 대한 지원이 추가되어, 대규모 AI 도입 가속화를 필요로 하는 기업 및 기관에 폭넓은 선택지를 제공한다.
작성일 : 2025-11-18
레드햇, ‘레드햇 엔터프라이즈 리눅스’ 기반 AI 가속기 지원 강화
레드햇이 레드햇 엔터프라이즈 리눅스(RHEL) 고객이 AMD, 인텔, 엔비디아의 주요 AI 가속기를 보다 쉽게 설치하고 활용할 수 있도록 간소화된 경험을 제공한다고 발표했다. RHEL은 이번 업데이트를 통해 AI 워크로드를 지원하는 강력한 운영체제(OS)를 제공하게 된다. 이는 조직의 IT 팀이 상호 운용성을 검증 받은 핵심 하드웨어 및 소프트웨어 기능을 활용할 수 있게 함으로써 병목 현상을 줄이고 AI/ML 라이프사이클을 가속화한다. RHEL은 레드햇의 광범위한 오픈 하이브리드 클라우드, 자동화 및 AI 설루션 포트폴리오의 신뢰할 수 있는 기반 역할을 하며 수백 개의 클라우드와 수천 개의 하드웨어 및 소프트웨어 벤더로부터 인증을 받았다. 역동적 AI 환경에서 RHEL은 기업이 빠른 개발을 달성하고 증가하는 수요를 충족하는 데 필요한 유연성과 확장성을 제공한다. 그러나 AI 가속기를 구동하기 위해 필요한 드라이버 업데이트를 설치하고 사용하는 과정은 프로덕션 환경에서 예기치 않은 다운타임을 초래하여 장시간의 문제 해결 사이클과 수익 손실로 이어질 수 있다. 레드햇은 AMD, 인텔, 엔비디아의 AI 가속기를 위한 최신 드라이버와 사용자 공간 구성 요소에 레드햇 저장소(repository)를 통해 직접 접근할 수 있도록 함으로써 이러한 문제를 해결하고 있다. 이를 통해 기업은 레드햇 파트너사가 RHEL과의 원활한 호환성을 검증한 드라이버를 신뢰하고 사용할 수 있으며, 이를 빠르게 설치해 AI 모델과 애플리케이션을 보다 신속하게 프로덕션 환경에 적용할 수 있다. 레드햇 엔터프라이즈 리눅스 익스텐션 리포지토리(Red Hat Enterprise Linux Extensions Repository), 레드햇 엔터프라이즈 리눅스 서플리멘터리 리포지토리(Red Hat Enterprise Linux Supplementary Repository) 및 베이스OS(BaseOS)에서 제공되는 드라이버 및 소프트웨어 개발 툴킷(toolkit)은 ▲AMD GPU 커널 모드(kernel mode) 드라이버 및 AMD ROCm ▲인텔 NPU 커널 모드 드라이버 ▲엔비디아 GPU OpenRM 커널 모드 드라이버 ▲엔비디아 쿠다(CUDA) 툴킷 등이다.
작성일 : 2025-11-13
IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 정식 출시
IBM은 자사의 메인프레임 시스템 IBM z17 및 IBM 리눅스원 5(IBM LinuxONE 5)에 적용 가능한 인공지능(AI) 가속기 ‘스파이어 엑셀러레이터(Spyre Accelerator)’를 정식 출시한다고 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며, 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계되었다. 12월 초부터는 파워11(Power11) 서버용 제품도 제공될 예정이다. 오늘날 IT 환경은 기존의 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 전환되고 있으며, AI 에이전트는 저지연(low-latency) 추론과 실시간 시스템 반응성을 요구한다. 기업은 처리량의 저하없이 가장 까다로운 엔터프라이즈 업무와 AI 모델을 동시에 처리할 수 있는 메인프레임과 서버 인프라를 필요로 한다. IBM은 이러한 수요에 대응하기 위해서 생성형 및 에이전트 기반 AI를 지원하면서도 핵심 데이터, 거래, 애플리케이션의 보안과 복원력을 유지할 수 있는 AI 추론 전용 하드웨어가 필수적이라고 판단했다. 스파이어 엑셀러레이터는 기업이 중요한 데이터를 사내 시스템(온프레미스, on-premise) 내에서 안전하게 관리할 수 있도록 설계되었으며, 운영 효율성과 에너지 절감 효과도 함께 제공한다.     스파이어 엑셀러레이터는 IBM 리서치 AI 하드웨어 센터의 혁신 기술과 IBM 인프라 사업부의 개발 역량이 결합된 결과물이다. 시제품으로 개발된 이후 IBM 요크타운 하이츠 연구소의 클러스터 구축과 올버니대학교 산하 ‘신흥 인공지능 시스템 센터(Center for Emerging Artificial Intelligence Systems)’와의 협업을 통해 빠른 반복 개발 과정을 거쳐 완성도를 높였다. 이렇게 기술적 완성도를 높여 온 시제품 칩은 현재는 IBM Z, 리눅스원, 파워 시스템에 적용 가능한 기업용 제품으로 진화했다. 현재 스파이어 엑셀러레이터는 32개의 개별 가속 코어와 256억 개의 트랜지스터를 탑재한 상용 시스템온칩(SoC, system-on-a-chip) 형태로 완성되었다. 5나노미터 공정 기술을 기반으로 제작된 각 제품은 75와트(Watt) PCIe 카드에 장착되며, IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. IBM 고객들은 스파이어 엑셀러레이터를 통해 빠르고 안전한 처리 성능과 사내 시스템 기반의 AI 가속 기능을 활용할 수 있다. 이는 기업이 IBM Z, 리눅스원, 파워 시스템 상에서 데이터를 안전하게 유지하면서도 AI를 대규모로 적용할 수 있게 되었음을 의미한다. 특히, IBM Z 및 리눅스원 시스템에서는 텔럼 II(Telum II) 프로세서와 함께 사용되어 보안성, 저지연성, 높은 거래 처리 성능을 제공한다. 이를 통해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에 다중 AI 모델을 적용할 수 있다. IBM 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 기업 업무 흐름에 맞춘 종합적인 AI 활용이 가능하다. 고객은 해당 서비스를 한 번의 클릭으로 설치할 수 있으며, 온칩 가속기(MMA)와 결합된 파워용 스파이어 엑셀러레이터는 생성형 AI를 위한 데이터 변환을 가속화해 심층적인 프로세스 통합을 위한 높은 처리량을 제공한다. 또한 128개 토큰 길이의 프롬프트 입력을 지원하며, 이를 통해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. 이러한 성능은 IBM의 소프트웨어 스택, 보안성, 확장성, 에너지 효율성과 결합되어, 기업이 생성형 AI 프레임워크를 기존 업무에 통합해 나가는 여정을 효과적으로 지원한다. IBM 인프라 사업부 최고운영책임자(COO)이자 시스템즈 사업부 총괄 배리 베이커(Barry Baker) 사장은 “스파이어 엑셀러레이터를 통해 IBM 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다. 이 기술 혁신은 고객이 AI 기반 핵심 업무를 보안성과 복원력, 효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다”고 말했다. IBM 반도체 및 하이브리드 클라우드 부문 무케시 카레(Mukesh Khare) 부사장은 “IBM은 2019년 AI 리서치 하드웨어 센터를 설립해, 생성형 AI와 대규모 언어 모델(LLM)이 본격적으로 확산되기 이전부터 AI의 연산 수요 증가에 대응해 왔다. 최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데, 해당 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다”면서, “이번 스파이어 칩의 정식 출시로 IBM 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 되었다”고 설명했다.
작성일 : 2025-10-28
알테어, GPU·AI·양자컴퓨팅 지원하는 ‘HPC웍스 2026’ 출시
  알테어가 고성능 컴퓨팅(HPC) 및 클라우드 플랫폼 ‘알테어 HPC웍스(Altair HPCWorks) 2026’을 발표했다. 이번 업데이트는 그래픽처리장치(GPU) 통합 및 활용도 강화, 인공지능(AI)·머신러닝 지원 확대, 고도화된 리포팅 기능을 통해 HPC 환경의 가시성과 효율성을 향상시켰다. 최신 버전은 AI 워크로드를 중심으로 설계돼 GPU와의 통합성을 강화했다. 업데이트된 쿠버네티스 커넥터 및 주피터 노트북 연동 기능을 통해 AI 및 머신러닝 모델 학습 환경을 효율적으로 지원하며, 엔비디아, AMD, 인텔 GPU 가속기를 폭넓게 지원한다. IT 관리자는 향상된 GPU 탐색 및 리포팅 기능을 통해 GPU 리소스를 손쉽게 통합하고 최적화할 수 있다. AI 기반 자동화 기능도 대폭 강화됐다. HPC웍스 2026은 AI 기반 메모리 자원 예측 기능을 통해 작업 제출 및 자원 활용을 최적화하고, 지능형 스케줄링 및 메모리 선택 기능으로 HPC 워크로드의 효율성을 극대화한다. 사용자는 복잡한 정보기술(IT) 지식 없이도 빠르게 결과를 얻을 수 있다. 양자 컴퓨팅 지원도 강화됐다. 새로 출시된 버전은 전통적인 방식의 HPC와 양자 컴퓨팅을 결합한 하이브리드 워크플로를 효율적으로 실행할 수 있도록 지원한다. 이를 통해 신용카드 사기 거래 탐지와 같이 복잡하고 동적인 패턴을 분석하는 작업에 활용할 수 있다. 알테어 HPC웍스 2026은 자사 AI 플랫폼인 알테어 래피드마이너와의 연계를 통해 맞춤형 AI 모델 학습과 워크로드 자동화를 지원한다. 또한 리포트·대시보드 확장, 윈도우 전용 데스크톱 클라이언트 제공, 스트리밍 API 등으로 IT 운영 효율을 강화했다. 알테어의 샘 마할링엄 최고기술책임자(CTO)는 “기술 환경이 빠르게 진화함에 따라 알테어는 AI, 머신러닝, 데이터 분석, EDA(전자설계자동화), 양자 컴퓨팅 등 최신 워크로드를 완벽히 지원하도록 설루션을 발전시키고 있다”면서, “지멘스의 일원으로서 향후 이러한 기술력을 더욱 가속화할 예정”이라고 말했다.
작성일 : 2025-10-23
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
인텔, 추론 최적화 데이터센터용 GPU 신제품 발표
인텔은 2025 OCP 글로벌 서밋에서, 자사 AI 가속기 포트폴리오에 추가되는 주요 제품인 인텔 데이터센터용 GPU 신제품 코드명 ‘크레센트 아일랜드(Crescent Island)’를 발표했다. 이 GPU는 증가하는 AI 추론 워크로드 수요를 충족하도록 설계되었으며, 고용량 메모리·에너지 효율적인 성능을 제공한다. 추론이 주요한 AI(인공지능) 워크로드로 자리잡으며, 강력한 칩 이상의 요소, 즉 시스템 차원의 혁신이 성공을 가늠하는 주요 요소가 되었다. 하드웨어부터 오케스트레이션까지, 추론은 다양한 컴퓨팅 유형을 개발자 중심의 개방형 소프트웨어 스택과 통합하는 워크로드 중심의 개방형 접근 방식을 필요로 하며, 이러한 접근 방식은 배포 및 확장이 용이한 시스템으로 제공된다. 인텔은 “인텔 제온 6 프로세서, 인텔 GPU를 기반으로 구축한 설루션을 통해 AI PC부터 데이터 센터, 산업용 에지까지 엔드 투 엔드 설루션을 제공할 수 있는 입지를 갖추고 있다”면서, “성능, 에너지 효율성, 개발자 연속성을 위한 시스템 공동 설계 및 OCP(Open Compute Project)와 같은 커뮤니티와의 협력을 통해 AI 추론이 가장 필요한 모든 곳에서 실행될 수 있도록 지원하고 있다”고 전했다. 코드명 크레센트 아일랜드로 명명된 새로운 데이터센터 GPU는 공랭식 엔터프라이즈 서버에 맞춰 전력 및 비용 최적화를 이루었으며, 추론용 워크플로에 최적화된 대용량 메모리 및 대역폭을 제공하도록 설계되었다. 와트당 성능(PPW)이 최적화된 Xe3P 마이크로아키텍처에 기반을 둔 크레센트 아일랜드 GPU는 160GB의 LPDDR5X 메모리를 탑재했다. 또한 ‘서비스형 토큰(Token-as-a-Service)’ 공급업체 및 추론 사용 사례에 적합한 광범위한 데이터 유형을 지원한다. 인텔의 이기종 AI 시스템을 위한 개방형 통합 소프트웨어 스택은 조기 최적화 및 이터레이션(iteration) 작업이 가능하도록 현재 아크 프로 B(Arc Pro B) 시리즈 GPU에서 개발 및 테스트 중이다. 새로운 데이터센터용 GPU의 고객 샘플링은 2026년 하반기에 제공될 예정이다. 인텔의 사친 카티(Sachin Katti) 최고기술책임자(CTO)는 “인공지능은 정적 학습에서 에이전트형 AI가 주도하는 실시간·전역 추론으로 전환되고 있다”면서, “이러한 복잡한 워크로드를 확장하려면 적절한 실리콘을 적절한 작업에 매칭하는 이종 시스템이 필요하다. 인텔의 Xe 아키텍처 데이터센터 GPU는 토큰 처리량이 급증함에 따라 고객이 필요로 하는 효율적인 헤드룸 성능과 더 큰 가치를 제공할 것”이라고 밝혔다. 
작성일 : 2025-10-15