• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "패브릭"에 대한 통합 검색 내용이 232개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HPE, 에릭슨과 협력해 듀얼모드 5G 코어 설루션 검증
HPE는 에릭슨과 협력해 통신 서비스 사업자가 멀티벤더 인프라 스택을 구축하는 과정에서 직면하는 핵심 과제를 해결하기 위한 공동 검증 랩 설립을 발표했다. 이번 협력은 클라우드 네이티브 기반의 AI 지원 듀얼모드 5G 코어 설루션의 검증을 통해, 새로운 서비스 도입 과정의 복잡성을 관리하면서도 고성능·확장성·효율성을 갖춘 네트워크를 구축해야 하는 증가하는 수요에 대응한다. HPE와 에릭슨은 이를 기반으로 통신사들이 운영을 간소화하고 혁신을 가속화하며, 초연결 시대의 요구사항을 충족할 수 있도록 지원할 계획이다. 공동 검증 랩은 상호운용성 테스트를 수행하고 검증된 설루션이 통신사의 요구사항을 충족하는지 확인하는 테스트 환경으로 활용된다. 이 스택은 에릭슨의 듀얼모드 5G 코어 설루션과 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) Gen12 서버, 앱스트라 데이터센터 디렉터(Apstra Data Center Director) 기반으로 관리되는 HPE 주니퍼 네트워킹(HPE Juniper Networking) 패브릭, 그리고 레드햇 오픈시프트(Red Hat OpenShift)로 구성된다. ▲‘에릭슨 듀얼 모드 5G 코어’는 5G와 4G 네트워크를 모두 지원하는 설루션으로, 효율적인 확장 및 미래 대비 네트워크 구축을 원하는 통신사의 복잡성과 운영 비용을 절감한다. ▲‘HPE 프로라이언트 DL360 및 DL380 Gen12 서버’는 인텔 제온 6 프로세서를 탑재해 AMF, UPF, SMF 등 네트워크 집약적 텔코 CNF(Containerized Core Network Functions)를 위한 최적의 성능을 제공한다. 또한 칩에서 클라우드까지 보안을 구현한 HPE Integrated Lights Out(iLO) 7을 통해 모든 계층에서 내장형 보안을 제공한다. ▲‘HPE 주니퍼 네트워킹 고성능 패브릭’은 QFX 시리즈 스위치와 앱스트라 데이터센터 디렉터를 기반으로 인텐트 기반 자동화(Intent-based Automation)와 AIOps 기반 보증 기능을 통해 운영 효율을 강화하고 비용을 절감한다. ▲‘레드햇 오픈시프트’는 공통 클라우드 네이티브 텔코 플랫폼으로서, 통신사가 새로운 서비스를 빠르게 개발·배포·확장할 수 있는 민첩성을 제공한다. 이를 통해 시장 출시 시간을 단축하고 기존 배포 주기를 개선하며, 코어에서 에지까지 일관되고 자동화된 운영 경험을 제공해 복잡한 네트워크 기능 배포 및 관리를 간소화한다.     스웨덴 에릭슨 본사 인근에 위치한 이번 검증 랩은 2025년 말 가동을 시작할 예정이다. 또한 실제 고객 테스트와 피드백을 통해 검증을 진행하고, 2026년 상반기에는 통합 설루션의 상용 검증을 완료해 시장 출시 속도를 높이고 라이프사이클 관리 효율을 강화할 계획이다. HPE의 페르난도 카스트로 크리스틴(Fernando Castro Cristin) 텔코 인프라 사업부 부사장 겸 총괄은 “HPE는 에릭슨과의 전략적 파트너십을 바탕으로 통신사가 5G 및 AI 중심의 경제에서 성공할 수 있도록 혁신적인 기술 설루션을 제공하는 데 주력하고 있다”면서, “에릭슨의 클라우드 네이티브 듀얼모드 5G 코어와 레드햇 오픈시프트를 검증된 차세대 HPE 컴퓨트 인프라 및 HPE 주니퍼 네트워킹 패브릭과 통합함으로써, HPE는 통신사가 신속한 서비스 배포와 수요 기반 확장, 트래픽 변동에 대한 유연한 대응, 예측 가능한 라이프사이클 관리, 그리고 빠르게 진화하는 기술 환경에 적응할 수 있는 새로운 통합 설루션을 개발하고 있다”고 말했다. 에릭슨의 크리슈나 프라사드 칼루리(Krishna Prasad Kalluri) 코어 네트웍스 설루션 및 포트폴리오 부문 총괄은 “에릭슨은 5G 및 코어 네트워크 분야의 글로벌 리더로서, 통신사가 클라우드 네이티브 네트워크로 전환하는 여정을 간소화할 수 있도록 개방성과 혁신을 지속적으로 추진하고 있다”며, “HPE와의 협력 및 공동 검증 랩 설립은 멀티벤더 인프라 환경에서 클라우드 네이티브 5G 코어 설루션 개발을 한층 더 발전시키는 중요한 계기가 될 것”이라고 밝혔다.
작성일 : 2025-10-20
오라클, OCI 전용 리전25 통해 소버린 AI 및 클라우드 서비스 배포 지원
오라클은 더 많은 기업이 퍼블릭 클라우드의 민첩성, 경제성 및 확장성을 누릴 수 있도록 오라클 클라우드 인프라스트럭처(OCI) 전용 리전25(Dedicated Region25)를 출시했다고 발표했다. 기업은 OCI 전용 리전25를 통해 단 몇 주 내에 최소 3개의 랙으로 구성된 풀스택 OCI 환경을 구축할 수 있으며, 공간 제약이 있는 환경에서도 손쉽게 전용 리전을 배포할 수 있다. 지난 2020년 처음 출시된 OCI 전용 리전(OCI Dedicated Region)은 대규모 하이퍼스케일 폼팩터에서 더욱 유연한 배포 형태로 발전해 왔다. 현재 전 세계적으로 60개 이상의 OCI 전용 리전과 오라클 알로이(Oracle Alloy) 리전이 운영 중이거나 계획되어 있으며, 고객은 성능, 거버넌스, 퍼블릭 OCI 환경의 호환성을 저해하지 않으면서 자사 비즈니스 규모에 최적화된 배포 모델을 선택할 수 있다.     OCI 전용 리전25는 OCI의 분산형 클라우드 제품군에 속하며, 모듈형 인프라와 간소화된 서비스 설계를 갖춘 엔터프라이즈급 소버린 클라우드를 통해 공공 및 민간 조직이 민첩성을 높이고 제품 출시 기간을 단축하도록 지원한다. 오라클은 “200개 이상의 AI 및 클라우드 서비스가 내장된 완전한 퍼블릭 클라우드 리전을 3개 랙만으로 구축 가능하고, 하이퍼스케일 수준까지 확장 가능하며, 고객 데이터센터 내에서 안전하게 운영할 수 있도록 지원한다”고 소개했다. 이에 따라 시공간적 제약 혹은 규제 관련 제약으로 전용 클라우드 리전 운영이 어려웠던 고객도 혁신을 가속화하고 새로운 비즈니스 모델을 구현할 수 있게 된다는 것이 오라클의 설명이다. 기존의 전용 클라우드 리전은 많은 조직의 전면적 클라우드 전환에 걸림돌이 되었다. OCI 전용 리전25는 ▲고도화된 네트워크 중심의 모듈형 확장성 ▲하이퍼컨버지드 표준 인프라 ▲통합 다계층(multi-layered) 보안 ▲SaaS, AI를 포함한 퍼블릭 클라우드 수준의 서비스 제공 ▲데이터 주권 요건 지원 ▲오라클 운영 클라우드 리전 등의 이점을 제공하여 클라우드 전환의 방해요소를 제거한다. OCI 전용 리전25는 최소 3개 랙으로 시작해 다운타임이나 재설계 없이 네트워크 확장 랙을 추가함으로써 하이퍼스케일까지 원활하게 확장할 수 있다. 그리고 오라클의 표준화된 고밀도 컴퓨팅 및 스토리지 랙을 활용해 데이터센터 공간 및 전력 사용을 절감할 수 있다. 고객은 더 높은 신뢰성, 빠른 복구 시간, 최대 가동 시간을 확보할 수 있으며, 복잡한 운영 부담 없이 컴팩트한 규모로 운영 가능하다. OCI 전용 리전25는 물리, 가상 전 계층에 걸친 다중적 보안 장치로 데이터와 워크로드를 보호해 높은 수준의 보안, 프라이버시, 규제 요건을 충족할 수 있도록 한다. 통합 다계층 보안 기능으로는 생체인식 잠금(biometric-locked) 랙, 암호화된 소프트웨어 정의 네트워크 패브릭 등이 포함된다. 또한 200개 이상의 OCI AI 및 클라우드 서비스를 고객 환경에서 직접 제공함으로써 데이터 주권 및 데이터 지역성 요건을 충족하면서도 퍼블릭 OCI와 동일한 운영 환경을 구현할 수 있다. 이외에도 정부 및 공공기관이 전체 오라클 클라우드 스택을 자체 환경에 배포하고 데이터 및 시스템에 대한 완전한 통제권을 유지할 수 있도록 함으로써 엄격한 수준의 데이터 주권, 프라이버시, 보안, 규제 요건을 충족할 수 있도록 지원한다. OCI 전용 리전25는 오라클이 직접 운영하는 완전한 클라우드 운영 서비스 형태로 제공되므로, 고객은 인프라 관리가 아닌 혁신에 집중할 수 있다. 스콧 트와들 OCI 제품 및 산업 담당 수석 부사장은 “기업은 가장 큰 가치 창출이 가능한 곳에서 AI와 클라우드 서비스를 자유롭게 구동하길 원하며, 소버린 AI(sovereign AI)에 대한 관심이 높아짐에 따라 데이터의 위치와 데이터 통제에 대한 요건이 엄격해져 이러한 요구 사항이 더욱 강화되고 있다”면서, “OCI 전용 리전25의 출시로 오라클은 사실상 모든 데이터센터로 오라클 클라우드의 역량을 확장할 수 있게 되었다. 이 새로운 배포 옵션은 탁월한 유연성, 운영 단순성 및 엔터프라이즈급 데이터 주권을 제공해 전용 클라우드의 기준을 새롭게 정의하고, 고객이 미래 혁신을 대비할 수 있도록 돕는다”고 말했다.
작성일 : 2025-10-20
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
오라클, 대규모 클라우드 AI 클러스터 ‘OCI 제타스케일10’ 공개
오라클이 클라우드 환경 내의 대규모 AI 슈퍼컴퓨터인 ‘오라클 클라우드 인프라스트럭처(OCI) 제타스케일10(Zettascale10)’을 발표했다. OCI 제타스케일10은 여러 데이터센터에 걸쳐 수십만 개의 엔비디아 GPU를 연결하여 멀티 기가와트급 클러스터를 형성하며, 최대 16 제타플롭스(zettaFLOPS)에 이르는 성능을 제공한다. OCI 제타스케일10은 스타게이트의 일환으로 미국 텍사스주 애빌린에서 오픈AI(OpenAI)와 협력하여 구축한 대표 슈퍼클러스터를 구성하는 기반 패브릭이다. 차세대 오라클 액셀러론 RoCE(Oracle Acceleron RoCE) 네트워킹 아키텍처를 기반으로 구축된 OCI 제타스케일10은 엔비디아 AI 인프라로 구동된다. 오라클은 강화된 확장성, 클러스터 전반에 걸친 초저지연 GPU-GPU 통신, 가격 대비 높은 성능, 향상된 클러스터 활용도, 대규모 AI 워크로드에 필요한 안정성을 제공한다는 점을 내세운다. OCI 제타스케일10은 2024년 9월 출시된 첫 번째 제타스케일 클라우드 컴퓨팅 클러스터의 차세대 모델이다. OCI 제타스케일10 클러스터는 대규모 기가와트급 데이터센터 캠퍼스에 배치되며, 2킬로미터 반경 내에서 밀도를 높여 대규모 AI 학습 워크로드에 최적화된 GPU-GPU 지연 성능을 제공한다. 이 아키텍처는 오픈AI와 협력하여 애빌린 소재 스타게이트 사이트에 구축 중에 있다. OCI는 고객에게 OCI 제타스케일10의 멀티기가와트 규모 배포를 제공할 계획이다. 초기에는 최대 80만 개의 엔비디아GPU를 탑재한 OCI 제타스케일10 클러스터 배포를 목표로 한다. 이는 예측 가능한 성능과 강력한 비용 효율을 제공하며, 오라클 액셀러론의 초저지연 RoCEv2 네트워킹으로 높은 GPU-GPU 대역폭을 구현한다. OCI는 현재 OCI 제타스케일10 주문을 접수 중이라고 전했다. 이 제품은 2026년 하반기 출시 예정으로, 최대 80만 개의 엔비디아 AI 인프라 GPU 플랫폼을 기반으로 제공될 예정이다. 오라클의 마헤쉬 티아가라얀 OCI 총괄 부사장은 “OCI 제타스케일10을 통해 우리는 OCI의 혁신적인 오라클 액셀러론 RoCE 네트워크 아키텍처를 차세대 엔비디아 AI 인프라와 결합해 전례 없는 규모에서 멀티기가와트급 AI 용량을 제공한다. 고객은 성능 단위당 전력 소비를 줄이면서 높은 안정성을 달성해 가장 큰 규모의 AI 모델을 실제 운영 환경에 구축, 훈련 및 배포할 수 있다. 또한 강력한 데이터 및 AI 주권 제어 기능을 통해 오라클의 분산형 클라우드 전반에서 자유롭게 운영할 수 있다”고 말했다. 오픈AI의 피터 호셸레(Peter Hoeschele) 인프라 및 산업 컴퓨팅 부문 부사장은 “OCI 제타스케일10 네트워크 및 클러스터 패브릭은 오라클과 함께 구축한 슈퍼클러스터인 텍사스주 애빌린에 위치한 대표 스타게이트 사이트에서 최초로 개발 및 배포되었다. 고도로 확장 가능한 맞춤형 RoCE 설계는 기가와트 규모에서 패브릭 전체 성능을 극대화하면서도 대부분의 전력을 컴퓨팅에 집중시켜 준다. 오라클과 협력하여 애빌린 사이트를 비롯한 스타게이트 프로젝트 전반을 전개해 나갈 수 있어 매우 기쁘게 생각한다”고 말했다.
작성일 : 2025-10-16
AMD, AI용 오픈 랙 플랫폼 기반 ‘헬리오스’ 랙 스케일 플랫폼 공개
AMD는 미국 산호세에서 열린 오픈 컴퓨트 프로젝트(OCP) 글로벌 서밋에서 자사의 ‘헬리오스(Helios)’ 랙 스케일 플랫폼을 첫 공개했다. 메타가 도입한 ‘오픈 랙 와이드(Open Rack Wide : ORW) 스펙을 기반으로 개발된 헬리오스에 대해 AMD는 “개방형 하드웨어 철학을 반도체에서 시스템, 그리고 랙 수준으로 확장하여, 개방적이고 상호운용 가능한 AI 인프라 구축의 중요한 진전을 보여준다”고 소개했다. 헬리오스 플랫폼은 세계적으로 증가하는 AI 컴퓨팅 수요를 뒷받침할 개방적이고 확장 가능한 인프라를 제공하는 기반을 마련한다. 기가와트 규모 데이터센터의 요구 사항을 충족하도록 설계된 새 ORW 스펙은 차세대 AI 시스템의 전력과 냉각 및 손쉬운 유지 보수에 대한 요구에 최적화된 개방형 더블 와이드 랙을 특징으로 한다. 헬리오스는 ORW 및 OCP 표준을 채택함으로써 업계에 고성능 및 고효율의 AI 인프라를 대규모로 개발하고 배포할 수 있는 통합 표준 기술의 기반을 제공한다.     헬리오스 랙 스케일 플랫폼은 OCP DC-MHS, UALink, UEC(Ultra Ethernet Consortium) 아키텍처 등 오픈 컴퓨트 표준을 통합해 개방형 스케일업(scale-up) 및 스케일아웃(scale-out) 패브릭을 모두 지원한다. 이 랙은 지속적인 열 성능을 위한 퀵 디스커넥트(quick-disconnect) 액체 냉각, 유지 보수 편의성을 향상시키는 더블 와이드 구조, 다중 경로 복원력을 위한 표준 기반 이더넷을 특징으로 한다. 헬리오스는 레퍼런스 디자인의 역할을 통해 OEM, ODM 및 하이퍼스케일러가 개방형 AI 시스템을 빠르게 도입하고 확장, 최적화할 수 있도록 지원한다. 이를 통해 AI 인프라의 배포 시간을 단축하고, 상호 운용성을 높여 AI 및 HPC 워크로드의 효율적인 확장이 가능하다. 헬리오스 플랫폼은 전 세계 AI 배포를 위한 개방적이고 확장 가능한 인프라를 구현하기 위해 AMD가 OCP 커뮤니티와 지속적으로 협력한 결과물이다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 그룹 총괄 부사장은 “개방형 플랫폼을 통한 협업은 AI의 효율적인 확장의 핵심”이라며, “‘헬리오스를 통해 우리는 개방형 표준을 실제 배포 가능한 시스템으로 전환해 나가고 있다. AMD 인스팅트(Instinct) GPU, 에픽(EPYC) CPU 및 개방형 패브릭의 결합은 유연하고 고성능의 플랫폼을 통해 차세대 AI 워크로드를 위한 기반을 마련할 것”이라고 말했다.
작성일 : 2025-10-15
[포커스] 알테어, 제조 현장의 핵심 기술로 자리 잡는 AI 비전 소개
알테어는 9월 5일 ‘2025 추계 AI 워크숍’을 진행했다. ‘엔지니어를 위한 AI’를 주제로 진행된 이번 워크숍에서 알테어는 AI를 활용해 제품 개발 프로세스를 가속화하고 의사결정의 정확성을 높이며, 지능형 디지털 트윈을 완성한다는 비전을 선보였다. 또한 AI 기반 시뮬레이션, 생성형 AI, AI 에이전트, 지식 그래프 등 최신 AI 기술의 실제 적용 사례와 활용 방안을 소개했다. ■ 정수진 편집장     한국알테어의 김도하 지사장은 개회사를 통해 AI 기술이 산업 고객의 현장에서 빠르게 내재화되며 동반 성장하고 있다면서, “이는 고객들이 명확한 비전과 단계별 로드맵을 가지고 각자의 환경에 맞춰 AI를 접목하고 있기 때문”이라고 설명했다. 또한, 국가 AI 프로젝트가 시작되어 1만 4000 장의 GPU가 1차 도입되는 등 정부가 주도하는 ‘소버린 AI’ 시대가 열리고 있는 점에 주목하면서, “AI를 통한 제조 산업의 르네상스가 도래하고 있으며, 알테어 또한 시장과 함께 성장하기 위해 준비하고 있다”고 전했다.   엔지니어링 언어를 학습하는 AI 알테어의 케샤브 선다레시(Keshav Sundaresh) 디지털 전환 총괄 시니어 디렉터는 “AI는 더 이상 개념이 아니라 실제 현장의 핵심 기술”이라면서, 엔지니어링 수명주기 전반에 걸친 로코드·고효율 AI 접근법을 구현해야 한다고 짚었다. MIT의 연구에 따르면, 기업의 생성형 AI 파일럿 프로젝트 가운데 95%가 실질적인 재무 성과를 내는 데 실패하고 있는 것으로 나타났다. 그 원인으로는 ▲특정 결과에 편중된 데이터 ▲단편적이고 사일로화된 데이터 ▲값비싼 컴퓨팅 자원 ▲도메인 지식과 AI 기술 간 격차 ▲기존 시스템과의 통합 및 신뢰성 문제 등이 꼽힌다. 선다레시 시니어 디렉터는 이런 현실적 장벽을 극복할 수 있도록 알테어와 지멘스의 기술 역량을 결합해 AI 기반의 통합 설루션 포트폴리오를 제공할 수 있다는 점을 강조했다. “제품의 요구사항 정의부터 폐기에 이르는 모든 과정에서 AI를 활용하고, 단절된 디지털 스레드를 통합하여 데이터 기반의 신속한 의사결정을 지원하겠다”는 것이다. 이를 위한 핵심 전략은 ‘AI에게 엔지니어링 및 제조의 언어’를 가르치는 것이다. 기존의 LLM(대규모 언어 모델)이 텍스트나 이미지 등 일반 데이터에 강점을 보인다면, 지멘스와 알테어는 기계 설계, 전기/전자, BOM(Bill-of-Materials), 시뮬레이션 데이터 등 산업 특화 데이터를 학습시켜 신뢰도 높은 ‘산업용 파운데이션 모델(Industrial Foundation Model)’을 구축하고 있다는 것이 선다레시 시니어 디렉터의 설명이다.   AI 확산으로 제조 혁신의 속도 높인다 AI 비전을 구체화하는 방법론으로 알테어는 ‘라이프사이클 인텔리전스(Lifecycle Intelligence)’ 프레임워크를 제시했다. 이 프레임워크는 AI 도입의 장벽을 낮추고 모든 엔지니어가 AI를 손쉽게 활용해 혁신을 가속화할 수 있도록 하는 데에 중점을 두고 있다. 선다레시 시니어 디렉터는 ▲반복 작업의 자동화 및 대규모 데이터 분석으로 인간 전문가의 역량을 강화하고 ▲기존 워크플로와 도구에 AI 기능을 통합하여, 학습 부담 없이 자연스러운 AI 활용을 도우며 ▲코딩 지식과 관계 없이 모든 사용자가 AI를 구축하고 배포할 수 있는 환경을 제공하는 세 가지 접근법을 통해 AI 도입을 가속화한다는 로드맵을 소개했다. 이 프레임워크를 활용하면 전처리 영역에서는 형상 인식 AI 기술로 부품 분류 및 군집화를 자동화하거나, 자연어 처리(NLP) 기반 코파일럿을 통해 모델 정리부터 전체 해석 설정까지 대화형으로 수행할 수 있다. 솔빙 영역에서는 기존의 시뮬레이션 데이터를 학습해 CAD 또는 메시 단계에서 물리 현상을 빠르게 예측할 수 있고, 시스템 레벨의 시뮬레이션 속도를 높일 수 있다. 후처리 영역에서는 AI가 핫스폿이나 파손 영역을 자동 식별해 결과 분석을 돕는다. 이 프레임워크의 기술적 기반은 분산된 데이터를 연결하는 ‘데이터 패브릭’과 AI 모델을 개발·운영하는 ‘AI 팩토리’의 결합이다. 선다레시 시니어 디렉터는 알테어의 데이터 분석/AI 플랫폼인 래피드마이너(RapidMiner)와 로코드 앱 개발을 지원하는 지멘스 멘딕스(Mendix)를 통해 라이프사이클 인텔리전스를 구현할 수 있다고 설명했다.     엔지니어링 AI의 혁신 동력 에이전틱 AI(Agentic AI), 지식 그래프(Knowledge Graph), 생성형 AI 등 최신 AI 기술이 R&D부터 설계와 제조까지 엔지니어링 전반의 혁신을 가속화하고 있다. 알테어는 이들 기술이 개별적으로도 강력하지만, 서로 결합하면서 데이터 기반의 신속한 의사결정을 지원하고 기존 워크플로를 지능적으로 전환하는 핵심 동력으로 작용한다고 소개했다. AI 에이전트는 사용자를 대신해 특정 목표를 이해하고 자율적으로 판단 및 실행하는 ‘지능형 디지털 대리인’이다. 단순 반복 작업을 자동화하는 것을 넘어서, 여러 에이전트가 협업하는 다중 에이전트 구조를 통해 복잡한 과업을 수행하는 것이 최근의 흐름이다. 엔지니어링 현장에도 공정 상 발생한 문제에 대해 자연어로 질문하면 해결 방법을 제시하거나, 생산 라인의 다운타임 원인을 분석하고 관련 데이터를 종합해 보고하는 등의 AI 에이전트가 도입되고 있다. 알테어는 시각적 워크플로 설계 도구를 통해 이러한 AI 에이전트를 쉽게 구축하고 AI 클라우드 프로세스와 원활하게 연결하는 방법을 제시했다. 지식 그래프는 다양한 출처(소스)에 분산된 데이터를 하나의 의미 계층(semantic layer)으로 통합해서 데이터 간의 숨겨진 관계를 파악하게 하는 기술이다. 이는 AI 모델의 가장 큰 문제점으로 꼽히는 환각(hallucination) 현상을 최소화하고, 장기적인 맥락을 이해하는 메모리로 기능하면서 신뢰성 높은 AI 에이전트를 구현할 수 있게 돕는다. 엔지니어링 분야에서 지식 그래프는 여러 AI 에이전트가 일관된 지식 베이스를 공유하게 해서 협업의 효율을 높이고, 공장 문제 해결 시 여러 데이터베이스에 동적으로 접근하여 질문에 답하는 아키텍처를 구현하는 데 쓰인다.   PLM과 AI의 시너지로 더 큰 혁신도 가능 알테어는 지난 3월 지멘스와의 합병을 완료했다. 제조 기술에 강점을 가진 지멘스와 엔지니어링 및 AI 기술에 집중해 온 알테어의 시너지에 대해, 이번 워크숍에서 한 가지 실마리를 발견할 수 있었다. 알테어는 AI와 PLM(제품 수명주기 관리)의 결합이 제조업의 패러다임을 바꿀 것으로 보았다. 한국알테어 최병희 본부장은 “많은 기업이 PLM 시스템에 제품의 설계부터 생산, 운영까지 대량의 데이터를 축적하고 있지만, 이를 제대로 활용하지 못하고 있다. 이 PLM 데이터를 AI로 분석해 기업의 핵심 자산으로 만들고, 경험에 의존하던 사후 대응 방식의 업무 환경을 미래가 예측하고 문제를 예방하는 예측 기반의 업무 환경으로 혁신할 수 있다”고 소개했다. 지멘스의 PLM 설루션인 팀센터(Teamcenter)가 제품의 모든 역사를 기록한 단일 진실 공급원(single source of truth)이라면, 알테어의 래피드마이너는 코딩 지식이 없이도 AI 모델을 개발할 수 있는 ‘똑똑한 AI 분석가’라고 할 수 있다. 두 설루션을 통합하면 래피드마이너가 팀센터의 데이터를 분석해 숨겨진 패턴과 인사이트를 찾아내고, 이를 바탕으로 미래 예측 모델을 생성할 수 있다. 그리고 이 예측 결과를 다시 팀센터에 전달해 시스템 전체가 똑똑해지는 선순환 구조를 만든다. 최종적으로는 현실을 명확히 이해하고 미래를 예측하는 ‘지능형 디지털 트윈’을 완성할 수 있다는 것이 최병희 본부장의 설명이다. 이 외에 공급망 최적화, 품질 이상의 조기 탐지, 고객 피드백의 반영 등 다양한 분야로 시너지를 확장할 수 있는 가능성도 점칠 수 있다. 최병희 본부장은 “PLM 데이터를 시작으로 ERP, MES, CRM 등 분산된 기업 데이터를 통합하면 더 큰 범위의 업무 혁신이 가능하다”고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
에퀴닉스, 차세대 AI 혁신 가속화 위한 분산형 AI 인프라 출시
디지털 인프라 기업인 에퀴닉스(Equinix)가 ‘AI 서밋(AI Summit)’을 개최하고, 에이전틱 AI를 포함한 차세대 AI 혁신을 뒷받침하는 새로운 접근 방법인 분산형 AI 인프라(Distributed AI Infrastructure)를 공개했다. 이번 발표에는 ▲분산형 AI 구축을 지원하는 AI 사용 가능한 새로운 백본 ▲신규 설루션을 검증할 수 있는 글로벌 AI 설루션 랩(AI Solutions Lab) ▲차세대 워크로드를 지원하는 패브릭 인텔리전스(Fabric Intelligence)가 포함됐다. 기업이 AI 에이전트와 같은 차세대 AI 툴을 구축하고자 할 때, 기존 IT 아키텍처에 대한 재고가 필요하다. 에퀴닉스의 분산형 AI는 정적 모델에서 독립적으로 추론, 행동 및 학습이 가능한 자율적 에이전틱 AI로의 진화를 비롯해 현대 지능형 시스템의 규모와 속도, 복잡성을 지원하도록 설계됐다. 기존 애플리케이션과 달리 AI는 분산되어 있으며, 학습, 추론, 데이터 독립성에 대해 상이한 인프라를 요구한다. 이러한 요구를 충족하기 위해 전세계적으로 분산되고 상호연결되며 대규모 워크로드에서도 뛰어난 성능을 보일 수 있도록 구축된 새로운 유형의 인프라가 필요하다. 에퀴닉스는 “77개의 시장에서 270개가 넘는 데이터센터를 연결하는, 프로그래밍 가능하고 AI에 최적화된 네트워크를 보유함으로써 지리적 경계를 넘어 이 같은 환경을 통합할 수 있다”면서, “이를 통해 지능형 시스템이 필요한 모든 곳에서 신뢰도 높고 안전하게 운영될 수 있도록 지원한다”고 전했다.     이번 AI 서밋에서 에퀴닉스가 발표한 패브릭 인텔리전스는 AI 및 멀티클라우드 워크로드를 위한 실시간 인식과 자동화를 통해 온디맨드 글로벌 상호연결 서비스인 에퀴닉스 패브릭(Equinix Fabric)을 강화하는 소프트웨어 계층이다. 2026년 1분기 출시 예정인 패브릭 인텔리전스는 AI 오케스트레이션 툴과 통합되어 연결성 결정을 자동화하고, 실시간 텔레메트리를 활용해 심층적인 가시성을 확보하며, 성능 최적화와 네트워크 운영 간소화를 위해 라우팅과 세그먼테이션을 동적으로 조정한다. 패브릭 인텔리전스는 워크로드 수요에 맞춰 네트워크가 즉각 대응하도록 함으로써 기업이 수작업을 줄이고 배포를 가속화하며 AI의 규모와 속도에 맞출 수 있도록 지원한다. 에퀴닉스는 10개국 20개 지역에 글로벌 AI 설루션 랩을 출시하여 기업이 업계를 주도하는 AI 기술 파트너와 협력할 수 있는 역동적인 환경을 제공한다. 기업은 AI 설루션 랩을 통해 에퀴닉스 AI 파트너 에코시스템에 연결할 수 있다. 이러한 협력은 AI 도입에 대한 위험을 줄이고 혁신적인 공동 설루션을 지원하며, 아이디어를 운영가능한 AI 구축단계까지 빠르게 실현한다.   에퀴닉스는 포괄적인 벤더 중립 AI 에코시스템 중 하나로, 전 세계 2000개 이상의 파트너를 보유하고 있다. 새로운 패브릭 인텔리전스를 통해 차세대 AI 추론 서비스를 쉽게 검색하고 활용할 수 있도록 돕는다. 또한, 에퀴닉스는 기업이 맞춤형 구축 없이 선도적인 추론 플랫폼에 직접적이고 프라이빗하게 접근할 수 있도록, 2026년 1분기 출시 예정인 그록클라우드(GroqCloud) 플랫폼을 포함한 최첨단 기술을 제공한다. 이를 통해 기업은 AI 서비스를 더 빠르게 연결하고 확장할 수 있으며, 엔터프라이즈급 성능과 보안을 확보할 수 있다.   에퀴닉스의 분산형 AI 인프라를 통해 기업은 제조 분야의 예측 유지 보수를 위한 실시간 의사결정, 다양한 리테일 최적화, 금융 서비스 분야의 신속한 사기 탐지와 같은 다양한 적용 사례를 지원할 수 있다. 에퀴닉스는 2026년 1분기부터 AI를 에지 및 리전 전반에서 구현함으로써, 조직이 어디에서나 확장 가능하고 규정을 준수하며 지연 시간이 짧은 AI 워크로드를 운영할 수 있게 한다. 에퀴닉스의 존 린(Jon Lin) 최고 비즈니스 책임자(CBO)는 “AI가 점점 더 분산되고 동적으로 진화함에 따라, 모든 것을 안전하고 효율적이며 대규모로 연결하는 것이 진정한 과제가 됐다. 에퀴닉스의 글로벌 플랫폼은 기업이 데이터를 사용자와 더 가까운 곳으로 이동하고 추론할 수 있도록 지원하고 새로운 역량을 발휘하며, 기회가 있는 곳 어디서든 혁신을 가속화할 수 있는 무한한 연결성을 제공한다”고 말했다.
작성일 : 2025-09-26
시스코, 머신 데이터를 AI 인텔리전스로 전환하는 ‘시스코 데이터 패브릭’ 발표
시스코가 미국 보스턴에서 열린 스플렁크의 연례 행사 ‘닷컨프(.conf)’에서 머신 데이터의 가치를 AI로 활용할 수 있도록 지원하는 새 아키텍처인 시스코 데이터 패브릭(Cisco Data Fabric)을 발표했다. 시스코 데이터 패브릭은 스플렁크(Splunk) 플랫폼을 기반으로 한다. 대규모 머신 데이터를 처리하는 과정에서 비용과 복잡성을 줄이고, 데이터를 AI 애플리케이션에 활용할 수 있도록 설계됐다. 일례로 기업은 맞춤형 AI 모델 훈련, 에이전틱 워크플로 구동, 머신 데이터 및 비즈니스 데이터의 다중 스트림을 상호 연계해 인사이트를 도출하고 더 나은 의사결정을 내리는 데 활용할 수 있다. AI 시대를 위해 설계된 시스코 데이터 패브릭은 기업이 더 빠르게 혁신하고 보안을 강화하며 비즈니스 민첩성을 높일 수 있도록 지원한다. 기업 전반에 걸친 머신 데이터를 통합하고 활성화해, 비용과 복잡성을 줄이고, 분산 데이터 관리의 어려움을 극복할 수 있는 턴키(turnkey) 설루션을 제공한다. 시스코 데이터 패브릭은 데이터 스트림을 실행 가능한 인텔리전스로 전환해, 고객이 의사결정을 가속화하고 운영 리스크를 줄이며 혁신을 촉진하도록 지원한다. 이 프레임워크의 지능형 에지 데이터 관리 기능은 고도화된 데이터 필터링, 구조화 및 계층화를 가능하게 한다. 또한 페더레이션(federation, 연합) 기능을 통해 다양한 도메인 전반에서 인사이트를 연계해 실시간에 가까운 엔드 투 엔드(end-to-end) 운영 인텔리전스를 제공한다. AI 어시스턴트와 에이전트 기능으로 구동되는 차세대 경험 레이어는 기업이 문제 해결 속도를 획기적으로 향상시키고, 관리 부담을 줄이며, 팀은 더 빠른 의사결정을 내릴 수 있도록 지원한다. 시스코는 기업들이 시스코 데이터 패브릭을 통해 ▲대규모 머신 데이터 운영을 위한 통합형·지능형 데이터 파운데이션 및 도메인 간 실시간 검색 및 분석 ▲시계열 파운데이션 모델과 같은 독자적 데이터의 가치 활용 ▲시스코 AI 캔버스(Cisco AI Canvas)를 통한 사람과 AI 에이전트의 경험 통합 ▲데이터 수명주기의 모든 단계에 걸친 AI 네이티브 지원 등의 이점을 얻을 수 있다고 설명했다. 시스코 데이터 패브릭은 스플렁크 엔터프라이즈(Splunk Enterprise)와 스플렁크 클라우드 플랫폼(Splunk Cloud Platform) 기능을 기반으로 구축됐으며, 현재 사용 가능하다. 앞으로 데이터 관리, 데이터 페더레이션, AI 전반에 걸친 발전 사항이 반영될 예정이며, 추가 기능은 2026년까지 순차적으로 제공된다. 스플렁크 AI 툴킷은 현재 사용 가능하며, 새롭게 호스팅되는 모델은 2026년에 제공될 예정이다. 시스코의 지투 파텔(Jeetu Patel) 최고제품책임자(CPO) 겸 사장은 “전 세계 기업들은 막대한 가치를 지닌 머신 데이터를 보유하고 있지만, 머신 데이터를 AI에 활용하기에는 너무 복잡하고 번거로우며 많은 비용이 들었다”고 말했다. 이어 “센서 측정값과 공장 지표부터 결제 시스템 데이터 그리고 애플리케이션, 서버, 네트워크 등에서 발생하는 이벤트 업데이트에 이르기까지, 머신 데이터는 비즈니스 운영 방식을 주도한다”면서, “스플렁크는 클라우드 데이터 및 분석 분야에서 혁신을 가져왔다. 그리고 이제 시스코 데이터 패브릭은 기업이 자체 소유의 머신 데이터를 활용해 AI 모델을 구축할 수 있도록 지원함으로써 AI 분야에서도 동일한 혁신을 이룰 준비가 됐다”고 밝혔다. 시스코 자회사인 스플렁크의 카말 하티(Kamal Hathi) 수석 부사장 겸 총괄은 “스플렁크의 목표는 데이터를 행동으로 전환하는 여정을, 고객에게 가장 빠르고 안전하게 제공하는 것”이라며, “플랫폼 전반에 AI를 내재화하고 개방형 표준을 적용함으로써, 단순히 기업들이 정보를 더 빨리 분석하도록 지원하는 데 그치지 않고, 변화를 예측하고, 불필요한 복잡성 없이 혁신을 확장하며, 사용자 요구에 맞춰 더욱 탄력적이고 적응력 있으며 반응하는 디지털 서비스를 제공할 수 있도록 지원한다”고 말했다.
작성일 : 2025-09-12
알테어, ‘2025 추계 AI 워크숍’에서 국내 기업의 AI 활용 성과 공개
알테어가 9월 5일 서울 과학기술회관에서 ‘2025 추계 AI 워크숍’을 진행했다고 밝혔다. 2024년부터 매년 춘·추계로 진행되는 이번 행사에는 400여 명의 제조업 실무진과 산업 전문가가 참석해 인공지능(AI) 기술의 실무 적용 방안을 논의했다.   행사는 김도하 한국알테어 지사장의 개회사로 시작했으며, 이어 알테어 케샤브 선다레시 디지털 전환 총괄 시니어 디렉터가 ‘엔지니어링을 위한 라이프사이클 인텔리전스 : 로코드 고효율 접근법’을 주제로 제조업 혁신을 가속화할 수 있는 방안을 발표했다.     이후 국내 기업의 AI 활용 사례가 소개됐다. 한국항공우주산업(KAI)의 김범준 선임연구원은 ‘AI 스튜디오를 활용한 고정익 항공기 조종면 유격 검사 데이터 처리 프로그램 개발’을 발표했다. 그는 “기존에 수작업으로 진행되던 검사 데이터 처리를 자동화·표준화했으며, 노코드·로코드 기반 AI 스튜디오를 통해 코딩 지식이 없는 설계자도 데이터 분석 프로그램을 직접 개발할 수 있다”고 설명했다.   특히 이번 행사에서는 알테어와 지멘스가 제조업 분야에서 축적한 경험과 전문성을 바탕으로 디지털 전환을 가속화하는 방안이 소개됐다. 알테어의 최병희 본부장은 지멘스의 PLM(제품 수명 주기 관리)과 알테어의 AI 기술 결합 방안을 발표했으며, 지멘스 강철 전무는 제조업의 AI 도입 동향과 로코드 기반 개발 환경의 시너지 효과를 강조했다.   이 밖에도 ▲에이전틱 AI 실현을 위한 온톨로지 기반 데이터 패브릭 전략 ▲예측 AI, LLM(대형 언어 모델) 기반 생성형 AI, 지식 그래프, AI 에이전트를 통한 엔지니어링 및 제조 혁신 ▲AI 기반 HPC(고성능 컴퓨팅)로 제품 개발팀의 시장 출시 속도 가속화 등 다양한 발표가 다뤄졌다.   한국알테어의 김도하 지사장은 “올해 춘계에 이어 추계 워크숍을 개최하면서 AI 기술이 빠르게 발전하고 있을 뿐만 아니라, 국내 고객사들의 AI 적용 사례가 실제 현장에서 빠르게 확산되고 있음을 체감하고 있다”면서, “알테어는 이러한 경험을 기반으로 국내 제조업체들이 AI 도입 아이디어를 얻고 실무 혁신을 실현할 수 있도록 적극 지원하겠다”고 전했다.
작성일 : 2025-09-05
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15