• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "클러스터"에 대한 통합 검색 내용이 323개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 정식 출시
IBM은 자사의 메인프레임 시스템 IBM z17 및 IBM 리눅스원 5(IBM LinuxONE 5)에 적용 가능한 인공지능(AI) 가속기 ‘스파이어 엑셀러레이터(Spyre Accelerator)’를 정식 출시한다고 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며, 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계되었다. 12월 초부터는 파워11(Power11) 서버용 제품도 제공될 예정이다. 오늘날 IT 환경은 기존의 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 전환되고 있으며, AI 에이전트는 저지연(low-latency) 추론과 실시간 시스템 반응성을 요구한다. 기업은 처리량의 저하없이 가장 까다로운 엔터프라이즈 업무와 AI 모델을 동시에 처리할 수 있는 메인프레임과 서버 인프라를 필요로 한다. IBM은 이러한 수요에 대응하기 위해서 생성형 및 에이전트 기반 AI를 지원하면서도 핵심 데이터, 거래, 애플리케이션의 보안과 복원력을 유지할 수 있는 AI 추론 전용 하드웨어가 필수적이라고 판단했다. 스파이어 엑셀러레이터는 기업이 중요한 데이터를 사내 시스템(온프레미스, on-premise) 내에서 안전하게 관리할 수 있도록 설계되었으며, 운영 효율성과 에너지 절감 효과도 함께 제공한다.     스파이어 엑셀러레이터는 IBM 리서치 AI 하드웨어 센터의 혁신 기술과 IBM 인프라 사업부의 개발 역량이 결합된 결과물이다. 시제품으로 개발된 이후 IBM 요크타운 하이츠 연구소의 클러스터 구축과 올버니대학교 산하 ‘신흥 인공지능 시스템 센터(Center for Emerging Artificial Intelligence Systems)’와의 협업을 통해 빠른 반복 개발 과정을 거쳐 완성도를 높였다. 이렇게 기술적 완성도를 높여 온 시제품 칩은 현재는 IBM Z, 리눅스원, 파워 시스템에 적용 가능한 기업용 제품으로 진화했다. 현재 스파이어 엑셀러레이터는 32개의 개별 가속 코어와 256억 개의 트랜지스터를 탑재한 상용 시스템온칩(SoC, system-on-a-chip) 형태로 완성되었다. 5나노미터 공정 기술을 기반으로 제작된 각 제품은 75와트(Watt) PCIe 카드에 장착되며, IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. IBM 고객들은 스파이어 엑셀러레이터를 통해 빠르고 안전한 처리 성능과 사내 시스템 기반의 AI 가속 기능을 활용할 수 있다. 이는 기업이 IBM Z, 리눅스원, 파워 시스템 상에서 데이터를 안전하게 유지하면서도 AI를 대규모로 적용할 수 있게 되었음을 의미한다. 특히, IBM Z 및 리눅스원 시스템에서는 텔럼 II(Telum II) 프로세서와 함께 사용되어 보안성, 저지연성, 높은 거래 처리 성능을 제공한다. 이를 통해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에 다중 AI 모델을 적용할 수 있다. IBM 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 기업 업무 흐름에 맞춘 종합적인 AI 활용이 가능하다. 고객은 해당 서비스를 한 번의 클릭으로 설치할 수 있으며, 온칩 가속기(MMA)와 결합된 파워용 스파이어 엑셀러레이터는 생성형 AI를 위한 데이터 변환을 가속화해 심층적인 프로세스 통합을 위한 높은 처리량을 제공한다. 또한 128개 토큰 길이의 프롬프트 입력을 지원하며, 이를 통해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. 이러한 성능은 IBM의 소프트웨어 스택, 보안성, 확장성, 에너지 효율성과 결합되어, 기업이 생성형 AI 프레임워크를 기존 업무에 통합해 나가는 여정을 효과적으로 지원한다. IBM 인프라 사업부 최고운영책임자(COO)이자 시스템즈 사업부 총괄 배리 베이커(Barry Baker) 사장은 “스파이어 엑셀러레이터를 통해 IBM 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다. 이 기술 혁신은 고객이 AI 기반 핵심 업무를 보안성과 복원력, 효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다”고 말했다. IBM 반도체 및 하이브리드 클라우드 부문 무케시 카레(Mukesh Khare) 부사장은 “IBM은 2019년 AI 리서치 하드웨어 센터를 설립해, 생성형 AI와 대규모 언어 모델(LLM)이 본격적으로 확산되기 이전부터 AI의 연산 수요 증가에 대응해 왔다. 최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데, 해당 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다”면서, “이번 스파이어 칩의 정식 출시로 IBM 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 되었다”고 설명했다.
작성일 : 2025-10-28
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
오라클, 대규모 클라우드 AI 클러스터 ‘OCI 제타스케일10’ 공개
오라클이 클라우드 환경 내의 대규모 AI 슈퍼컴퓨터인 ‘오라클 클라우드 인프라스트럭처(OCI) 제타스케일10(Zettascale10)’을 발표했다. OCI 제타스케일10은 여러 데이터센터에 걸쳐 수십만 개의 엔비디아 GPU를 연결하여 멀티 기가와트급 클러스터를 형성하며, 최대 16 제타플롭스(zettaFLOPS)에 이르는 성능을 제공한다. OCI 제타스케일10은 스타게이트의 일환으로 미국 텍사스주 애빌린에서 오픈AI(OpenAI)와 협력하여 구축한 대표 슈퍼클러스터를 구성하는 기반 패브릭이다. 차세대 오라클 액셀러론 RoCE(Oracle Acceleron RoCE) 네트워킹 아키텍처를 기반으로 구축된 OCI 제타스케일10은 엔비디아 AI 인프라로 구동된다. 오라클은 강화된 확장성, 클러스터 전반에 걸친 초저지연 GPU-GPU 통신, 가격 대비 높은 성능, 향상된 클러스터 활용도, 대규모 AI 워크로드에 필요한 안정성을 제공한다는 점을 내세운다. OCI 제타스케일10은 2024년 9월 출시된 첫 번째 제타스케일 클라우드 컴퓨팅 클러스터의 차세대 모델이다. OCI 제타스케일10 클러스터는 대규모 기가와트급 데이터센터 캠퍼스에 배치되며, 2킬로미터 반경 내에서 밀도를 높여 대규모 AI 학습 워크로드에 최적화된 GPU-GPU 지연 성능을 제공한다. 이 아키텍처는 오픈AI와 협력하여 애빌린 소재 스타게이트 사이트에 구축 중에 있다. OCI는 고객에게 OCI 제타스케일10의 멀티기가와트 규모 배포를 제공할 계획이다. 초기에는 최대 80만 개의 엔비디아GPU를 탑재한 OCI 제타스케일10 클러스터 배포를 목표로 한다. 이는 예측 가능한 성능과 강력한 비용 효율을 제공하며, 오라클 액셀러론의 초저지연 RoCEv2 네트워킹으로 높은 GPU-GPU 대역폭을 구현한다. OCI는 현재 OCI 제타스케일10 주문을 접수 중이라고 전했다. 이 제품은 2026년 하반기 출시 예정으로, 최대 80만 개의 엔비디아 AI 인프라 GPU 플랫폼을 기반으로 제공될 예정이다. 오라클의 마헤쉬 티아가라얀 OCI 총괄 부사장은 “OCI 제타스케일10을 통해 우리는 OCI의 혁신적인 오라클 액셀러론 RoCE 네트워크 아키텍처를 차세대 엔비디아 AI 인프라와 결합해 전례 없는 규모에서 멀티기가와트급 AI 용량을 제공한다. 고객은 성능 단위당 전력 소비를 줄이면서 높은 안정성을 달성해 가장 큰 규모의 AI 모델을 실제 운영 환경에 구축, 훈련 및 배포할 수 있다. 또한 강력한 데이터 및 AI 주권 제어 기능을 통해 오라클의 분산형 클라우드 전반에서 자유롭게 운영할 수 있다”고 말했다. 오픈AI의 피터 호셸레(Peter Hoeschele) 인프라 및 산업 컴퓨팅 부문 부사장은 “OCI 제타스케일10 네트워크 및 클러스터 패브릭은 오라클과 함께 구축한 슈퍼클러스터인 텍사스주 애빌린에 위치한 대표 스타게이트 사이트에서 최초로 개발 및 배포되었다. 고도로 확장 가능한 맞춤형 RoCE 설계는 기가와트 규모에서 패브릭 전체 성능을 극대화하면서도 대부분의 전력을 컴퓨팅에 집중시켜 준다. 오라클과 협력하여 애빌린 사이트를 비롯한 스타게이트 프로젝트 전반을 전개해 나갈 수 있어 매우 기쁘게 생각한다”고 말했다.
작성일 : 2025-10-16
슈나이더 일렉트릭, 엔비디아와 공동 개발한 차세대 AI 데이터센터 레퍼런스 디자인 발표
슈나이더 일렉트릭이 엔비디아와 공동으로 개발한 두 가지의 새로운 레퍼런스 디자인을 발표했다. 이 레퍼런스 디자인은 AI 인프라의 신속한 배치와 운영 효율을 지원하며, 데이터센터 운영자가 급격히 증가하는 AI 워크로드 수요에 발 빠르게 대응할 수 있도록 돕는다. AI가 발전함에 따라 오늘날 데이터센터 운영자들은 고밀도 GPU 가속 AI 클러스터의 속도 및 배포 과제를 해결하기 위해 참조 설계 프레임 워크에 의존하고 있다. 슈나이더 일렉트릭은 검증되고 문서화된 데이터센터 물리적 인프라 설계를 제공함으로써 전 세계 운영자들이 최신 AI 인프라 설루션이 출시되기 전에 차세대 전력 및 수랭식 제어 인프라를 설계하고 통합할 수 있도록 지원한다. 이는 비용·효율·신뢰성을 최적화하며, 데이터센터 운영자들이 미래 AI 팩토리를 선제적으로 준비할 수 있도록 한다. 슈나이더 일렉트릭이 공개한 첫 번째 레퍼런스 디자인은 통합 전력 관리 및 액체 냉각 제어 시스템 프레임워크를 제공한다. 여기에는 슈나이더 일렉트릭이 인수한 모티브에어(Motivair)의 리퀴드쿨링 포트폴리오가 포함되어 있으며, 이를 통해 복잡한 AI 인프라의 구성 요소를 원활하게 관리할 수 있다. 또한 MQTT 프로토콜 기반의 플러그 앤 플레이 아키텍처를 도입해 OT(운영기술) 인프라와 IT(정보기술) 시스템을 통합할 수 있다. 운영자는 이 두 시스템의 데이터를 실시간으로 활용해 성능을 최적화할 수 있다. 엔비디아의 AI 팩토리 운영 및 오케스트레이션 소프트웨어인 ‘엔비디아 미션 컨트롤(NVIDIA Mission Control)’과의 상호 운용성을 지원해 클러스터 및 워크로드 관리 등 고도화된 기능도 경험할 수 있다. 엔비디아 미션 컨트롤은 원활한 AI 인프라 관리를 지원하여, 데이터센터 운영자들이 AI 환경을 보다 효율적으로 운영할 수 있도록 돕는 것이 특징이다. 이번 AI 인프라 레퍼런스 디자인은 건물 관리 소프트웨어와 원활한 상호운용이 가능하다. 즉, 데이터센터 운영자들은 전력 및 냉각의 이중화 시스템을 구축하고 AI 랙 전력 프로파일 측정 가이던스를 제시하는 등 가동시간, 안정성, 성능을 최고 수준으로 유지하면서 실시간으로 전력 및 냉각 자원을 정밀하게 관리할 수 있다.     두 번째 레퍼런스 디자인은 엔비디아 GB300 NVL72 기반 랙에서 랙 당 최대 142kW의 고밀도 AI 워크로드를 처리할 수 있도록 설계되었다. 이 레퍼런스 디자인은 슈나이더 일렉트릭의 자체 엔지니어링 팀과 설루션을 활용해 구축되었으며, 단일 데이터홀에서 고밀도 AI 클러스터를 운영할 수 있도록 전력, 냉각, IT 공간, 수명주기 소프트웨어 등 네 가지 핵심 영역을 아우른다. 또 ANSI와 IEC 두 가지 표준에 모두 대응한다. 이로 인해 운영자는 데이터센터 설계의 초기 계획 프로세스를 대폭 단축할 수 있으며, 실제 환경에 최적화된 AI 인프라 배치를 구현할 수 있다. 이는 차세대 엔비디아 블랙웰 울트라(NVIDIA Blackwell Ultra) 아키텍처 도입을 위한 프레임워크로, 데이터센터 설계와 운영의 새로운 기준을 제시한다. 이번 발표로 슈나이더 일렉트릭은 기존 GB200 NVL72에 이어 최신 엔비디아 GB300 NVL72 플랫폼을 지원하는 레퍼런스 디자인을 완성하게 됐다. 이를 통해 데이터센터 운영자는 설계 단계부터 디지털 트윈 기반의 시뮬레이션을 적용해 특정 전력 및 냉각 시나리오를 최적화할 수 있으며, 차세대 AI 팩토리의 신뢰성과 효율을 선제적으로 확보할 수 있다. 엔비디아의 스콧 월리스(Scott Wallace) 데이터센터 엔지니어링 디렉터는 “전력, 냉각, 운영의 통합 지능은 데이터센터 아키텍처를 새롭게 정의할 것”이라며, “슈나이더 일렉트릭의 제어 레퍼런스 디자인은 엔비디아 미션 컨트롤과 연계해 AI 팩토리 디지털 트윈을 구현하고, 운영자가 첨단 가속 컴퓨팅 인프라를 최적화할 수 있는 검증된 모델을 제공한다”고 밝혔다. 슈나이더 일렉트릭의 짐 시모넬리(Jim Simonelli) 수석 부사장 겸 최고기술책임자(CTO)는 “슈나이더 일렉트릭은 엔비디아와 개발한 새로운 레퍼런스 디자인을 통해 첨단 AI 인프라의 설계, 구축 및 운영 프로세스를 간소화하고 있다”며, “이번 레퍼런스 디자인은 미래 지향적이며 확장 가능한 설계로, 데이터센터 운영자들이 급증하는 AI 수요를 발 빠르게 대응할 수 있다”고 전했다.
작성일 : 2025-09-25
QNAP, 듀얼 NAS 고가용성 HA 설루션 공식 출시
큐냅 코리아는 듀얼 NAS 고가용성(HA) 설루션을 한국시장에 공식 출시했다. 큐냅 HA 설루션은 듀얼 NAS 페일오버 아키텍처를 기반으로 하드웨어 장애 발생 시에도 서비스가 중단되지 않는 것이 특징이다. 큐냅은 정식 출시 전 베타 테스트를 진행했고, 이 과정에 보고된 평가를 바탕으로 완성도를 한층 높였다고 전했다. 특히 다양한 규모의 조직이 합리적 비용으로 엔터프라이즈급 가용성을 확보할 수 있도록 상품성을 나눠 시장 경쟁력도 높였다. 오늘날의 기업 IT 환경에서 가동 중단은 직접적인 손실로 이어진다. 최근 3년 동안 기업의 60%가 최소 한 차례 이상 서비스 중단을 경험했고, 계획되지 않은 다운타임으로 인한 평균 손실은 시간당 30만 달러에 달하는 것으로 조사됐다. 큐냅 HA 설루션은 기업 현장에서 예측 불가능한 리스크를 최소화해 운영 무결성과 경쟁력을 유지하는 측면에서 효과를 높이는 데에 초점을 두고 있다. 큐냅의 앤디 위(Andy Yu) 제품 매니저는 “IT 복잡성이 높아질수록 핵심 서비스에 대한 무중단 접근성은 필수이다. 큐냅의 고가용성 설루션은 자동 장애 조치, 실시간 동기화, 직관적 관리 기능을 결합해 업종 전반에서 연속적인 비즈니스 운영을 보장한다”고 강조했다.     큐냅이 출시한 듀얼 NAS HA 설루션에서 강조하는 핵심은 총 네 가지다. 먼저 ▲비용 효율 측면에서 고가의 전용 어플라이언스 없이도 구축 가능한 비용 효율적 구조와 QuTS hero 기반의 안정적인 ZFS 파일 시스템은 예산 제약이 있는 조직에서 효과를 볼 수 있다. ▲자동 장애 조치 측면에서 활성 노드 장애 시 패시브 노드로 90초 이내 전환하는 자동 페일오버 기능을 제공하며, ▲실시간 데이터 동기화 측면에서는 SnapSync 기반의 실시간 데이터 복제로 RPO를 최소화해 데이터 손실 위험을 줄인다. ▲간소화된 클러스터 관리 측면에서 High Availability Manager를 통한 중앙 집중식 관리와 직관적 모니터링 기능은 IT 관리자가 두 NAS를 하나의 클러스터로 효율적으로 운영할 수 있도록 한다. 큐냅 듀얼 NAS HA 설루션은 스토리지와 네트워크를 포괄하는 다계층 고가용성 인프라를 구현해, 무중단이 요구되는 환경에서도 신뢰할 수 있는 연속성을 제공한다. 액티브-패시브 HA는 두 대의 NAS로 구성된 클러스터 구조로, 장애가 발생하면 대기 중인 장치가 자동으로 서비스를 이어받는다. 총소유비용(TCO)은 상대적으로 낮아 비용 효율성을 높였고, 서비스 중단을 최소화하면서도 합리적인 투자를 원하는 조직에 적합하다. 일반적으로 최대 1분 이내의 복구 시간이 허용되는 부서별 파일 서버와 같은 환경에서 사용된다. 큐냅 코리아의 알렉산더 서 지사장은 “데이터 중단 없는 서비스는 이제 선택이 아닌 필수이며, 이는 기업 경쟁력의 핵심 요소가 되고 있다. 큐냅은 고가용성 설루션을 통해 한국 기업이 글로벌 수준의 안정성과 민첩성을 동시에 확보할 수 있도록 지원하겠다”면서, “파트너사와 함께 국내 시장의 요구에 최적화된 기술과 서비스를 제공해 고객이 안심하고 디지털 전환을 가속화할 수 있도록 돕고, 동시에 스토리지와 네트워크 인프라 전반에서 새로운 기준을 제시하는 기업으로 자리매김하겠다”고 전했다. 한편, 큐냅은 듀얼 고가용성 NAS 2대를 동시 구매하는 고객에게 최대 40% 할인 혜택을 제공하는 출시 기념 프로모션을 9월 30일까지 진행한다고 밝혔다.
작성일 : 2025-09-02
아이비스, 로봇 서비스를 위한 데이터 기반 성능 평가 기술 개발
차량용 모빌리티 소프트웨어 기업인 아이비스는 산업통상자원부가 추진하는 ‘데이터 기반 로봇 서비스 실증 평가 기술 개발’ 과제에 참여한다고 밝혔다. 이 과제는 로봇 서비스의 완성도를 높이기 위해 가상의 국가로봇테스트필드 실증 환경에서 로봇 서비스 기술의 성능을 과학적·정량적으로 검증하고, 가상환경 기반 테스트 기법을 통해 실증 비용 및 시간 부담을 줄일 수 있는 평가 인프라를 구축하는 것이 목표다. 국가로봇테스트필드는 산업통상자원부와 한국로봇산업진흥원이 주관하는 대규모 실증 기반 인프라로, 실내외 복합 환경에서 다양한 로봇 서비스의 성능을 과학적·정량적으로 검증할 수 있도록 설계된 테스트베드이다. 로봇 서비스는 환경, 운용 조건, 사용 목적에 따라 성능이 달라질 수 있기 때문에, 상용화 전 단계에서의 객관적이고 표준화된 검증 체계가 필수이다. 특히 공공안전, 물류, 의료 등 고신뢰성이 요구되는 분야에서 로봇 서비스의 정량적 성능 검증은 실제 도입 및 확산을 결정짓는 핵심 기준이 되며, 실증 비용과 시간을 절감할 수 있는 가상환경 기반 평가 기법의 중요성 또한 커지고 있다. 아이비스는 이번 과제에서 로봇 서비스 실증을 위한 데이터 수집·전송·시각화·분석 기술을 개발하는 역할을 수행한다. 특히, 다양한 로봇 시스템에서 발생하는 운용 데이터를 수집하고 이를 기반으로 실시간 상태 모니터링, 데이터 표준화 인터페이스, 성능 평가 기준에 따른 분석 환경을 구현하는 소프트웨어를 개발할 계획이다. 또한 데이터 전송을 위한 통신 프로토콜 정의, 가상환경 연동을 위한 시간 가속·감속 처리 기술 등도 아이비스의 주요 개발 항목에 포함된다.     그동안 로봇 서비스 성능 검증은 표준화된 절차나 객관적인 지표가 부족해, 개별 기업의 자체 기준에 의존해 왔다. 아이비스는 이번 과제를 통해 이러한 한계를 극복하고, 데이터 기반 평가 방식으로 전환함으로써 평가의 효율성과 정확성을 동시에 높일 수 있을 것으로 기대하고 있다. 아이비스는 클라우드 기반 차량 통합 관제 시스템, 자율주행 로봇 실증 서비스, 디지털 클러스터 및 인포테인먼트 소프트웨어 개발 등에서 축적해 온 실증형 소프트웨어 개발 경험을 바탕으로 이번 과제의 핵심 기능 개발을 담당하며, 로봇 서비스 성능의 객관적 평가와 검증 체계 고도화에 기여할 계획이다. 또한 실외 자율주행, 스마트시티, 무인이동체 통합관제 등 다양한 실증 환경과 연계해, 데이터 기반 평가 기술의 상용화를 위한 역량을 강화해 나가고 있다. 아이비스의 남기모 대표는 “로봇 서비스가 상용화되기 위해서는 다양한 환경에서 신뢰할 수 있는 평가 체계가 뒷받침되어야 한다. 이번 과제를 통해 아이비스는 데이터 수집부터 시각화, 분석, 검증에 이르는 전 과정을 통합할 수 있는 기술을 개발하고, 실증 기반의 소프트웨어 역량을 로봇 서비스 분야로 확장해 나갈 것”이라고 밝혔다. 이어 “앞으로도 아이비스는 차량 및 모빌리티 소프트웨어 분야에서 쌓아온 경험을 바탕으로, 스마트 모빌리티와 로보틱스가 융합되는 미래 서비스 환경에서 핵심적인 기술 기반을 제공해 나가겠다”고 덧붙였다.
작성일 : 2025-08-04
오라클, AWS 클라우드에서 자율운영 DB 실행하는 ‘데이터베이스앳AWS’ 출시
오라클과 아마존웹서비스(AWS)가 오라클 데이터베이스앳AWS(Oracle Database@AWS)의 공식 출시(GA)를 발표했다. 이제 AWS 클라우드 환경에서 OCI(오라클 클라우드 인프라스트럭처) 전용 인프라의 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service) 및 오라클 자율운영 데이터베이스(Oracle Autonomous Database)를 실행할 수 있다. 오라클 데이터베이스앳AWS는 AWS의 미국 동부 및 서부 리전에서 이용 가능하며, 대한민국 서울을 포함한 전 세계 20여 개 AWS 리전에서 추가로 출시될 예정이다. 기업 고객은 오라클 데이터베이스 워크로드를 AWS 환경에서 OCI 상에서 실행되는 오라클 데이터베이스앳AWS로 손쉽게 마이그레이션할 수 있으며, 오라클 리얼 애플리케이션 클러스터(RAC) 및 AI 벡터 기능이 내장된 최신 오라클 데이터베이스 23ai의 이점도 누릴 수 있다. 오라클 데이터베이스앳AWS에는 제로 ETL(추출, 변환 및 로드) 기능이 포함되어 있어 엔터프라이즈 오라클 데이터베이스 서비스와 AWS 애널리틱스(AWS Analytics) 서비스 간 데이터 통합이 간편해지고, 이로써 복잡한 데이터 파이프라인을 구축하고 관리할 필요가 없어진다. 이는 오라클 데이터베이스 서비스와 AWS 서비스 간 데이터 흐름을 원활하게 하며, 기업은 자사의 데이터를 AWS 분석, 머신러닝 및 생성형 AI 서비스와 결합해 애플리케이션을 추가로 개선할 수 있다. 이번 출시로 클라우드 내 데이터베이스 실행에 있어 기업 고객들의 선택지는 더욱 넓어졌으며, 기존의 AWS 내 오라클 데이터베이스 실행 옵션이 보완됐다. AWS의 G2 크리슈나무티(G2 Krishnamoorthy) 데이터베이스 서비스 부사장은 “기업은 애플리케이션 재설계 없이도 자사의 오라클 데이터베이스 워크로드를 오라클 데이터베이스앳AWS로 원활히 마이그레이션할 수 있다. 동시에 AWS의 글로벌 인프라가 제공하는 보안성과 복원 탄력성, 확장성도 누릴 수 있다”면서, “보안에 가장 민감한 세계 최대 규모 기업 조직의 상당수가 이미 AWS에서 오라클 워크로드를 실행하고 있다. 오라클 데이터베이스앳AWS는 기업이 AWS의 첨단 분석 및 생성형 AI 기능을 바탕으로 보다 손쉽게 데이터로부터 더 큰 가치를 창출하도록 돕는다”고 말했다. 카란 바타 OCI 수석 부사장은 “기업들은 지난 수십 년간 자사의 가장 가치 있는 데이터를 오라클 데이터베이스에 저장해 왔다”면서, “오라클 데이터베이스앳AWS는 AWS 환경의 OCI에서 오라클 데이터베이스 워크로드를 실행할 수 있게 해 준다. 덕분에 오라클 데이터베이스 23ai의 이점을 온전히 활용하여 애플리케이션 개발을 간소화하고, AI 및 네이티브 벡터 임베딩을 바탕으로 미션 크리티컬 워크로드를 실행할 수 있다. AWS의 고급 생성형 AI 및 분석 서비스와 결합된 오라클 데이터베이스앳AWS는 진정 주목할 만한 설루션”이라고 설명했다. 오라클 데이터베이스앳AWS는 OCI와 AWS 전반에 걸쳐 일관된 사용자 경험을 제공하며, 양사의 통합된 지원으로 데이터베이스 관리와 구매, 배포를 간소화할 수 있다. 이는 기업 고객이 신뢰하는 기업용 애플리케이션에 최적화된 참조 아키텍처 및 랜딩 존을 기반으로 설계되었다.  이 서비스를 활용하면 오라클 제로 다운타임 마이그레이션(Oracle Zero Downtime Migration)을 비롯한 마이그레이션 도구와의 호환성을 바탕으로 기존 오라클 데이터베이스의 클라우드 마이그레이션을 간소화 및 가속화할 수 있다. 그리고 오라클 RAC를 통한 워크로드의 고도의 복원력 및 확장성 상승, 여러 AWS 가용 영역(AWS Availability Zones)과 아마존 S3(Amazon S3)을 통한 백업 및 재해 복구가 가능하다. 또한, AWS 마켓플레이스(AWS Marketplace)를 활용한 간소화된 구매 경험을 누릴 수 있다. 기존 AWS 약정 및 BYOL(Bring Your Own License) 등 오라클 라이선스 혜택과 오라클 서포트 리워드(OSR) 등 할인 프로그램을 오라클 데이터베이스앳AWS와 함께 사용할 수 있다. 아마존 EC2(Amazon EC2), 아마존EKS(Amazon EKS), 아마존 ECS(Amazon ECS)와 AI 벡터 검색(AI Vector Search) 등 오라클 데이터베이스 기능을 결합하면 확장 가능한 새로운 마이크로서비스 기반 애플리케이션을 구축할 수 있고, 이를 통해 애플리케이션 인텔리전스를 개선하면서 신기능을 신속하게 시장에 출시할 수 있다. 오라클 데이터베이스앳AWS는 내장형 오라클 AI 벡터 검색을 지원하는 오라클 데이터베이스 23ai를 제공한다. 사용자는 특정 단어와 픽셀, 데이터 값이 아닌 개념적 콘텐츠를 기반으로 문서, 이미지, 관계형 데이터를 손쉽게 검색할 수 있다. AWS 관리 콘솔(AWS Management Console), AWS 명령줄 인터페이스(AWS Command Line Interface), API 등 익숙한 도구 및 손쉬운 워크로드 관리를 위한 모니터링 기능이 제공되며, 고급 분석, 머신러닝, 생성형 AI 서비스를 활용한 데이터 준비가 가능하다. 이외에도 AWS IAM(AWS Identity and Access Management), AWS 클라우드 포메이션(AWS CloudFormation), 아마존 클라우드워치(Amazon CloudWatch), 아마존 VPC 라티스(Amazon VPC Lattice), 아마존 이벤트브리지(Amazon EventBridge) 등 AWS 서비스와의 통합이 제공된다. 한편으로 오라클 E-비즈니스 스위트(Oracle E-Business Suite), 피플소프트(PeopleSoft), JD 에드워즈 엔터프라이즈원(JD Edwards EnterpriseOne), 오라클 EPM(Oracle Enterprise Performance Management), 오라클 리테일 애플리케이션(Oracle Retail Applications) 등 오라클 애플리케이션도 지원된다. 오라클 데이터베이스앳AWS는 현재 AWS 미국 동부(버지니아주 북부) 및 서부(오리건주) 리전에서 이용 가능하며, AWS의 클라우드 인프라를 활용하고 있다. 오라클 데이터베이스앳AWS 설루션은 대한민국의 서울을 포함해 캐나다(중부), 프랑크푸르트, 하이데라바드, 아일랜드, 런던, 멜버른, 밀라노, 뭄바이, 오사카, 파리, 상파울루, 싱가포르, 스페인, 스톡홀름, 시드니, 도쿄, 미국 동부(오하이오주), 미국 서부(캘리포니아주), 취리히를 포함해 20여 곳의 추가 AWS 리전에서도 출시를 앞두고 있다.
작성일 : 2025-07-10
슈나이더 일렉트릭, 고밀도 AI 클러스터 대비 위한 신규 데이터센터 인프라 설루션 출시
슈나이더 일렉트릭이 고밀도 AI 클러스터 환경에 최적화된 차세대 데이터센터 설루션을 소개했다. 이번에 선보인 신규 설루션은 슈나이더 일렉트릭의 통합 인프라 플랫폼인 에코스트럭처 데이터센터 설루션(EcoStruxure Data Center Solutions) 포트폴리오의 일환으로 ▲프리패브 모듈형 팟 데이터센터 아키텍처 ▲고밀도 랙(rack) 시스템 ▲신규 전력 분배 유닛(PDU) 등을 중심으로 구성됐다. 이들 설루션은 모두 엔비디아 MGX 아키텍처를 비롯한 최신 AI 서버 인프라와 호환되며, 글로벌 시장에 동시 출시된다. 현재 데이터센터 업계는 AI 클러스터 도입 가속화에 따라 랙당 전력 밀도가 1MW 이상으로 치솟고 있으며, 기존의 인프라로는 이러한 수요에 안정적으로 대응하기 어려운 상황이다. 슈나이더 일렉트릭은 “설계-구축-운영 전 단계에 걸쳐 검증된 고효율 설루션을 제공함으로써 고객이 빠르게 배치하고, 예측 가능하게 확장하며, 지속 가능하게 운영할 수 있는 데이터센터 환경을 구현하도록 지원하고 있다”고 전했다.     신제품 중 하나인 ‘프리패브 모듈형 에코스트럭처 팟 데이터센터(Prefabricated Modular EcoStruxure Pod Data Center)’는 사전 제작된 형태로, 최대 1MW 이상의 고밀도 랙을 지원하며 액체 냉각, 고전력 부스웨이(Busway), 핫아일(Hot Aisle) 격리 구조 등을 통합해 고효율·고밀도 워크로드에 최적화됐다. 사전 설계 및 조립을 통해 배치 속도와 공급망 안정성을 높인 것이 특징이다. 함께 출시된 ‘에코스트럭처 랙(EcoStruxure Rack) 설루션’은 ORV3, EIA, NVIDIA MGX와 같은 최신 모듈형 서버 표준을 지원하며, 다양한 전력 및 냉각 구성과 호환된다. 특히 ▲높은 중량과 깊이를 지원하는 ‘넷쉘터 SX 어드밴스드 랙(NetShelter SX Advanced Rack)’ ▲AI 서버 전용 고전력 대응 PDU ‘넷쉘터 랙 PDU 어드밴스드(NetShelter Rack PDU Advanced)’ ▲ OCP(Open Compute Project) 아키텍처 기반의 ‘넷쉘터 오픈 아키텍처(NetShelter Open Architecture)’로 구성되어, AI 서버의 설치 및 운영 안정성을 높인다. 특히 넷쉘터 오픈 아키텍처는 엔비디아의 최신 GB200 NVL72 시스템의 MGX 랙 설계를 지원하며, 슈나이더 일렉트릭이 엔비디아의 HGX 및 MGX 생태계에 공식적으로 통합된 첫 사례이다. 이번 신규 포트폴리오는 데이터센터 운영자와 파트너 생태계가 공통적으로 겪고 있는 ▲AI 워크로드에 대응한 전력·냉각 문제 ▲복잡한 인프라 설계 및 배치 ▲빠른 시장 진입 및 공급망 안정성 확보 ▲운영 인력의 전문성 부족 등의 과제를 해결하고자 기획됐다. 슈나이더 일렉트릭은 이번 출시를 통해 기존의 에코스트럭처 기반 하드웨어와 소프트웨어, 그리고 에코케어(EcoCare), 에코컨설트(EcoConsult)와 같은 서비스, 나아가 주요 IT 기업들과의 전략적 파트너십을 포함한 엔드 투 엔드 AI 인프라 설루션 제공 역량을 한층 강화했다고 평가했다. 슈나이더 일렉트릭의 히맘슈 프라사드(Himamshu Prasad) 에코스트럭처 IT, 트랜잭셔널 & 에지, 에너지 저장 센터 오브 엑설런스 부문 수석 부사장은 “AI 시대의 핵심 기반인 데이터센터는 더 이상 단순한 IT 인프라가 아닌, 기업의 지속 가능한 성장 전략 그 자체”라면서, “슈나이더는 고객이 효율적이고 회복력 있는 AI 최적화 데이터센터를 구축할 수 있도록 앞으로도 기술 혁신과 생태계 협업을 이어갈 것”이라고 강조했다.
작성일 : 2025-07-07
실시간 데이터 수집 및 분석, 2D/3D 가상화 솔루션, OCTOPUS Hub
주요 디지털 트윈 소프트웨어   실시간 데이터 수집 및 분석, 2D/3D 가상화 솔루션, OCTOPUS Hub(옥토퍼스 허브)   개발 및 자료 제공 : UVC, 031-346-3366, www.uvc.co.kr   유비씨는 고객의 디지털 전환을 위해 데이터 수집부터 분석, 가상화까지 스마트 팩토리에 필요한 전 주기 솔루션을 개발하는 디지털 트윈 전문기업이다. 국제 산업 표준(OPC UA) 인증으로 이기종의 기계/설비/센서 등을 한 번에 연결하고 노코딩(No-coding) 방식으로 사용자가 쉽게 데이터를 관리 및 활용할 수 있으며, 다수의 공장을 중앙에서 관리하고 협업함으로써 즉각적인 장애 대처, 현장 작업자 교육, 유지보수, 비용 절감을 가능하게 한다.   1. 주요 특징  유비씨의 주력 솔루션인 OCTOPUS Hub는 OPC UA 기반으로 설계되어 공장 내 다양한 설비와 기계를 유연하게 연결하고, 실시간 데이터 수집 및 분석, 2D/3D 가상화를 통해 공장의 운영 효율성을 높인다. 2. 주요 기능 (1) 물리적 시스템과 디지털 시스템의 통합 • 데이터 수집: 센서, PLC, IoT 디바이스 등 물리적 시스템으로부터 데이터를 실시간으로 수집 • 상호 연결성: 물리적 시스템과 디지털 시스템 간 상호운용성 보장 • 디지털 트윈 지원: 물리적 시스템의 디지털 표현을 생성하여 시뮬레이션, 예측 분석, 설계 검증에 활용 (2) OPC UA 모델러 • 사용자들이 공장 내 모든 데이터 포인트 및 인스턴스를 OPC UA로 모델링 할 수 있도록 하는 드롭 앤 드랍 방식의 툴 (3) 스마트 커넥터 • 엣지 컴퓨팅 환경에서 동작하며, 다양한 산업용 디바이스(PLC, 센서)로부터 데이터를 실시간으로 수집·제어하는 동시에, PC의 상태 정보까지 제공하는 전문 프로그램 (4) 캡캐처 • 다양한 설비 프로토콜을 내장해 폭넓은 설비를 지원하며, 실시간 메모리 변화 감지·리포팅, 특정 데이터 검색, 그리고 메모리 녹화를 통한 분석 기능을 제공함으로써 쉽고 효율적인 메모리 스캔을 가능케 하는 전문 툴 (5) 엣지 컴퓨팅 역할 엣지는 실시간 데이터 처리와 물리적 시스템과의 직접 연동을 담당한다. 1) 엣지 컴퓨팅 주요 기능 • 스마트 커넥터 Shop Floor 설비의 Plug & Play  • 데이터 수집 및 전처리 Shop Floor 설비, 센서, PLC와 직접 연결해 데이터를 수집 및 전처리 이기종 프로토콜 변환 및 OPC UA 서버 내장으로 데이터 표준화 • 실시간 처리 및 제어 클라우드로 전송 전 데이터 분석 및 로컬 제어 수행. 낮은 대기 시간을 요구하는 애플리케이션 지원(예: 로봇 제어, 제조 장비 운영). • 컨테이너 기반 서비스 관리 컨테이너 기술(Docker, Kubernetes)을 활용한 서비스 배포 및 업데이트 용이 시스템 확장성 강화 및 장애 시 복구 지원 • 클러스터링 및 안정성 장애 발생 시 단일 실패 지점 방지 및 부하 분산 수행 클러스터 기반 인프라를 통해 안정적 운영 가능 2) 엣지와 CPS 서버 간 협력 • 엣지에서 처리된 데이터를 CPS 서버로 전달하여 고급 분석 및 집계 수행. • CPS 서버는 엣지에서 발생한 데이터를 통합 관리하며, 공장 내 설비와 CPS 간 실시간 연결 유지 (6) 데이터 처리 및 분석 • 분산 데이터 처리 엣지, Fog, Cloud 간 데이터 처리 분담으로 효율성 향상 • 고급 분석 및 의사결정 AI/ML 기반의 데이터 분석 및 예측 기술을 활용해 효율성 극대화 이상 감지 및 사전 예방적 유지보수 수행 (7) 제어 및 피드백 • 실시간 피드백 루프 물리적 시스템 상태를 모니터링하고 분석 결과를 실시간으로 제어에 반영 • 로컬 제어 및 중앙 집중 제어 엣지에서 로컬 제어를 수행하고 CPS 서버에서 중앙 집중적 관리 수행      (8) 네트워크 통신 및 표준 준수 • 산업용 IoT 표준 준수 OPC UA, MQTT 등 국제 표준 프로토콜 기반으로 상호운용성 보장 • 데이터 통신 최적화 엣지에서 데이터를 필터링하고 필수 데이터만 클라우드로 전송하여 네트워크 부하 감소 (9) 시스템 확장성 및 안정성 • 분산 인프라 엣지와 CPS 서버 간 분산 구조를 통해 시스템 확장성과 안정성 확보 클러스터 기반 아키텍처로 확장성 지원 • 단일 실패 지점 방지 장애 복구 및 자동 재구성을 통해 시스템 신뢰성 강화 (10) 보안 및 신뢰성 • 데이터 암호화 및 인증 센서에서 CPS 서버에 이르기까지 모든 데이터의 안전한 통신 보장 • 공격 탐지 및 복구 보안 위협 탐지 및 복구 메커니즘 내장 (11) 사용성과 인터페이스 • 사용자 대시보드 실시간 데이터 모니터링, 경고 및 알림 제공 • 직관적인 인터페이스 AR/VR 및 시각화 기술을 활용한 직관적 운영   3. 도입 효과 (1) 생산성 향상 실시간 데이터 분석과 자동 제어를 통해 생산 공정의 속도와 효율성을 극대화 (2) 운영 효율성 증가 실시간 모니터링과 분석을 통해 공정 병목현상을 제거하고, 자원 활용을 최적화 (3) 데이터 기반 의사결정 실시간 데이터와 분석 결과를 기반으로 신속하고 정확한 경영 및 운영 의사결정 지원 (4) 작업자 안전 강화 위험 요소를 실시간으로 감지하고 경고하여 작업자 안전을 확보 (5) 스마트 공장 구현 디지털 트윈과 엣지 컴퓨팅 기술을 활용하여 공장의 디지털화 및 자동화 추진 (6) 생산 라인의 신속한 전환 가능 데이터 중심의 유연한 제어 및 소프트웨어 중심의 설정 변경 (7) 지속 가능성 증대 생산 공정에서의 에너지 사용과 자원 소모를 실시간으로 모니터링하고 최적화함으로써 환경 영향을 최소화 (8) 데이터 기반 생산 공정 최적화 생산의 전 과정에서 제품, 공정, 설비, 공장 등 모든 개체를 연결, 감시하고 모아진 제조 빅데이터를 관리, 정제, 분석하여 자율, 능동적으로 설계, 운영 최적화를 달성 4. 주요 고객 사이트 현대, 기아, 현대모비스, 현대오토에버, 삼성SDI, 삼성바이오로직스, HL만도, SGC 에너지, 국방기술품질원, 콤텍시스템, 이안, 효성 ITX, LG U+, 유진 로봇(Yujin ROBOT)     상세 내용은 <디지털 트윈 가이드>에서 확인할 수 있습니다. 상세 내용 보러가기
작성일 : 2025-06-29