• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 랙"에 대한 통합 검색 내용이 362개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AMD, AI용 오픈 플랫폼 기반 ‘헬리오스’ 스케일 플랫폼 공개
AMD는 미국 산호세에서 열린 오픈 컴퓨트 프로젝트(OCP) 글로벌 서밋에서 자사의 ‘헬리오스(Helios)’ 스케일 플랫폼을 첫 공개했다. 메타가 도입한 ‘오픈 와이드(Open Rack Wide : ORW) 스펙을 기반으로 개발된 헬리오스에 대해 AMD는 “개방형 하드웨어 철학을 반도체에서 시스템, 그리고 수준으로 확장하여, 개방적이고 상호운용 가능한 AI 인프라 구축의 중요한 진전을 보여준다”고 소개했다. 헬리오스 플랫폼은 세계적으로 증가하는 AI 컴퓨팅 수요를 뒷받침할 개방적이고 확장 가능한 인프라를 제공하는 기반을 마련한다. 기가와트 규모 데이터센터의 요구 사항을 충족하도록 설계된 새 ORW 스펙은 차세대 AI 시스템의 전력과 냉각 및 손쉬운 유지 보수에 대한 요구에 최적화된 개방형 더블 와이드을 특징으로 한다. 헬리오스는 ORW 및 OCP 표준을 채택함으로써 업계에 고성능 및 고효율의 AI 인프라를 대규모로 개발하고 배포할 수 있는 통합 표준 기술의 기반을 제공한다.     헬리오스 스케일 플랫폼은 OCP DC-MHS, UALink, UEC(Ultra Ethernet Consortium) 아키텍처 등 오픈 컴퓨트 표준을 통합해 개방형 스케일업(scale-up) 및 스케일아웃(scale-out) 패브릭을 모두 지원한다. 이은 지속적인 열 성능을 위한 퀵 디스커넥트(quick-disconnect) 액체 냉각, 유지 보수 편의성을 향상시키는 더블 와이드 구조, 다중 경로 복원력을 위한 표준 기반 이더넷을 특징으로 한다. 헬리오스는 레퍼런스 디자인의 역할을 통해 OEM, ODM 및 하이퍼스케일러가 개방형 AI 시스템을 빠르게 도입하고 확장, 최적화할 수 있도록 지원한다. 이를 통해 AI 인프라의 배포 시간을 단축하고, 상호 운용성을 높여 AI 및 HPC 워크로드의 효율적인 확장이 가능하다. 헬리오스 플랫폼은 전 세계 AI 배포를 위한 개방적이고 확장 가능한 인프라를 구현하기 위해 AMD가 OCP 커뮤니티와 지속적으로 협력한 결과물이다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 그룹 총괄 부사장은 “개방형 플랫폼을 통한 협업은 AI의 효율적인 확장의 핵심”이라며, “‘헬리오스를 통해 우리는 개방형 표준을 실제 배포 가능한 시스템으로 전환해 나가고 있다. AMD 인스팅트(Instinct) GPU, 에픽(EPYC) CPU 및 개방형 패브릭의 결합은 유연하고 고성능의 플랫폼을 통해 차세대 AI 워크로드를 위한 기반을 마련할 것”이라고 말했다.
작성일 : 2025-10-15
HP Z2 미니 G1a 리뷰 : 초소형 워크스테이션의 AI·3D 실전 성능
워크스테이션은 콤팩트한 외형 속에 데스크톱급 성능을 담아낸 전문가용 시스템이다. 단순한 소형 PC와 달리, 3D·영상·AI·엔지니어링 등 고성능이 필요한 크리에이터와 전문 작업자를 위해 설계된 것이 특징이다. 이번 리뷰에서는 실제 소프트웨어 워크플로와 AI·LLM 테스트까지 다양한 관점에서 심층 평가를 진행했다.   ▲ HP Z2 미니 G1a   하드웨어 및 설치 환경 HP Z2 미니 G1a(HP Z2 Mini G1a)의 가장 큰 강점 중 하나는 강력한 하드웨어 스펙이다. AMD 라이젠 AI 맥스+ 프로 395(AMD Ryzen AI Max+ PRO 395) 프로세서(16코어 32스레드, 3.00GHz), 최대 128GB LPDDR5X 메모리, 8TB NVMe SSD, 그리고 16GB VRAM을 탑재한 라데온 8060S(Radeon 8060S) 통합 그래픽 등, 동급 소형 워크스테이션에서는 보기 힘든 구성을 갖췄다. 특히 메모리는 최대 128GB까지 확장 가능하며, 이 중 최대 96GB를 그래픽 자원에 독점 할당할 수 있다. 듀얼 NVMe 및 RAID 지원으로 대용량 데이터 처리와 안정성을 확보했으며, 50TOPS에 달하는 NPU 성능 덕분에 AI 추론 등 최신 워크로드도 소화할 수 있다. 테스트는 윈도우 11 프로 기반, 64GB RAM과 16GB 라데온 8060S, 듀얼 NVMe SSD가 장착된 구성으로 진행됐다.   ▲ HP Z2 미니 G1a의 하드웨어 스펙   전문 소프트웨어 워크플로 직접 HP Z2 미니 G1a를 사용해 본 첫 인상은 “미니 사이즈에서 이 정도 성능이라니?”였다. 크기는 작지만, 성능은 결코 작지 않았다. 시네마 4D(Cinema 4D)로 복잡한 3D 신을 제작하고, 지브러시(ZBrush)에서 대형 폴리곤 모델링과 서브툴 멀티 작업을 해 보니 작업 흐름이 부드럽고, 장시간 동작에도 다운이나 없이 꾸준한 성능으로 작업할 수 있었다. 시네벤치(Cinebench), 시네마 4D, 지브러시, 애프터 이펙트(After Effects), AI 생성형 이미지·영상, LLM 실행 등 전 영역에서 성능 저하를 체가하기 어려웠다. 시네마 4D에서는 수십만~수백만 폴리곤에 달하는 대형 3D 신 파일을 불러오고, 뷰포트 내 실시간 조작이나 배치 렌더링, 애니메이션 키프레임 작업에서 CPU 기반 멀티스레드 성능이 큰 장점을 발휘했다. 시네벤치 2024 멀티코어 점수는 1832점으로, 애플의 M1 울트라보다 높은 수치를 달성해 전문 사용자에게 매력적인 대안이 될 것으로 보인다.   ▲ 시네마 4D에서 테스트   애프터 이펙트 환경에서는 GPU 가속 지원이 부족한 점에도 불구하고, 강력한 CPU 성능 덕분에 고해상도(4K) 다중 레이어 영상 합성, 이펙트, 복수 트랙 편집에서도이나 끊김 없이 작업을 이어갈 수 있었다. 시네마 4D, 지브러시, 콤피UI(ComfyUI) 등과의 멀티태스킹 환경에서도 리소스 병목 없이 쾌적하게 여러 프로그램을 병행 실행하는 것이 가능했다.   ▲ 애프터 이펙트에서 테스트   아이언캐드 대형 어셈블리 테스트 엔지니어링 현장에서 요구되는 대형 어셈블리 작업을 검증하기 위해 동료와 함께 아이언캐드(IronCAD)로 2만여 개(2만 1800개)에 달하는 파트가 포함된 820MB 대용량 CAD 파일을 로딩해 테스트를 진행했다. 이 워크플로는 최근 산업·기계 설계 현장에서 자주 마주치는 극한 환경을 그대로 반영한 조건이었다. 테스트 결과, HP Z2 마니 G1a의 평균 FPS는 약 19로 측정됐다. 이는 노트북용 RTX2060 GPU가 내는 실제 CAD 작업 성능과 동등한 수준에 해당한다. 고용량 모델의 빠른 불러오기, 실시간 3D 뷰 조작, 개별 파트 속성 편집 작업에서 큰 병목이나 지연 없이 효율적인 사용 경험을 확인했다. 대형 파일임에도 불구하고 시스템 자원 부족이나 다운 없이 멀티태스킹 환경에서도 안정적으로 작업이 이어지는 점이 인상적이었다.   ▲ 아이언캐드에서 테스트   AI 및 LLM 활용 AI 작업이나 LLM 실행에서도 강점이 명확했다. 콤피UI에서 Wan2.2, Video-wan2_2_14B_t2v 같은 고사양 텍스트-비디오 생성 모델도 무리 없이 돌릴 수 있었고, LM 스튜디오(LM Studio)와 올라마(Ollama) 기반의 대형 LLM 역시 빠른 추론 속도를 보여줬다. NPU(50TOPS)의 연산 가속과 64GB RAM의 넉넉함 덕분에, AI 모델 로컬 실행/추론에서 항상 안정적인 환경이 보장된다는 느낌이다. 오픈소스 AI 이미지 생성이나 텍스트-비디오 워크플로도 CPU-메모리 조합만으로 병목 없이 부드럽게 동작했다. 쿠다(CUDA)를 지원하지 않는 환경의 한계로 일부 오픈소스 AI 툴은 실행에 제약이 있었으나, CPU와 NPU 조합만으로도 로컬 기반 AI 이미지 생성 및 텍스트-비디오 워크플로에서 동급 대비 빠르고 매끄러운 결과를 보였다.    ▲ 콤피UI에서 테스트   LLM 분야에서는 LM 스튜디오와 올라마를 이용해 7B~33B 규모의 다양한 대형 언어 모델을 구동했다. 64GB RAM과 50TOPS NPU의 지원 덕분에 GPT-3.5, 라마 2(Llama 2) 등 대용량 파라미터 기반의 모델도 실제 업무에서 실시간 질문-응답, 코드 자동완성, 문서 요약 등에 무리 없이 활용 가능했다.   ▲ LLM 테스트   통합 메모리 아키텍처 효과 Z2 미니 G1a의 최고 강점은 UMA(통합 메모리 아키텍처)에 있다. 이 기술은 시스템 메모리(RAM)의 상당 부분을 GPU 연산에 직접 할당해, 기존 분리형 GPU VRAM 성능의 한계를 극복한다. 실제로 탑재된 메모리(64GB~128GB 중 구매 옵션에 따라 선택)를 GPU에 최대 96GB까지 독점적으로 할당할 수 있으며, 복잡한 3D·그래픽 집약적 프로젝트 처리와 생성형 AI·LLM 등의 작업에서 병목 없이 고효율 워크플로를 경험할 수 있었다.   실사용·테스트를 위한 리뷰 환경 제품 리뷰 당시 64GB RAM 탑재 모델을 기준으로, 기본 설정에서는 16~32GB를 GPU에 할당해 일반 CAD·3D·AI 작업을 진행했다. 또한 고해상도 3D 렌더나 생성형 AI 영상 작업에서는 BIOS/소프트웨어에서 48~50GB까지 VRAM 할당을 수동 조정해 본 결과, 대형 프로젝트 파일에서 뷰포트 프레임 저하나 메모리 부족 경고 없이 안정적인 작업 환경을 제공했다. 반대로 GPU에 할당하는 메모리를 늘리면 고용량 데이터 병목이 해결되고, 3D 뷰포트 FPS나 AI 추론 속도 및 이미지 품질·정확도가 확실히 향상되는 것이 일관되게 확인되었다. 실제 기업 환경에서는 128GB 모델을 쓰면 최대 96GB까지 VRAM 할당이 가능하므로 GPU 메모리 병목이 무의미해지고, 기존 미니PC와는 비교할 수 없는 확장성과 작업 안전성을 확보할 수 있다.   아쉬운 점 첫째, 테스트용으로 받았던 장비에서는 HDMI 단자의 부재로 미니 DP로 모니터를 연결해야 했는데, 이는 테스트했던 데모 제품의 기본 옵션에 해당한다. 하지만 HP Z2 미니 G1a는 기업용/구매 시 고객 요구에 따라 HDMI 포트를 포함한 맞춤형 Flex I/O 슬롯 옵션 구성이 가능하다고 한다. 실제로 HP 공식 문서 및 판매 페이지에 따르면, 썬더볼트4(Thunderbolt4), USB-C, 미니 DP 외에도 HDMI를 Flex IO 슬롯에 추가할 수 있으므로, 다수의 모니터·TV·AV 장비로 연결해 사용하는 환경에서도 문제없이 세팅할 수 있다. 둘째, GPU가 AMD 라데온 기반이기 때문에 엔비디아 CUDA를 필요로 하는 GPU 가속 작업(예 : Redshift GPU 렌더러, 딥러닝 프레임워크)은 아예 테스트 자체가 불가능하다. AI, 3D, 영상 워크플로에서 CUDA 생태계를 사용하는 환경에서는 제품 선택 전 미리 확인이 필요하다. 셋째, 고부하 작업 시 팬 소음이 다소 발생할 수 있으므로 조용한 사무실 환경이라면 쿼이엇 모드 설정이 필요하다.   결론 및 추천 HP Z2 미니 G1a 워크스테이션은 한정된 공간에서 고성능이 필요한 크리에이티브 및 AI 전문가, 엔지니어, 디지털 아티스트에게 탁월한 선택지가 될 수 있다. 실제로 써보면, 공간 제약이 있는 환경에서도 3D 모델링, 영상 편집, 생성형 AI, LLM 추론 등 고사양 멀티태스킹을 안정적으로 병행할 수 있었고, 기업용 보안, ISV 인증, 최신 네트워크까지 갖췄다. 다양한 작업을 동시에 손쉽게 처리할 수 있다는 점에서 미니 데스크톱 중에서도 실전 현장에 ‘매우 쓸 만한’ 최상위 선택지라고 생각이 든다. 비록 CUDA 미지원 및 HDMI 포트 부재라는 한계가 있지만, CPU·메모리 중심의 워크플로에선 동급 최고 수준의 안정성과 성능을 보여준다. 최신 AI 및 LLM, 3D·영상·컴포지팅 등 멀티태스킹이 잦은 전문 분야라면 이 제품이 오랜 기간 든든한 실전 파트너가 될 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 배현수 부장 마루인터내셔널(맥슨 한국총판) 기술지원팀, AI 크리에이터, 모션그래픽 디자이너     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
엔비디아, “새로운 오픈 모델과 시뮬레이션 라이브러리로 로보틱스 연구개발 가속화”
엔비디아가 오픈소스 뉴턴 물리 엔진(Newton Physics Engine)을 엔비디아 아이작 랩(NVIDIA Isaac Lab)에서 이용 가능하며, 로봇 기술을 위한 엔비디아 아이작 GR00T N1.6 추론 비전 언어 행동(vision language action : VLA) 모델과 새로운 AI 인프라를 함께 제공한다고 발표했다. 이들 기술은 개발자와 연구자에게 개방형 가속 로보틱스 플랫폼을 제공해 반복 작업을 가속화하고, 테스트를 표준화하며, 로봇의 추론과 훈련 통합을 지원한다. 아울러 로봇이 시뮬레이션에서 실제 환경으로 안전하고 안정적으로 기술을 이전할 수 있도록 돕는다. 로봇은 시뮬레이션 환경에서 더 빠르고 안전하게 학습할 수 있지만, 복잡한 관절, 균형, 움직임을 가진 휴머노이드 로봇은 오늘날 기존 물리 엔진의 한계를 시험한다. 전 세계 25만 명 이상의 로보틱스 개발자들은 정확한 물리 엔진을 필요로 하며, 이는 로봇이 시뮬레이션에서 학습한 기술을 현실 세계에서 안전하고 안정적으로 수행하기 위해 필수이다. 엔비디아는 리눅스 재단이 관리하는 GPU 가속 오픈소스 물리 엔진 뉴턴의 베타 버전을 공개했다. 이는 엔비디아 워프(Warp)와 오픈USD(OpenUSD) 프레임워크 기반으로, 엔비디아와 구글 딥마인드, 디즈니 리서치가 공동 개발했다. 뉴턴은 유연한 설계 및 다양한 물리 솔버와의 호환성을 갖췄다. 이를 통해 개발자가 눈이나 자갈 위를 걷거나, 컵과 과일을 다루는 등 매우 복잡한 로봇 동작을 시뮬레이션하고 이를 현실 세계에 성공적으로 적용할 수 있도록 지원한다.     휴머노이드가 물리적 환경에서 인간과 유사한 작업을 수행하기 위해서는 모호한 지시를 이해하고 이전에 경험하지 못한 상황에 대처할 수 있어야 한다. 곧 허깅 페이스에서 공개될 오픈소스 아이작 GR00T N1.6 로봇 파운데이션 모델의 최신 버전에는 피지컬 AI를 위해 개발된 오픈 맞춤형 추론 비전 언어 모델(VLM)인 엔비디아 코스모스 리즌(Cosmos Reason)이 통합될 예정이다. 코스모스 리즌은 로봇이 심층 사고를 하는 두뇌 역할을 담당하며 기존의 지식, 상식, 물리학을 활용해 모호한 지시를 단계별 계획으로 전환하고, 새로운 상황을 처리하며, 다양한 작업에 걸쳐 일반화할 수 있도록 한다. 코스모스 리즌은 현재 피지컬 리즈닝 리더보드(Physical Reasoning Leaderboard) 1위를 차지하고 있으며, 100만 회 이상 다운로드를 기록했다. 또한, 모델 훈련을 위한 대규모 실제 데이터, 합성 데이터를 선별하고 주석을 달 수 있다. 코스모스 리즌 1은 NIM에서 제공되며, 사용하기 쉬운 마이크로서비스 형태로 AI 모델 배포를 지원한다.  아이작 GR00T N1.6은 휴머노이드가 물체를 동시에 이동하고 조작할 수 있도록 해 상체와 팔의 자유도를 넓히고, 무거운 문을 여는 것과 같은 까다로운 작업을 수행할 수 있도록 한다. 개발자는 허깅 페이스의 오픈소스 엔비디아 피지컬 AI 데이터세트(Physical AI Dataset)를 사용해 아이작 GR00T N 모델을 사후 훈련할 수 있다. 이 데이터세트는 480만 회 이상 다운로드됐으며, 현재 수천 개의 합성 궤적과 실제 궤적 데이터를 포함한다. 또한, 엔비디아는 오픈소스 코스모스 월드 파운데이션 모델(WFM)의 신규 업데이트를 발표했다. 300만 회 이상 다운로드된 이 모델은 개발자가 텍스트, 이미지, 영상 프롬프트를 활용해 대규모로 피지컬AI 모델 훈련을 가속화할 수 있는 다양한 데이터 생성을 지원한다. 코스모스 프리딕트(Cosmos Predict) 2.5는 곧 출시될 예정이며, 세 가지 코스모스 WFM의 성능을 하나의 강력한 모델로 통합해 복잡성을 줄이고, 시간을 절약하며, 효율을 높인다. 또한 최대 30초의 긴 동영상 생성, 다중 뷰 카메라 출력을 지원해 더욱 풍부한 세계 시뮬레이션을 구현한다. 코스모스 트랜스퍼(Cosmos Transfer) 2.5는 곧 출시될 예정이며, 기존 모델 대비 3.5배 작으면서도 더 빠르고 높은 품질의 결과를 제공한다. 이제 사실적인 합성 데이터를 생성할 수 있으며, 그라운드 트루스(ground-truth) 3D 시뮬레이션 장면, 깊이, 세분화, 에지, 고해상도 지도와 같은 공간 제어 입력값을 활용할 수 있다.   로봇에게 물체를 잡는 법을 학습시키는 것은 로보틱스에서 가장 어려운 과제 중 하나다. 파지는 단순히 팔을 움직이는 것이 아니라 생각을 정밀한 동작으로 전환하는 것으로, 로봇이 시행착오를 통해 학습해야 하는 기술이다. 엔비디아 옴니버스(Omniverse) 플랫폼 기반의 아이작 랩 2.3 개발자 프리뷰의 새로운 정밀 파지(dexterous grasping) 워크플로는 다관절 손과 팔을 가진 로봇을 가상 환경에서 자동화된 커리큘럼으로 훈련시킨다. 이 과정은 간단한 작업부터 시작해 점차 복잡성을 높여간다. 해당 워크플로는 중력, 마찰, 물체의 무게 등 요소를 변경해 로봇이 예측 불가능한 환경에서도 기술을 습득하도록 훈련시킨다. 컵을 집거나 방을 가로질러 걷는 것과 같이 새로운 기술을 로봇에게 숙달시키는 것은 매우 어렵다. 또한, 이러한 기술을 실제 로봇에서 테스트하는 과정은 시간과 비용이 많이 요구된다. 이러한 어려움을 해결할 수 있는 방법은 시뮬레이션이다. 시뮬레이션은 로봇이 학습한 기술을 무수한 시나리오, 작업, 환경에서 테스트할 수 있는 방법을 제공한다. 그러나 개발자들은 시뮬레이션 환경에서도 현실 세계를 반영하지 못하고 단편적이고 단순화된 테스트를 구축하는 경우가 많다. 완벽하고 단순한 시뮬레이션 환경에서 학습한 로봇은 현실 세계의 복잡성에 직면하는 순간 실패할 가능성이 크다. 엔비디아와 라이트휠은 개발자가 시스템을 처음부터 구축하지 않고도 시뮬레이션 환경에서 복잡한 대규모 평가를 실행할 수 있는 오픈소스 정책 평가 프레임워크인 아이작 랩-아레나(Arena) 공동 개발 중이다. 이 프레임워크는 확장 가능한 실험과 표준화된 테스트를 지원하며 곧 공개될 예정이다. 엔비디아는 개발자들이 이러한 첨단 기술과 소프트웨어 라이브러리를 최대한 활용할 수 있도록, 까다로운 워크로드를 위해 설계된 AI 인프라를 발표했다. 엔비디아 GB200 NVL72는 엔비디아 그레이스(Grace) CPU 36개와 엔비디아 블랙웰(Blackwell) GPU 72개를 통합한 규모 시스템으로, 주요 클라우드 공급업체들이 채택해 복잡한 추론과 피지컬 AI 작업을 포함한 AI 훈련과 추론을 가속화하고 있다. 엔비디아 RTX 프로 서버(RTX PRO Servers)는 훈련, 합성 데이터 생성, 로봇 학습, 시뮬레이션 전반의 모든 로봇 개발 워크로드를 위한 단일 아키텍처를 제공하며, RAI 연구소(RAI Institute)에서 도입 중이다. 블랙웰 GPU로 구동되는 엔비디아 젯슨 토르(Jetson Thor)는 로봇이 실시간 지능형 상호작용을 위한 다중 AI 워크플로 실행을 지원한다. 또한 실시간 로봇 추론으로 휴머노이드 로보틱스 전반에서 고성능 피지컬 AI 워크로드와 애플리케이션의 돌파구를 마련한다. 젯슨 토르는 피규어 AI, 갤봇(Galbot), 구글 딥마인드, 멘티 로보틱스, 메타(Meta), 스킬드 AI, 유니트리(Unitree) 등 파트너사에 도입 중이다. 엔비디아의 레브 레바레디언(Rev Lebaredian) 옴니버스, 시뮬레이션 기술 부문 부사장은 “휴머노이드는 피지컬 AI의 차세대 영역으로, 예측 불가능한 세상에서 추론하고, 적응하며, 안전하게 행동하는 능력이 필요하다. 이번 업데이트로 개발자들은 로봇을 연구 단계에서 일상 생활로 가져오기 위한 세 가지 컴퓨터를 갖게 됐다. 아이작 GR00T가 로봇의 두뇌 역할을 하고, 뉴턴이 신체를 시뮬레이션하며, 엔비디아 옴니버스가 훈련장이 된다”고 말했다.
작성일 : 2025-09-30
슈나이더 일렉트릭, 데이터센터 위한 리퀴드쿨링 포트폴리오 공개
슈나이더 일렉트릭이 고성능 컴퓨팅(HPC) 및 AI 워크로드에 최적화된 리퀴드쿨링(Liquid Cooling) 설루션 포트폴리오를 공개했다. 이는 올해 초 인수한 모티브에어(Motivair)와의 통합 이후 처음으로 선보이는 리퀴드쿨링 설루션으로, 슈나이더 일렉트릭은 AI 팩토리 구현을 위한 데이터센터 열 관리 시장에 본격 진출하는 것이라고 설명했다. 고성능 컴퓨팅 및 AI 기술의 발전으로 데이터센터의 당 전력 밀도는 140kW를 넘어 1MW 이상까지 고려해야 하는 상황에 직면해 있다. 이처럼 AI 칩이 더욱 뜨겁고 조밀해짐에 따라, 기존 공기 냉각 방식으로는 이러한 고발열 환경을 감당하기 어려워지고 있다. 쿨링이 데이터센터 전력 예산의 40%를 차지하고 있는 가운데 리퀴드쿨링은 공기 냉각에 비해 최대 3000배 더 효율적인 열 제거 성능을 제공하며, 칩 수준에서 직접 열을 제거해 냉각 효율과 에너지 사용량을 동시에 개선할 수 있다. 이로 인해 직접적인 리퀴드쿨링이 차세대 데이터센터의 핵심 기술로 자리 잡고 있다. 슈나이더 일렉트릭의 리퀴드쿨링 설루션은 높은 GPU 밀도와 전력 수요를 안정적이고 효율적으로 충족할 수 있도록 설계되었다. 이는 ▲CDUs(Coolant Distribution Unit) ▲후면 도어 열 교환기(RDHx) ▲HDUs(Liquid-to-Air Heat Dissipation Unit) ▲다이나믹 콜드 플레이트(dynamic cold plates) ▲공랭식 프리쿨링 칠러(Air cooled Free cooling chillers) 등의 데이터센터 물리적 인프라 뿐 아니라 소프트웨어 및 서비스를 포함한 종합적인 열 관리 설루션이다.     CDUs는 차세대 CPU 및 GPU와의 원활한 통합을 위해 설계되었으며, 105kW에서 최대 2.5MW까지 확장 가능하다. 이 기술은 이미 전 세계 상위 10대 슈퍼컴퓨터 중 6대의 냉각을 담당하고 있으며, 엔비디아의 최신 하드웨어에 대해 인증을 획득했다. 후면 도어 열 교환기(RDHx)는 최대 75kW의 밀도를 쿨링할 수 있는 고성능 장비로, 다양한 고성능 컴퓨팅 환경에 유연하게 적용 가능하다. 또한, HDUs은 물 공급이 제한적인 코로케이션 전산실, 실험실 등과 같은 환경에서 AI GPU를 사용하기에 최적화됐으며, 600mm 너비에서 100kW의 열을 제거할 수 있는 성능을 제공한다. 이 유닛은 엔비디아의 NVL144 아키텍처에 1:1로 대응 가능한 132kW급 쿨링 워터 루프를 구성할 수도 있다. 이외에도 공랭식 프리쿨링 칠러와 TCS(Technology Cooling System)는 공랭식 방식의 밀폐 루프로 설계되어, 메가와트(MW) 단위의 냉각 수요를 충족시키는 과정에서 매년 수백만 갤런의 물 사용과 에너지를 절감할 수 있다. 특히 소프트웨어 측면에서 슈나이더 일렉트릭의 에코스트럭처(EcoStruxure) 플랫폼이 공랭 및 리퀴드쿨링 환경 모두에서 최적의 열 관리, 성능, 운영 효율을 지원한다. 한편, 슈나이더 일렉트릭은 리퀴드쿨링 설루션이 요구하는 복잡한 쿨링 요구사항을 제품 설계, 기술 조달, 설치, 소프트웨어 연동, 유지보수에 이르는 전 과정을 엔드 투 엔드 방식으로 해결하고 있다고 전했다. 또한 전 세계 현장에서 축적한 경험과 서비스 역량을 강점 중 하나로 내세운다. “모티브에어는 고밀도 리퀴드쿨링 설루션 분야에서 글로벌 최대 설치 기반을 보유하고 있으며, 현재 전 세계 600명 이상의 현장 HVAC 전문가와 에코엑스퍼트(EcoXpert) 파트너들이 주요 거점 지역에 배치되어 고객 요청에 전문적으로 대응할 수 있는 체계를 갖추고 있다”는 것이 슈나이더 일렉트릭의 설명이다. 모티브에어의 리차드 위트모어(Richard Whitmore) CEO는 “AI 시대의 데이터센터 쿨링 과제가 점점 더 복잡해짐에 따라 우리의 쿨링 포트폴리오는 지속적으로 진화해왔다”면서, “엔비디아 등 주요 GPU 제조업체와 공동으로 설루션을 개발함으로써 반도체 제조업체 수준에서 검증된 전문성을 보여주는 유일한 리퀴드쿨링 공급업체로 거듭났다. 슈나이더 일렉트릭과 협업을 통해 단순히 시장 출시 시간을 단축한 것 뿐만 아니라 전례 없는 포트폴리오를 제공하게 되어 기쁘다”고 전했다. 슈나이더 일렉트릭의 앤드류 브래드너(Andrew Bradner) 쿨링 사업부 수석 부사장은 “AI는 차세대 기술 혁명의 중심에 있으며, 이에 리퀴드쿨링은 단순한 성능 향상 수단을 넘어 데이터센터의 전략적 필수 요소로 자리잡았다”며, “모티브에어와의 결합을 통해 글로벌 수준의 생산력과 공급망을 갖춘 독보적인 리퀴드쿨링 포트폴리오를 제공하게 되었다”고 말했다.
작성일 : 2025-09-30
슈나이더 일렉트릭, 엔비디아와 공동 개발한 차세대 AI 데이터센터 레퍼런스 디자인 발표
슈나이더 일렉트릭이 엔비디아와 공동으로 개발한 두 가지의 새로운 레퍼런스 디자인을 발표했다. 이 레퍼런스 디자인은 AI 인프라의 신속한 배치와 운영 효율을 지원하며, 데이터센터 운영자가 급격히 증가하는 AI 워크로드 수요에 발 빠르게 대응할 수 있도록 돕는다. AI가 발전함에 따라 오늘날 데이터센터 운영자들은 고밀도 GPU 가속 AI 클러스터의 속도 및 배포 과제를 해결하기 위해 참조 설계 프레임 워크에 의존하고 있다. 슈나이더 일렉트릭은 검증되고 문서화된 데이터센터 물리적 인프라 설계를 제공함으로써 전 세계 운영자들이 최신 AI 인프라 설루션이 출시되기 전에 차세대 전력 및 수랭식 제어 인프라를 설계하고 통합할 수 있도록 지원한다. 이는 비용·효율·신뢰성을 최적화하며, 데이터센터 운영자들이 미래 AI 팩토리를 선제적으로 준비할 수 있도록 한다. 슈나이더 일렉트릭이 공개한 첫 번째 레퍼런스 디자인은 통합 전력 관리 및 액체 냉각 제어 시스템 프레임워크를 제공한다. 여기에는 슈나이더 일렉트릭이 인수한 모티브에어(Motivair)의 리퀴드쿨링 포트폴리오가 포함되어 있으며, 이를 통해 복잡한 AI 인프라의 구성 요소를 원활하게 관리할 수 있다. 또한 MQTT 프로토콜 기반의 플러그 앤 플레이 아키텍처를 도입해 OT(운영기술) 인프라와 IT(정보기술) 시스템을 통합할 수 있다. 운영자는 이 두 시스템의 데이터를 실시간으로 활용해 성능을 최적화할 수 있다. 엔비디아의 AI 팩토리 운영 및 오케스트레이션 소프트웨어인 ‘엔비디아 미션 컨트롤(NVIDIA Mission Control)’과의 상호 운용성을 지원해 클러스터 및 워크로드 관리 등 고도화된 기능도 경험할 수 있다. 엔비디아 미션 컨트롤은 원활한 AI 인프라 관리를 지원하여, 데이터센터 운영자들이 AI 환경을 보다 효율적으로 운영할 수 있도록 돕는 것이 특징이다. 이번 AI 인프라 레퍼런스 디자인은 건물 관리 소프트웨어와 원활한 상호운용이 가능하다. 즉, 데이터센터 운영자들은 전력 및 냉각의 이중화 시스템을 구축하고 AI 전력 프로파일 측정 가이던스를 제시하는 등 가동시간, 안정성, 성능을 최고 수준으로 유지하면서 실시간으로 전력 및 냉각 자원을 정밀하게 관리할 수 있다.     두 번째 레퍼런스 디자인은 엔비디아 GB300 NVL72 기반에서 당 최대 142kW의 고밀도 AI 워크로드를 처리할 수 있도록 설계되었다. 이 레퍼런스 디자인은 슈나이더 일렉트릭의 자체 엔지니어링 팀과 설루션을 활용해 구축되었으며, 단일 데이터홀에서 고밀도 AI 클러스터를 운영할 수 있도록 전력, 냉각, IT 공간, 수명주기 소프트웨어 등 네 가지 핵심 영역을 아우른다. 또 ANSI와 IEC 두 가지 표준에 모두 대응한다. 이로 인해 운영자는 데이터센터 설계의 초기 계획 프로세스를 대폭 단축할 수 있으며, 실제 환경에 최적화된 AI 인프라 배치를 구현할 수 있다. 이는 차세대 엔비디아 블랙웰 울트라(NVIDIA Blackwell Ultra) 아키텍처 도입을 위한 프레임워크로, 데이터센터 설계와 운영의 새로운 기준을 제시한다. 이번 발표로 슈나이더 일렉트릭은 기존 GB200 NVL72에 이어 최신 엔비디아 GB300 NVL72 플랫폼을 지원하는 레퍼런스 디자인을 완성하게 됐다. 이를 통해 데이터센터 운영자는 설계 단계부터 디지털 트윈 기반의 시뮬레이션을 적용해 특정 전력 및 냉각 시나리오를 최적화할 수 있으며, 차세대 AI 팩토리의 신뢰성과 효율을 선제적으로 확보할 수 있다. 엔비디아의 스콧 월리스(Scott Wallace) 데이터센터 엔지니어링 디렉터는 “전력, 냉각, 운영의 통합 지능은 데이터센터 아키텍처를 새롭게 정의할 것”이라며, “슈나이더 일렉트릭의 제어 레퍼런스 디자인은 엔비디아 미션 컨트롤과 연계해 AI 팩토리 디지털 트윈을 구현하고, 운영자가 첨단 가속 컴퓨팅 인프라를 최적화할 수 있는 검증된 모델을 제공한다”고 밝혔다. 슈나이더 일렉트릭의 짐 시모넬리(Jim Simonelli) 수석 부사장 겸 최고기술책임자(CTO)는 “슈나이더 일렉트릭은 엔비디아와 개발한 새로운 레퍼런스 디자인을 통해 첨단 AI 인프라의 설계, 구축 및 운영 프로세스를 간소화하고 있다”며, “이번 레퍼런스 디자인은 미래 지향적이며 확장 가능한 설계로, 데이터센터 운영자들이 급증하는 AI 수요를 발 빠르게 대응할 수 있다”고 전했다.
작성일 : 2025-09-25
델, AI 서버 ‘파워엣지 XE7740’에 인텔 가우디 3 PCIe 가속기 탑재
델 테크놀로지스가 인텔 가우디 3(Intel Gaudi 3) PCIe 가속기를 통합 구성한 ‘델 파워엣지 XE7740 (Dell PowerEdge XE7740)’ 서버를 출시했다고 밝혔다. ‘델 파워엣지 XE7740’은 파워엣지 R 시리즈의 통합 용이성과 XE 시리즈의 성능 및 확장성을 결합한 4U 폼팩터 서버로서 성능, 비용 효율, 유연성을 바탕으로 기업들이 엔터프라이즈 AI에 대한 접근성을 높일 수 있도록 설계되었다. 델 파워엣지 XE7740 서버는 기존 데이터센터에 원활하게 구축할 수 있는 최적화된 규모의 설루션을 제공한다. 동시에 LLM(대규모 언어 모델)의 미세 조정 및 고성능 추론을 포함한 광범위한 AI 워크로드의 배포와 운영을 간소화해 엔터프라이즈 AI의 가격 대비 성능 측면을 고려했다.     이번 신제품은 최대 8개의 더블 와이드 또는 PCIe 가속기를 수용할 수 있는 유연한 구성을 제공한다. 최대 8개의 개별 가우디 3 가속기를 탑재할 수 있으며, 옵션으로 2개의 4-웨이(4-way) 브리지 가속기 그룹을 구성하는 것도 가능하다. RoCE(RDMA 오버 컨버지드 이더넷) v2를 통한 4-웨이(4-way) 가우디 3 PCIe 가속기 브리지 연결은 대규모 AI 모델과 더 큰 메모리 공간을 지원하며, 워크플로의 확장성과 유연성을 제공한다. 또한 8개의 표준 높이 PCIe 슬롯과 통합 OCP 네트워킹 모듈을 통해 가속기와 네트워크 인터페이스 카드(NIC)를 최대 1:1 비율로 매칭할 수 있는 유연한 네트워킹을 제공한다. 기존 인프라에 원활하게 통합 가능한 델 파워엣지 XE7740은 많은 기업들이 직면하고 있는당 전력 한계를 극복하여 기존 데이터 센터에서 일반적으로 사용되는 최대 10kW에서 효율적으로 작동한다. 엔터프라이즈 AI를 위한 제품으로서 기존의 공냉식에 장착할 수 있는 XE7740은 ‘델 스마트 쿨링(Dell Smart Cooling)’ 설루션이 적용됐다. 또한 라마4(Llama4), 라마3(Llama3), 딥시크(Deepseek), 파이4(Phi4), 쿠엔3(Qwen3), 팔콘3(Falcon3) 등과 같은 인기 모델에 최적화되어 원활한 AI 워크플로 통합을 지원한다. 다양한 기존 모델 카탈로그와 함께 가우디 3를 사용하면 기업에서 손쉽게 AI 도입을 가속화할 수 있으며, 큰 비용이 소모되는 전력 및 냉각 업그레이드 없이도 높은 성능을 보장한다. 델은 파워엣지 XE7740가 ▲LLM(대규모 언어 모델) 추론 및 미세 조정 ▲이미지 및 음성 인식과 같은 멀티 모달 AI 애플리케이션 ▲데이터 집약적인 의료 분석 및 유전체 염기서열 분석 ▲금융 서비스 사기 탐지 및 위험 완화 ▲유통 및 전자상거래의 실시간 개인화 등 다양한 AI 워크로드를 지원해 엔터프라이즈 AI에 최적화되어 있다고 전했다. AI 워크로드가 증가함에 따라 기업이나 기관들은 사용량 기반으로 과금하는 GPU 가속기 구독 비용이나 클라우드 데이터의 외부 전송(egress) 비용에 부담을 느끼고 있다.  델은 “파워엣지 XE7740은 이런 비용을 절감하면서도 뛰어난 성능과 데이터 보안을 확보해 온프레미스 AI 프로젝트를 간소화하는데 특화된 설루션”이라고 전했다.  한국 델 테크놀로지스의 김경진 총괄사장은 “현재의 경쟁력을 유지하고 AI 미래에 대비하기 위해서는 확장이 용이하고 적응력이 뛰어난 인프라를 확보해 유연한 준비 태세를 갖추어야 한다. 검증된 AI 설계와 기존 에코시스템과의 원활한 통합이 가능한 XE7740은 경쟁이 치열한 시장에서 특히 주목할 만한 제품”이라고 말했다.
작성일 : 2025-09-22
존슨콘트롤즈, 고집적 데이터센터를 위한 ‘확장형 수냉식 냉각 설루션’ 출시
존슨콘트롤즈인터내셔널이 ‘Silent-Aire(사일런트-에어)’ 냉각수 분배 장치(CDU) 플랫폼을 출시했다. 이번에 출시된 사일런트-에어 CDU는 존슨콘트롤즈의 엔드-투-엔드 열 관리 포트폴리오에 추가된 제품으로, 데이터센터 운영자가 집적도 증가에 따라 원활하게 수냉식 냉각으로 전환할 수 있도록 지원한다. 이 설루션은 500kW부터 10MW 이상까지 냉각 용량을 폭넓게 확장할 수 있으며, 유연한 설계로 다양한 데이터센터 구축 환경에 맞춤형 적용이 가능하다.     인공지능(AI) 확산과 컴퓨팅의 전력 수요 증가로 칩의 집적도와 발열량이 높아지면서 데이터센터 냉각 기술 혁신은 핵심 과제로 떠오르고 있다. 사일런트-에어 CDU는 이러한 고집적 칩을 정밀하게 냉각해 데이터센터 소유자와 운영자가 최신 반도체 기술을 안정적으로 도입할 수 있도록 지원한다. 발열 장비의 인접 내부 또는 화이트스페이스 주변부에 설치 가능한 유연한 설계를 바탕으로 다양한 수냉식과 하이브리드 냉각 방식을 지원한다. 이를 통해 에지 기반 추론부터 대규모 AI 팩토리에 이르기까지 고성능 환경에서 정밀하고 효율적인 냉각을 제공한다. 사일런트-에어 CDU는 전 세계 데이터센터에서 사용되는 존슨콘트롤즈의 사일런트 에어, York(요크), M&M Carnot 열 관리 포트폴리오를 기반으로 한다. 존슨콘트롤즈의 통합 열 관리 시스템은 데이터센터 전체 시설 효율을 향상시킬 수 있다. 존슨콘트롤즈는 북미, 유럽, 아시아 태평양 전역의 생산 시설에서 Silent-Aire CDU를 제조한다. 총 16만 7천㎡(180만ft2)에 달하는 이 글로벌 생산 공간을 기반으로 데이터센터 개발 가속화에 맞춰 생산 역량을 확대하고 있다. 또한, 전 세계 4만 명 이상의 현장·서비스 기술자 네트워크를 통해 서비스, 유지보수, 부품 공급을 안정적으로 지원한다. 존슨콘트롤즈의 오스틴 도메니치(Austin Domenici) 데이터센터 설루션 부문 부사장 겸 총괄 매니저는 “존슨콘트롤즈는 칩에서 냉동기까지 데이터센터 냉각 혁신을 선도하고 있으며, 이번 Silent-Aire CDU 출시와 이를 통한 포트폴리오 확장은 그 과정에서 중요한 전환점”이라고 말했다. 그는 이어 “하이퍼스케일, 코로케이션, 반도체 산업을 선도하는 주요 파트너들과 협력해 차세대 AI 학습과 추론용 하드웨어 요구를 충족하는 혁신적이고 확장 가능한 플랫폼을 설계했다. 존슨콘트롤즈는 이를 통해 안정적인 성능을 제공하며, 데이터센터 전문가들의 디지털 경제 확장을 지원하는 전략적 파트너로서의 입지를 강화하고 있다”고 덧붙였다.
작성일 : 2025-09-11
슈나이더 일렉트릭, 고밀도 AI 클러스터 대비 위한 신규 데이터센터 인프라 설루션 출시
슈나이더 일렉트릭이 고밀도 AI 클러스터 환경에 최적화된 차세대 데이터센터 설루션을 소개했다. 이번에 선보인 신규 설루션은 슈나이더 일렉트릭의 통합 인프라 플랫폼인 에코스트럭처 데이터센터 설루션(EcoStruxure Data Center Solutions) 포트폴리오의 일환으로 ▲프리패브 모듈형 팟 데이터센터 아키텍처 ▲고밀도(rack) 시스템 ▲신규 전력 분배 유닛(PDU) 등을 중심으로 구성됐다. 이들 설루션은 모두 엔비디아 MGX 아키텍처를 비롯한 최신 AI 서버 인프라와 호환되며, 글로벌 시장에 동시 출시된다. 현재 데이터센터 업계는 AI 클러스터 도입 가속화에 따라당 전력 밀도가 1MW 이상으로 치솟고 있으며, 기존의 인프라로는 이러한 수요에 안정적으로 대응하기 어려운 상황이다. 슈나이더 일렉트릭은 “설계-구축-운영 전 단계에 걸쳐 검증된 고효율 설루션을 제공함으로써 고객이 빠르게 배치하고, 예측 가능하게 확장하며, 지속 가능하게 운영할 수 있는 데이터센터 환경을 구현하도록 지원하고 있다”고 전했다.     신제품 중 하나인 ‘프리패브 모듈형 에코스트럭처 팟 데이터센터(Prefabricated Modular EcoStruxure Pod Data Center)’는 사전 제작된 형태로, 최대 1MW 이상의 고밀도을 지원하며 액체 냉각, 고전력 부스웨이(Busway), 핫아일(Hot Aisle) 격리 구조 등을 통합해 고효율·고밀도 워크로드에 최적화됐다. 사전 설계 및 조립을 통해 배치 속도와 공급망 안정성을 높인 것이 특징이다. 함께 출시된 ‘에코스트럭처(EcoStruxure Rack) 설루션’은 ORV3, EIA, NVIDIA MGX와 같은 최신 모듈형 서버 표준을 지원하며, 다양한 전력 및 냉각 구성과 호환된다. 특히 ▲높은 중량과 깊이를 지원하는 ‘넷쉘터 SX 어드밴스드(NetShelter SX Advanced Rack)’ ▲AI 서버 전용 고전력 대응 PDU ‘넷쉘터 PDU 어드밴스드(NetShelter Rack PDU Advanced)’ ▲ OCP(Open Compute Project) 아키텍처 기반의 ‘넷쉘터 오픈 아키텍처(NetShelter Open Architecture)’로 구성되어, AI 서버의 설치 및 운영 안정성을 높인다. 특히 넷쉘터 오픈 아키텍처는 엔비디아의 최신 GB200 NVL72 시스템의 MGX 설계를 지원하며, 슈나이더 일렉트릭이 엔비디아의 HGX 및 MGX 생태계에 공식적으로 통합된 첫 사례이다. 이번 신규 포트폴리오는 데이터센터 운영자와 파트너 생태계가 공통적으로 겪고 있는 ▲AI 워크로드에 대응한 전력·냉각 문제 ▲복잡한 인프라 설계 및 배치 ▲빠른 시장 진입 및 공급망 안정성 확보 ▲운영 인력의 전문성 부족 등의 과제를 해결하고자 기획됐다. 슈나이더 일렉트릭은 이번 출시를 통해 기존의 에코스트럭처 기반 하드웨어와 소프트웨어, 그리고 에코케어(EcoCare), 에코컨설트(EcoConsult)와 같은 서비스, 나아가 주요 IT 기업들과의 전략적 파트너십을 포함한 엔드 투 엔드 AI 인프라 설루션 제공 역량을 한층 강화했다고 평가했다. 슈나이더 일렉트릭의 히맘슈 프라사드(Himamshu Prasad) 에코스트럭처 IT, 트랜잭셔널 & 에지, 에너지 저장 센터 오브 엑설런스 부문 수석 부사장은 “AI 시대의 핵심 기반인 데이터센터는 더 이상 단순한 IT 인프라가 아닌, 기업의 지속 가능한 성장 전략 그 자체”라면서, “슈나이더는 고객이 효율적이고 회복력 있는 AI 최적화 데이터센터를 구축할 수 있도록 앞으로도 기술 혁신과 생태계 협업을 이어갈 것”이라고 강조했다.
작성일 : 2025-07-07
슈나이더 일렉트릭, 엔비디아와 협력해 대규모 AI 공장 개발 및 구축 가속화
슈나이더 일렉트릭이 엔비디아와 협력을 통해 대규모 AI 팩토리 구축을 위한 인프라 개발을 가속화한다고 밝혔다. 이번 파트너십은 유럽연합(EU)의 AI 인프라 비전과 ‘인베스트(Invest) AI 이니셔티브’에 부응하는 전략적 협력으로, 양사는 전력, 냉각, 제어 시스템, 고밀도 인프라 등 AI 데이터센터 핵심 요소에 대한 공동 연구개발(R&D)을 본격 추진한다. 슈나이더 일렉트릭와 엔비디아는 특히, EU 집행위원회의 ‘AI 대륙 액션 플랜(AI Continent Action Plan)’ 실현을 위해 긴밀히 협력하고 있다. 이 플랜은 유럽 전역에 최소 13개의 AI 팩토리와 최대 5개의 AI 기가팩토리를 설립하는 것을 목표로 하며, 양사는 지속 가능한 AI 인프라 설계 및 구축을 통해 이를 뒷받침하고 있다. 슈나이더 일렉트릭은 이번 협력 발표와 함께, AI 인프라를 위한 새로운 설루션 라인업을 공개했다. 대표적으로 ‘EcoStruxure Pod 및 인프라’가 있으며, 이 중 모듈형 구조의 마이크로 데이터센터 솔루션은 AI 데이터센터를 빠르게 구축할 수 있는 확장형 아키텍처로 주목받고 있다. 또한 슈나이더 일렉트릭은 엔비디아의 GB200 NVL72 플랫폼을 지원하는 새로운 OCP(Open Compute Project) 기반(Rack) 시스템도 함께 선보였다. 이로써 슈나이더 일렉트릭은 엔비디아의 HGX 및 MGX 생태계에 통합되며, AI 컴퓨팅 생태계와의 협력을 한층 강화했다.     슈나이더 일렉트릭의 올리비에 블룸(Olivier Blum) CEO는 “슈나이더 일렉트릭과 엔비디아는 단순한 협력 그 이상으로, 차세대 AI 팩토리를 위한 인프라를 공동 개발하며 글로벌 시장을 선도하고 있다”며, “양사가 함께 구축한 전력 및 액체 냉각 기반의 차세대 데이터센터 솔루션은 AI 워크로드에 최적화된 지속 가능한 인프라의 새로운 기준을 제시할 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “AI는 지금 이 시대를 정의하는 기술이며, 산업과 사회 전반을 변화시키고 있다”며, “슈나이더 일렉트릭과 함께 우리는 AI가 실현될 수 있는 기반이 되는 AI 팩토리를 만들고 있다”고 밝혔다.
작성일 : 2025-07-01
오라클, “새로운 소버린 에어갭 클라우드 설루션으로 국가 안보 강화 지원”
오라클이 보안용 소버린 컴퓨트 클라우드 서비스인 ‘오라클 컴퓨트 클라우드앳커스터머 아이솔레이티드(Oracle Compute Cloud@Customer Isolated)’를 발표했다. 이 설루션은 인터넷에서 완전히 차단되어 정부 및 규제 대상 산업에 보안 기밀 데이터 관리에 요구되는 수준의 보안 및 제어 권한을 제공한다. 오라클 컴퓨트 클라우드앳커스터머 아이솔레이티드는 각국 정부 및 국방부, 정보 기관, 통신사, 의료 기관 등이 사이버 공격의 위험을 최소화하고, 엄격한 규제 요건을 충족하며 국가 안보를 강화할 수 있도록 설계되었다. 오라클 컴퓨트 클라우드앳커스터머 아이솔레이티드는 오라클 컴퓨트 클라우드앳커스터머(Oracle Compute Cloud@Customer)와 동일한 컴퓨팅, 스토리지, 네트워킹 서비스 및 도구를 제공한다. 이 설루션은 기업 조직이 AI 혁신을 가속화하고, 효율성을 개선하는 동시에 데이터 주권과 기반 인프라 운영을 유지할 수 있도록 지원할 예정이다. 이 설루션은 단일 단위로 배포될 수 있으며, 필요에 따라 확장이 가능하므로 기업 조직은 고유의 데이터 주권 요구사항을 충족하는 격리된 위치에 온프레미스 방식으로 OCI 컴퓨트(OCI Compute) 서비스를 신속하게 배포할 수 있다. 이를 통해 방산 기업은 지원이 필요한 미션 발생 시 어디서나 빠르게 클라우드 마이그레이션을 시작할 수 있다.     오라클이 제공하는 ‘빠른 시작(Fast-Start)’ 경로는 오라클 컴퓨트 클라우드앳커스터머 아이솔레이티드 온프레미스를 6주에서 8주간에 걸쳐 제공하고, 그동안 고객이 향후에 사용할 오라클 클라우드 아이솔레이티드 리전(Oracle Cloud Isolated Region) 구축을 지원한다. 그 대안으로는 전략적 에지 컴퓨팅에서 시작해 오라클 컴퓨트 클라우드앳커스터머 아이솔레이티드 배포를 거쳐, 최종적으로 하이퍼스케일의 에어갭 오라클 클라우드 아이솔레이티드 리전을 구축하는 단계별 도입 방식을 선택할 수 있다. 오라클 클라우드 아이솔레이티드 리전은 인터넷 및 타 클라우드와 차단되어 광범위한 제어 권한을 제공하며, 방위 수행에 요구되는 수준의 데이터 주권 및 보안을 보장한다. 오라클의 맷 레오나드 에지 클라우드 제품 관리 부사장은 “오라클은 국가 안보를 최우선 순위에 두고 있다”면서, “오라클 컴퓨트 클라우드앳커스터머 아이솔레이티드는 규제 대상 산업군의 기업도 클라우드 및 AI의 혜택을 누릴 수 있도록 지원하고, 어디서나 배포 가능한 유연성도 제공할 것”이라고 말했다. 오라클 컴퓨트 클라우드앳커스터머 아이솔레이티드는 2025년 내 출시될 예정이다.
작성일 : 2025-06-30