• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " GPU"에 대한 통합 검색 내용이 1,455개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
CAE 컨퍼런스 2025, 11월 7일 수원컨벤션센터에서 개최 예정
CAE 컨퍼런스 행사장 모습(사진은 CAE 컨퍼런스 2024 전경) 국내 제조업의 디지털 전환을 이끌 ‘CAE 컨퍼런스 2025’가 오는 11월 7일(금) 수원컨벤션센터에서 열린다. 올해로 15회를 맞는 이번 행사는 ‘시뮬레이션의 미래: AI와 디지털 트윈이 주도하는 제조 혁신’을 주제로, AI(인공지능)와 CAE(Computer Aided Engineering)의 융합이 만들어내는 산업 변화와 최신 기술 트렌드를 조명한다. 이번 행사는 월간 캐드앤그래픽스가 주최하고, CAE 컨퍼런스 준비위원회가 주관하며, ‘제7회 스마트공장구축 및 생산자동화전(SMATEC 2025)’과 함께 개최된다.  올해 컨퍼런스에서는 디지털 트윈과 생성형 AI를 접목한 최신 시뮬레이션 기술이 집중적으로 다뤄진다. 앤시스코리아 강태신 전무는 ‘디지털 제조 혁신을 위한 Ansys End-to-End 솔루션’을 주제로, AI 기반 통합 시뮬레이션 전략을 통한 생산성 향상 방안을 제시한다. 연세대학교 이종수 교수는 ‘자율지능 에이전트를 위한 물리모델 기반 시스템엔지니어링 & 생성적 산업인공지능’ 발표를 통해, 분포 외(OOD) 환경에서도 신뢰성을 확보하는 모델기반 접근법을 소개한다. 나니아랩스 강남우 대표는 ‘생성형 AI에서 Agentic AI까지: 자율설계의 미래’를 주제로, 스스로 설계 의사결정을 내리는 Agentic AI 기술과 설계 자동화 사례를 공개한다. 피도텍 최병열 연구위원은 ‘RBDO, 데이터 시대에 무결점 설계를 향해’ 발표를 통해 신뢰도 기반 최적설계의 최신 적용 사례를 다룬다.  또한 메타리버테크놀로지 서인수 이사는 'GPU 기반 입자해석기술(samadii)을 활용한 반도체·디스플레이 응용 사례'를, AWS 전병승 솔루션즈 아키텍트는 ‘클라우드 기반 CAE 혁신’을 주제로 AI와 클라우드를 결합한 차세대 시뮬레이션 환경을 소개한다. 한국알테어 이승훈 본부장은 ‘CAE 최신 동향과 AI 기반 디지털 트윈 가속화’ 발표를 통해 Meshless·Multi-Physics·Cloud 기술 트렌드와 AI 가속화 사례를 발표한다. LG전자 문강석 책임은 ‘파우치형 배터리 실링 공정의 시뮬레이션 최적화’, 장일주 책임은 ‘TV 제품 CAE 자동화 및 AI 활용 사례’를 발표하며, 시뮬레이션이 제조 공정의 신뢰성과 효율성을 동시에 높이는 방법을 제시한다. 현대자동차 한만용 책임연구원은 ‘승객 모니터링과 인체모델의 융합을 통한 디지털 트윈 기술’을 통해 SDV(Software Defined Vehicle) 시대의 고객 중심 설계 혁신 사례를 소개한다. CAE 컨퍼런스 준비위원장 이종수 교수는 “생성형 AI와 물리기반 모델의 결합이 가속화되며, 신뢰성 확보와 시뮬레이션 자동화가 산업의 핵심 이슈로 부상하고 있다”고 강조했다. 그는 이어 “AI·MLOps·클라우드 기반 시뮬레이션이 주도하는 새로운 패러다임 속에서, 지속가능하고 효율적인 제조 혁신 방향을 논의하는 장이 될 것”이라고 덧붙였다. 이번 컨퍼런스에는 현대자동차, LG전자, 앤시스코리아, 피도텍, 나니아랩스, 메타리버테크놀로지, AWS, 한국알테어 등 주요 제조기업과 CAE 솔루션 기업이 참여해 최신 기술과 사례를 공유한다. 또한 SMATEC 2025 전시회와의 연계로 다양한 CAE·AI·디지털 트윈 솔루션을 현장에서 직접 체험할 수 있다. 사전등록은 CAE 컨퍼런스 공식 홈페이지(www.cadgraphics.co.kr/cae)에서 가능하다. 한편, 10월 20일에는 캐드앤그래픽스 지식방송 CNG TV에서 프리뷰 방송이 진행되어, 한국기계연구원 박종원 단장과 태성에스엔이 김지원 이사가 CAE 기술의 방향성과 AI 융합 트렌드를 소개했다.   CAE 컨퍼런스 2025 발표자 - 연세대 이종수 / 앤시스코리아 강태신 /  나니아랩스 강남우 / 피도텍 최병열 / 메타리버테크놀러지 서인수 / AWS 전병승 / 한국알테어 이승훈 / 현대자동차 한만용 / LG전자 장일주 / LG전자 문강석
작성일 : 2025-10-28
레노버, 엔비디아 그레이스 블랙웰 슈퍼칩 탑재한 AI 워크스테이션 ‘씽크스테이션 PGX’ 출시
한국레노버가 엔비디아 GB10 그레이스 블랙웰 슈퍼칩을 탑재한 컴팩트한 AI 워크스테이션 ‘씽크스테이션 PGX(ThinkStation PGX)’를 출시했다. 새롭게 선보인 씽크스테이션 PGX는 AI 연구자, 개발자, 데이터 과학자, 엔지니어 등을 위한 전문 AI 워크스테이션이다. 최대 1페타플롭(1000 TOPS) AI 연산 성능을 제공하며 최대 2000억 개 파라미터를 가진 대규모 생성형 AI 모델을 처리할 수 있다. 128GB 통합 시스템 메모리를 탑재해 사용자는 최신 추론 AI 모델을 실험하고, 미세 조정 및 추론 작업을 원활하게 수행할 수 있다. 두 대의 시스템을 연결하면 최대 4050억 개 파라미터를 가진 더 큰 AI 모델까지 처리 가능하다. 1.13리터의 사이즈와 최소 1.2kg의 무게로 공간 활용성을 높였다.     씽크스테이션 PGX는 엔비디아 DGX OS와 엔비디아 AI 소프트웨어 스택은 물론, 파이토치(PyTorch), 주피터(Jupyter) 등 개발자에게 익숙한 도구와 프레임워크가 사전 구성되어 있다. 이를 통해 개발자는 데스크톱 환경에서 대규모 AI 모델을 즉시 프로토타이핑하고, 미세 조정 및 추론 과정을 거쳐 데이터센터나 클라우드로 손쉽게 배포할 수 있다. 생성형 AI 모델의 규모와 복잡성이 급격히 증가함에 따라 로컬 환경에서의 개발은 점점 더 많은 제약에 직면하고 있다. 대규모 모델의 프로토타이핑, 튜닝, 추론에는 방대한 GPU 메모리와 연산 성능이 요구된다. 씽크스테이션 PGX는 이러한 한계를 극복하고 AI 애플리케이션 프로토타이핑을 위한 강력하면서도 경제적인 플랫폼을 제공한다. 이에 따라 개발자는 AI 온프레미스 클러스터나 클라우드 컴퓨팅 환경의 리소스를 한층 효율적으로 활용할 수 있다. 또한 씽크스테이션 PGX 사용자는 엔비디아 AI 플랫폼 소프트웨어 아키텍처를 기반으로 코드를 거의 수정하지 않고도 데스크톱 환경에서 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 이전 가능하다. 이를 통해 프로토타이핑, 미세 조정, 반복 등 개발 작업을 손쉽게 수행할 수 있다. 한국레노버의 신규식 대표는 “생성형 AI 시대를 맞아 기업과 연구기관의 AI 개발 역량이 핵심 경쟁력으로 부상하고 있다”며, “고성능이면서도 컴팩트한 씽크스테이션 PGX는 전문가들이 클라우드 인프라의 복잡성과 비용 부담 없이 확장 가능한 AI 기능을 구현할 수 있는 최적의 설루션”이라고 말했다. 이어 “레노버는 워크스테이션 포트폴리오를 지속적으로 확장해 전문가들이 생성형 AI 혁신을 가속화하고 채택할 수 있도록 적극 지원할 것”이라고 덧붙였다.
작성일 : 2025-10-27
알테어, GPU·AI·양자컴퓨팅 지원하는 ‘HPC웍스 2026’ 출시
  알테어가 고성능 컴퓨팅(HPC) 및 클라우드 플랫폼 ‘알테어 HPC웍스(Altair HPCWorks) 2026’을 발표했다. 이번 업데이트는 그래픽처리장치(GPU) 통합 및 활용도 강화, 인공지능(AI)·머신러닝 지원 확대, 고도화된 리포팅 기능을 통해 HPC 환경의 가시성과 효율성을 향상시켰다. 최신 버전은 AI 워크로드를 중심으로 설계돼 GPU와의 통합성을 강화했다. 업데이트된 쿠버네티스 커넥터 및 주피터 노트북 연동 기능을 통해 AI 및 머신러닝 모델 학습 환경을 효율적으로 지원하며, 엔비디아, AMD, 인텔 GPU 가속기를 폭넓게 지원한다. IT 관리자는 향상된 GPU 탐색 및 리포팅 기능을 통해 GPU 리소스를 손쉽게 통합하고 최적화할 수 있다. AI 기반 자동화 기능도 대폭 강화됐다. HPC웍스 2026은 AI 기반 메모리 자원 예측 기능을 통해 작업 제출 및 자원 활용을 최적화하고, 지능형 스케줄링 및 메모리 선택 기능으로 HPC 워크로드의 효율성을 극대화한다. 사용자는 복잡한 정보기술(IT) 지식 없이도 빠르게 결과를 얻을 수 있다. 양자 컴퓨팅 지원도 강화됐다. 새로 출시된 버전은 전통적인 방식의 HPC와 양자 컴퓨팅을 결합한 하이브리드 워크플로를 효율적으로 실행할 수 있도록 지원한다. 이를 통해 신용카드 사기 거래 탐지와 같이 복잡하고 동적인 패턴을 분석하는 작업에 활용할 수 있다. 알테어 HPC웍스 2026은 자사 AI 플랫폼인 알테어 래피드마이너와의 연계를 통해 맞춤형 AI 모델 학습과 워크로드 자동화를 지원한다. 또한 리포트·대시보드 확장, 윈도우 전용 데스크톱 클라이언트 제공, 스트리밍 API 등으로 IT 운영 효율을 강화했다. 알테어의 샘 마할링엄 최고기술책임자(CTO)는 “기술 환경이 빠르게 진화함에 따라 알테어는 AI, 머신러닝, 데이터 분석, EDA(전자설계자동화), 양자 컴퓨팅 등 최신 워크로드를 완벽히 지원하도록 설루션을 발전시키고 있다”면서, “지멘스의 일원으로서 향후 이러한 기술력을 더욱 가속화할 예정”이라고 말했다.
작성일 : 2025-10-23
HP Z AI 워크스테이션 웨비나, 실무 사용기와 함께 공개
AI와 3D 그래픽 작업의 경계가 빠르게 허물어지고 있는 가운데, HP코리아가 차세대 크리에이터를 위한 새로운 솔루션을 선보인다. 10월 22일 오후 2시, 캐드앤그래픽스가 주최하는 웨비나 ‘고가의 GPU 없이도 최대 VRAM 96GB 작업 가능, HP Z AI 워크스테이션 및 사용기 소개’에서는 최신 HP Z AI 워크스테이션의 성능과 실제 현업 디자이너의 사용기를 생생하게 들을 수 있다. 이번 세션은 HP코리아의 차성호 이사(Value Products Category Manager)와 마루인터내셔널 배현수 부장(맥슨 한국총판 기술지원팀)이 발표자로 참여한다. 참가비는 무료이며, 사전등록을 통해 누구나 참여할 수 있다. 이번에 소개되는 HP Z AI 워크스테이션은 GPU 리소스에 대한 한계를 크게 낮춘 것이 특징이다. 고가의 GPU 없이도 최대 96GB VRAM을 활용할 수 있으며, 3D 디자인·렌더링 동시 작업, 대규모 LLM(대형언어모델) 실행 등 기존 워크스테이션에서 경험하기 어려웠던 고부하 작업을 로컬 환경에서도 안정적으로 수행할 수 있다. HP는 이번 모델을 통해 AI 시대의 ‘로컬 퍼포먼스 컴퓨팅’이라는 새로운 비전을 제시하고 있다. 특히 클라우드 의존도를 낮추면서도 고해상도 그래픽, 복잡한 시뮬레이션, 생성형 AI 모델 학습까지 가능하다는 점에서 크리에이터와 엔지니어 모두에게 주목받고 있다. 한편 이번 웨비나의 또 다른 핵심은 실제 현업 디자이너의 사용 경험이다. 맥슨(Maxon)의 한국총판 마루인터내셔널의 배현수 부장은 모션그래픽 디자이너이자 AI 크리에이터로, HP Z2 Mini G1a 데스크탑 워크스테이션을 활용한 협업 사례와 실무 노하우를 직접 공유할 예정이다. 이번 웨비나는 하이엔드 그래픽스, 3D 콘텐츠 제작, 생성형 AI 프로젝트를 수행하는 전문가들에게 실질적인 도움을 줄 것으로 기대된다.
작성일 : 2025-10-21
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
오라클, 대규모 클라우드 AI 클러스터 ‘OCI 제타스케일10’ 공개
오라클이 클라우드 환경 내의 대규모 AI 슈퍼컴퓨터인 ‘오라클 클라우드 인프라스트럭처(OCI) 제타스케일10(Zettascale10)’을 발표했다. OCI 제타스케일10은 여러 데이터센터에 걸쳐 수십만 개의 엔비디아 GPU를 연결하여 멀티 기가와트급 클러스터를 형성하며, 최대 16 제타플롭스(zettaFLOPS)에 이르는 성능을 제공한다. OCI 제타스케일10은 스타게이트의 일환으로 미국 텍사스주 애빌린에서 오픈AI(OpenAI)와 협력하여 구축한 대표 슈퍼클러스터를 구성하는 기반 패브릭이다. 차세대 오라클 액셀러론 RoCE(Oracle Acceleron RoCE) 네트워킹 아키텍처를 기반으로 구축된 OCI 제타스케일10은 엔비디아 AI 인프라로 구동된다. 오라클은 강화된 확장성, 클러스터 전반에 걸친 초저지연 GPU-GPU 통신, 가격 대비 높은 성능, 향상된 클러스터 활용도, 대규모 AI 워크로드에 필요한 안정성을 제공한다는 점을 내세운다. OCI 제타스케일10은 2024년 9월 출시된 첫 번째 제타스케일 클라우드 컴퓨팅 클러스터의 차세대 모델이다. OCI 제타스케일10 클러스터는 대규모 기가와트급 데이터센터 캠퍼스에 배치되며, 2킬로미터 반경 내에서 밀도를 높여 대규모 AI 학습 워크로드에 최적화된 GPU-GPU 지연 성능을 제공한다. 이 아키텍처는 오픈AI와 협력하여 애빌린 소재 스타게이트 사이트에 구축 중에 있다. OCI는 고객에게 OCI 제타스케일10의 멀티기가와트 규모 배포를 제공할 계획이다. 초기에는 최대 80만 개의 엔비디아GPU를 탑재한 OCI 제타스케일10 클러스터 배포를 목표로 한다. 이는 예측 가능한 성능과 강력한 비용 효율을 제공하며, 오라클 액셀러론의 초저지연 RoCEv2 네트워킹으로 높은 GPU-GPU 대역폭을 구현한다. OCI는 현재 OCI 제타스케일10 주문을 접수 중이라고 전했다. 이 제품은 2026년 하반기 출시 예정으로, 최대 80만 개의 엔비디아 AI 인프라 GPU 플랫폼을 기반으로 제공될 예정이다. 오라클의 마헤쉬 티아가라얀 OCI 총괄 부사장은 “OCI 제타스케일10을 통해 우리는 OCI의 혁신적인 오라클 액셀러론 RoCE 네트워크 아키텍처를 차세대 엔비디아 AI 인프라와 결합해 전례 없는 규모에서 멀티기가와트급 AI 용량을 제공한다. 고객은 성능 단위당 전력 소비를 줄이면서 높은 안정성을 달성해 가장 큰 규모의 AI 모델을 실제 운영 환경에 구축, 훈련 및 배포할 수 있다. 또한 강력한 데이터 및 AI 주권 제어 기능을 통해 오라클의 분산형 클라우드 전반에서 자유롭게 운영할 수 있다”고 말했다. 오픈AI의 피터 호셸레(Peter Hoeschele) 인프라 및 산업 컴퓨팅 부문 부사장은 “OCI 제타스케일10 네트워크 및 클러스터 패브릭은 오라클과 함께 구축한 슈퍼클러스터인 텍사스주 애빌린에 위치한 대표 스타게이트 사이트에서 최초로 개발 및 배포되었다. 고도로 확장 가능한 맞춤형 RoCE 설계는 기가와트 규모에서 패브릭 전체 성능을 극대화하면서도 대부분의 전력을 컴퓨팅에 집중시켜 준다. 오라클과 협력하여 애빌린 사이트를 비롯한 스타게이트 프로젝트 전반을 전개해 나갈 수 있어 매우 기쁘게 생각한다”고 말했다.
작성일 : 2025-10-16
AMD, AI용 오픈 랙 플랫폼 기반 ‘헬리오스’ 랙 스케일 플랫폼 공개
AMD는 미국 산호세에서 열린 오픈 컴퓨트 프로젝트(OCP) 글로벌 서밋에서 자사의 ‘헬리오스(Helios)’ 랙 스케일 플랫폼을 첫 공개했다. 메타가 도입한 ‘오픈 랙 와이드(Open Rack Wide : ORW) 스펙을 기반으로 개발된 헬리오스에 대해 AMD는 “개방형 하드웨어 철학을 반도체에서 시스템, 그리고 랙 수준으로 확장하여, 개방적이고 상호운용 가능한 AI 인프라 구축의 중요한 진전을 보여준다”고 소개했다. 헬리오스 플랫폼은 세계적으로 증가하는 AI 컴퓨팅 수요를 뒷받침할 개방적이고 확장 가능한 인프라를 제공하는 기반을 마련한다. 기가와트 규모 데이터센터의 요구 사항을 충족하도록 설계된 새 ORW 스펙은 차세대 AI 시스템의 전력과 냉각 및 손쉬운 유지 보수에 대한 요구에 최적화된 개방형 더블 와이드 랙을 특징으로 한다. 헬리오스는 ORW 및 OCP 표준을 채택함으로써 업계에 고성능 및 고효율의 AI 인프라를 대규모로 개발하고 배포할 수 있는 통합 표준 기술의 기반을 제공한다.     헬리오스 랙 스케일 플랫폼은 OCP DC-MHS, UALink, UEC(Ultra Ethernet Consortium) 아키텍처 등 오픈 컴퓨트 표준을 통합해 개방형 스케일업(scale-up) 및 스케일아웃(scale-out) 패브릭을 모두 지원한다. 이 랙은 지속적인 열 성능을 위한 퀵 디스커넥트(quick-disconnect) 액체 냉각, 유지 보수 편의성을 향상시키는 더블 와이드 구조, 다중 경로 복원력을 위한 표준 기반 이더넷을 특징으로 한다. 헬리오스는 레퍼런스 디자인의 역할을 통해 OEM, ODM 및 하이퍼스케일러가 개방형 AI 시스템을 빠르게 도입하고 확장, 최적화할 수 있도록 지원한다. 이를 통해 AI 인프라의 배포 시간을 단축하고, 상호 운용성을 높여 AI 및 HPC 워크로드의 효율적인 확장이 가능하다. 헬리오스 플랫폼은 전 세계 AI 배포를 위한 개방적이고 확장 가능한 인프라를 구현하기 위해 AMD가 OCP 커뮤니티와 지속적으로 협력한 결과물이다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 그룹 총괄 부사장은 “개방형 플랫폼을 통한 협업은 AI의 효율적인 확장의 핵심”이라며, “‘헬리오스를 통해 우리는 개방형 표준을 실제 배포 가능한 시스템으로 전환해 나가고 있다. AMD 인스팅트(Instinct) GPU, 에픽(EPYC) CPU 및 개방형 패브릭의 결합은 유연하고 고성능의 플랫폼을 통해 차세대 AI 워크로드를 위한 기반을 마련할 것”이라고 말했다.
작성일 : 2025-10-15
인텔, 추론 최적화 데이터센터용 GPU 신제품 발표
인텔은 2025 OCP 글로벌 서밋에서, 자사 AI 가속기 포트폴리오에 추가되는 주요 제품인 인텔 데이터센터용 GPU 신제품 코드명 ‘크레센트 아일랜드(Crescent Island)’를 발표했다. 이 GPU는 증가하는 AI 추론 워크로드 수요를 충족하도록 설계되었으며, 고용량 메모리·에너지 효율적인 성능을 제공한다. 추론이 주요한 AI(인공지능) 워크로드로 자리잡으며, 강력한 칩 이상의 요소, 즉 시스템 차원의 혁신이 성공을 가늠하는 주요 요소가 되었다. 하드웨어부터 오케스트레이션까지, 추론은 다양한 컴퓨팅 유형을 개발자 중심의 개방형 소프트웨어 스택과 통합하는 워크로드 중심의 개방형 접근 방식을 필요로 하며, 이러한 접근 방식은 배포 및 확장이 용이한 시스템으로 제공된다. 인텔은 “인텔 제온 6 프로세서, 인텔 GPU를 기반으로 구축한 설루션을 통해 AI PC부터 데이터 센터, 산업용 에지까지 엔드 투 엔드 설루션을 제공할 수 있는 입지를 갖추고 있다”면서, “성능, 에너지 효율성, 개발자 연속성을 위한 시스템 공동 설계 및 OCP(Open Compute Project)와 같은 커뮤니티와의 협력을 통해 AI 추론이 가장 필요한 모든 곳에서 실행될 수 있도록 지원하고 있다”고 전했다. 코드명 크레센트 아일랜드로 명명된 새로운 데이터센터 GPU는 공랭식 엔터프라이즈 서버에 맞춰 전력 및 비용 최적화를 이루었으며, 추론용 워크플로에 최적화된 대용량 메모리 및 대역폭을 제공하도록 설계되었다. 와트당 성능(PPW)이 최적화된 Xe3P 마이크로아키텍처에 기반을 둔 크레센트 아일랜드 GPU는 160GB의 LPDDR5X 메모리를 탑재했다. 또한 ‘서비스형 토큰(Token-as-a-Service)’ 공급업체 및 추론 사용 사례에 적합한 광범위한 데이터 유형을 지원한다. 인텔의 이기종 AI 시스템을 위한 개방형 통합 소프트웨어 스택은 조기 최적화 및 이터레이션(iteration) 작업이 가능하도록 현재 아크 프로 B(Arc Pro B) 시리즈 GPU에서 개발 및 테스트 중이다. 새로운 데이터센터용 GPU의 고객 샘플링은 2026년 하반기에 제공될 예정이다. 인텔의 사친 카티(Sachin Katti) 최고기술책임자(CTO)는 “인공지능은 정적 학습에서 에이전트형 AI가 주도하는 실시간·전역 추론으로 전환되고 있다”면서, “이러한 복잡한 워크로드를 확장하려면 적절한 실리콘을 적절한 작업에 매칭하는 이종 시스템이 필요하다. 인텔의 Xe 아키텍처 데이터센터 GPU는 토큰 처리량이 급증함에 따라 고객이 필요로 하는 효율적인 헤드룸 성능과 더 큰 가치를 제공할 것”이라고 밝혔다. 
작성일 : 2025-10-15
터보기기 해석을 위한 플루언트 터보 워크플로
앤시스 워크벤치를 활용한 해석 성공 사례   터보기기 해석에 많이 쓰이는 앤시스 설루션으로 앤시스 CFX(Ansys CFX)가 있다. 앤시스 플루언트(Ansys Fluent)를 이용하여 터보기기를 해석할 수 없는 것은 아니었지만, 굳이 애써서 할 필요성은 없었다. 하지만 플루언트의 GPU 솔버가 적극적으로 도입된 이 시점에서, GPU를 이용하여 터보기기를 해석할 수 있다면 해석 속도에 있어서 상당한 이점을 가져올 수 있다. 플루언트의 터보 워크플로(Turbo Workflow)는 사용자 편의성을 갖추어 손쉽게 터보기기 해석을 할 수 있도록 지원하고 있다. 플루언트의 터보 워크플로를 이용하여 터보기기를 해석하는 방법을 예제를 통하여 알아보자.   ■ 한성훈 태성에스엔이 FBU-F3팀에서 수석매니저로 근무하고 있으며, 유동 해석 기술 지원 및 교육, 용역 업무를 담당하고 있다. 홈페이지 | www.tsne.co.kr   해석 모델 이번 호에서 다루는 해석 모델은 TFD Hannover 축류압축기이며, <그림 1>과 같이 앞쪽에서부터 총 3 Rows(1.5 단)를 해석 대상으로 한다. 각 단은 IGV – Rotor – Stator로 구성되어 있다. 격자 파일은 플루언트 튜토리얼 turbo_workflow.zip을 다운로드하여 압축을 해제하면 얻을 수 있으며, 앤시스 터보그리드(Ansys TurboGrid)로 생성된 세 개의 파일(IGV.gtm, R1.gtm, S1.gtm)로 구성된다. IGV는 26개, Rotor는 23개, Stator는 30개로 이루어져 있으며, 해석에서는 주기 경계조건을 적용하여 각각 1개의 섹터만을 모델링한다.   그림 1. Schematic Rows   터보 워크플로 시작하기 터보 워크플로는 다음의 경로에서 터보 워크플로를 활성화하여야 시작할 수 있다. Domain → Turbomachinery → Turbo Workflow → Enable Workflow   그림 2. 터보 워크플로 활성화   활성화가 되면 <그림 3>과 같이 Workflow 작업 메뉴들이 생성된다.   그림 3. Turbo Workflow Task   Turbo와 관련된 환경설정 Cell과 Face zone 및 Turbo Topology에 적절한 영역을 할당하기 위해 연관성 설정을 수행한다. 이를 통해 플루언트가 특정 문자열 구성을 일정한 순서로 인식하도록 지시하여, 영역 매핑을 보다 쉽게 수행할 수 있다. File → Preference → Turbo Workflow에서 <그림 4>와 같이 세팅한다.   그림 4. Preference turbo workflow   Describe Component Component Type : Axial Compressor Component Name : hannover Number of Rows : 3 Row1 : name – igv, Type – stationary, #sectors – 26, End Wall Gap – no Row2 : name – r1, Type – rotating, #sectors – 23, End Wall Gap – yes Row3 : name – s1, Type – stationary, #sectors – 30, End Wall Gap – no   그림 5. Describe component     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-10-02