• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "GPU"에 대한 통합 검색 내용이 1,997개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HP Z AI 워크스테이션 웨비나, 실무 사용기와 함께 공개
AI와 3D 그래픽 작업의 경계가 빠르게 허물어지고 있는 가운데, HP코리아가 차세대 크리에이터를 위한 새로운 솔루션을 선보인다. 10월 22일 오후 2시, 캐드앤그래픽스가 주최하는 웨비나 ‘고가의 GPU 없이도 최대 VRAM 96GB 작업 가능, HP Z AI 워크스테이션 및 사용기 소개’에서는 최신 HP Z AI 워크스테이션의 성능과 실제 현업 디자이너의 사용기를 생생하게 들을 수 있다. 이번 세션은 HP코리아의 차성호 이사(Value Products Category Manager)와 마루인터내셔널 배현수 부장(맥슨 한국총판 기술지원팀)이 발표자로 참여한다. 참가비는 무료이며, 사전등록을 통해 누구나 참여할 수 있다. 이번에 소개되는 HP Z AI 워크스테이션은 GPU 리소스에 대한 한계를 크게 낮춘 것이 특징이다. 고가의 GPU 없이도 최대 96GB VRAM을 활용할 수 있으며, 3D 디자인·렌더링 동시 작업, 대규모 LLM(대형언어모델) 실행 등 기존 워크스테이션에서 경험하기 어려웠던 고부하 작업을 로컬 환경에서도 안정적으로 수행할 수 있다. HP는 이번 모델을 통해 AI 시대의 ‘로컬 퍼포먼스 컴퓨팅’이라는 새로운 비전을 제시하고 있다. 특히 클라우드 의존도를 낮추면서도 고해상도 그래픽, 복잡한 시뮬레이션, 생성형 AI 모델 학습까지 가능하다는 점에서 크리에이터와 엔지니어 모두에게 주목받고 있다. 한편 이번 웨비나의 또 다른 핵심은 실제 현업 디자이너의 사용 경험이다. 맥슨(Maxon)의 한국총판 마루인터내셔널의 배현수 부장은 모션그래픽 디자이너이자 AI 크리에이터로, HP Z2 Mini G1a 데스크탑 워크스테이션을 활용한 협업 사례와 실무 노하우를 직접 공유할 예정이다. 이번 웨비나는 하이엔드 그래픽스, 3D 콘텐츠 제작, 생성형 AI 프로젝트를 수행하는 전문가들에게 실질적인 도움을 줄 것으로 기대된다.
작성일 : 2025-10-21
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
오라클, 대규모 클라우드 AI 클러스터 ‘OCI 제타스케일10’ 공개
오라클이 클라우드 환경 내의 대규모 AI 슈퍼컴퓨터인 ‘오라클 클라우드 인프라스트럭처(OCI) 제타스케일10(Zettascale10)’을 발표했다. OCI 제타스케일10은 여러 데이터센터에 걸쳐 수십만 개의 엔비디아 GPU를 연결하여 멀티 기가와트급 클러스터를 형성하며, 최대 16 제타플롭스(zettaFLOPS)에 이르는 성능을 제공한다. OCI 제타스케일10은 스타게이트의 일환으로 미국 텍사스주 애빌린에서 오픈AI(OpenAI)와 협력하여 구축한 대표 슈퍼클러스터를 구성하는 기반 패브릭이다. 차세대 오라클 액셀러론 RoCE(Oracle Acceleron RoCE) 네트워킹 아키텍처를 기반으로 구축된 OCI 제타스케일10은 엔비디아 AI 인프라로 구동된다. 오라클은 강화된 확장성, 클러스터 전반에 걸친 초저지연 GPU-GPU 통신, 가격 대비 높은 성능, 향상된 클러스터 활용도, 대규모 AI 워크로드에 필요한 안정성을 제공한다는 점을 내세운다. OCI 제타스케일10은 2024년 9월 출시된 첫 번째 제타스케일 클라우드 컴퓨팅 클러스터의 차세대 모델이다. OCI 제타스케일10 클러스터는 대규모 기가와트급 데이터센터 캠퍼스에 배치되며, 2킬로미터 반경 내에서 밀도를 높여 대규모 AI 학습 워크로드에 최적화된 GPU-GPU 지연 성능을 제공한다. 이 아키텍처는 오픈AI와 협력하여 애빌린 소재 스타게이트 사이트에 구축 중에 있다. OCI는 고객에게 OCI 제타스케일10의 멀티기가와트 규모 배포를 제공할 계획이다. 초기에는 최대 80만 개의 엔비디아GPU를 탑재한 OCI 제타스케일10 클러스터 배포를 목표로 한다. 이는 예측 가능한 성능과 강력한 비용 효율을 제공하며, 오라클 액셀러론의 초저지연 RoCEv2 네트워킹으로 높은 GPU-GPU 대역폭을 구현한다. OCI는 현재 OCI 제타스케일10 주문을 접수 중이라고 전했다. 이 제품은 2026년 하반기 출시 예정으로, 최대 80만 개의 엔비디아 AI 인프라 GPU 플랫폼을 기반으로 제공될 예정이다. 오라클의 마헤쉬 티아가라얀 OCI 총괄 부사장은 “OCI 제타스케일10을 통해 우리는 OCI의 혁신적인 오라클 액셀러론 RoCE 네트워크 아키텍처를 차세대 엔비디아 AI 인프라와 결합해 전례 없는 규모에서 멀티기가와트급 AI 용량을 제공한다. 고객은 성능 단위당 전력 소비를 줄이면서 높은 안정성을 달성해 가장 큰 규모의 AI 모델을 실제 운영 환경에 구축, 훈련 및 배포할 수 있다. 또한 강력한 데이터 및 AI 주권 제어 기능을 통해 오라클의 분산형 클라우드 전반에서 자유롭게 운영할 수 있다”고 말했다. 오픈AI의 피터 호셸레(Peter Hoeschele) 인프라 및 산업 컴퓨팅 부문 부사장은 “OCI 제타스케일10 네트워크 및 클러스터 패브릭은 오라클과 함께 구축한 슈퍼클러스터인 텍사스주 애빌린에 위치한 대표 스타게이트 사이트에서 최초로 개발 및 배포되었다. 고도로 확장 가능한 맞춤형 RoCE 설계는 기가와트 규모에서 패브릭 전체 성능을 극대화하면서도 대부분의 전력을 컴퓨팅에 집중시켜 준다. 오라클과 협력하여 애빌린 사이트를 비롯한 스타게이트 프로젝트 전반을 전개해 나갈 수 있어 매우 기쁘게 생각한다”고 말했다.
작성일 : 2025-10-16
AMD, AI용 오픈 랙 플랫폼 기반 ‘헬리오스’ 랙 스케일 플랫폼 공개
AMD는 미국 산호세에서 열린 오픈 컴퓨트 프로젝트(OCP) 글로벌 서밋에서 자사의 ‘헬리오스(Helios)’ 랙 스케일 플랫폼을 첫 공개했다. 메타가 도입한 ‘오픈 랙 와이드(Open Rack Wide : ORW) 스펙을 기반으로 개발된 헬리오스에 대해 AMD는 “개방형 하드웨어 철학을 반도체에서 시스템, 그리고 랙 수준으로 확장하여, 개방적이고 상호운용 가능한 AI 인프라 구축의 중요한 진전을 보여준다”고 소개했다. 헬리오스 플랫폼은 세계적으로 증가하는 AI 컴퓨팅 수요를 뒷받침할 개방적이고 확장 가능한 인프라를 제공하는 기반을 마련한다. 기가와트 규모 데이터센터의 요구 사항을 충족하도록 설계된 새 ORW 스펙은 차세대 AI 시스템의 전력과 냉각 및 손쉬운 유지 보수에 대한 요구에 최적화된 개방형 더블 와이드 랙을 특징으로 한다. 헬리오스는 ORW 및 OCP 표준을 채택함으로써 업계에 고성능 및 고효율의 AI 인프라를 대규모로 개발하고 배포할 수 있는 통합 표준 기술의 기반을 제공한다.     헬리오스 랙 스케일 플랫폼은 OCP DC-MHS, UALink, UEC(Ultra Ethernet Consortium) 아키텍처 등 오픈 컴퓨트 표준을 통합해 개방형 스케일업(scale-up) 및 스케일아웃(scale-out) 패브릭을 모두 지원한다. 이 랙은 지속적인 열 성능을 위한 퀵 디스커넥트(quick-disconnect) 액체 냉각, 유지 보수 편의성을 향상시키는 더블 와이드 구조, 다중 경로 복원력을 위한 표준 기반 이더넷을 특징으로 한다. 헬리오스는 레퍼런스 디자인의 역할을 통해 OEM, ODM 및 하이퍼스케일러가 개방형 AI 시스템을 빠르게 도입하고 확장, 최적화할 수 있도록 지원한다. 이를 통해 AI 인프라의 배포 시간을 단축하고, 상호 운용성을 높여 AI 및 HPC 워크로드의 효율적인 확장이 가능하다. 헬리오스 플랫폼은 전 세계 AI 배포를 위한 개방적이고 확장 가능한 인프라를 구현하기 위해 AMD가 OCP 커뮤니티와 지속적으로 협력한 결과물이다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 그룹 총괄 부사장은 “개방형 플랫폼을 통한 협업은 AI의 효율적인 확장의 핵심”이라며, “‘헬리오스를 통해 우리는 개방형 표준을 실제 배포 가능한 시스템으로 전환해 나가고 있다. AMD 인스팅트(Instinct) GPU, 에픽(EPYC) CPU 및 개방형 패브릭의 결합은 유연하고 고성능의 플랫폼을 통해 차세대 AI 워크로드를 위한 기반을 마련할 것”이라고 말했다.
작성일 : 2025-10-15
인텔, 추론 최적화 데이터센터용 GPU 신제품 발표
인텔은 2025 OCP 글로벌 서밋에서, 자사 AI 가속기 포트폴리오에 추가되는 주요 제품인 인텔 데이터센터용 GPU 신제품 코드명 ‘크레센트 아일랜드(Crescent Island)’를 발표했다. 이 GPU는 증가하는 AI 추론 워크로드 수요를 충족하도록 설계되었으며, 고용량 메모리·에너지 효율적인 성능을 제공한다. 추론이 주요한 AI(인공지능) 워크로드로 자리잡으며, 강력한 칩 이상의 요소, 즉 시스템 차원의 혁신이 성공을 가늠하는 주요 요소가 되었다. 하드웨어부터 오케스트레이션까지, 추론은 다양한 컴퓨팅 유형을 개발자 중심의 개방형 소프트웨어 스택과 통합하는 워크로드 중심의 개방형 접근 방식을 필요로 하며, 이러한 접근 방식은 배포 및 확장이 용이한 시스템으로 제공된다. 인텔은 “인텔 제온 6 프로세서, 인텔 GPU를 기반으로 구축한 설루션을 통해 AI PC부터 데이터 센터, 산업용 에지까지 엔드 투 엔드 설루션을 제공할 수 있는 입지를 갖추고 있다”면서, “성능, 에너지 효율성, 개발자 연속성을 위한 시스템 공동 설계 및 OCP(Open Compute Project)와 같은 커뮤니티와의 협력을 통해 AI 추론이 가장 필요한 모든 곳에서 실행될 수 있도록 지원하고 있다”고 전했다. 코드명 크레센트 아일랜드로 명명된 새로운 데이터센터 GPU는 공랭식 엔터프라이즈 서버에 맞춰 전력 및 비용 최적화를 이루었으며, 추론용 워크플로에 최적화된 대용량 메모리 및 대역폭을 제공하도록 설계되었다. 와트당 성능(PPW)이 최적화된 Xe3P 마이크로아키텍처에 기반을 둔 크레센트 아일랜드 GPU는 160GB의 LPDDR5X 메모리를 탑재했다. 또한 ‘서비스형 토큰(Token-as-a-Service)’ 공급업체 및 추론 사용 사례에 적합한 광범위한 데이터 유형을 지원한다. 인텔의 이기종 AI 시스템을 위한 개방형 통합 소프트웨어 스택은 조기 최적화 및 이터레이션(iteration) 작업이 가능하도록 현재 아크 프로 B(Arc Pro B) 시리즈 GPU에서 개발 및 테스트 중이다. 새로운 데이터센터용 GPU의 고객 샘플링은 2026년 하반기에 제공될 예정이다. 인텔의 사친 카티(Sachin Katti) 최고기술책임자(CTO)는 “인공지능은 정적 학습에서 에이전트형 AI가 주도하는 실시간·전역 추론으로 전환되고 있다”면서, “이러한 복잡한 워크로드를 확장하려면 적절한 실리콘을 적절한 작업에 매칭하는 이종 시스템이 필요하다. 인텔의 Xe 아키텍처 데이터센터 GPU는 토큰 처리량이 급증함에 따라 고객이 필요로 하는 효율적인 헤드룸 성능과 더 큰 가치를 제공할 것”이라고 밝혔다. 
작성일 : 2025-10-15
오라클, 기업의 AI 이니셔티브 가속화 돕는 ‘AI 데이터 플랫폼’ 공개
오라클이 ‘오라클 AI 데이터 플랫폼(Oracle AI Data Platform)’의 정식 출시를 발표했다. 오라클 AI 데이터 플랫폼은 생성형 AI 모델을 기업의 데이터, 애플리케이션, 워크플로와 안전하게 연결할 수 있도록 설계된 포괄적 플랫폼이다. 자동화된 데이터 수집, 시맨틱 강화(semantic enrichment), 벡터 인덱싱에 생성형 AI 도구를 결합해 원시 데이터(raw data)에서 실제 운영 수준(production-grade)의 AI까지 전 과정을 단순화한다. 오라클 AI 데이터 플랫폼은 데이터를 AI에 최적화하고, 오라클 클라우드 인프라스트럭처(OCI), 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database), OCI 생성형 AI(OCI Generative AI) 서비스를 결합해 에이전틱 애플리케이션의 생성과 배포를 가능하게 한다. 기업 고객은 신뢰할 수 있는 실시간 인사이트를 얻을 수 있으며, 반복 업무를 자동화하고, 성장 기회를 발굴하며, 일상적인 워크플로에 지능을 내재화하는 AI 에이전트를 활용할 수 있다. 개발자와 데이터 팀은 엔터프라이즈급 단일 플랫폼에서 이러한 기능을 신속하게 구축하고 확장할 수 있다. 이 플랫폼은 엔비디아 가속 컴퓨팅 인프라를 통합해 고성능 워크로드를 위한 최신 세대 GPU와 라이브러리를 선택할 수 있다. 그 결과 다양한 산업군에서 더욱 신속한 혁신, 높은 생산성, 측정 가능한 비즈니스 성과를 실현할 수 있다. 오라클 AI 데이터 플랫폼은 기업이 데이터와 AI를 효과적으로 활용할 수 있는 기반을 제공한다. 고객은 델타 레이크(Delta Lake) 및 아이스버그(Iceberg)와 같은 오픈 포맷을 활용해 데이터 레이크하우스를 구축하고, 데이터 중복을 줄일 수 있다. 또한 AI 데이터 플랫폼 카탈로그는 모든 데이터와 AI 자산에 대한 통합 뷰와 거버넌스를 제공해 기업의 컴플라이언스 및 신뢰 강화를 지원한다. 카탈로그는 에이전트투에이전트(Agent2Agent : A2A) 및 모델 컨텍스트 프로토콜(MCP) 등 개방형 표준을 폭넓게 지원해 정교한 멀티에이전트 시스템 구성을 가능하게 한다. 더불어 기업 고객을 위한 에이전트 허브(Agent Hub)는 다수의 에이전트를 탐색하는 복잡성을 제거하고, 요청을 해석해 적합한 에이전트를 호출하며, 추천 결과를 제시해 즉각적인 조치를 취할 수 있도록 지원한다. 오라클은 오라클 AI 데이터 플랫폼이 제공하는 기능 및 이점으로 ▲데이터를 인텔리전스로 전환 ▲팀 전반의 혁신 가속 ▲비즈니스 프로세스 자동화 및 확장 ▲엔터프라이즈급 준비 상태 보장 등을 꼽았다. 오라클 AI 데이터 플랫폼은 데이터 레이크하우스와 AI를 하나의 플랫폼에 통합해, 원시 데이터를 실행 가능한 인사이트와 더 스마트한 의사결정으로 전환할 수 있다. 그리고 데이터 엔지니어, 데이터 과학자, AI 개발자를 위한 단일 워크벤치를 제공해 협업과 AI 기반 애플리케이션 제공 속도를 높인다. 이를 통해 단순 분석을 넘어 워크플로를 조율하고, 알림을 자동 생성하며, 비즈니스 성과를 직접 개선하는 AI 에이전트를 통해 효율을 높일 수 있도록 한다. 오라클은 “OCI, 오픈소스 엔진, 업계 선도적 분석 기능, 오라클 자율운영 AI 레이크하우스(Oracle Autonomous AI Lakehouse)의 결합으로 미션 크리티컬 AI 도입에 필요한 규모, 성능, 신뢰성을 제공한다”고 전했다. 제로 ETL(Zero-ETL)과 제로 카피(Zero Copy) 기능을 통해 고객은 재무, HR, 공급망, 마케팅, 영업, 서비스 등 핵심 비즈니스 애플리케이션 데이터는 물론 산업별 애플리케이션 데이터와 기존 엔터프라이즈 데이터베이스에 원활하게 연결할 수 있다. 오라클 AI 데이터 플랫폼은 멀티클라우드 및 하이브리드 크로스-클라우드 오케스트레이션을 지원하여 퍼블릭 클라우드, 온프레미스, 에지 등 모든 소스의 데이터의 연결, 처리, 분석이 가능하다. 또한, 오라클 애플리케이션과 서드파티 환경 전반에서 AI 에이전트가 원활하게 작동할 수 있게 되어 고객이 기업 전반에 걸쳐 AI 기반 혁신을 확장할 수 있다. 오라클은 퓨전(Fusion), 넷스위트(NetSuite)를 포함한 주요 오라클 애플리케이션 제품군 전반과 의료, 소비재, 금융 서비스, 건설 등 산업 전반을 대상으로 사전 통합을 포함한 맞춤형 AI 데이터 플랫폼을 제공할 계획이다. 오라클 퓨전 데이터 인텔리전스(Oracle Fusion Data Intelligence)의 정제되고 풍부하며 AI를 위해 준비된 데이터는 AI 데이터 플랫폼에서 사용 가능하다. 오라클의 T.K. 아난드 총괄부사장은 “오라클 AI 데이터 플랫폼은 고객이 데이터를 AI에 최적화하고, AI를 활용하여 비즈니스 프로세스 전반을 혁신할 수 있도록 돕는다. 이 플랫폼은 데이터를 통합하고 전체적인 AI 라이프사이클을 간소화하여 기업이 신뢰성, 보안성 및 민첩성을 고려하며 AI의 역량을 활용하는 데 있어 가장 포괄적인 기반을 제공한다”고 말했다.
작성일 : 2025-10-15
델, 책상 위의 AI 시스템 ‘델 프로 맥스 위드 GB10’ 출시
델 테크놀로지스가 네트워크 연결 없이 데스크 환경에서 최대 2000억개 매개변수의 LLM(대규모 언어 모델)을 지원하는 AI 시스템 ‘델 프로 맥스 위드 GB10(Dell Pro Max with GB10)’을 출시한다고 밝혔다.  최근 생성형 AI의 패러다임이 인간의 개입 없이 여러 AI가 협력하고 자율적으로 의사결정을 내리는 ‘에이전틱 AI’로 전환되고 있다. AI 성능 향상을 위한 매개변수 증가와 멀티모달 AI 모델 개발이 가속화됨에 따라, AI 워크로드를 안전하고 비용 효율적으로 빠르게 처리할 수 있는 로컬 컴퓨팅 환경의 중요성이 커지고 있다. 새롭게 발표된 델 프로 맥스 위드 GB10은 엔비디아 GB10 그레이스 블랙웰(NVIDIA GB10 Grace Blackwell) 슈퍼칩을 탑재해 AI 개발을 위한 고성능을 제공한다. 최대 2000억개 매개변수의 LLM을 로컬 환경에서 직접 프로토타이핑, 미세조정, 추론까지 할 수 있다는 것이 특징이다. GB10 슈퍼칩은 20코어의 고성능 Arm 아키텍처를 탑재한 그레이스 CPU와 블랙웰 GPU를 결합해 최대 1페타플롭(1초당 1000조번 연산 처리)의 AI 연산 성능을 제공한다.     이 제품은 128GB LPDDR5x 통합 시스템 메모리를 제공하며, 2TB 및 4TB NVMe SSD 옵션을 선택할 수 있어 방대한 데이터 처리와 복잡한 AI 워크로드를 원활히 운영할 수 있다. 또한, TPM 2.0 보안과 안전한 샌드박스 환경 구축을 통해 중요한 기업 데이터를 안전하게 보호할 수 있다.  우분투 리눅스 기반의 엔비디아 DGX OS 및 AI 소프트웨어 스택을 탑재해 AI 개발자가 데스크톱과 데이터센터 환경을 자유롭게 넘나들며 워크로드를 구현할 수 있는 것 또한 특징이다. 초저지연 네트워킹을 지원하는 엔비디아 커넥트X-7(ConnectX-7)으로 델 프로 맥스 위드 GB10 두 대를 연결하면 최대 4000억 개 매개변수 모델도 원활히 처리 가능하다. 또한 ‘엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)’를 기반으로 데스크 환경에서의 프로토타입 제작부터 데이터 센터 배포까지 원활하게 확장할 수 있다. 엔비디아 쿠다(NVIDIA CUDA), 엔비디아 AI 워크벤치(NVIDIA AI Workbench) 및 주피터랩(JupyterLab)과 독커(Docker) 등이 기본 탑재되어 별도의 설치 과정 없이 개봉 즉시 AI 모델 개발과 테스트를 시작할 수 있다. 델은 델 프로 맥스 위드 GB10가 강력한 성능을 기반으로 AI 시대의 다양한 사용자에게 새로운 가능성을 제시한다고 전했다.. 대학 등 연구기관에서는 ‘라마 3.3 70B(Llama 3.3 70B)’와 같은 대규모 언어 모델을 해당 제품에서 직접 실행해 연구 속도를 획기적으로 높일 수 있다. 스타트업 등 중소규모 기업은 추론, 미세 조정, 프로토타이핑 등 AI 개발의 전 과정을 로컬 환경에서 수행하며 복잡한 인프라 구축 없이도 혁신을 빠르게 이어갈 수 있다. 헬스케어나 금융 서비스와 같이 민감한 데이터를 다루는 업계에서는 데이터를 외부로 반출하지 않고 고급 AI 모델을 안전하게 학습 및 운용하여 데이터 보안을 실현하고 리스크를 줄일 수 있다. 크리에이터와 개발자들은 엔터프라이즈급 컴퓨팅 파워를 활용해 외부 인프라 구축 등의 추가 비용 없이, 자신만의 작업 공간에서 비전 모델을 미세 조정하고, AI 기반 콘텐츠를 제작하는 창의적인 프로젝트를 손쉽게 구현할 수 있다. 델 프로 맥스 위드 GB10은 공기 흐름을 최적화한 섀시 디자인을 적용해 장시간 사용 시에도 온도와 소음을 효과적으로 제어하며 안정적인 성능을 유지한다. 델 프로 맥스 위드 GB10은 10월 16일에 출시될 예정이며, 최대 3년간의 델 지원 서비스(Dell Service & Support)가 제공된다. 한국 델 테크놀로지스 김경진 총괄사장은 “온프레미스 환경에서 AI를 구현하는 수요가 증가하는 가운데, 델 프로 맥스 위드 GB10은 엔비디아 GB10 슈퍼칩 기반의 강력한 성능으로 개인용 데스크 환경에서 AI 프로젝트를 실행할 수 있는 획기적인 설루션”이라면서, “델 테크놀로지스는 델 프로 맥스 라인업에 최신 AI 기술을 발빠르게 적용해 제품 포트폴리오를 지속적으로 확장하고 있고, 많은 기업이 보안이나 비용 등의 제약 없이 로컬에서 AI 혁신을 구현하도록 지원하고 있다”고 말했다.
작성일 : 2025-10-14
인텔, 팬서 레이크 아키텍처 공개하면서 18A 공정 기반의 AI PC 플랫폼 제시
인텔은 차세대 클라이언트 프로세서인 인텔 코어 울트라 시리즈 3(코드명 팬서 레이크)의 아키텍처 세부 사항을 공개했다. 2025년 말 출시 예정인 팬서 레이크는 미국에서 개발 및 제조되며, 진보된 반도체 공정인 인텔 18A로 제작된 인텔의 첫 번째 제품이 될 것으로 보인다. 인텔 코어 울트라 시리즈 3 프로세서는 인텔 18A 기반으로 제조된 클라이언트 시스템 온 칩(SoC)으로, 다양한 소비자 및 상업용 AI PC, 게이밍 기기, 에지 설루션을 구동할 예정이다. 팬서 레이크는 확장 가능한 멀티 칩렛 아키텍처를 도입하여 파트너사들에게 폼 팩터, 세그먼트, 가격대 전반에 걸쳐 향상된 유연성을 제공한다. 인텔이 소개한 팬서 레이크의 주요 특징은 ▲루나 레이크 수준의 전력 효율과 애로우 레이크 급 성능 ▲최대 16개의 새로운 P-코어 및 E-코어로 이전 세대 대비 50% 이상 향상된 CPU 성능 제공 ▲최대 12개의 Xe 코어를 탑재한 새로운 인텔 아크 GPU로, 이전 세대 대비 50% 이상 향상된 그래픽 성능 제공 ▲최대 180 플랫폼 TOPS(초당 수 조의 연산)를 지원하는 차세대 AI 가속화를 위한 균형 잡힌 XPU 설계 등이다.     인텔은 팬서 레이크를 PC뿐 아니라 로봇 공학을 포함한 에지 애플리케이션으로 확장할 계획이다. 새로운 인텔 로봇 공학 AI 소프트웨어 제품군과 레퍼런스 보드는 정교한 AI 기능을 갖춘 고객이 팬서 레이크를 제어 및 AI /인식 모두에 활용하여 비용 효율적인 로봇을 신속하게 혁신하고 개발할 수 있도록 지원한다.  팬서 레이크는 2025년 대량 생산을 시작하며, 첫 번째 SKU는 연말 이전에 출하될 예정이다. 또한 2026년 1월부터 폭넓게 시장에 공급될 예정이다.  한편, 인텔은 또한 2026년 상반기에 출시될 예정인 인텔 18A 기반 서버 프로세서인 제온 6+(코드명 클리어워터 포레스트)를 미리 공개했다. 팬서 레이크와 클리어워터 포레스트는 물론 인텔 18A 공정으로 제조된 여러 세대의 제품들은 모두 애리조나주 챈들러에 위치한 인텔의 공장인 팹 52에서 생산된다. 인텔의 차세대 E-코어 프로세서인 인텔 제온 6+는 인텔이 지금까지 개발한 가장 효율적인 서버 프로세서로, 인텔 18A 공정으로 제작된다. 인텔은 2026년 상반기에 제온 6+를 출시할 계획이다.  제온 6+의 주요 특징은 ▲최대 288개의 E-코어 지원 ▲전 세대 대비 사이클당 명령어 처리량(IPC) 17% 향상 ▲밀도, 처리량 및 전력 효율의 개선 등이다. 클리어워터 포레스트는 하이퍼스케일 데이터센터, 클라우드 제공업체 및 통신사를 위해 설계되어 조직이 워크로드를 확장하고 에너지 비용을 절감하며 더 지능적인 서비스를 제공할 수 있도록 지원한다.  인텔 18A는 미국에서 개발 및 제조된 최초의 2나노미터급 노드로, 인텔 3 대비 와트당 성능이 최대 15% 향상되고 칩 밀도가 30% 개선되었다. 이 공정은 미국 오리건 주 공장에서 개발 및 제조 검증 과정을 거쳐 초기 생산을 시작했으며, 현재 애리조나 주에서 대량 생산을 향해 가속화되고 있다. 인텔은 향후 출시될 자사의 클라이언트 및 서버 제품에서 최소 3세대에 인텔 18A 공정을 활용할 계획이다. 인텔 18A는 10년 만에 선보이는 인텔의 새로운 트랜지스터 아키텍처 리본FET(RibbonFET)를 적용해, 더 큰 확장성과 효율적인 스위칭을 통해 성능과 에너지 효율을 높인다. 그리고 새로운 백사이드 전원 공급 시스템인 파워비아(PowerVia)를 통해 전력 흐름과 신호 전달을 개선한다. 인텔의 첨단 패키징 및 3D 칩 적층 기술인 포베로스(Foveros)는 여러 칩렛을 적층 및 통합하여 고급 시스템 온 칩(SoC) 설계로 구현함으로써 시스템 수준에서 유연성, 확장성 및 성능을 제공한다.  인텔의 립부 탄(Lip-Bu Tan) CEO는 “우리는 향후 수십 년간 미래를 형성할 반도체 기술의 큰 도약으로 가능해진 흥미진진한 컴퓨팅의 새 시대에 접어들고 있다”며, “차세대 컴퓨팅 플랫폼은 선도적인 공정 기술, 제조 역량 및 첨단 패키징 기술과 결합되어 새로운 인텔을 구축하는 과정에서 전사적 혁신의 촉매가 될 것이다. 미국은 항상 인텔의 최첨단 연구개발, 제품 설계 및 제조의 본거지였다. 미국내 운영을 확대하고 시장에 새로운 혁신을 선보이면서 이러한 유산을 계승해 나가게 되어 자랑스럽게 생각한다”고 말했다.
작성일 : 2025-10-10
터보기기 해석을 위한 플루언트 터보 워크플로
앤시스 워크벤치를 활용한 해석 성공 사례   터보기기 해석에 많이 쓰이는 앤시스 설루션으로 앤시스 CFX(Ansys CFX)가 있다. 앤시스 플루언트(Ansys Fluent)를 이용하여 터보기기를 해석할 수 없는 것은 아니었지만, 굳이 애써서 할 필요성은 없었다. 하지만 플루언트의 GPU 솔버가 적극적으로 도입된 이 시점에서, GPU를 이용하여 터보기기를 해석할 수 있다면 해석 속도에 있어서 상당한 이점을 가져올 수 있다. 플루언트의 터보 워크플로(Turbo Workflow)는 사용자 편의성을 갖추어 손쉽게 터보기기 해석을 할 수 있도록 지원하고 있다. 플루언트의 터보 워크플로를 이용하여 터보기기를 해석하는 방법을 예제를 통하여 알아보자.   ■ 한성훈 태성에스엔이 FBU-F3팀에서 수석매니저로 근무하고 있으며, 유동 해석 기술 지원 및 교육, 용역 업무를 담당하고 있다. 홈페이지 | www.tsne.co.kr   해석 모델 이번 호에서 다루는 해석 모델은 TFD Hannover 축류압축기이며, <그림 1>과 같이 앞쪽에서부터 총 3 Rows(1.5 단)를 해석 대상으로 한다. 각 단은 IGV – Rotor – Stator로 구성되어 있다. 격자 파일은 플루언트 튜토리얼 turbo_workflow.zip을 다운로드하여 압축을 해제하면 얻을 수 있으며, 앤시스 터보그리드(Ansys TurboGrid)로 생성된 세 개의 파일(IGV.gtm, R1.gtm, S1.gtm)로 구성된다. IGV는 26개, Rotor는 23개, Stator는 30개로 이루어져 있으며, 해석에서는 주기 경계조건을 적용하여 각각 1개의 섹터만을 모델링한다.   그림 1. Schematic Rows   터보 워크플로 시작하기 터보 워크플로는 다음의 경로에서 터보 워크플로를 활성화하여야 시작할 수 있다. Domain → Turbomachinery → Turbo Workflow → Enable Workflow   그림 2. 터보 워크플로 활성화   활성화가 되면 <그림 3>과 같이 Workflow 작업 메뉴들이 생성된다.   그림 3. Turbo Workflow Task   Turbo와 관련된 환경설정 Cell과 Face zone 및 Turbo Topology에 적절한 영역을 할당하기 위해 연관성 설정을 수행한다. 이를 통해 플루언트가 특정 문자열 구성을 일정한 순서로 인식하도록 지시하여, 영역 매핑을 보다 쉽게 수행할 수 있다. File → Preference → Turbo Workflow에서 <그림 4>와 같이 세팅한다.   그림 4. Preference turbo workflow   Describe Component Component Type : Axial Compressor Component Name : hannover Number of Rows : 3 Row1 : name – igv, Type – stationary, #sectors – 26, End Wall Gap – no Row2 : name – r1, Type – rotating, #sectors – 23, End Wall Gap – yes Row3 : name – s1, Type – stationary, #sectors – 30, End Wall Gap – no   그림 5. Describe component     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-10-02
델, 텔레콤 업계와 엔터프라이즈 에지 구축에 최적화된 서버 신제품 공개
델 테크놀로지스가 오픈랜(Open RAN) 및 클라우드랜(Cloud RAN)에 적합한 최적의 성능과 연결성을 제공함으로써 에지 및 통신 인프라 혁신을 견인하는 서버 신제품 ‘델 파워엣지 XR8720t(Dell PowerEdge XR8720t)’를 공개했다. 전통적으로 클라우드랜 및 고도화된 에지 컴퓨팅을 구축하기 위해서는 여러 대의 서버를 설치해야 했기 때문에 높은 비용, 운영상의 복잡성, 공간 부족, 전력 수요 등이 걸림돌로 지적됐다. 이러한 비효율성과 확장성의 제한으로 차세대 애플리케이션에 필요한 실시간 성능 요구 사항을 충족하기 어려웠다. 델 파워엣지 XR8720t는 단일 서버 기반 클라우드랜 설루션으로, 인프라를 간소화하고 성능과 효율을 강화하며, 최신 네트워크 및 에지 구축 환경에서 총소유비용(TCO)을 절감하도록 돕는다.      파워엣지 XR8720t 컴퓨팅 슬레드는 델 파워엣지 XR8000 플랫폼과 통합되며, 까다로운 환경에서의 인프라 구축에 걸림돌이 되는 성능 문제를 해결하게끔 설계됐다. 향상된 처리 능력과 확장된 연결성을 통해 고성능 애플리케이션을 강력하게 지원할 수 있다.  파워엣지 XR8720t는 클라우드와 기존 RAN 아키텍처 간의 성능 격차를 해소하며, 이전 세대 대비 두 배 이상의 처리 성능을 제공한다. 컴팩트한 2U 구성에서 최대 72코어와 24개의 SFP28 연결 포트를 지원한다. 단일 서버 통합으로 다중 서버 아키텍처 대비 구축 시간, 유지보수 및 운영의 복잡성을 낮췄다.  XR8720t는 인텔 vRAN 부스트(Intel vRAN Boost)와 인텔 이더넷(Intel Ethernet) E830-XXVDA8F 네트워킹 기술이 통합된 인텔 제온 6 SoC(Intel Xeon 6 SoC)로 구동된다. 정밀한 네트워크 타이밍 동기화를 위해 PTP, PTM 및 SyncE를 지원하며, 하드웨어 기반 타이밍 팔로어를 탑재했다. 까다로운 클라우드랜 워크로드에 필요한 처리 성능, 포트 밀도(24x SFP28) 및 네트워크 대역폭(600GbE)을 제공하며, 공간 제약이 있는 셀 사이트 구축을 위해 설계된 430mm 깊이의 컴팩트한 사이즈가 특징이다. CPU 기반 워크로드에 AI 기능을 활용하여 에이전틱 AI, 실시간 분석 및 머신러닝과 같은 고급 에지 AI 사용 사례를 지원한다. 유연한 구성으로 필요에 따라 GPU 지원도 가능하여 AI 잠재력을 더욱 확장시킬 수 있다. 극한 환경을 위해 설계된 XR8720t는 영하 5℃에서부터 영상 55℃까지 작동하며, 모듈식 설계로 손쉬운 유지보수 및 업그레이드가 가능하다. 네트워크 장비 구축 시스템(NEBS) 레벨 3 준수 서버로, 전면 접근형 I/O를 통해 가동 중단 시간 및 운영 복잡성을 줄인다. 통신, 에지, 군용 애플리케이션을 위한 확장된 내구성과 신뢰성을 갖췄으며, 지능형 냉각 설계로 비좁은 공간에서도 최적의 냉각 성능을 구현한다. 통신 사업자들은 이 설루션을 활용해 성능 집약적 애플리케이션을 효과적으로 운영하는 동시에 비용을 절감하며, 에지에서 AI를 수월하게 구동시킬 수 있다. 텔레콤뿐 아니라, 리테일, 국방, 제조 등 다양한 분야의 기업들이 AI, 머신러닝 및 기타 컴퓨팅 집약적 워크로드와 높은 수준의 동기화가 요구되는 정밀한 작업을 수행할 수 있다. 한국 델 테크놀로지스의 김경진 총괄사장은 “델 테크놀로지스는 통신 및 에지 인프라 혁신에 지속적으로 기여하고 있다”고 말하며, “고객들은 델 파워엣지 XR7620t를 활용해 구축하기 까다로운 오픈랜이나 클라우드랜 인프라를 단순화하고, 더 강력하고 효율적이며 AI에 최적화된 네트워크를 완성시킬 수 있을 것으로 기대한다”고 덧붙였다.
작성일 : 2025-10-01