• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "인스팅트"에 대한 통합 검색 내용이 22개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오라클-AMD, 대규모 AI 및 에이전틱 워크로드 지원 위해 협력
오라클과 AMD가 오라클 클라우드 인프라스트럭처(OCI)의 AMD 인스팅트(AMD Instinct) MI355X GPU 지원 계획을 발표했다. MI355X GPU는 대규모 AI 훈련 및 추론 워크로드에서 전 세대 대비 2배 이상 향상된 가성비와 더 많은 선택지를 제공한다. 오라클은 최신 AMD 인스팅트 프로세서로 가속화되는 제타스케일 AI 클러스터를 제공하며, 최대 13만 1072개의 MI355X GPU를 통해 대규모 AI 구축, 훈련, 추론을 지원할 예정이다. 최신 AI 애플리케이션은 더 크고 더 복잡한 데이터세트를 필요로 하며, 오늘날의 고객은 대규모 AI 훈련용으로 설계된 맞춤형 AI 컴퓨팅 설루션을 필요로 한다. AMD 인스팅트 MI355X GPU를 탑재한 제타스케일 OCI 슈퍼클러스터는 최대 13만 1072개의 MI355X GPU를 위한 고처리량, 초저지연 RDMA 클러스터 네트워크 아키텍처를 제공함으로써 이러한 요구를 충족시킨다. AMD 인스팅트 MI355X는 이전 세대의 3배에 이르는 컴퓨팅 성능과 50% 향상된 고대역폭 메모리를 제공한다. 높은 성능과 클라우드 유연성, 오픈소스 호환성을 갖춘 AMD 인스팅트 MI355X 기반 구성은 오늘날 최대 규모의 LLM과 AI 워크로드를 실행하고자 하는 고객에게 적합한 선택지다. OCI 기반 AMD 인스팅트 MI355X는 최대 2.8배 증가한 처리량으로 AI 배포 성능을 향상시킨다. 고객은 대규모 AI 혁신을 위한 더 빠른 결과, 더 짧은 지연 시간, 더 큰 AI 워크로드 실행 능력을 누릴 수 있다. 또한, 대용량 모델 전체를 더 크고 빠른 메모리에서 실행할 수 있어 높은 메모리 대역폭이 필요한 모델의 추론 및 훈련 속도가 향상된다. 새로운 구성은 288기가바이트의 고대역폭 메모리 3(HBM3)과 최대 8테라바이트의 메모리 대역폭을 제공한다. AMD 인스팅트 MI355X는 새로운 4비트 부동 소수점 컴퓨트(FP4) 표준으로 최신 LLM 및 생성형 AI 모델을 비용 효율적으로 배포할 수 있으며, 이를 통해 효율적인 고속 추론이 가능하다. 고밀도 수냉식 설계를 통해 랙당 125킬로와트로 성능 밀도를 극대화해 까다로운 AI 워크로드 처리를 지원하는데, 랙당 64개의 GPU(각 1400와트)가 제공되므로 더 빨라진 훈련 시간, 높은 처리량, 더 낮은 지연 시간을 기대할 수 있다. 이 제품은 신규 에이전틱 애플리케이션을 배포하는 고객에게 더 빠른 TTFT(time-to-first token) 및 높은 초당 토큰 처리량을 지원하며, 최대 3테라바이트의 시스템 메모리를 탑재 가능한 AMD 튜린(AMD Turin) 고주파 CPU를 통해 효율적인 작업 오케스트레이션 및 데이터 처리를 지원함으로써 GPU 성능 최적화를 지원한다. 이외에도 AMD ROCm을 통해 유연한 아키텍처를 활용하고, 특정 공급업체에 종속되는 일 없이 기존 코드를 손쉽게 마이그레이션할 수 있도록 지원한다. AMD ROCm은 널리 사용되는 프로그래밍 모델, 도구, 컴파일러, 라이브러리, 런타임 등을 포함하는 오픈 소프트웨어 스택으로, AMD GPU를 사용한 AI 및 HPC 설루션 개발을 지원한다. 오라클의 마헤쉬 티아가라얀 OCI 총괄 부사장은 “양사는 클라우드에서 가장 까다로운 AI 워크로드를 실행하는 고객들을 지원할 수 있는 가장 광범위한 AI 인프라 제품을 제공하기 위해 노력하고 있다. OCI가 제공하는 성능과 앞선 네트워킹, 유연성, 보안, 규모와 결합된 AMD 인스팅트 GPU는 AI 워크로드 및 새로운 에이전틱 애플리케이션에 대한 추론 및 훈련 요구사항을 충족하는 데 기여할 것”이라고 말했다. AMD의 포레스트 노로드 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 고성능, 효율성, 시스템 설계 유연성 향상을 위한 개방형 설루션을 제공해 왔다. OCI의 최신 세대 AMD 인스팅트 GPU 및 폴라라(Pollara) NIC는 새로운 추론과 미세 조정, 훈련 사용 사례를 지원하며 AI 채택이 확대됨에 따라 고객에게 더 많은 선택권을 제공할 것”이라고 말했다.
작성일 : 2025-06-23
AMD, 개방형 AI 생태계 비전과 함께 신제품 소개
AMD는 연례 행사인 ‘2025 어드밴싱 AI(2025 Advancing AI)’에서 종합적이고 통합된 AI 플랫폼 비전을 발표하고, 업계 표준 기반의 개방적이고 확장 가능한 랙-스케일 AI 인프라를 공개했다. AMD는 인스팅트 MI350 시리즈 GPU를 공개하며, 생성형 AI 및 고성능 컴퓨팅 분야에서 성능, 효율성 및 확장성을 위한 새로운 기준을 내세웠다. 인스팅트 MI350X 및 MI355X GPU 및 플랫폼으로 구성된 MI350 시리즈는 세대 간 AI 컴퓨팅 성능은 4배, 추론 성능은 35배 높아져 산업 전반에 걸친 혁신적인 AI 설루션의 물꼬를 텄다. AMD는 MI355X가 높은 가격 대비 성능을 제공하며, 경쟁 설루션 대비 최대 40% 더 많은 달러당 토큰을 생성할 수 있다고 설명했다.     이번 어드밴싱 AI 행사에서 AMD는 인스팅트 MI350 시리즈 가속기, 5세대 AMD 에픽(AMD EPYC) 프로세서, AMD 펜산도 폴라라 NIC(Pensando Pollara NIC)를 활용한 엔드투엔드 오픈 스탠다드 랙 스케일 AI 인프라를 시연했다. 이는 오라클 클라우드 인프라스트럭처(OCI) 등 하이퍼스케일러에서 이미 운영되고 있고, 2025년 하반기부터 광범위하게 출시할 예정이다. AMD는 이전 세대 대비 MoE(Mixture of Experts) 모델 추론에서 최대 10배 더 높은 성능을 제공하는 MI400 시리즈 GPU를 기반으로 한 차세대 AI 랙 ‘헬리오스(Helios)’도 선공개했다. 이 시스템은 젠 6(Zen 6) 아키텍처 기반의 에픽 ‘베니스(Venice)’ CPU 및 펜산도 ‘불카노(Vulcano)’ NIC를 탑재했다. AMD는 최신 오픈소스 AI 소프트웨어 스택인 ROCm 7도 발표했다. ROCm 7은 생성형 AI와 HPC 워크로드를 충족하도록 설계되어 전반적인 개발자 경험을 끌어 올린다. ROCm 7은 업계 표준 프레임워크에 대한 지원을 높이고 하드웨어 호환성 확대, 개발 도구 및 드라이버, API, 라이브러리 등을 특징으로 내세운다. AMD AI 소프트웨어 개발 부문 부사장 공식 블로그 포스트) 인스팅트 MI350 시리즈는 AI 트레이닝 및 HPC 노드의 에너지 효율을 5년간 30배 개선한다는 AMD의 목표를 초과 달성해 결과적으로 38배라는 개선을 이뤄냈다. AMD는 2030년까지 2024년 기준 대비 랙 스케일 에너지 효율을 20배 향상시키겠다는 새로운 목표도 발표했다. 이는 2030년까지 전력 소비를 95% 줄이는 것인데, 현재 275개 이상의 랙이 필요한 일반적인 AI 모델을 학습시키는 데에 완전히 채워진 랙 1개, 혹은 그 이하의 시스템으로 처리할 수 있다는 것을 의미한다. 이외에도 AMD는 전 세계 개발자 및 오픈소스 커뮤니티를 위한 AMD 개발자 클라우드의 광범위한 출시를 발표했다. 이 클라우드는 고성능 AI 개발을 위해 설계된 완전 관리형 환경으로, 개발자가 AI 프로젝트를 빠르게 시작할 수 있도록 다양한 도구와 유연한 확장성을 제공한다. AMD는 ROCm 7과 AMD 개발자 클라우드를 통해 차세대 컴퓨팅에 대한 장벽을 낮추고 접근성을 넓힐 계획이다. 최근, 세계 10대 AI 및 모델 구축 기업 중 7곳이 AMD 인스팅트 가속기를 기반으로 프로덕션 워크로드를 운영하고 있는 가운데, 메타, 오픈AI, 마이크로소프트, xAI 등 7개 기업은 어드밴싱 AI행사에 참석해 선도적인 AI 모델 학습, 강력한 대규모 추론, AI 탐색과 개발 가속화 등 다양한 분야에서 AMD 설루션을 활용한 사례를 공유했다. 메타는 라마 3(Llama 3) 및 라마 4(Llama 4) 모델 추론에 인스팅트 MI300X를 활용 중이며, MI350의 연산 성능, TCO 대비 성능, 차세대 메모리에 대해 기대감을 나타냈다. 오픈AI의 샘 올트먼(Sam Altman) CEO는 하드웨어, 소프트웨어, 알고리즘 전반에 걸친 최적화의 중요성에 대해 설명하고, AI 인프라 분야에서 AMD와 오픈AI의 긴밀한 파트너십, MI300X 기반 애저(Azure)의 연구 및 GPT 모델, MI400 시리즈 플랫폼에서의 심층적인 설계 참여 등에 대해 논의했다. AMD의 개방형 랙 스케일 AI 인프라를 도입한 OCI는 최대 13만 1072개의 MI355X GPU로 가속화되는 제타스케일 AI 클러스터를 통해 고객들이 대규모 AI 모델을 구축, 학습, 추론할 수 있도록 지원한다고 밝혔다. 그리고 마이크로소프트는 인스팅트 MI300X가 애저 내의 독점 모델과 오픈소스 모델 모두에 사용되고 있다고 발표했다.  AMD의 리사 수(Lisa Su) CEO는 “AMD는 전례 없는 속도로 AI 혁신을 주도하고 있으며, 이는 AMD 인스팅트 MI350 시리즈 가속기 출시, 차세대 AMD ‘헬리오스’ 랙-스케일 설루션의 발전, 그리고 ROCm 개방형 소프트웨어 스택의 성장 모멘텀을 통해 더욱 부각되고 있다”면서, “우리는 개방형 표준, 공동 혁신, 그리고 AI의 미래를 정의하고자 협력하는 광범위한 하드웨어 및 소프트웨어 파트너 생태계 전반에 걸쳐 AMD의 리더십을 확대하고 있으며, 이를 통해 AI의 다음 단계로 진입하고 있다.”고 밝혔다.
작성일 : 2025-06-13
AMD, 사우디 AI 기업 휴메인과 100억 달러 규모 글로벌 AI 인프라 협력 발표
AMD와 사우디아라비아의 신생 AI 기업 휴메인(HUMAIN)은 개방성과 확장성, 복원성 및 비용 효율성을 갖춘 AI 인프라 구축을 위한 계약을 발표했다. 이번 협력을 통해 양사는 향후 5년간 최대 100억 달러를 투자하여 500메가와트 규모의 AI 컴퓨팅 역량을 갖출 예정이다. AMD와 휴메인이 구축하는 AI 슈퍼스트럭처는 개방형 설계 기반으로 대규모 액세스가 가능하며, 기업, 스타트업 및 국가 시장 전반의 AI 워크로드를 구동할 수 있도록 최적화된다. 휴메인은 하이퍼스케일 데이터센터, 지속 가능한 전력 시스템, 글로벌 파이버 상호연결을 포함한 엔드 투 엔드 공급을 총괄하고, AMD는 AMD AI 컴퓨팅 포트폴리오 전 영역과 AMD ROCm 개방형 소프트웨어 생태계를 제공한다. 한편, 이번 협력에 따라 이미 세계 주요 지역에서 초기 구축이 진행되고 있다. 양사는 차세대 AI 반도체와 모듈형 데이터 센터 존, 개방형 표준 및 상호 운용성을 기반으로 구축된 개발자 지원 중심의 소프트웨어 플랫폼 스택의 지원을 바탕으로, 오는 2026년 초까지 멀티-엑사플롭스급 용량을 구축할 계획이다. 또한, 양사는 이번 협력을 통해 사우디아라비아의 에너지 자원, AI 지원 인력, 미래 지향적인 국가 AI 정책과 AMD의 AI 기술을 결합하여 AI 시장을 정의하는 새로운 가치를 제안할 예정이다. AMD는 ▲높은 메모리 및 추론 성능을 제공하는 AMD 인스팅트(AMD Instinct) GPU ▲높은 수준의 컴퓨팅 밀도와 에너지 효율성을 제공하는 AMD 에픽(AMD EPYC) CPU ▲확장 가능하고 안전한 프로그래머블 네트워킹을 지원하는 AMD 펜산도(AMD Pensando) DPU ▲에지에서 온디바이스 AI 컴퓨팅을 구현하는 AMD 라이젠 AI(AMD Ryzen AI) ▲파이토치(PyTorch), SGLang 등 주요 AI 프레임워크를 기본 지원하는 AMD ROCm 개방형 소프트웨어 생태계 등을 제공한다. AMD의 리사 수(Lisa Su) CEO는 “AMD는 전 세계 모든 개발자, AI 스타트업 및 기업에 개방형 고성능 컴퓨팅을 제공함으로써 AI의 미래를 모든 곳에서 실현한다는 야심 찬 비전을 가지고 있다”고 설명하며, “휴메인에 대한 투자는 글로벌 AI 인프라 발전에 있어 중요한 이정표이다. 양사가 함께 전례 없는 수준의 성능, 개방성, 그리고 도달 범위를 제공하는 세계적으로 중요한 AI 플랫폼을 구축할 계획”이라고 밝혔다. 휴메인의 타렉 아민(Tareq Amin) CEO는 “이것은 단순한 인프라 투자가 아닌, 전 세계 혁신가들을 향해 열린 초대”라면서, “우리는 컴퓨팅 수준에서 AI를 대중화하여 고급 AI의 활용이 인프라의 제약 없이 상상력에 의해 실현될 수 있도록 만들고자 한다”고 설명했다.
작성일 : 2025-05-16
AMD 기반 ‘엘 캐피탄’, 세계에서 가장 빠른 슈퍼컴퓨터로 등재
AMD는 세계에서 가장 빠른 슈퍼컴퓨터를 선정하는 톱500(Top500) 리스트에 AMD 기반 슈퍼컴퓨터가 6회 연속 등재되면서 고성능 컴퓨팅(HPC) 분야에서 리더십을 입증했다고 밝혔다. AMD 인스팅트(Instinct) MI300A APU로 구동되고 휴렛팩커드 엔터프라이즈(HPE)가 구축한 미국 로렌스 리버모어 국립 연구소(LLNL)의 엘 캐피탄(El Capitan) 슈퍼컴퓨터는 최신 톱500 리스트에서 1.742 엑사플롭스의 HPL(High-Performance Linpack) 스코어를 기록하며, 세계에서 가장 빠른 슈퍼컴퓨터로 선정되었다.  미국 핵안보국(NNSA)의 첫 번째 엑사스케일급 시스템인 엘 캐피탄은 NNSA의 트리랩스(Tri-Labs)인 LLNL과 로스앨러모스(Los Alamos) 및 샌디아(Sandia) 국립 연구소의 최고 컴퓨팅 자원으로 자리잡았다. 엘 캐피탄은 과학적 탐구와 국가 안보를 강화하는데 사용되며, 핵실험 없는 안전한 핵 억지력과 보안 및 신뢰성을 보장하는데 필요한 방대한 컴퓨팅 성능을 제공한다. 이 시스템은 노후 핵 비축물 인증과 같은 NNSA의 핵 비축물 관리 프로그램(Stockpile Stewardship Program)을 비롯해 확산 방지 및 대테러와 같은 주요 핵 안보 임무에 필수적인 모델링 및 시뮬레이션 기능을 지원한다.     LLNL과 NNSA의 다른 연구소들은 엘 캐피탄과 함께 AI 및 머신러닝 기반 데이터 분석을 수행하는 투올러미(Tuolumne) 시스템을 활용하여 빠르고 정확하게 예측 불확실성을 정량화할 수 있는 과학 모델을 생성하기 위한 LLNL의 AI 기반 목표를 더욱 가속화하고 있다. 엘 캐피탄은 AI를 적용하여 관성 봉입 핵융합(Inertial Confinement Fusion) 연구와 같은 고밀도 에너지 문제를 해결하는데 사용되고, 투올러미는 기후 모델링과 방역 및 신약 개발, 지진 모델링 등 비분류 공개 과학(Unclassified Open Science) 응용 분야에 활용될 예정이다. AMD의 최신 에픽 9005 시리즈 프로세서는 엔터프라이즈, AI 및 클라우드 환경을 위한 서버 CPU로, 고성능 컴퓨팅 및 AI 워크로드에서 이전 세대 대비 최대 37% 향상된 IPC(Instruction Per Cycle) 성능을 제공한다. 또한, 이 프로세서는 세계적인 난제를 해결하는 과학 및 고성능 컴퓨팅 애플리케이션에서 경쟁사 대비 최대 3.9배 더 빠른 인사이트 도출 시간을 제공한다. AMD 인스팅트 가속기는 AI 설루션에서 엑사스케일급 슈퍼컴퓨터에 이르기까지 다양한 규모의 데이터센터를 위한 고성능을 제공한다. AMD 인스팅트 MI300X 및 MI325X 가속기는 높은 AI 성능과 메모리 기능을 갖추고 있으며, CPU 및 GPU 코어와 적층형 메모리를 단일 패키지로 통합한 AMD 인스팅트 MI300A APU는 고성능 컴퓨팅 및 AI 워크로드를 위한 향상된 효율과 성능을 제공한다. AMD는 이외에도 오크리지 국립 연구소(Oak Ridge National Lab)의 엘 캐피탄과 프론티어(Frontier) 시스템이 그릭500(Green500) 리스트에서 각각 18위와 22위를 차지하면서, 고성능 컴퓨팅 워크로드를 지원하는 AMD 에픽 프로세서와 인스팅트 GPU의 성능 및 에너지 효율을 다시 한 번 입증했다고 전했다. AMD의 포레스트 노로드(Forrest Norrod) 수석 부사장 겸 총괄 책임자는 “엘 캐피탄이 엑사플롭의 장벽을 깨고, 세계에서 가장 빠른 AMD 기반 두 번째 슈퍼컴퓨터로 선정되어 매우 기쁘다. AMD 인스팅트 MI300 APU의 뛰어난 성능과 효율성을 입증한 이 획기적인 컴퓨터는 AMD와 LLNL 및 HPE 간의 헌신적인 협력의 결과물”이라면서, “AMD는 고성능 컴퓨팅과 AI의 컨버전스를 새롭게 정의하는 선도적인 성능과 기능을 통해 지속적으로 컴퓨팅의 미래를 주도하게 될 것”이라고 밝혔다. LLNL의 리버모어 컴퓨팅 최고기술책임자(CTO)인 브로니스 R. 드 수핀스키(Bronis R. de Supinski)는 “AMD 인스팅트 MI300A APU를 활용하여 절대적 한계치를 넘어서는 컴퓨팅 성능과 이전에는 상상하지 못한 뛰어난 에너지 효율성을 갖춘 시스템을 구축했다. 엘 캐피탄은 더욱 보편화되고 있는 AI를 기존의 시뮬레이션 및 모델링 워크로드와 통합함으로써 다양한 과학적 연구 분야에서 새로운 발견의 가능성을 높일 수 있게 되었다”고 전했다.
작성일 : 2024-11-19
HPE, 복잡한 AI 모델 학습 가속화를 위한 AMD 기반 신규 서버 출시
HPE는 5세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트(Instinct) MI325X 가속기를 탑재한 복합 AI 모델 학습용 ‘HPE 프로라이언트 컴퓨트 XD685(HPE ProLiant Compute XD685)’ 서버를 출시했다. 새로운 HPE 시스템은 대규모 언어 모델(LLM) 학습, 자연어 처리 및 멀티 모달 학습을 위한 고성능의 에너지 효율적 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 최적화되었다. HPE 프로라이언트 컴퓨트 XD685는 HPE가 설계한 새로운 모듈형 섀시를 통해 대규모 AI 모델 학습 및 조정 프로젝트에 신속한 솔루션을 제공한다. 모듈형의 컴팩트한 5U 섀시는 솔루션의 시장 출시 시간을 단축시키고 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 제공한다. 또한, 수십 년간 축적된 HPE의 직접 수냉 방식(DLC) 노하우와 HPE iLO의 보안 혁신을 결합해 지속가능하고 안전한 고성능 솔루션을 구현한다.     AMD CDNA 3 아키텍처로 구동되는 AMD 인스팅트 MI325X 가속기는 학습 및 추론 작업에서 더 적은 GPU로 향상된 AI 성능과 효율을 제공한다. MI325X 가속기는 초당 6 테라바이트(TB)의 메모리 대역폭을 갖춘 HBM3e 메모리 용량을 통해 성능을 최적화하고 총소유비용(TCO)을 절감한다. HPE가 설계한 5U 서버 섀시는 랙당 8노드 구조로 컴팩트하게 구성되어 8웨이 GPU 시스템의 랙 집적도를 높인다. HPE 프로라이언트 컴퓨트 XD685는 8개의 AMD 인스팅트 MI325X 또는 AMD 인스팅트 MI300X 가속기, 최신 AMD 에픽 9005 시리즈 프로세서 2개, 공랭 혹은 직접 수냉 방식 방식을 지원한다. HPE 서비스는 대규모 AI 클러스터를 전 세계 어디에서나 안정적이고 우수한 운영으로 설치 및 배포할 수 있도록 모든 범위의 맞춤형 유연성 서비스를 제공한다. 전문 서비스 팀이 공장에서 솔루션을 구축, 통합, 검증, 테스트 및 맞춤화하여 현장 배포 시간을 단축시킨다. HPE iLO는 HPE 프로라이언트 컴퓨트 XD685 시스템을 안전하게 관리하여, 공급망에서부터 시작해 실리콘에 내재된 업계 최고 수준의 보안 혁신과 원활한 관리를 제공한다. HPE 퍼포먼스 클러스터 매니저(HPE Performance Cluster Manager)는 완전 통합 시스템 관리 소프트웨어로, 베어메탈에서 자동화된 설정으로 복잡한 시스템을 빠르게 운영할 수 있도록 지원하며, 상세한 텔레메트리, GPU 스트레스 테스트 등을 통해 클러스터를 안정적으로 유지 및 운영한다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 솔루션 부문 수석 부사장 및 책임자는 “대규모 언어 모델을 효율적으로 학습하려면 뛰어난 확장성, 대규모 병렬 컴퓨팅 성능, 그리고 HPE의 고성능 컴퓨팅 솔루션만이 제공할 수 있는 독보적인 서비스가 필요하다. 세계에서 가장 강력하고 에너지 효율적인 시스템을 제공하는 선두 기업으로서, AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 이 혁신을 확장하고, AI 모델 개발자 시장의 수요에 부응하며, 산업 전반에서 과학과 공학의 혁신을 가속화할 것”이라고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 솔루션 그룹 부사장 겸 총괄 매니저는 “최신 AMD 에픽 프로세서와 인스팅트 가속기의 강력한 조합을 통해 HPE 프로라이언트 컴퓨트 XD685 고객들은 시장 출시 시간을 단축하고 AI 성능과 효율성에서 진정한 리더십을 경험할 수 있다. HPE와의 협력을 통해 대규모 언어 모델 학습에 대한 수요 증가에 대응하며, AI 노력을 극대화하고, 업계의 경쟁력 있는 혁신을 촉진하는 유연하고 고성능의 솔루션을 지속적으로 제공하고 있다”고 말했다. HPE 프로라이언트 컴퓨트 XD685는 2025년 1분기부터 다양한 구성으로 순차적으로 출시될 예정이다.
작성일 : 2024-10-16
슈퍼마이크로, 신규 AI 데이터센터 최적화 서버 및 GPU 가속 시스템 출시
슈퍼마이크로컴퓨터가 AMD 에픽(EPYC) 9005 시리즈 프로세서 및 AMD 인스팅트 MI325X GPU 기반의 새로운 서버 포트폴리오, GPU 가속 시스템, 그리고 스토리지 서버를 출시한다고 밝혔다. 슈퍼마이크로가 이번에 출시한 H14 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버, 그리고 AI 추론 GPU 시스템을 포함하고 있으며, 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. AMD의 젠5(Zen5) 프로세서 코어 아키텍처는 CPU 기반 AI 추론을 위한 전체 데이터 경로 AVX-512 벡터 명령어를 구현하며, 사이클 당 명령어 처리 횟수(IPC)가 기존의 4세대 EPYC 프로세서 대비 17% 개선돼 더욱 향상된 코어당 성능을 제공한다.   새로운 H14 서버 포트폴리오는 5세대 AMD 에픽 프로세서를 사용해 CPU당 최대 192개의 코어, 최대 500W 열 설계 전력(TDP)을 지원한다. 슈퍼마이크로는 높아진 열 요구 사항을 충족하기 위해 H14 포트폴리오에 하이퍼 및 플렉스트윈 시스템을 구축했다. H14는 AI 훈련 및 추론 워크로드용 시스템 3개를 포함하며, 최대 10개의 GPU를 지원한다. 세 시스템은 AMD 에픽 9005 시리즈 CPU를 호스트 프로세서로 탑재하며, 이 중 2개는 AMD 인스팅트 MI325X GPU를 지원한다. 슈퍼마이크로는 점프스타트 프로그램(JumpStart Program)을 통해 AMD 에픽 CPU가 탑재된 H14 서버에 대한 테스트 액세스도 지원할 예정이다.     슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “슈퍼마이크로의 H14 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 슈퍼마이크로의 H11 서버 대비 2.44배 더 빠른 SPECrate2017_fp_base1 성능을 제공한다. 이런 성능 향상으로 인해 고객은 데이터센터의 총 면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다. 이는 데이터센터의 전력 효율성으로 이어진다. H14 서버 포트폴리오는 슈퍼마이크로의 공냉식 및 수냉식 옵션, 다양한 시스템 설계, 검증된 빌딩 블록 솔루션을 통해 최고의 성능, 집적도, 전력 효율성을 제공한다”고 말했다.
작성일 : 2024-10-15
델, AMD 최신 기술 통합한 파워엣지 서버 신제품 출시
델 테크놀로지스는 ‘델 AI 팩토리’ 포트폴리오에 AMD 환경을 지원하는 솔루션을 추가했다고 밝혔다. 델 테크놀로지스는 광범위한 생성형 AI 제품군에 AMD 탑재 서버 신제품을 추가함으로써 기업들이 AI 관련 솔루션을 선택할 때 강력한 확장성과 유연성을 확보할 수 있게끔 지원하겠다는 전략을 소개했다.  델 파워엣지 포트폴리오에 추가된 신제품은 광범위한 AI 활용 사례와 더불어 기존 워크로드 또한 지원하며 서버 관리 및 보안을 간소화한다. 새로운 제품군은 커스터마이징이 가능한 플랫폼으로서 관리를 간소화하고 현대적인 엔터프라이즈 환경에 대한 고성능 워크로드를 지원한다.     엔터프라이즈 AI 워크로드용으로 설계된 델 파워엣지 XE7745(Dell PowerEdge XE7745) 서버는 4U 공냉식 섀시에서 최대 8개의 이중 폭(double-width) 또는 16개의 단일 폭(single-width) PCIe GPU와 AMD의 5세대 에픽(EPYC) 프로세서를 지원한다. AI 추론, 모델 미세 조정 및 고성능 컴퓨팅을 위해 설계된 내부 GPU 슬롯은 네트워크 연결을 위한 8개의 추가 5.0세대 PCIe 슬롯과 결합되어 기존 대비 2배의 고밀도의 DW PCIe GPU 용량을 제공한다. 델 파워엣지 R6725와 델 파워엣지 R7725 서버는 고성능 AMD 5세대 에픽 프로세서를 탑재하고 확장성에 특화된 설계를 선보인다. 새로운 DC-MHS 섀시 설계로 향상된 공랭식 냉각과 듀얼 500W CPU를 지원하여 까다로운 발열 문제를 해결하고 전력 효율을 높였다. 이 플랫폼은 확장성에 최적화된 구성으로 엄격한 데이터 분석 및 AI 워크로드를 유지하며 가상화, 데이터베이스, AI와 같은 워크로드에 향상된 성능을 제공한다. 델은 R7725가 최고 성능 구성에서 최대 66% 향상된 성능과 최대 33% 향상된 효율을 제공한다고 소개했다. AMD의 5세대 에픽 프로세서를 탑재한 델 파워엣지 R6715와 델 파워엣지 R7715 서버는 향상된 성능, 효율성 및 최대 37% 증가된 드라이브 용량을 통해 스토리지 밀도를 높였다. 다양한 구성 옵션으로 제공되는 싱글 소켓 서버로서 24개의 DIMM(2DPC)을 지원하여 2배의 메모리를 지원하며, 컴팩트한 1U 또는 2U 폼팩터에서 다양한 워크로드 요구 사항을 충족하고 성능을 극대화한다. 특히 R6715는 AI 및 가상화 작업에서 더욱 높은 성능을 제공한다. 한편, 델 테크놀로지스는 대규모로 AI를 구축하는 기업이나 공공기관들을 위해 파워엣지 XE 서버에서 AMD 인스팅트(AMD Instinct) 가속기의 최신 기술을 계속해서 지원할 계획이라고 밝혔다. 또한, PC에서 데이터 센터, 클라우드에 이르는 광범위한 AI 솔루션 포트폴리오인 델 AI 팩토리를 통해 다양한 AI 요구 사항을 지원함으로써, 기업과 기관들이 AI 투자 규모를 적절하게 조정할 수 있도록 도울 것이라고 전했다. 델 파워엣지 XE7745 서버는 2025년 1월부터 전 세계에 출시되며, 델 파워엣지 R6715, R7715, R6725 및 R7725 서버는 2024년 11월부터 전 세계에 출시될 예정이다. AMD 기반 델 생성형 AI 솔루션은 2024년 4분기부터 전 세계에 제공되며, 델 엔터프라이즈 허브 온 허깅 페이스 업데이트는 현재 사용이 가능하다. 한국 델 테크놀로지스의 김경진 총괄사장은 “델은 AMD의 최신 기술을 통합하며 포트폴리오를 확장함으로써 고객의 현재와 미래를 모두 만족시킬 수 있는 성능과 효율성을 확보했다”고 말하며, “델 AI 팩토리는 AI 성능에 대한 새로운 기준을 제시하는 동시에 현대적인 데이터 중심 환경에 필수적인 강력하고 비용 효율적인 인프라 솔루션 경험을 제공한다”고 덧붙였다.
작성일 : 2024-10-15
AMD, 오라클 클라우드 인프라에 인스팅트 MI300X 가속기 탑재
AMD는 오라클 클라우드 인프라스트럭처(OCI)가 자사의 최신 OCI 컴퓨트 슈퍼클러스터 인스턴스인 BM.GPU.MI300X.8의 구동을 위해 ROCm 오픈 소프트웨어와 AMD 인스팅트(AMD Instinct) MI300X 가속기를 채택했다고 밝혔다. AMD MI300X를 탑재한 OCI 슈퍼클러스터는 수천억 개의 파라미터로 구성 가능한 AI 모델에서 OCI의 다른 가속기와 동일한 초고속 네트워크 패브릭 기술을 활용, 단일 클러스터에서 최대 1만 6384개의 GPU를 지원한다. OCI는 더 큰 배치 사이즈(batch size)에서도 지연 시간 최적화 사용 사례를 지원할 수 있는 AI 추론 및 트레이닝 능력, 싱글 노드에서 최대 규모의 LLM 모델에 적합한 성능을 제공하는 것에 초점을 맞추고 있다. AMD 인스팅트 MI300X는 이러한 OCI의 기준에 따른 광범위한 테스트를 거쳤다.     높은 수준의 메모리 용량 및 대역폭을 제공하고, 높은 처리량을 필요로 하는 대규모 언어 모델(LLM) 추론 및 트레이닝을 포함한 까다로운 AI 워크로드 실행이 가능하도록 설계된 OCI 베어 메탈 인스턴스는 이미 파이어워크 AI(Fireworks AI) 등의 기업에서 채택된 바 있다. 파이어워크 AI는 생성형 AI를 구축하고 배포할 수 있도록 설계된 빠른 속도의 플랫폼을 제공한다. 100개 이상의 모델을 보유한 파이어워크 AI는 AMD 인스팅트 MI300X이 탑재된 OCI의 성능과 이점을 활용하고 있다. AMD의 앤드류 디크만(Andrew Dieckmann) 데이터 센터 GPU 비즈니스 기업 부사장 겸 총괄 매니저는 “AMD 인스팅트 MI300X 및 ROCm 오픈 소프트웨어는 OCI AI 워크로드와 같이 중요도가 높은 분야를 지원하며, 이를 통해 신뢰할 수 있는 솔루션으로서 성장을 이어가고 있다”고 설명했다. 그는 또한 “이러한 솔루션이 성장하는 AI 집약적 시장으로 한층 확장됨에 따라, 해당 조합은 성능과 효율성, 시스템 설계 유연성을 개선해 OCI 고객에게 혜택을 제공할 것”이라고 밝혔다. 오라클 클라우드 인프라스트럭처 도널드 루(Donald Lu) 소프트웨어 개발 부문 수석 부사장은 “AMD 인스팅트 MI300X 가속기의 추론 기능은 OCI의 광범위한 고성능 베어 메탈 인스턴스에 추가되어 AI 인프라에 일반적으로 사용되는 가상화 컴퓨팅의 오버헤드를 제거한다”면서, “AI 워크로드를 가속화하고자 하는 고객에게 합리적인 가격대로 더 많은 선택권을 제공하게 되어 기쁘다”고 말했다.
작성일 : 2024-09-27
AMD, 컴퓨텍스 2024에서 새로운 프로세서 및 AI 가속기 발표
AMD가 컴퓨텍스 2024 개막 기조연설에서 데이터 센터 및 PC에 이르기까지 엔드 투 엔드 AI 인프라를 지원하는 자사의 새로운 CPU, NPU 및 GPU 아키텍처를 공개했다.  AMD는 확장된 AMD 인스팅트(AMD Instinct) 가속기 로드맵을 공개하고 2024년 4분기 출시 예정인 인스팅트 MI325X 가속기를 포함한 AI 가속기 개발 계획을 소개했다. AMD는 5세대 AMD 에픽(AMD EPYC) 서버 프로세서도 발표했다. 이는 높은 성능과 효율성을 갖춘 제품으로, 2024년 하반기 출시를 목표로 하고 있다. 이와 함께 AMD는 AI 지원 모바일 프로세서의 3세대 제품인 AMD 라이젠 (AMD Ryzen) AI 300 시리즈와 노트북 및 데스크톱 PC용 라이젠 9000 시리즈 프로세서도 공개했다. AMD는 여러 세대에 걸친 가속기 로드맵을 공개했으며, 생성형 AI의 연간 주기에 따른 향후 성능 개발 및 메모리 탑재 등의 계획을 설명했다. 확장된 로드맵에는 2024년 4분기에 출시되는 AMD 인스팅트 MI325X 가속기도 포함되어 있는데, 이 제품은 288GB의 초고속 HBM3E 메모리를 탑재할 예정이다. 2025년 출시가 예상되는 차세대 AMD CDNA 4 아키텍처는 AMD 인스팅트 MI350 시리즈에 활용되며, 기존 AMD CDNA 3가 탑재된 AMD 인스팅트 MI300 시리즈 대비 최대 35배 향상된 AI 추론 성능을 제공할 전망이다. 또한, 지속적 성능 및 기능 개선을 통해 2026년 출시 계획인 MI400 시리즈 가속기에는 CDNA ‘넥스트(Next)’ 아키텍처를 활용할 계획이다.     리사 수 CEO는 마이크로소프트, HP, 레노버, 에이수스 등의 경영진과 함께 3세대 AMD 라이젠 AI 300 시리즈 프로세서 및 AMD 라이젠 9000 시리즈 데스크톱 프로세서로 구동되는 새로운 PC 경험에 대해 설명했다. 그리고 슈퍼컴퓨터와 클라우드에서 PC에 이르기까지 높은 성능과 에너지 효율 제공을 염두에 두고 개발된 차세대 ‘젠 5’ CPU 코어에 대한 정보를 공개했다. 또한, 생성형 AI 워크로드에서 50 TOPs의 AI 연산 성능, 이전 세대 대비 최대 2배의 예상 전력 효율성을 제공하는 AMD XDNA 2 NPU 코어 아키텍처를 발표했다. 한편, 이번 컴퓨텍스 기조 연설에서 AMD는 자사의 AI 및 적응형 컴퓨팅 기술이 어떻게 에지 AI 혁신의 차세대 물결을 이끌어 나가고 있는지 설명했다. AMD는 전체 에지 AI 애플리케이션 가속화에 필요한 모든 IP를 결합할 수 있는 기업이라는 점을 내세운다. 새로운 AMD 버설 AI 에지(AMD Versal AI Edge) 시리즈의 2세대 제품은 실시간 프리-프로세싱을 위해 프로그래밍 가능한 FPGA 로직, 효율적인 AI 추론을 위한 XDNA 기술 기반 차세대 AI 엔진, 포스트-프로세싱을 위한 임베디드 CPU를 결합하여 고성능을 갖춘 단일 칩 기반의 적응형 솔루션을 에지 AI 환경에 제공한다. AMD의 리사 수(Lisa Su) CEO는 “최근 AI 도입의 가속화로 인해 AMD의 고성능 컴퓨팅 플랫폼에 대한 수요가 증가하고 있다. 이번 컴퓨텍스에서 차세대 라이젠 데스크톱 및 노트북 프로세서 기반 제품을 출시할 마이크로소프트, HP, 레노버, 에이수스 등 전략적 파트너들과 함께 하게 되어 자랑스럽다. 또한, 차세대 에픽 프로세서의 선도적인 성능을 미리 공개하고, 향후 AMD 인스팅트 AI 가속기의 로드맵을 발표하게 되어 기쁘다”고 밝혔다.
작성일 : 2024-06-03
AMD 인스팅트 MI300X 가속기, 애저 오픈AI 서비스 워크로드와 새로운 애저 가상머신 지원
AMD는 ‘마이크로소프트 빌드(Microsoft Build)’ 콘퍼런스에서 마이크로소프트 고객 및 개발자를 위한 최신 엔드투엔드 컴퓨팅 및 소프트웨어 기능을 공개했다. 마이크로소프트는 AMD 인스팅트(AMD Instinct) MI300X 가속기, ROCm 개방형 소프트웨어, 라이젠(Ryzen) AI 프로세서 및 소프트웨어와 알베오(Alveo) MA35D 미디어 가속기 등 AMD의 솔루션을 통해 광범위한 시장에 걸쳐 AI 기반을 구축할 수 있는 툴을 지원한다. 마이크로소프트의 새로운 애저(Azure) ND MI300X 가상머신(VM)은 현재 공식 출시되었으며, 까다로운 AI 워크로드를 처리해야 하는 허깅 페이스(Hugging Face)와 같은 고객에게 높은 성능과 효율성을 제공한다. 2023년 11월 프리뷰로 발표된 애저 ND MI300x v5 가상머신 시리즈는 고객들이 AI 워크로드를 실행할 수 있도록 캐나다 중부 지역에 공식 배포되고 있다. 최상급의 성능을 제공하는 이러한 가상머신은 높은 HBM 용량과 메모리 대역폭을 제공함으로써 고객들이 GPU 메모리에 더 큰 모델을 탑재하거나 더 적은 GPU를 이용해 궁극적으로 전력, 비용 및 솔루션 구현 시간을 절감할 수 있도록 지원한다. 또한, 이러한 가상머신과 이를 지원하는 ROCm 소프트웨어는 애저 오픈AI 서비스를 비롯한 애저 AI 프로덕션 워크로드에도 사용되고 있어, 고객들이 GPT-3.5 및 GPT-4 모델에 액세스할 수 있도록 지원한다. 마이크로소프트는 AMD 인스팅트 MI300X와 ROCm 개방형 소프트웨어 스택을 통해 GPT 추론 워크로드에서 높은 수준의 가격 대비 성능을 달성했다고 설명했다.   ▲ AMD 인스팅트 MI300X   한편, AMD 라이젠 AI 소프트웨어는 개발자들이 AMD 라이젠 AI 기반 PC에서 AI 추론을 최적화하고 구축할 수 있도록 지원한다. 라이젠 AI 소프트웨어를 이용하면 AI 전용 프로세서인 AMD XDNA 아키텍처 기반 신경망 처리장치(NPU)를 통해 애플리케이션을 실행할 수 있다. AI 모델을 CPU 또는 GPU에서만 실행하면 배터리가 빠르게 소모될 수 있지만, 라이젠 AI 기반 노트북은 임베디드 NPU을 활용해 AI 모델이 구동하기 때문에 CPU 및 GPU 리소스를 다른 컴퓨팅 작업에 활용할 수 있다. 이를 통해 배터리 수명을 늘리는 것은 물론, 개발자가 온디바이스 LLM AI 워크로드와 애플리케이션을 로컬에서 동시에 효율적으로 실행할 수 있다. 4세대 AMD 에픽 프로세서는 애저에서 사용되는 범용 가상머신을 비롯해 메모리 집약적, 컴퓨팅 최적화 및 가속 컴퓨팅 가상머신 등 수많은 솔루션을 지원하고 있다. 이러한 가상머신은 클라우드 분야에서 AMD 에픽 프로세서의 성장 및 수요 증가를 이끌고 있으며, 더욱 향상된 가격 대비 성능으로 범용 및 메모리 집약적 가상머신의 성능을 최대 20%까지 향상시키는 것은 물론, 애저를 지원하는 이전 세대 AMD 에픽 프로세서 기반 가상머신에 비해 컴퓨팅 최적화 가상머신에 대한 CPU 성능을 최대 2배까지 높일 수 있다. 프리뷰로 공개되었던 Dalsv6, Dasv6, Easv6, Falsv6 및 Famsv6 가상머신 시리즈는 향후 수개월 이내에 정식 공급될 예정이다. AMD의 빅터 펭(Victor Peng) 사장은 “AMD 인스팅트 MI300X 및 ROCm 소프트웨어 스택은 세계에서 가장 까다로운 AI 워크로드 중 하나인 애저 오픈AI(OpenAI) 챗GPT(Chat GPT) 3.5 및 4 서비스를 지원하고 있다”면서, “애저의 새로운 가상머신이 공식 출시됨에 따라 AI 고객들이 더욱 폭넓게 MI300X에 액세스하여 AI 애플리케이션을 위한 고성능, 고효율의 솔루션을 활용할 수 있게 되었다”고 밝혔다. 마이크로소프트의 최고기술책임자인 케빈 스콧(Kevin Scott) AI 부문 수석 부사장은 “마이크로소프트와 AMD는 PC를 시작으로, 엑스박스(Xbox)용 맞춤형 실리콘과 HPC, 현재의 AI에 이르기까지 여러 컴퓨팅 플랫폼에 걸쳐 다양한 파트너십을 이어오고 있다”면서, “최근에는 놀라운 AI 성능과 가치를 제공하기 위해 강력한 컴퓨팅 하드웨어와 최적화된 시스템 및 소프트웨어의 결합이 중요하다는 점에 주목했다. 우리는 마이크로소프트의 AI 고객 및 개발자들이 최첨단 컴퓨팅 집약적인 프론티어 모델에 대해 탁월한 가격 대비 성능 결과를 달성할 수 있도록 AMD의 ROCm 및 MI300X를 이용했다. 앞으로도 AI 발전을 가속화하기 위해 AMD와의 협력에 주력할 것”이라고 말했다.
작성일 : 2024-05-22