• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " AI 슈퍼클러스터"에 대한 통합 검색 내용이 20개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
오라클, AI 훈련 및 추론에 OCI 활용한 혁신 기업 사례 소개 
오라클은 전 세계 AI 혁신 기업이 AI 모델의 훈련 및 AI 추론과 애플리케이션 배포를 위해 오라클 클라우드 인프라스트럭처 AI 인프라스트럭처(OCI AI Infrastructure)와 OCI 슈퍼클러스터(OCI Supercluster)를 활용하고 있다고 밝혔다. “파이어웍스AI(Fireworks AI), 헤드라(Hedra), 누멘타(Numenta), 소니옥스(Soniox)를 비롯해 수백 개의 선도적인 AI 혁신 기업이 AI 워크로드 실행 위치에 대한 제어, 컴퓨트 인스턴스 선택권, 확장성, 고성능, 비용 효율성 등의 이유로 OCI를 선택하고 있다”는 것이 오라클의 설명이다. 산업 전반에서 AI 도입이 빠르게 확산됨에 따라, AI 기업들은 신속하고 경제적인 GPU 인스턴스 확장을 지원하는 안전하고 검증된 고가용성 클라우드 및 AI 인프라를 필요로 한다. AI 기업들은 OCI AI 인프라스트럭처를 통해 AI 훈련 및 추론, 디지털 트윈, 대규모 병렬 HPC 애플리케이션 등에 필요한 고성능 GPU 클러스터와 확장성 높은 컴퓨팅 파워에 접근할 수 있다.     파이어웍스 AI는 텍스트와 이미지, 오디오, 임베딩, 멀티모달 형식의 100개 이상의 최첨단 오픈 모델을 서비스하는 고성능 생성형 AI 애플리케이션 플랫폼으로, 개발자와 기업이 최적화된 생성형 AI 애플리케이션을 구축할 수 있도록 지원한다. 파이어웍스 AI는 엔비디아 호퍼(NVIDIA Hopper) GPU로 가속화된 OCI 컴퓨트(OCI Compute) 베어메탈 인스턴스와 AMD MI300X GPU를 탑재한 OCI 컴퓨트를 활용해 플랫폼에서 매일 2조 건 이상의 추론 토큰을 처리하고 글로벌 서비스 확장을 지원한다. 헤드라는 AI 기반 영상 생성전문 회사로, 사용자가 생생한 캐릭터 영상을 제작할 수 있도록 지원한다. 헤드라는 엔비디아 호퍼 GPU로 가속화된 OCI 컴퓨트 베어메탈 인스턴스에서 생성형 이미지, 영상, 오디오를 위한 멀티모달 기반 모델을 배포함으로써 GPU 비용 절감, 훈련 속도 향상, 모델 반복 시간 단축에 성공했다. 누멘타는 딥러닝 시스템의 성능과 효율성을 극대화하는 데 집중하는 AI 전문 기술회사다. 누멘타는 엔비디아 GPU로 가속화된 OCI 컴퓨트 베어메탈 인스턴스를 활용함으로써 고성능의 검증된 훈련 인스턴스에 접근할 수 있게 되었으며, 더 빨라진 훈련 속도 및 증가한 학습 사이클을 경험했다. 소니옥스는 오디오 및 음성 AI 분야 선도 회사로, 오디오, 음성, 언어 이해를 위한 기초 AI 모델을 개발하고 있다. 소니옥스는 OCI 상에서 다국어 음성 인식 AI 모델을 구동하며, 엔비디아 호퍼 GPU 기반 OCI 컴퓨트 베어메탈 인스턴스를 활용해 60개 언어의 음성을 실시간으로 정확하게 인식하고 이해할 수 있도록 학습했다. 오라클의 크리스 간돌포(Chris Gandolfo) OCI 및 AI 부문 수석 부사장은 “OCI는 다양한 규모의 훈련 및 추론 요구사항을 충족시켜 주며, AI 혁신 기업들이 선호하는 클라우드 플랫폼으로 빠르게 자리매김했다”면서, “OCI AI 인프라스트럭처는 초고속 네트워크, 최적화된 스토리지, 최첨단 GPU를 제공하여 AI 기업의 차세대 혁신을 돕는다”고 강조했다.
작성일 : 2025-07-17
엔비디아, 오라클 클라우드 인프라에 블랙웰 GPU 지원
엔비디아가 오라클에 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 지원해 에이전틱 AI와 추론 모델의 혁신을 가속화하고 있다고 밝혔다. 오라클은 자사 데이터센터에 수랭식 엔비디아 GB200 NVL72 랙을 최초로 도입하고 최적화했다. 현재 수천 개의 엔비디아 블랙웰 GPU가 엔비디아 DGX 클라우드(DGX Cloud)와 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure : OCI)를 통해 고객이 사용할 수 있도록 배치되고 있다. 이는 차세대 추론 모델과 AI 에이전트 개발과 실행을 지원한다. 오라클이 도입한 GB200에는 고속 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand)와 엔비디아 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워킹이 포함된다. 이를 통해 확장 가능하고 저지연 성능을 구현하며, 엔비디아와 OCI 소프트웨어와 데이터베이스 통합의 풀스택을 지원한다. OCI는 엔비디아 GB200 NVL72 시스템을 최초로 도입한 기업 중 하나이다. OCI는 세계 최대 규모의 블랙웰 클러스터를 구축하려는 계획을 갖고 있다. OCI 슈퍼클러스터(Supercluster)는 10만 개 이상의 엔비디아 블랙웰 GPU로 확장해 전 세계적으로 급증하는 추론 토큰과 가속 컴퓨팅 수요를 충족할 예정이다. 지난 몇 주 사이 오픈AI(OpenAI)를 비롯한 여러 기업에서 새로운 추론 모델을 출시하면서 AI 혁신은 빠른 속도로 계속되고 있다.     엔비디아는 “OCI의 사례는 엔비디아 그레이스(Grace) 블랙웰 시스템이 전 세계적으로 본격 가동되기 시작한 최신 사례이다. 이는 클라우드 데이터센터를 대규모 인텔리전스를 제조하는 AI 팩토리로 탈바꿈시키고 있다”고 설명했다. 이러한 새로운 AI 팩토리는 36개의 엔비디아 그레이스 CPU와 72개의 엔비디아 블랙웰 GPU를 결합한 랙 스케일 시스템인 엔비디아 GB200 NVL72 플랫폼을 활용한다. 이를 통해 고급 AI 추론 모델 기반의 에이전틱 AI를 위한 고성능과 에너지 효율을 제공한다. OCI는 모든 규모의 고객에게 블랙웰을 제공할 수 있는 유연한 배포 옵션을 지원한다. 여기에는 공공, 정부, 소버린 클라우드는 물론 OCI 전용 리전(Dedicated Region)과 OCI 알로이(Alloy)를 통한 고객 소유의 데이터센터까지 포함된다. 한편 새로운 GB200 NVL72 랙은 엔비디아 DGX 클라우드에서 사용할 수 있는 첫 번째 시스템이다. 엔비디아 DGX 클라우드는 OCI와 같은 주요 클라우드에서 AI 워크로드를 개발하고 배포하기 위해 소프트웨어, 서비스, 기술 지원을 제공하는 최적화된 플랫폼이다. 엔비디아는 추론 모델 훈련, 자율주행차 개발, 칩 설계와 제조 가속화, AI 도구 개발 등 다양한 프로젝트에 이 랙을 사용할 예정이다. GB200 NVL72 랙은 현재 DGX 클라우드와 OCI에서 사용할 수 있다.
작성일 : 2025-04-30
AMD, 오라클 클라우드 인프라에 인스팅트 MI300X 가속기 탑재
AMD는 오라클 클라우드 인프라스트럭처(OCI)가 자사의 최신 OCI 컴퓨트 슈퍼클러스터 인스턴스인 BM.GPU.MI300X.8의 구동을 위해 ROCm 오픈 소프트웨어와 AMD 인스팅트(AMD Instinct) MI300X 가속기를 채택했다고 밝혔다. AMD MI300X를 탑재한 OCI 슈퍼클러스터는 수천억 개의 파라미터로 구성 가능한 AI 모델에서 OCI의 다른 가속기와 동일한 초고속 네트워크 패브릭 기술을 활용, 단일 클러스터에서 최대 1만 6384개의 GPU를 지원한다. OCI는 더 큰 배치 사이즈(batch size)에서도 지연 시간 최적화 사용 사례를 지원할 수 있는 AI 추론 및 트레이닝 능력, 싱글 노드에서 최대 규모의 LLM 모델에 적합한 성능을 제공하는 것에 초점을 맞추고 있다. AMD 인스팅트 MI300X는 이러한 OCI의 기준에 따른 광범위한 테스트를 거쳤다.     높은 수준의 메모리 용량 및 대역폭을 제공하고, 높은 처리량을 필요로 하는 대규모 언어 모델(LLM) 추론 및 트레이닝을 포함한 까다로운 AI 워크로드 실행이 가능하도록 설계된 OCI 베어 메탈 인스턴스는 이미 파이어워크 AI(Fireworks AI) 등의 기업에서 채택된 바 있다. 파이어워크 AI는 생성형 AI를 구축하고 배포할 수 있도록 설계된 빠른 속도의 플랫폼을 제공한다. 100개 이상의 모델을 보유한 파이어워크 AI는 AMD 인스팅트 MI300X이 탑재된 OCI의 성능과 이점을 활용하고 있다. AMD의 앤드류 디크만(Andrew Dieckmann) 데이터 센터 GPU 비즈니스 기업 부사장 겸 총괄 매니저는 “AMD 인스팅트 MI300X 및 ROCm 오픈 소프트웨어는 OCI AI 워크로드와 같이 중요도가 높은 분야를 지원하며, 이를 통해 신뢰할 수 있는 솔루션으로서 성장을 이어가고 있다”고 설명했다. 그는 또한 “이러한 솔루션이 성장하는 AI 집약적 시장으로 한층 확장됨에 따라, 해당 조합은 성능과 효율성, 시스템 설계 유연성을 개선해 OCI 고객에게 혜택을 제공할 것”이라고 밝혔다. 오라클 클라우드 인프라스트럭처 도널드 루(Donald Lu) 소프트웨어 개발 부문 수석 부사장은 “AMD 인스팅트 MI300X 가속기의 추론 기능은 OCI의 광범위한 고성능 베어 메탈 인스턴스에 추가되어 AI 인프라에 일반적으로 사용되는 가상화 컴퓨팅의 오버헤드를 제거한다”면서, “AI 워크로드를 가속화하고자 하는 고객에게 합리적인 가격대로 더 많은 선택권을 제공하게 되어 기쁘다”고 말했다.
작성일 : 2024-09-27
슈퍼마이크로, 엔비디아 옴니버스용 플러그 앤 플레이 슈퍼클러스터 출시
슈퍼마이크로컴퓨터(SMCI)가 슈퍼클러스터 포트폴리오에 엔비디아 옴니버스 플랫폼용 플러그 앤 플레이 AI 인프라 솔루션을 새롭게 추가했다. 새로운 슈퍼클러스터 솔루션은 엔터프라이즈 규모에서 고성능 생성형 AI 기반 3D 워크플로를 제공한다. 또한 최신 슈퍼마이크로 엔비디아 OVX 시스템을 탑재했으며, 기업이 워크로드 증가에 따라 쉽게 확장할 수 있도록 지원한다. 슈퍼마이크로는 엔비디아 옴니버스용 슈퍼클러스터를 출시하며 애플리케이션 최적화 AI 랙 솔루션 제품군을 확장했다. 다양한 전문가들이 제품 디자인부터 산업 디지털 트윈에 이르기까지 다양한 용도로 사용 가능한 컴퓨팅 집약적인 3D 워크플로에 의존하고 있다. 생성형 AI는 기존 3D 워크플로를 향상시키면서 새로운 애플리케이션 시대를 맞이하고 있다. 엔비디아 옴니버스용 슈퍼클러스터는 3D 및 AI의 다중 워크로드 요구사항에 맞춰 확장 가능한 인프라 구축을 간소화한다.     슈퍼마이크로 엔비디아 OVX 시스템은 클러스터 컴퓨팅 성능의 기본 빌딩 블록 역할을 한다. 각 시스템 노드는 최신 엔비디아 PCIe GPU를 최대 8개까지 탑재함으로써 높은 수준의 3D 성능을 제공하며 텐서 코어 및 트렌스포머 엔진을 통해 생성형 AI 성능을 지원한다. 시스템은 공기 흐름이 원활한 섀시 내에서 2700W 티타늄 레벨 PSU 4개로 구동되며, 고사용 시나리오에서도 안정성을 보장한다. 시스템당 최대 4개의 엔비디아 블루필드-3 SuperNIC 또는 4개의 엔비디아 커넥트X-7 NIC를 탑재해 400Gb/s의 네트워킹 속도와 함께 높은 확장성 및 보안성을 제공한다. 슈퍼마이크로의 4U PCIe GPU 시스템은 성능, 안정성, 확장성, 그리고 보안에 대한 검증 프로세스를 거쳤으며, 엔비디아의 인증을 받아 엔비디아 옴니버스를 활용한다. 기업은 엔비디아 옴니버스 개발 플랫폼에서 전 세계에 구축된 오픈USD(OpenUSD) 생태계와 옴니버스 클라우드 API를 활용한 생성형 AI 기술을 비롯해 다양한 워크로드의 성능을 극대화할 수 있다. 엔비디아 옴니버스용 슈퍼클러스터는 상호 연결된 인프라 솔루션으로 개발자, 아티스트, 엔지니어 등이 필요에 따라 최고 수준의 GPU 컴퓨팅에 액세스할 수 있도록 지원하며, 가상 GPU에 대한 원활한 액세스 또는 전체 시스템 노드에 대한 베어메탈 액세스를 제공한다. 또한, 400Gb/s 고성능 네트워크 패브릭은 엔비디아 스펙트럼-X 이더넷 플랫폼을 지원한다. 이로 인해 맞춤형 LLM(대규모 언어 모델)을 개발하는 기업은 시스템 노드 전반에 걸쳐 결합된 GPU 메모리 풀을 활용할 수 있으며, 이는 대규모 AI 모델 훈련에 필수이다. 슈퍼마이크로의 랙 솔루션은 4개의 GPU부터 256개의 GPU 스케일러블 유닛까지 다양하며, 모든 규모의 기업에 맞춰 추가로 확장할 수 있다. 고객은 L12 레벨에서 테스트를 거쳐 철저하게 검증된 플러그 앤 플레이 랙을 제공받으며, 첫날부터 바로 사용할 수 있다. 엔비디아 옴니버스용 슈퍼마이크로 슈퍼클러스터는 고객의 요구 사항에 따라 다양한 크기와 옵션으로 구축될 수 있다. 시스템 노드는 시스템당 4개 또는 8개의 GPU를 탑재할 수 있다. 또, 배포 규모는 시스템 4개를 포함한 단일 랙부터 시스템 32개를 탑재한 5개의 랙까지 다양하다. 대규모 배포는 확장 가능한 장치를 통해 추가로 확대해 거의 모든 규모의 클러스터를 구축할 수 있다. 슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “AI의 등장으로 기업은 하나의 패키지에 모든 기능이 결합된 컴퓨팅 인프라를 찾고 있다”면서, “슈퍼마이크로가 그동안 3D 그래픽 및 애플리케이션 가속을 위한 GPU 최적화 제품을 개발하며 업계를 선도해왔다면, 이제는 AI를 위한 제품을 개발하는 중”이라고 전했다. 또한 “슈퍼마이크로 슈퍼클러스터는 엔비디아 L40S PCIe GPU를 최대 256개까지 확장 가능하며 엔비디아 옴니버스를 위해 상호 연결된 4U PCIe GPU 엔비디아 인증 시스템을 갖췄다. 생성형 AI 통합을 비롯해 옴니버스 플랫폼 전반에서 높은 성능을 지원한다. 슈퍼마이크로의 옴니버스용 슈퍼클러스터 개발은 단순한 제품 제공이 아닌, 애플리케이션 개발과 혁신의 미래를 향한 교두보가 될 것"이라고 설명했다.
작성일 : 2024-08-09
오라클, AI 인프라 및 범용 컴퓨팅을 위한 클라우드 인스턴스 확대
오라클은 오라클 클라우드 인프라스트럭처 컴퓨트(OCI Compute)에 추가될 엔비디아 H100 텐서 코어(NVIDIA H100 Tensor Core) GPU, 엔비디아 L40S GPU, 암페어 암페어원(Ampere AmpereOne) CPU 기반 신규 인스턴스를 발표했다. 신규 OCI 컴퓨트 인스턴스는 AI 모델의 학습, 미세 조정, 추론에서부터 클라우드 전용 애플리케이션 및 비디오 트랜스코딩 애플리케이션의 실행에 이르는 다양한 워크로드를 더욱 간단히 실행할 수 있도록 설계되었고, 가성비 또한 향상되었다. 엔비디아 H100 GPU 기반 OCI 컴퓨트 베어메탈 인스턴스(OCI Compute Bare Metal Instances Powered by NVIDIA H100 GPUs)는 자연어 처리 및 추천 시스템용 모델과 같은 대규모 AI 모델의 학습 시간을 단축시킨다. 엔비디아 H100 텐서 코어 GPU 인스턴스를 사용하는 기업은 이전 세대 엔비디아 A100 텐서 코어 GPU 대비 AI 추론 사용 사례에서 최대 30배 성능 향상, AI 모델 학습에서 4배 성능 향상을 경험했다. AI 모델 학습과 같은 고강도 컴퓨팅 워크로드를 실행하는 고객의 경우 OCI 슈퍼클러스터(OCI Supercluster)의 고성능 초저지연 클러스터 네트워크를 통해 수만 개의 엔비디아 H100 GPU를 상호 연결할 수 있다. 이 인스턴스는 올해 말 오라클 클라우드 런던 리전 및 오라클 클라우드 시카고 리전에서 정식 출시되며, 이후 다른 리전에서도 지원될 예정이다. 엔비디아 L40S GPU 기반 OCI 컴퓨트 베어메탈 인스턴스(OCI Compute Bare Metal Instances Powered by NVIDIA L40S GPUs)는 AI 추론 또는 중소형 AI 모델 학습 등의 워크로드 실행을 위한 대체 옵션을 제공한다. 오라클의 테스트 결과 이 인스턴스는 이전 세대 엔비디아 A100 GPU 대비 생성형 AI 워크로드의 경우 최대 20%, AI 모델 미세 조정의 경우 최대 70%의 성능 향상을 기록했다. 정식 출시는 2024년으로 예정되어 있다. 암페어 암페어원 CPU 기반 OCI 컴퓨트 A2 인스턴스(OCI Compute A2 Instances Powered by Ampere AmpereOne CPUs)는 웹 서버 실행, 비디오 트랜스코딩, CPU 기반 AI 추론 요청 서비스 등 다양한 범용 클라우드 워크로드를 위한 가성비 및 높은 프로세서 코어 수(베어메탈 구성 320 코어, 유연한 VM 구성 최대 156 코어)를 제공한다. 이 인스턴스는 높은 코어 수를 기반으로 향상된 성능, 가상머신 밀도, 확장성을 제공함으로써 고객사가 컴퓨팅 워크로드를 보다 효율적으로 관리하고 데이터센터 설치 공간 및 전력 소비를 줄일 수 있도록 지원한다. 또한 고객사는 이 인스턴스의 유연한 가상머신용 구성을 통해 프로세싱 파워 및 메모리를 미세 조정함으로써, 리소스 활용도를 극대화하고 비용을 최소화함과 동시에 간단하고 예측 가능한 가격 모델을 제공할 수 있다. 정식 출시는 2024년으로 예정되어 있다.     오라클의 도널드 루(Donald Lu) OCI 소프트웨어 개발 담당 수석 부사장은 "OCI는 전용 베어메탈 인스턴스를 최초로 제공한 클라우드 제공업체 중 하나다. 이는 전 세계의 모든 고객사에 보다 간단히 사용 가능한 고성능 컴퓨팅 서비스를 제공하기 위한 핵심 요소다. OCI의 엔비디아 및 암페어 컴퓨팅 프로세서 기반 인스턴스는 고객사의 클라우드 인프라에 필요한 광범위한 성능, 효율성, 유연성을 제공하므로 고객사는 범용 워크로드부터 고성능 AI 프로젝트에 이르는 모든 작업을 자유롭게 수행할 수 있다"면서, "오라클은 AI의 개발 및 사용을 지원하기 위해 특별히 설계된 클라우드 컴퓨팅 오퍼링 시장을 선도하고 있다. 시장의 성장과 함께 증가해 나갈 AI 제공업체 및 사용자를 지원하며 클라우드 컴퓨팅 산업을 주도할 수 있는 유리한 위치를 선점했다"고 말했다. 엔비디아의 이언 벅(Ian Buck) 하이퍼스케일 및 고성능 컴퓨팅 담당 부사장은 "엔비디아와 오라클의 협업을 통해 OCI에서의 최첨단 GPU 사용을 보다 대중화할 수 있게 됐다"면서, "OCI의 엔비디아 H100 및 L40S GPU는 전 업종의 고객사에 전례 없는 성능, 확장성, 보안성을 제공함으로써 AI 혁신에 기여할 것"이라고 전했다.
작성일 : 2023-09-25
모자이크ML, 오라클 클라우드 활용해 생성형 AI 모델 학습 속도 개선
오라클은 대규모 머신러닝(ML) 모델 구축용 인프라스트럭처 및 도구를 제공하는 소프트웨어 개발 제공업체인 모자이크ML(MosaicML)이 오라클 클라우드 인프라스트럭처(OCI)를 선호 클라우드 인프라스트럭처로 선정했다고 소개했다. 모자이크ML은 "OCI의 고성능 인공지능(AI) 인프라스트럭처를 활용해 타 클라우드 제품 대비 최대 50% 빠른 성능과 최대 80%에 달하는 비용 절감 효과를 달성했다"고 밝혔다. 기업이 플랫폼의 모델 학습 기능을 사용해 AI 모델의 학습 및 추론을 보다 효율적이고 손쉽게 수행할 수 있도록 지원하는 모자이크ML은 증가하는 AI 서비스에 대한 수요를 지원하고 비즈니스를 확장하기 위해 OCI를 선택했다. 모자이크ML은 OCI를 통해 최신 엔비디아 GPU, 노드 간 초고대역 상호 연결, 수 천개의 GPU로 확장할 수 있는 대규모 컴퓨트 블록 크기를 활용할 수 있게 되었으며, 이러한 기능들을 사용해 기업 및 트웰브랩스(Twelve Labs)와 같은 스타트업이 AI 모델을 운영할 수 있도록 지원할 수 있게 됐다. 트웰브랩스는 멀티모달 영상이해를 위한 파운데이션 모델을 구축하는 AI 스타트업으로, OCI에서 실행되는 모자이크ML의 플랫폼과 OCI의 AI 인프라스트럭처를 활용해 자체 AI 모델을 효율적으로 확장 및 배포함으로써 사용자가 영상 데이터를 손쉽게 검색 및 분류하고 다양한 애플리케이션에서 보다 효과적으로 활용할 수 있도록 지원하고 있다. OCI는 AI 인프라스트럭처를 포함한 다양한 AI 기능을 제공한다. OCI 컴퓨트 가상 머신과 베어메탈 GPU 인스턴스는 애플리케이션이 컴퓨터 비전, 자연어 처리, 추천 시스템 등의 기능을 수행하도록 지원하며, OCI 슈퍼클러스터(OCI Supercluster)는 대규모 언어 모델(LLM)을 비롯한 크고 복잡한 모델을 훈련시킬 수 있도록 초고속 클러스터 네트워킹, HPC 스토리지 및 엔비디아 GPU 기반의 OCI 컴퓨트 베어메탈 인스턴스를 제공한다. OCI 컴퓨트 인스턴스는 RoCE v2(RDMA over Converged Ethernet v2)를 사용하는 고성능 이더넷 네트워크를 통해 연결된다. OCI가 제공하는 엔비디아 A100 텐서 코어 GPU의 대역폭은 타사 제품 대비 4배에서 16배에 달하며, 머신러닝 학습에 드는 시간과 비용을 절감한다. 모자이크ML의 나빈 라오(Naveen Rao) CEO 겸 공동창립자는 “수백 여 곳의 기업이 대규모의 복잡한 생성형 AI 모델을 개발하고 학습하는 데 모자이크ML의 플랫폼을 사용하고 있다. 모자이크ML은 고객이 고성능 맞춤형 모델을 구축하고 배포하는 데 집중할 수 있도록 복잡한 시스템 및 하드웨어를 전담 제공하고 있다”면서, “우리는 OCI가 모자이크ML을 위한 최고의 토대가 되어줄 것이라는 믿음 하에 OCI를 선택했다. 클라우드 내 방대한 양의 데이터를 사용해 모델을 학습시킬 때에는 1분 1초가 중요하다. OCI를 활용함으로써 타 클라우드 제공업체의 제품을 사용했을 때에 비해 비용을 절감할 수 있으며, 오라클의 상호 연결 구성 방식 덕분에 거의 선형적인 확장을 이룰 수 있다”고 전했다. 오라클의 그렉 파블릭(Greg Pavlik) 수석 부사장은 “수많은 AI 기업이 생성형 AI 모델 실행을 위해 OCI를 찾고 있다. 이는 OCI가 다른 클라우드 제공업체 대비 훨씬 빠르고 경제적으로 모델을 실행할 수 있도록 지원하기 때문으로, OCI에서 100억 개의 매개변수 모델을 학습할 때 필요한 시간은 단 몇 시간이지만 다른 플랫폼에서는 며칠씩 걸리기 일쑤”라면서, “OCI의 아키텍처와 논블로킹(non-blocking) 및 저지연 네트워크 설계는 시중에 출시된 제품들과 근본적으로 차별화된다”고 덧붙였다.
작성일 : 2023-08-31
엔비디아-메타, 대규모 AI 연구 슈퍼컴 개발을 위해 협력
엔비디아는 DGX A100 기반 AI 슈퍼컴퓨터를 통해 메타에 5 엑사플롭스(exaflops)급의 AI 성능을 제공한다고 밝혔다.  메타의 AI 슈퍼컴퓨터는 현재 760개의 엔비디아 DGX A100 시스템을 컴퓨팅 노드로 사용하고 있다. 엔비디아 퀀텀(Quantum) 200Gb/s 인피니밴드 네트워크에 연결된 총 6080개의 엔비디아 A100 GPU를 패키징해 1895 페타플롭스(petaflops)급 TF32 성능을 제공한다.     메타의 AI 리서치 슈퍼클러스터(RSC)는 수백 개의 엔비디아 DGX 시스템을 엔비디아 퀀텀 인피니밴드(Quantum InfiniBand) 네트워크에 연결해 AI 연구팀의 작업을 가속화한다. 메타는 RSC를 활용해 AI를 발전시키기 위한 새로운 모델을 훈련시키고 있는데, RSC가 완전히 구축되면 올해 말 이를 활용해 매개 변수가 1조 개가 넘는 AI 모델을 훈련하는 것을 목표로 하고 있다. 이는 실시간으로 유해한 내용을 파악하는 것과 같은 작업에 대한 자연어 처리와 같은 분야를 발전시킬 수 있다. 메타는 대규모 성능 외에도 신뢰성, 보안성, 프라이버시, 그리고 광범위한 AI 모델을 다룰 수 있는 유연성을 RSC의 핵심 기준으로 꼽았다. 메타는 "RSC가 서로 다른 언어를 사용하는 대규모 집단에게 실시간 음성 통역을 지원해 연구 프로젝트 협력을 원활히 하거나 AR 게임을 함께 할 수 있도록 하는 완전히 새로운 AI 시스템을 구축하는 데 도움이 되기를 바란다"고 밝혔다. 한편, 메타는 2017년에 하루 3만5000개의 AI 훈련 작업을 처리하는 엔비디아 V100 텐서 코어 GPU 2만2000개로 AI 연구용 1세대 인프라를 구축한 바 있다. 이번에 두 번째로 엔비디아 기술을 연구 인프라 기반으로 선택한 것이다. 메타의 초기 벤치마크에서는 RSC가 이전 시스템보다 대형 NLP 모델을 3배 더 빠르게 훈련하고 컴퓨터 비전 작업을 20배 더 빠르게 실행할 수 있음을 보여준다. 올해 말 두 번째 단계에서 RSC는 메타가 5 엑사플롭스(exaflops)급의 혼합 정밀 AI 성능을 제공할 것으로 보고 있는 1만 6000개의 GPU로 확대할 예정이다. 또한 메타는 RSC의 스토리지 시스템을 확장해 초당 16 테라바이트의 속도로 최대 1엑사바이트의 데이터를 제공하는 것을 목표로 하고 있다.
작성일 : 2022-01-25
한국오라클, 하드웨어 솔루션 미디어교육 개최
  한국오라클(www.oracle.com/kr)은 14일 ‘한국오라클 시스템사업부 하드웨어 솔루션 미디어 교육’을 열고 오늘날 하드웨어 솔루션에 대한 시장의 요구 및 이에 부응하기 위해 지속적으로 진화를 거듭하는 오라클 올 플래시 스토리지 및 슈퍼클러스터에 대해 설명했다. 비즈니스 복잡성이 나날이 심화되면서 기업들은 기존 비즈니스 영역의 안정성뿐 아니라 새로운 서비스 및 기능까지 쉽고 빠르게 지원할 수 있는 통합 IT환경을 필요로 하고 있다. 이에 하드웨어 부문에서는 고성능과 빠른 속도를 장점으로 하는 올 플래시 스토리지 시스템 및 IT인프라 운영을 단순화시킬 수 있는 통합 솔루션이 핵심으로 부상하고 있다. 오라클 슈퍼클러스터(Oracle SuperCluster)는 대표적인 엔지니어드 시스템 중 하나로 하이엔드 유닉스 서버(Highend Unix Server), 스마트 스토리지(Smart Storage), 통합 네트워크(Unified Network) 그리고 높은 성능과 안정적 운영을 위해 최적화된 애플리케이션 및 데이터베이스까지 완전하게 엔지니어드 되어진 통합 IT 인프라 환경을 제공한다. 기업들은 슈퍼클러스터를 통해 10배 혹은 그 이상의 통합률을 달성하고, 새로운 애플리케이션을 설치하는데 요구되는 시간과 노력을 현저하게 줄일 수 있다. 또한 슈퍼클러스터는 새로운 기업들이 빠르고, 안전하며, 비용 효율적으로 클라우드 기반 인프라로 이동할 수 있도록 지원한다. 한국오라클 시스템사업부 최영선 부문장은 “오늘날과 같이 시시각각 변화하는 비즈니스 환경과 점점 복잡해지는 IT 환경에 효과적으로 대응하고, 애플리케이션의 가용성을 증대시키기 위해서는 하드웨어와 소프트웨어의 통합 운영 환경 구현이 필수”라며 “시스템 부팅시점부터 암호화 키 등 모든 단계를 아우르는 즉, 엔드 투 엔드(End-To-End) 환경을 구현하는 IT 솔루션은 오라클 엔지니어드 시스템이 유일하다”고 설명했다. 이어 최 부문장은 “오라클 슈퍼클러스터를 통해 국내 기업들이 지속적인 유지 보수 및 운영 관리비를 절감하며 결과적으로 최고의 투자 효과를 거둘 수 있도록 지원을 아끼지 않을 예정”이라고 강조했다. 최근 오라클은 올 플래시 오라클 FS1 스토리지 시스템(All Flash Oracle FS1 Storage System)을 출시하며, 국내 올 플래시 시장공략에도 박차를 가하고 있다. 오라클 올플래시 FS1은 데이터베이스에 최적화된 제품으로 높은 I/O 성능과 빠른 응답속도를 보장한다. 또한 엔터프라이즈 SAN 환경뿐 아니라 프라이빗 및 퍼블릭 클라우드에서 플래시 성능 및 용량 확장을 통한 플래시 프로비저닝 기능을 제공한다. 최 부문장은 “국내 기업들은 예측 가능한 성능과 최고 수준의 데이터 통합 및 보호를 요구하고 있다”며 “오라클은 뛰어난 성능을 갖춘 플래시를 통해 일관된 반응속도를 제공하는 올플래시 FS1 비즈니스에 주력하며 이러한 고객들의 요구에 적극 대응하고 있다”고 전했다. 이어 “현재 오라클 올플래시 FS1은 가장 고성능이 요구되는 애플리케이션 환경을 위한 스토리지 플랫폼으로 각광받고 있다”며 “오라클이 국내 스토리지 시장의 강자로 자리매김하는데 중요한 역할을 할 제품”이라고 자신감을 드러냈다.
작성일 : 2015-10-16
오라클, 오라클 데이터베이스 인메모리로 고객의 실시간 기업 실현 지원
오라클(www.oracle.com)은 오라클 데이터베이스 인메모리(Oracle Database In-Memory)가 대용량 분석, 데이터 웨어하우징 및 리포트를 처리할 수 있도록 고객의 데이터베이스 성능을 강화할 뿐 아니라 온라인트랜잭션프로세싱(OLTP)의 속도를 향상한다고 발표했다. 오라클 데이터베이스 인메모리는 로우(row) 포맷과 컬럼(column) 포맷을 적절히 결합시킨 신개념 듀얼 포맷 인메모리 아키텍처를 통해 빠른 분석과 효율적인 OLTP를 동시에 제공한다. 기존의 모든 오라클 데이터베이스 호환 애플리케이션들은 추가적인 프로그래밍 또는 애플리케이션 변경 없이 오라클 데이터베이스 인메모리의 기능으로 추가된 컬럼 기반 포맷을 활용한 인메모리 처리가 가능하다. 오라클 데이터베이스 인메모리는 성능 테스트에서 오라클 E-비즈니스 스위트(Oracle E-Business Suite), 오라클 JD에드워즈(Oracle’s JD Edwards), 오라클 피플소프트(Oracle’s PeopleSoft), 오라클 시벨(Oracle’s Siebel) 및 오라클 퓨전 애플리케이션(Oracle Fusion Applications) 등 엔터프라이즈 애플리케이션 모듈의 속도를 약 100배부터 많게는 1000배 이상 향상시키는 결과를 보여줬다. 인메모리 성능은 기존 애플리케이션에서 수행되는 업무 트랜잭션이 일어나는 상황에서도 실시간으로 데이터 분석 수행이 가능하며, 지연 없는 실시간 데이터 기반 의사결정을 지원하여 고객의 요구사항에 대해 적시에 지속적으로 대응할 수 있는 ‘실시간 기업’ 운영을 지원 한다. 오라클 데이터베이스 인메모리는 오라클 데이터베이스 12c(Oracle Database 12c)가 지원되는 모든 하드웨어 플랫폼과 함께 사용될 수 있다. 오라클 데이터베이스 인메모리는 지난 9개월 동안 수 백 명의 엔드 유저, ISV파트너 및 오라클 애플리케이션 팀의 검증 테스트를 거쳤으며, 오라클 파트너 네트워크(OPN)는 오라클 데이터베이스 인메모리가 곧 오라클 데이터베이스 12c 레디(Ready) 인증에 포함될 것이라고 전했다. 소프트웨어와 하드웨어가 통합된 엔지니어드 시스템으로 실시간 기업 실현 지난 몇 년간 지속적인 혁신과 보완을 통해 완성도를 높여온 오라클 데이터베이스 인메모리는 오라클 데이터베이스의 모든 특장점을 포함한다.  ■ 업계 최대 가용성 아키텍처(Maximum Availability Architecture)을 통해 데이터 손실 및 다운타임 방지 ■ 업계 최고 수준의 보안 기술 제공 ■ 대형 SMP(Symmetric Multiprocessing) 서버의 확장(scale-up), 서버 클러스터를 통한 스케일 아웃, 스토리지 계층화(Tiering)로 모든 요구를 충족할 수 있는 확장성을 갖추었으며, 이를 통해 기업이 페타바이트 규모의 데이터 웨어하우스에서 빅데이터 프로세싱 및 데이터베이스 클라우드까지 모든 규모의 데이터베이스를 비용 효율적으로 운영할 수 있도록 지원 ■ 자바(Java), R, 빅데이터, PHP 파이썬(Python), 노드(Node), 레스트(REST), 루비(Ruby) 등 폭넓은 프로그래밍(Programmability) 지원 ■ 관계형(Relational), 오브젝트(Objects), XML, 텍스트, 공간(Spatial)형 및 새롭게 통합된 JSON 데이터까지 모든 데이터 유형 지원 오라클 엔지니어드 시스템은 오라클 데이터베이스 인메모리의 성능을 극대화시킨다. ■ 오라클 엑사데이타 데이터베이스 머신(Oracle Exadata Database Machine), 오라클 슈퍼클러스터(Oracle SuperCluster)등의 오라클 엔지니어드 시스템(Oracle Engineered Systems)은 오라클 데이터베이스 인메모리에 최적화돼 있으며, 대용량 메모리와 최고의 성능 및 고가용성을 제공한다. 또한 사용빈도가 낮은 데이터는 플래시 및 디스크로 계층화시켜 뛰어난 비용 효율성을 제공한다. ■ 오라클 엔지니어드 시스템 상의 인메모리 장애 대응기능(Fault Tolerance)은 질의 중 서버에 오류가 있을 경우를 대비하기 위해 인메모리에 저장된 데이터의 복사본을 클러스터에 구성된 다른 노드에 복제해두며, 장애 발생 시 즉시 사용한다. 새로운 다이렉트-투-와이어 인피니밴드(Direct-to-Wire InfiniBand)는 인메모리를 위한 스케일 아웃 기능을 향상시킨다. ■ 오라클 데이터베이스 인메모리를 위한 가장 강력한 확장 플랫폼인 오라클 M6-32 빅 메모리 머신(Oracle M6-32 Big Memory Machine)은 DRAM메모리를 32테라바이트(Terabytes)까지 제공하며, 인메모리 성능 극대화를 위해 메모리 대역폭을 초당 3 테라바이트까지 제공한다. 오라클 데이터베이스 서버 기술 총괄 앤드류 멘델슨(Andrew Mendelsohn) 수석 부사장(EVP)은 “업계에서 유일하게 애플리케이션부터 미들웨어, 데이터베이스 및 시스템 등 전 분야에 걸쳐 인메모리 컴퓨팅을 제공하는 오라클은 기업들이 경영을 가속화하고 새로운 성장 기회를 신속하게 발굴하며, 스마트한 실시간 의사 결정을 통해 이윤 창출을 극대화 할 수 있도록 지원한다”면서 “오라클 데이터베이스 12c 인메모리는 데이터 마이그레이션 없이 완벽한 애플리케이션 투명성(Transparency)을 보장하며, 거의 모든 워크로드에 독보적인 성능을 제공한다. 또한 고객이 오라클 데이터베이스에 기대하는 최고 수준의 고가용성, 확장성 및 보안을 확실하게 보장한다”고 말했다. 오라클 애플리케이션 개발 총괄 스티브 미란다(Steve Miranda) 수석 부
작성일 : 2014-08-11