• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "GPU"에 대한 통합 검색 내용이 1,821개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
앤시스코리아-삼성SDS, 방산 분야 클라우드 사업 협력
앤시스코리아가 삼성SDS와 방산 및 국방 분야의 클라우드 사업 협력을 위한 업무 협약(MOU)을 체결했다고 밝혔다. 양사는 국방·항공·우주 등 차세대 전장 영역에서 요구되는 복합 체계 고도화에 기여하기 위해 ▲차세대 무인항공시스템 ▲유/무인 복합전투체계 ▲DE(디지털 엔지니어링) Lab 포탈 ▲해석 및 시스템 엔지니어링 도입 분야에서 공동 사업을 발굴하고 영업 및 제안을 추진하는 등 긴밀히 협력하기로 했다. 이번 협약을 통해 앤시스코리아는 삼성SDS 클라우드 기반으로 CAE 솔루션을 공급하고 기술 지원 및 교육을 담당하며, 삼성SDS는 앤시스의 솔루션에 최적화된 삼성 클라우드 플랫폼(SCP)의 GPU 중심 AI 클라우드 인프라를 제공할 예정이다. 특히 앤시스코리아는 삼성 클라우드 플랫폼의 구독형 GPU 서비스(GPUaaS)를 활용해 기존 CPU 환경 대비 최소 5배에서 최대 약 33배까지 연산 속도를 높이고, 이를 통해 제품 개발 주기를 크게 단축할 수 있을 것으로 기대하고 있다. 또한, 양사는 사용자들이 SCP 마켓 플레이스를 통해 앤시스 솔루션을 SaaS 서비스로 손쉽게 이용할 수 있도록 제공할 계획이며, 클라우드 기반의 솔루션 제공과 서비스 구축 및 최적화를 위해 기술 적합성 평가(PoC)를 실시할 것이라고 밝혔다.     앤시스코리아의 박주일 대표는 “앤시스의 시뮬레이션 솔루션과 삼성SDS의 고성능 클라우드 인프라를 결합해 방산 및 국방 분야에서 새로운 혁신을 이끌 수 있게 되어 기쁘다”면서, “앞으로도 클라우드 기반으로 다양한 산업 분야에서 서비스형 비즈니스 모델을 확대해 나갈 것”이라고 말했다. 삼성SDS의 클라우드서비스사업부장인 구형준 부사장은 “이번 업무협약은 단순 기술 협력을 넘어 클라우드 기반 서비스를 통한 제조기업의 업무혁신 사례가 될 것”이라며, “삼성SDS의 클라우드 기술력과 앤시스의 솔루션 노하우가 결합된 서비스를 통해 전체 제품 개발 주기의 생산성과 효율성을 향상시키는 것은 물론, 글로벌 시장에서 빠르게 성장하고 있는 우주항공 및 방산 분야에도 클라우드 기반 서비스를 제공하는데 협력해 나가겠다”고 전했다.
작성일 : 2024-10-22
레노버 넵튠, 차세대 수냉식 기술 공개 및 AI 확장 지원 발표
레노버가 지난 10월 15일 개최된 자사 연례 글로벌 행사 ‘테크월드(Tech World) 2024’에서 ‘씽크시스템 (ThinkSystem) N1380 넵튠(Neptune)’을 공개했다. 레노버의 파트너 생태계 전반에 걸쳐 출시된 6세대 넵튠 액체 냉각 기술은 데이터 센터의 전력 소비를 최대 40%까지 줄이고, 생성형 AI를 위한 효율적인 컴퓨팅 환경을 구축 및 운영할 수 있도록 지원한다는 것이 레노버의 설명이다. 레노버 넵튠은 공랭 시스템에 비해 열을 효과적으로 제거하고 전력 소비를 감축해, 40개 이상의 특허를 보유하고 전 세계에서 널리 사용되는 액체 냉각 플랫폼이다. 레노버 넵튠은 맞춤형 동관 워터 루프와 특허를 받은 CPU 콜드 플레이트 등 최첨단 소재를 사용해 전체 시스템을 수냉식으로 냉각한다. FEP 플라스틱보다 내구성이 높은 스테인리스와 EPDM 호스를 사용해 성능이 견고한 것도 특징으로 내세운다. 이번 행사에서 레노버는 엔비디아와의 협력에 기반해 ‘레노버 하이브리드 AI 어드밴티지(Lenovo Hybrid AI Advantage with NVIDIA)’ 및 ‘씽크시스템 SC777 V4 넵튠’을 선보였다. 신규 시스템은 ‘씽크시스템 N1380 넵튠’을 활용해 엔비디아 블랙웰(Blackwell)과 엔비디아 NB200을 엔터프라이즈 시장에 도입하는 것을 지원하며, 트릴리언 파라미터 AI 모델을 컴팩트한 디자인으로 구현한다.  AI 도입의 확산에 따라, 데이터 센터들이 보다 높은 열 밀도를 처리할 수 있도록 재설계가 요구되고 있다. 레노버는 ‘씽크시스템 N1380 넵튠’과 ‘씽크시스템 SC777 V4 넵튠’을 통해 100KW 이상의 서버 별도 특수 냉각 장치 없이도 작동할 수 있는 데이터 센터를 구축하고 있다. 이 혁신은 AI 시대에서 더욱 밀도 높은 하드웨어를 제공하고, 냉각용 전력을 재배치한 차세대 데이터 센터를 구현하기 위한 것이다. ‘씽크시스템 N1380 넵튠’은AI 및 연구 목적의 데이터 센터 전력 효율을 극대화하면서 시스템 냉각 자체에 대한 부담을 해소한다. 이 기술은 차세대 액체 냉각 섀시를 활용해 전력 소모가 큰 팬을 제거하여 소형 시스템에서도 높은 효율의 가속 컴퓨팅을 구현한다. 산업 표준 19인치 랙에 맞춰 설계되어, 표준 전력을 사용하면서도 개방형 생태계에서 가장 강력한 가속 컴퓨팅을 한 번에 한 트레이씩 활용할 수 있다. ‘씽크시스템 SC777 V4 넵튠’은 고성능 가속 네트워킹을 위한 차세대 엔비디아 ‘퀀텀-X800 인피니밴드(NVIDIA Quantum-X800 InfiniBand)’ 및 ‘스펙트럼-X800 이더넷(Spectrum-X800 Ethernet)’ 플랫폼을 지원한다. 나아가 ‘엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)’를 지원해 생성형 AI, 컴퓨터 비전, 음성 AI 등 실무급 AI 솔루션의 개발 및 배포를 간소화하는 클라우드 네이티브 소프트웨어 플랫폼을 제공한다.   레노버는 엔비디아 GB200 랙 시스템을 통해 AI 훈련, 데이터 처리, 엔지니어링 설계 및 시뮬레이션을 향상시킨다고 소개했다. 이 시스템은 엔비디아 엔비링크(NVIDIA NVLink) 인터커넥트를 포함한 전체 엔비디아 GB200 그레이스 블랙웰(Grace Blackwell) 시스템 아키텍처에 대한 개방형 루프의 직접 온수 냉각을 특징으로 하며, 모든 규모의 엔터프라이즈 고객이 레노버 ‘씽크시스템SC777 V4 넵튠’을 통해 더 빠르게 제품을 시장에 출시하고, 비용을 절감해 에너지 효율성을 높이도록 돕는다. 새로운 씽크시스템 서버는 첨단 수냉 기능을 통해 주요 부품을 더 낮은 온도에서 작동시키고 GPU, 메모리, I/O, 로컬 스토리지, 전압 조절기를 포함한 모든 요소에 있어 효과적으로 열을 제거한다. 최대 10조 개의 매개 변수로 확장되는 모델에 대한 AI 교육과 실시간 LLM 추론을 수행하는 동시에 컴팩트하고 조용한 시스템으로 성능, 에너지 효율성 및 신뢰성을 확보했다. 한편, 레노버는 모든 규모의 기업에게 고성능 AI 구현을 지원한다고 소개했다. 컴팩트한 13U 인클로저부터 랙, 열, 데이터센터 전체까지 확장 가능한 ‘씽크시스템 N1380 넵튠’은 8개의 트레이 슬롯, 4개의 15kW 전력 변환 스테이션 탑재에 정교한 수냉식 분배 시스템으로 공간, 전력, 냉각 효율이 최적화된 패키징이 특징이다. N1380은 데이터센터의 랙 규격을 준수하면서도 증가하는 성능 요구사항에 필요한 공간을 제공하도록 최적화되었다. 확장성을 갖춘 설계를 통해 모든 규모의 기업이 최신 고성능 기술을 활용할 수 있도록 지원한다. 또한, 수냉식 냉각 방식을 차용해 내부 팬을 제거하고 공기 흐름을 최소화함으로써 공랭식 시스템 대비 전력 소비량을 최대 40%까지 절감한다. N1380 인클로저는 최대 4개의 씽크시스템 15kW 티타늄 PCS를 탑재하여 48V 버스바를 통해 시스템에 전력을 공급한다. 전력 변환, 정류, 전력 분배 기능을 단일 PCS(전력 변환 스테이션)에 통합하여 기존의 분리된 장치 구성 방식 대비 전력 효율성을 극대화한다. 그리고, 특허받은 블라인드 메이트 메커니즘과 누수 방지 기능을 갖춘 항공 우주 등급 커넥터를 통해 컴퓨팅 트레이에 냉각수를 공급하는 통합 매니폴드를 탑재해 안전한 운영을 지원한다. 엔비디아의 밥 페트(Bob Pette) 엔터프라이즈 플랫폼 부문 부사장은 “엔비디아 블랙웰 플랫폼은 생성형 AI를 구동하는 엔진으로서 새로운 산업 혁명을 정의한다”며, “레노버의 ‘씽크시스템 N1380 넵튠’과 엔비디아 GB200의 혁신적 성능은 가장 기술적으로 진보한 가속 워크로드를 지원하는 동시에 운영 비용과 에너지 소비를 대폭 줄여 AI 확장의 약속을 실현하는 데 기여할 것”이라고 전했다. 레노버의 양 위안칭(Yuanqing Yang) 회장 겸 CEO는 “레노버는 고성능 컴퓨팅의 힘을 확장하고자 10년이 넘도록 액체 냉각의 혁신을 선도해 왔다. ‘씽크시스템 N1380 넵튠’은 첨단 수냉식 엔지니어링 기술을 바탕으로 엔비디아 블랙웰과 트릴리언 파라미터 AI를 모든 곳에 도입하고, 데이터 센터의 전력 사용 방식을 변화시키는 새로운 패러다임을 제시한다”고 말했다.
작성일 : 2024-10-22
유니티 6 글로벌 출시, 성능과 안정성 높인 차세대 게임 개발 플랫폼 제공
유니티는 안정적이고 우수한 성능을 갖춘 유니티 6(Unity 6)를 전 세계에 출시했다고 발표했다. 전 세계 개발자들과 협력을 통해 제작, 테스트, 개선된 유니티 6는 뛰어난 게임을 더 빠르고 효율적으로 제작할 수 있도록 지원한다. 유니티 6의 새로운 기능에는 커넥티드 게임 개발 속도를 높여주는 엔드 투 엔드 멀티플레이어 워크플로, 모바일 웹을 지원할 수 있는 툴, 워크로드를 CPU에서 GPU로 이동해 내부 및 고객 테스트에 따르면 CPU 성능을 최대 4배까지 개선한 새로운 그래픽스 기능 등이 있다. 유니티는 유니티 6 출시 후 제품 및 엔지니어링 리소스를 장기적으로 투입해, 기능 세트를 개선하고 새로운 기능을 제공하는 동시에 업그레이드 용이성과 지속적인 안정성을 유지할 계획이다. 유니티의 매튜 브롬버그(Matt Bromberg) 사장 겸 CEO는 “유니티는 게임 개발자가 게임을 더 빠르고 효율적으로 제작하는 동시에 혁신을 앞당기는 데 유용한 툴을 제공하기 위해 끊임없이 집중하고 있다”면서, “앞으로도 유니티 6가 게임 개발의 핵심이 될 수 있도록 최선을 다할 것”이라고 말했다.     한편, 유니티는 유니티 6 출시와 함께 모든 수준의 개발자가 바로 시작할 수 있는 학습 리소스를 선보였다. ‘타임 고스트(Time Ghost)’는 최신 유니티 오리지널(Unity Originals) 실시간 시네마틱 데모이다. 이 데모는 환경 제작과 캐릭터 디자인 측면의 발전을 비롯해 유니티 6로 무엇을 구현할 수 있는지를 보여준다. 타임 고스트의 두 가지 신 가운데 하나는 유니티의 ECS가 환경을 구현하는 방법을 보여주고, 다른 하나는 머신러닝을 사용하여 천의 형태 변화를 사실적으로 구현한 실제 사례를 보여준다. URP를 사용하여 모바일에 최적화된 ‘판타지 킹덤(Fantasy Kingdom)’ 데모의 프로젝트와 애셋은 이제 유니티 에셋 스토어에서 비상업적 용도로 무료 사용이 가능하다. 또한, 개발자는 100명 이상의 플레이어가 참여 가능한 크로스 플랫폼 멀티플레이어 게임을 처음부터 끝까지 유니티에서 제작하는 방법을 보여주는 ‘메가시티 메트로(Megacity Metro)’ 데모를 다운로드하여 완전히 새로운 유니티 6의 기능을 사용해 볼 수 있다.
작성일 : 2024-10-18
HPE, 복잡한 AI 모델 학습 가속화를 위한 AMD 기반 신규 서버 출시
HPE는 5세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트(Instinct) MI325X 가속기를 탑재한 복합 AI 모델 학습용 ‘HPE 프로라이언트 컴퓨트 XD685(HPE ProLiant Compute XD685)’ 서버를 출시했다. 새로운 HPE 시스템은 대규모 언어 모델(LLM) 학습, 자연어 처리 및 멀티 모달 학습을 위한 고성능의 에너지 효율적 인공지능(AI) 클러스터를 신속하게 배포할 수 있도록 최적화되었다. HPE 프로라이언트 컴퓨트 XD685는 HPE가 설계한 새로운 모듈형 섀시를 통해 대규모 AI 모델 학습 및 조정 프로젝트에 신속한 솔루션을 제공한다. 모듈형의 컴팩트한 5U 섀시는 솔루션의 시장 출시 시간을 단축시키고 다양한 GPU, CPU, 구성 요소, 소프트웨어 및 냉각 방식을 수용할 수 있는 유연성을 제공한다. 또한, 수십 년간 축적된 HPE의 직접 수냉 방식(DLC) 노하우와 HPE iLO의 보안 혁신을 결합해 지속가능하고 안전한 고성능 솔루션을 구현한다.     AMD CDNA 3 아키텍처로 구동되는 AMD 인스팅트 MI325X 가속기는 학습 및 추론 작업에서 더 적은 GPU로 향상된 AI 성능과 효율을 제공한다. MI325X 가속기는 초당 6 테라바이트(TB)의 메모리 대역폭을 갖춘 HBM3e 메모리 용량을 통해 성능을 최적화하고 총소유비용(TCO)을 절감한다. HPE가 설계한 5U 서버 섀시는 랙당 8노드 구조로 컴팩트하게 구성되어 8웨이 GPU 시스템의 랙 집적도를 높인다. HPE 프로라이언트 컴퓨트 XD685는 8개의 AMD 인스팅트 MI325X 또는 AMD 인스팅트 MI300X 가속기, 최신 AMD 에픽 9005 시리즈 프로세서 2개, 공랭 혹은 직접 수냉 방식 방식을 지원한다. HPE 서비스는 대규모 AI 클러스터를 전 세계 어디에서나 안정적이고 우수한 운영으로 설치 및 배포할 수 있도록 모든 범위의 맞춤형 유연성 서비스를 제공한다. 전문 서비스 팀이 공장에서 솔루션을 구축, 통합, 검증, 테스트 및 맞춤화하여 현장 배포 시간을 단축시킨다. HPE iLO는 HPE 프로라이언트 컴퓨트 XD685 시스템을 안전하게 관리하여, 공급망에서부터 시작해 실리콘에 내재된 업계 최고 수준의 보안 혁신과 원활한 관리를 제공한다. HPE 퍼포먼스 클러스터 매니저(HPE Performance Cluster Manager)는 완전 통합 시스템 관리 소프트웨어로, 베어메탈에서 자동화된 설정으로 복잡한 시스템을 빠르게 운영할 수 있도록 지원하며, 상세한 텔레메트리, GPU 스트레스 테스트 등을 통해 클러스터를 안정적으로 유지 및 운영한다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 솔루션 부문 수석 부사장 및 책임자는 “대규모 언어 모델을 효율적으로 학습하려면 뛰어난 확장성, 대규모 병렬 컴퓨팅 성능, 그리고 HPE의 고성능 컴퓨팅 솔루션만이 제공할 수 있는 독보적인 서비스가 필요하다. 세계에서 가장 강력하고 에너지 효율적인 시스템을 제공하는 선두 기업으로서, AMD와 협력해 HPE 프로라이언트 컴퓨트 XD685로 이 혁신을 확장하고, AI 모델 개발자 시장의 수요에 부응하며, 산업 전반에서 과학과 공학의 혁신을 가속화할 것”이라고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 솔루션 그룹 부사장 겸 총괄 매니저는 “최신 AMD 에픽 프로세서와 인스팅트 가속기의 강력한 조합을 통해 HPE 프로라이언트 컴퓨트 XD685 고객들은 시장 출시 시간을 단축하고 AI 성능과 효율성에서 진정한 리더십을 경험할 수 있다. HPE와의 협력을 통해 대규모 언어 모델 학습에 대한 수요 증가에 대응하며, AI 노력을 극대화하고, 업계의 경쟁력 있는 혁신을 촉진하는 유연하고 고성능의 솔루션을 지속적으로 제공하고 있다”고 말했다. HPE 프로라이언트 컴퓨트 XD685는 2025년 1분기부터 다양한 구성으로 순차적으로 출시될 예정이다.
작성일 : 2024-10-16
엔비디아, “AI 인프라 혁신 위해 블랙웰 플랫폼 설계 공유”
엔비디아가 오픈 컴퓨트 프로젝트(OCP)에 블랙웰(Blackwell) 가속 컴퓨팅 플랫폼 설계를 제공해 AI 인프라 혁신 가속화에 나서겠다고 밝혔다. 엔비디아는 개방적이고 효율적이며 확장 가능한 데이터센터 기술 개발을 촉진하기 위해, 블랙웰 가속 컴퓨팅 플랫폼 설계의 기본 요소를 OCP에 제공해 오고 있다고 발표했다. 또한, 엔비디아는 OCP 표준에 대한 엔비디아 스펙트럼-X(Spectrum-X) 지원을 확대할 예정이다. 엔비디아는 올해 OCP 글로벌 서밋에서 OCP 커뮤니티와 엔비디아 GB200 NVL72 시스템의 전자 기계 설계의 주요 부분을 공유한다. 여기에는 더 높은 컴퓨팅 밀도와 네트워킹 대역폭을 지원하기 위한 랙 아키텍처, 컴퓨팅과 스위치 트레이 기계 구조, 액체 냉각과 열 환경 사양, 엔비디아 NV링크(NVLink) 케이블 카트리지 용적 측정 등이 포함된다. 엔비디아는 “이미 엔비디아 HGX H100 베이스보드 설계 사양을 비롯해 여러 세대의 하드웨어에 걸쳐 OCP에 공식적으로 기여해 오고 있다. 이를 통해 전 세계 컴퓨터 제조업체의 제품 선택 폭을 넓히고, AI 채택을 확대할 수 있도록 생태계에 도움을 주고 있다”고 전했다. 또한, “OCP 커뮤니티에서 개발한 사양에 맞춰 확장된 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼을 통해 기업은 투자를 보호하고 소프트웨어 일관성을 유지하면서 OCP 인증 장비를 배포하는 AI 팩토리의 성능 잠재력을 활용할 수 있게 됐다”고 덧붙였다.     GB200 NVL72는 컴퓨터 제조업체가 방대한 데이터센터 인프라 설계를 빠르고 비용 효율적으로 구축할 수 있도록 지원하는 엔비디아 MGX 모듈형 아키텍처를 기반으로 한다. 이 수냉식 시스템은 36개의 엔비디아 그레이스(Grace) CPU와 72개의 엔비디아 블랙웰 GPU를 랙 스케일 설계로 연결한다. 72개의 GPU로 구성된 엔비디아 NV링크 도메인은 단일 대규모 GPU로 작동하며, 엔비디아 H100 텐서 코어(Tensor Core) GPU보다 30배 빠른 실시간 1조 개 매개변수 대규모 언어 모델 추론을 제공한다. 차세대 엔비디아 커넥트X-8 슈퍼NIC(ConnectX-8 SuperNIC)를 포함하는 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼은 OCP의 스위치 앱스트랙션 인터페이스(Switch Abstraction Interface)와 소닉(Software for Open Networking in the Cloud) 표준을 지원한다. 이를 통해 고객은 스펙트럼-X의 적응형 라우팅과 원격 측정 기반 혼잡 제어를 사용해 스케일 아웃 AI 인프라를 위한 이더넷 성능을 가속화할 수 있다. 커넥트X-8 슈퍼NIC는 최대 800Gb/s 속도의 가속화된 네트워킹과 대규모 AI 워크로드에 최적화된 프로그래밍 가능한 패킷 처리 엔진을 제공한다. OCP 3.0용 커넥트X-8 슈퍼NIC는 2025년에 출시될 예정이며, 이를 통해 기업은 유연한 네트워크를 구축할 수 있다.  엔비디아의 젠슨 황(Jensen Huang) CEO는 “엔비디아는 OCP와의 10년간의 협력을 바탕으로 업계 리더들과 함께 전체 데이터센터에 널리 채택될 수 있는 사양과 설계를 만들기 위해 노력하고 있다. 우리는 개방형 표준을 발전시킴으로써 전 세계 조직이 가속 컴퓨팅의 잠재력을 최대한 활용하고 미래의 AI 팩토리를 만들 수 있도록 돕고 있다”고 말했다.
작성일 : 2024-10-16
오라클, “말레이시아에 클라우드 리전 오픈 등 65억 달러 투자 계획”
오라클이 말레이시아에서 인공지능(AI) 및 클라우드 서비스에 대한 급증하는 수요를 충족하기 위해 65억 달러(약 8조 7000억 원) 이상을 투자해 퍼블릭 클라우드 리전을 개소할 계획이라고 발표했다. 신규 클라우드 리전은 말레이시아의 오라클 고객 및 파트너가 AI 인프라와 서비스를 활용하고, 중요 업무를 오라클 클라우드 인프라스트럭처(OCI)로 이전할 수 있도록 지원할 예정이다. 개소 예정인 말레이시아 리전은 기업들이 애플리케이션을 현대화하고, 모든 유형의 업무를 클라우드로 이전하며, 데이터, 분석 및 AI를 통해 혁신할 수 있도록 돕는다. 이 지역의 기업들은 검색 증강 생성(RAG) 기능을 제공하는 OCI 생성형 AI 에이전트(OCI Generative AI Agents)와 국가 내 소버린 AI 모델을 보유할 수 있게 하는 가속 컴퓨팅 및 생성형 AI 서비스를 이용할 수 있다. 또한, 최대 13만 1072개의 엔비디아 블랙웰 GPU와 엔비디아 커넥트X-7를 사용한 RoCEv2 네트워킹 또는 엔비디아 GB200 NVL72 랙 솔루션을 사용한 액체 냉각 및 엔비디아 퀀텀-2 인피니밴드 네트워킹을 주문할 수 있는 클라우드 AI 슈퍼컴퓨터인 OCI 슈퍼클러스터를 제공한다. 신규 말레이지아 클라우드 리전은 오라클 자율운영 데이터베이스(Oracle Autonomous Database), 히트웨이브 마이SQL 데이터베이스 서비스(HeatWave MySQL Database Service), 오라클 클라우드 VM웨어 솔루션(Oracle Cloud VMware Solution), OCI 쿠버네티스 엔진(OCI Kubernetes Engine), 오라클 퓨전 클라우드 애플리케이션 제품군(Oracle Fusion Cloud Applications Suite)을 포함한 150개 이상의 서비스가 제공되어, 기업들에게 인프라, 플랫폼 또는 서비스형 소프트웨어(SaaS) 서비스를 제공한다.     오라클은 전 세계에서 AI를 포함해 150개 이상의 클라우드 서비스를 제공한다. OCI의 클라우드 아키텍처는 오라클 서비스가 최적의 설치 공간 및 규모에서 시작해 사용자의 필요에 따라 확장될 수 있도록 하며, 자체 데이터센터 내에서 하이퍼스케일 클라우드 서비스를 통한 전용 클라우드 리전 배포를 가능케 하여 더 많은 퍼블릭 리전을 신속하게 개소할 수 있도록 지원한다. 이러한 접근 방식은 클라우드 성능을 저해하지 않고 모든 국가 및 시장의 요구사항을 충족할 수 있도록 도움을 주며, OCI의 일관된 성능과 SLA(서비스 수준 계약), 통일된 글로벌 가격 정책을 제공한다. 오라클은 말레이시아에 개소 예정인 퍼블릭 클라우드 리전을 통해 고객과 파트너가 클라우드 서비스에 저지연으로 접근하여, 데이터를 더 잘 활용하고 데이터를 안전하게 저장하며 애플리케이션을 실행하여 말레이시아 내 데이터 레지던시 요구 사항과 규정을 충족할 수 있을 것으로 보고 있다. 또한, 기업에게 데이터와 컴퓨팅 인프라의 위치와 관리 방식에 대한 통제력을 높이는 OCI의 소버린 AI 기능을 통해 기업이 디지털 주권 프레임워크에 맞춰 AI를 사용할 수 있다는 확신을 얻고 AI 주권을 달성할 수 있을 것이라고 밝혔다. 말레이시아의 국제통상산업부 장관인 텡쿠 다툭 세리 우타마 자프룰 텡쿠 압둘 아지즈는 “오라클의 65억 달러 규모 말레이시아 투자는 말레이시아의 기업, 특히 중소기업들이 혁신적인 최첨단의 AI 및 클라우드 기술을 통해 글로벌 경쟁력을 강화할 수 있도록 할 것이다. 또한, 2030년까지 3000개의 스마트 공장을 설립하겠다는 새로운 국가 계획의 야심찬 비전을 실현하는 데 있어 중요한 단계다. 오라클이 말레이시아에 퍼블릭 클라우드 리전을 설립하기로 한 결정은 말레이시아가 인프라 측면에서 준비가 잘 되어 있으며, 디지털 투자에 있어 동남아시아의 주요 허브로 성장하고 있음을 보여준다”고 밝혔다. 오라클의 가렛 일그(Garrett Ilg) 아태지역 총괄 사장은 “말레이시아는 최신 디지털 기술을 활용해 비즈니스를 확장하려는 기업들에게 독창적인 성장 기회를 제공하는 지역”이라면서 “오라클은 수십억 달러 규모의 투자를 통해 아태지역 클라우드 인프라 관문으로서의 말레이시아의 입지와 국가 전역에 배포된 포괄적인 SaaS 애플리케이션 제품군 지원에 대한 우리의 헌신을 보여준다”고 말했다.
작성일 : 2024-10-16
슈퍼마이크로, 신규 AI 데이터센터 최적화 서버 및 GPU 가속 시스템 출시
슈퍼마이크로컴퓨터가 AMD 에픽(EPYC) 9005 시리즈 프로세서 및 AMD 인스팅트 MI325X GPU 기반의 새로운 서버 포트폴리오, GPU 가속 시스템, 그리고 스토리지 서버를 출시한다고 밝혔다. 슈퍼마이크로가 이번에 출시한 H14 서버 포트폴리오는 슈퍼마이크로의 하이퍼 시스템, 트윈 멀티노드 서버, 그리고 AI 추론 GPU 시스템을 포함하고 있으며, 모든 제품이 공냉식 또는 수냉식 옵션으로 제공된다. AMD의 젠5(Zen5) 프로세서 코어 아키텍처는 CPU 기반 AI 추론을 위한 전체 데이터 경로 AVX-512 벡터 명령어를 구현하며, 사이클 당 명령어 처리 횟수(IPC)가 기존의 4세대 EPYC 프로세서 대비 17% 개선돼 더욱 향상된 코어당 성능을 제공한다.   새로운 H14 서버 포트폴리오는 5세대 AMD 에픽 프로세서를 사용해 CPU당 최대 192개의 코어, 최대 500W 열 설계 전력(TDP)을 지원한다. 슈퍼마이크로는 높아진 열 요구 사항을 충족하기 위해 H14 포트폴리오에 하이퍼 및 플렉스트윈 시스템을 구축했다. H14는 AI 훈련 및 추론 워크로드용 시스템 3개를 포함하며, 최대 10개의 GPU를 지원한다. 세 시스템은 AMD 에픽 9005 시리즈 CPU를 호스트 프로세서로 탑재하며, 이 중 2개는 AMD 인스팅트 MI325X GPU를 지원한다. 슈퍼마이크로는 점프스타트 프로그램(JumpStart Program)을 통해 AMD 에픽 CPU가 탑재된 H14 서버에 대한 테스트 액세스도 지원할 예정이다.     슈퍼마이크로의 찰스 리앙(Charles Liang) 사장 겸 CEO는 “슈퍼마이크로의 H14 서버는 에픽 9005 64코어 CPU를 탑재해 2세대 에픽 7002 시리즈 CPU를 사용하는 슈퍼마이크로의 H11 서버 대비 2.44배 더 빠른 SPECrate2017_fp_base1 성능을 제공한다. 이런 성능 향상으로 인해 고객은 데이터센터의 총 면적을 3분의 2 이상 줄이고 새로운 AI 처리 기능을 추가할 수 있다. 이는 데이터센터의 전력 효율성으로 이어진다. H14 서버 포트폴리오는 슈퍼마이크로의 공냉식 및 수냉식 옵션, 다양한 시스템 설계, 검증된 빌딩 블록 솔루션을 통해 최고의 성능, 집적도, 전력 효율성을 제공한다”고 말했다.
작성일 : 2024-10-15
델, AMD 최신 기술 통합한 파워엣지 서버 신제품 출시
델 테크놀로지스는 ‘델 AI 팩토리’ 포트폴리오에 AMD 환경을 지원하는 솔루션을 추가했다고 밝혔다. 델 테크놀로지스는 광범위한 생성형 AI 제품군에 AMD 탑재 서버 신제품을 추가함으로써 기업들이 AI 관련 솔루션을 선택할 때 강력한 확장성과 유연성을 확보할 수 있게끔 지원하겠다는 전략을 소개했다.  델 파워엣지 포트폴리오에 추가된 신제품은 광범위한 AI 활용 사례와 더불어 기존 워크로드 또한 지원하며 서버 관리 및 보안을 간소화한다. 새로운 제품군은 커스터마이징이 가능한 플랫폼으로서 관리를 간소화하고 현대적인 엔터프라이즈 환경에 대한 고성능 워크로드를 지원한다.     엔터프라이즈 AI 워크로드용으로 설계된 델 파워엣지 XE7745(Dell PowerEdge XE7745) 서버는 4U 공냉식 섀시에서 최대 8개의 이중 폭(double-width) 또는 16개의 단일 폭(single-width) PCIe GPU와 AMD의 5세대 에픽(EPYC) 프로세서를 지원한다. AI 추론, 모델 미세 조정 및 고성능 컴퓨팅을 위해 설계된 내부 GPU 슬롯은 네트워크 연결을 위한 8개의 추가 5.0세대 PCIe 슬롯과 결합되어 기존 대비 2배의 고밀도의 DW PCIe GPU 용량을 제공한다. 델 파워엣지 R6725와 델 파워엣지 R7725 서버는 고성능 AMD 5세대 에픽 프로세서를 탑재하고 확장성에 특화된 설계를 선보인다. 새로운 DC-MHS 섀시 설계로 향상된 공랭식 냉각과 듀얼 500W CPU를 지원하여 까다로운 발열 문제를 해결하고 전력 효율을 높였다. 이 플랫폼은 확장성에 최적화된 구성으로 엄격한 데이터 분석 및 AI 워크로드를 유지하며 가상화, 데이터베이스, AI와 같은 워크로드에 향상된 성능을 제공한다. 델은 R7725가 최고 성능 구성에서 최대 66% 향상된 성능과 최대 33% 향상된 효율을 제공한다고 소개했다. AMD의 5세대 에픽 프로세서를 탑재한 델 파워엣지 R6715와 델 파워엣지 R7715 서버는 향상된 성능, 효율성 및 최대 37% 증가된 드라이브 용량을 통해 스토리지 밀도를 높였다. 다양한 구성 옵션으로 제공되는 싱글 소켓 서버로서 24개의 DIMM(2DPC)을 지원하여 2배의 메모리를 지원하며, 컴팩트한 1U 또는 2U 폼팩터에서 다양한 워크로드 요구 사항을 충족하고 성능을 극대화한다. 특히 R6715는 AI 및 가상화 작업에서 더욱 높은 성능을 제공한다. 한편, 델 테크놀로지스는 대규모로 AI를 구축하는 기업이나 공공기관들을 위해 파워엣지 XE 서버에서 AMD 인스팅트(AMD Instinct) 가속기의 최신 기술을 계속해서 지원할 계획이라고 밝혔다. 또한, PC에서 데이터 센터, 클라우드에 이르는 광범위한 AI 솔루션 포트폴리오인 델 AI 팩토리를 통해 다양한 AI 요구 사항을 지원함으로써, 기업과 기관들이 AI 투자 규모를 적절하게 조정할 수 있도록 도울 것이라고 전했다. 델 파워엣지 XE7745 서버는 2025년 1월부터 전 세계에 출시되며, 델 파워엣지 R6715, R7715, R6725 및 R7725 서버는 2024년 11월부터 전 세계에 출시될 예정이다. AMD 기반 델 생성형 AI 솔루션은 2024년 4분기부터 전 세계에 제공되며, 델 엔터프라이즈 허브 온 허깅 페이스 업데이트는 현재 사용이 가능하다. 한국 델 테크놀로지스의 김경진 총괄사장은 “델은 AMD의 최신 기술을 통합하며 포트폴리오를 확장함으로써 고객의 현재와 미래를 모두 만족시킬 수 있는 성능과 효율성을 확보했다”고 말하며, “델 AI 팩토리는 AI 성능에 대한 새로운 기준을 제시하는 동시에 현대적인 데이터 중심 환경에 필수적인 강력하고 비용 효율적인 인프라 솔루션 경험을 제공한다”고 덧붙였다.
작성일 : 2024-10-15
지코어코리아-몬드리안에이아이, GPU 클라우드 사업 고도화 위한 MOU 체결
퍼블릭 클라우드, 에지 컴퓨팅 및 에지 AI 전문 기업인 지코어코리아는 AI 플랫폼 전문기업 몬드리안에이아이와 GPU 클라우드 사업의 고도화를 위한 양해각서(MOU)를 체결했다고 밝혔다. 지코어는 엔비디아 GPU 기반으로 고성능 머신러닝 및 AI 작업을 지원하는 클라우드 인프라를 제공한다. 또한 엄격한 기준을 충족하는 6개 대륙 180개 이상의 PoP(point of presence)를 토대로 한 글로벌 저지연 네트워크를 통해 클라우드 및 에지 AI 솔루션을 운영하고 있다.  몬드리안에이아이는 AI 클라우드 서비스 'Runyour AI’를 통해 고성능 GPU 자원을 저렴한 비용으로 수요자에게 연결하는 서비스를 제공하고 있다. 이번 협약으로 양사는 지코어의 고성능 GPU 데이터센터 자원과 Runyour AI 플랫폼을 결합해 클라우드 사업에서 시너지를 창출할 예정이다. 몬드리안에아이는 지코어의 GPU 기반 클라우드 및 스토리지 인프라를 활용해 한국을 비롯한 아시아 시장에서 구독형 AI 클라우드 서비스인 GPUaaS(GPU-as-a-Service)를 공급해 나갈 예정이다. 지코어코리아의 정현용 지사장은 “지코어의 빠르고 안정적인 GPU 클라우드가 몬드리안에이아이의 플랫폼과 만나, 그 동안 지코어의 클라우드를 선듯 도입하지 못했던 기업들에게 익숙하고 편리한 UI 환경을 제공할 수 있게 되었다”며, “양사의 이번 협업을 통해 국내 AI 비즈니스 시장 저변 확대에 기여할 것이라 자신한다”고 말했다. 몬드리안에이아이의 홍대의 대표는 “이번 지코어와의 협력으로 Runyour AI의 글로벌 시장 진출에 중요한 발판을 마련했다”며, “글로벌 AI 및 클라우드 시장에서의 경쟁력을 더욱 강화해 나가겠다”고 전했다. 몬드리안에이아이는 Runyour AI에 ‘Dev Cloud’ 기능을 추가할 예정이다. 몬드리안에이아이는 이 기능이 가상머신(VM) 기반의 CPU 상품을 월 단위로 제공함으로써 AI 모델 추론 및 데이터 분석 작업에 효과를 더할 것으로 기대하고 있다. 한편 지코어는 지난 6월에 ‘인퍼런스 앳더 에지’ 솔루션을 출시했다. 이 서비스는 사전 학습된 머신러닝 모델을 전 세계에 분포되어 있는 에지 추론 노드 중 사용자와 가장 가까운 경로 또는 위치에서 응답할 수 있도록 함으로써 원활한 실시간 추론을 지원하고 있다.
작성일 : 2024-10-15
인텔, AI PC용 인텔 코어 울트라 200S 시리즈 데스크톱 프로세서 출시
인텔은 AI PC 기능을 데스크톱 플랫폼으로 확장한 인텔 코어 울트라 200S(Intel Core Ultra 200S) 시리즈 프로세서 제품군을 출시했다. 마니아용 데스크톱 AI PC를 위한 이번 신제품은 인텔 코어 울트라 9 프로세서 285K를 필두로 한 최신 세대의 마니아용 데스크톱 프로세서로, 빠른 속도의 데스크톱용 코어인 차세대 P-코어(고성능 코어) 최대 8개와 차세대 E-코어(고효율 코어) 최대 16개를 탑재한 새로운 언락된 데스크톱 프로세서 5개로 구성되어 있다. 인텔은 “인텔 코어 울트라 200S 시리즈 프로세서 제품군은 마니아층을 위해 최초로 NPU를 탑재한 데스크톱 프로세서이며, 최신 미디어를 지원하는 Xe GPU가 내장되어 있다. 또한, 최대 36 플랫폼 TOPS의 성능을 제공해 AI 및 콘텐츠 제작에서 높은 성능을 제공한다”면서, “이를 통해 이전 세대보다 멀티스레드 워크로드에서 최대 14% 향상된 성능을 제공하고, 경쟁사의 플래그십 프로세서 대비 최대 28% 향상된 게임 성능으로 몰입감 있는 게임 경험을 제공한다”고 전했다.      인텔 코어 울트라 200S 데스크톱 프로세서는 일상적인 애플리케이션에서 패키지 전력 소비를 최대 58%까지 줄이고, 게임 중 시스템 전력을 최대 165W까지 절감한다. 새로운 프로세서 제품군은 향상된 효율성과 성능을 제공하여, 이전 세대 대비 싱글 스레드에서 최대 6%, 멀티 스레드에서 최대 14% 더 빠른 성능을 제공한다. CPU, GPU, NPU로 구동되는 AI 기능을 통해 마니아층은 전력 소비를 줄이면서도 콘텐츠 제작과 게임을 위한 지능적이고 강력한 성능을 활용할 수 있다. 인텔은 코어 울트라 200S 시리즈 프로세서가 AI 기반 창작 애플리케이션에서 경쟁사의 플래그십 프로세서 대비 최대 50% 더 빠른 성능을 제공한다고 밝혔다. 새롭게 탑재된 NPU는 AI 기능을 분산 처리(오프로딩)할 수 있도록 한다. 예를 들어 외장 GPU의 여유 성능을 확보해 게임 프레임률을 향상시키고 AI 워크로드에서 전력 사용량을 줄일 수 있으며, 게임에서 표정 및 동작 트랙킹과 같은 접근성 기능을 사용할 때 성능에 미치는 영향을 최소화할 수 있다. 인텔 코어 울트라 200S 시리즈 프로세서의 새로운 인텔 800 시리즈 칩셋은 최대 24개의 PCIe 4.0 레인, 최대 8개의 SATA 3.0 포트, 최대 10개의 USB 3.2 포트를 지원하여 마니아들이 최신 커넥티비티, 스토리지 및 기타 기술을 활용할 수 있도록 확장된 플랫폼 호환성을 제공한다. 또한, 인텔 코어 울트라 200S 시리즈 프로세서는 P-코어와 E-코어의 최상위 터보 주파수를 16.6MHz 단위로 세밀하게 조정할 수 있는 새로운 오버클럭 기능을 제공한다. 새로운 메모리 컨트롤러는 새로운 XMP 및 CUDIMM DDR5 메모리를 지원하여 DIMM당 48GB까지 총 192GB까지 확장 가능하며, 인텔 익스트림 튜닝 유틸리티(Extreme Tuning Utility)는 원클릭 오버클럭 개선 기능을 제공한다. 인텔 코어 울트라 200S 프로세서는 20개의 CPU PCIe 5.0 레인, 4개의 CPU PCIe 4.0 레인, 2개의 내장 썬더볼트 4 포트, 와이파이 6E, 블루투스 5.3을 지원한다. 인텔 킬러 와이파이(Intel Killer Wi-Fi)는 애플리케이션 우선 순위 자동 감지, 대역폭 분석 및 관리, 스마트 AP 선택 및 전환을 통해 최적화된 무선 성능과 몰입감 있는 온라인 게임플레이 환경을 제공한다. 이외에 인텔 실리콘 보안 엔진(Intel Silicon Security Engine)은 데이터 기밀성과 코드 무결성을 보호하는 동시에, AI 워크로드에 필요한 높은 성능을 유지한다. 인텔 코어 울트라 200S 시리즈 프로세서는 미 서부시각 기준 2024년 10월 24일부터 온라인 및 오프라인 소매점과 OEM 파트너 시스템을 통해 구매할 수 있다. 인텔 클라이언트 컴퓨팅 그룹의 로버트 할록(Robert Hallock) AI 및 기술 마케팅 총괄은 “새로운 인텔 코어 울트라 200S 시리즈 프로세서는 전력 사용을 크게 줄이면서도 탁월한 게임 성능과 선도적인 컴퓨팅 성능을 유지하려는 인텔의 목표를 실현한다. 그 결과, NPU를 통해 제공되는 AI 게임 및 창작 기능과 인텔의 확장된 그래픽 포트폴리오를 활용한 뛰어난 미디어 성능으로 더 낮은 온도와 소음이 적은 가동을 보장하는 사용자 경험을 제공한다”고 밝혔다.
작성일 : 2024-10-11