• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "가속 컴퓨팅"에 대한 통합 검색 내용이 3,383개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
아마존, “한국 클라우드 인프라에 7조 원 추가 투자 계획”
아마존웹서비스(AWS)는 2025년부터 2031년까지 한국 내 AI 및 클라우드 컴퓨팅 기술 지원을 위한 데이터센터 인프라 확충에 7조 원(약 50억 달러)을 추가 투자할 계획이라고 발표했다. AWS는 현재까지 한국 클라우드 인프라에 5조 6000억 원(40억 달러) 이상을 투자해왔으며, 2031년까지 아마존의 국내 총 투자 규모는 12조 6000억 원(90억 달러)을 넘어설 전망이다. AWS의 확장된 인프라는 국내 기업이 머신러닝과 분석부터 복잡한 업무를 자율적으로 처리할 수 있는 새로운 AI 에이전트(AI agent)에 이르기까지 AI의 모든 기능을 폭넓게 활용할 수 있도록 지원한다. AWS는 AI 도입 여정의 어느 단계에 있든 기업이 안정적이고 확장 가능한 기반 위에서 혁신을 이어갈 수 있도록 지원하고 있다고 소개했다. AWS의 하이메 발레스(Jaime Vallés) 아시아·태평양·일본(APJ) 총괄 부사장은 “7조 원 규모의 이번 신규 투자는 모든 규모의 한국 기업의 디지털 전환을 지원하고 한국이 글로벌 AI 강국으로 도약하는 데 기여하고자 하는 우리의 장기적 약속을 더욱 공고히 하는 것”이라며, “AWS는 세계적 수준의 데이터센터 인프라를 확장함으로써 한국의 기술적 미래에 투자하고 있다. 한국 기업이 가장 발전된 컴퓨팅 성능과 특화된 AI 도구를 활용해 빠르게 혁신하고, 생성형 AI가 제공하는 막대한 기회를 활용할 수 있도록 지원하게 되어 기쁘다”라고 말했다. 김정관 산업통상자원부 장관은 “AWS의 대규모 AI 인프라 투자는 한국이 글로벌 AI 강국으로 도약하는 데 크게 기여할 것”이라며, “생산성 정체와 글로벌 보호무역 확산 등 우리 산업이 직면한 위기를 극복하기 위해서는 AI 전환(AX)이 유일한 해법이며, AWS가 구축할 AI 인프라는 산업 전반의 AX를 가속화한다는 점에서 더욱 의미가 크다. 정부는 국내외 기업들이 AI 인프라 확충과 AX 확산을 위한 적극적인 투자와 비즈니스 활동을 전개할 수 있도록 적극 지원하겠다”고 말했다. 이번 신규 투자는 AWS가 한국의 국가 AI 기반 강화를 위해 SK그룹과 협력하에 추진 중인 ‘울산 AI 존’에 대한 투자를 포함한다. 2027년 운영을 시작할 예정인 이 AI 특화 시설은 SK그룹이 건설을 담당하고, AWS는 자사의 AI 및 클라우드 역량을 한국 고객에게 제공할 계획이다. 한편, AWS는 빠르게 성장하는 스타트업부터 대기업, 주요 정부 기관에 이르기까지 수천 개의 한국 고객들이 자사의 기술을 활용해 AI 여정을 가속화하고 비용을 절감하며 민첩성을 높이고 혁신을 추진하고 있다고 전했다. AWS는 고성능 컴퓨팅 인프라와 특화된 AI 하드웨어에 대한 전략적 투자를 확대해, 향후 생성형 AI와 에이전틱 AI(agentic AI) 혁신을 위한 기술적 기반을 구축하고 있다. 여기에는 트레이니움(Trainium)과 인퍼런시아(Inferentia) 칩과 같은 특수 목적 하드웨어를 갖춘 고도의 보안 인프라부터, 아마존 베드록(Amazon Bedrock)을 통해 앤트로픽, 오픈AI 등이 제공하는 100개 이상의 AI 모델에 접근하고, AI 에이전트를 통해 경쟁력을 강화하는 것까지 포함된다. AWS는 한국의 조직들이 안전하고 대규모로 AI 혁신을 가속화할 수 있도록 필요한 도구와 서비스를 제공하고 있다고 소개했다. AWS코리아 함기호 대표는 “다년에 걸친 이번 투자 계획은 한국의 디지털 전환 여정을 지원하고자 하는 AWS의 확고한 의지를 보여준다”며, “확장된 클라우드 인프라는 모든 규모의 국내 기업이 글로벌 시장에서 경쟁력을 확보하고, 데이터 주권을 유지하면서 첨단 AI 기술을 활용할 수 있도록 지원할 것이다. 이번 투자를 통해 한국 경제에 기여하고, 대규모 AI 혁신을 가능하게 하며, 사회 전반에 실질적인 혜택을 제공하게 되어 기쁘다”고 말했다.
작성일 : 2025-10-29
레노버, 엔비디아 그레이스 블랙웰 슈퍼칩 탑재한 AI 워크스테이션 ‘씽크스테이션 PGX’ 출시
한국레노버가 엔비디아 GB10 그레이스 블랙웰 슈퍼칩을 탑재한 컴팩트한 AI 워크스테이션 ‘씽크스테이션 PGX(ThinkStation PGX)’를 출시했다. 새롭게 선보인 씽크스테이션 PGX는 AI 연구자, 개발자, 데이터 과학자, 엔지니어 등을 위한 전문 AI 워크스테이션이다. 최대 1페타플롭(1000 TOPS) AI 연산 성능을 제공하며 최대 2000억 개 파라미터를 가진 대규모 생성형 AI 모델을 처리할 수 있다. 128GB 통합 시스템 메모리를 탑재해 사용자는 최신 추론 AI 모델을 실험하고, 미세 조정 및 추론 작업을 원활하게 수행할 수 있다. 두 대의 시스템을 연결하면 최대 4050억 개 파라미터를 가진 더 큰 AI 모델까지 처리 가능하다. 1.13리터의 사이즈와 최소 1.2kg의 무게로 공간 활용성을 높였다.     씽크스테이션 PGX는 엔비디아 DGX OS와 엔비디아 AI 소프트웨어 스택은 물론, 파이토치(PyTorch), 주피터(Jupyter) 등 개발자에게 익숙한 도구와 프레임워크가 사전 구성되어 있다. 이를 통해 개발자는 데스크톱 환경에서 대규모 AI 모델을 즉시 프로토타이핑하고, 미세 조정 및 추론 과정을 거쳐 데이터센터나 클라우드로 손쉽게 배포할 수 있다. 생성형 AI 모델의 규모와 복잡성이 급격히 증가함에 따라 로컬 환경에서의 개발은 점점 더 많은 제약에 직면하고 있다. 대규모 모델의 프로토타이핑, 튜닝, 추론에는 방대한 GPU 메모리와 연산 성능이 요구된다. 씽크스테이션 PGX는 이러한 한계를 극복하고 AI 애플리케이션 프로토타이핑을 위한 강력하면서도 경제적인 플랫폼을 제공한다. 이에 따라 개발자는 AI 온프레미스 클러스터나 클라우드 컴퓨팅 환경의 리소스를 한층 효율적으로 활용할 수 있다. 또한 씽크스테이션 PGX 사용자는 엔비디아 AI 플랫폼 소프트웨어 아키텍처를 기반으로 코드를 거의 수정하지 않고도 데스크톱 환경에서 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 이전 가능하다. 이를 통해 프로토타이핑, 미세 조정, 반복 등 개발 작업을 손쉽게 수행할 수 있다. 한국레노버의 신규식 대표는 “생성형 AI 시대를 맞아 기업과 연구기관의 AI 개발 역량이 핵심 경쟁력으로 부상하고 있다”며, “고성능이면서도 컴팩트한 씽크스테이션 PGX는 전문가들이 클라우드 인프라의 복잡성과 비용 부담 없이 확장 가능한 AI 기능을 구현할 수 있는 최적의 설루션”이라고 말했다. 이어 “레노버는 워크스테이션 포트폴리오를 지속적으로 확장해 전문가들이 생성형 AI 혁신을 가속화하고 채택할 수 있도록 적극 지원할 것”이라고 덧붙였다.
작성일 : 2025-10-27
알테어, GPU·AI·양자컴퓨팅 지원하는 ‘HPC웍스 2026’ 출시
  알테어가 고성능 컴퓨팅(HPC) 및 클라우드 플랫폼 ‘알테어 HPC웍스(Altair HPCWorks) 2026’을 발표했다. 이번 업데이트는 그래픽처리장치(GPU) 통합 및 활용도 강화, 인공지능(AI)·머신러닝 지원 확대, 고도화된 리포팅 기능을 통해 HPC 환경의 가시성과 효율성을 향상시켰다. 최신 버전은 AI 워크로드를 중심으로 설계돼 GPU와의 통합성을 강화했다. 업데이트된 쿠버네티스 커넥터 및 주피터 노트북 연동 기능을 통해 AI 및 머신러닝 모델 학습 환경을 효율적으로 지원하며, 엔비디아, AMD, 인텔 GPU 가속기를 폭넓게 지원한다. IT 관리자는 향상된 GPU 탐색 및 리포팅 기능을 통해 GPU 리소스를 손쉽게 통합하고 최적화할 수 있다. AI 기반 자동화 기능도 대폭 강화됐다. HPC웍스 2026은 AI 기반 메모리 자원 예측 기능을 통해 작업 제출 및 자원 활용을 최적화하고, 지능형 스케줄링 및 메모리 선택 기능으로 HPC 워크로드의 효율성을 극대화한다. 사용자는 복잡한 정보기술(IT) 지식 없이도 빠르게 결과를 얻을 수 있다. 양자 컴퓨팅 지원도 강화됐다. 새로 출시된 버전은 전통적인 방식의 HPC와 양자 컴퓨팅을 결합한 하이브리드 워크플로를 효율적으로 실행할 수 있도록 지원한다. 이를 통해 신용카드 사기 거래 탐지와 같이 복잡하고 동적인 패턴을 분석하는 작업에 활용할 수 있다. 알테어 HPC웍스 2026은 자사 AI 플랫폼인 알테어 래피드마이너와의 연계를 통해 맞춤형 AI 모델 학습과 워크로드 자동화를 지원한다. 또한 리포트·대시보드 확장, 윈도우 전용 데스크톱 클라이언트 제공, 스트리밍 API 등으로 IT 운영 효율을 강화했다. 알테어의 샘 마할링엄 최고기술책임자(CTO)는 “기술 환경이 빠르게 진화함에 따라 알테어는 AI, 머신러닝, 데이터 분석, EDA(전자설계자동화), 양자 컴퓨팅 등 최신 워크로드를 완벽히 지원하도록 설루션을 발전시키고 있다”면서, “지멘스의 일원으로서 향후 이러한 기술력을 더욱 가속화할 예정”이라고 말했다.
작성일 : 2025-10-23
델, 중소·중견기업을 위한 ‘델 프로 에센셜’ PC 라인업 출시
델 테크놀로지스가 국내 중소·중견기업(SMB) 시장을 겨냥해 ‘델 프로 에센셜(Dell Pro Essential)’ 노트북 및 데스크톱 PC 라인업을 새롭게 선보였다. 델 프로 에센셜은 신뢰할 수 있는 성능과 보안, 관리용이성을 내세운 엔트리급 기업용 PC 제품군이다. 2025년 초 델은 새로운 통합 브랜딩 전략을 통해 전문가급 생산성을 위한 기업용 PC 제품군을 ‘델 프로(Dell Pro)’ 포트폴리오로 통합했다. 델의 기존 기업용 노트북 브랜드인 ‘래티튜드(Latitude)’와 데스크톱 PC 브랜드인 ‘옵티플렉스(Optiplex)’를 계승한 ‘델 프로(Dell Pro)’는 강력한 성능과 깔끔한 디자인이 조화를 이루는 기업용 PC 제품군이다. 이번 에센셜(Essential) 라인업은 합리적인 가격대의 PC를 선호하는 중소·중견기업(SMB)을 겨냥한 제품군으로, 업무를 위한 필수적인 성능과 기능을 갖춰 최상급의 사용자 경험을 제공하는 데에 초점을 맞추었다.     이번에 출시한 제품은 기업용 노트북인 ▲델 프로 14∙15 에센셜(Dell Pro 14∙15 Essential)과 기업용 데스크톱 PC인 ▲델 프로 슬림·타워 에센셜(Dell Pro Slim·Tower Essential) 등 총 4종이다.  델 프로 14 에센셜과 델 프로 15 에센셜은 보안, 관리성 등 중소·중견기업의 요구 사항을 충족하고 긴 배터리 수명과 높은 내구성을 갖춰 이동 중에 작업을 수행하는 비즈니스 사용자에게 최적화된 기업용 노트북이다. 델 프로 14 에센셜은 14형 노트북으로, 최대 인텔 코어 7 CPU와 인텔 아이리스(Iris) Xe 그래픽 카드를 탑재했다. IPS 패널 기반의 16:10 화면비, 2K 해상도, 300니트 밝기를 지원하는 디스플레이가 적용됐다. ‘델 프로 15 에센셜’은 최대 13세대 인텔 코어 i7 CPU에 인텔 아이리스 Xe 그래픽 카드 또는 AMD 라이젠 5(Ryzen 5) 프로세서에 AMD 라데온(Radeon) 그래픽 카드가 탑재된 모델이 제공된다. FHD 해상도와 120Hz 주사율을 지원하는 디스플레이를 탑재했고, 숫자 패드까지 갖춘 풀사이즈 키보드를 탑재했다. 이들 제품은 데이터 암호화가 가능한 TPM 2.0(Trusted Platform Module 2.0) 보안 모듈을 탑재했다. 빠르고 안전한 로그인을 위한 지문 인식기 옵션, 물리적으로 카메라를 잠글 수 있는 프라이버시 셔터 옵션을 지원하며, 14인치 제품의 경우 분실 방지를 위한 웨지형 잠금 슬롯 등 다양한 보안 기능을 지원한다. 두 모델 모두 미 군사 표준규격인 MIL-STD-810H를 통과해 외부 충격에 강한 내구성까지 인정받았다. 델 프로 슬림 에센셜(QVS1260)과 델 프로 타워 에센셜(QVT1260)은 일상적인 업무를 더욱 효율적으로 처리하기 위해 필요한 안정적인 성능과 비용 효율적인 컴퓨팅 설루션으로, 중소·중견기업에 최적화된 데스크톱 PC이다. 델 프로 제품은 본체 크기에 따라 ‘타워’, ‘슬림’, ‘마이크로’ 제품군으로 나뉘는데, ‘델 프로 슬림 에센셜’은 9.5×29.3×30.3cm 사이즈로 협소한 장소에서도 공간 활용도를 높인다. 델 프로 타워 에센셜은 이보다 높이가 2cm, 너비가 6cm가량 크다. 두 제품 모두 최대 인텔 코어 울트라 5 프로세서와 인텔 UHD 그래픽스를 탑재하고, 16GB DDR5의 메모리를 지원해 워크로드를 빠르게 수행할 수 있도록 했다. 또한, 윈도우 11 프로, 윈도우 11 홈 및 우분투(11월말 지원 예정) 등 다양한 OS 옵션을 지원한다. 이들 제품은 공구 없이도 패널을 개폐할 수 있는 툴리스 설계를 적용해 사용자가 직접 부품을 손쉽게 교체하고 업그레이드할 수 있다. 3개의 PCIe 슬롯을 지원하고, 최대 1TB SSD까지 성능을 확장할 수 있다. 총 8개의 USB 포트와 SD 카드 슬롯 옵션을 탑재했고, 디스플레이포트(DisplayPort) 및 데이지 체인 연결로 최대 4대의 FHD 모니터와 2대의 4K 디스플레이를 연결할 수 있어 주변 기기와의 연결성도 높였다. 이들 제품은 중소·중견기업의 IT 관리를 간소화하도록 설계된 것이 특징이다. 델 관리 포털(Dell Management Portal)에서 마이크로소프트 인튠(Intune)을 사용해 클라우드에서 디바이스를 손쉽게 관리할 수 있으며, 마이크로소프트 오토파일럿(Autopilot)을 통해 IT 관리자의 개입 없이 디바이스를 자동으로 배포할 수도 있다. 한국 델 테크놀로지스의 김경진 총괄사장은 “최근 AI PC 수요 증가, 윈도우 10 지원 종료 등으로 PC 교체 수요가 지속적으로 늘고 있다”면서, “이번에 출시하는 에센셜 라인업은 합리적인 가격에도 기업 고객들의 다양한 니즈를 충족하는 필수 요소를 갖추고 있으며, 중소·중견기업의 혁신 여정을 함께 하는 중요한 기반이 될 것”이라고 말했다.
작성일 : 2025-10-22
PTC, ‘온쉐이프 AI 어드바이저’ 출시하면서 CAD AI 제품군 강화
PTC는 자사의 클라우드 네이티브 CAD/PDM 플랫폼인 온쉐이프(Onshape)를 위한 최신 AI 기술인 ‘온쉐이프 AI 어드바이저(Onshape AI Advisor)’를 발표했다. 온쉐이프 AI 어드바이저는 설계 환경에 직접 내장되어 사용자가 설계를 진행하는 동안 실시간 가이드를 제공한다. 이번 업데이트로 모든 사용자는 최신 AI 기능에 즉시 접근할 수 있게 됐다. 온쉐이프 AI 어드바이저는 메인 작업 공간 내에서 쉽게 접근할 수 있도록 새롭게 디자인된 인터페이스를 갖추고 있다. 사용자에게 단계별 권장 사항, 문제 해결 기능, 모범 사례를 모두 설계 환경 내에서 제공한다. PTC는 “아마존 베드록(Amazon Bedrock)을 기반으로 하는 온쉐이프 AI 어드바이저의 최신 릴리스는 제품 개발에 AI를 도입하려는 PTC의 비전을 실현하는 다음 단계”라고 소개했다. PTC는 온쉐이프를 사용하는 엔지니어의 생산성을 높이는 동시에 엔터프라이즈급 보안 및 데이터 보호를 유지하기 위해 에이전트 워크플로를 발전시키고 있다. 팀은 워크플로에 직접 내장된 지능형 설계 에이전트와 협력하여 모델 메타데이터와의 상호 작용을 지원받을 수 있다. 또한 모델 문제 해결 및 작업 지원, 피처스크립트(FeatureScript) 코드 생성, 반복 작업 간소화 등을 수행할 수 있다. 이에 더해, AI 지원 렌더링은 시각화 및 설계 검토 워크플로를 가속화할 수 있는 잠재력을 보여줄 수 있다.     PTC는 온쉐이프의 클라우드 네이티브 아키텍처와 광범위한 공용 모델 라이브러리를 통해 파일 기반 CAD 도구와 차별화되는 고급 AI 기능을 위한 기반을 제공한다는 전략을 소개했다. PTC는 자동화된 지오메트리 생성, 지능형 설계 최적화, 자체 AI 이니셔티브를 가진 고객을 위한 툴킷 등 AI 기능을 모색하고 있다. 온쉐이프는 3주의 릴리스 주기를 통해 모든 사용자에게 새로운 기능과 플랫폼 향상 기능을 제공할 뿐만 아니라, 고객이 자체 AI 프로젝트를 추진할 수 있는 도구도 제공한다. 개방형 API, 확장 가능한 클라우드 컴퓨팅 리소스, 광범위한 공용 데이터 라이브러리, 맞춤형 구성 도구를 앞세워 AI 모델을 쉽게 학습시키고 합성 데이터를 생성할 수 있게 돕는다. PTC는 이러한 강점을 바탕으로 빠르게 성장하는 기업들이 기존의 파일 기반 시스템보다 더 빨리 AI를 실험하고 채택하도록 돕는다는 계획이다. PTC의 데이비드 캐츠먼(David Katzman) 온쉐이프 및 아레나(Arena) 총괄 부사장은 “AI 어드바이저를 온쉐이프에 직접 내장한 것은 설계 인텔리전스의 새로운 시대를 여는 것”이라면서, “우리는 단순히 AI 기능을 출시하는 것이 아니라, AI가 설계 과정에서 신뢰할 수 있는 파트너가 되는 엔지니어링 문화를 형성하고 있다. 업계 유일의 클라우드 네이티브 CAD 및 PDM 플랫폼인 온쉐이프는 제품 개발에 AI를 통합하는 데 있어 업계를 선도할 수 있는 위치에 있다”고 전했다.
작성일 : 2025-10-21
HP Z AI 워크스테이션 웨비나, 실무 사용기와 함께 공개
AI와 3D 그래픽 작업의 경계가 빠르게 허물어지고 있는 가운데, HP코리아가 차세대 크리에이터를 위한 새로운 솔루션을 선보인다. 10월 22일 오후 2시, 캐드앤그래픽스가 주최하는 웨비나 ‘고가의 GPU 없이도 최대 VRAM 96GB 작업 가능, HP Z AI 워크스테이션 및 사용기 소개’에서는 최신 HP Z AI 워크스테이션의 성능과 실제 현업 디자이너의 사용기를 생생하게 들을 수 있다. 이번 세션은 HP코리아의 차성호 이사(Value Products Category Manager)와 마루인터내셔널 배현수 부장(맥슨 한국총판 기술지원팀)이 발표자로 참여한다. 참가비는 무료이며, 사전등록을 통해 누구나 참여할 수 있다. 이번에 소개되는 HP Z AI 워크스테이션은 GPU 리소스에 대한 한계를 크게 낮춘 것이 특징이다. 고가의 GPU 없이도 최대 96GB VRAM을 활용할 수 있으며, 3D 디자인·렌더링 동시 작업, 대규모 LLM(대형언어모델) 실행 등 기존 워크스테이션에서 경험하기 어려웠던 고부하 작업을 로컬 환경에서도 안정적으로 수행할 수 있다. HP는 이번 모델을 통해 AI 시대의 ‘로컬 퍼포먼스 컴퓨팅’이라는 새로운 비전을 제시하고 있다. 특히 클라우드 의존도를 낮추면서도 고해상도 그래픽, 복잡한 시뮬레이션, 생성형 AI 모델 학습까지 가능하다는 점에서 크리에이터와 엔지니어 모두에게 주목받고 있다. 한편 이번 웨비나의 또 다른 핵심은 실제 현업 디자이너의 사용 경험이다. 맥슨(Maxon)의 한국총판 마루인터내셔널의 배현수 부장은 모션그래픽 디자이너이자 AI 크리에이터로, HP Z2 Mini G1a 데스크탑 워크스테이션을 활용한 협업 사례와 실무 노하우를 직접 공유할 예정이다. 이번 웨비나는 하이엔드 그래픽스, 3D 콘텐츠 제작, 생성형 AI 프로젝트를 수행하는 전문가들에게 실질적인 도움을 줄 것으로 기대된다.
작성일 : 2025-10-21
오라클, OCI 전용 리전25 통해 소버린 AI 및 클라우드 서비스 배포 지원
오라클은 더 많은 기업이 퍼블릭 클라우드의 민첩성, 경제성 및 확장성을 누릴 수 있도록 오라클 클라우드 인프라스트럭처(OCI) 전용 리전25(Dedicated Region25)를 출시했다고 발표했다. 기업은 OCI 전용 리전25를 통해 단 몇 주 내에 최소 3개의 랙으로 구성된 풀스택 OCI 환경을 구축할 수 있으며, 공간 제약이 있는 환경에서도 손쉽게 전용 리전을 배포할 수 있다. 지난 2020년 처음 출시된 OCI 전용 리전(OCI Dedicated Region)은 대규모 하이퍼스케일 폼팩터에서 더욱 유연한 배포 형태로 발전해 왔다. 현재 전 세계적으로 60개 이상의 OCI 전용 리전과 오라클 알로이(Oracle Alloy) 리전이 운영 중이거나 계획되어 있으며, 고객은 성능, 거버넌스, 퍼블릭 OCI 환경의 호환성을 저해하지 않으면서 자사 비즈니스 규모에 최적화된 배포 모델을 선택할 수 있다.     OCI 전용 리전25는 OCI의 분산형 클라우드 제품군에 속하며, 모듈형 인프라와 간소화된 서비스 설계를 갖춘 엔터프라이즈급 소버린 클라우드를 통해 공공 및 민간 조직이 민첩성을 높이고 제품 출시 기간을 단축하도록 지원한다. 오라클은 “200개 이상의 AI 및 클라우드 서비스가 내장된 완전한 퍼블릭 클라우드 리전을 3개 랙만으로 구축 가능하고, 하이퍼스케일 수준까지 확장 가능하며, 고객 데이터센터 내에서 안전하게 운영할 수 있도록 지원한다”고 소개했다. 이에 따라 시공간적 제약 혹은 규제 관련 제약으로 전용 클라우드 리전 운영이 어려웠던 고객도 혁신을 가속화하고 새로운 비즈니스 모델을 구현할 수 있게 된다는 것이 오라클의 설명이다. 기존의 전용 클라우드 리전은 많은 조직의 전면적 클라우드 전환에 걸림돌이 되었다. OCI 전용 리전25는 ▲고도화된 네트워크 중심의 모듈형 확장성 ▲하이퍼컨버지드 표준 인프라 ▲통합 다계층(multi-layered) 보안 ▲SaaS, AI를 포함한 퍼블릭 클라우드 수준의 서비스 제공 ▲데이터 주권 요건 지원 ▲오라클 운영 클라우드 리전 등의 이점을 제공하여 클라우드 전환의 방해요소를 제거한다. OCI 전용 리전25는 최소 3개 랙으로 시작해 다운타임이나 재설계 없이 네트워크 확장 랙을 추가함으로써 하이퍼스케일까지 원활하게 확장할 수 있다. 그리고 오라클의 표준화된 고밀도 컴퓨팅 및 스토리지 랙을 활용해 데이터센터 공간 및 전력 사용을 절감할 수 있다. 고객은 더 높은 신뢰성, 빠른 복구 시간, 최대 가동 시간을 확보할 수 있으며, 복잡한 운영 부담 없이 컴팩트한 규모로 운영 가능하다. OCI 전용 리전25는 물리, 가상 전 계층에 걸친 다중적 보안 장치로 데이터와 워크로드를 보호해 높은 수준의 보안, 프라이버시, 규제 요건을 충족할 수 있도록 한다. 통합 다계층 보안 기능으로는 생체인식 잠금(biometric-locked) 랙, 암호화된 소프트웨어 정의 네트워크 패브릭 등이 포함된다. 또한 200개 이상의 OCI AI 및 클라우드 서비스를 고객 환경에서 직접 제공함으로써 데이터 주권 및 데이터 지역성 요건을 충족하면서도 퍼블릭 OCI와 동일한 운영 환경을 구현할 수 있다. 이외에도 정부 및 공공기관이 전체 오라클 클라우드 스택을 자체 환경에 배포하고 데이터 및 시스템에 대한 완전한 통제권을 유지할 수 있도록 함으로써 엄격한 수준의 데이터 주권, 프라이버시, 보안, 규제 요건을 충족할 수 있도록 지원한다. OCI 전용 리전25는 오라클이 직접 운영하는 완전한 클라우드 운영 서비스 형태로 제공되므로, 고객은 인프라 관리가 아닌 혁신에 집중할 수 있다. 스콧 트와들 OCI 제품 및 산업 담당 수석 부사장은 “기업은 가장 큰 가치 창출이 가능한 곳에서 AI와 클라우드 서비스를 자유롭게 구동하길 원하며, 소버린 AI(sovereign AI)에 대한 관심이 높아짐에 따라 데이터의 위치와 데이터 통제에 대한 요건이 엄격해져 이러한 요구 사항이 더욱 강화되고 있다”면서, “OCI 전용 리전25의 출시로 오라클은 사실상 모든 데이터센터로 오라클 클라우드의 역량을 확장할 수 있게 되었다. 이 새로운 배포 옵션은 탁월한 유연성, 운영 단순성 및 엔터프라이즈급 데이터 주권을 제공해 전용 클라우드의 기준을 새롭게 정의하고, 고객이 미래 혁신을 대비할 수 있도록 돕는다”고 말했다.
작성일 : 2025-10-20
AWS, 포괄적 AI 에이전트 플랫폼 ‘아마존 베드록 에이전트코어’ 출시
아마존웹서비스(AWS)가 포괄적인 에이전틱 플랫폼인 ‘아마존 베드록 에이전트코어(Amazon Bedrock AgentCore)’를 출시한다고 발표했다. AWS는 “미션 크리티컬 시스템 구축 경험을 바탕으로 개발된 아마존 베드록 에이전트코어는 안전하고 신뢰할 수 있으며 확장 가능한 종합 에이전트 플랫폼으로, 에이전트의 비결정적 특성에 최적화된 프로덕션 환경을 제공한다”고 소개했다. 에이전트코어는 기업이 AI 에이전트를 파일럿에서 프로덕션까지 신속하게 전환하고 개발자가 에이전트를 구축, 배포, 운영하는 데 필요한 완전한 기반을 제공한다. 개발자는 복잡한 워크플로를 처리할 수 있도록 에이전트에 도구, 메모리, 데이터를 손쉽게 연결할 수 있으며, 몇 줄의 코드로 안전하고 확장 가능한 런타임 환경에 배포할 수 있다. 또한 엔터프라이즈급 접근 제어 및 관리 기능을 통해 안정적으로 운영할 수 있다. 이 모든 기능은 인프라를 관리 없이 원하는 모델이나 프레임워크를 자유롭게 선택해 쉽게 시작할 수 있다. 에이전트코어는 구축부터 배포, 운영까지 에이전트 개발 수명주기 전반에 걸쳐 완전 관리형 서비스를 제공하는 에이전틱 플랫폼이다. 기업은 원하는 모델이나 프레임워크를 자유롭게 조합해 사용할 수 있으며 엔터프라이즈급 인프라 및 도구에 대한 액세스와 함께 높은 유연성을 제공한다. 에이전트코어는 통합 또는 개별 사용이 가능한 컴포저블(composable) 서비스를 제공한다. 기업은 크루AI, 구글 ADK, 랭그래프, 라마인덱스, 오픈AI 에이전트 SDK, 스트랜드 에이전트 등 선호하는 프레임워크와 아마존 베드록에서 제공되는 모델 또는 오픈AI, 제미나이 등 아마존 베드록 외부 모델을 사용하여 필요한 에이전트코어 서비스를 선택할 수 있다.     에이전트코어 코드 인터프리터(AgentCore Code Interpreter)는 격리된 환경에서 에이전트가 코드를 안전하게 생성하고 실행할 수 있게 하며, 에이전트코어 브라우저(AgentCore Browser)는 대규모 웹 애플리케이션 상호작용을 지원한다. 에이전트코어 게이트웨이(AgentCore Gateway)는 기존 API와 AWS 람다(AWS Lambda) 함수를 에이전트 호환 도구로 전환하고 기존 모델 컨텍스트 프로토콜(Model Context Protocol : MCP) 서버에 연결하며, 지라, 아사나, 젠데스크 등 서드파티 비즈니스 도구 및 서비스와의 원활한 통합을 제공한다. 에이전트코어 아이덴티티(AgentCore Identity)를 통해 에이전트는 오스(OAuth) 표준을 사용한 적절한 인증 및 권한 부여로 이러한 도구에 안전하게 액세스하고 운영할 수 있다. AI 에이전트는 컨텍스트를 유지하고 상호작용을 통해 학습할 수 있어야 한다. 에이전트코어 메모리(AgentCore Memory)는 개발자가 복잡한 메모리 인프라를 관리하지 않고도 정교하고 컨텍스트를 인식하는 경험을 만들 수 있도록 지원하며, 에이전트가 사용자 선호도, 과거 상호작용, 관련 컨텍스트에 대한 상세한 이해를 구축하고 유지할 수 있게 한다. 아마존 클라우드워치(Amazon CloudWatch) 기반의 에이전트코어 옵저버빌리티(AgentCore Observability)는 실시간 대시보드와 상세한 감사 추적을 통해 포괄적인 모니터링을 제공한다. 기업은 모든 에이전트 작업을 추적하고 문제를 신속하게 디버깅하며 성능을 지속적으로 최적화할 수 있다. 오픈텔레메트리(OpenTelemetry : OTEL) 호환성을 통해 다이나트레이스, 데이터독, 아리제 피닉스, 랭스미스, 랭퓨즈 등 기존 모니터링 도구와 통합된다. 에이전트 워크로드는 기존 애플리케이션과 달리 실행 시간이 불규칙하다. 에이전트코어 런타임(AgentCore Runtime)은 이러한 변동성(variability)에 대응해 필요에 따라 제로에서 수천 개의 세션으로 자동 확장되며 장시간 실행 작업을 위한 업계 최고 수준의 8시간 런타임을 제공한다. 에이전트코어는 에이전트가 안전하게 작동할 수 있도록 모든 서비스에 보안을 내장했다. 가상 프라이빗 클라우드(VPC) 환경과 AWS 프라이빗링크(AWS PrivateLink)를 지원하여 네트워크 트래픽을 비공개로 안전하게 유지한다. 에이전트코어 런타임은 마이크로VM 기술을 통해 매우 높은 수준의 보안을 제공하여 각 에이전트 세션에 고유한 격리된 컴퓨팅 환경을 제공함으로써 데이터 유출을 방지하고 모든 상호작용의 무결성을 유지한다. 에이전트코어는 키로(Kiro), 커서AI(Cursor A)I와 같은 통합 개발 환경(IDE)과 호환되는 MCP 서버를 통해 프로덕션급 에이전트 구축을 지원한다. AWS는 “시작까지 단 몇 분밖에 걸리지 않지만 이는 단순한 도구가 아니라 강력한 보안을 유지하면서 제로에서 수천 개의 세션으로 즉시 확장할 수 있는 완전한 기능의 프로덕션급 설루션”이라고 소개했다. 아마존 디바이스 운영 및 공급망(Amazon Devices Operations & Supply Chain) 팀은 에이전트코어를 사용하여 에이전틱 제조 접근 방식을 개발하고 있다. AI 에이전트들은 제품 사양을 사용하여 함께 작업하며 수동 프로세스를 자동화하며 협업한다. 한 에이전트는 제품 요구사항을 읽고 품질 관리를 위한 상세한 테스트 절차를 만들고, 다른 에이전트는 제조 라인의 로봇에 필요한 비전 시스템을 훈련시킨다. 그 결과 기존에 며칠이 걸리던 객체 감지 모델 미세 조정이 1시간 이내에 높은 정밀도로 단축됐다. 에이전트코어는 뭄바이, 싱가포르, 시드니, 도쿄, 더블린, 프랑크푸르트, 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오리건) 등 9개 AWS 리전에서 정식 출시됐다. 기업은 에이전트코어에서 작동하도록 설계된 AWS 마켓플레이스(AWS Marketplace)의 사전 구축된 에이전트 및 도구를 통해 가치 실현 시간을 가속화할 수 있다.
작성일 : 2025-10-17
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17