• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " x86"에 대한 통합 검색 내용이 351개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔 차세대 18A 기반 코어 Ultra 시리즈 3 출시 산업용 엣지까지 공략
인텔이 CES 2026에서 차세대 18A 공정을 적용한 인텔 코어 Ultra 시리즈 3 프로세서를 발표했다. 향상된 CPU 성능과 AI 연산 능력, 최대 27시간의 배터리 수명을 갖춘 이번 신제품은 PC부터 산업용 엣지 환경까지 폭넓게 지원하며 1월 말부터 본격적인 판매를 시작한다. 인텔 코어 Ultra 시리즈 3 프로세서 인텔이 2026년 1월 6일 서울 및 CES 2026 현장에서 미국 내 설계 및 제조 공정인 인텔 18A 기술을 기반으로 한 최초의 AI PC 플랫폼인 인텔 코어 Ultra 시리즈 3 프로세서를 공식 공개했다. 이번 신제품은 글로벌 주요 파트너사의 200개 이상의 제품 설계에 탑재될 예정이며, 인텔 역사상 가장 광범위하게 공급되는 AI PC 플랫폼이 될 전망이다. 인텔 클라이언트 컴퓨팅 그룹 총괄 짐 존슨 부사장은 이번 인텔 코어 Ultra 시리즈 3를 통해 전력 효율과 CPU 성능을 한층 강화하고, 동급 최고 수준의 GPU와 개선된 AI 연산 성능을 제공한다고 밝혔다. 또한 x86 아키텍처 기반의 신뢰할 수 있는 애플리케이션 호환성을 더욱 공고히 했다고 강조했다. 강력한 멀티태스킹을 위한 고성능 라인업 구축 인텔 코어 Ultra 시리즈 3 모바일 라인업에는 고성능 통합형 인텔 아크 그래픽을 탑재한 X9 및 X7 프로세서가 새롭게 포함되었다. 이들 프로세서는 이동 중에도 게이밍, 콘텐츠 제작, 생산성 작업 등 고급 워크로드를 동시에 처리해야 하는 사용자들을 위해 설계되었다. 최상위 SKU 기준 최대 16개의 CPU 코어와 12개의 Xe 코어, 50 NPU TOPS를 제공하며, 이전 세대 대비 멀티스레드 성능은 최대 60퍼센트, 게이밍 성능은 최대 77퍼센트 이상 개선되었다. 특히 배터리 수명은 최대 27시간 지속을 목표로 설계되어 휴대성을 극대화했다. 또한 메인스트림급 노트북을 위한 인텔 코어 프로세서 라인업도 함께 출시되어 다양한 가격대에서 가성비와 효율성을 갖춘 선택지를 제공한다. 산업용 엣지 및 AI 활용 범위 확대 이번 시리즈 3 프로세서는 PC 시장을 넘어 로보틱스, 스마트 시티, 자동화, 의료 등 엣지 환경을 위한 임베디드 및 산업용 인증을 최초로 획득했다. 이를 통해 확장된 작동 온도 범위와 24시간 상시 가동이 가능한 신뢰성을 확보하여 산업 현장의 까다로운 요구 조건을 충족한다. 엣지 AI 워크로드에서도 비약적인 성능 향상을 이뤄냈다. 대규모 언어 모델 성능은 최대 1.9배 향상되었으며, 엔드투엔드 비디오 분석 부문에서는 와트 및 달러당 성능이 최대 2.3배 개선되었다. 비전 언어 액션 모델 처리량은 최대 4.5배까지 향상되어, 단일 시스템온칩 솔루션만으로도 기존 멀티칩 아키텍처 대비 우수한 총소유비용을 실현했다.   인텔 코어 Ultra 시리즈 3 프로세서 웨이퍼   인텔 코어 Ultra 시리즈 3 프로세서를 탑재한 최초의 소비자용 노트북은 1월 6일부터 사전 예약이 시작되었으며, 1월 27일부터 전 세계 시장에서 본격적인 판매가 진행된다. 추가적인 제품군은 2026년 상반기 중 순차적으로 공개될 예정이며, 엣지 시스템용 제품은 1분기부터 출시될 계획이다.  
작성일 : 2026-01-11
인텔, CES 2026서 18A 공정 기반의 ‘인텔 코어 울트라’ 프로세서 출시
인텔은 CES 2026에서 미국에서 설계·제조된 인텔 18A 공정 기술을 기반으로 한 첫 번째 AI PC 플랫폼인 ‘인텔 코어 울트라 시리즈 3(Intel Core Ultra Series 3)’ 프로세서를 공개했다. 인텔은 글로벌 주요 파트너사의 200개 이상 제품 설계에 탑재되는 이 프로세서가 지금까지 인텔이 선보인 AI PC 플랫폼 가운데 가장 폭넓게 글로벌 시장에 공급되는 플랫폼이 될 것으로 전망했다. 인텔 코어 울트라 시리즈 3 모바일(노트북) 라인업에는 고성능의 통합형 인텔 아크(Arc) 그래픽을 탑재한 새로운 등급의 인텔 코어 울트라 X9 및 X7 프로세서가 포함된다. 이들 프로세서는 이동 중에도 게이밍, 콘텐츠 제작, 생산성 등 고급 워크로드를 동시에 처리하는 멀티태스킹을 위해 설계됐다. 최상위 SKU는 최대 16개 CPU 코어, 12개 Xe 코어, 50 NPU TOPS를 제공하며, 멀티스레드 성능은 최대 60% 향상, 게이밍 성능은 최대 77% 이상 개선됐고, 최대 27시간 지속되는 배터리 수명을 목표로 설계됐다.     인텔 코어 울트라 시리즈 3 제품군에는 메인스트림 급 노트북 구동을 위해 설계된 인텔 코어 프로세서도 포함되어 있다. 인텔 코어 울트라 시리즈 3과 동일한 기본 아키텍처를 활용하는 인텔 코어 라인업은 더 저렴한 가격대에서 가성비와 효율성을 갖춘 노트북 설계를 가능하게 한다. 시리즈 3 에지 프로세서는 PC 버전과 더불어 최초로 임베디드 및 산업용 인증을 획득했다. 이를 통해 확장된 작동 온도 범위, 성능, 그리고 24시간 상시 가동이 가능한 신뢰성 등 산업 현장의 까다로운 요건을 충족한다. 인텔 코어 울트라 시리즈 3는 핵심 에지 AI 워크로드에서 경쟁력을 제공하며, 대규모 언어 모델(LLM) 성능은 최대 1.9배 향상, 엔드 투 엔드 비디오 분석에서는 와트·달러당 성능이 최대 2.3배 개선, 비전-언어-액션(VLA) 모델 처리량은 최대 4.5배 향상됐다. 또한 통합형 AI 가속을 통해 기존의 멀티칩 CPU·GPU 아키텍처 대비 단일 시스템 온 칩(SoC) 설루션으로 더 우수한 총소유비용(TCO)을 제공한다. 인텔의 클라이언트 컴퓨팅 그룹을 총괄하는 짐 존슨(Jim Johnson) 부사장은 “이번 인텔 코어 울트라 시리즈 3를 통해 전력 효율과 CPU 성능을 한층 강화하고, 동급 최고 수준의 GPU와 개선된 AI 연산 성능을 제공한다”며, “x86 아키텍처 기반에서 신뢰할 수 있는 애플리케이션 호환성 역시 강화했다”고 말했다. 인텔 코어 울트라 시리즈 3 프로세서를 탑재한 첫 번째 소비자용 노트북은 1월 말부터 전 세계 시장에서 판매될 예정이며, 이후 제품은 2026년 상반기 동안 순차적으로 공개될 예정이다. 인텔 코어 울트라 시리즈 3 기반의 에지 시스템은 2026년 1분기부터 출시될 예정이다.
작성일 : 2026-01-06
Arm, 향상된 AI 경험 제공 위해 메타와 전략적 파트너십 강화
Arm은 메타(Meta)와 AI 소프트웨어부터 데이터센터 인프라에 이르는 컴퓨팅의 전 영역에서 AI 효율성을 확장하기 위해 전략적 파트너십을 강화했다고 밝혔다. 양사는 이번 협력을 통해 전 세계 수십억 명의 사용자에게 한층 향상된 AI 경험을 제공할 계획이다. 온디바이스 인텔리전스를 지원하는 밀리와트급 저전력 디바이스부터 최첨단 AI 모델 학습을 담당하는 메가와트급 대규모 시스템까지, 메타의 글로벌 플랫폼을 구동하는 전 영역의 컴퓨팅 환경에서 AI 성능을 최적화하겠다는 것이다. 이번 전략적 파트너십 강화는 양사가 다년간 지속해온 하드웨어 및 소프트웨어 공동 설계 협력을 기반으로 한다. Arm의 전력 효율적 AI 컴퓨팅 기술력과 메타의 AI 제품, 인프라, 오픈소스 기술 혁신을 결합해 성능과 효율성을 대폭 향상시키는 것을 목표로 한다. 페이스북과 인스타그램 등 메타 앱 제품군 전반의 검색 및 개인화를 지원하는 메타의 AI 기반 순위 및 추천 시스템은 x86 시스템 대비 고성능, 저전력 소비를 제공하기 위해 Arm 네오버스(Neoverse) 기반 데이터센터 플랫폼을 활용할 예정이다. 네오버스는 메타가 인프라 전반에 걸쳐 전력 대비 성능 효율을 달성할 수 있도록 지원하며, 하이퍼스케일 환경에서 Arm 컴퓨팅의 효율과 확장성을 강화한다. 양사는 컴파일러와 라이브러리부터 주요 AI 프레임워크에 이르기까지 메타의 AI 인프라 소프트웨어 스택을 Arm 아키텍처에 최적화하기 위해 긴밀히 협력했다. 여기에는 Facebook GENeral Matrix Multiplication(FBGEMM) 및 파이토치(PyTorch)와 같은 오픈소스 구성 요소의 공통 튜닝을 포함되며, Arm의 벡터 확장 기능과 성능 라이브러리를 활용해 추론 효율과 처리량에서 측정 가능한 향상을 이뤘다. 이러한 최적화는 오픈 소스 커뮤니티에 제공되어 글로벌 AI 에코시스템 전반에 영향력을 확대하고 있다. 이번 파트너십은 파이토치 머신러닝 프레임워크, ExecuTorch 엣지 추론 런타임 엔진, vLLM 데이터센터 추론 엔진 전반에 걸쳐 AI 소프트웨어 최적화를 한층 강화한다. 특히 Arm KlediAi로 최적화된 ExecuTorch 기반을 고도화해 수십억 대의 기기에서 효율성을 높이고, 모델 배포를 더욱 간소화함으로써 에지에서 클라우드까지 AI 애플리케이션 성능을 가속화할 예정이다. 이러한 오픈소스 기술 프로젝트는 메타 AI 전략의 핵심으로, 추천 시스템부터 대화형 인텔리전스에 이르기까지 다양한 AI 개발과 배포를 가능하게 한다. 양사는 앞으로도 오픈소스 프로젝트에 대한 최적화를 지속 확장해 전 세계 수백만명의 개발자가 Arm 기반 환경에서 더욱 효율적인 AI를 구축하고 배포할 수 있도록 지원할 계획이다. 메타의 산토시 야나르단(Santosh Janardhan) 인프라 부문 대표는 “플랫폼 경험부터 우리가 만드는 디바이스에 이르기까지, AI는 사람들이 연결하고 창조하는 방식을 변화시키고 있다”면서, “Arm과의 파트너십을 통해 메타 애플리케이션 및 기술을 사용하는 30억 명이 넘는 사용자에게 혁신을 효율적으로 제공할 수 있게 됐다”고 밝혔다. Arm의 르네 하스(Rene Haas) CEO는 “차세대 AI 시대는 대규모 효율성을 실현하는 것이 핵심이 될 것”이라며, “메타와의 협력을 통해 Arm의 전력대비 성능 우위와 메타의 AI 혁신 역량을 결합해 밀리와트급부터 메가와트급까지 모든 영역에서 더욱 스마트하고 효율적인 인텔리전스를 구현할 것”이라고 말했다.
작성일 : 2025-10-17
인텔-엔비디아, AI 인프라 및 PC 제품 공동 개발 협력 발표
인텔과 엔비디아는 하이퍼스케일, 엔터프라이즈 및 소비자 시장 전반에 걸쳐 애플리케이션 및 워크로드를 가속화할 맞춤형 데이터센터 및 PC 제품을 여러 세대에 걸쳐 공동 개발하기 위한 협력을 발표했다. 양사는 엔비디아 NV링크(NVLink)를 활용해 엔비디아와 인텔 아키텍처를 원활하게 연결하는 데 주력하며, 이를 통해 엔비디아의 AI 및 가속 컴퓨팅 역량과 인텔의 CPU 기술 및 x86 생태계를 결합하여 고객에게 최첨단 설루션을 제공할 계획이다. 데이터센터 부문에서 인텔은 엔비디아 맞춤형 x86 CPU를 제작하고, 엔비디아는 이를 자사 AI 인프라 플랫폼에 통합해 시장에 공급할 예정이다. 개인용 컴퓨팅(PC) 분야에서는 인텔이 엔비디아 RTX GPU 칩렛을 통합한 x86 시스템 온 칩(SOC)을 제작해 시장에 공급할 계획이다. 새로운 x86 RTX SOC는 높은 수준의 CPU와 GPU 통합을 요구하는 다양한 PC에 탑재될 것이다. 엔비디아는 인텔 보통주에 주당 23.28달러의 매입가로 50억 달러를 투자할 예정이다. 이번 투자는 규제 당국의 승인을 포함한 통상적인 거래 종결 조건에 따라 진행된다.     엔비디아의 창업자인 젠슨 황(Jensen Huang) CEO는 “AI는 새로운 산업 혁명을 주도하며 실리콘부터 시스템, 소프트웨어에 이르기까지 컴퓨팅 스택의 모든 계층을 재창조하고 있다. 이 재창조의 핵심에는 엔비디아의 CUDA 아키텍처가 자리 잡고 있다”고 말했다. 또한 “이번 역사적인 협력은 두 개의 세계적 플랫폼의 융합으로, 엔비디아의 AI 및 가속 컴퓨팅 스택과 인텔의 CPU, 방대한 x86 생태계를 긴밀히 결합한다. 양사는 생태계를 확장하고 차세대 컴퓨팅 시대의 기반을 마련할 것”이라고 밝혔다. 인텔의 립부 탄(Lip-Bu Tan) CEO는 “인텔의 x86 아키텍처는 수십 년간 현대 컴퓨팅의 기반이 되어왔으며, 인텔은 미래 워크로드를 지원하기 위해 포트폴리오 전반에 걸쳐 혁신을 추진 중”이라면서, “인텔의 선도적인 데이터센터 및 클라이언트 컴퓨팅 플랫폼은 인텔의 공정 기술, 제조 역량, 첨단 패키징 기술과 결합되어 엔비디아의 AI 및 가속 컴퓨팅 리더십을 보완함으로써 업계에 새로운 돌파구를 마련할 것이다. 젠슨황 CEO와 엔비디아 팀이 투자로 보여준 신뢰에 감사하며, 고객을 위한 혁신과 사업 성장을 위해 함께할 앞날을 기대한다”고 밝혔다.
작성일 : 2025-09-19
가트너, “올해 전 세계 AI PC 출하량 104% 증가할 것”
가트너는 2025년 전 세계 AI PC 출하량이 전년 대비 약 104% 증가해 전체 PC 시장의 31%를 차지할 것이라는 전망을 발표했다. 가트너는 2026년에는 AI PC 출하량이 1억 4300만 대에 이르고, 전체 PC 시장의 55%를 차지할 것으로 예측했다. 또한, 2029년까지 AI PC가 시장의 표준으로 자리 잡을 것으로 전망했다. 노트북 시장에서는 AI 노트북 점유율이 2024년 19.4%에서 2025년 35.7%, 2026년에는 58.7%로 늘어날 전망이다. 데스크톱 PC 시장에서는 AI 데스크톱 점유율이 2024년 3.8%에서 2025년 16.4%, 2026년 42.1%가 될 것으로 보인다. 기업 및 소비자 시장에서는 프로세서 플랫폼에 따른 AI PC에 대한 선호도 차이가 존재했다. 가트너에 따르면, 애플리케이션 호환성 문제가 점차 해소되면서 ARM 기반 노트북은 기업보다 소비자 시장에서 더 큰 점유율을 확보할 것으로 예상된다. 반면, 기업 시장에서는 윈도우 x86 기반 노트북에 대한 선호가 뚜렷해, 2025년 기업용 AI 노트북 시장에서 윈도우 x86 기반 노트북은 71%, ARM 기반 노트북은 24%의 점유율을 차지할 것으로 예측된다. 가트너는 AI PC 보급이 확대됨에 따라 2026년 말까지 소프트웨어 공급업체의 40%가 PC에 AI를 내장하기 위한 투자를 우선적으로 진행할 것으로 전망했다. 이는 2024년의 2%에서 크게 증가한 수치다. 또한, 소형 언어 모델(SLM)이 PC에서 로컬로 실행되는 사례가 2023년에는 존재하지 않았지만 2026년에는 여럿 증가할 것으로 예상했다. SLM은 PC를 비롯한 기기 전반에서 고급 AI 기능을 직접 실행해 응답 속도를 높이고, 에너지 소비를 줄이며, 클라우드 의존도를 낮춘다. 이는 특정 작업에 특화된 인텔리전스를 제공할 뿐만 아니라, AI가 기기에서 직접 실행되기 때문에 사용자와 기업 데이터를 안전하게 보호할 수 있다. 가트너는 PC 공급업체가 하드웨어를 넘어, 특정 역할과 사용 사례에 최적화된 소프트웨어 정의형, 사용자 중심 기기를 제공하는 것이 AI PC의 미래이자 새로운 성장 동력이라고 조언했다. 가트너의 란짓 아트왈(Ranjit Atwal) 시니어 디렉터 애널리스트는 “AI PC가 시장 재편을 주도하고 있지만, 관세의 영향과 시장 불확실성으로 인해 PC 구매가 보류되면서 올해 도입 속도는 다소 둔화될 전망”이라며, “하지만 그럼에도 사용자는 에지 환경에서의 AI 활용 확대에 대비해 AI PC 투자를 이어갈 것”이라고 전했다. 또한 “AI PC의 미래는 맞춤화에 있다. 사용자가 원하는 앱, 특징, 기능을 선택해 기기를 구성하는 것이 중요하다”고 덧붙였다.
작성일 : 2025-08-29
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
IBM, AI 및 보안 기술 제공하는 차세대 리눅스 플랫폼 ‘IBM 리눅스원 5’ 공개
IBM이 차세대 리눅스 컴퓨팅 플랫폼인 IBM 리눅스원 5(IBM LinuxONE 5)를 공개했다. 이 플랫폼은 데이터, 애플리케이션, 그리고 인공지능(AI)을 위한 고성능 리눅스 환경을 제공하며, AI 가속 기능이 내장된 IBM 텔럼 II 프로세서(IBM Telum)로 구동된다. IBM은 이번 신제품이 기업의 보안 강화, 비용 효율성 개선, AI의 엔터프라이즈 시스템 통합에 대한 해법을 제시할 것으로 기대하고 있다. IBM 리눅스원 5는 IBM의 사이버보안과 개인정보 보호 접근 방식을 전반적으로 확장해, 제로 트러스트(Zero Trust) 원칙을 한층 강화했다. 이를 통해 고객이 복잡한 규정을 준수하는 과정을 간소화할 수 있도록 지원한다. 기밀 컴퓨팅, 고성능 암호화 대역폭, 미국 국립표준기술연구소(NIST)의 양자내성 암호 알고리즘, 그리고 최첨단 하드웨어 보안 모듈을 통해 워크로드와 데이터를 종합적으로 보호하는 데 중점을 두고 있다. IBM은 이러한 보안 기능이 AI 모델과 민감한 데이터를 보호하는 데 중요한 역할을 할 것으로 기대하고 있다. 특히 레드햇 오픈시프트(Red Hat OpenShift) 컨테이너 플랫폼을 활용한 기밀 컨테이너는 AI를 포함한 다양한 데이터 활용 시나리오에서 데이터를 안전하게 보호하는 데 기여한다. IBM 볼트 셀프 매니지드(IBM Vault Self-Managed)와의 통합을 통해 하이브리드 환경 전반에서 강력한 보안 설루션을 제공하며, 비밀 관리 기능을 강화하도록 설계됐다.     비용 절감 측면에서 IBM 리눅스원 5는 여러 서버에 분산된 워크로드를 단일 고용량 시스템으로 통합함으로써, 운영 복잡성을 줄이고 IT 인프라를 최적화할 수 있다. 클라우드 네이티브 및 컨테이너화된 워크로드를 x86 기반 설루션에서 IBM 리눅스원 5로 이전하면 5년 동안 총 소유 비용을 최대 44%까지 절감할 수 있다는 분석도 있다. 이는 데이터센터 운영 효율을 높이는 데 기여한다. 가용성 측면에서는 99.999999%의 안정성을 발휘하도록 설계되어 비즈니스 연속성을 지원하고 운영 위험을 줄일 수 있다. “데이터 집약적이고 AI를 활용하는 비즈니스의 증가하는 워크로드 수요를 충족하는 데도 적합한 기술”이라는 것이 IBM의 설명이다. 이번 플랫폼의 핵심 기술은 IBM 텔럼 II 프로세서다. 2세대 온칩 AI 가속기를 포함한 텔럼 II는 실시간 대량 거래 처리에서 예측 AI와 대규모 언어 모델(LLM)을 더 높은 정밀도와 정확도로 확장할 수 있도록 설계됐다. 여기에 IBM 스파이어 가속기(IBM Spyre Accelerator)가 2025년 4분기부터 지원될 예정으로, 생성형 AI 기능을 추가해 텔럼 II 프로세서를 보완할 예정이다. 이러한 기술은 사기 탐지, 이미지 처리, 리테일 자동화 등 다양한 산업 사례에서 활용될 수 있도록 설계됐다. IBM 리눅스원은 탄탄한 생태계를 기반으로 하고 있다. 독립 소프트웨어 벤더(ISV)는 리눅스원의 AI와 암호화 기능을 활용해 맞춤형 설루션을 제공하며, 오픈소스 커뮤니티는 유연하고 확장 가능한 도구를 통해 통합을 지원한다. IBM 리눅스원은 우분투(Ubuntu), 수세(SUSE) 등과 협력해 다양한 리눅스 배포판을 지원하고 있다.
작성일 : 2025-05-29
AMD, 5세대 에픽 임베디드 프로세서 공개
AMD가 5세대 AMD 에픽 임베디드 프로세서(AMD EPYC Embedded)를 발표하면서 x86 임베디드 프로세서 포트폴리오를 강화한다. AMD 에픽 임베디드 9005 시리즈 CPU는 임베디드 시장을 겨냥한 제품으로, 첨단 컴퓨팅 기능과 제품 수명, 안정성, 시스템 복원성 및 임베디드 애플리케이션 개발의 용이성을 개선하는 특수 목적의 임베디드 기능을 균형 있게 제공한다. ‘젠 5(Zen 5)’ 아키텍처를 기반으로 하는 이 프로세서는 업계 최고 수준의 성능과 에너지 효율을 통해 네트워크, 스토리지 및 산업용 에지 시스템이 더 많은 데이터를 더 빠르고 효율적으로 처리할 수 있도록 지원한다. AMD 에픽 임베디드 9005 시리즈 프로세서는 단일 소켓에서 8~192개의 코어를 지원하며, 연산 집약적 임베디드 시스템을 위한 고성능을 제공한다. 높은 코어 밀도를 통해 네트워크 및 스토리지 워크로드에서 각각 최대 1.3배 및 1.6배 향상된 데이터 처리 능력을 갖추고 있으며, 네트워크 및 보안 방화벽 플랫폼, 스토리지 시스템 및 산업용 제어 애플리케이션에 적합한 성능을 제공한다. 특히, 일부 제품에 적용된 새로운 ‘젠 5c(Zen 5c)’ 코어 아키텍처는 최대 1.3배 늘어난 소켓 처리량, 경쟁 제품 대비 1.3배 향상된 와트당 성능을 제공한다. 또한, 소켓당 최대 6TB의 DDR5 메모리 용량, CXL 2.0으로 최대 160개의 PCIe Gen5 레인을 지원하는 확장된 I/O 연결을 통해 네트워크 및 스토리지 애플리케이션의 용량 확장 및 고속 데이터 전송을 가능하게 한다.     AMD는 에픽 임베디드 9005 시리즈 프로세서가 플랫폼의 신뢰성과 안정성, 보안성 및 수명 주기 강화를 위해 설계된 고급 임베디드 기능을 포함한다고 설명했다. AMD 에픽 임베디드 9005 시리즈 CPU는 7년의 긴 제품 제조 지원을 제공하여 시스템 개발사에 장기적인 제품 가용성을 보장한다. 또한 AMD는 현재 샘플링 중인 AMD 에픽 임베디드 9005 시리즈 CPU의 설계 수명 운영 목표를 5년에서 7년으로 연장하여 임베디드 시스템의 장기적인 제품 안정성을 보장할 계획이다.  에픽 임베디드 9005 시리즈는 내결함성 다중 호스트 구성에서 높은 가용성을 제공하기 위한 NTB(Non-Transparent Bridging) 기능을 포함한다. NTB는PCIe를 통해 활성화된 두 CPU 간의 데이터 교환을 가능하게 하여 장애 발생 시에도 지속적으로 작동할 수 있도록 네트워크 및 스토리지 시스템의 리던던시 및 장애 조치 기능을 개선한다. DRAM 플러시(DRAM Flush) 기능은 전원 장애 시 DRAM에서 비휘발성 메모리로 데이터를 플러싱하여 데이터 손실을 방지함으로써 필수 스토리지 배포의 안정성을 향상시킨다. 또한, 듀얼 SPI(Serial Peripheral Interface)는 고객이 보안 부트로더를 통해 플랫폼을 인증할 수 있도록 지원하며, 신뢰할 수 있는 실행 환경을 보장한다. 한편, AMD는 차세대 임베디드 프로세서의 시장 출시를 위해 시스코와 IBM 등 생태계 파트너 및 업계 주요 ODM과 OEM과 긴밀히 협력하고 있다고 덧붙였다. AMD는 현재 에픽 임베디드 9005 시리즈 프로세서의 얼리 액세스 고객을 대상으로 샘플을 제공하고 있으며, 양산 출하는 2025년 2분기 시작할 예정이다. AMD 에픽 임베디드 9005 시리즈 프로세서는 이전 세대 제품인 AMD 에픽 임베디드 9004 시리즈와 호환 가능한 SP5 소켓 폼팩터로 제공되어 간편한 업그레이드가 가능하다. AMD의 적응형 및 임베디드 컴퓨팅 부문을 총괄하는 살릴 라지(Salil Raje) 수석 부사장은 “AI 기반 네트워크 트래픽과 폭발적으로 증가하는 데이터 스토리지 요구 사항, 산업용 에지 컴퓨팅의 확장으로 인해 임베디드 플랫폼에서 더 높은 컴퓨팅 성능에 대한 수요가 증가하고 있다”고 설명했다. 또한 그는 “5세대 AMD 에픽 임베디드 프로세서는 업계 최상의 성능과 효율성, 긴 제품 수명 주기와 향상된 시스템 복원력을 제공해 임베디드 고객이 탁월한 시스템을 설계할 수 있도록 지원하고 까다로운 ‘올웨이즈 온’ 환경에서 지속적인 운영을 보장한다”고 밝혔다.
작성일 : 2025-03-12
엔비디아, CAE에 실시간 디지털 트윈의 활용 돕는 ‘옴니버스 블루프린트’ 공개
엔비디아가 ‘슈퍼컴퓨팅 2024(SC24)’ 콘퍼런스에서 ‘엔비디아 옴니버스 블루프린트(NVIDIA Omniverse Blueprint)’를 발표했다. 이는 소프트웨어 개발업체가 항공우주, 자동차, 제조, 에너지, 기타 산업의 컴퓨터 지원 엔지니어링(CAE) 고객들이 실시간 상호작용이 가능한 디지털 트윈을 제작할 수 있도록 지원한다. 알테어, 앤시스, 케이던스, 지멘스와 같은 소프트웨어 개발업체는 실시간 CAE 디지털 트윈을 위한 엔비디아 옴니버스 블루프린트를 사용해 고객이 개발 비용과 에너지 사용량을 절감하면서 시장 출시 기간을 단축할 수 있도록 지원한다. 엔비디아는 이 블루프린트가 1200배 빠른 시뮬레이션과 실시간 시각화를 달성하기 위한 엔비디아 가속 라이브러리, 물리-AI 프레임워크, 대화형 물리 기반 렌더링을 포함하는 레퍼런스 워크플로라고 설명했다. 블루프린트의 첫 번째 적용 분야 중 하나는 전산유체역학(CFD) 시뮬레이션이다. 이는 자동차, 비행기, 선박 등 여러 제품의 설계를 가상으로 탐색하고 테스트하며 개선하는데 있어 중요한 단계이다. 기존의 엔지니어링 워크플로는 물리 시뮬레이션부터 시각화와 설계 최적화에 이르기까지 완료하는 데 몇 주 또는 몇 달이 걸릴 수 있다. 실시간 물리 디지털 트윈을 구축하려면 실시간 물리 솔버(solver) 성능과 대규모 데이터 세트의 실시간 시각화라는 2가지 기본 기능이 필요하다. 옴니버스 블루프린트는 이러한 기능을 달성하기 위해 엔비디아 쿠다-X(CUDA-X) 라이브러리를 활용해 솔버 성능을 가속화한다. 또한, 엔비디아 모듈러스(Modulus) 물리-AI 프레임워크를 사용해 플로 필드를 생성하기 위한 모델을 훈련하고 배포한다. 마지막으로, 엔비디아 옴니버스 애플리케이션 프로그래밍 인터페이스를 통해 3D 데이터 상호운용성과 실시간 RTX 지원 시각화를 제공한다.      앤시스는 옴니버스 블루프린트를 채택해 유체 시뮬레이션 소프트웨어인 앤시스 플루언트(Ansys Fluent)에 적용해 전산 유체 역학 시뮬레이션을 가속화했다. 앤시스는 텍사스 첨단 컴퓨팅센터에서 320개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchip)으로 플루언트를 실행했다. 2,048개의 x86 CPU 코어에서는 거의 한 달이 걸리던 25억 셀의 자동차 시뮬레이션을 6시간 만에 완료했다. 이를 통해 밤새 고충실도 CFD 분석을 수행할 수 있는 실현 가능성을 향상시키고 새로운 업계 벤치마크를 수립했다. 루미너리 클라우드 또한 블루프린트를 채택하고 있다. 엔비디아 모듈러스를 기반으로 구축된 이 회사의 새로운 시뮬레이션 AI 모델은 GPU 가속 CFD 솔버에서 생성된 훈련 데이터를 기반으로 기류장과 자동차 형상 간의 관계를 학습한다. 이 모델은 솔버 자체보다 훨씬 빠른 속도로 시뮬레이션을 실행해 옴니버스 API를 사용해 시각화된 실시간 공기 역학 흐름 시뮬레이션을 가능하게 한다. 엔비디아와 루미너리 클라우드는 SC24에서 가상 풍동을 시연했다. 이는 터널 내부에서 차량 모델을 변경하더라도 실시간으로 상호작용하는 속도로 유체 역학을 시뮬레이션하고 시각화할 수 있다. 엔비디아는 알테어, 비욘드 매스, 케이던스, 헥사곤, 뉴럴 컨셉, 지멘스, 심스케일, 트레인 테크놀로지스 등이 자체 애플리케이션에 옴니버스 블루프린트 도입을 검토하고 있다고 밝혔다. 옴니버스 블루프린트는 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저를 비롯한 주요 클라우드 플랫폼에서 실행할 수 있다. 엔비디아 DGX 클라우드(DGX Cloud)에서도 사용할 수 있다.  리스케일은 엔비디아 옴니버스 블루프린트를 사용해 단 몇 번의 클릭만으로 맞춤형 AI 모델을 훈련하고 배포할 수 있도록 지원한다. 리스케일 플랫폼은 전체 애플리케이션-하드웨어 스택을 자동화하며, 모든 클라우드 서비스 제공업체에서 실행될 수 있다. 조직은 어떤 시뮬레이션 솔버를 사용해도 훈련 데이터를 생성하고, AI 모델을 준비, 훈련, 배포하며, 추론 예측을 실행하고, 모델을 시각화하고 최적화할 수 있다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “우리는 모든 사물이 디지털 트윈을 가질 수 있도록 옴니버스를 구축했다. 옴니버스 블루프린트는 엔비디아 옴니버스와 AI 기술을 연결하는 레퍼런스 파이프라인이다. 이는 선도적인 CAE 소프트웨어 개발자가 설계, 제조부터 운영에 이르기까지 세계 최대 산업을 위해 산업 디지털화를 혁신할 획기적인 디지털 트윈 워크플로를 구축할 수 있도록 지원한다”고 말했다.
작성일 : 2024-11-19
인텔, AI PC를 위한 차세대 ‘인텔 코어 울트라’ 프로세서 제품군 국내 출시
인텔은 최신 인텔 코어 울트라 200S(Intel Core Ultra 200S, 코드명 애로우 레이크-S) 데스크톱 프로세서 및 인텔 코어 울트라 200V(Intel Core Ultra 200V, 코드명 루나 레이크) 시리즈 프로세서 제품군 국내 출시를 발표하고, 신제품을 탑재한 주요 제조사의 노트북 신제품을 공개했다.     지난 9월 인텔코리아 대표로 선임된 신임 배태원 사장은 10월 28일 진행된 국내 출시 미디어 간담회에서 “2023년 말 최초의 AI 노트북용 프로세서인 인텔 코어 울트라(코드명 메테오 레이크) 출시 후 2000만 대 출하를 달성하고, 100개 이상의 ISV(독립 소프트웨어 벤더)와 협력해 300개 이상의 AI 기능 개발을 완료했다”면서, 인텔의 AI PC 시장 확장을 위한 주요 진전 사항을 공유했다. 또한 “이번에 출시한 신제품인 데스크톱용 AI 프로세서인 인텔 코어 울트라 200S 시리즈로, 인텔의 AI PC 포트폴리오를 노트북에서 데스크톱까지 확대해 인텔이 AI PC용 시장 확산의 선두에 있다”고 강조했다. 인텔 세일즈 마케팅 그룹의 잭 황(Jack Huang) APJ 세일즈 디렉터는 “인텔의 첫 번째 AI 데스크톱용 프로세서인 코어 울트라 200S 시리즈가 높은 게이밍 성능과 컴퓨팅 성능을 제공하면서도 전력 사용량은 낮춰 새로운 시대의 데스크톱 표준을 이끌 것”이라고 전했다. 또한 AI 노트북용 프로세서인 인텔 코어 울트라 200V 시리즈는 이전 세대 대비 4배 이상 향상된 NPU 성능과 함께 혁신적인 x86 전력 효율성, 획기적인 그래픽 성능, 애플리케이션 호환성, 강화된 보안 성능을 갖추고 있다고 설명했다. 이번 미디어 간담회에는 주요 PC 제조사 및 ISV 생태계 파트너인 에이서, 에이수스, 델 테크놀로지스, HP, 레노버, LG, 삼성 등 노트북 제조사와 마이크로소프트, 업스테이지 등이 참석했으며, 삼성전자 갤럭시 북5 프로 360, LG전자 그램 프로, HP 옴니북 울트라 플립, 레노보 요가 슬림 7i 아우라 에디션, 에이수스 젠북 S14, 에이서 스위프트 14 AI, 델 XPS 13 등 최신 노트북 신제품이 공개되었다. 한편, 인텔코리아는 최신 AI PC 프로세서를 탑재한 노트북 및 데스크톱 PC의 시연을 선보였다. ▲사용자가 상상하는 이미지를 오디오 입력과 추가 정보를 통해 쉽게 고품질 3D 이미지로 생성하고, 다른 사람들과 공유 ▲이미지를 생성 및 향상하거나 AI 챗봇으로부터 답변을 얻을 수 있는 다양하고 사용하기 쉬운 AI 기능을 제공하는 인텔 AI 플레이그라운드(AI Playground) ▲업스테이지의 AI를 활용한 회의록이나 문서 작업 ▲CANVID를 활용한 AI 영상 제작 등이 시연되었다. 배태원 사장은 “인텔은 AI PC 시대를 가속화하며, 그 기반이 되는 프로세서와 AI 소프트웨어 생태계 및 제조사와의 협력을 통해 이용자들에게 총체적인 경험으로 제공할 수 있는 기업”이라며, “이번 코어 울트라 신제품 출시를 통해 생태계 내 파트너들과 함께 국내 이용자들이 AI의 혜택을 누리고 일상을 혁신할 수 있도록 노력하겠다”고 밝혔다.   ▲ 인텔코리아 배태원 사장
작성일 : 2024-10-28