• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " AI 워크로드"에 대한 통합 검색 내용이 481개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
마이크로소프트, 대규모 소버린 프라이빗 클라우드 인프라 지원 강화
마이크로소프트는 애저 로컬(Azure Local)의 확장성을 강화해 단일 소버린 환경 안에서 서버를 최대 수천 대까지 배포할 수 있는 대규모 클라우드 인프라 환경을 공개했다. 전 세계적으로 디지털 주권과 보안 규제가 강화되면서 데이터 통제권을 유지하면서도 규모를 확장할 수 있는 클라우드 인프라 전략이 중요해지는 추세이다. 이에 따라 주권 환경에서 운영 통제권을 유지하며 대규모 업무를 수용할 수 있는 확장형 인프라의 필요성이 커지고 있다. 마이크로소프트 소버린 프라이빗 클라우드의 기반이 되는 애저 로컬은 조직이 소유한 하드웨어에서 클라우드와 일관성 있는 인프라 환경을 구현한다. 특히 인터넷 연결이 분리된 환경에서도 유연하게 배포할 수 있으며, 보안과 컴플라이언스 설정을 로컬에서 직접 관리하는 운영 제어권을 제공한다. 마이크로소프트는 이를 통해 조직이 데이터 통제권을 유지하는 동시에 산업 현장의 대규모 업무를 로컬 환경에서 실행할 수 있다고 설명했다. 국가 기간 시설이나 규제 산업에서 사용하는 소버린 프라이빗 클라우드(sovereign private cloud)는 대규모 업무를 수용할 수 있는 확장성이 필수이다. 애저 로컬은 별도의 구조 재설계 없이도 단일 소버린 경계 안에서 서버 규모를 수백 대에서 수천 대까지 유연하게 확장하도록 지원한다. 인프라 확장에 따른 운영 연속성을 위해 복원력도 높였다. 애저 로컬은 확장된 장애 도메인과 인프라 풀을 통해 하드웨어 장애가 서비스 중단으로 이어지는 것을 방지한다. 이를 통해 클라우드 연결 환경과 관계없이 핵심 서비스의 안정적인 운영을 돕는다. 데이터가 많이 발생하는 AI(인공지능) 추론과 분석 업무도 자체 인프라에서 수행한다. 고성능 GPU 인프라를 바탕으로 민감한 AI 모델과 데이터를 조직의 직접 통제 아래 보호한다. 접근 관리와 감사 및 컴플라이언스 제어 역시 소버린 경계 안에서 유지된다. 배포 규모가 커지면서 워크로드 배치 옵션도 다양해졌다. 애저 로컬은 대규모 소버린 프라이빗 클라우드 구축부터 분산형 AI 업무까지 지원 범위를 넓혔다. 이를 통해 데이터 집약적이거나 응답 속도가 중요한 애플리케이션을 소버린 경계 내에서 실행할 수 있다. 글로벌 기업과 공공기관의 도입도 이어지고 있다. 미국 통신사 AT&T는 핵심 인프라의 완전한 운영 제어권을 얻기 위해 애저 로컬을 도입했다. 네덜란드 토지 등기소는 국가의 민감한 공공 데이터에 대한 주권 통제 목적으로 이를 활용한다. 이탈리아의 파이버콥 또한 전국 단위의 소버린 클라우드와 AI 서비스를 제공하기 위해 에지 로케이션 전반에 애저 로컬을 구축하고 있다.     애저 로컬은 현재 데이터온, 델 테크놀로지스, 에버퓨어, 히타치 반타라, HPE, 레노버, 넷앱 등 주요 글로벌 파트너사의 컴퓨팅과 엔터프라이즈 스토리지 플랫폼을 통해 이용할 수 있다. 조직은 이를 통해 기존 스토리지 영역 네트워크 투자를 보호하고 소버린 환경에서 컴퓨팅과 스토리지 자원을 독립적으로 확장할 수 있다. 플랫폼 컴퓨팅 기반은 인텔 제온 6 프로세서가 제공한다. 제온 6는 최신 기업 워크로드의 집적도와 성능 요구사항을 충족하도록 설계됐다. 특히 인텔 AMX 기반의 AI 가속 기능은 별도의 특화 인프라 없이 소버린 환경에서 AI 업무를 실행하도록 지원한다. 한편 애저 로컬은 엄격한 데이터 레지던시와 인터넷 연결이 분리된 환경, 규제 대상 업무, 현장에서의 AI 실행 등 다양한 요구사항을 충족하도록 설계됐다. 에지 환경의 단일 노드부터 대규모 데이터센터까지 유연하게 확장할 수 있으며 애저를 통해 일관된 수명 주기 관리를 제공한다. 마이크로소프트의 더글라스 필립스 스페셜라이즈드 클라우드 사장 겸 최고기술책임자는 “애저 로컬과 검증된 컴퓨팅 및 스토리지 플랫폼, 가속 컴퓨팅 플랫폼, 칩셋의 결합은 소버린 인프라 배포를 지원하는 데이터센터 규모의 스택을 제공한다”면서, “이를 통해 데이터와 모델, 실행 과정이 조직의 통제 환경 안에 안전하게 유지될 수 있다”고 밝혔다.
작성일 : 2026-04-30
가트너, 2026년 전 세계 IT 지출 전망치 높여… AI 데이터센터가 성장 견인
가트너는 2026년 전 세계 IT 지출 규모가 전년 대비 13.5% 증가한 6조 3165억 달러(약 9343조 원)에 이를 것이라는 전망을 발표했다. 이는 지난 2월에 발표한 전망치를 상향 조정한 것으로, 인공지능(AI) 인프라와 첨단 메모리 수요가 시장의 성장 모멘텀을 가속하고 있는 것으로 분석된다. 특히 AI 워크로드 확대에 따른 데이터센터 투자가 급증하면서 고성능 컴퓨팅 수요가 크게 늘고 있는 것으로 보인다. 가트너의 전망에 따르면 2026년 가장 가파른 성장을 기록할 분야는 데이터센터 시스템이다. 이 부문의 지출은 2025년 약 5056억 달러에서 2026년 약 7880억 달러로 무려 55.8% 급증할 것으로 보인다. 이는 하이퍼스케일러의 서버 투자 확대와 생성형 AI 모델 개발 부문의 성장이 맞물린 결과다. 지출 규모 면에서는 애플리케이션 및 인프라 관리 설루션 등을 포함한 IT 서비스 부문이 1조 8700억 달러를 돌파하며 전체 시장에서 가장 큰 비중을 차지할 전망이다. 가트너의 존 데이비드 러브록 수석 VP 애널리스트는 “강한 수요와 공급 제약으로 인해 고대역폭 메모리(HBM) 가격이 최고 수준으로 상승하고 있다”고 짚었다. 이러한 상황은 반도체 제조업체에 높은 수익성을 제공하는 한편, IT 시장 내의 성장 격차를 벌리는 요소로 작용하고 있다. 실제로 AI 인프라와 소프트웨어 분야는 큰 폭의 상향 조정을 기록했으나, 디바이스 시장은 메모리 가격 상승에 따른 평균 판매 가격 인상으로 인해 교체 수요가 제약받으며 8.2% 성장에 그칠 것으로 예측된다. 소프트웨어 분야 역시 생성형 AI의 영향으로 15.1%의 탄탄한 성장세를 기록하며 1조 4436억 달러 규모에 이를 것으로 보인다. 가트너는 하이퍼스케일 클라우드 수요와 AI 중심의 소프트웨어 부문이 전통적인 카테고리보다 훨씬 빠르게 성장하면서 IT 시장의 다중 속도 구조가 더욱 강화될 것이라고 내다봤다.
작성일 : 2026-04-23
오라클, AI 데이터베이스 AWS 서울 리전 출시… 국내 기업의 클라우드 이전 가속화
오라클이 아마존웹서비스(AWS)와 협력하여 오라클 AI 데이터베이스@AWS(Oracle AI Database@AWS) 서비스를 국내 고객에게 공식 제공한다고 밝혔다. 이번 서비스는 AWS의 서울 리전에서 출시되었으며, 국내 기업은 AWS 내 오라클 클라우드 인프라스트럭처(OCI) 전용 인프라에서 오라클 엑사데이터 데이터베이스 서비스와 오라클 자율운영 AI 데이터베이스 등을 운영할 수 있다. 이번 서비스 출시로 기업은 기존 온프레미스 환경에서 운영하던 오라클 워크로드를 큰 변경 없이 AWS로 옮길 수 있게 되었다. 오라클은 “온프레미스와 동일한 기능과 성능을 제공하여 클라우드 전환 과정에서의 복잡성을 줄였다”고 설명한다. 또한 오라클과 AWS 사이의 데이터를 통합하는 제로 ETL 기능을 통해 아마존 베드록과 같은 생성형 AI 서비스와 고급 분석 도구를 쉽게 활용할 수 있는 환경을 마련했다. 전국 1380여 개 매장을 운영하는 뷰티 및 웰니스 리테일 기업인 CJ올리브영은 이 서비스를 활용해 핵심 워크로드를 AWS 내 오라클 데이터베이스 서비스로 이전하고 있다. CJ올리브영 박원호 팀장은 “오라클 AI 데이터베이스@AWS는 핵심 워크로드를 클라우드로 옮기는 손쉬운 경로를 제공한다”면서, “아마존 베드록 등 AWS의 인공지능 서비스와 통합해 비즈니스 성과를 높일 수 있을 것으로 기대한다”고 말했다.     한국오라클 김성하 사장은 이번 출시가 국내 기업의 미션 크리티컬 워크로드 현대화와 AI 혁신 수요에 대응하기 위한 것이라고 설명했다. AWS코리아 함기호 대표 또한 국내 기업이 애플리케이션 재설계 없이 오라클 워크로드를 클라우드로 이전하고 보안성과 확장성을 누릴 수 있게 되었다고 덧붙였다. 고객은 AWS 마켓플레이스에서 서비스를 직접 구매하거나 유클릭, 에티버스와 같은 공인 채널 파트너를 통해 이용할 수 있다. 유클릭 김철 대표와 에티버스 정인성 대표는 이번 서비스가 고객의 AI 기반 혁신을 가속화하고 운영을 간소화하는 중요한 기점이 될 것이라고 강조했다. 이번 서울 리전 출시는 기존 도쿄, 시드니, 런던 등 11개 리전에 이은 확장이다. 오라클과 AWS는 앞으로 싱가포르, 오사카, 파리 등 10개 리전으로 서비스 범위를 더욱 넓힐 계획이다.
작성일 : 2026-04-07
지멘스–엔비디아, “수조 단위 AI 칩 검증 며칠 만에 끝낸다”
지멘스 디지털 인더스트리 소프트웨어는 엔비디아와 협력하여 반도체 설계 효율을 높이는 검증 기술을 제공한다고 밝혔다. 양사는 지멘스의 하드웨어 가속 검증 시스템인 벨로체(Veloce) proFPGA CS와 엔비디아의 성능 최적화 칩 아키텍처를 결합했다. 이를 통해 반도체 설계자와 시스템 아키텍트는 실제 칩을 양산하기 전 단계에서 수조 단위의 검증 사이클을 며칠 만에 실행하고 결과를 확인할 수 있다. 이번 협력은 인공지능과 머신러닝 시스템온칩 개발의 신뢰성을 높이고 속도를 앞당기기 위해 진행했다. 엔비디아 팀은 실제 실리콘 테이프아웃 이전에 대규모 워크로드를 실행하며 설계를 최적화할 수 있게 되었다. 지멘스는 벨로체 proFPGA CS가 유연한 하드웨어 구조와 직관적인 소프트웨어 흐름을 갖추고 있어 단일 IP 검증부터 수십억 게이트 규모의 칩렛 설계까지 폭넓게 지원한다고 설명했다. FPGA 기반 프로토타입 시스템은 시뮬레이션이나 에뮬레이션 방식보다 빠른 처리 속도를 제공하는 것이 특징이다. 최근 인공지능 설계는 칩과 소프트웨어의 복잡성이 커지면서 더 높은 성능의 검증 역량을 요구하고 있다. 기존 검증 도구는 현실적인 시간 내에 수백만에서 수십억 사이클을 처리하는 데 그쳤으나, 지멘스와 엔비디아의 기술을 활용하면 단시간에 수조 개의 설계 사이클을 실행할 수 있어 시장 출시 일정을 맞추기가 수월해진다. 지멘스에 따르면 벨로체 시스템은 고객이 설계 규모에 상관없이 최적의 설루션을 활용하도록 돕는다. 지멘스 디지털 인더스트리 소프트웨어의 장 마리 브루네 수석 부사장은 “고도로 복잡한 인공지능 및 머신러닝 칩이 요구하는 검증 요건에 대응하기 위해 하드웨어 가속 검증과 프로토타이핑 기술 발전에 주력하고 있다”고 말했다.  엔비디아의 나렌드라 콘다 부사장은 “컴퓨팅 아키텍처가 복잡해지면서 대규모 워크로드 검증과 빠른 시장 출시를 위한 고성능 설루션이 중요해졌다”고 밝혔다. 또한 엔비디아와 지멘스의 기술 통합으로 설계자가 차세대 인공지능의 신뢰성을 확보하는 데 필요한 확장성을 갖추게 되었다고 덧붙였다.
작성일 : 2026-04-06
델, GB300 탑재 AI 슈퍼컴퓨터 및 워크스테이션 9종 공개
델 테크놀로지스가 전문가용 워크스테이션 브랜드인 ‘델 프로 프리시전(Dell Pro Precision)’을 다시 선보인 것과 동시에, 인공지능(AI) 워크로드와 전문 작업에 최적화된 신제품 9종을 발표했다. 이번 신제품은 높은 연산 성능과 냉각 효율을 바탕으로 기업의 AI 혁신을 지원하는 데 초점을 맞췄다.   ▲ 델 프로 맥스 위드 GB300의 내부 구성   가장 눈길을 끄는 제품은 엔비디아 GB300 슈퍼칩을 탑재한 ‘델 프로 맥스 위드 GB300(Dell Pro Max with GB300)’이다. 이 제품은 72코어 Arm 기반 프로세서를 통해 데이터센터 수준의 성능을 책상 위에서 구현하는 AI 슈퍼컴퓨터다. 최대 20페타플롭의 연산 성능과 748GB의 코히어런트 메모리를 갖춰, AI 개발팀이 로컬 환경에서 최대 1조 개의 매개변수를 가진 거대 모델을 실험할 수 있도록 설계했다. 델 테크놀로지스에 따르면 초저지연 네트워킹을 지원하는 엔비디아 커넥트X-8 스마트 NIC를 통해 제품 두 대를 연결하면 성능을 두 배로 확장할 수 있다. 또한 이 제품은 우분투 리눅스 기반의 엔비디아 AI 소프트웨어 스택을 기본 구성해 거대 언어 모델(LLM) 미세 조정이나 에이전트 개발을 즉시 실행할 수 있다. 델이 자체 설계한 맥스쿨 냉각 기술은 스마트 콜드 플레이트와 듀얼 열교환기를 사용해 고부하 작업 시에도 성능 저하 없이 최적의 온도를 유지한다. 엔비디아 네모클로와 오픈쉘을 지원해 외부 클라우드 연결 없이 기업 보안 정책에 맞춘 자율형 AI 에이전트 구축이 가능한 것도 특징이다. 모바일 워크스테이션으로는 ‘델 프로 프리시전 7(Dell Pro Precision 7)’ 14 및 16 시리즈를 선보였다. 이들 제품은 엔비디아 블랙웰 아키텍처 기반의 그래픽 성능을 갖췄으며, 독립 소프트웨어 벤더(ISV) 인증을 통해 전문 애플리케이션의 안정적인 구동을 지원한다. 16인치 모델은 최대 50W급 인텔 코어 울트라 프로세서 시리즈 3와 엔비디아 RTX 프로 3000 블랙웰 GPU를 탑재해 3D 렌더링과 AI 모델 추론을 처리한다. 14인치 모델은 약 1.49kg의 무게로 휴대성을 높이면서도 45W급 프로세서와 RTX 프로 2000 블랙웰 GPU를 장착했다.   ▲ 델 프로 프리시전 7 16 모바일 워크스테이션   타워형 워크스테이션인 ‘델 프로 프리시전 9’ 시리즈는 워크로드 규모에 따라 T2, T4, T6 모델로 나뉜다. T2 모델은 인텔 제온 600 프로세서와 RTX 프로 6000 블랙웰 GPU를 탑재했으며 최대 1TB의 DDR5 ECC 메모리를 지원한다. 확장성이 가장 높은 T6 모델은 최대 86코어 인텔 제온 프로세서와 5개의 엔비디아 RTX 프로 블랙웰 GPU, 316TB의 스토리지 용량을 갖춰 고성능 AI 트레이닝과 시각 특수효과 작업에 적합하다. 이외에도 델 테크놀로지스는 비즈니스 사용자를 위한 엔트리급 모델인 ‘델 프로 프리시전 5 14·16’과 슬림한 폼팩터를 채택한 ‘델 프로 프리시전 5 14S·16S’ 모델을 함께 공개했다. 7 시리즈와 9 시리즈 T2 모델은 3월 중 출시하며, 5 시리즈와 9 시리즈 T4·T6 모델은 5월부터 순차적으로 출시할 예정이다. 한국 델 테크놀로지스의 김경진 총괄사장은 “에이전틱 AI로의 전환이 빨라지면서 클라우드 의존도를 낮추고 로컬 환경에서 AI를 안전하게 운용하려는 수요가 늘고 있다”면서, “AI 시대의 전문가들이 한계를 뛰어넘는 성과를 낼 수 있도록 독보적인 포트폴리오를 제공하며 시장 혁신을 주도하겠다”고 밝혔다.
작성일 : 2026-03-23
슈나이더 일렉트릭, SKT·슈퍼마이크로와 ‘AI DC 통합 설루션’ 위한 MOU 체결
슈나이더 일렉트릭이 AI 데이터센터 구축 효율화를 위한 협력에 나선다고 밝혔다. 슈나이더 일렉트릭은 스페인 바르셀로나에서 열린 MWC26에서 SK텔레콤, 슈퍼마이크로와 함께 프리팹 모듈러(pre-fabricated modular) 기반 AI 데이터센터 통합 설루션 개발을 위한 3자 업무협약(MOU)을 체결했다. 이번 협약은 급증하는 AI 인프라 수요에 대응하기 위해 AI 데이터센터 구축 기간을 단축하고 공급 병목을 해소하는 통합 모델을 확보하고자 추진됐다. 프리팹 모듈러 방식은 전력·냉각·IT 인프라를 모듈 단위로 사전 제작한 후 현장에서 조립하는 구조로, 기존 건축 중심 데이터센터 구축 방식 대비 구축 기간을 단축하고 초기 투자 부담을 완화할 수 있다. 또한 수요 증가에 따라 모듈을 단계적 확장할 수 있어 유연한 인프라 운영이 가능하다. 슈나이더 일렉트릭은 이번 협업에서 MEP(Mechanical, Electrical, Plumbing) 기반 데이터센터 인프라 설계 및 운영 기술을 바탕으로 이번 통합 모델의 핵심을 담당한다. 특히 데이터센터 전력 관리 설루션, 고밀도 AI 워크로드 대응 냉각 인프라, 디지털 기반 운영 관리 기술 등을 제공해 AI 데이터센터의 안정적인 운영 기반과 에너지 효율을 강화할 계획이다. 슈나이더 일렉트릭은 이를 통해 데이터센터 구축 속도 향상과 운영 효율 개선은 물론, 에너지 사용 최적화를 통한 탄소 배출 저감과 지속가능한 인프라 운영 환경 조성에도 기여할 것으로 보고 있다. SKT는 AI 데이터센터 사업 운영 경험을 중심으로 서버와 MEP 분야를 대표하는 글로벌 파트너들의 역량을 결합해, AI 데이터센터 구축 기간을 단축하고 공급 병목을 해소하는 통합 모델을 확보하는데 초점을 맞출 예정이다. 슈퍼마이크로는 주요 AI 반도체 기업들과의 긴밀한 협력을 바탕으로 AI 학습·추론에 특화된 고성능 GPU 서버를 빠르게 설계·공급할 수 있는 역량을 보유하고 있다. 이를 기반으로 고객의 요구와 활용 시나리오에 맞는 최적의 성능을 구현할 수 있도록, AI 연산을 수행하는 고성능 서버와 이를 효율적으로 묶는 GPU 클러스터를 구축할 예정이다. 슈나이더 일렉트릭의 앤드류 브래드너 수석 부사장은 “AI 시대 경쟁력은 고성능 인프라를 얼마나 신속하고 지속가능하게 구축하느냐에 있다”면서, “이번 협력으로 프리팹 모듈러 기반 AI 데이터센터 통합 모델을 제시해 탄소 배출을 줄이고 공급 병목을 해소하는 한편, 고객의 고밀도 AI 워크로드 운영도 안정적으로 지원하겠다”고 말했다. SKT 하민용 AI DC사업 담당은 “AI 데이터센터 분야를 대표하는 글로벌 파트너들과의 협력을 통해 프리팹 모듈러 방식의 통합 설루션을 추진하게 됐다”면서, “이를 기반으로 글로벌 빅테크 고객들의 AI 데이터센터 구축 수요에 선제적으로 대응하고, 비용 측면에서의 경쟁력도 함께 높여가겠다”고 밝혔다. 슈퍼마이크로의 클레이 시먼스 부사장은 “SKT와의 협력으로 데이터센터 구축·가동을 한층 앞당길 수 있는 통합 체계를 모색할 수 있게 돼 매우 뜻깊게 생각한다”면서, “이번 통합 설루션은 고객 워크로드에 최적화된 슈퍼마이크로의 고성능 GPU 특화 서버를 기반으로 할 것”이라고 밝혔다. 이어 그는 “급증하는 데이터센터 수요에 대응할 수 있도록 최신 기술을 지속 제공해가겠다”고 덧붙였다.
작성일 : 2026-03-04
AMD, AI PC를 위한 라이젠 AI 400 시리즈 프로세서 포트폴리오 확대
AMD는 모바일 월드 콩그레스 2026에서 라이젠 AI 400 시리즈(Ryzen AI 400 Series) 및 라이젠 AI 프로 400 시리즈(Ryzen AI PRO 400 Series) 데스크톱 프로세서를 발표하며 라이젠 AI 포트폴리오를 확대한다고 밝혔다. 이번 신제품은 강력한 온디바이스 AI 가속과 차세대 성능을 제공해 최신 AI 워크로드와 연산 집약적 애플리케이션을 로컬 환경에서 원활하게 실행할 수 있도록 지원한다. 또한 AMD는 라이젠 AI 400 시리즈 모바일 포트폴리오를 워크스테이션 영역까지 확장한다고 밝혔다. 라이젠 AI 400 시리즈는 차세대 데스크톱 AI PC 가운데 최초로 코파일럿+ PC 경험을 지원한다. 최대 50 TOPS의 AI 연산 성능을 제공하는 신경망처리장치(NPU)를 탑재해 AI 어시스턴트와 생산성 도구를 PC에서 직접 실행할 수 있도록 하며, 이를 통해 민감한 데이터를 디바이스 내부에 유지하면서 더 높은 제어력과 성능, 프라이버시를 확보할 수 있다. AMD 컴퓨팅 및 그래픽스 그룹 수석 부사장 겸 총괄 책임자인 잭 후인(Jack Huynh)은 “데스크톱 PC는 이제 단순한 도구를 넘어 사용자와 함께 작업하는 지능형 어시스턴트로 진화하고 있다”면서, “라이젠 AI 400 시리즈 프로세서를 통해 강력한 AI 가속 기능을 데스크톱으로 확장함으로써, 기업과 소비자 모두가 더 많은 작업을 수행하고 더 많은 가치를 창출할 수 있도록 지원하고 있다”고 말했다. 라이젠 AI 400 시리즈 데스크톱 프로세서는 고성능 ‘젠 5(Zen 5)’ CPU 코어, AMD RDNA 3.5 그래픽, 전용 AMD XDNA 2 NPU를 결합해 전문 워크로드 전반에서 확장 가능한 성능과 지능형 기능을 제공하도록 설계됐다. 사무 환경 전문가, 개발자, 파워 유저가 요구하는 응답성·효율·로컬 AI 가속을 지원하며, 일상적인 멀티태스킹과 협업부터 소프트웨어 개발, 데이터 분석, AI 기반 워크플로까지 현대 데스크톱 환경 전반에서 일관된 성능을 구현한다.     라이젠 AI 프로 400 시리즈 모바일 프로세서는 상용 노트북과 모바일 워크스테이션에서 생산성을 향상하고 일상적인 워크플로를 간소화하는 차세대 로컬 AI 경험을 제공한다. 이 제품은 최대 60 TOPS의 AI 연산 성능을 제공하는 고성능 NPU를 탑재해 AI 기반 작업을 디바이스에서 직접 가속한다. AI PC를 활용하는 일반 사무직 근로자는 비AI 시스템 대비 연간 최대 7주에 해당하는 업무 시간을 절감할 수 있다. 고급 온디바이스 AI 가속 기능을 통해 측정 가능한 효율 향상을 제공하며, 대규모 조직에서도 생산성을 높이면서 전문가들이 기대하는 성능과 응답성을 유지하도록 지원한다. 또한 이 프로세서는 독립 소프트웨어 벤더(ISV) 인증을 기반으로 차세대 모바일 워크스테이션에도 탑재된다. CPU, NPU, 그래픽처리장치(GPU)를 모두 활용하는 엔지니어링·콘텐츠 제작·기술 워크로드에 최적화됐다. 주요 전문 워크플로 전반에 걸쳐 업데이트된 애플리케이션 지원을 제공하며, 이를 통해 CPU, NPU 및 그래픽 처리 장치(GPU)를 포함한 모든 컴퓨팅 리소스를 활용하는 전문 애플리케이션을 가속화하여 까다로운 엔지니어링, 콘텐츠 제작 및 기술 워크로드를 처리한다. 라이젠 AI 400 시리즈를 탑재한 AM5 데스크톱 시스템은 HP와 레노버 등 OEM을 통해 2026년 2분기부터 출시될 예정이며, 라이젠 AI 프로 400 시리즈를 탑재한 기업용 노트북은 3월 말부터 주요 OEM을 통해 출하될 예정이다. 델 테크놀로지스, HP, 레노버 등 OEM이 공급하는 모바일 워크스테이션은 2026년 2분기부터 출시될 예정이다.
작성일 : 2026-03-04
델 테크놀로지스, ‘델 프라이빗 클라우드’에서 뉴타닉스 지원
델 테크놀로지스가 확장이 용이한 분리형 인프라 구성의 ‘델 프라이빗 클라우드(Dell Private Cloud)’에서 ‘뉴타닉스 AHV(Nutanix AHV)’를 공식 지원한다고 밝혔다. 기업 및 기관에서는 뉴타닉스 AHV와 델의 외장형 스토리지를 결합해 서버와 스토리지를 독립적으로 확장함으로써, 멀티 하이퍼바이저 환경에서 익숙한 관리 도구와 자동화된 라이프사이클 관리 체계를 유지하면서 기존 투자 자산을 보호할 수 있게 됐다. 프라이빗 클라우드 환경이 확산하면서 적지 않은 IT 결정권자들이 공급업체 종속을 피하기 위해 멀티 하이퍼바이저 전략을 선택하고 있는 것으로 나타났다. 어떤 플랫폼을 선택할지 보다는 유연하게 확장가능한 인프라를 어떻게 구축하느냐가 화두로 떠오르고 있다. 하이퍼컨버지드 인프라(HCI)는 전통적인 3-계층(3-tier) 아키텍처 대비 관리 복잡성을 크게 낮추는데 기여해 왔다. 하지만 최근 IT 워크로드가 더욱 다양해지고 더 큰 유연성이 요구됨에 따라 다양한 배포 모델에서 기존의 하드웨어를 재사용하고, 데이터센터 현대화 과정에서 운영 연속성을 유지하는 능력이 필요하다. 델 프라이빗 클라우드는 운영 간소화와 유연한 아키텍처를 중심에 두고 설계됐다. 델 프라이빗 클라우드의 핵심 소프트웨어인 ‘델 오토메이션 플랫폼(Dell Automation Platform)’은 설치 단계에서부터 운영 및 라이프사이클 관리에 이르기까지 지능형 자동화를 제공하며, 델 파워엣지(Dell PowerEdge) 서버와 델 스토리지 전반에 걸쳐 어플라이언스 수준의 일관된 경험을 지원한다. 이를 통해 고객들은 서버와 스토리지를 독립적으로 확장하고, 워크로드별로 최적의 하이퍼바이저를 선택할 수 있다. 델 프라이빗 클라우드는 기존의 VM웨어(VMware) 및 레드햇 오픈시프트(Red Hat OpenShift)에 추가로 뉴타닉스까지 지원 범위를 확장했다. 이번 업데이트를 통해 델 파워플렉스(Dell PowerFlex)에서 뉴타닉스를 즉시 지원하며, 오는 여름 시즌에 델 파워스토어(Dell PowerStore)도 통합함으로써, 고객이 워크로드 요구사항에 맞춰 스토리지를 유연하게 선택할 수 있게끔 오퍼링을 확대할 예정이다. 분리형 인프라(Disaggregated Infrastructure)로의 전환은 단순한 아키텍처 변화 이상의 전략적 선택이다. 델은 뉴타닉스 지원을 통해 멀티 하이퍼바이저 전략 전반에 대한 경제적 이점을 제공한다. 기업 및 기관에서는 단순히 적합한 플랫폼을 선택하는 것을 넘어, 예산을 보호하고 비용 효율성을 극대화하는 방식으로 인프라를 설계할 수 있다. 델은 뉴타닉스 지원을 추가한 델 프라이빗 클라우드가 운영 일관성을 유지하며 워크로드에 최적화된 인프라 구성이 가능하다고 전했다. VM웨어, 레드햇, 뉴타닉스를 모두 지원하는 델 프라이빗 클라우드는 다양한 워크로드 요구사항을 아우르는 일관된 기반을 제공한다. 관리 복잡성을 더하지 않고 워크로드별 최적의 플랫폼을 선택할 수 있으며, 실제 수요에 맞춰 인프라 투자를 조정하고, 비즈니스 우선순위 변화에 유연하게 대응할 수 있도록 돕는다. 한국 델 테크놀로지스의 김경진 총괄사장은 “비즈니스가 진화하는 속도에 맞춰 인프라도 함께 진화해야 한다. 델은 아직 정의되지 않은 미래까지 대비할 수 있는 유연한 프라이빗 클라우드 기반을 제시함으로써 새로운 패러다임을 이끌어가고 있다”고 말했다.
작성일 : 2026-02-23
엔비디아, 메타와 차세대 AI 인프라 구축 위한 파트너십 체결
엔비디아가 메타와 온프레미스와 클라우드를 아우르는 차세대 AI 인프라 구축을 위한 장기 전략적 파트너십을 체결했다고 밝혔다. 메타는 자사의 장기적인 AI 인프라 로드맵 지원을 위해 훈련과 추론에 최적화된 하이퍼스케일 데이터센터를 구축할 예정이다. 이번 파트너십을 통해 엔비디아 CPU와 수백만 대의 엔비디아 블랙웰(Blackwell), 루빈(Rubin) GPU가 메타의 페이스북 오픈 스위칭 시스템(Facebook Open Switching System) 플랫폼에 대규모로 배포되며, 엔비디아 스펙트럼-X 이더넷(Spectrum-X Ethernet) 스위치가 함께 통합될 예정이다. 엔비디아와 메타는 데이터센터 프로덕션 애플리케이션에 Arm 기반 엔비디아 그레이스(Grace) CPU를 배포하기 위해 지속적으로 협력 중이다. 이는 메타의 장기적인 인프라 전략의 일환으로, 데이터센터 전반에서 전력 대비 성능을 개선하고 있다. 이번 협력은 엔비디아 그레이스 단독 아키텍처의 첫 대규모 배포 사례로, CPU 생태계 라이브러리에 대한 공동 설계와 소프트웨어 최적화 투자를 통해 세대별 전력 대비 성능을 지속적으로 향상시키고 있다. 또한 양사는 엔비디아 베라 CPU 배포를 위해 협력하고 있으며, 2027년 대규모 배포 가능성을 검토하고 있다. 이를 통해 메타의 에너지 효율적인 AI 컴퓨팅 역량을 한층 확장하고, Arm 기반 소프트웨어 생태계 발전을 가속화할 계획이다. 메타는 엔비디아 GB300 기반 시스템을 도입하고, 온프레미스 데이터센터와 엔비디아 클라우드 파트너(NVIDIA Cloud Partner : NCP) 배포 환경을 아우르는 통합 아키텍처를 구축할 예정이다. 이를 통해 운영을 간소화하는 동시에 성능과 확장성을 극대화할 수 있다. 또한 메타는 인프라 전반에 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼을 도입해, AI 규모에 최적화된 네트워킹을 제공하고 있다. 이를 통해 예측 가능한 저지연 성능을 보장하고, 활용도를 극대화하며, 운영과 전력 효율성을 향상시킬 예정이다. 한편, 메타는 엔비디아 컨피덴셜 컴퓨팅(Confidential Computing)을 왓츠앱(WhatsApp)의 프라이빗 프로세싱(private processing)에 도입했다. 이를 통해 사용자 데이터의 기밀성과 무결성을 보장하는 동시에, 메시징 플랫폼 전반에 AI 기반 기능을 구현할 수 있다. 양사는 왓츠앱을 넘어 메타 포트폴리오 전반에 엔비디아 컨피덴셜 컴퓨팅 역량을 확장하기 위해 협력하며, 대규모 프라이버시 강화를 위한 AI를 지원하고 있다. 엔비디아와 메타의 엔지니어링 팀은 메타의 핵심 워크로드 전반에 걸쳐 최첨단 AI 모델을 최적화하고 가속화하기 위한 심층 공동 설계를 진행하고 있다. 이러한 협력은 엔비디아의 풀스택 플랫폼과 메타의 대규모 프로덕션 워크로드를 결합해, 전 세계 수십억 명이 사용하는 새로운 AI 기능의 성능과 효율성을 향상시키는 것을 목표로 한다.     엔비디아의 젠슨 황 창립자 겸 CEO는 “메타처럼 대규모로 AI를 배포하는 기업은 없다. 메타는 최첨단 연구를 산업 규모의 인프라와 통합해 수십억 명의 사용자를 위한 세계 최대 수준의 개인화와 추천 시스템을 제공하고 있다. 엔비디아는 CPU, GPU, 네트워킹, 소프트웨어 전반에 걸친 긴밀한 공동 설계를 통해 메타 연구진과 엔지니어들이 차세대 AI 혁신을 위한 기반을 구축할 수 있도록 엔비디아 풀스택 플랫폼을 제공하고 있다”고 말했다. 메타의 마크 저커버그 창립자 겸 CEO는 “엔비디아와의 협력을 확대해 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축함으로써, 전 세계 모든 사람에게 개인 맞춤형 슈퍼 인텔리전스를 제공하게 돼 매우 기쁘게 생각한다”고 말했다.
작성일 : 2026-02-20