• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "프로세서"에 대한 통합 검색 내용이 1,726개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
인텔, 추론 최적화 데이터센터용 GPU 신제품 발표
인텔은 2025 OCP 글로벌 서밋에서, 자사 AI 가속기 포트폴리오에 추가되는 주요 제품인 인텔 데이터센터용 GPU 신제품 코드명 ‘크레센트 아일랜드(Crescent Island)’를 발표했다. 이 GPU는 증가하는 AI 추론 워크로드 수요를 충족하도록 설계되었으며, 고용량 메모리·에너지 효율적인 성능을 제공한다. 추론이 주요한 AI(인공지능) 워크로드로 자리잡으며, 강력한 칩 이상의 요소, 즉 시스템 차원의 혁신이 성공을 가늠하는 주요 요소가 되었다. 하드웨어부터 오케스트레이션까지, 추론은 다양한 컴퓨팅 유형을 개발자 중심의 개방형 소프트웨어 스택과 통합하는 워크로드 중심의 개방형 접근 방식을 필요로 하며, 이러한 접근 방식은 배포 및 확장이 용이한 시스템으로 제공된다. 인텔은 “인텔 제온 6 프로세서, 인텔 GPU를 기반으로 구축한 설루션을 통해 AI PC부터 데이터 센터, 산업용 에지까지 엔드 투 엔드 설루션을 제공할 수 있는 입지를 갖추고 있다”면서, “성능, 에너지 효율성, 개발자 연속성을 위한 시스템 공동 설계 및 OCP(Open Compute Project)와 같은 커뮤니티와의 협력을 통해 AI 추론이 가장 필요한 모든 곳에서 실행될 수 있도록 지원하고 있다”고 전했다. 코드명 크레센트 아일랜드로 명명된 새로운 데이터센터 GPU는 공랭식 엔터프라이즈 서버에 맞춰 전력 및 비용 최적화를 이루었으며, 추론용 워크플로에 최적화된 대용량 메모리 및 대역폭을 제공하도록 설계되었다. 와트당 성능(PPW)이 최적화된 Xe3P 마이크로아키텍처에 기반을 둔 크레센트 아일랜드 GPU는 160GB의 LPDDR5X 메모리를 탑재했다. 또한 ‘서비스형 토큰(Token-as-a-Service)’ 공급업체 및 추론 사용 사례에 적합한 광범위한 데이터 유형을 지원한다. 인텔의 이기종 AI 시스템을 위한 개방형 통합 소프트웨어 스택은 조기 최적화 및 이터레이션(iteration) 작업이 가능하도록 현재 아크 프로 B(Arc Pro B) 시리즈 GPU에서 개발 및 테스트 중이다. 새로운 데이터센터용 GPU의 고객 샘플링은 2026년 하반기에 제공될 예정이다. 인텔의 사친 카티(Sachin Katti) 최고기술책임자(CTO)는 “인공지능은 정적 학습에서 에이전트형 AI가 주도하는 실시간·전역 추론으로 전환되고 있다”면서, “이러한 복잡한 워크로드를 확장하려면 적절한 실리콘을 적절한 작업에 매칭하는 이종 시스템이 필요하다. 인텔의 Xe 아키텍처 데이터센터 GPU는 토큰 처리량이 급증함에 따라 고객이 필요로 하는 효율적인 헤드룸 성능과 더 큰 가치를 제공할 것”이라고 밝혔다. 
작성일 : 2025-10-15
HP Z2 미니 G1a 리뷰 : 초소형 워크스테이션의 AI·3D 실전 성능
워크스테이션은 콤팩트한 외형 속에 데스크톱급 성능을 담아낸 전문가용 시스템이다. 단순한 소형 PC와 달리, 3D·영상·AI·엔지니어링 등 고성능이 필요한 크리에이터와 전문 작업자를 위해 설계된 것이 특징이다. 이번 리뷰에서는 실제 소프트웨어 워크플로와 AI·LLM 테스트까지 다양한 관점에서 심층 평가를 진행했다.   ▲ HP Z2 미니 G1a   하드웨어 및 설치 환경 HP Z2 미니 G1a(HP Z2 Mini G1a)의 가장 큰 강점 중 하나는 강력한 하드웨어 스펙이다. AMD 라이젠 AI 맥스+ 프로 395(AMD Ryzen AI Max+ PRO 395) 프로세서(16코어 32스레드, 3.00GHz), 최대 128GB LPDDR5X 메모리, 8TB NVMe SSD, 그리고 16GB VRAM을 탑재한 라데온 8060S(Radeon 8060S) 통합 그래픽 등, 동급 소형 워크스테이션에서는 보기 힘든 구성을 갖췄다. 특히 메모리는 최대 128GB까지 확장 가능하며, 이 중 최대 96GB를 그래픽 자원에 독점 할당할 수 있다. 듀얼 NVMe 및 RAID 지원으로 대용량 데이터 처리와 안정성을 확보했으며, 50TOPS에 달하는 NPU 성능 덕분에 AI 추론 등 최신 워크로드도 소화할 수 있다. 테스트는 윈도우 11 프로 기반, 64GB RAM과 16GB 라데온 8060S, 듀얼 NVMe SSD가 장착된 구성으로 진행됐다.   ▲ HP Z2 미니 G1a의 하드웨어 스펙   전문 소프트웨어 워크플로 직접 HP Z2 미니 G1a를 사용해 본 첫 인상은 “미니 사이즈에서 이 정도 성능이라니?”였다. 크기는 작지만, 성능은 결코 작지 않았다. 시네마 4D(Cinema 4D)로 복잡한 3D 신을 제작하고, 지브러시(ZBrush)에서 대형 폴리곤 모델링과 서브툴 멀티 작업을 해 보니 작업 흐름이 부드럽고, 장시간 동작에도 다운이나 랙 없이 꾸준한 성능으로 작업할 수 있었다. 시네벤치(Cinebench), 시네마 4D, 지브러시, 애프터 이펙트(After Effects), AI 생성형 이미지·영상, LLM 실행 등 전 영역에서 성능 저하를 체가하기 어려웠다. 시네마 4D에서는 수십만~수백만 폴리곤에 달하는 대형 3D 신 파일을 불러오고, 뷰포트 내 실시간 조작이나 배치 렌더링, 애니메이션 키프레임 작업에서 CPU 기반 멀티스레드 성능이 큰 장점을 발휘했다. 시네벤치 2024 멀티코어 점수는 1832점으로, 애플의 M1 울트라보다 높은 수치를 달성해 전문 사용자에게 매력적인 대안이 될 것으로 보인다.   ▲ 시네마 4D에서 테스트   애프터 이펙트 환경에서는 GPU 가속 지원이 부족한 점에도 불구하고, 강력한 CPU 성능 덕분에 고해상도(4K) 다중 레이어 영상 합성, 이펙트, 복수 트랙 편집에서도 랙이나 끊김 없이 작업을 이어갈 수 있었다. 시네마 4D, 지브러시, 콤피UI(ComfyUI) 등과의 멀티태스킹 환경에서도 리소스 병목 없이 쾌적하게 여러 프로그램을 병행 실행하는 것이 가능했다.   ▲ 애프터 이펙트에서 테스트   아이언캐드 대형 어셈블리 테스트 엔지니어링 현장에서 요구되는 대형 어셈블리 작업을 검증하기 위해 동료와 함께 아이언캐드(IronCAD)로 2만여 개(2만 1800개)에 달하는 파트가 포함된 820MB 대용량 CAD 파일을 로딩해 테스트를 진행했다. 이 워크플로는 최근 산업·기계 설계 현장에서 자주 마주치는 극한 환경을 그대로 반영한 조건이었다. 테스트 결과, HP Z2 마니 G1a의 평균 FPS는 약 19로 측정됐다. 이는 노트북용 RTX2060 GPU가 내는 실제 CAD 작업 성능과 동등한 수준에 해당한다. 고용량 모델의 빠른 불러오기, 실시간 3D 뷰 조작, 개별 파트 속성 편집 작업에서 큰 병목이나 지연 없이 효율적인 사용 경험을 확인했다. 대형 파일임에도 불구하고 시스템 자원 부족이나 다운 없이 멀티태스킹 환경에서도 안정적으로 작업이 이어지는 점이 인상적이었다.   ▲ 아이언캐드에서 테스트   AI 및 LLM 활용 AI 작업이나 LLM 실행에서도 강점이 명확했다. 콤피UI에서 Wan2.2, Video-wan2_2_14B_t2v 같은 고사양 텍스트-비디오 생성 모델도 무리 없이 돌릴 수 있었고, LM 스튜디오(LM Studio)와 올라마(Ollama) 기반의 대형 LLM 역시 빠른 추론 속도를 보여줬다. NPU(50TOPS)의 연산 가속과 64GB RAM의 넉넉함 덕분에, AI 모델 로컬 실행/추론에서 항상 안정적인 환경이 보장된다는 느낌이다. 오픈소스 AI 이미지 생성이나 텍스트-비디오 워크플로도 CPU-메모리 조합만으로 병목 없이 부드럽게 동작했다. 쿠다(CUDA)를 지원하지 않는 환경의 한계로 일부 오픈소스 AI 툴은 실행에 제약이 있었으나, CPU와 NPU 조합만으로도 로컬 기반 AI 이미지 생성 및 텍스트-비디오 워크플로에서 동급 대비 빠르고 매끄러운 결과를 보였다.    ▲ 콤피UI에서 테스트   LLM 분야에서는 LM 스튜디오와 올라마를 이용해 7B~33B 규모의 다양한 대형 언어 모델을 구동했다. 64GB RAM과 50TOPS NPU의 지원 덕분에 GPT-3.5, 라마 2(Llama 2) 등 대용량 파라미터 기반의 모델도 실제 업무에서 실시간 질문-응답, 코드 자동완성, 문서 요약 등에 무리 없이 활용 가능했다.   ▲ LLM 테스트   통합 메모리 아키텍처 효과 Z2 미니 G1a의 최고 강점은 UMA(통합 메모리 아키텍처)에 있다. 이 기술은 시스템 메모리(RAM)의 상당 부분을 GPU 연산에 직접 할당해, 기존 분리형 GPU VRAM 성능의 한계를 극복한다. 실제로 탑재된 메모리(64GB~128GB 중 구매 옵션에 따라 선택)를 GPU에 최대 96GB까지 독점적으로 할당할 수 있으며, 복잡한 3D·그래픽 집약적 프로젝트 처리와 생성형 AI·LLM 등의 작업에서 병목 없이 고효율 워크플로를 경험할 수 있었다.   실사용·테스트를 위한 리뷰 환경 제품 리뷰 당시 64GB RAM 탑재 모델을 기준으로, 기본 설정에서는 16~32GB를 GPU에 할당해 일반 CAD·3D·AI 작업을 진행했다. 또한 고해상도 3D 렌더나 생성형 AI 영상 작업에서는 BIOS/소프트웨어에서 48~50GB까지 VRAM 할당을 수동 조정해 본 결과, 대형 프로젝트 파일에서 뷰포트 프레임 저하나 메모리 부족 경고 없이 안정적인 작업 환경을 제공했다. 반대로 GPU에 할당하는 메모리를 늘리면 고용량 데이터 병목이 해결되고, 3D 뷰포트 FPS나 AI 추론 속도 및 이미지 품질·정확도가 확실히 향상되는 것이 일관되게 확인되었다. 실제 기업 환경에서는 128GB 모델을 쓰면 최대 96GB까지 VRAM 할당이 가능하므로 GPU 메모리 병목이 무의미해지고, 기존 미니PC와는 비교할 수 없는 확장성과 작업 안전성을 확보할 수 있다.   아쉬운 점 첫째, 테스트용으로 받았던 장비에서는 HDMI 단자의 부재로 미니 DP로 모니터를 연결해야 했는데, 이는 테스트했던 데모 제품의 기본 옵션에 해당한다. 하지만 HP Z2 미니 G1a는 기업용/구매 시 고객 요구에 따라 HDMI 포트를 포함한 맞춤형 Flex I/O 슬롯 옵션 구성이 가능하다고 한다. 실제로 HP 공식 문서 및 판매 페이지에 따르면, 썬더볼트4(Thunderbolt4), USB-C, 미니 DP 외에도 HDMI를 Flex IO 슬롯에 추가할 수 있으므로, 다수의 모니터·TV·AV 장비로 연결해 사용하는 환경에서도 문제없이 세팅할 수 있다. 둘째, GPU가 AMD 라데온 기반이기 때문에 엔비디아 CUDA를 필요로 하는 GPU 가속 작업(예 : Redshift GPU 렌더러, 딥러닝 프레임워크)은 아예 테스트 자체가 불가능하다. AI, 3D, 영상 워크플로에서 CUDA 생태계를 사용하는 환경에서는 제품 선택 전 미리 확인이 필요하다. 셋째, 고부하 작업 시 팬 소음이 다소 발생할 수 있으므로 조용한 사무실 환경이라면 쿼이엇 모드 설정이 필요하다.   결론 및 추천 HP Z2 미니 G1a 워크스테이션은 한정된 공간에서 고성능이 필요한 크리에이티브 및 AI 전문가, 엔지니어, 디지털 아티스트에게 탁월한 선택지가 될 수 있다. 실제로 써보면, 공간 제약이 있는 환경에서도 3D 모델링, 영상 편집, 생성형 AI, LLM 추론 등 고사양 멀티태스킹을 안정적으로 병행할 수 있었고, 기업용 보안, ISV 인증, 최신 네트워크까지 갖췄다. 다양한 작업을 동시에 손쉽게 처리할 수 있다는 점에서 미니 데스크톱 중에서도 실전 현장에 ‘매우 쓸 만한’ 최상위 선택지라고 생각이 든다. 비록 CUDA 미지원 및 HDMI 포트 부재라는 한계가 있지만, CPU·메모리 중심의 워크플로에선 동급 최고 수준의 안정성과 성능을 보여준다. 최신 AI 및 LLM, 3D·영상·컴포지팅 등 멀티태스킹이 잦은 전문 분야라면 이 제품이 오랜 기간 든든한 실전 파트너가 될 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 배현수 부장 마루인터내셔널(맥슨 한국총판) 기술지원팀, AI 크리에이터, 모션그래픽 디자이너     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
가트너, “올해 전 세계 AI PC 출하량 104% 증가할 것”
가트너는 2025년 전 세계 AI PC 출하량이 전년 대비 약 104% 증가해 전체 PC 시장의 31%를 차지할 것이라는 전망을 발표했다. 가트너는 2026년에는 AI PC 출하량이 1억 4300만 대에 이르고, 전체 PC 시장의 55%를 차지할 것으로 예측했다. 또한, 2029년까지 AI PC가 시장의 표준으로 자리 잡을 것으로 전망했다. 노트북 시장에서는 AI 노트북 점유율이 2024년 19.4%에서 2025년 35.7%, 2026년에는 58.7%로 늘어날 전망이다. 데스크톱 PC 시장에서는 AI 데스크톱 점유율이 2024년 3.8%에서 2025년 16.4%, 2026년 42.1%가 될 것으로 보인다. 기업 및 소비자 시장에서는 프로세서 플랫폼에 따른 AI PC에 대한 선호도 차이가 존재했다. 가트너에 따르면, 애플리케이션 호환성 문제가 점차 해소되면서 ARM 기반 노트북은 기업보다 소비자 시장에서 더 큰 점유율을 확보할 것으로 예상된다. 반면, 기업 시장에서는 윈도우 x86 기반 노트북에 대한 선호가 뚜렷해, 2025년 기업용 AI 노트북 시장에서 윈도우 x86 기반 노트북은 71%, ARM 기반 노트북은 24%의 점유율을 차지할 것으로 예측된다. 가트너는 AI PC 보급이 확대됨에 따라 2026년 말까지 소프트웨어 공급업체의 40%가 PC에 AI를 내장하기 위한 투자를 우선적으로 진행할 것으로 전망했다. 이는 2024년의 2%에서 크게 증가한 수치다. 또한, 소형 언어 모델(SLM)이 PC에서 로컬로 실행되는 사례가 2023년에는 존재하지 않았지만 2026년에는 여럿 증가할 것으로 예상했다. SLM은 PC를 비롯한 기기 전반에서 고급 AI 기능을 직접 실행해 응답 속도를 높이고, 에너지 소비를 줄이며, 클라우드 의존도를 낮춘다. 이는 특정 작업에 특화된 인텔리전스를 제공할 뿐만 아니라, AI가 기기에서 직접 실행되기 때문에 사용자와 기업 데이터를 안전하게 보호할 수 있다. 가트너는 PC 공급업체가 하드웨어를 넘어, 특정 역할과 사용 사례에 최적화된 소프트웨어 정의형, 사용자 중심 기기를 제공하는 것이 AI PC의 미래이자 새로운 성장 동력이라고 조언했다. 가트너의 란짓 아트왈(Ranjit Atwal) 시니어 디렉터 애널리스트는 “AI PC가 시장 재편을 주도하고 있지만, 관세의 영향과 시장 불확실성으로 인해 PC 구매가 보류되면서 올해 도입 속도는 다소 둔화될 전망”이라며, “하지만 그럼에도 사용자는 에지 환경에서의 AI 활용 확대에 대비해 AI PC 투자를 이어갈 것”이라고 전했다. 또한 “AI PC의 미래는 맞춤화에 있다. 사용자가 원하는 앱, 특징, 기능을 선택해 기기를 구성하는 것이 중요하다”고 덧붙였다.
작성일 : 2025-08-29
인텔, “AI 설루션으로 LG이노텍의 생산 공정 효율 향상”
인텔은 LG이노텍이 자사의 기술을 활용해 인공지능(AI) 기반의 자동화 시스템을 구축하고 있다고 소개했다. 소재·부품 전문 기업인 LG이노텍은 휴대폰, 자동차 디스플레이, 스마트 기기 등에 들어가는 수십만 개의 초소형 부품을 완벽한 정확도와 무결점으로 복제하는 것을 목표로 삼고 있으며, 혁신 기술을 통해 이러한 목표를 달성하고자 한다.  LG이노텍의 구미 공장에서는 인텔 코어(Intel Core) 프로세서, 인텔 제온(Intel Xeon) 프로세서 및 인텔 아크(Intel Arc) 내장형 그래픽처리장치(GPU)가 조화를 이루며 작동한다. 이들 기술은 오픈비노(OpenVINO) 소프트웨어 툴킷으로 통합된다. LG이노텍은 생산 라인의 특정 단말기에서 규칙 기반 검사 및 딥러닝 기반 시스템을 사용해 제품 품질을 높여왔다. 여기서 나아가, LG이노텍은 제조 공정 전반에 걸쳐 AI를 광범위하게 적용하여 성능 저하 없이 완전 자동화된 시스템을 구축하고자 했다. 인텔은 지난 2024년 인텔 코어 및 제온 프로세서와 아크 외장형 GPU를 기반으로 하는 AI 기반 검사 시스템에 대한 구축 지원을 위해 LG이노텍과 논의를 시작했다. 핵심은 생산 공정에서 발생하는 데이터가 인텔 코어 CPU를 탑재한 PC로 스트리밍되며, 내장 GPU는 결함 데이터를 분석하는 데 비용 효율을 제공하는 것이다. 고해상도 이미지에서 다중 알고리즘을 실행하는 등 부하가 큰 워크로드는 인텔 아크 외장 GPU가 처리하게끔 했다. 시간이 지남에 따라 축적된 데이터셋은 인텔 제온 기반의 사전 학습 서버로 전송된다.      양사는 향후 협업을 통해 인텔 가우디 AI 가속기가 탑재된 서버를 활용한 사전 학습 워크로드 관리를 검토하고 있다. 이처럼 CPU를 기반으로 내장 및 외장 GPU로 가속화된 인텔 기반 기술 조합을 활용하여 AI 검사 시스템 구축 비용을 절감할 수 있었다는 것이 인텔의 설명이다. 인텔은 “아크 기반 외장 GPU를 도입하면서, 동급 성능의 타사 하드웨어 대비 성능에 비해 높은 비용 효율성을 달성했다. 이러한 비용 절감 효과는 규모의 경제를 더욱 극대화할 수 있는 기반이 되고 있다”고 전했다.  LG이노텍은 2024년 모바일 카메라 모듈 생산 라인에 인텔의 AI 비전 검사 설루션을 처음 적용했으며, 올해는 FC-BGA(flip-chip ball grid array)를 생산하는 구미4공장 등 국내 주요 생산 거점과 해외 생산라인에 단계적으로 확대 적용할 계획이다.  시스템 도입 당시에는 기존 딥러닝 환경이 특정 외장 그래픽 카드를 기반으로 구축되어 있어, 처음에는 통합 GPU 도입에 대한 우려가 있었다. 특히, 신규 GPU에 맞춰 기존 코드를 재작성하고 다시 매핑하는 것이 매우 어려울 것이라는 걱정이 있었만, 오픈비노(OpenVINO) 소프트웨어 툴킷을 활용해 우려를 해소할 수 있었다. 2018년 오픈비노 출시 이후, 인텔은 전 세계 개발자가 AI 기반 개발을 가속화할 수 있도록 지원해왔다. 오픈비노는 개발자가 한 번의 코드 작성으로 다양한 환경에 AI 모델을 배포할 수 있도록 돕는 오픈소스 AI 툴킷이다. LG 이노텍의 엔지니어들은 대량 생산 과정에서 공정이 변경되거나 원자재가 바뀔 때, 딥러닝 모델을 재학습하기 위해 AI 기반 워크로드에 최적화된 AI 가속기가 탑재된 인텔 제온 CPU 활용도 고려하고 있다. 제온 CPU는 병렬 연산 속도를 높이고, 인텔 AMX(Intel Advanced Matrix Extensions)라는 특수 내장 가속기를 지원해 제온 CPU에서 딥러닝 학습 및 추론 성능을 향상시킨다. 인텔은 제온 CPU와 별도 서드파티 GPU를 함께 사용하는 기존 방식에 비해 AI 기반 파인튜닝(Fine Tuning) 작업을 CPU로 처리함으로써 시스템 비용을 줄일 수 있을 것으로 기대하고 있다.
작성일 : 2025-08-26
인텔-AWS, 제온 6 프로세서 기반 EC2 인스턴스 출시
인텔은 클라우드 환경에서 동급 인텔 프로세서 중 가장 높은 성능과 가장 빠른 메모리 대역폭을 제공하는 P-코어를 탑재한 인텔 제온 6 프로세서(Intel Xeon 6 processors with P-cores) 기반의 신규 EC2(Amazon Elastic Compute Cloud) R8i 및 R8I-플렉스 인스턴스를 아마존웹서비스(AWS)에서 출시한다고 밝혔다. 이번 새로운 인스턴스는 인텔과 AWS 간 수년간 협력을 바탕으로, 확장성, 비용 효율성 및 고성능 클라우드 인프라를 추구하는 고객에게 최신 실리콘 혁신과 밀접하게 통합된 소프트웨어 최적화를 제공한다. 기업의 실시간 데이터 처리, 인공지능(AI), 컴플라이언스 집약적인 워크로드 활용이 점점 늘어남에 따라, 유연한 고성능 클라우드 인프라에 대한 필요도가 더 높아졌다. 인텔은 제온 6 프로세서가 전문적인 가속기에 대한 의존도를 최소화하면서 유연한 다목적 컴퓨팅 플랫폼을 제공하며, 다양한 활용 사례에 대한 배포 및 관리를 간소화해준다고 설명했다.     새로운 제온 6 기반 인스턴스의 주요 특징은 ▲고집적도 컴퓨팅 ▲ 클라우드 상에서 가장 빠른 DDR5 지원 ▲ 내장형 AI 가속 ▲인텔 QAT(QuickAssist Technology) 등이다. 제온 6는 재설계된 코어 아키텍처와 향상된 파이프라인, 더 많은 코어 수를 통해 성능과 스레드 확장성을 향상시켰다. 이를 통해 AWS는 최대 96xlarge와 같은 대규모 인스턴스 크기를 제공해 고객이 워크로드에 필요한 컴퓨팅 자원을 더욱 높은 집적도로 활용할 수 있도록 지원한다. 신규 인스턴스는 DDR5 메모리 속도 최대 7200 MT/s를 지원하며 분석, 머신러닝(ML), 인메모리 데이터베이스에 적합한 고대역폭 메모리 및 낮은 지연 시간을 제공한다. 또한, 인텔 AMX(Intel Advanced Matrix Extensions)를 통합해 AI 추론 및 머신러닝 성능을 최대 2배 향상시키며, 외부 가속기 사용 필요성을 줄이고 배포를 간편하게 한다. 이외에도 하드웨어 가속화된 암호화 및 압축을 지원하여 CPU 리소스를 절감하고, 금융, 의료, 공공 애플리케이션 등 보안에 민감하거나 규제 대상인 워크로드 성능을 향상시킨다. 인텔은 프로세서 마이크로아키텍처와 펌웨어 튜닝부터 하이퍼바이저 튜닝, 가상화, 소프트웨어 프레임워크에 이르기까지 스택(stack)의 모든 계층을 아우르는 최적화를 진행했다. 고객들은 이러한 통합을 통해 AWS의 글로벌 인프라 전역에서 제온 6의 성능을 최대한 활용할 수 있다. 인텔은 이번 협력으로 AWS 및 더 광범위한 클라우드 생태계에서 핵심 기술 제공 기업으로서의 입지를 강화할 수 있을 것으로 기대하고 있다. 개발자, 데이터 사이언티스트, IT 리더들이 보다 빠르고 효율적으로 혁신하고, 규모를 확장하며, 서비스를 배포할 수 있도록 지원하겠다는 것이다. AWS의 니샨트 메타(Nishant Mehta) EC2 제품 관리 부사장은 “고객들은 가장 요구도가 높은 워크로드 속도에 맞춘 인프라가 필요하다”면서, “인텔과의 협력을 통해 새로운 아마존 EC2 R8i 및 R8i-플렉스 인스턴스는 전 세대 대비 메모리 대역폭은 2.5배 더 향상되었고 가격 대비 성능은 15% 더 우수하다. 이는 고객이 성능을 극대화하면서 비용을 절감할 수 있도록 지원하는 혁신”이라고 말했다. 인텔의 로낙 싱할(Ronak Singhal) 선임 펠로우는 “인텔 제온 6 프로세서로 구동되는 8세대 EC2 인스턴스 출시는 AWS와의 협업에서 중요한 이정표”라며, “인텔과 AWS는 AI 가속화, 메모리 성능 향상, 쉬운 배포를 통해 고객이 인사이트를 빠르게 얻고 강력한 투자수익률(ROI)을 달성할 수 있도록 지원하는 인프라를 함께 구축했다”고 밝혔다.
작성일 : 2025-08-22
HP Z2 미니 G1a 데스크톱 제품 리뷰어 모집
캐드앤그래픽스에서 HP Z2 Mini G1a 데스크톱 성능을 체험 리뷰하실 리뷰어를 찾습니다. 리뷰 기사는 캐드앤그래픽스 2025년 10월호에 실릴 예정이며, 리뷰용 제품을 받으신 후 실제로 사용해 보시고, 9월 12일(금요일)까지 리뷰 원고를 보내 주시면 됩니다. (Z2 Mini G1a 데스크탑과 24인치 모니터 배송 예정) 잡지에 실리는 리뷰 기사에 대해서는 소정의 원고료를 드립니다. 리뷰를 원하시는 분은 간단한 자기소개 및 사용하시는 소프트웨어에 관한 내용을 메일(cadgraphpr@gmail.com)로 보내주세요. - 제목 :  HP Z2 미니 G1a 리뷰어 지원 - 보내실 내용 : 간단 약력 등 자기소개, 사용 소프트웨어, 전화/메일/소속 (참고할 만한 기고 이력이나 블로그 링크 등 있을 경우 같이 기재) - 모집기간 : 선정시(선착순, 이력 검토 후 선정) - 모집 마감되었습니다. 문의 : 02-333-6900 리뷰어 모집 대상  :  제조, 건축, 엔지니어링 분야 엔지니어(캐드, CAE, 3D 디자인 및 렌더링 등 사용자)     ------------------------------------------------------------------------------------------------------ HP Z2 Mini G1a 데스크톱 워크스테이션 소개   HP Z2 Mini G1a는 컴팩트한 크기에 강력한 성능을 담은 미니 워크스테이션으로, 복잡한 3D 디자인, 그래픽 프로젝트, 로컬 AI 모델(LLM) 환경에 적합합니다. 최고 사양의 AMD Ryzen™ AI Max+ PRO 시리즈 프로세서(최대 16코어/32스레드, 5.1GHz 부스트, 64MB 캐시)가 장착되며, 내장 그래픽(최대 AMD Radeon™ 8060S)을 통해 별도의 외장 GPU 없이도 GPU 가속 3D 작업 및 AI 추론을 실행할 수 있습니다. 최대 128GB LPDDR5x 통합 메모리 중 96GB까지 그래픽 갯수에 할당 가능하므로, 여러 개 전문 애플리케이션을 동시에 실행해도 병목 현상이 적습니다. 스토리지는 NVMe M.2 SSD 슬롯 2개를 사용해 최대 8TB까지 확장 가능하며, RAID 0/1을 지원합니다. 연결성도 우수합니다. Thunderbolt™ 4 USB-C 포트, Mini DisplayPort 2.1, 10GbE LAN, Wi-Fi 7 등 최신 포트를 모두 지원하며, 내부 전원 어댑터(300W 내장)로 외부 어댑터 없이 간결한 설치가 가능합니다. 냉각 설계는 대형 방열판과 팬 조합, 3D 메쉬 흡기 구조 등으로 내부 발열을 최소화합니다. 시스템 RAM은 납땜되어 교체는 불가능하지만, 두 개의 PCIe Gen4 M.2 슬롯으로 저장장치 확장이 자유롭습니다. Geekbench 6 기준 CPU 멀티코어 점수 약 17,210점, GPU OpenCL 점수 91,591점을 기록하며, 최신 워크스테이션 수준의 성능을 입증했습니다. ISV 인증과 HP Wolf Security(BIOS~OS)로 전문적인 워크플로우와 기업 보안, 안정성까지 제공합니다. 작은 공간, 고성능 AI·그래픽 작업, 3D 디자인, 콘텐츠 크리에이션, 엔터프라이즈 환경에 모두 어울립니다. 공식 제품 정보는 HP 웹사이트(https://www.hp.com/kr-ko/workstations/z2-mini-a.html)에서 확인할 수 있습니다.     참고 후기 HP Z북 울트라 G1a 리뷰 (1) - AI 크리에이터와 3D 작업을 위한 최적화 HP Z북 울트라 G1a 리뷰 (2) - 설계 엔지니어 관점에서 본 고성능 노트북
작성일 : 2025-08-13
[포커스] AWS, “다양한 기술로 국내 기업의 생성형 AI 활용 고도화 돕는다”
아마존웹서비스(AWS)는 최근 진행한 설문조사를 통해 국내 기업들의 AI 활용 현황과 과제를 짚었다. 또한, 신뢰할 수 있는 고성능의 인공지능 에이전트(AI agent)를 구축하고 배포할 수 있는 환경을 제공하면서 한국 시장에 지원을 강화하고 있다고 밝혔다. AWS는 AI의 도입과 활용 과정에서 기업이 겪는 기술적 어려움을 줄이고, 더 많은 기업이 쉽고 안전하게 생성형 AI를 도입하여 비즈니스 가치를 창출할 수 있도록 돕는 데 집중하고 있다. ■ 정수진 편집장    기업의 AI 도입률 높지만…고도화 위한 과제는?  AWS와 스트랜드 파트너스(Strand Partners)는 2025년 4월 한국 기업 1000곳과 일반인 1000명을 대상으로 AI에 대한 행동과 인식에 대한 설문조사를 진행하고, 그 결과를 바탕으로 한국 기업의 AI 활용 현황을 평가했다. 이 조사는 유럽에서는 3년째 진행되어 왔는데, 이번에 글로벌로 확장해 동일한 방법론을 적용했다. 스트랜드 파트너스의 닉 본스토우(Nick Bonstow) 디렉터는 설문조사 보고서의 내용을 소개하면서, 한국 기업의 AI 도입 현황과 주요 과제를 분석했다. 조사에서는 한국 기업의 48%가 AI를 도입 및 활용하고 있는 것으로 나타났는데, 이는 전년 대비 40% 성장한 수치이다. 유럽 기업의 평균 AI 도입률인 42%보다 높았는데, 특히 지난해에만 약 49만 9000 개의 한국 기업이 AI를 처음 도입한 것으로 추정된다. 본스토우 디렉터는 “AI를 도입한 기업들은 실질적인 이점을 경험하고 있다. 56%가 생산성 및 효율성 향상으로 매출 증가를 경험했고, 79%는 업무 생산성 향상 효과를 확인했다. 그리고 AI 도입에 따라 주당 평균 13시간의 업무 시간을 절감했다”고 소개했다. AI 도입률은 높지만, 국내 기업의 70%는 여전히 챗봇이나 간단한 반복 업무 자동화와 같은 기초적인 수준의 AI 활용에 머무르고 있는 상황이다. AI를 다양한 업무 영역에 통합하는 중간 단계는 7%, 여러 AI 도구나 모델을 결합하여 복잡한 업무를 수행하거나 비즈니스 모델을 혁신하는 변혁적 단계는 11%에 불과했다. 본스토우 디렉터는 “기업들이 AI의 잠재력을 완전히 활용하기 위해 더 높은 단계로 나아가야 할 필요가 있다”고 짚었다. 본스토우 디렉터는 국내 기업의 AI 도입이 양극화되고, AI 혁신의 편차를 키울 수 있다고 전했다. 한국 스타트업의 70%가 AI를 확대하고 있는데 이는 유럽의 58%보다 높은 수치로, 국내 스타트업 생태계는 AI 도입에서 뚜렷한 강점을 보였다. 스타트업의 33%는 AI를 비즈니스 전략 및 운영의 핵심 요소로 두고 있으며, 32%는 가장 고도화된 방식으로 AI를 활용하고 있다. 또한, 21%는 AI 기반의 새로운 제품 및 서비스를 개발 중이다. 반면, 국내 대기업의 69%는 여전히 AI를 효율 개선, 업무 간소화 등 기초적인 수준에서만 활용하고 있는 것으로 나타났다. 대기업의 10%만이 AI 기반 신제품 또는 서비스 개발 단계에 진입했는데, 이는 스타트업의 절반 수준이다. 이번 조사에서는 AI 도입의 주요 장애 요인으로 기술 및 디지털 인재의 부족, 자금 접근성, 규제 환경 등이 꼽혔다. 조사 응답 기업의 43%가 디지털 인재를 확보하지 못해 AI 도입 또는 확산에 어려움을 겪고 있다고 응답했고, 지난 1년간 디지털 역량 교육에 참여한 직원은 약 34%였다. 67%의 기업은 정부의 지원 정책이 AI 도입 결정에 중요하다고 응답했으며, 45%의 스타트업은 벤처 자본 56 · 접근성이 성장을 위한 핵심 요소라고 평가했다. 그리고 국내 기업들은 기술 예산 가운데 평균 23%를 규제 준수 비용에 투입하고 있으며, 34%는 AI 기본법 등 관련 입법으로 인해 이 비용이 증가할 것으로 예상했다. 본스토우 디렉터는 “한국이 AI 부문에서 세계를 선도할 수 있는 인프라와 스타트업 생태계 그리고 강한 열정을 가지고 있음을 확인했다. 하지만 AI 활용의 깊이를 더해주는 변혁적인 활용으로 나아가지 못하고 있는 점과 인재 부족, 규제 불확실성 등의 장애 요인을 해결해야 AI를 미래의 성장 동력과 경쟁력의 원천으로 삼을 수 있을 것”이라고 평가했다. 그리고, 이를 위해 한국 정부가 ▲기술 인재에 대한 투자 ▲혁신 친화적이고 명확한 규제 환경 조성 ▲공공 부문의 기술 현대화 및 디지털 전환 추진 등에 관심을 기울일 것을 제안했다.   ▲ AWS 김선수 AI/ML 사업 개발 수석 스페셜리스트   기업의 생성형 AI 활용 문턱 낮춘다 AWS의 김선수 AI/ML 사업 개발 수석 스페셜리스트는 국내 기업들이 AI를 잘 활용할 수 있도록 돕는 AWS의 생성형 AI 기술 스택과 주요 서비스를 소개했다. 그는 “2023년이 생성형 AI 개념 검증(PoC)의 해였다면 2024년은 생산 적용, 2025년은 비즈니스 가치 실현의 해가 될 것”이라고 짚었다. 또한 복잡한 작업을 자율적으로 수행하는 에이전트 AI에 대한 관심이 커지고 있다면서, 가트너(Gartner)의 전망을 인용해 “2026년까지 기업의 80% 이상이 생성형 AI API(애플리케이션 프로그래밍 인터페이스)를 사용하거나 관련 기능이 탑재된 애플리케이션을 배포할 것”이라고 전망했다. AWS는 생성형 AI를 위한 기술 스택을 세 가지 계층으로 제공한다. 가장 아래쪽에는 GPU, AI 프로세서 등을 포함해 모델 훈련과 추론에 필요한 인프라 레이어가 있고, 중간에는 AI 모델에 연결하여 각 기업에 최적화된 생성형 AI 애플리케이션을 구현하도록 돕는 모델/도구 레이어, 가장 위쪽에는 복잡한 개발 없이 쉽고 빠르게 활용할 수 있는 생성형 AI 애플리케이션 레이어가 있다. 이 기술 스택의 핵심으로 AWS가 내세운 것이 아마존 베드록(Amazon Bedrock)이다. 베드록은 생성형 AI 애플리케이션을 쉽게 구축하고 확장할 수 있도록 지원하는 완전 관리형 서비스이다. 앤트로픽, 메타, 미스트랄 AI 등 12개가 넘는 AI 기업의 파운데이션 모델(FM)을 선택해 활용할 수 있다는 점이 특징이다. 아마존 베드록은 비용, 지연 시간, 정확도를 최적화할 뿐만 아니라 기업의 필요에 맞게 모델을 맞춤 설정하거나 유해 콘텐츠/프롬프트 공격 등을 필터링해 안전한 AI 활용 환경을 갖출 수 있도록 돕는다. 김선수 수석 스페셜리스트는 “베드록은 프롬프트 엔지니어링, 검색 증강 생성(RAG), 미세조정(파인 튜닝) 등 다양한 방식으로 모델을 활용할 수 있도록 지원한다. 특히 RAG 구현을 위한 지식 베이스 및 벡터 검색 기능을 기본으로 제공해, 기업의 내부 데이터를 안전하게 연결하고 관련성 높은 답변을 생성할 수 있다”고 전했다. 최근 생성형 AI는 어시스턴트(assistant)를 넘어 워크플로를 자동화하는 에이전트(agent)로 진화하고 있으며, 궁극적으로는 사람의 개입 없이 AI끼리 자율적으로 협업하는 에이전틱 AI(agentic AI) 시스템으로 나아갈 것으로 보인다. AWS는 생성형 AI 에이전트 구축을 위해 ▲아마존 Q 디벨로퍼(Amazon Q Developer)와 같이 사전 구축된 에이전트 제품 ▲아마존 베드록 에이전트(Amazon Bedrock Agents)와 같이 내장된 오케스트레이션을 제공하는 완전 관리형 설루션 ▲스트랜드 에이전트(Strands Agents)와 같은 경량 오픈소스 SDK(소프트웨어 개발 키트)를 활용해 직접 에이전트를 구축할 수 있는 제품 등을 선보이고 있다.    ▲ AWS는 AI 에이전트의 구축과 배포를 위해 다양한 기술을 제공한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
[온에어] HP Z북 울트라, AI 워크스테이션의 새로운 기준 제시
캐드앤그래픽스 지식방송 CNG TV 지상 중계   CNG TV는 7월 11일 ‘모바일에서 데스크톱 GPU 성능 구현이 가능한 HP 고성능 AI 워크스테이션 및 사용기 소개’를 주제로 웨비나를 개최했다. HP가 선보인 차세대 고성능 AI 모바일 워크스테이션 ‘Z북 울트라(ZBook Ultra)’는 데스크톱 수준의 그래픽 성능을 노트북에 구현했다. 웨비나에서는 HP코리아 차성호 이사와 감성놀이터 최석영 대표가 제품의 특징과 실제 활용 사례를 공개했다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲ 왼쪽부터 캐드앤그래픽스 박경수 이사, HP코리아 차성호 이사, 감성놀이터 최석영 대표   AI 시대를 위한 고성능 모바일 컴퓨팅의 해답 HP는 웨비나를 통해 고성능 모바일 AI 워크스테이션 ‘Z북 울트라’를 공개했다. 이번 신제품은 최대 96GB 그래픽 메모리, 55 TOPS MPU 성능, 총 125 TOPS 통합 성능을 구현해 데스크톱 수준의 AI 컴퓨팅 성능을 제공한다. 특히 ISV 인증을 획득해 산업 현장의 전문 소프트웨어와의 호환성을 확보했다. HP코리아 차성호 이사는 “AI 기술 확산에 따라 로컬 디바이스에서의 고성능 처리 수요가 증가하고 있으며, Z북 울트라는 모바일에서 이를 충분히 감당할 수 있는 제품”이라며, “워크플로 복잡성, 보안 이슈, 빠른 결과 요청 등 AI 시대의 업무 변화에 최적화된 성능과 안정성을 제공한다”고 말했다. Z북 울트라는 AMD의 라이젠 AI 프로세서(최대 16코어, 80MB 캐시)와 라데온 800M 시리즈 그래픽 유닛을 기반으로 설계되었다. DDR5X 메모리 아키텍처를 통해 CPU와 GPU가 최대 128GB를 공유하며, 이 중 최대 96GB를 그래픽 메모리로 할당할 수 있다. 이는 데스크톱 워크스테이션에서 고가의 그래픽 카드 두 개를 장착해야 가능한 성능에 맞먹는다. 또한 AI 컴패니언 앱을 탑재해 인터넷 없이도 요약, 번역, 질의 응답이 가능한 온디바이스 AI 기능을 제공하며, 듀얼 팬 및 증기 챔버 냉각 구조로 발열도 최소화했다.     AI 영상 제작자의 실사용 리뷰…“가볍고 빠르다” 감성놀이터 최석영 대표는 실제 제품을 활용한 AI 콘텐츠 제작 사례를 소개하며 “Z북 울트라는 이동성과 고성능을 동시에 갖춘 드문 워크스테이션”이라고 평가했다. 최석영 대표는 AI 기반의 이미지 생성, 언리얼 엔진을 활용한 시네마틱 영상 제작, 메타휴먼 캐릭터 작업 등에서 빠른 렌더링 속도와 끊김 없는 실시간 미리보기를 경험했다고 밝혔다. 특히 최 대표는 “기존에는 고성능 작업을 위해 데스크톱을 들고 다녔지만, Z북 울트라는 그 필요를 완전히 대체할 수 있었다”며 “AI 영화, 영상 편집, 3D 디자인, 리얼타임 엔진 기반 작업이 가능한 휴대형 워크스테이션으로, AI 콘텐츠 제작자들에게 강력히 추천하고 싶다”고 말했다. Z북 울트라는 고사양 GPU, 풍부한 메모리, 강력한 냉각 시스템, 온디바이스 AI 기능을 갖춘 전문가용 워크스테이션으로 AI 개발을 비롯해 3D 렌더링, 미디어 엔터테인먼트 산업의 모바일 업무 환경 혁신을 예고하고 있다. 데스크톱의 성능과 노트북의 휴대성을 동시에 요구하는 전문 작업자들에게 새로운 대안이 될 전망이다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
델, RTX 프로 블랙웰 탑재한 ‘델 프로 맥스’ 모바일 워크스테이션 신제품 공개
델 테크놀로지스가 AI 워크로드에서 높은 성능을 발휘하도록 만들어진 ‘델 프로 맥스(Dell Pro Max)’ 모바일 워크스테이션 신제품 6종을 공개했다. 올초 델은 새로운 통합 브랜딩 전략 하에 고성능 워크스테이션 제품군을 ‘델 프로 맥스(Dell Pro Max)’ 포트폴리오로 통합했다. 기존 브랜드인 ‘델 프리시전(Dell Precision)’을 계승한 델 프로 맥스는 엔비디아 RTX 프로 블랙웰 GPU(NVIDIA RTX PRO Blackwell Generation GPU) 기반의 높은 성능과 휴대성, 델 프로(Dell Pro)의 디자인을 적용한 통일감 있고 프로페셔널한 외관을 갖춰 AI 전문가, 개발자, 그래픽 디자이너, 엔지니어 등 전문 사용자의 효율과 만족도를 높인다. 이번에 발표한 신제품은 ▲강력한 성능과 휴대성, 디자인을 겸비한 최고급 모델인 델 프로 맥스 14∙16 프리미엄 ▲넓은 화면에 데스크톱 성능을 제공하는 메인스트림급 모델인 델 프로 맥스 16∙18 플러스 ▲가벼운 워크로드를 위한 엔트리급 모델인 델 프로 맥스 14∙16 등 총 6종이다.      디자인에 중점을 둔 최고급형 모델인 ‘델 프로 맥스 14 프리미엄(Dell Pro Max 14 Premium)’과 ‘델 프로 맥스 16 프리미엄(Dell Pro Max 16 Premium)’은 휴대성과 감각적인 디자인, 높은 성능의 조화를 추구했다. CNC 알루미늄을 적용해 슬림하고 견고한 폼팩터를 완성했고, 키캡 사이 간격을 최소화한 제로 래티스 키보드를 적용해 세련된 느낌을 더했다. 엔비디아 RTX 프로 3000 블랙웰 GPU와 인텔 코어 울트라 9 285H 프로세서(45W)를 탑재해 이전 세대 대비 각각 19%, 23% 높은 그래픽 성능을 구현하여 영상 편집이나 데이터 분석을 더욱 원활하게 수행할 수 있다. 베사(VESA) DisplayHDR 트루블랙 1000 인증을 획득하고 4K 탠덤 OLED 디스플레이를 옵션으로 제공해 어두운 색상을 한 층 깊게 구현하는 등 크리에이티브 또는 엔지니어링 프로젝트에 필요한 전문적인 성능을 발휘한다. 복잡하거나 데이터 집약적인 작업을 수행할 때 데스크톱 수준의 성능을 제공하는 ‘델 프로 맥스 16 플러스(Dell Pro Max 16 Plus)’와 ‘델 프로 맥스 18 플러스(Dell Pro Max 18 Plus)’는 각각 16, 18형의 넓은 화면 공간에서 멀티태스킹, 창의적 디자인, 심층 분석 워크로드 등을 넉넉히 지원한다. 엔비디아 RTX 프로 5000 블랙웰 GPU 및 인텔 코어 울트라 9 285HX 프로세서(55W)를 탑재하고, 최대 256GB의 메모리 및 16TB까지 확장할 수 있는 듀얼 스토리지를 갖췄다. 이 제품들은 이전 세대 대비 각각 53%, 44% 높은 그래픽 성능을 구현하여 AI 모델링 및 훈련부터 복잡한 시뮬레이션, 대규모 데이터 분석까지 컴퓨팅 집약적인 프로젝트를 효과적으로 실행할 수 있다. 특히, 델 프로 맥스 플러스 제품군은 새롭게 특허 받은 방열 설계 방식을 통해 고집약적 워크로드를 실행할 때도 온도를 낮게 유지하면서 전체 성능을 최대 36%까지 향상시킨다. 또한, 점점 더 복잡해지는 워크로드에 대비해 CAMM2 메모리를 새로 탑재했다. 비교적 가볍고 일상적인 워크로드에 초점을 맞춘 ‘델 프로 맥스 14(Dell Pro Max 14)’와 ‘델 프로 맥스 16(Dell Pro Max 16)’은 최대 QHD+ 해상도와 16:10 화면비를 지원하는 14, 16형 디스플레이를 탑재했다. 사용자의 니즈에 따라 인텔 또는 AMD 프로세서를 선택할 수 있으며, AMD 라이젠 AI 프로세서를 탑재한 제품은 델 프로 맥스 라인업 중 50 TOPS 이상의 단독 NPU 연산 성능을 구현한 최초의 코파일럿 플러스(Copilot+) PC다. 인텔 프로세서 기반의 제품은 최대 인텔 코어 울트라 9 285H 프로세서와 엔비디아 RTX 프로 2000 블랙웰 외장 GPU를 탑재해 이전 세대 대비 각각 36%, 33% 더 강력한 성능을 구현한다. 각각 최대 18시간, 20시간의 긴 배터리 수명을 제공해 전원에 연결하지 않고 디자인 애플리케이션 실행, 대규모 엑셀 파일 처리, 2D/3D 모델 생성 등의 멀티태스킹을 해야 하는 사용자에게 적합한 제품이다. 이번 신제품들은 기업용 PC를 위한 강력한 보안 기능을 갖춰 로컬 디바이스에서 구동하는 AI 워크로드를 효과적으로 보호한다. 또한 델 고유의 지속가능성의 가치를 반영해 재생 플라스틱(PCR), 바이오 플라스틱(bio-based plastic), 재활용∙저탄소 알루미늄 등 친환경 소재로 제작되었으며, 분리 가능한 모듈형 USB-C 포트를 탑재하여 내구성과 수리용이성을 높였다. 특히, 델 프로 맥스 플러스 제품의 경우 사용자가 보다 손쉽게 부품을 교체할 수 있도록 제품 밑면을 쉽게 여닫을 수 있도록 설계했다.  한국 델 테크놀로지스 김경진 총괄사장은 “델 프로 맥스 모바일 워크스테이션은 강력한 성능, 휴대성, 최첨단 디자인은 물론, 고급 보안과 관리 기능까지 갖춘 최상의 커머셜 AI PC이다. 델은 세계 1위 워크스테이션 제조업체로서 확보한 높은 신뢰를 바탕으로 독보적이고 차별화된 설계와 디자인을 제공하는데 집중하고 있다. 파워 유저, 엔지니어, 크리에이터 및 AI 개발자들은 델 프로 맥스를 통해 가장 까다로운 AI 워크플로를 원활히 처리할 뿐만 아니라, 한 차원 높은 성능과 창의성을 새롭게 경험하게 될 것”이라고 말했다.
작성일 : 2025-07-24