• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "추론"에 대한 통합 검색 내용이 419개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 정식 출시
IBM은 자사의 메인프레임 시스템 IBM z17 및 IBM 리눅스원 5(IBM LinuxONE 5)에 적용 가능한 인공지능(AI) 가속기 ‘스파이어 엑셀러레이터(Spyre Accelerator)’를 정식 출시한다고 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며, 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계되었다. 12월 초부터는 파워11(Power11) 서버용 제품도 제공될 예정이다. 오늘날 IT 환경은 기존의 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 전환되고 있으며, AI 에이전트는 저지연(low-latency) 추론과 실시간 시스템 반응성을 요구한다. 기업은 처리량의 저하없이 가장 까다로운 엔터프라이즈 업무와 AI 모델을 동시에 처리할 수 있는 메인프레임과 서버 인프라를 필요로 한다. IBM은 이러한 수요에 대응하기 위해서 생성형 및 에이전트 기반 AI를 지원하면서도 핵심 데이터, 거래, 애플리케이션의 보안과 복원력을 유지할 수 있는 AI 추론 전용 하드웨어가 필수적이라고 판단했다. 스파이어 엑셀러레이터는 기업이 중요한 데이터를 사내 시스템(온프레미스, on-premise) 내에서 안전하게 관리할 수 있도록 설계되었으며, 운영 효율성과 에너지 절감 효과도 함께 제공한다.     스파이어 엑셀러레이터는 IBM 리서치 AI 하드웨어 센터의 혁신 기술과 IBM 인프라 사업부의 개발 역량이 결합된 결과물이다. 시제품으로 개발된 이후 IBM 요크타운 하이츠 연구소의 클러스터 구축과 올버니대학교 산하 ‘신흥 인공지능 시스템 센터(Center for Emerging Artificial Intelligence Systems)’와의 협업을 통해 빠른 반복 개발 과정을 거쳐 완성도를 높였다. 이렇게 기술적 완성도를 높여 온 시제품 칩은 현재는 IBM Z, 리눅스원, 파워 시스템에 적용 가능한 기업용 제품으로 진화했다. 현재 스파이어 엑셀러레이터는 32개의 개별 가속 코어와 256억 개의 트랜지스터를 탑재한 상용 시스템온칩(SoC, system-on-a-chip) 형태로 완성되었다. 5나노미터 공정 기술을 기반으로 제작된 각 제품은 75와트(Watt) PCIe 카드에 장착되며, IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. IBM 고객들은 스파이어 엑셀러레이터를 통해 빠르고 안전한 처리 성능과 사내 시스템 기반의 AI 가속 기능을 활용할 수 있다. 이는 기업이 IBM Z, 리눅스원, 파워 시스템 상에서 데이터를 안전하게 유지하면서도 AI를 대규모로 적용할 수 있게 되었음을 의미한다. 특히, IBM Z 및 리눅스원 시스템에서는 텔럼 II(Telum II) 프로세서와 함께 사용되어 보안성, 저지연성, 높은 거래 처리 성능을 제공한다. 이를 통해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에 다중 AI 모델을 적용할 수 있다. IBM 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 기업 업무 흐름에 맞춘 종합적인 AI 활용이 가능하다. 고객은 해당 서비스를 한 번의 클릭으로 설치할 수 있으며, 온칩 가속기(MMA)와 결합된 파워용 스파이어 엑셀러레이터는 생성형 AI를 위한 데이터 변환을 가속화해 심층적인 프로세스 통합을 위한 높은 처리량을 제공한다. 또한 128개 토큰 길이의 프롬프트 입력을 지원하며, 이를 통해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. 이러한 성능은 IBM의 소프트웨어 스택, 보안성, 확장성, 에너지 효율성과 결합되어, 기업이 생성형 AI 프레임워크를 기존 업무에 통합해 나가는 여정을 효과적으로 지원한다. IBM 인프라 사업부 최고운영책임자(COO)이자 시스템즈 사업부 총괄 배리 베이커(Barry Baker) 사장은 “스파이어 엑셀러레이터를 통해 IBM 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다. 이 기술 혁신은 고객이 AI 기반 핵심 업무를 보안성과 복원력, 효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다”고 말했다. IBM 반도체 및 하이브리드 클라우드 부문 무케시 카레(Mukesh Khare) 부사장은 “IBM은 2019년 AI 리서치 하드웨어 센터를 설립해, 생성형 AI와 대규모 언어 모델(LLM)이 본격적으로 확산되기 이전부터 AI의 연산 수요 증가에 대응해 왔다. 최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데, 해당 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다”면서, “이번 스파이어 칩의 정식 출시로 IBM 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 되었다”고 설명했다.
작성일 : 2025-10-28
레노버, 엔비디아 그레이스 블랙웰 슈퍼칩 탑재한 AI 워크스테이션 ‘씽크스테이션 PGX’ 출시
한국레노버가 엔비디아 GB10 그레이스 블랙웰 슈퍼칩을 탑재한 컴팩트한 AI 워크스테이션 ‘씽크스테이션 PGX(ThinkStation PGX)’를 출시했다. 새롭게 선보인 씽크스테이션 PGX는 AI 연구자, 개발자, 데이터 과학자, 엔지니어 등을 위한 전문 AI 워크스테이션이다. 최대 1페타플롭(1000 TOPS) AI 연산 성능을 제공하며 최대 2000억 개 파라미터를 가진 대규모 생성형 AI 모델을 처리할 수 있다. 128GB 통합 시스템 메모리를 탑재해 사용자는 최신 추론 AI 모델을 실험하고, 미세 조정 및 추론 작업을 원활하게 수행할 수 있다. 두 대의 시스템을 연결하면 최대 4050억 개 파라미터를 가진 더 큰 AI 모델까지 처리 가능하다. 1.13리터의 사이즈와 최소 1.2kg의 무게로 공간 활용성을 높였다.     씽크스테이션 PGX는 엔비디아 DGX OS와 엔비디아 AI 소프트웨어 스택은 물론, 파이토치(PyTorch), 주피터(Jupyter) 등 개발자에게 익숙한 도구와 프레임워크가 사전 구성되어 있다. 이를 통해 개발자는 데스크톱 환경에서 대규모 AI 모델을 즉시 프로토타이핑하고, 미세 조정 및 추론 과정을 거쳐 데이터센터나 클라우드로 손쉽게 배포할 수 있다. 생성형 AI 모델의 규모와 복잡성이 급격히 증가함에 따라 로컬 환경에서의 개발은 점점 더 많은 제약에 직면하고 있다. 대규모 모델의 프로토타이핑, 튜닝, 추론에는 방대한 GPU 메모리와 연산 성능이 요구된다. 씽크스테이션 PGX는 이러한 한계를 극복하고 AI 애플리케이션 프로토타이핑을 위한 강력하면서도 경제적인 플랫폼을 제공한다. 이에 따라 개발자는 AI 온프레미스 클러스터나 클라우드 컴퓨팅 환경의 리소스를 한층 효율적으로 활용할 수 있다. 또한 씽크스테이션 PGX 사용자는 엔비디아 AI 플랫폼 소프트웨어 아키텍처를 기반으로 코드를 거의 수정하지 않고도 데스크톱 환경에서 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 이전 가능하다. 이를 통해 프로토타이핑, 미세 조정, 반복 등 개발 작업을 손쉽게 수행할 수 있다. 한국레노버의 신규식 대표는 “생성형 AI 시대를 맞아 기업과 연구기관의 AI 개발 역량이 핵심 경쟁력으로 부상하고 있다”며, “고성능이면서도 컴팩트한 씽크스테이션 PGX는 전문가들이 클라우드 인프라의 복잡성과 비용 부담 없이 확장 가능한 AI 기능을 구현할 수 있는 최적의 설루션”이라고 말했다. 이어 “레노버는 워크스테이션 포트폴리오를 지속적으로 확장해 전문가들이 생성형 AI 혁신을 가속화하고 채택할 수 있도록 적극 지원할 것”이라고 덧붙였다.
작성일 : 2025-10-27
가트너, 2026년부터 주목해야 할 10대 AI 전망 발표
가트너가 2026년부터 주목해야 할 최우선 AI 전략 전망 10가지를 발표했다. 이 전망은 ▲AI 시대의 인재 ▲AI 주권 ▲인시디어스 AI(Insidious AI) 등 세 가지 핵심 트렌드로 분류된다. 가트너는 2027년까지 생성형 AI와 AI 에이전트의 사용이 지난 30년간 생산성 도구 시장에 발생한 가장 큰 도전 과제가 될 것이며, 580억 달러 규모의 시장 재편을 촉발할 것이라고 전망했다. 생성형 AI의 발전에 따라 기업은 업무 효율을 높이기 위해 생성형 AI 혁신을 우선순위에 둘 것으로 보인다. 과거의 형식과 호환성은 중요성이 낮아져, 진입 장벽은 낮아지고 다양한 공급업체 간의 새로운 경쟁이 촉발될 것으로 전망된다. 일상적 생성형 AI의 비용 구조와 패키징은 시간이 지나면서 변화할 것으로 보인다. 업체들은 유료 기능을 무료로 전환하고, 무료 제품을 더 넓은 사용자층에 적합하도록 만들 것이다. 2027년까지 기업 채용 과정의 75%가 모집 단계에서 업무용 AI 역량 인증 및 테스트를 포함하게 될 것으로 예상된다. 기업은 표준화된 프레임워크와 맞춤형 설문조사를 통해 지원자의 AI 활용 능력을 진단하고, 인력 내 기술 격차를 해소할 수 있을 것이다. 이러한 추세는 정보 수집, 보존, 종합이 핵심인 직종에서 특히 두드러질 것이다. 생성형 AI 역량이 급여와 점점 더 밀접하게 연계됨에 따라, 지원자들은 AI 역량 개발에 더 큰 가치를 두게 될 것이다. 이에 따라 문제 해결, 생산성 향상, 합리적 의사결정 능력을 입증하는 것이 필수 요건으로 부상할 것으로 예상된다. 한편, 가트너는 2026년까지 생성형 AI 사용으로 인한 비판적 사고력 저하로 전 세계 기업의 50%가 채용 과정에서 ‘AI 프리(AI Free)’ 능력 평가를 요구할 것으로 보았다. 기업이 생성형 AI 활용을 확대함에 따라, 채용 절차는 독립적 사고 능력을 갖춘 지원자와 AI가 생성한 결과물에 지나치게 의존하는 지원자를 구분하는 방향으로 변화할 것으로 보인다. 모집 과정에서는 AI 도움 없이 문제 해결, 증거 평가 및 판단 능력을 입증하는 역량이 점점 더 중요한 평가 기준이 될 것이다. 인간의 추론 능력을 별도로 평가하기 위한 전문 테스트 방법과 플랫폼이 등장하면서, AI 프리 평가 도구 및 서비스에 대한 2차 시장이 형성될 가능성도 높다. 2027년까지 전 세계 국가의 35%가 고유한 컨텍스트 데이터를 활용하는 지역 특화 AI 플랫폼에 고착될 전망이다. 기술적, 지정학적 요인으로 인해, 기업들은 엄격한 규제, 언어적 다양성, 문화적 적합성에 대응하기 위해 AI 설루션을 특성화할 수밖에 없으며, 그 결과 AI 환경은 파편화될 것으로 보인다. 지역 간 차이가 증가됨에 따라 범용 AI 설루션은 점차 사라질 것으로 예상된다. 다국적 기업은 글로벌 시장에 통합형 AI를 배포함에 있어 복잡한 과제에 직면하게 될 것이며, 고유한 규제 준수와 데이터 거버넌스 요구 조건을 가진 다양한 플랫폼 파트너십을 관리해야 할 것이다. 가트너는 2028년까지 고객 대면 비즈니스 프로세스의 80%에 다중 에이전트 AI를 활용하는 기업이 시장을 장악할 것으로 보았다. 고객관계관리(CRM) AI가 일상적인 업무를 처리하고, 인간은 복잡하고 감정적 요소가 중요한 상호작용에 집중하는 하이브리드 AI 모델이 업계 표준으로 자리 잡을 것이다. 고객은 계속해서 거래 실행이나 제품 정보 확인에는 AI 지원 완전 셀프서비스를 선호하는 반면, 복잡한 문제 해결이나 청구 분쟁 등에서는 인간을 선호할 것이다. 최소한의 노력과 신속한 서비스에 대한 고객의 기대가 일반화되면서, CRM 프로세스에 다중 에이전트 AI를 도입하지 못한 기업은 경쟁 우위를 상실할 위험이 있다. 한편, 2028년에는 B2B 구매의 90%가 AI 에이전트를 통해 이루어지며, AI 에이전트 거래로 15조 달러 이상의 B2B 지출이 발생할 것으로 보인다. 새로운 생태계에서 검증 가능한 운영 데이터는 화폐처럼 작용하며, 디지털 신뢰 프레임워크와 검증 가능성을 필수 전제로 하는 데이터 기반 경제를 촉진할 것이다. 컴포저블 마이크로서비스, API 우선, 클라우드 네이티브, 헤드리스 아키텍처로 설계된 제품은 상당한 경쟁 우위를 확보할 것이다. AI 위험 예방책 부족으로 인한 ‘AI발 사고’ 관련 소송은 2026년까지 1000건을 돌파할 전망이다. AI 관련 안전 관리 실패로 인한 사고와 피해 사례가 증가함에 따라 규제 기관의 감시 및 통제 강화, 리콜, 법 집행 기관의 개입, 소송 비용 증가가 예상된다. 규제 감독이 강화되면서 조직은 법적 의무 준수를 넘어, AI 위험 예방책을 활용해 비즈니스 시스템의 안전성과 투명성을 최우선 과제로 삼아야 하는 압박에 직면하게 될 것이다. AI 사용과 의사결정 거버넌스 실패의 영향은 지역별 법적·규제 체계의 차이에 따라 달라지며, 이는 조직이 다양한 위험과 책임에 노출될 수 있음을 의미한다. 또한, 2030년에는 금전거래의 22%가 이용 약관을 내장한 형태로 프로그래밍할 수 있게 되어 AI 에이전트에게 경제적 주체성을 부여할 것으로 보인다. 프로그래머블 머니는 M2M(Machine-To-Machine) 협상, 자동화된 상거래, 시장 탐색, 데이터 자산 수익화를 가능하게 함으로써 새로운 비즈니스 모델을 창출하고, 공급망 관리와 금융 서비스와 같은 산업을 근본적으로 재편하고 있다. 실시간으로 프로그래밍 가능한 거래는 마찰 감소, 유동성 향상, 운영 비용 절감을 통해 효율성을 높이고, 궁극적으로 자율 비즈니스 운영의 부상을 뒷받침할 것이다. 그러나 프로그래머블 머니 플랫폼과 블록체인 인프라 간의 파편화된 기준과 상호운용성 부족은 시장의 성장을 저해하고, AI 에이전트와 기계 고객이 완전한 경제 주체로 기능하는 것을 제한할 것이다. 2027년까지 프로세스 중심 서비스 계약의 비용 대비 가치 격차는 에이전트 AI 재설계를 통해 적어도 50% 감소할 것으로 전망됐다. AI 에이전트는 숨겨진 지식을 발견하도록 진화하며, 이러한 지식과의 상호작용 자체가 프로세스의 핵심이 될 것이다. AI 에이전트가 활용하는 숨겨진 지식은 새로운 가치 자산으로 이어질 것으로 예상된다. 한편, 표준화된 워크플로가 문맥적 오케스트레이션으로 대체됨에 따라 지속적인 혁신 기반 가격 책정은 인건비에 의해 제한되지 않을 것이다. 가트너는 2027년까지 파편화된 AI 규제가 전 세계 경제의 50%로 확산하며, 50억 달러 규모의 규정 준수 투자를 일으키게 될 것으로 보았다. 2024년에만 1000건 이상의 AI 관련 법률이 제안됐지만, 어떤 법률도 AI를 일관되게 정의하지 못하고 있다. AI 거버넌스는 혁신을 촉진하는 동시에 장벽으로 작용할 수 있다. 기술의 잠재력을 터뜨리는 것은 AI 사용 능력이다. 안전한 미래를 위해 기업들은 기술 담당 리더들에게 항구적인 ‘법률 및 규제’ 마인드맵 구축을 요구하게 될 것이다. 한편 보안과는 별개로, 새로운 형태로 등장하고 진화하는 AI의 위험을 관리하기 위해 전담 인력과 전문 소프트웨어를 갖춘 AI 거버넌스 프로그램이 표준으로 자리잡게 될 것이다. 가트너의 다릴 플러머(Daryl Plummer) 수석 VP 애널리스트는 “급격한 기술 변화가 가져오는 위험과 기회는 인간의 행동과 선택에 점점 더 큰 영향을 미치고 있다”면서, “기업의 CIO와 경영진은 미래에 대비하기 위해 기술 변화뿐만 아니라 행동 양식 변화 또한 최우선 과제로 삼아야 한다”고 말했다.
작성일 : 2025-10-23
어도비, B2B 기업용 AI 에이전트로 마케팅 및 고객 경험 혁신 지원
어도비가 B2B 업계의 고객 경험 혁신을 지원하는 AI 에이전트를 발표했다. 이번 발표는 B2B 업계의 길고 복잡한 구매 사이클을 단순화해 비즈니스를 지원하는 데 초점을 맞추고 있다. 어도비의 B2B 전용 AI 에이전트 제품군은 마케팅 및 영업 팀이 보다 신속하고 효과적으로 의사결정권자를 공략할 수 있도록 지원한다. 어도비는 “시스코를 비롯한 주요 B2B 브랜드가 이미 어도비의 B2B 에이전트를 도입해 영업 및 마케팅 조직 전반의 워크플로를 고도화하고 있다”고 소개했다. 어도비 익스피리언스 플랫폼 에이전트 오케스트레이터(Adobe Experience Platform Agent Orchestrator)를 기반으로 하는 어도비의 AI 에이전트는 추론과 다중 에이전트 간 협업을 통해 고객 경험 조율을 돕는다. 어도비의 특화 에이전트는 어도비 저니 옵티마이저 B2B 에디션(Adobe Journey Optimizer B2B Edition), 어도비 커스터머 저니 애널리틱스 B2B 에디션(Adobe Customer Journey Analytics B2B Edition) 등 업계를 선도하는 엔터프라이즈 애플리케이션 내에서 직접 사용할 수 있다. 이러한 애플리케이션을 통해 마케팅 및 영업 팀은 대규모 개인화 경험을 제공할 수 있다.     어도비는 현재 사용 가능한 B2B 워크플로용 어도비 AI 에이전트도 소개했다. 저니 옵티마이저 B2B 에디션의 ‘오디언스 에이전트(Audience Agent)’는 CRM 프로필, 마케팅 활동, 웹 콘텐츠와 같은 정형, 비정형 및 자사 데이터를 분석해 마케터가 목표에 적합한 타깃 고객을 파악할 수 있도록 인사이트를 제공한다. 또한 구매 그룹 페르소나를 파악하고 자사 데이터를 기반으로 구매 그룹 구성원을 추천할 수 있다. 이렇게 도출된 인사이트를 바탕으로 에이전트는 특정 제품군에 대한 고가치 구매 그룹을 설정하며, 이를 옴니채널 여정 전반에 활용해 수요 창출을 보다 효과적으로 지원한다. 저니 옵티마이저 B2B 에디션의 ‘저니 에이전트(Journey Agent)’는 이메일, 웹, 모바일 등 다양한 채널에 걸쳐 고객 여정과 캠페인의 생성 및 조율을 간소화한다. 이 에이전트는 목표에 맞춰 여정을 생성한다. 이후 고객 이탈률 등 다양한 요소를 분석해 고객 접점을 최적화하고, 이를 통해 인사이트를 도출해 고객과의 상호작용을 개선한다. 커스터머 저니 애널리틱스 B2B 에디션의 ‘데이터 인사이트 에이전트(Data Insights Agent)’는 크로스채널 데이터를 기반으로 기업 고객 및 구매 그룹에 대한 인사이트 도출 과정을 단순화하고 확장한다. 이 에이전트는 대화형 경험을 통해 제공되며 마케팅, 영업, 제품 팀 등 보다 넓은 범위의 구성원이 고객 경험 이니셔티브를 시각화하고, 예측하며, 개선할 수 있도록 돕는다. 또한 ‘어카운트 퀄리피케이션 에이전트(Account Qualification Agent)’도 어도비 저니 옵티마이저 B2B 에디션(Adobe Journey Optimizer B2B Edition)에서 조만간 선보일 예정이다. 이를 통해 비즈니스 개발 담당자는 고객 참여 및 자격 검증을 대폭 가속화할 수 있다. 이 에이전트는 잠재 고객의 니즈, 예산, 권한, 일정 등을 평가해 유효한 영업 기회인지 판단하는 동시에, 해당 기업 고객에 대한 인사이트 요약을 담당자에게 제공한다. 조사, 문의, 분석에 걸친 프로세스 자동화를 통해 더 빠르고 매끄러운 워크플로를 생성할 수 있다. 한편, 어도비는 고객의 일상적인 검색 경험을 고도로 개인화된 맞춤형 대화 경험으로 전환할 수 있는 AI 퍼스트 애플리케이션 브랜드 컨시어지(Brand Concierge)도 곧 출시한다. 브랜드 컨시어지는 고객 참여를 지원하고 제품 탐색을 통해 고객 여정을 가속화함으로써 개인별 선호에 맞춘 상호작용을 제공하는 프로덕트 어드바이저 에이전트(Product Advisor Agent)가 포함되어 있다. 이 에이전트는 텍스트, 음성, 이미지 등 멀티 모달을 지원하며, AI 기반의 추천과 비교도 제공한다.
작성일 : 2025-10-23
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
Arm, 향상된 AI 경험 제공 위해 메타와 전략적 파트너십 강화
Arm은 메타(Meta)와 AI 소프트웨어부터 데이터센터 인프라에 이르는 컴퓨팅의 전 영역에서 AI 효율성을 확장하기 위해 전략적 파트너십을 강화했다고 밝혔다. 양사는 이번 협력을 통해 전 세계 수십억 명의 사용자에게 한층 향상된 AI 경험을 제공할 계획이다. 온디바이스 인텔리전스를 지원하는 밀리와트급 저전력 디바이스부터 최첨단 AI 모델 학습을 담당하는 메가와트급 대규모 시스템까지, 메타의 글로벌 플랫폼을 구동하는 전 영역의 컴퓨팅 환경에서 AI 성능을 최적화하겠다는 것이다. 이번 전략적 파트너십 강화는 양사가 다년간 지속해온 하드웨어 및 소프트웨어 공동 설계 협력을 기반으로 한다. Arm의 전력 효율적 AI 컴퓨팅 기술력과 메타의 AI 제품, 인프라, 오픈소스 기술 혁신을 결합해 성능과 효율성을 대폭 향상시키는 것을 목표로 한다. 페이스북과 인스타그램 등 메타 앱 제품군 전반의 검색 및 개인화를 지원하는 메타의 AI 기반 순위 및 추천 시스템은 x86 시스템 대비 고성능, 저전력 소비를 제공하기 위해 Arm 네오버스(Neoverse) 기반 데이터센터 플랫폼을 활용할 예정이다. 네오버스는 메타가 인프라 전반에 걸쳐 전력 대비 성능 효율을 달성할 수 있도록 지원하며, 하이퍼스케일 환경에서 Arm 컴퓨팅의 효율과 확장성을 강화한다. 양사는 컴파일러와 라이브러리부터 주요 AI 프레임워크에 이르기까지 메타의 AI 인프라 소프트웨어 스택을 Arm 아키텍처에 최적화하기 위해 긴밀히 협력했다. 여기에는 Facebook GENeral Matrix Multiplication(FBGEMM) 및 파이토치(PyTorch)와 같은 오픈소스 구성 요소의 공통 튜닝을 포함되며, Arm의 벡터 확장 기능과 성능 라이브러리를 활용해 추론 효율과 처리량에서 측정 가능한 향상을 이뤘다. 이러한 최적화는 오픈 소스 커뮤니티에 제공되어 글로벌 AI 에코시스템 전반에 영향력을 확대하고 있다. 이번 파트너십은 파이토치 머신러닝 프레임워크, ExecuTorch 엣지 추론 런타임 엔진, vLLM 데이터센터 추론 엔진 전반에 걸쳐 AI 소프트웨어 최적화를 한층 강화한다. 특히 Arm KlediAi로 최적화된 ExecuTorch 기반을 고도화해 수십억 대의 기기에서 효율성을 높이고, 모델 배포를 더욱 간소화함으로써 에지에서 클라우드까지 AI 애플리케이션 성능을 가속화할 예정이다. 이러한 오픈소스 기술 프로젝트는 메타 AI 전략의 핵심으로, 추천 시스템부터 대화형 인텔리전스에 이르기까지 다양한 AI 개발과 배포를 가능하게 한다. 양사는 앞으로도 오픈소스 프로젝트에 대한 최적화를 지속 확장해 전 세계 수백만명의 개발자가 Arm 기반 환경에서 더욱 효율적인 AI를 구축하고 배포할 수 있도록 지원할 계획이다. 메타의 산토시 야나르단(Santosh Janardhan) 인프라 부문 대표는 “플랫폼 경험부터 우리가 만드는 디바이스에 이르기까지, AI는 사람들이 연결하고 창조하는 방식을 변화시키고 있다”면서, “Arm과의 파트너십을 통해 메타 애플리케이션 및 기술을 사용하는 30억 명이 넘는 사용자에게 혁신을 효율적으로 제공할 수 있게 됐다”고 밝혔다. Arm의 르네 하스(Rene Haas) CEO는 “차세대 AI 시대는 대규모 효율성을 실현하는 것이 핵심이 될 것”이라며, “메타와의 협력을 통해 Arm의 전력대비 성능 우위와 메타의 AI 혁신 역량을 결합해 밀리와트급부터 메가와트급까지 모든 영역에서 더욱 스마트하고 효율적인 인텔리전스를 구현할 것”이라고 말했다.
작성일 : 2025-10-17
인텔, 추론 최적화 데이터센터용 GPU 신제품 발표
인텔은 2025 OCP 글로벌 서밋에서, 자사 AI 가속기 포트폴리오에 추가되는 주요 제품인 인텔 데이터센터용 GPU 신제품 코드명 ‘크레센트 아일랜드(Crescent Island)’를 발표했다. 이 GPU는 증가하는 AI 추론 워크로드 수요를 충족하도록 설계되었으며, 고용량 메모리·에너지 효율적인 성능을 제공한다. 추론이 주요한 AI(인공지능) 워크로드로 자리잡으며, 강력한 칩 이상의 요소, 즉 시스템 차원의 혁신이 성공을 가늠하는 주요 요소가 되었다. 하드웨어부터 오케스트레이션까지, 추론은 다양한 컴퓨팅 유형을 개발자 중심의 개방형 소프트웨어 스택과 통합하는 워크로드 중심의 개방형 접근 방식을 필요로 하며, 이러한 접근 방식은 배포 및 확장이 용이한 시스템으로 제공된다. 인텔은 “인텔 제온 6 프로세서, 인텔 GPU를 기반으로 구축한 설루션을 통해 AI PC부터 데이터 센터, 산업용 에지까지 엔드 투 엔드 설루션을 제공할 수 있는 입지를 갖추고 있다”면서, “성능, 에너지 효율성, 개발자 연속성을 위한 시스템 공동 설계 및 OCP(Open Compute Project)와 같은 커뮤니티와의 협력을 통해 AI 추론이 가장 필요한 모든 곳에서 실행될 수 있도록 지원하고 있다”고 전했다. 코드명 크레센트 아일랜드로 명명된 새로운 데이터센터 GPU는 공랭식 엔터프라이즈 서버에 맞춰 전력 및 비용 최적화를 이루었으며, 추론용 워크플로에 최적화된 대용량 메모리 및 대역폭을 제공하도록 설계되었다. 와트당 성능(PPW)이 최적화된 Xe3P 마이크로아키텍처에 기반을 둔 크레센트 아일랜드 GPU는 160GB의 LPDDR5X 메모리를 탑재했다. 또한 ‘서비스형 토큰(Token-as-a-Service)’ 공급업체 및 추론 사용 사례에 적합한 광범위한 데이터 유형을 지원한다. 인텔의 이기종 AI 시스템을 위한 개방형 통합 소프트웨어 스택은 조기 최적화 및 이터레이션(iteration) 작업이 가능하도록 현재 아크 프로 B(Arc Pro B) 시리즈 GPU에서 개발 및 테스트 중이다. 새로운 데이터센터용 GPU의 고객 샘플링은 2026년 하반기에 제공될 예정이다. 인텔의 사친 카티(Sachin Katti) 최고기술책임자(CTO)는 “인공지능은 정적 학습에서 에이전트형 AI가 주도하는 실시간·전역 추론으로 전환되고 있다”면서, “이러한 복잡한 워크로드를 확장하려면 적절한 실리콘을 적절한 작업에 매칭하는 이종 시스템이 필요하다. 인텔의 Xe 아키텍처 데이터센터 GPU는 토큰 처리량이 급증함에 따라 고객이 필요로 하는 효율적인 헤드룸 성능과 더 큰 가치를 제공할 것”이라고 밝혔다. 
작성일 : 2025-10-15
델, 책상 위의 AI 시스템 ‘델 프로 맥스 위드 GB10’ 출시
델 테크놀로지스가 네트워크 연결 없이 데스크 환경에서 최대 2000억개 매개변수의 LLM(대규모 언어 모델)을 지원하는 AI 시스템 ‘델 프로 맥스 위드 GB10(Dell Pro Max with GB10)’을 출시한다고 밝혔다.  최근 생성형 AI의 패러다임이 인간의 개입 없이 여러 AI가 협력하고 자율적으로 의사결정을 내리는 ‘에이전틱 AI’로 전환되고 있다. AI 성능 향상을 위한 매개변수 증가와 멀티모달 AI 모델 개발이 가속화됨에 따라, AI 워크로드를 안전하고 비용 효율적으로 빠르게 처리할 수 있는 로컬 컴퓨팅 환경의 중요성이 커지고 있다. 새롭게 발표된 델 프로 맥스 위드 GB10은 엔비디아 GB10 그레이스 블랙웰(NVIDIA GB10 Grace Blackwell) 슈퍼칩을 탑재해 AI 개발을 위한 고성능을 제공한다. 최대 2000억개 매개변수의 LLM을 로컬 환경에서 직접 프로토타이핑, 미세조정, 추론까지 할 수 있다는 것이 특징이다. GB10 슈퍼칩은 20코어의 고성능 Arm 아키텍처를 탑재한 그레이스 CPU와 블랙웰 GPU를 결합해 최대 1페타플롭(1초당 1000조번 연산 처리)의 AI 연산 성능을 제공한다.     이 제품은 128GB LPDDR5x 통합 시스템 메모리를 제공하며, 2TB 및 4TB NVMe SSD 옵션을 선택할 수 있어 방대한 데이터 처리와 복잡한 AI 워크로드를 원활히 운영할 수 있다. 또한, TPM 2.0 보안과 안전한 샌드박스 환경 구축을 통해 중요한 기업 데이터를 안전하게 보호할 수 있다.  우분투 리눅스 기반의 엔비디아 DGX OS 및 AI 소프트웨어 스택을 탑재해 AI 개발자가 데스크톱과 데이터센터 환경을 자유롭게 넘나들며 워크로드를 구현할 수 있는 것 또한 특징이다. 초저지연 네트워킹을 지원하는 엔비디아 커넥트X-7(ConnectX-7)으로 델 프로 맥스 위드 GB10 두 대를 연결하면 최대 4000억 개 매개변수 모델도 원활히 처리 가능하다. 또한 ‘엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)’를 기반으로 데스크 환경에서의 프로토타입 제작부터 데이터 센터 배포까지 원활하게 확장할 수 있다. 엔비디아 쿠다(NVIDIA CUDA), 엔비디아 AI 워크벤치(NVIDIA AI Workbench) 및 주피터랩(JupyterLab)과 독커(Docker) 등이 기본 탑재되어 별도의 설치 과정 없이 개봉 즉시 AI 모델 개발과 테스트를 시작할 수 있다. 델은 델 프로 맥스 위드 GB10가 강력한 성능을 기반으로 AI 시대의 다양한 사용자에게 새로운 가능성을 제시한다고 전했다.. 대학 등 연구기관에서는 ‘라마 3.3 70B(Llama 3.3 70B)’와 같은 대규모 언어 모델을 해당 제품에서 직접 실행해 연구 속도를 획기적으로 높일 수 있다. 스타트업 등 중소규모 기업은 추론, 미세 조정, 프로토타이핑 등 AI 개발의 전 과정을 로컬 환경에서 수행하며 복잡한 인프라 구축 없이도 혁신을 빠르게 이어갈 수 있다. 헬스케어나 금융 서비스와 같이 민감한 데이터를 다루는 업계에서는 데이터를 외부로 반출하지 않고 고급 AI 모델을 안전하게 학습 및 운용하여 데이터 보안을 실현하고 리스크를 줄일 수 있다. 크리에이터와 개발자들은 엔터프라이즈급 컴퓨팅 파워를 활용해 외부 인프라 구축 등의 추가 비용 없이, 자신만의 작업 공간에서 비전 모델을 미세 조정하고, AI 기반 콘텐츠를 제작하는 창의적인 프로젝트를 손쉽게 구현할 수 있다. 델 프로 맥스 위드 GB10은 공기 흐름을 최적화한 섀시 디자인을 적용해 장시간 사용 시에도 온도와 소음을 효과적으로 제어하며 안정적인 성능을 유지한다. 델 프로 맥스 위드 GB10은 10월 16일에 출시될 예정이며, 최대 3년간의 델 지원 서비스(Dell Service & Support)가 제공된다. 한국 델 테크놀로지스 김경진 총괄사장은 “온프레미스 환경에서 AI를 구현하는 수요가 증가하는 가운데, 델 프로 맥스 위드 GB10은 엔비디아 GB10 슈퍼칩 기반의 강력한 성능으로 개인용 데스크 환경에서 AI 프로젝트를 실행할 수 있는 획기적인 설루션”이라면서, “델 테크놀로지스는 델 프로 맥스 라인업에 최신 AI 기술을 발빠르게 적용해 제품 포트폴리오를 지속적으로 확장하고 있고, 많은 기업이 보안이나 비용 등의 제약 없이 로컬에서 AI 혁신을 구현하도록 지원하고 있다”고 말했다.
작성일 : 2025-10-14
HP Z2 미니 G1a 리뷰 : 초소형 워크스테이션의 AI·3D 실전 성능
워크스테이션은 콤팩트한 외형 속에 데스크톱급 성능을 담아낸 전문가용 시스템이다. 단순한 소형 PC와 달리, 3D·영상·AI·엔지니어링 등 고성능이 필요한 크리에이터와 전문 작업자를 위해 설계된 것이 특징이다. 이번 리뷰에서는 실제 소프트웨어 워크플로와 AI·LLM 테스트까지 다양한 관점에서 심층 평가를 진행했다.   ▲ HP Z2 미니 G1a   하드웨어 및 설치 환경 HP Z2 미니 G1a(HP Z2 Mini G1a)의 가장 큰 강점 중 하나는 강력한 하드웨어 스펙이다. AMD 라이젠 AI 맥스+ 프로 395(AMD Ryzen AI Max+ PRO 395) 프로세서(16코어 32스레드, 3.00GHz), 최대 128GB LPDDR5X 메모리, 8TB NVMe SSD, 그리고 16GB VRAM을 탑재한 라데온 8060S(Radeon 8060S) 통합 그래픽 등, 동급 소형 워크스테이션에서는 보기 힘든 구성을 갖췄다. 특히 메모리는 최대 128GB까지 확장 가능하며, 이 중 최대 96GB를 그래픽 자원에 독점 할당할 수 있다. 듀얼 NVMe 및 RAID 지원으로 대용량 데이터 처리와 안정성을 확보했으며, 50TOPS에 달하는 NPU 성능 덕분에 AI 추론 등 최신 워크로드도 소화할 수 있다. 테스트는 윈도우 11 프로 기반, 64GB RAM과 16GB 라데온 8060S, 듀얼 NVMe SSD가 장착된 구성으로 진행됐다.   ▲ HP Z2 미니 G1a의 하드웨어 스펙   전문 소프트웨어 워크플로 직접 HP Z2 미니 G1a를 사용해 본 첫 인상은 “미니 사이즈에서 이 정도 성능이라니?”였다. 크기는 작지만, 성능은 결코 작지 않았다. 시네마 4D(Cinema 4D)로 복잡한 3D 신을 제작하고, 지브러시(ZBrush)에서 대형 폴리곤 모델링과 서브툴 멀티 작업을 해 보니 작업 흐름이 부드럽고, 장시간 동작에도 다운이나 랙 없이 꾸준한 성능으로 작업할 수 있었다. 시네벤치(Cinebench), 시네마 4D, 지브러시, 애프터 이펙트(After Effects), AI 생성형 이미지·영상, LLM 실행 등 전 영역에서 성능 저하를 체가하기 어려웠다. 시네마 4D에서는 수십만~수백만 폴리곤에 달하는 대형 3D 신 파일을 불러오고, 뷰포트 내 실시간 조작이나 배치 렌더링, 애니메이션 키프레임 작업에서 CPU 기반 멀티스레드 성능이 큰 장점을 발휘했다. 시네벤치 2024 멀티코어 점수는 1832점으로, 애플의 M1 울트라보다 높은 수치를 달성해 전문 사용자에게 매력적인 대안이 될 것으로 보인다.   ▲ 시네마 4D에서 테스트   애프터 이펙트 환경에서는 GPU 가속 지원이 부족한 점에도 불구하고, 강력한 CPU 성능 덕분에 고해상도(4K) 다중 레이어 영상 합성, 이펙트, 복수 트랙 편집에서도 랙이나 끊김 없이 작업을 이어갈 수 있었다. 시네마 4D, 지브러시, 콤피UI(ComfyUI) 등과의 멀티태스킹 환경에서도 리소스 병목 없이 쾌적하게 여러 프로그램을 병행 실행하는 것이 가능했다.   ▲ 애프터 이펙트에서 테스트   아이언캐드 대형 어셈블리 테스트 엔지니어링 현장에서 요구되는 대형 어셈블리 작업을 검증하기 위해 동료와 함께 아이언캐드(IronCAD)로 2만여 개(2만 1800개)에 달하는 파트가 포함된 820MB 대용량 CAD 파일을 로딩해 테스트를 진행했다. 이 워크플로는 최근 산업·기계 설계 현장에서 자주 마주치는 극한 환경을 그대로 반영한 조건이었다. 테스트 결과, HP Z2 마니 G1a의 평균 FPS는 약 19로 측정됐다. 이는 노트북용 RTX2060 GPU가 내는 실제 CAD 작업 성능과 동등한 수준에 해당한다. 고용량 모델의 빠른 불러오기, 실시간 3D 뷰 조작, 개별 파트 속성 편집 작업에서 큰 병목이나 지연 없이 효율적인 사용 경험을 확인했다. 대형 파일임에도 불구하고 시스템 자원 부족이나 다운 없이 멀티태스킹 환경에서도 안정적으로 작업이 이어지는 점이 인상적이었다.   ▲ 아이언캐드에서 테스트   AI 및 LLM 활용 AI 작업이나 LLM 실행에서도 강점이 명확했다. 콤피UI에서 Wan2.2, Video-wan2_2_14B_t2v 같은 고사양 텍스트-비디오 생성 모델도 무리 없이 돌릴 수 있었고, LM 스튜디오(LM Studio)와 올라마(Ollama) 기반의 대형 LLM 역시 빠른 추론 속도를 보여줬다. NPU(50TOPS)의 연산 가속과 64GB RAM의 넉넉함 덕분에, AI 모델 로컬 실행/추론에서 항상 안정적인 환경이 보장된다는 느낌이다. 오픈소스 AI 이미지 생성이나 텍스트-비디오 워크플로도 CPU-메모리 조합만으로 병목 없이 부드럽게 동작했다. 쿠다(CUDA)를 지원하지 않는 환경의 한계로 일부 오픈소스 AI 툴은 실행에 제약이 있었으나, CPU와 NPU 조합만으로도 로컬 기반 AI 이미지 생성 및 텍스트-비디오 워크플로에서 동급 대비 빠르고 매끄러운 결과를 보였다.    ▲ 콤피UI에서 테스트   LLM 분야에서는 LM 스튜디오와 올라마를 이용해 7B~33B 규모의 다양한 대형 언어 모델을 구동했다. 64GB RAM과 50TOPS NPU의 지원 덕분에 GPT-3.5, 라마 2(Llama 2) 등 대용량 파라미터 기반의 모델도 실제 업무에서 실시간 질문-응답, 코드 자동완성, 문서 요약 등에 무리 없이 활용 가능했다.   ▲ LLM 테스트   통합 메모리 아키텍처 효과 Z2 미니 G1a의 최고 강점은 UMA(통합 메모리 아키텍처)에 있다. 이 기술은 시스템 메모리(RAM)의 상당 부분을 GPU 연산에 직접 할당해, 기존 분리형 GPU VRAM 성능의 한계를 극복한다. 실제로 탑재된 메모리(64GB~128GB 중 구매 옵션에 따라 선택)를 GPU에 최대 96GB까지 독점적으로 할당할 수 있으며, 복잡한 3D·그래픽 집약적 프로젝트 처리와 생성형 AI·LLM 등의 작업에서 병목 없이 고효율 워크플로를 경험할 수 있었다.   실사용·테스트를 위한 리뷰 환경 제품 리뷰 당시 64GB RAM 탑재 모델을 기준으로, 기본 설정에서는 16~32GB를 GPU에 할당해 일반 CAD·3D·AI 작업을 진행했다. 또한 고해상도 3D 렌더나 생성형 AI 영상 작업에서는 BIOS/소프트웨어에서 48~50GB까지 VRAM 할당을 수동 조정해 본 결과, 대형 프로젝트 파일에서 뷰포트 프레임 저하나 메모리 부족 경고 없이 안정적인 작업 환경을 제공했다. 반대로 GPU에 할당하는 메모리를 늘리면 고용량 데이터 병목이 해결되고, 3D 뷰포트 FPS나 AI 추론 속도 및 이미지 품질·정확도가 확실히 향상되는 것이 일관되게 확인되었다. 실제 기업 환경에서는 128GB 모델을 쓰면 최대 96GB까지 VRAM 할당이 가능하므로 GPU 메모리 병목이 무의미해지고, 기존 미니PC와는 비교할 수 없는 확장성과 작업 안전성을 확보할 수 있다.   아쉬운 점 첫째, 테스트용으로 받았던 장비에서는 HDMI 단자의 부재로 미니 DP로 모니터를 연결해야 했는데, 이는 테스트했던 데모 제품의 기본 옵션에 해당한다. 하지만 HP Z2 미니 G1a는 기업용/구매 시 고객 요구에 따라 HDMI 포트를 포함한 맞춤형 Flex I/O 슬롯 옵션 구성이 가능하다고 한다. 실제로 HP 공식 문서 및 판매 페이지에 따르면, 썬더볼트4(Thunderbolt4), USB-C, 미니 DP 외에도 HDMI를 Flex IO 슬롯에 추가할 수 있으므로, 다수의 모니터·TV·AV 장비로 연결해 사용하는 환경에서도 문제없이 세팅할 수 있다. 둘째, GPU가 AMD 라데온 기반이기 때문에 엔비디아 CUDA를 필요로 하는 GPU 가속 작업(예 : Redshift GPU 렌더러, 딥러닝 프레임워크)은 아예 테스트 자체가 불가능하다. AI, 3D, 영상 워크플로에서 CUDA 생태계를 사용하는 환경에서는 제품 선택 전 미리 확인이 필요하다. 셋째, 고부하 작업 시 팬 소음이 다소 발생할 수 있으므로 조용한 사무실 환경이라면 쿼이엇 모드 설정이 필요하다.   결론 및 추천 HP Z2 미니 G1a 워크스테이션은 한정된 공간에서 고성능이 필요한 크리에이티브 및 AI 전문가, 엔지니어, 디지털 아티스트에게 탁월한 선택지가 될 수 있다. 실제로 써보면, 공간 제약이 있는 환경에서도 3D 모델링, 영상 편집, 생성형 AI, LLM 추론 등 고사양 멀티태스킹을 안정적으로 병행할 수 있었고, 기업용 보안, ISV 인증, 최신 네트워크까지 갖췄다. 다양한 작업을 동시에 손쉽게 처리할 수 있다는 점에서 미니 데스크톱 중에서도 실전 현장에 ‘매우 쓸 만한’ 최상위 선택지라고 생각이 든다. 비록 CUDA 미지원 및 HDMI 포트 부재라는 한계가 있지만, CPU·메모리 중심의 워크플로에선 동급 최고 수준의 안정성과 성능을 보여준다. 최신 AI 및 LLM, 3D·영상·컴포지팅 등 멀티태스킹이 잦은 전문 분야라면 이 제품이 오랜 기간 든든한 실전 파트너가 될 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 배현수 부장 마루인터내셔널(맥슨 한국총판) 기술지원팀, AI 크리에이터, 모션그래픽 디자이너     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01