• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "오케스트레이션"에 대한 통합 검색 내용이 81개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
에이수스, 엔비디아 GB10 기반 AI 슈퍼컴퓨터 ‘어센트 GX10’ 국내 출시
에이수스 코리아는 엔비디아 GB10 그레이스 블랙웰(Grace Blackwell) 기반의 개인용 AI 슈퍼컴퓨터 ‘Ascent GX10(어센트 GX10)’을 국내 공식 출시한다고 밝혔다. 에이수스 어센트 GX10은 높은 AI 성능과 공간 효율을 제공한다. 손바닥 정도의 사이즈임에도 최대 1000TOPs의 AI 성능을 구현하여 AI 연구원, 데이터 과학자뿐만 아니라 AI 기반 개발 및 연구를 필요로 하는 개인 및 기업 프로젝트에도 최적의 성능을 제공한다.     어센트 GX10은 내장된 GB10 그레이스 블랙웰 슈퍼칩을 통해 FP4 정밀도 기준 최대 1페타플롭의 AI 성능을 지원한다. 이를 위해 최신 세대 CUDA(쿠다) 코어와 5세대 텐서(Tensor) 코어를 탑재하였으며, NVLink C2C 인터커넥트를 통해 연결된 20개의 Arm 아키텍처 기반 고효율 코어를 포함하고 있다. 또한 128GB의 통합 시스템 메모리를 통해 최대 2000억개의 매개변수를 처리할 수 있으며, 엔비디아 커넥트X(NVIDIA ConnectX) 네트워크 인터페이스 카드를 활용해 GX10 시스템 두 대를 연결하여 라마 3.1(Llama 3.1)과 같이 더 많은 매개변수를 가진 대형 AI 모델도 효율적으로 학습하고 처리할 수 있다. 에이수스는 어센트 GX10이 가진 성능을 최대한 발휘할 수 있는 간편한 AI 모델 개발을 위한 쉬운 개발 환경을 제공한다. 개발자는 엔비디아 AI 소프트웨어 라이브러리를 사용할 수 있으며, 엔비디아 NGC 카탈로그와 엔비디아 개발자 포털에서 제공되는 소프트웨어 개발 키트(SDK), 오케스트레이션 도구, 프레임워크, 모델 등 다양한 리소스를 지원받을 수 있다. 여기에 더해 에이전트 AI 애플리케이션 구축을 위한 엔비디아 블루프린트(NVIDIA Blueprints)와 NIM 마이크로 서비스도 지원하여 다양한 연구 및 개발, 테스트가 가능하다. 에이수스는 국내 공식 대리점인 코잇, 크로스젠, 유니퀘스트, 대원CTS를 통해 어센트 GX10의 구매 및 상담이 가능하다고 전했다.
작성일 : 2025-10-31
윈드리버, 블랙박스와 지능형 에지 및 클라우드 혁신 위한 파트너십 체결
지능형 에지 소프트웨어를 제공하는 글로벌 기업인 윈드리버가 디지털 인프라 전문 기업 블랙박스(Black Box)와 전략적 파트너십을 체결하고 산업·제조·소매·금융·자동차·통신 등 다양한 시장에 차세대 지능형 에지 및 프라이빗 클라우드 설루션을 제공한다고 밝혔다. 이번 협업을 통해 윈드리버는 마이그레이션 기능을 탑재한 ‘윈드리버 클라우드 플랫폼(Wind River Cloud Platform)’ 및 엔터프라이즈 리눅스인 ‘eLxr Pro’를 블랙박스의 글로벌 통합 역량 및 고객 중심 접근 방식을 결합함으로써, 디지털 인프라 전환을 가속하고 운영을 현대화하고자 하는 엔터프라이즈 고객들을 폭넓게 지원한다는 계획이다. 윈드리버 클라우드 플랫폼은 가상화 및 컨테이너화된 애플리케이션을 위한 실제 운영 수준의(production-grade) 분산형 쿠버네티스 설루션으로, 오케스트레이션, 자동화 및 분석 툴을 통해 시간을 절감할 수 있도록 돕는다. 미션 크리티컬한 환경에서 복잡한 클라우드 아키텍처를 배포하고 관리할 수 있게끔 설계된 점이 특징이다. 오픈 소스이며 엔터프라이즈급 데비안(Debian)의 파생 프로젝트인 eLxr 프로젝트를 기반으로 하는 ‘eLxr Pro’는 커뮤니티 배포판에 커머셜 엔터프라이즈 지원 및 유지 보수를 추가함으로써, 기업에서는 확장 가능하고 안전하며 신뢰성이 높은 리눅스 설루션을 채택하고, 클라우드 투 에지 배포의 복잡한 과제를 해결하도록 지원한다. 양사의 이번 전략적 파트너십은 ▲통합된 인텔리전트 에지, 강력한 디지털 및 클라우드 네이티브 인프라 ▲안전하고 확장 가능한 프라이빗 클라우드 구축 ▲수명주기 자동화 및 중앙 집중식 오케스트레이션 ▲가상 머신 및 마이그레이션, 컨테이너, AI 워크로드 지원 ▲장기적인 지원 및 보안을 제공하는 엔터프라이즈급 리눅스 등과 같은 영역에 집중되어 있다. 이번 협력의 일환으로, 블랙박스는 윈드리버와 별도의 계약을 체결해 여러 지역에서 최종 고객과의 계약을 직접 수행할 예정이다. 윈드리버와 블랙박스는 기업 고객이 가진 고유한 운영 및 규제 요구 사항에 맞춰 탄력적인 고성능 디지털 인프라를 구축할 수 있도록 지원할 계획이다. 윈드리버의 대럴 조던 스미스(Darrell Jordan-Smith) 최고 매출 책임자는 “윈드리버 클라우드 플랫폼과 eLxr Pro는 오늘날 기업들이 요구하는 확장 가능하고 안전하며 효율적인 인프라를 제공하며, 블랙박스와의 협력을 통해 이러한 기능을 대규모로 구현할 수 있게 됐다”면서, “이번 파트너십을 통해 고객은 신뢰할 수 있는 시스템 통합, 운영 지원, 배포 범위가 뒷받침되는 검증된 고성능 에지 및 클라우드 아키텍처를 더 빠르게 구현할 수 있다. 이를 통해 혁신을 가속화하고, 위험을 줄이며, 클라우드에서 에지를 잇는 전체 환경을 더 스마트하게 운영할 수 있다”고 말했다. 블랙박스의 산지브 베르마(Sanjeev Verma) 사장 겸 CEO는 “인텔리전트 에지를 위한 혁신적인 기술을 제공하는 윈드리버와 함께 통합 전문성을 결합하여 효율성을 높이고, 혁신을 앞당기며, 새로운 수익원을 창출하는데 유리한 입지를 확보하게 됐다. 블랙박스는 이번 파트너십을 통해 하이퍼컨버지드 및 에지 컴퓨팅에 진출함으로써 디지털 인프라 혁신의 선두에서 장기적인 가치를 창출하고자 한다”고 덧붙였다.
작성일 : 2025-10-20
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
유아이패스-엔비디아, 민감한 워크플로에 신뢰할 수 있는 에이전틱 자동화 제공
유아이패스가 엔비디아와의 협력을 발표하면서, 금융 사기 탐지나 의료 분야 환자 관리처럼 높은 신뢰가 요구되는 환경에서 기업 고객의 기존 자동화 워크플로를 AI 기능으로 강화할 수 있도록 지원한다고 밝혔다. 유아이패스의 에이전틱 자동화 역량과 엔비디아 네모트론(Nemotron) 공개 모델, 엔비디아 NIM을 결합해 기업은 자연어 처리, 이미지 해석, 예측 분석 등 엔터프라이즈급 AI 모델을 마이크로서비스 형태로 더욱 빠르고 손쉽게 배포할 수 있다. 이를 통해 민감한 워크플로에서 에이전틱 AI와 자동화를 효율적이고 정확하게 대규모로 도입할 수 있다.   이번 협력의 핵심은 유아이패스와 엔비디아 NIM, 네모트론을 연결하는 인티그레이션 서비스(Integration Service) 커넥터를 도입하는 것이다. 이를 통해 기업은 엔비디아 NIM을 활용해 생성형 AI 기능을 자사 애플리케이션과 서비스에 원활하고 신속하게 통합할 수 있어, 자동화 역량과 성능을 한층 강화할 수 있다. 이번 협력은 민감한 업무를 다루는 고객이 높은 신뢰가 요구되는 환경에서도 에이전트, 로봇, 인간 전문가를 활용해 엔드투엔드 비즈니스 프로세스를 자동화할 수 있도록 한다.   유아이패스는 서비스 커넥터 외에도 에이전틱 자동화 전반에서 새로운 기회를 모색하고 있다. 주요 영역에는 ▲AI 기반 에이전트를 효과적으로 조율하기 위한 에이전틱 오케스트레이션 고도화 ▲유아이패스의 자동화 전문성과 맞춤형 오픈소스 엔비디아 네모트론 모델 및 가속 컴퓨팅을 결합한 차별화된 에이전트 개발 ▲온프레미스와 에어갭(air-gapped) 환경까지 역량을 확장해 규제가 엄격한 산업에서도 AI를 안전하게, 대규모로 도입할 수 있도록 지원하는 것이 포함된다.   유아이패스의 그레이엄 쉘든(Graham Sheldon) 최고제품책임자(CPO)는 “사기 탐지나 의료 워크플로처럼 민감한 프로세스에는 강력하면서도 신뢰할 수 있는 AI가 필요하다”면서, “엔비디아 NIM 모델을 유아이패스 플랫폼에 통합함으로써, 고객은 엔터프라이즈급 거버넌스를 기반으로 자체 호스팅 모델을 배포하고 체계적으로 관리할 수 있다. 이를 통해 기업은 가장 중요한 프로세스에도 관리 체계와 투명성, 신뢰를 바탕으로 AI를 적용해 실질적인 비즈니스 성과를 창출할 수 있다”고 말했다.   엔비디아의 조이 콘웨이(Joey Conway) 엔터프라이즈 생성형 AI 소프트웨어 시니어 디렉터는 “기업들은 복잡하고 독자적인 운영을 위해 안전하고 신뢰할 수 있는 AI를 원한다”며, “엔비디아 네모트론 공개 모델과 NIM 마이크로서비스를 기반으로, 유아이패스는 규제 환경에서도 복잡한 활용 사례에 대응할 수 있으며, AI 에이전트를 활용해 고도화된 자동화 시스템을 신속히 구축할 수 있다”고 말했다.
작성일 : 2025-10-14
SAP, 연례행사 ‘SAP 커넥트’에서 AI 기반 비즈니스 스위트 선보여
SAP가 10월 6일부터 3일간 미국 라스베이거스에서 새롭게 선보인 연례행사 ‘SAP 커넥트(SAP Connect)’를 개최했다고 밝혔다. SAP는 이번 행사에서 AI, 데이터 및 애플리케이션의 통합이 어떻게 비즈니스 가치를 창출하는지를 선보였다. 특히 이번 발표에서 ▲인간과 협력해 성과를 높이는 쥴(Joule)의 역할 기반 AI 어시스턴트 네트워크 ▲더 깊은 인사이트를 제공하는 확장형 데이터 생태계 ▲공급망 리스크를 사전에 예측하는 소프트웨어 등의 설루션을 공개하며, 비즈니스 운영 방식에 대한 새로운 혁신을 제시했다.     SAP는 비즈니스 스위트의 가치 창출 중심에 있는 핵심 AI 엔진으로서 쥴의 차세대 단계를 공개했다. SAP 비즈니스 스위트 전반의 애플리케이션과 데이터를 기반으로, SAP는 쥴에 새로운 세대의 역할 인식형 어시스턴트를 도입했다. 각 어시스턴트는 특정 비즈니스 역할을 수행하는 사람과 함께 협업하도록 설계됐으며, 쥴의 어시스턴트는 업무에 적합한 에이전트를 활용해 이를 구성, 조율 및 관리함으로써 인간이 보다 높은 수준의 인사이트와 생산성을 발휘하는 데 집중할 수 있도록 한다. 특히 전문화된 쥴 에이전트(Joule Agent) 라이브러리는 특정 기능 내에서 복잡한 워크플로를 수행하도록 설계되어 쥴의 어시스턴트를 지원한다. 피플 매니저 어시스턴트(People Manager Assistant)는 보상 이상 징후와 같은 문제를 발견하고 해결하는 데 도움을 주는 새로운 피플 인텔리전스 에이전트(People Intelligence Agent)를 포함한 전문 에이전트 팀을 조율해 관리자가 성과를 이끌 수 있도록 지원한다. 또한 새롭게 선보이는 재무 계획 어시스턴트(Financial Planning Assistant)는 현금 흐름을 최적화하고 이자 수익을 높이는 새로운 현금 관리 에이전트(Cash Management Agent)를 포함한 전문 에이전트 그룹의 도움을 받아 재무 담당자가 효율성을 높일 수 있도록 돕는다. 이처럼 새로운 역할 인식형 AI 어시스턴트는 개별 비즈니스 영역에서 성과를 향상시키기 위해 사람과 협력할 뿐 아니라, 복잡한 전사적 문제를 해결하기 위해 비즈니스 기능 전반에 걸쳐 함께 해결한다. 데이터는 AI 혁신의 원동력이지만, 여전히 여러 시스템에 분산되어 있는 경우가 적지 않다. SAP는 이번 행사에서 이러한 장벽을 없애기 위해 SAP 비즈니스 데이터 클라우드 커넥트(SAP Business Data Cloud Connect : SAP BDC 커넥트)를 선보였다. SAP BDC 커넥트는 SAP BDC를 파트너 플랫폼과 안전하게 연결해, 조직과 기술의 경계를 넘어 비즈니스 데이터 제품이 양방향으로 오갈 수 있도록 지원한다. 아울러 제로 카피 공유(zero-copy sharing) 방식으로 데이터는 SAP 시스템 내에 안전하게 보관되면서도 고객의 기존 데이터 플랫폼에서 즉시 액세스할 수 있으며, 비용이 많이 드는 복제 없이도 비즈니스 맥락을 그대로 유지할 수 있다. 그 결과, 사일로는 줄어들고, 데이터 파이프라인은 단순해지며, 중복은 사라지고, 필요한 시점과 장소에 신뢰할 수 있는 데이터 제품을 제공할 수 있다. 또한 SAP는 데이터브릭스(Databricks)와 구글 클라우드(Google Cloud)가 SAP BDC 커넥트를 지원하는 첫 공식 파트너이며, 향후 더 많은 파트너가 추가될 예정이라고 밝혔다. SAP 데이터브릭스(SAP Databricks)는 지난 2월 SAP BDC 내의 데이터 서비스로 유지될 것이라고 발표한 바 있으며, SAP BDC 커넥트는 개방형 데이터 생태계 전반에 걸쳐 이러한 혜택을 확장했다. 이번 파트너십은 고객에게 분석 및 AI를 위한 데이터 제품에 대해 더욱 신속하게 접근할 수 있고, 원천 데이터에서 실시간 비즈니스 성과로 전환하는 과정을 한층 빠르고 간단하게 수행할 수 있도록 지원한다. SAP의 차별화된 가치 제안의 핵심은 데이터가 생성되고 AI 기반 인사이트를 경험하는 엔터프라이즈 애플리케이션이다. SAP 공급망 오케스트레이션(SAP Supply Chain Orchestration)은 쥴의 역량과 실시간 지식 그래프를 결합한 새로운 AI 네이티브 설루션으로, 여러 단계의 공급업체까지 실시간 위험을 감지하고 이에 대한 대응을 효과적으로 조율한다. 이를 통해 고객은 비용을 절감하고 공급망을 원활하게 유지할 수 있다. SAP 인게이지먼트 클라우드(SAP Engagement Cloud)는 새로운 고객 경험 설루션으로, 비즈니스에 중요한 맥락을 활용하여 고객, 공급 업체 및 기타 이해관계자 전반에 걸쳐 상호작용을 개인화한다. 또한 이번 행사에서는 차세대 SAP 아리바(SAP Ariba) 조달 제품군이 조달부터 공급업체 관리에 이르기까지 지출 관리의 모든 단계에 인텔리전스를 제공하는 AI 네이티브 설루션으로 주목받기도 했다. SAP의 무하마드 알람(Muhammad Alam) 제품 엔지니어링 총괄 및 이사회 임원은 “불확실성이 일상이 된 시대에 기업이 성장하기 위해서는 최고의 애플리케이션을 단순히 조합하는 것 이상의 접근 방식이 필요하다”면서, “이번 행사에서 발표한 내용은 AI, 데이터 및 애플리케이션이 하나로 결합되어 더 나은 의사결정, 더 빠른 실행, 그리고 확장할 수 있는 혁신을 주도하는 SAP 비즈니스 스위트(SAP Business Suite)의 강력한 힘을 보여준다”고 말했다.
작성일 : 2025-10-13
유아이패스-오픈AI, 엔터프라이즈 에이전틱 자동화 위해 협력
에이전틱 자동화 기술 기업인 유아이패스가 오픈AI와 협력해 ‘챗GPT 커넥터’를 선보인다고 발표했다. 이 커넥터는 오픈AI의 최첨단 모델을 유아이패스의 엔터프라이즈 오케스트레이션 기반의 워크플로와 통합해, 기업들이 에이전틱 AI를 통해 가치를 더 빠르게 실현하고 투자 대비 효과(ROI)를 높일 수 있도록 지원한다. 유아이패스의 에이전틱 자동화 역량과 오픈AI의 모델·API는 AI 에이전트 개발과 배포 과정을 간소화해 사용자가 복잡한 인프라에 구애받지 않고 비즈니스 목표에 집중할 수 있게 하며, 프로세스 관리자가 AI 에이전트에 대한 신뢰를 높일 수 있도록 한다.   오픈AI 모델은 이미 유아이패스 에이전트를 구동하고 있으며, 최근에는 유아이패스 에이전트 빌더(Agent Builder)에 최신 GPT-5 업데이트가 탑재됐다. 유아이패스와 오픈AI는 에이전틱 자동화에서 컴퓨터 활용 모델을 위한 벤치마크를 마련 중이다. 이 벤치마크를 통해 다양한 AI 모델의 컴퓨터 시스템 상호작용 성능을 보다 쉽게 평가하고 비교할 수 있다. 또한 에이전트 기능을 세밀하게 검증할 수 있으며, 실제 엔터프라이즈 환경을 위해 유연하고 확장 가능한 프레임워크를 제공하며, 에이전트가 발전함에 따라 새 시나리오까지 확장할 수 있다.   유아이패스 마에스트로(UiPath Maestro)는 업무 프로세스에서 유아이패스와 오픈AI 및 다양한 타사 AI 에이전트를 통합 관리해 기업용 대형 액션 모델(LAM)의 적용 범위를 넓힌다. 프로세스 관리자는 마에스트로의 단일 화면에서 업무 프로세스를 구축·관리·최적화할 수 있으며, 업무에 가장 적합한 에이전트를 활용해 에이전틱 자동화를 가속화할 수 있다.   또한 유아이패스는 MCP(모델 컨텍스트 프로토콜) 통합을 통해 챗GPT 사용자에게 자동화 기능을 제공한다. 사용자는 챗GPT 엔터프라이즈 내에서 무인 자동화, API 워크플로, 자율 에이전트, 마에스트로 워크플로를 직접 확인할 수 있다. 더 많은 조직이 챗GPT를 도입함에 따라, 유아이패스는 엔터프라이즈급 에이전틱 자동화와 오케스트레이션을 결합해 AI 자동화를 가속화할 수 있다.   유아이패스의 그레이엄 쉘든(Graham Sheldon) 최고제품책임자(CPO)는 “유아이패스 플랫폼은 에이전틱 전환의 전 과정에서 중요하고 반복적인 프로세스를 식별하고, AI 에이전트를 구축하며, 워크플로를 관리할 때까지 지원해 기업이 성과와 ROI를 창출할 수 있도록 돕는다”면서, “챗GPT의 확산과 업계를 선도하는 모델이 유아이패스 플랫폼의 강력한 기능과 결합해 기업 고객에게 최적의 해법으로 자리 잡고 있다”고 말했다.   오픈AI의 지안카를로 리오네티(Giancarlo Lionetti) 최고상업책임자(CCO)는 “오픈AI는 기업용 컴퓨터 활용 에이전트를 빠르게 발전시키고 있으며, 성능 평가는 진행 상황을 가늠하고 더 높은 기준을 마련하는 핵심 수단”이라며, “유아이패스와의 협력을 통해 기업 환경에 맞는 성능 평가를 제공하고, 업계 전반의 수준을 끌어올릴 수 있다”고 말했다.
작성일 : 2025-10-02
에퀴닉스, 차세대 AI 혁신 가속화 위한 분산형 AI 인프라 출시
디지털 인프라 기업인 에퀴닉스(Equinix)가 ‘AI 서밋(AI Summit)’을 개최하고, 에이전틱 AI를 포함한 차세대 AI 혁신을 뒷받침하는 새로운 접근 방법인 분산형 AI 인프라(Distributed AI Infrastructure)를 공개했다. 이번 발표에는 ▲분산형 AI 구축을 지원하는 AI 사용 가능한 새로운 백본 ▲신규 설루션을 검증할 수 있는 글로벌 AI 설루션 랩(AI Solutions Lab) ▲차세대 워크로드를 지원하는 패브릭 인텔리전스(Fabric Intelligence)가 포함됐다. 기업이 AI 에이전트와 같은 차세대 AI 툴을 구축하고자 할 때, 기존 IT 아키텍처에 대한 재고가 필요하다. 에퀴닉스의 분산형 AI는 정적 모델에서 독립적으로 추론, 행동 및 학습이 가능한 자율적 에이전틱 AI로의 진화를 비롯해 현대 지능형 시스템의 규모와 속도, 복잡성을 지원하도록 설계됐다. 기존 애플리케이션과 달리 AI는 분산되어 있으며, 학습, 추론, 데이터 독립성에 대해 상이한 인프라를 요구한다. 이러한 요구를 충족하기 위해 전세계적으로 분산되고 상호연결되며 대규모 워크로드에서도 뛰어난 성능을 보일 수 있도록 구축된 새로운 유형의 인프라가 필요하다. 에퀴닉스는 “77개의 시장에서 270개가 넘는 데이터센터를 연결하는, 프로그래밍 가능하고 AI에 최적화된 네트워크를 보유함으로써 지리적 경계를 넘어 이 같은 환경을 통합할 수 있다”면서, “이를 통해 지능형 시스템이 필요한 모든 곳에서 신뢰도 높고 안전하게 운영될 수 있도록 지원한다”고 전했다.     이번 AI 서밋에서 에퀴닉스가 발표한 패브릭 인텔리전스는 AI 및 멀티클라우드 워크로드를 위한 실시간 인식과 자동화를 통해 온디맨드 글로벌 상호연결 서비스인 에퀴닉스 패브릭(Equinix Fabric)을 강화하는 소프트웨어 계층이다. 2026년 1분기 출시 예정인 패브릭 인텔리전스는 AI 오케스트레이션 툴과 통합되어 연결성 결정을 자동화하고, 실시간 텔레메트리를 활용해 심층적인 가시성을 확보하며, 성능 최적화와 네트워크 운영 간소화를 위해 라우팅과 세그먼테이션을 동적으로 조정한다. 패브릭 인텔리전스는 워크로드 수요에 맞춰 네트워크가 즉각 대응하도록 함으로써 기업이 수작업을 줄이고 배포를 가속화하며 AI의 규모와 속도에 맞출 수 있도록 지원한다. 에퀴닉스는 10개국 20개 지역에 글로벌 AI 설루션 랩을 출시하여 기업이 업계를 주도하는 AI 기술 파트너와 협력할 수 있는 역동적인 환경을 제공한다. 기업은 AI 설루션 랩을 통해 에퀴닉스 AI 파트너 에코시스템에 연결할 수 있다. 이러한 협력은 AI 도입에 대한 위험을 줄이고 혁신적인 공동 설루션을 지원하며, 아이디어를 운영가능한 AI 구축단계까지 빠르게 실현한다.   에퀴닉스는 포괄적인 벤더 중립 AI 에코시스템 중 하나로, 전 세계 2000개 이상의 파트너를 보유하고 있다. 새로운 패브릭 인텔리전스를 통해 차세대 AI 추론 서비스를 쉽게 검색하고 활용할 수 있도록 돕는다. 또한, 에퀴닉스는 기업이 맞춤형 구축 없이 선도적인 추론 플랫폼에 직접적이고 프라이빗하게 접근할 수 있도록, 2026년 1분기 출시 예정인 그록클라우드(GroqCloud) 플랫폼을 포함한 최첨단 기술을 제공한다. 이를 통해 기업은 AI 서비스를 더 빠르게 연결하고 확장할 수 있으며, 엔터프라이즈급 성능과 보안을 확보할 수 있다.   에퀴닉스의 분산형 AI 인프라를 통해 기업은 제조 분야의 예측 유지 보수를 위한 실시간 의사결정, 다양한 리테일 최적화, 금융 서비스 분야의 신속한 사기 탐지와 같은 다양한 적용 사례를 지원할 수 있다. 에퀴닉스는 2026년 1분기부터 AI를 에지 및 리전 전반에서 구현함으로써, 조직이 어디에서나 확장 가능하고 규정을 준수하며 지연 시간이 짧은 AI 워크로드를 운영할 수 있게 한다. 에퀴닉스의 존 린(Jon Lin) 최고 비즈니스 책임자(CBO)는 “AI가 점점 더 분산되고 동적으로 진화함에 따라, 모든 것을 안전하고 효율적이며 대규모로 연결하는 것이 진정한 과제가 됐다. 에퀴닉스의 글로벌 플랫폼은 기업이 데이터를 사용자와 더 가까운 곳으로 이동하고 추론할 수 있도록 지원하고 새로운 역량을 발휘하며, 기회가 있는 곳 어디서든 혁신을 가속화할 수 있는 무한한 연결성을 제공한다”고 말했다.
작성일 : 2025-09-26
슈나이더 일렉트릭, 엔비디아와 공동 개발한 차세대 AI 데이터센터 레퍼런스 디자인 발표
슈나이더 일렉트릭이 엔비디아와 공동으로 개발한 두 가지의 새로운 레퍼런스 디자인을 발표했다. 이 레퍼런스 디자인은 AI 인프라의 신속한 배치와 운영 효율을 지원하며, 데이터센터 운영자가 급격히 증가하는 AI 워크로드 수요에 발 빠르게 대응할 수 있도록 돕는다. AI가 발전함에 따라 오늘날 데이터센터 운영자들은 고밀도 GPU 가속 AI 클러스터의 속도 및 배포 과제를 해결하기 위해 참조 설계 프레임 워크에 의존하고 있다. 슈나이더 일렉트릭은 검증되고 문서화된 데이터센터 물리적 인프라 설계를 제공함으로써 전 세계 운영자들이 최신 AI 인프라 설루션이 출시되기 전에 차세대 전력 및 수랭식 제어 인프라를 설계하고 통합할 수 있도록 지원한다. 이는 비용·효율·신뢰성을 최적화하며, 데이터센터 운영자들이 미래 AI 팩토리를 선제적으로 준비할 수 있도록 한다. 슈나이더 일렉트릭이 공개한 첫 번째 레퍼런스 디자인은 통합 전력 관리 및 액체 냉각 제어 시스템 프레임워크를 제공한다. 여기에는 슈나이더 일렉트릭이 인수한 모티브에어(Motivair)의 리퀴드쿨링 포트폴리오가 포함되어 있으며, 이를 통해 복잡한 AI 인프라의 구성 요소를 원활하게 관리할 수 있다. 또한 MQTT 프로토콜 기반의 플러그 앤 플레이 아키텍처를 도입해 OT(운영기술) 인프라와 IT(정보기술) 시스템을 통합할 수 있다. 운영자는 이 두 시스템의 데이터를 실시간으로 활용해 성능을 최적화할 수 있다. 엔비디아의 AI 팩토리 운영 및 오케스트레이션 소프트웨어인 ‘엔비디아 미션 컨트롤(NVIDIA Mission Control)’과의 상호 운용성을 지원해 클러스터 및 워크로드 관리 등 고도화된 기능도 경험할 수 있다. 엔비디아 미션 컨트롤은 원활한 AI 인프라 관리를 지원하여, 데이터센터 운영자들이 AI 환경을 보다 효율적으로 운영할 수 있도록 돕는 것이 특징이다. 이번 AI 인프라 레퍼런스 디자인은 건물 관리 소프트웨어와 원활한 상호운용이 가능하다. 즉, 데이터센터 운영자들은 전력 및 냉각의 이중화 시스템을 구축하고 AI 랙 전력 프로파일 측정 가이던스를 제시하는 등 가동시간, 안정성, 성능을 최고 수준으로 유지하면서 실시간으로 전력 및 냉각 자원을 정밀하게 관리할 수 있다.     두 번째 레퍼런스 디자인은 엔비디아 GB300 NVL72 기반 랙에서 랙 당 최대 142kW의 고밀도 AI 워크로드를 처리할 수 있도록 설계되었다. 이 레퍼런스 디자인은 슈나이더 일렉트릭의 자체 엔지니어링 팀과 설루션을 활용해 구축되었으며, 단일 데이터홀에서 고밀도 AI 클러스터를 운영할 수 있도록 전력, 냉각, IT 공간, 수명주기 소프트웨어 등 네 가지 핵심 영역을 아우른다. 또 ANSI와 IEC 두 가지 표준에 모두 대응한다. 이로 인해 운영자는 데이터센터 설계의 초기 계획 프로세스를 대폭 단축할 수 있으며, 실제 환경에 최적화된 AI 인프라 배치를 구현할 수 있다. 이는 차세대 엔비디아 블랙웰 울트라(NVIDIA Blackwell Ultra) 아키텍처 도입을 위한 프레임워크로, 데이터센터 설계와 운영의 새로운 기준을 제시한다. 이번 발표로 슈나이더 일렉트릭은 기존 GB200 NVL72에 이어 최신 엔비디아 GB300 NVL72 플랫폼을 지원하는 레퍼런스 디자인을 완성하게 됐다. 이를 통해 데이터센터 운영자는 설계 단계부터 디지털 트윈 기반의 시뮬레이션을 적용해 특정 전력 및 냉각 시나리오를 최적화할 수 있으며, 차세대 AI 팩토리의 신뢰성과 효율을 선제적으로 확보할 수 있다. 엔비디아의 스콧 월리스(Scott Wallace) 데이터센터 엔지니어링 디렉터는 “전력, 냉각, 운영의 통합 지능은 데이터센터 아키텍처를 새롭게 정의할 것”이라며, “슈나이더 일렉트릭의 제어 레퍼런스 디자인은 엔비디아 미션 컨트롤과 연계해 AI 팩토리 디지털 트윈을 구현하고, 운영자가 첨단 가속 컴퓨팅 인프라를 최적화할 수 있는 검증된 모델을 제공한다”고 밝혔다. 슈나이더 일렉트릭의 짐 시모넬리(Jim Simonelli) 수석 부사장 겸 최고기술책임자(CTO)는 “슈나이더 일렉트릭은 엔비디아와 개발한 새로운 레퍼런스 디자인을 통해 첨단 AI 인프라의 설계, 구축 및 운영 프로세스를 간소화하고 있다”며, “이번 레퍼런스 디자인은 미래 지향적이며 확장 가능한 설계로, 데이터센터 운영자들이 급증하는 AI 수요를 발 빠르게 대응할 수 있다”고 전했다.
작성일 : 2025-09-25
어도비, 기업의 고객 경험 오케스트레이션 혁신을 지원하는 AI 에이전트 정식 출시
어도비가 기업의 고객 경험 및 마케팅 캠페인 구축, 전달, 최적화 방식을 혁신적으로 바꿀 AI 에이전트(AI Agents)의 정식 출시를 발표했다. 또한 어도비는 익스피리언스 플랫폼(Adobe Experience Platform : AEP) 에이전트 오케스트레이터(Agent Orchestrator)를 통해, 자사 및 서드파티 생태계 전반에서 에이전트가 맥락을 파악하고, 여러 단계의 작업을 계획하며, 응답을 개선하는 등 다양한 기능을 수행할 수 있도록 에이전트를 맞춤화, 관리하는 기업용 AI 플랫폼도 구축하고 있다고 밝혔다. 에이전트 오케스트레이터의 토대가 되는 어도비 익스피리언스 플랫폼은 기업들이 전사적으로 실시간 데이터를 연결해 기업 데이터, 콘텐츠, 워크플로에 대한 심층적인 인사이트를 제공하는 플랫폼이다. 어도비 익스피리언스 플랫폼 고객의 70% 이상이 어도비 및 서드파티 전반의 에이전트와 팀이 상호작용할 수 있도록 지원하는 대화형 인터페이스인 어도비의 AI 어시스턴트를 사용하고 있다. 허쉬 컴퍼니, 레노버, 머클, 웨그먼스 푸드 마켓, 윌슨 컴퍼니 등의 브랜드가 어도비의 에이전틱 AI 설루션을 사용해 조직 내 전문성을 강화하고 영향력 있는 고객 경험을 제공하고 있다.     어도비 익스피리언스 플랫폼 에이전트 오케스트레이터는 의사결정 과학 및 언어 모델 기반의 추론 엔진을 탑재해, 동적 및 적응형 추론도 지원한다. 자연어 프롬프트에서 사용자의 의도를 해석하고, 전체적으로 조율된 계획에 따라 어떤 에이전트를 활성화할지 상황에 맞춰 결정한다. 그 결과 에이전트 오케스트레이터는 맥락에 맞게 목표를 이룰 수 있도록 자동화 작업을 수행하고, 사람이 개입하는 방식을 사용해 세부 조정도 지원한다.  ▲오디언스 에이전트(Audience Agent ▲저니 에이전트(Journey Agent) ▲익스페리멘테이션 에이전트(Experimentation Agent) ▲데이터 인사이트 에이전트(Data Insights Agent) ▲사이트 옵티마이제이션 에이전트(Site Optimization Agent) ▲프로덕트 서포트 에이전트(Product Support Agent) 등의 AI 에이전트는 어도비 실시간 고객 데이터 플랫폼(Adobe Real-Time Customer Data Platform : RT-CDP), 어도비 익스피리언스 매니저(Adobe Experience Manager), 어도비 저니 옵티마이저(Adobe Journey Optimizer), 어도비 커스터머 저니 애널리틱스(Adobe Customer Journey Analytics) 등 어도비 엔터프라이즈 애플리케이션 내에서 직접 사용할 수 있다. 기업은 AI 에이전트를 활용해 마케터의 역량을 강화하고 고객 경험 오케스트레이션(CXO)를 가속화할 수 있다. 출시를 앞둔 익스피리언스 플랫폼 에이전트 컴포저(Experience Platform Agent Composer)는 기업이 브랜드 가이드라인, 조직 정책 관리 등에 기반해 AI 에이전트를 맞춤화하고 구성할 수 있는 단일 인터페이스를 제공한다. 이를 통해 팀은 AI 에이전트 작업을 세밀하게 조정하고 성과를 가시화하는 시간을 단축할 수 있다. 또 에이전트 SDK(Agent SDK) 및 에이전트 레지스트리(Agent Registry)를 포함한 새로운 개발자 툴을 통해 개발자는 에이전틱 애플리케이션을 구축, 확장 및 조율할 수 있게 돼, 새로운 산업과 사용자 페르소나에 맞춰 사용 사례를 확장할 수 있다. 팀이 더 나은 성과를 내기 위해 에이전틱 AI를 도입함에 따라, 서로 다른 생태계에 속한 AI 에이전트 간 상호운용성은 매우 중요하다. 에이전트 컴포저는 기업이 Agent2Agent 프로토콜을 사용해 여러 에이전트의 협업을 추진할 수 있는 툴을 제공한다. 특정 요구사항을 충족하는 맞춤형 역량을 통해 더 많은 워크플로에 걸쳐 에이전틱 AI의 가치를 확장시킨다. 또한 코그니전트, 구글 클라우드, 하바스, 메달리아, 옴니콤, PwC, VML과의 새로운 에이전틱 AI 파트너십을 통해 에이전트 간 워크플로의 원활한 실행과 다양한 산업 및 사용 사례에 걸친 맞춤화도 가능해졌다. 안줄 밤브리(Anjul Bhambhri) 어도비 익스피리언스 클라우드 엔지니어링 수석 부사장은 “어도비는 오랫동안 디지털 데이터를 실행 가능한 인사이트로 전환함으로써, 기업들이 고객에게 매력적인 경험을 제공하도록 지원해왔다. 이제 어도비는 에이전틱 AI(Agentic AI)를 활용해 특화된 에이전트를 구축하고, 이를 데이터, 콘텐츠, 경험 생성 워크플로에 내장하고 있다”면서, “어도비의 AI 혁신은 프로세스를 재구상하고 마케팅 팀의 생산성을 높이고, 개인화된 경험을 대규모로 제공해 비즈니스 성장을 촉진함으로써 고객 경험을 향상하고 있다”고 말했다.
작성일 : 2025-09-12
인텔, 아크 프로 B-시리즈 GPU 및 제온 6 프로세서의 AI 추론 벤치마크 결과 소개
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.1 벤치마크에서 P코어를 탑재한 인텔 제온(Intel Xeon) 및 인텔 아크 프로 B60(Intel Arc Pro B60) 그래픽으로 구성된 인텔 GPU 시스템(코드명 프로젝트 배틀매트릭스)의 추론용 워크스테이션이 달성한 결과를 공개했다. 6가지 주요 벤치마크 테스트 결과, 라마(Llama)4 80B 모델 추론 처리량에서 인텔 아크 프로 B60은 엔비디아 RTX 프로 6000 및 L40S에 비해 각각 최대 1.25배 및 최대 4배의 가격 대비 성능 우위를 보였다. 인텔은 “이는 하이엔드 워크스테이션 및 에지 애플리케이션 전반에 걸쳐 새로운 AI 추론 워크로드를 처리하는 인텔 기반 플랫폼의 성능과 접근 우수성을 보여주는 결과”라고 평가했다. 인텔의 리사 피어스(Lisa Pearce) 소프트웨어, GPU 및 NPU IP 그룹 총괄은 “MLPerf v5.1 벤치마크 결과는 인텔의 GPU 및 AI 전략을 강력히 입증하고 있다. 새로운 추론 최적화 소프트웨어 스택을 탑재한 아크 프로 B-시리즈 GPU는 기업과 개발자가 강력하면서도 설정하기 쉽고, 합리적인 가격에 확장 가능한 추론 워크스테이션으로 AI 분야에서 경쟁력을 높여준다”고 밝혔다.     이전까지는 높은 추론 성능을 제공하면서 데이터 프라이버시 침해에서 자유로운 플랫폼을 우선시하는 전문가들이 독점적인 AI 모델에 의한 과도한 구독 비용 부담 없이 LLM(대형 언어 모델)을 배포하기에 필요한 역량을 갖추기 위한 선택지가 제한적이었다. 새로운 인텔 GPU 시스템은 최신 AI 추론 요구사항을 충족하도록 설계되었으며, 풀스택 하드웨어와 소프트웨어를 결합한 올인원(all-in-one) 추론 플랫폼을 제공한다. 인텔 GPU 시스템은 리눅스 환경을 위한 새로운 컨테이너 기반 설루션을 통해 간소화된 도입과 사용 편의성을 목표로 한다. 또한 멀티 GPU 스케일링 및 PCle P2P 데이터 전송으로 높은 추론 성능을 발휘하도록 최적화되었으며, ECC, SRIOV, 텔레메트리(telemetry) 및 원격 펌웨어 업데이트 등과 같은 엔터프라이즈급 안전성 및 관리 용이성을 갖추고 있다. CPU는 AI 시스템에서 계속해서 중요한 역할을 수행하고 있다. 오케스트레이션 허브로서 CPU는 데이터 전처리, 전송 및 전반적인 시스템 조율을 담당한다. 지난 4년간 인텔은 CPU 기반 AI 성능을 지속적으로 향상시켜왔다. P 코어를 탑재한 인텔 제온 6는 MLPerf 추론 v5.1에서 이전 세대 대비 1.9배의 성능 향상을 달성했다.
작성일 : 2025-09-10