• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "제온"에 대한 통합 검색 내용이 376개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 아크 프로 B-시리즈 GPU 및 제온 6 프로세서의 AI 추론 벤치마크 결과 소개
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.1 벤치마크에서 P코어를 탑재한 인텔 제온(Intel Xeon) 및 인텔 아크 프로 B60(Intel Arc Pro B60) 그래픽으로 구성된 인텔 GPU 시스템(코드명 프로젝트 배틀매트릭스)의 추론용 워크스테이션이 달성한 결과를 공개했다. 6가지 주요 벤치마크 테스트 결과, 라마(Llama)4 80B 모델 추론 처리량에서 인텔 아크 프로 B60은 엔비디아 RTX 프로 6000 및 L40S에 비해 각각 최대 1.25배 및 최대 4배의 가격 대비 성능 우위를 보였다. 인텔은 “이는 하이엔드 워크스테이션 및 에지 애플리케이션 전반에 걸쳐 새로운 AI 추론 워크로드를 처리하는 인텔 기반 플랫폼의 성능과 접근 우수성을 보여주는 결과”라고 평가했다. 인텔의 리사 피어스(Lisa Pearce) 소프트웨어, GPU 및 NPU IP 그룹 총괄은 “MLPerf v5.1 벤치마크 결과는 인텔의 GPU 및 AI 전략을 강력히 입증하고 있다. 새로운 추론 최적화 소프트웨어 스택을 탑재한 아크 프로 B-시리즈 GPU는 기업과 개발자가 강력하면서도 설정하기 쉽고, 합리적인 가격에 확장 가능한 추론 워크스테이션으로 AI 분야에서 경쟁력을 높여준다”고 밝혔다.     이전까지는 높은 추론 성능을 제공하면서 데이터 프라이버시 침해에서 자유로운 플랫폼을 우선시하는 전문가들이 독점적인 AI 모델에 의한 과도한 구독 비용 부담 없이 LLM(대형 언어 모델)을 배포하기에 필요한 역량을 갖추기 위한 선택지가 제한적이었다. 새로운 인텔 GPU 시스템은 최신 AI 추론 요구사항을 충족하도록 설계되었으며, 풀스택 하드웨어와 소프트웨어를 결합한 올인원(all-in-one) 추론 플랫폼을 제공한다. 인텔 GPU 시스템은 리눅스 환경을 위한 새로운 컨테이너 기반 설루션을 통해 간소화된 도입과 사용 편의성을 목표로 한다. 또한 멀티 GPU 스케일링 및 PCle P2P 데이터 전송으로 높은 추론 성능을 발휘하도록 최적화되었으며, ECC, SRIOV, 텔레메트리(telemetry) 및 원격 펌웨어 업데이트 등과 같은 엔터프라이즈급 안전성 및 관리 용이성을 갖추고 있다. CPU는 AI 시스템에서 계속해서 중요한 역할을 수행하고 있다. 오케스트레이션 허브로서 CPU는 데이터 전처리, 전송 및 전반적인 시스템 조율을 담당한다. 지난 4년간 인텔은 CPU 기반 AI 성능을 지속적으로 향상시켜왔다. P 코어를 탑재한 인텔 제온 6는 MLPerf 추론 v5.1에서 이전 세대 대비 1.9배의 성능 향상을 달성했다.
작성일 : 2025-09-10
인텔, “AI 설루션으로 LG이노텍의 생산 공정 효율 향상”
인텔은 LG이노텍이 자사의 기술을 활용해 인공지능(AI) 기반의 자동화 시스템을 구축하고 있다고 소개했다. 소재·부품 전문 기업인 LG이노텍은 휴대폰, 자동차 디스플레이, 스마트 기기 등에 들어가는 수십만 개의 초소형 부품을 완벽한 정확도와 무결점으로 복제하는 것을 목표로 삼고 있으며, 혁신 기술을 통해 이러한 목표를 달성하고자 한다.  LG이노텍의 구미 공장에서는 인텔 코어(Intel Core) 프로세서, 인텔 제온(Intel Xeon) 프로세서 및 인텔 아크(Intel Arc) 내장형 그래픽처리장치(GPU)가 조화를 이루며 작동한다. 이들 기술은 오픈비노(OpenVINO) 소프트웨어 툴킷으로 통합된다. LG이노텍은 생산 라인의 특정 단말기에서 규칙 기반 검사 및 딥러닝 기반 시스템을 사용해 제품 품질을 높여왔다. 여기서 나아가, LG이노텍은 제조 공정 전반에 걸쳐 AI를 광범위하게 적용하여 성능 저하 없이 완전 자동화된 시스템을 구축하고자 했다. 인텔은 지난 2024년 인텔 코어 및 제온 프로세서와 아크 외장형 GPU를 기반으로 하는 AI 기반 검사 시스템에 대한 구축 지원을 위해 LG이노텍과 논의를 시작했다. 핵심은 생산 공정에서 발생하는 데이터가 인텔 코어 CPU를 탑재한 PC로 스트리밍되며, 내장 GPU는 결함 데이터를 분석하는 데 비용 효율을 제공하는 것이다. 고해상도 이미지에서 다중 알고리즘을 실행하는 등 부하가 큰 워크로드는 인텔 아크 외장 GPU가 처리하게끔 했다. 시간이 지남에 따라 축적된 데이터셋은 인텔 제온 기반의 사전 학습 서버로 전송된다.      양사는 향후 협업을 통해 인텔 가우디 AI 가속기가 탑재된 서버를 활용한 사전 학습 워크로드 관리를 검토하고 있다. 이처럼 CPU를 기반으로 내장 및 외장 GPU로 가속화된 인텔 기반 기술 조합을 활용하여 AI 검사 시스템 구축 비용을 절감할 수 있었다는 것이 인텔의 설명이다. 인텔은 “아크 기반 외장 GPU를 도입하면서, 동급 성능의 타사 하드웨어 대비 성능에 비해 높은 비용 효율성을 달성했다. 이러한 비용 절감 효과는 규모의 경제를 더욱 극대화할 수 있는 기반이 되고 있다”고 전했다.  LG이노텍은 2024년 모바일 카메라 모듈 생산 라인에 인텔의 AI 비전 검사 설루션을 처음 적용했으며, 올해는 FC-BGA(flip-chip ball grid array)를 생산하는 구미4공장 등 국내 주요 생산 거점과 해외 생산라인에 단계적으로 확대 적용할 계획이다.  시스템 도입 당시에는 기존 딥러닝 환경이 특정 외장 그래픽 카드를 기반으로 구축되어 있어, 처음에는 통합 GPU 도입에 대한 우려가 있었다. 특히, 신규 GPU에 맞춰 기존 코드를 재작성하고 다시 매핑하는 것이 매우 어려울 것이라는 걱정이 있었만, 오픈비노(OpenVINO) 소프트웨어 툴킷을 활용해 우려를 해소할 수 있었다. 2018년 오픈비노 출시 이후, 인텔은 전 세계 개발자가 AI 기반 개발을 가속화할 수 있도록 지원해왔다. 오픈비노는 개발자가 한 번의 코드 작성으로 다양한 환경에 AI 모델을 배포할 수 있도록 돕는 오픈소스 AI 툴킷이다. LG 이노텍의 엔지니어들은 대량 생산 과정에서 공정이 변경되거나 원자재가 바뀔 때, 딥러닝 모델을 재학습하기 위해 AI 기반 워크로드에 최적화된 AI 가속기가 탑재된 인텔 제온 CPU 활용도 고려하고 있다. 제온 CPU는 병렬 연산 속도를 높이고, 인텔 AMX(Intel Advanced Matrix Extensions)라는 특수 내장 가속기를 지원해 제온 CPU에서 딥러닝 학습 및 추론 성능을 향상시킨다. 인텔은 제온 CPU와 별도 서드파티 GPU를 함께 사용하는 기존 방식에 비해 AI 기반 파인튜닝(Fine Tuning) 작업을 CPU로 처리함으로써 시스템 비용을 줄일 수 있을 것으로 기대하고 있다.
작성일 : 2025-08-26
레노버, “새로운 서비스·설루션·플랫폼으로 하이브리드 AI 확대”
레노버가 AI 시대를 맞아 기업의 IT 전환 가속화를 위해 ‘레노버 하이브리드 AI 어드밴티지(Lenovo Hybrid AI Advantage)’를 확장했다고 밝혔다. 이번 확장을 통해 레노버는 고성능 서버 기반의 가속 컴퓨팅, 네트워킹, 파트너 통합 기능을 갖춘 AI 인프라를 바탕으로 기업이 AI 팩토리를 구축·확장·운영할 수 있도록 지원하는 프레임워크를 제공한다. 새롭게 검증된 설루션과 서비스, 플랫폼은 기업이 모든 환경에 맞춰 적합한 AI를 보다 빠르게 배포할 수 있도록 지원하고 생산성, 민첩성, 신뢰성을 기반으로 한 비즈니스 가치 실현을 가능하게 한다. 레노버 하이브리드 AI 어드밴티지는 AI 인프라, 데이터, 모델, 서비스, 검증된 활용 사례를 통합해 기업이 조직 전반의 인력, 운영, 데이터에 AI를 적용할 수 있도록 지원한다. 레노버는 자사의 서비스를 기반으로 생성형 AI 도구 도입 프레임워크를 적용할 경우 생산성과 효율이 최대 31% 향상(주당 절감 시간 기준)될 수 있다고 설명했다. 레노버의 AI 도입 및 변화 관리 서비스(AI Adoption and Change Management Services)는 기업이 AI 수용 태세를 점검하고, 인력 역량을 강화하며, 참여도를 높이고, 페르소나 기반의 변화 관리와 모범 사례를 통해 기업 시스템에서 ROI를 극대화하도록 지원한다. 주요 서비스 항목으로는 ▲레노버 AI 인적 준비도 평가 ▲페르소나 기반 교육 및 참여 유도 ▲ 코파일럿 도입 지원 ▲AI 거버넌스 및 조직 문화 수용성 강화 등이다. 레노버 하이브리드 AI 어드밴티지는 기업이 AI 실험 단계를 넘어 조직 전반에 걸쳐 측정 가능한 성과를 달성할 수 있도록 지원한다. AI에 대한 기대와 실제 효과 사이의 격차를 줄이기 위해서는 주요 비즈니스 과제를 해결하고 기업 워크플로에 맞게 확장 가능한 신뢰도 높은 AI 애플리케이션이 필요하다. 레노버는 ISV와의 협력을 통해 검증된 레노버 AI 이노베이터 디자인 기반의 설루션을 제공해 기업이 손쉽게 설루션을 맞춤화하고 성능을 최적화할 수 있도록 지원한다고 밝혔다. 이 설루션들은 하이브리드 AI 플랫폼 환경에 최적화되어 실제 비즈니스 워크플로와 활용 사례를 구현할 수 있도록 설계됐다. 대표 설루션으로는 ▲센티픽(Centific) AI 데이터 파운드리 및 엔비디아 기반의 호스피탈리티 설루션 ▲아바돈(Avathon) 비주얼 AI 및 엔비디아 기반의 산업 현장 안전 및 보호장비 착용 준수 여부 모니터링 설루션 ▲웨이트타임(WaitTime) 및 인텔 기반의 리테일 및 스마트 공간 분석 설루션 ▲트리포크(Trifork) 및 엔비디아 기반의 품질 검사 설루션 등이 있다. 이번 확장은 시스코, IBM, 엔비디아와의 협업을 기반으로 글로벌 기업의 AI 도입을 가속화하는 새로운 통합 설루션을 제공한다. 새로운 플랫폼은 업계 선도 파트너의 가속 컴퓨팅, 네트워킹, 스위칭, 소프트웨어를 통합한 고성능·저전력 AI 인프라를 기반으로 기업이 하이브리드 AI 팩토리를 손쉽게 구축·확장·운영할 수 있도록 지원한다. 레노버는 다양한 산업의 모델 개발, 그래픽 처리, 시뮬레이션 워크로드를 위한 연산 성능을 제공하는 새로운 씽크시스템 SR680a V4 시스템을 선보였다. 이 시스템은 인텔 제온(Xeon) 6 CPU와 엔비디아 블랙웰(BlackWell) GPU를 탑재했으며, 고속 엔비디아 NV링크로 GPU 간 고속 연결을 지원해 탁월한 컴퓨팅 파워와 AI 가속 기능을 제공한다. 또한 8개의 엔비디아 슈퍼NIC과 블루필드-3 DPU를 탑재해 기존 대비 최대 11배 빠른 대규모 언어 모델 추론 성능, 7배 높은 연산 처리 성능, 4배 확장된 메모리를 지원한다. 또한 IBM 왓슨x 기반 하이브리드 AI 플랫폼은 레노버 씽크시스템 SR675 서버, 레드햇 오픈시프트(Red Hat OpenShift), 엔비디아 기술을 기반으로 구축된 고성능 인프라를 통해 생성형 AI 모델의 개발, 배포, 거버넌스를 가속화한다. 시스코 기반의 하이브리드 AI 플랫폼은 최대 8개의 엔비디아 RTX PRO 6000 블랙웰 GPU를 탑재한 레노버 SR675 V3 서버를 기반으로 구축되며, 엔비디아 스펙트럼-X(Spectrum-X)가 적용된 시스코 넥서스(Nexus) 스위치를 통해 1.6배 향상된 AI 네트워크 성능과 효율적인 네트워크 관리를 제공한다. 레노버 인프라스트럭처 설루션 그룹(ISG) 애슐리 고라크푸르왈라(Ashley Gorakhpurwalla) 사장은 “레노버는 통합 설루션 전반에서 획기적인 혁신을 이끌며 업계 변화를 주도하는 한편, 모든 기업이 엔터프라이즈급 AI를 실현할 수 있도록 하이브리드 AI 분야를 선도하고 있다”면서, “레노버는 이번 설루션과 신뢰할 수 있는 파트너십을 기반으로 AI를 현실화하고 있다. 검증된 다양한 사용 사례와 서비스를 통해 측정 가능한 생산성 향상과 만족도 제고, 데이터 기반의 빠른 비즈니스 가치 실현을 가능케 할 것”이라고 밝혔다.
작성일 : 2025-08-26
인텔-AWS, 제온 6 프로세서 기반 EC2 인스턴스 출시
인텔은 클라우드 환경에서 동급 인텔 프로세서 중 가장 높은 성능과 가장 빠른 메모리 대역폭을 제공하는 P-코어를 탑재한 인텔 제온 6 프로세서(Intel Xeon 6 processors with P-cores) 기반의 신규 EC2(Amazon Elastic Compute Cloud) R8i 및 R8I-플렉스 인스턴스를 아마존웹서비스(AWS)에서 출시한다고 밝혔다. 이번 새로운 인스턴스는 인텔과 AWS 간 수년간 협력을 바탕으로, 확장성, 비용 효율성 및 고성능 클라우드 인프라를 추구하는 고객에게 최신 실리콘 혁신과 밀접하게 통합된 소프트웨어 최적화를 제공한다. 기업의 실시간 데이터 처리, 인공지능(AI), 컴플라이언스 집약적인 워크로드 활용이 점점 늘어남에 따라, 유연한 고성능 클라우드 인프라에 대한 필요도가 더 높아졌다. 인텔은 제온 6 프로세서가 전문적인 가속기에 대한 의존도를 최소화하면서 유연한 다목적 컴퓨팅 플랫폼을 제공하며, 다양한 활용 사례에 대한 배포 및 관리를 간소화해준다고 설명했다.     새로운 제온 6 기반 인스턴스의 주요 특징은 ▲고집적도 컴퓨팅 ▲ 클라우드 상에서 가장 빠른 DDR5 지원 ▲ 내장형 AI 가속 ▲인텔 QAT(QuickAssist Technology) 등이다. 제온 6는 재설계된 코어 아키텍처와 향상된 파이프라인, 더 많은 코어 수를 통해 성능과 스레드 확장성을 향상시켰다. 이를 통해 AWS는 최대 96xlarge와 같은 대규모 인스턴스 크기를 제공해 고객이 워크로드에 필요한 컴퓨팅 자원을 더욱 높은 집적도로 활용할 수 있도록 지원한다. 신규 인스턴스는 DDR5 메모리 속도 최대 7200 MT/s를 지원하며 분석, 머신러닝(ML), 인메모리 데이터베이스에 적합한 고대역폭 메모리 및 낮은 지연 시간을 제공한다. 또한, 인텔 AMX(Intel Advanced Matrix Extensions)를 통합해 AI 추론 및 머신러닝 성능을 최대 2배 향상시키며, 외부 가속기 사용 필요성을 줄이고 배포를 간편하게 한다. 이외에도 하드웨어 가속화된 암호화 및 압축을 지원하여 CPU 리소스를 절감하고, 금융, 의료, 공공 애플리케이션 등 보안에 민감하거나 규제 대상인 워크로드 성능을 향상시킨다. 인텔은 프로세서 마이크로아키텍처와 펌웨어 튜닝부터 하이퍼바이저 튜닝, 가상화, 소프트웨어 프레임워크에 이르기까지 스택(stack)의 모든 계층을 아우르는 최적화를 진행했다. 고객들은 이러한 통합을 통해 AWS의 글로벌 인프라 전역에서 제온 6의 성능을 최대한 활용할 수 있다. 인텔은 이번 협력으로 AWS 및 더 광범위한 클라우드 생태계에서 핵심 기술 제공 기업으로서의 입지를 강화할 수 있을 것으로 기대하고 있다. 개발자, 데이터 사이언티스트, IT 리더들이 보다 빠르고 효율적으로 혁신하고, 규모를 확장하며, 서비스를 배포할 수 있도록 지원하겠다는 것이다. AWS의 니샨트 메타(Nishant Mehta) EC2 제품 관리 부사장은 “고객들은 가장 요구도가 높은 워크로드 속도에 맞춘 인프라가 필요하다”면서, “인텔과의 협력을 통해 새로운 아마존 EC2 R8i 및 R8i-플렉스 인스턴스는 전 세대 대비 메모리 대역폭은 2.5배 더 향상되었고 가격 대비 성능은 15% 더 우수하다. 이는 고객이 성능을 극대화하면서 비용을 절감할 수 있도록 지원하는 혁신”이라고 말했다. 인텔의 로낙 싱할(Ronak Singhal) 선임 펠로우는 “인텔 제온 6 프로세서로 구동되는 8세대 EC2 인스턴스 출시는 AWS와의 협업에서 중요한 이정표”라며, “인텔과 AWS는 AI 가속화, 메모리 성능 향상, 쉬운 배포를 통해 고객이 인사이트를 빠르게 얻고 강력한 투자수익률(ROI)을 달성할 수 있도록 지원하는 인프라를 함께 구축했다”고 밝혔다.
작성일 : 2025-08-22
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
인텔코리아, AI 기술 전략 소개 및 국내 기업과 협력 확대 발표
인텔은 국내 협력사들과 함께 자사의 AI 기술 동향과 최신 전략, 협력 사례를 공유하는 ‘2025 인텔 AI 서밋 서울’을 개최했다고 밝혔다. 인텔 AI 서밋은 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고 산업 전반에 걸친 AI의 잠재력과 미래 발전 방향을 함께 모색하기 위한 자리다. 레노버, 네이버클라우드, SK하이닉스, 델, 마이크로소프트, 삼성SDS, 슈퍼마이크로, 시스코, HPE, LG이노텍, LG전자 등 국내외 주요 협력사와 KAIST, 중소벤처기업부, 창업진흥원 등 학계와 공공 부문에서도 관련 전문가들이 참석하여 AI 기술 동향과 산업 간 협력 방안을 논의하고 네트워킹하는 자리가 이어졌다. 이번 행사는 인텔코리아 배태원 사장의 환영사와 한스 촹(Hans Chuang) 인텔 세일즈 마케팅 그룹의 아시아 태평양 및 일본 총괄의 인사말로 시작되었다. 촹 총괄은 “AI 기술이 빠르게 진화하고 활용 사례도 점점 복잡해지면서, 기업들은 성능과 비용 효율성을 동시에 충족하는 보다 개방적이고 다양한 설루션을 필요로 한다”고 전했다. 또한, “인텔은 폭넓은 호환성, 다양한 소프트웨어 옵션, 고유의 아키텍처, 뛰어난 성능을 제공함으로써 AI가 데이터센터, 클라우드, 네트워크 에지 및 PC에 이르는 전체 컴퓨팅 연속체에서 최적의 성능을 발휘하도록 지원하고 있다”면서, 인텔의 개방형 프로그래밍 모델은 단일 벤더의 하드웨어나 GPU에서만 동작하는 폐쇄형 프로그래밍 모델에 비해 비용과 유연성 측면에서 실질적 비즈니스 우위를 제공한다고 강조했다.     이어진 파트너 세션에서 레노버 아시아태평양지역 인프라 솔루션 그룹 수미르 바티아(Sumir Bhatia) 사장은 ‘모두를 위한 스마트한 AI’를 주제로 기업들의 AI 가속화에 따른 높은 전력 수요로 지속가능성이 주요 과제로 떠올랐음을 강조하며, 이를 해결하기 위한 레노버의 최신 냉각 기술과 AI 추론 최적화 설루션을 소개했다.  또한 SK하이닉스의 정우석 부사장은 ‘메모리 중심 AI 컴퓨팅 시대의 새로운 기회’ 발표를 통해 AI 컴퓨팅 시대를 맞아 부각되고 있는 메모리 기술의 중요성을 강조하며, 커스텀 메모리 기술의 시장 기회가 증가하고 있다고 밝혔다. 또한 인텔과 데이터센터용 설루션의 다양한 영역에서 긴밀히 협력 중임을 덧붙였다. 전략적 파트너 세션의 발표자로 나선 네이버클라우드의 김유원 대표는 AI 생태계에 대한 발표를 통해 “네이버클라우드는 인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔으며, 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 협력의 범위와 깊이가 꾸준히 확장되고 있다”며, “향후에도 네이버클라우드는 인텔과 함께 글로벌 시장을 타깃으로 다양한 AI 기반 클라우드 서비스를 공동 개발하며, 기술 혁신과 해외 진출이라는 두 축에서 협력을 확대해 나갈 것”이라고 말했다. 오후 세션에서는 ‘AI & 데이터센터’와 ‘AI PC & 에지 AI’로 나뉘어 업계의 최신 정보 및 인사이트, 사례 발표가 이어졌다. 데이터센터 세션에서 삼성 SDS는 가우디 3 기반 LLM 추론 성능 분석 사례를 공유했고, AI PC 부문에서는 LG이노텍이 인텔 AI 설루션 기반 스마트 공장 사례를, 전북특별자치교육청이 AI PC를 활용한 수업 혁신 사례를 공유하는 등 교육, 게임, 리테일, 제조 등 다양한 분야의 적용 사례를 공유했다. 인텔은 하반기에도 국내 AI 생태계 발전을 위한 협력을 더욱 확대해 나갈 예정이다. 인텔은 행사 당일 포스코DX와 인텔 제온 프로세서의 AI 가속 기능 및 오픈비노 기술을 활용해 AI 서비스 비용 효율을 높이고, AI 에이전트 생태계 구축에 협력하기 위한 상호양해각서를 체결했다고 밝혔다. 한편 kt cloud와 인텔 가우디(Gaudi) AI 가속기를 kt cloud AI Foundry에 도입하는 것을 검토하고 AI 추론 개발에 특화된 비용 효율적인 GPUaaS 상품 출시를 검토하며, 다양한 산업군의 클라우드 수요에 대응할 수 있는 상품 포트폴리오 고도화 및 기술 협력을 위한 상호양해각서를 지난 6월 30일 체결했다.
작성일 : 2025-07-02
인텔, GPU 가속 AI 성능 높인 제온 6 프로세서 신제품 출시
인텔은 최첨단 그래픽 처리 장치(GPU) 기반 AI 시스템을 처리하기 위해 설계한 프로세서 3종을 인텔 제온 6(Intel Xeon 6) 시리즈에 추가해 출시한다고 발표했다. 새롭게 공개한 제품은 P-코어 기반 제품으로 PCT(Priority Core Turbo) 기술과 인텔 SST-TF(Intel Speed Select Technology-Turbo Frequency) 기능을 결합해, AI 워크로드에 필요한 CPU 코어 주파수를 상황에 맞춰 극대화함으로써 GPU 성능을 한층 끌어올린다. PCT 기술은 인텔 SST-TF 기능과 결합돼 AI 시스템 성능을 끌어올린다. PCT는 고우선순위 코어(HP 코어)에 터보 주파수를 동적으로 우선 할당해 더 높은 속도로 동작하도록 하며, 저우선순위 코어(LP 코어)는 기본 주파수로 작동해 CPU 자원을 효율적으로 분산한다. 이 기능은 순차적 또는 직렬 처리가 요구되는 AI 워크로드에 특히 효과적이며, GPU에 데이터를 더 빠르게 공급하고 전체 시스템 효율을 높이는 데 기여한다.     인텔은 제온 6 P-코어 프로세서가 모든 AI 시스템에 업계 최고 수준의 성능을 제공한다고 전했다. 이 프로세서는 CPU당 최대 128개의 P-코어를 탑재해, 복잡한 AI 작업도 균형 있게 처리할 수 있도록 워크로드를 효율적으로 분산한다. 메모리 속도가 최대 30% 향상되었으며, MRDIMM 및 CXL을 통해 높은 수준의 메모리 대역폭을 지원한다. 인텔 제온 6는 이전 세대 대비 최대 20% 더 많은 PCIe 레인을 제공해, I/O 집약적 워크로드에서 한층 더 빠른 데이터 전송을 지원하며, 신뢰성, 가용성, 유지보수 기능을 바탕으로 비즈니스 중단을 최소화하고 최상의 시스템 가동 시간을 제공한다. 그리고 인텔 첨단 벡터 확장(AMX)은 반정밀도 부동소수점(FP16) 연산을 지원해 AI 워크로드에서 효율적인 데이터 전처리와 주요 CPU 작업 수행을 가능하게 한다. 인텔은 기업들이 인공지능(AI) 수요 증가에 대응해 인프라를 고도화함에 따라, 고성능 P-코어를 탑재한 인텔 제온 6 프로세서가 성능과 에너지 효율을 모두 갖춘 최적의 설루션을 제공한다고 전했다. “다양한 데이터센터 및 네트워크 환경을 폭넓게 지원하며, AI에 최적화된 CPU 설루션 분야에서 인텔의 리더십을 한층 강화하고 있다”는 것이 인텔의 설명이다. 한편, 인텔은 이번에 공개된 제품군 가운데 제온 6776P가 엔비디아의 최신 AI 가속 시스템인 DGX B300의 호스트 CPU로 채택되었다고 발표했다. DGX B300에 탑재된 제온 6776P는 대규모 모델 및 데이터셋 운용에 필요한 메모리 용량과 대역폭을 제공하며, AI 가속화 시스템을 관리, 조율 및 지원하는데 중요한 역할을 한다. 인텔의 데이터센터 및 AI 그룹 임시 총괄인 카린 엡시츠 시갈(Karin Eibschitz Segal) 부사장(CVP)은 “새롭게 추가한 제온 라인업은 인텔 제온 6가 지닌 독보적 성능을 입증하며, 차세대 GPU 가속 AI 시스템에 가장 최적화된 CPU”라면서, “인텔은 엔비디아와의 협업을 강화해 업계 최고 수준의 AI 시스템을 제공하고, 산업 전반에서 AI 도입을 가속화할 수 있도록 지원할 것”이라고 전했다.
작성일 : 2025-05-23
인텔, 컴퓨텍스에서 AI·워크스테이션용 최신 GPU 공개
인텔은 전문가와 개발자를 위한 신규 그래픽 처리 장치(GPU) 및 AI 가속기 제품군을 컴퓨텍스 2025에서 공개했다. 이번에 발표된 신제품은 ▲AI 추론 및 전문가용 워크스테이션에 최적화된 구성으로 설계된 인텔 아크 프로 B60(Intel Arc Pro B60) 및 인텔 아크 프로 B50(Intel Arc Pro B50) GPU ▲기업 및 클라우드 환경의 AI 추론을 위한 확장 가능하고 개방형 설루션을 제공하는 인텔 가우디 3 AI 가속기(Intel Gaudi 3 AI accelerators) ▲인텔 플랫폼에 최적화된 로컬 기반 목적 특화형 AI 에이전트를 개발자가 직접 생성할 수 있도록 지원하는 인텔 AI 어시스턴트 빌더(Intel AI Assistant Builder) 등이다.   ▲ 인텔 아크 프로 B60 및 B50 GPU   Xe2 아키텍처 기반의 인텔 아크 프로 B60 및 B50 GPU는 Xe 매트릭스 확장(XMX) AI 코어와 고급 레이 트레이싱 유닛을 탑재해 크리에이터, 개발자, 엔지니어를 위한 고성능 컴퓨팅 기능을 제공한다. 인텔은 이 두 GPU를 통해 전문가용 GPU 라인업을 확대하며, 고부하 AI 추론 작업과 워크스테이션 애플리케이션에 적합한 설계를 적용했다. AI 지원 기능, 24GB/16GB 메모리, 멀티 GPU 확장성을 갖춘 아크 프로 B 시리즈는 크리에이터, AI 개발자, 전문가에게 유연하고 강력한 설루션을 제공한다. 이들 GPU는 AEC(건축, 엔지니어링, 건설) 및 AI 추론용 워크스테이션에 최적화되어 있으며, 다양한 ISV 인증과 최적화된 소프트웨어를 통해 높은 안정성과 성능을 제공한다는 것이 인텔의 설명이다. 인텔 아크 프로 B 시리즈의 GPU들은 윈도우에서 일반 및 전문가용 드라이버와 호환되며, 리눅스에서는 AI 배포를 간소화하기 위한 컨테이너 기반 소프트웨어 스택을 지원한다. 향후 기능 추가 및 성능 최적화도 순차적으로 적용될 예정이다.  고용량 메모리와 주요 소프트웨어 호환성을 갖춘 인텔 아크 프로 B 시리즈는 크리에이터와 AI 개발자에게 확장가능하면서도 비용 효율적인 설루션을 제공한다. 인텔은 AI 개발 과정에서 발생하는 여러 마찰 지점을 최소화하도록 설계된 워크스테이션급 인텔 제온(Intel Xeon) 기반 플랫폼(코드명 ‘Project Battlematix)도 공개했다. 이 플랫폼은 최대 8개의 인텔 아크 프로 B60 24GB GPU를 지원해, 최대 1500억 개 매개변수의 중형 AI 모델을 고정밀도로 구동할 수 있으며, 최대 192GB의 비디오 전용 메모리를 제공한다. 인텔 아크 프로 B60 GPU는 2025년 6월부터 애즈락(ASRock), 니르(Gunnir), 래너(Lanner), 맥선(Maxsun), 오닉스(Onix), 세나오(Senao), 스파클(Sparkle) 등 다양한 애드인 보드 파트너사를 통해 샘플링이 시작되며, 아크 프로 B50 GPU는 2025년 7월부터 리테이너 채널을 통해 구매할 수 있다.   ▲ 인텔 가우디 3 PCIe 카드   인텔 가우디 3 PCIe 카드는 기존 데이터센터 서버 환경에서 확장형 AI 추론을 지원한다. 라마(LLaMA)와 같은 AI 모델을 사용할 경우, 소규모 기업부터 대기업까지 다양한 고객이 확장 가능한 구성 덕분에 LLaMA 3.1 8B부터 LLaMA 4 스카우트(Scout), 매버릭(Maverick) 모델까지 유연하게 실행할 수 있다. 인텔 가우디 3 PCIe 카드는 2025년 하반기부터 제공될 예정이다. 인텔 가우디 3 랙 스케일 시스템의 레퍼런스 디자인은 유연성과 확장성을 염두하고 설계되어, 랙당 최대 64개의 가속기를 지원하며 8.2TB의 고대역폭 메모리를 지원한다. 개방형 및 모듈형 구조로 특정 벤더 종속을 방지하고, ‘케이블드 백플레인(cabled backplane)’과 ‘블라인드-메이트 2D 풀-랙’ 배선 방식 덕분에 설치와 유지보수가 한층 간편하며, 액체 냉각을 적용해 뛰어난 성능을 유지하면서도 총소유비용(TCO)을 효과적으로 관리할 수 있다.  가우디 랙 스케일 아키텍처는 대규모 AI 모델 실행에 최적화되어 있으며, 낮은 지연 시간의 실시간 추론 작업에서 뛰어난 성능을 발휘한다. 이러한 구성은 개방적이고 유연하며 안전한 AI 인프라 구축에 대한 인텔의 의지를 보여주며, 클라우드 서비스 제공업체(CSP)를 위한 맞춤형 설계와 OCP(Open Compute Project) 표준 설계를 모두 지원한다. CES 2025에서 처음 공개된 인텔 AI 어시스턴트 빌더는 인텔 기반 AI PC에서 맞춤형 AI 에이전트를 로컬 환경에서 구축하고 실행할 수 있도록 설계된 경량형 오픈 소프트웨어 프레임워크로, 현재 깃허브(GitHub)에서 제공되는 베타 버전을 통해 누구나 사용할 수 있다. AI 어시스턴트 빌더는 개발자와 파트너가 자사 조직 및 고객을 위한 AI 에이전트를 빠르게 구축하고 배포할 수 있도록 지원한다.
작성일 : 2025-05-20
델, 현대적인 AI 레디 데이터센터를 위한 인프라 설루션 신제품 공개
델 테크놀로지스가 서버, 스토리지, 데이터 보호 등 데이터센터 인프라 전반에 걸쳐 기업 및 기관들의 데이터센터 현대화를 가속할 수 있는 신제품 및 신기능을 선보였다. AI의 부상, 전통적인 워크로드와 최신 워크로드를 모두 지원해야 하는 필요성, 사이버 위협의 증가에 대응하기 위해 IT 전략의 재편이 요구되고 있다. IT 조직은 확장성, 효율성을 높이고 적응력을 확보하기 위해 컴퓨팅, 스토리지 및 네트워킹을 공유형 리소스 풀로 추상화하는 분리형 인프라스트럭처로 전환하는 추세이다. 델 테크놀로지스는 고객들이 IT 인프라에 대한 접근 방식을 재고하고, 최신 및 전통적인 워크로드 요구사항에 좀 더 효과적으로 대응할 수 있도록 서버, 스토리지 및 데이터 보호 설루션에 걸쳐서 다양한 혁신을 추진한다고 전했다.  P 코어의 인텔 제온 6 프로세서가 탑재된 델 파워엣지(Dell PowerEdge) R470, R570, R670 및 R770 서버는 1U 및 2U 폼 팩터의 싱글 및 더블 소켓 서버로, HPC, 가상화, 분석 및 AI 추론과 같은 까다로운 기존 워크로드와 새로운 워크로드에 모두 효과적인 제품이다. 델 파워엣지 R770으로 레거시 플랫폼을 통합하면 42U 랙당 전력과 최대 80%의 공간을 확보할 수 있다. 이를 통해 에너지 비용과 온실가스 배출량을 최대 절반까지 절감하고 프로세서당 최대 50% 더 많은 코어와1) 67% 향상된 성능을 지원한다. 데이터 센터 상면 공간을 줄여 지속 가능성 목표를 달성하고 성능 저하 없이 전체 총 소유 비용을 절감할 수 있다. 델 파워엣지 R570은 와트당 인텔 성능에서 높은 수준을 달성한 모델이다. 고성능 워크로드를 유지하면서 에너지 비용을 절감할 수 있도록 지원한다. 델 파워엣지 신제품은 OCP(오픈 컴퓨트 프로젝트)의 일부인 ‘데이터 센터 - 모듈형 하드웨어 시스템(DC-MHS)’ 아키텍처로 운영을 간소화했다. DC-MHS는 서버 설계를 표준화하여 기존 인프라에 쉽게 통합할 수 있도록 지원하므로, 폭넓은 선택권을 제공한다. 또한, 파워엣지 서버는 실시간 모니터링을 비롯한 델 오픈매니지(Dell OpenManage) 개선 사항 및 IDRAC 10(Integrated Dell Remote Access Controller) 업데이트를 통해 관리가 간소화되고 강력한 보호 기능을 제공한다.    ▲ 델 타워엣지 R470/R570/R670/R770 서버   델 파워스토어(Dell PowerStore)는 데이터 관리를 간소화하고 성능과 보안을 강화한다. 델 파워스토어의 지능형 소프트웨어는 고도로 프로그래밍 가능한 자동화 플랫폼을 기반으로, 첨단 데이터 절감 기능과 독립적으로 확장 가능한 스토리지 서비스를 제공하여 현대적인 분산 아키텍처에 요구되는 요구사항에 적합하다. 파워스토어의 최신 소프트웨어는 ▲델 AI옵스(Dell AIOps, 이전의 CloudIQ)를 통한 AI 기반 분석 ▲제로 트러스트 보안 강화 ▲고급 파일 시스템 지원 등의 기능을 포함한다. 또한, 델은 고성능의 오브젝트 플랫폼으로서 AI 워크로드를 위한 대규모 확장성, 성능 및 효율성을 제공하는 차세대 ‘델 오브젝트스케일(Dell ObjectScale)’을 공개했다. 델은 오브젝트스케일의 엔터프라이즈급 아키텍처를 현대화하고 새로운 노드 모델을 추가했다. 오브젝트스케일 XF960은 경쟁 제품 대비 노드당 최대 2배 더 높은 처리량(throughput)과 이전 세대의 올플래시 제품 대비 최대 8배 우수한 집적도를 제공한다. HDD 기반의 델 오브젝트스케일 X560은 읽기 처리량이 83% 향상되어 미디어 수집, 백업 및 AI 모델 학습과 같은 주요 워크로드를 가속화한다. 델은 클라우드 스토리지 제공업체 ‘와사비(Wasabi)’와 협력해 개발한 오브젝트스케일 기반 하이브리드 클라우드 설루션 신제품을 통해 높은 효율성 및 회복탄력성을 제공한다고 소개했다. 델 파워스케일(Dell PowerScale)의 스케일 아웃 아키텍처는 현대적인 AI 중심 운영을 위한 백본으로 사용하기에 적합한 제품이다.122TB의 고밀도 올플래시 스토리지는 단일 2U 노드 구성에서 최대 6PB의 고속 데이터 액세스로 GPU 활용도를 높이고, 대규모 AI 처리량 요건을 충족하는 성능 밀도를 제공한다. 델은 파워스케일 H710, H7100, A310, 그리고 A3100 등 HDD 기반 다양한 모델에 걸쳐 새로운 컴퓨팅 모듈로 선보이면서 향상된 성능과 낮아진 레이턴시(지연시간)를 선보였다.   델은 고객이 사이버 회복탄력성을 강화하는 동시에 향상된 성능, 보안 및 효율성을 통해 비용을 효과적으로 통제할 수 있도록 데이터 보호 설루션인 델 파워프로텍트(Dell PowerProtect)를 업데이트 했다. 델 파워프로텍트 DD6410은 12TB부터 256TB까지의 용량을 지원해 일반적인 규모의 기업에서부터 소기업, 원격 사무소 등 다양한 환경에 활용이 가능하다. 전통적인 워크로드 및 최신 워크로드에 대해 최대 91% 빠른 복구 및 확장성을 제공하며, 최대 65배 중복 제거 기능으로 효율적인 운영을 지원한다. 델의 올플래시 데이터 보호 여정의 첫 번째 단계인 ‘델 파워프로텍트 올플래시 레디 노드(Dell PowerProtect All-Flash Ready Node)’는 61% 이상 빠른 복원 속도, 최대 36% 적은 전력 사용, 5배 더 작은 설치 공간을 제공하는 220TB 용량 시스템으로 보다 안전하고 효율적인 데이터 보호 기능을 제공한다.  한국 델 테크놀로지스의 김경진 총괄사장은 “현대적인 애플리케이션은 끊임없이 변화하는 데이터 센터 요구 사항에 발맞출 수 있는 새로운 형태의 인프라를 필요로 한다”면서, “델 테크놀로지스는 복잡성을 줄이고, IT 민첩성을 높이며, 데이터 센터 현대화를 가속할 수 있는 엔드 투 엔드 분산형 인프라 포트폴리오를 제공한다”고 전했다.
작성일 : 2025-04-09
인텔, “최신 AI 추론 벤치마크에서 제온 6의 성능 입증”
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.0(MLPerf Interference v5.0) 벤치마크에서 인제온 6 P-코어(Intel Xeon 6 with Performance-cores)의 성능을 입증했다고 밝혔다. 6가지 주요 벤치마크에서 진행된 테스트 결과, 제온 6는 이전 세대 프로세서 대비 인공지능(AI) 성능이 1.9배 향상된 것으로 나타났다. AI 도입이 가속화됨에 따라, CPU는 데이터 전처리, 전송, 시스템 오케스트레이션 등 핵심 기능을 관리하는 호스트 노드로서 AI 시스템 운영에 필수 요소로 자리잡고 있다. 인텔은 MLPerf에 서버용 CPU 성능 결과를 제출했는데, 인텔 제온 6 P-코어는 MLPerf 추론 v5.0의 ResNet50, RetinaNet, 3D-UNet 및 신규 GNN-RGAT를 포함한 주요 벤치마크에서 5세대 인텔 제온 프로세서 대비 평균 1.9배 높은 성능을 기록했다. 이런 결과에 대해 인텔은 “제온 6가 AI에 적합한 CPU임을 입증하는 동시에, 소형 언어 모델(SLM)을 위한 경쟁력 있는 대안이 될 수 있음을 보여준다”고 설명했다.     인텔은 지난 2021년 3세대 인텔 제온 프로세서를 MLPerf에 처음 제출한 이후 ResNet50 성능은 15 배 향상됐으며, 소프트웨어 최적화를 통해 GPT-J에서는 22%, 3D U-Net에서는 11% 추가 성능 향상을 달성했다고 소개했다. 또한, “새로운 MLPerf 결과는 OEM(주문자 상표부착 생산) 및 생태계 파트너 설루션 전반에서 인텔 제온의 성능을 입증한다”면서, “AI 워크로드가 엔터프라이즈 시스템과 점점 더 통합됨에 따라, OEM은 고객이 최상의 AI 성능을 구현할 수 있도록 제온 기반 시스템을 우선 채택하고 있다”고 전했다. 인텔은 시스코, 델 테크놀로지스, 콴타, 슈퍼마이크로 등 4개의 주요 OEM 파트너사와 협력해 인텔 제온 6 P코어에 대한 MLPerf 결과를 함께 제출하며 다양한 AI 워크로드와 배포 역량을 선보였다. 인텔의 데이터센터 및 AI 그룹을 임시 총괄하는 카린 엡시츠 시갈(Karin Eibschitz Segal) 부사장은 “이번 MLPerf 벤치마크 결과는 인텔 제온 6가 고성능과 에너지 효율의 완벽한 균형을 제공하는 AI 워크로드에 가장 적합한 중앙처리장치(CPU)임을 입증한다”면서, “세대를 거듭할수록 다양한 AI 벤치마크에서도 꾸준히 성능이 개선되고 있어, 인텔 제온이 여전히 AI 시스템용 CPU 시장에서 선도적인 입지를 유지하고 있음을 보여준다”고 설명했다.
작성일 : 2025-04-04