• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "가속기"에 대한 통합 검색 내용이 259개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 정식 출시
IBM은 자사의 메인프레임 시스템 IBM z17 및 IBM 리눅스원 5(IBM LinuxONE 5)에 적용 가능한 인공지능(AI) 가속기 ‘스파이어 엑셀러레이터(Spyre Accelerator)’를 정식 출시한다고 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며, 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계되었다. 12월 초부터는 파워11(Power11) 서버용 제품도 제공될 예정이다. 오늘날 IT 환경은 기존의 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 전환되고 있으며, AI 에이전트는 저지연(low-latency) 추론과 실시간 시스템 반응성을 요구한다. 기업은 처리량의 저하없이 가장 까다로운 엔터프라이즈 업무와 AI 모델을 동시에 처리할 수 있는 메인프레임과 서버 인프라를 필요로 한다. IBM은 이러한 수요에 대응하기 위해서 생성형 및 에이전트 기반 AI를 지원하면서도 핵심 데이터, 거래, 애플리케이션의 보안과 복원력을 유지할 수 있는 AI 추론 전용 하드웨어가 필수적이라고 판단했다. 스파이어 엑셀러레이터는 기업이 중요한 데이터를 사내 시스템(온프레미스, on-premise) 내에서 안전하게 관리할 수 있도록 설계되었으며, 운영 효율성과 에너지 절감 효과도 함께 제공한다.     스파이어 엑셀러레이터는 IBM 리서치 AI 하드웨어 센터의 혁신 기술과 IBM 인프라 사업부의 개발 역량이 결합된 결과물이다. 시제품으로 개발된 이후 IBM 요크타운 하이츠 연구소의 클러스터 구축과 올버니대학교 산하 ‘신흥 인공지능 시스템 센터(Center for Emerging Artificial Intelligence Systems)’와의 협업을 통해 빠른 반복 개발 과정을 거쳐 완성도를 높였다. 이렇게 기술적 완성도를 높여 온 시제품 칩은 현재는 IBM Z, 리눅스원, 파워 시스템에 적용 가능한 기업용 제품으로 진화했다. 현재 스파이어 엑셀러레이터는 32개의 개별 가속 코어와 256억 개의 트랜지스터를 탑재한 상용 시스템온칩(SoC, system-on-a-chip) 형태로 완성되었다. 5나노미터 공정 기술을 기반으로 제작된 각 제품은 75와트(Watt) PCIe 카드에 장착되며, IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. IBM 고객들은 스파이어 엑셀러레이터를 통해 빠르고 안전한 처리 성능과 사내 시스템 기반의 AI 가속 기능을 활용할 수 있다. 이는 기업이 IBM Z, 리눅스원, 파워 시스템 상에서 데이터를 안전하게 유지하면서도 AI를 대규모로 적용할 수 있게 되었음을 의미한다. 특히, IBM Z 및 리눅스원 시스템에서는 텔럼 II(Telum II) 프로세서와 함께 사용되어 보안성, 저지연성, 높은 거래 처리 성능을 제공한다. 이를 통해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에 다중 AI 모델을 적용할 수 있다. IBM 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 기업 업무 흐름에 맞춘 종합적인 AI 활용이 가능하다. 고객은 해당 서비스를 한 번의 클릭으로 설치할 수 있으며, 온칩 가속기(MMA)와 결합된 파워용 스파이어 엑셀러레이터는 생성형 AI를 위한 데이터 변환을 가속화해 심층적인 프로세스 통합을 위한 높은 처리량을 제공한다. 또한 128개 토큰 길이의 프롬프트 입력을 지원하며, 이를 통해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. 이러한 성능은 IBM의 소프트웨어 스택, 보안성, 확장성, 에너지 효율성과 결합되어, 기업이 생성형 AI 프레임워크를 기존 업무에 통합해 나가는 여정을 효과적으로 지원한다. IBM 인프라 사업부 최고운영책임자(COO)이자 시스템즈 사업부 총괄 배리 베이커(Barry Baker) 사장은 “스파이어 엑셀러레이터를 통해 IBM 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다. 이 기술 혁신은 고객이 AI 기반 핵심 업무를 보안성과 복원력, 효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다”고 말했다. IBM 반도체 및 하이브리드 클라우드 부문 무케시 카레(Mukesh Khare) 부사장은 “IBM은 2019년 AI 리서치 하드웨어 센터를 설립해, 생성형 AI와 대규모 언어 모델(LLM)이 본격적으로 확산되기 이전부터 AI의 연산 수요 증가에 대응해 왔다. 최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데, 해당 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다”면서, “이번 스파이어 칩의 정식 출시로 IBM 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 되었다”고 설명했다.
작성일 : 2025-10-28
알테어, GPU·AI·양자컴퓨팅 지원하는 ‘HPC웍스 2026’ 출시
  알테어가 고성능 컴퓨팅(HPC) 및 클라우드 플랫폼 ‘알테어 HPC웍스(Altair HPCWorks) 2026’을 발표했다. 이번 업데이트는 그래픽처리장치(GPU) 통합 및 활용도 강화, 인공지능(AI)·머신러닝 지원 확대, 고도화된 리포팅 기능을 통해 HPC 환경의 가시성과 효율성을 향상시켰다. 최신 버전은 AI 워크로드를 중심으로 설계돼 GPU와의 통합성을 강화했다. 업데이트된 쿠버네티스 커넥터 및 주피터 노트북 연동 기능을 통해 AI 및 머신러닝 모델 학습 환경을 효율적으로 지원하며, 엔비디아, AMD, 인텔 GPU 가속기를 폭넓게 지원한다. IT 관리자는 향상된 GPU 탐색 및 리포팅 기능을 통해 GPU 리소스를 손쉽게 통합하고 최적화할 수 있다. AI 기반 자동화 기능도 대폭 강화됐다. HPC웍스 2026은 AI 기반 메모리 자원 예측 기능을 통해 작업 제출 및 자원 활용을 최적화하고, 지능형 스케줄링 및 메모리 선택 기능으로 HPC 워크로드의 효율성을 극대화한다. 사용자는 복잡한 정보기술(IT) 지식 없이도 빠르게 결과를 얻을 수 있다. 양자 컴퓨팅 지원도 강화됐다. 새로 출시된 버전은 전통적인 방식의 HPC와 양자 컴퓨팅을 결합한 하이브리드 워크플로를 효율적으로 실행할 수 있도록 지원한다. 이를 통해 신용카드 사기 거래 탐지와 같이 복잡하고 동적인 패턴을 분석하는 작업에 활용할 수 있다. 알테어 HPC웍스 2026은 자사 AI 플랫폼인 알테어 래피드마이너와의 연계를 통해 맞춤형 AI 모델 학습과 워크로드 자동화를 지원한다. 또한 리포트·대시보드 확장, 윈도우 전용 데스크톱 클라이언트 제공, 스트리밍 API 등으로 IT 운영 효율을 강화했다. 알테어의 샘 마할링엄 최고기술책임자(CTO)는 “기술 환경이 빠르게 진화함에 따라 알테어는 AI, 머신러닝, 데이터 분석, EDA(전자설계자동화), 양자 컴퓨팅 등 최신 워크로드를 완벽히 지원하도록 설루션을 발전시키고 있다”면서, “지멘스의 일원으로서 향후 이러한 기술력을 더욱 가속화할 예정”이라고 말했다.
작성일 : 2025-10-23
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
인텔, 추론 최적화 데이터센터용 GPU 신제품 발표
인텔은 2025 OCP 글로벌 서밋에서, 자사 AI 가속기 포트폴리오에 추가되는 주요 제품인 인텔 데이터센터용 GPU 신제품 코드명 ‘크레센트 아일랜드(Crescent Island)’를 발표했다. 이 GPU는 증가하는 AI 추론 워크로드 수요를 충족하도록 설계되었으며, 고용량 메모리·에너지 효율적인 성능을 제공한다. 추론이 주요한 AI(인공지능) 워크로드로 자리잡으며, 강력한 칩 이상의 요소, 즉 시스템 차원의 혁신이 성공을 가늠하는 주요 요소가 되었다. 하드웨어부터 오케스트레이션까지, 추론은 다양한 컴퓨팅 유형을 개발자 중심의 개방형 소프트웨어 스택과 통합하는 워크로드 중심의 개방형 접근 방식을 필요로 하며, 이러한 접근 방식은 배포 및 확장이 용이한 시스템으로 제공된다. 인텔은 “인텔 제온 6 프로세서, 인텔 GPU를 기반으로 구축한 설루션을 통해 AI PC부터 데이터 센터, 산업용 에지까지 엔드 투 엔드 설루션을 제공할 수 있는 입지를 갖추고 있다”면서, “성능, 에너지 효율성, 개발자 연속성을 위한 시스템 공동 설계 및 OCP(Open Compute Project)와 같은 커뮤니티와의 협력을 통해 AI 추론이 가장 필요한 모든 곳에서 실행될 수 있도록 지원하고 있다”고 전했다. 코드명 크레센트 아일랜드로 명명된 새로운 데이터센터 GPU는 공랭식 엔터프라이즈 서버에 맞춰 전력 및 비용 최적화를 이루었으며, 추론용 워크플로에 최적화된 대용량 메모리 및 대역폭을 제공하도록 설계되었다. 와트당 성능(PPW)이 최적화된 Xe3P 마이크로아키텍처에 기반을 둔 크레센트 아일랜드 GPU는 160GB의 LPDDR5X 메모리를 탑재했다. 또한 ‘서비스형 토큰(Token-as-a-Service)’ 공급업체 및 추론 사용 사례에 적합한 광범위한 데이터 유형을 지원한다. 인텔의 이기종 AI 시스템을 위한 개방형 통합 소프트웨어 스택은 조기 최적화 및 이터레이션(iteration) 작업이 가능하도록 현재 아크 프로 B(Arc Pro B) 시리즈 GPU에서 개발 및 테스트 중이다. 새로운 데이터센터용 GPU의 고객 샘플링은 2026년 하반기에 제공될 예정이다. 인텔의 사친 카티(Sachin Katti) 최고기술책임자(CTO)는 “인공지능은 정적 학습에서 에이전트형 AI가 주도하는 실시간·전역 추론으로 전환되고 있다”면서, “이러한 복잡한 워크로드를 확장하려면 적절한 실리콘을 적절한 작업에 매칭하는 이종 시스템이 필요하다. 인텔의 Xe 아키텍처 데이터센터 GPU는 토큰 처리량이 급증함에 따라 고객이 필요로 하는 효율적인 헤드룸 성능과 더 큰 가치를 제공할 것”이라고 밝혔다. 
작성일 : 2025-10-15
델, AI 서버 ‘파워엣지 XE7740’에 인텔 가우디 3 PCIe 가속기 탑재
델 테크놀로지스가 인텔 가우디 3(Intel Gaudi 3) PCIe 가속기를 통합 구성한 ‘델 파워엣지 XE7740 (Dell PowerEdge XE7740)’ 서버를 출시했다고 밝혔다. ‘델 파워엣지 XE7740’은 파워엣지 R 시리즈의 통합 용이성과 XE 시리즈의 성능 및 확장성을 결합한 4U 폼팩터 서버로서 성능, 비용 효율, 유연성을 바탕으로 기업들이 엔터프라이즈 AI에 대한 접근성을 높일 수 있도록 설계되었다. 델 파워엣지 XE7740 서버는 기존 데이터센터에 원활하게 구축할 수 있는 최적화된 규모의 설루션을 제공한다. 동시에 LLM(대규모 언어 모델)의 미세 조정 및 고성능 추론을 포함한 광범위한 AI 워크로드의 배포와 운영을 간소화해 엔터프라이즈 AI의 가격 대비 성능 측면을 고려했다.     이번 신제품은 최대 8개의 더블 와이드 또는 PCIe 가속기를 수용할 수 있는 유연한 구성을 제공한다. 최대 8개의 개별 가우디 3 가속기를 탑재할 수 있으며, 옵션으로 2개의 4-웨이(4-way) 브리지 가속기 그룹을 구성하는 것도 가능하다. RoCE(RDMA 오버 컨버지드 이더넷) v2를 통한 4-웨이(4-way) 가우디 3 PCIe 가속기 브리지 연결은 대규모 AI 모델과 더 큰 메모리 공간을 지원하며, 워크플로의 확장성과 유연성을 제공한다. 또한 8개의 표준 높이 PCIe 슬롯과 통합 OCP 네트워킹 모듈을 통해 가속기와 네트워크 인터페이스 카드(NIC)를 최대 1:1 비율로 매칭할 수 있는 유연한 네트워킹을 제공한다. 기존 인프라에 원활하게 통합 가능한 델 파워엣지 XE7740은 많은 기업들이 직면하고 있는 랙당 전력 한계를 극복하여 기존 데이터 센터에서 일반적으로 사용되는 최대 10kW 랙에서 효율적으로 작동한다. 엔터프라이즈 AI를 위한 제품으로서 기존의 공냉식 랙에 장착할 수 있는 XE7740은 ‘델 스마트 쿨링(Dell Smart Cooling)’ 설루션이 적용됐다. 또한 라마4(Llama4), 라마3(Llama3), 딥시크(Deepseek), 파이4(Phi4), 쿠엔3(Qwen3), 팔콘3(Falcon3) 등과 같은 인기 모델에 최적화되어 원활한 AI 워크플로 통합을 지원한다. 다양한 기존 모델 카탈로그와 함께 가우디 3를 사용하면 기업에서 손쉽게 AI 도입을 가속화할 수 있으며, 큰 비용이 소모되는 전력 및 냉각 업그레이드 없이도 높은 성능을 보장한다. 델은 파워엣지 XE7740가 ▲LLM(대규모 언어 모델) 추론 및 미세 조정 ▲이미지 및 음성 인식과 같은 멀티 모달 AI 애플리케이션 ▲데이터 집약적인 의료 분석 및 유전체 염기서열 분석 ▲금융 서비스 사기 탐지 및 위험 완화 ▲유통 및 전자상거래의 실시간 개인화 등 다양한 AI 워크로드를 지원해 엔터프라이즈 AI에 최적화되어 있다고 전했다. AI 워크로드가 증가함에 따라 기업이나 기관들은 사용량 기반으로 과금하는 GPU 가속기 구독 비용이나 클라우드 데이터의 외부 전송(egress) 비용에 부담을 느끼고 있다.  델은 “파워엣지 XE7740은 이런 비용을 절감하면서도 뛰어난 성능과 데이터 보안을 확보해 온프레미스 AI 프로젝트를 간소화하는데 특화된 설루션”이라고 전했다.  한국 델 테크놀로지스의 김경진 총괄사장은 “현재의 경쟁력을 유지하고 AI 미래에 대비하기 위해서는 확장이 용이하고 적응력이 뛰어난 인프라를 확보해 유연한 준비 태세를 갖추어야 한다. 검증된 AI 설계와 기존 에코시스템과의 원활한 통합이 가능한 XE7740은 경쟁이 치열한 시장에서 특히 주목할 만한 제품”이라고 말했다.
작성일 : 2025-09-22
IBM-AMD, 양자·AI·HPC 융합한 차세대 컴퓨팅 개발 협력
IBM과 AMD는 양자 컴퓨터와 HPC(고성능 컴퓨팅)를 결합한 차세대 컴퓨팅 아키텍처인 양자 중심 슈퍼컴퓨팅(quantum-centric supercomputing) 개발 계획을 발표했다. IBM은 고성능의 양자 컴퓨터 및 소프트웨어 개발에서의 리더십을, AMD는 HPC 및 AI 가속기 분야의 리더십을 바탕으로 확장 가능하고 오픈소스 기반의 플랫폼을 공동 개발해 컴퓨팅의 미래를 재정의하고자 한다. 양자 컴퓨팅은 정보를 표현하고 처리하는 방식에서 기존 컴퓨터와 완전히 다르다. 기존 컴퓨터는 0과 1의 비트로 정보를 처리하지만, 양자 컴퓨터는 양자역학의 법칙에 따라 정보를 표현하는 큐비트(qubit)를 사용한다. 이러한 특성은 신약 개발, 소재 탐색, 최적화, 물류 등 기존 컴퓨팅으로는 해결이 어려운 복잡한 문제에 대한 해결책을 탐색할 수 있는 연산 능력을 제공한다. 양자 중심 슈퍼컴퓨팅 아키텍처에서는 양자 컴퓨터가 CPU, GPU, 기타 컴퓨팅 엔진으로 구성된 HPC 및 AI 인프라와 함께 작동한다. 이 하이브리드 접근 방식에서는 문제의 각 요소를 가장 적합한 컴퓨팅 방식으로 해결한다. 예를 들어, 미래에는 양자 컴퓨터가 원자와 분자의 행동을 시뮬레이션하고, AI 기반의 슈퍼컴퓨터가 방대한 데이터 분석을 수행할 수도 있다. 이런 기술이 결합되면 현실 세계의 문제를 더욱 빠른 속도와 큰 규모로 해결할 수 있을 것으로 기대된다. IBM과 AMD는 AMD의 CPU, GPU, FPGA(프로그래밍이 가능한 반도체)를 IBM의 양자 컴퓨터와 통합해 기존 컴퓨팅 방식으로는 해결할 수 없는 새로운 알고리즘을 효율적으로 가속화하는 방안을 모색하고 있다. 이는 IBM이 2030년까지 실현하고자 하는 오류 내성 양자 컴퓨터(fault-tolerant quantum computing) 로드맵에도 기여할 수 있다. AMD의 기술은 오류 내성 양자 컴퓨팅의 핵심 요소인 실시간 오류 수정 기능을 제공할 수 있는 가능성을 지니고 있다. 양사는 올해 말 IBM의 양자 컴퓨터와 AMD 기술이 함께 작동하는 하이브리드 양자-클래식 연계 프로젝트 시연을 계획하고 있으며, IBM 키스킷(Qiskit)과 같은 오픈소스 생태계를 활용해 새로운 알고리즘 개발과 채택을 촉진하는 방안도 함께 검토 중이다. IBM의 아빈드 크리슈나(Arvind Krishna) 회장 겸 CEO는 “양자 컴퓨팅은 자연 세계를 시뮬레이션하고 정보를 완전히 새로운 방식으로 표현할 수 있다. IBM의 양자 컴퓨터와 AMD의 고성능 컴퓨팅 기술을 결합함으로써 기존 컴퓨팅의 한계를 뛰어넘는 강력한 하이브리드 모델을 구축할 수 있을 것”이라고 말했다. AMD의 리사 수(Lisa Su) CEO는 “HPC는 세계의 주요 과제를 해결하는 기반이 된다. IBM과의 협력을 통해 고성능 컴퓨팅과 양자 기술의 융합을 모색함으로써, 우리는 혁신과 발견을 가속화할 수 있는 엄청난 기회를 마주하고 있다”고 밝혔다.
작성일 : 2025-08-27
인텔, “AI 설루션으로 LG이노텍의 생산 공정 효율 향상”
인텔은 LG이노텍이 자사의 기술을 활용해 인공지능(AI) 기반의 자동화 시스템을 구축하고 있다고 소개했다. 소재·부품 전문 기업인 LG이노텍은 휴대폰, 자동차 디스플레이, 스마트 기기 등에 들어가는 수십만 개의 초소형 부품을 완벽한 정확도와 무결점으로 복제하는 것을 목표로 삼고 있으며, 혁신 기술을 통해 이러한 목표를 달성하고자 한다.  LG이노텍의 구미 공장에서는 인텔 코어(Intel Core) 프로세서, 인텔 제온(Intel Xeon) 프로세서 및 인텔 아크(Intel Arc) 내장형 그래픽처리장치(GPU)가 조화를 이루며 작동한다. 이들 기술은 오픈비노(OpenVINO) 소프트웨어 툴킷으로 통합된다. LG이노텍은 생산 라인의 특정 단말기에서 규칙 기반 검사 및 딥러닝 기반 시스템을 사용해 제품 품질을 높여왔다. 여기서 나아가, LG이노텍은 제조 공정 전반에 걸쳐 AI를 광범위하게 적용하여 성능 저하 없이 완전 자동화된 시스템을 구축하고자 했다. 인텔은 지난 2024년 인텔 코어 및 제온 프로세서와 아크 외장형 GPU를 기반으로 하는 AI 기반 검사 시스템에 대한 구축 지원을 위해 LG이노텍과 논의를 시작했다. 핵심은 생산 공정에서 발생하는 데이터가 인텔 코어 CPU를 탑재한 PC로 스트리밍되며, 내장 GPU는 결함 데이터를 분석하는 데 비용 효율을 제공하는 것이다. 고해상도 이미지에서 다중 알고리즘을 실행하는 등 부하가 큰 워크로드는 인텔 아크 외장 GPU가 처리하게끔 했다. 시간이 지남에 따라 축적된 데이터셋은 인텔 제온 기반의 사전 학습 서버로 전송된다.      양사는 향후 협업을 통해 인텔 가우디 AI 가속기가 탑재된 서버를 활용한 사전 학습 워크로드 관리를 검토하고 있다. 이처럼 CPU를 기반으로 내장 및 외장 GPU로 가속화된 인텔 기반 기술 조합을 활용하여 AI 검사 시스템 구축 비용을 절감할 수 있었다는 것이 인텔의 설명이다. 인텔은 “아크 기반 외장 GPU를 도입하면서, 동급 성능의 타사 하드웨어 대비 성능에 비해 높은 비용 효율성을 달성했다. 이러한 비용 절감 효과는 규모의 경제를 더욱 극대화할 수 있는 기반이 되고 있다”고 전했다.  LG이노텍은 2024년 모바일 카메라 모듈 생산 라인에 인텔의 AI 비전 검사 설루션을 처음 적용했으며, 올해는 FC-BGA(flip-chip ball grid array)를 생산하는 구미4공장 등 국내 주요 생산 거점과 해외 생산라인에 단계적으로 확대 적용할 계획이다.  시스템 도입 당시에는 기존 딥러닝 환경이 특정 외장 그래픽 카드를 기반으로 구축되어 있어, 처음에는 통합 GPU 도입에 대한 우려가 있었다. 특히, 신규 GPU에 맞춰 기존 코드를 재작성하고 다시 매핑하는 것이 매우 어려울 것이라는 걱정이 있었만, 오픈비노(OpenVINO) 소프트웨어 툴킷을 활용해 우려를 해소할 수 있었다. 2018년 오픈비노 출시 이후, 인텔은 전 세계 개발자가 AI 기반 개발을 가속화할 수 있도록 지원해왔다. 오픈비노는 개발자가 한 번의 코드 작성으로 다양한 환경에 AI 모델을 배포할 수 있도록 돕는 오픈소스 AI 툴킷이다. LG 이노텍의 엔지니어들은 대량 생산 과정에서 공정이 변경되거나 원자재가 바뀔 때, 딥러닝 모델을 재학습하기 위해 AI 기반 워크로드에 최적화된 AI 가속기가 탑재된 인텔 제온 CPU 활용도 고려하고 있다. 제온 CPU는 병렬 연산 속도를 높이고, 인텔 AMX(Intel Advanced Matrix Extensions)라는 특수 내장 가속기를 지원해 제온 CPU에서 딥러닝 학습 및 추론 성능을 향상시킨다. 인텔은 제온 CPU와 별도 서드파티 GPU를 함께 사용하는 기존 방식에 비해 AI 기반 파인튜닝(Fine Tuning) 작업을 CPU로 처리함으로써 시스템 비용을 줄일 수 있을 것으로 기대하고 있다.
작성일 : 2025-08-26
인텔-AWS, 제온 6 프로세서 기반 EC2 인스턴스 출시
인텔은 클라우드 환경에서 동급 인텔 프로세서 중 가장 높은 성능과 가장 빠른 메모리 대역폭을 제공하는 P-코어를 탑재한 인텔 제온 6 프로세서(Intel Xeon 6 processors with P-cores) 기반의 신규 EC2(Amazon Elastic Compute Cloud) R8i 및 R8I-플렉스 인스턴스를 아마존웹서비스(AWS)에서 출시한다고 밝혔다. 이번 새로운 인스턴스는 인텔과 AWS 간 수년간 협력을 바탕으로, 확장성, 비용 효율성 및 고성능 클라우드 인프라를 추구하는 고객에게 최신 실리콘 혁신과 밀접하게 통합된 소프트웨어 최적화를 제공한다. 기업의 실시간 데이터 처리, 인공지능(AI), 컴플라이언스 집약적인 워크로드 활용이 점점 늘어남에 따라, 유연한 고성능 클라우드 인프라에 대한 필요도가 더 높아졌다. 인텔은 제온 6 프로세서가 전문적인 가속기에 대한 의존도를 최소화하면서 유연한 다목적 컴퓨팅 플랫폼을 제공하며, 다양한 활용 사례에 대한 배포 및 관리를 간소화해준다고 설명했다.     새로운 제온 6 기반 인스턴스의 주요 특징은 ▲고집적도 컴퓨팅 ▲ 클라우드 상에서 가장 빠른 DDR5 지원 ▲ 내장형 AI 가속 ▲인텔 QAT(QuickAssist Technology) 등이다. 제온 6는 재설계된 코어 아키텍처와 향상된 파이프라인, 더 많은 코어 수를 통해 성능과 스레드 확장성을 향상시켰다. 이를 통해 AWS는 최대 96xlarge와 같은 대규모 인스턴스 크기를 제공해 고객이 워크로드에 필요한 컴퓨팅 자원을 더욱 높은 집적도로 활용할 수 있도록 지원한다. 신규 인스턴스는 DDR5 메모리 속도 최대 7200 MT/s를 지원하며 분석, 머신러닝(ML), 인메모리 데이터베이스에 적합한 고대역폭 메모리 및 낮은 지연 시간을 제공한다. 또한, 인텔 AMX(Intel Advanced Matrix Extensions)를 통합해 AI 추론 및 머신러닝 성능을 최대 2배 향상시키며, 외부 가속기 사용 필요성을 줄이고 배포를 간편하게 한다. 이외에도 하드웨어 가속화된 암호화 및 압축을 지원하여 CPU 리소스를 절감하고, 금융, 의료, 공공 애플리케이션 등 보안에 민감하거나 규제 대상인 워크로드 성능을 향상시킨다. 인텔은 프로세서 마이크로아키텍처와 펌웨어 튜닝부터 하이퍼바이저 튜닝, 가상화, 소프트웨어 프레임워크에 이르기까지 스택(stack)의 모든 계층을 아우르는 최적화를 진행했다. 고객들은 이러한 통합을 통해 AWS의 글로벌 인프라 전역에서 제온 6의 성능을 최대한 활용할 수 있다. 인텔은 이번 협력으로 AWS 및 더 광범위한 클라우드 생태계에서 핵심 기술 제공 기업으로서의 입지를 강화할 수 있을 것으로 기대하고 있다. 개발자, 데이터 사이언티스트, IT 리더들이 보다 빠르고 효율적으로 혁신하고, 규모를 확장하며, 서비스를 배포할 수 있도록 지원하겠다는 것이다. AWS의 니샨트 메타(Nishant Mehta) EC2 제품 관리 부사장은 “고객들은 가장 요구도가 높은 워크로드 속도에 맞춘 인프라가 필요하다”면서, “인텔과의 협력을 통해 새로운 아마존 EC2 R8i 및 R8i-플렉스 인스턴스는 전 세대 대비 메모리 대역폭은 2.5배 더 향상되었고 가격 대비 성능은 15% 더 우수하다. 이는 고객이 성능을 극대화하면서 비용을 절감할 수 있도록 지원하는 혁신”이라고 말했다. 인텔의 로낙 싱할(Ronak Singhal) 선임 펠로우는 “인텔 제온 6 프로세서로 구동되는 8세대 EC2 인스턴스 출시는 AWS와의 협업에서 중요한 이정표”라며, “인텔과 AWS는 AI 가속화, 메모리 성능 향상, 쉬운 배포를 통해 고객이 인사이트를 빠르게 얻고 강력한 투자수익률(ROI)을 달성할 수 있도록 지원하는 인프라를 함께 구축했다”고 밝혔다.
작성일 : 2025-08-22
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
인텔코리아, AI 기술 전략 소개 및 국내 기업과 협력 확대 발표
인텔은 국내 협력사들과 함께 자사의 AI 기술 동향과 최신 전략, 협력 사례를 공유하는 ‘2025 인텔 AI 서밋 서울’을 개최했다고 밝혔다. 인텔 AI 서밋은 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고 산업 전반에 걸친 AI의 잠재력과 미래 발전 방향을 함께 모색하기 위한 자리다. 레노버, 네이버클라우드, SK하이닉스, 델, 마이크로소프트, 삼성SDS, 슈퍼마이크로, 시스코, HPE, LG이노텍, LG전자 등 국내외 주요 협력사와 KAIST, 중소벤처기업부, 창업진흥원 등 학계와 공공 부문에서도 관련 전문가들이 참석하여 AI 기술 동향과 산업 간 협력 방안을 논의하고 네트워킹하는 자리가 이어졌다. 이번 행사는 인텔코리아 배태원 사장의 환영사와 한스 촹(Hans Chuang) 인텔 세일즈 마케팅 그룹의 아시아 태평양 및 일본 총괄의 인사말로 시작되었다. 촹 총괄은 “AI 기술이 빠르게 진화하고 활용 사례도 점점 복잡해지면서, 기업들은 성능과 비용 효율성을 동시에 충족하는 보다 개방적이고 다양한 설루션을 필요로 한다”고 전했다. 또한, “인텔은 폭넓은 호환성, 다양한 소프트웨어 옵션, 고유의 아키텍처, 뛰어난 성능을 제공함으로써 AI가 데이터센터, 클라우드, 네트워크 에지 및 PC에 이르는 전체 컴퓨팅 연속체에서 최적의 성능을 발휘하도록 지원하고 있다”면서, 인텔의 개방형 프로그래밍 모델은 단일 벤더의 하드웨어나 GPU에서만 동작하는 폐쇄형 프로그래밍 모델에 비해 비용과 유연성 측면에서 실질적 비즈니스 우위를 제공한다고 강조했다.     이어진 파트너 세션에서 레노버 아시아태평양지역 인프라 솔루션 그룹 수미르 바티아(Sumir Bhatia) 사장은 ‘모두를 위한 스마트한 AI’를 주제로 기업들의 AI 가속화에 따른 높은 전력 수요로 지속가능성이 주요 과제로 떠올랐음을 강조하며, 이를 해결하기 위한 레노버의 최신 냉각 기술과 AI 추론 최적화 설루션을 소개했다.  또한 SK하이닉스의 정우석 부사장은 ‘메모리 중심 AI 컴퓨팅 시대의 새로운 기회’ 발표를 통해 AI 컴퓨팅 시대를 맞아 부각되고 있는 메모리 기술의 중요성을 강조하며, 커스텀 메모리 기술의 시장 기회가 증가하고 있다고 밝혔다. 또한 인텔과 데이터센터용 설루션의 다양한 영역에서 긴밀히 협력 중임을 덧붙였다. 전략적 파트너 세션의 발표자로 나선 네이버클라우드의 김유원 대표는 AI 생태계에 대한 발표를 통해 “네이버클라우드는 인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔으며, 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 협력의 범위와 깊이가 꾸준히 확장되고 있다”며, “향후에도 네이버클라우드는 인텔과 함께 글로벌 시장을 타깃으로 다양한 AI 기반 클라우드 서비스를 공동 개발하며, 기술 혁신과 해외 진출이라는 두 축에서 협력을 확대해 나갈 것”이라고 말했다. 오후 세션에서는 ‘AI & 데이터센터’와 ‘AI PC & 에지 AI’로 나뉘어 업계의 최신 정보 및 인사이트, 사례 발표가 이어졌다. 데이터센터 세션에서 삼성 SDS는 가우디 3 기반 LLM 추론 성능 분석 사례를 공유했고, AI PC 부문에서는 LG이노텍이 인텔 AI 설루션 기반 스마트 공장 사례를, 전북특별자치교육청이 AI PC를 활용한 수업 혁신 사례를 공유하는 등 교육, 게임, 리테일, 제조 등 다양한 분야의 적용 사례를 공유했다. 인텔은 하반기에도 국내 AI 생태계 발전을 위한 협력을 더욱 확대해 나갈 예정이다. 인텔은 행사 당일 포스코DX와 인텔 제온 프로세서의 AI 가속 기능 및 오픈비노 기술을 활용해 AI 서비스 비용 효율을 높이고, AI 에이전트 생태계 구축에 협력하기 위한 상호양해각서를 체결했다고 밝혔다. 한편 kt cloud와 인텔 가우디(Gaudi) AI 가속기를 kt cloud AI Foundry에 도입하는 것을 검토하고 AI 추론 개발에 특화된 비용 효율적인 GPUaaS 상품 출시를 검토하며, 다양한 산업군의 클라우드 수요에 대응할 수 있는 상품 포트폴리오 고도화 및 기술 협력을 위한 상호양해각서를 지난 6월 30일 체결했다.
작성일 : 2025-07-02