• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "가속기"에 대한 통합 검색 내용이 241개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔 가우디 3 AI 가속기, IBM 클라우드 통해 첫 상용 클라우드 서비스 제공
인텔은 IBM 클라우드가 클라우드 서비스 제공사로는 처음으로 인텔 가우디 3(Intel Gaudi 3) AI 가속기 기반 상용 서비스를 제공한다고 밝혔다. 인텔은 이로써 클라우드 서비스 고객이 고성능 인공지능 역량을 보다 쉽게 활용할 수 있도록 지원하고, AI 특화 하드웨어의 높은 비용 장벽을 낮출 수 있을 것이라고 밝혔다. 이번 IBM 클라우드 상용화는 가우디 3의 첫 대규모 상업 배포이다. 양사는 IBM 클라우드에서 인텔 가우디 3를 활용해 고객이 합리적인 비용으로 생성형 AI를 테스트·혁신·배포하도록 돕는 것을 목표로 하고 있다. 가트너의 최근 조사에 따르면 2025년 전 세계 생성형 AI 관련 지출은 2024년 대비 76.4% 증가한 6440억 달러에 이를 전망이다. 가트너는 “생성형 AI가 IT 지출 전 영역에 변혁적 영향을 미치고 있으며, 이에 따라 AI 기술이 기업 운영과 소비재에 필수 요소로 자리 잡을 것”이라고 분석했다. 많은 기업이 생성형 AI와 같은 도구가 자동화·워크플로 개선·혁신 촉진 등에 분명한 이점이 있다는 것을 알고 있으나, AI 애플리케이션 구축에는 막대한 연산 능력이 필요하고 대개의 경우 고가의 특화된 프로세서를 요구하기 때문에 많은 기업들은 AI 혜택을 누리지 못하고 있다.     인텔 가우디 3 AI 가속기는 개방형 개발 프레임워크를 지원하면서 생성형 AI·대규모 모델 추론·파인튜닝 등에 대한 폭발적인 수요를 충족하도록 설계됐으며, 멀티모달 LLM(대규모 언어 모델)과 RAG(검색 증강 생성) 워크로드에 최적화되어 있다. IBM 클라우드는 다양한 기업 고객, 특히 금융 서비스, 의료 및 생명 과학, 공공 부문 등 규제 산업에 종사하는 고객에게 서비스를 제공한다. 현재 가우디 3는 독일 프랑크푸르트, 미국 워싱턴 D.C., 택사스 댈러스의 IBM 클라우드 리전에 적용되어 사용할 수 있다. 가우디 3은 IBM의 광범위한 AI 인프라스트럭처 제품에도 통합되고 있다. 고객들은 현재 IBM VPC(가상 프라이빗 클라우드)의 IBM 클라우드 가상 서버를 통해 가우디 3를 사용할 수 있으며, 2025년 하반기부터 다양한 아키텍처에 배포할 수 있다. 레드햇 오픈시프트(Red Hat OpenShift)와 IBM 왓슨엑스 AI 플랫폼(IBM’s watsonx AI platform)에 대한 지원은 이번 분기 내 가능해질 예정이다. 인텔의 사우라브 쿨카니(Saurabh Kulkarni) 데이터센터 AI 전략 담당은 “인텔 가우디 3 AI 가속기가 IBM 클라우드에 도입되며 기업 고객에게 추론 및 파인 튜닝을 위해 최적화된 성능으로 생성형 AI 워크로드를 확장할 수 있도록 지원하게 되었다”면서, “이번 협력은 전 세계 기업이 AI를 더 쉽게, 비용효율적으로 구현할 수 있도록 지원하려는 양사의 공동 노력의 일환”이라고 밝혔다. IBM의 사틴더 세티(Satinder Sethi) 클라우드 인프라스트럭처 서비스 총괄은 “더 많은 데이터 처리 능력과 더 높은 성능 구현은 전 세계 고객의 AI 도입을 촉진할 것”이라며 “인텔 가우디 3는 고객에게 AI의 하드웨어에 대한 더 많은 선택권과 더 많은 자유, 더 비용 효율적인 플랫폼을 제공해준다”고 밝혔다.
작성일 : 2025-05-08
IBM, 엔터프라이즈급 AI 기술 탑재한 IBM z17 메인프레임 공개
IBM은 하드웨어, 소프트웨어, 시스템 운영 전반에 걸쳐 AI 기술을 탑재한 차세대 메인프레임 IBM z17을 공개했다. IBM 텔럼 II 프로세서(IBM Telum Processor)를 기반으로 하는 IBM z17은 거래 기반 AI(transactional AI) 기능을 넘어 새로운 워크로드를 지원할 수 있도록 시스템 기능을 확장했다. IBM z17은 이전 제품인 z16 대비 하루 50% 더 많은 AI 추론 작업을 처리할 수 있는 등 기업이 혁신을 추진하고 더 많은 일을 할 수 있도록 지원한다. IBM z17은 대출 리스크 완화, 챗봇 서비스 관리, 의료 이미지 분석 지원, 상거래 범죄 방지 등 250개 이상의 광범위한 AI 활용 사례로 산업 전반에 걸쳐 비즈니스 가치를 창출하도록 설계되었다. IBM z17은 미국 특허청에 출원한 300개 이상의 특허를 포함한 5년간의 설계 및 개발의 결과물이다. 100여 개 이상의 고객사가 직접 제시한 의견을 반영한 것은 물론, IBM 리서치 및 소프트웨어 팀과의 긴밀한 협업을 통해 설계된 이 새로운 시스템은 다중 모델 AI 기능, 데이터 보호를 위한 새로운 보안 기능, 시스템 사용성 및 관리 개선을 위한 AI 툴을 도입했다.     z17에 탑재된 AI 추론 기능은 향상된 주파수, 컴퓨팅 용량, 캐시 40% 증가, 하루에 4500억 건 이상의 추론 작업과 1ms의 응답 시간을 지원하는 IBM 텔럼 II 프로세서에 내장된 2세대 온칩 AI 가속기에 의해 구동된다. 2025년 4분기에 PCIe 카드를 통해 출시될 예정인 IBM 스파이어 액셀러레이터(IBM Spyre Accelerator)는 텔럼 II 프로세서를 보완하는 추가적인 AI 컴퓨팅 성능을 제공한다. 두 제품은 다중 모델 방식의 AI를 지원하기 위한 최적화된 환경을 조성하는데 기여한다. 스파이어 액셀러레이터는 시스템에 포함된 엔터프라이즈 데이터를 활용해 어시스턴트를 실행하는 등 메인프레임에 생성형 AI 기능을 제공하도록 특별히 설계됐다. IBM z17은 2025년 6월 18일, IBM 스파이어 액셀러레이터는 2025년 4분기에 출시될 예정이다. z17은 개발자와 IT 운영자의 기술과 효율성을 강화하기 위해  IBM 왓슨x 코드 어시스턴트 포 Z(IBM watsonx Code Assistant for Z)와 IBM 왓슨x 어시스턴트 포 Z(IBM watsonx Assistant for Z)를 포함한 AI 어시스턴트와 AI 에이전트를 활용할 수 있게 설계되었다. 한편, IBM 왓슨x 어시스턴트 포 Z는 실시간 시스템 데이터를 사용해 최초로 AI 채팅 기반 사고 감지 및 해결 기능을 제공하는 Z 오퍼레이션 유나이트(Operations Unite)와 통합될 예정이다. 한국IBM의 류정훈 Z/리눅스원 사업총괄 상무는 “IBM 메인프레임은 전 세계 금융 거래의 70%를 처리하고 있다”면서, “최근 기업들이 AI 활용에 큰 관심을 보이는 만큼, AI 성능을 크게 향상시킨 z17을 통해 보다 많은 업무를 효율적이고 안전하게 처리할 수 있도록 지원하겠다”고 말했다.
작성일 : 2025-04-10
알테어, 엔비디아 옴니버스 블루프린트와 통합해 실시간 디지털 트윈 협업 환경 구현
알테어가 자사의 클라우드 플랫폼인 ‘알테어원’에 엔비디아의 ‘옴니버스 블루프린트’를 통합했다고 밝혔다. 옴니버스 블루프린트는 엔비디아가 개발한 실시간 디지털 트윈 구축을 위한 참조 워크플로이다. 이번 통합으로 사용자는 복잡한 시뮬레이션과 디지털 트윈을 실시간으로 시각화하고 구축할 수 있으며, 별도의 설정 없이 다양한 사용자와 함께 협업할 수 있다.   이제 사용자는 알테어원 내에서 옴니버스 블루프린트를 즉시 활용할 수 있으며, 구축한 디지털 트윈은 클라우드와 온프레미스 환경 어디서든 손쉽게 배포할 수 있다. 알테어원은 모든 데이터를 메타데이터와 함께 체계적으로 관리해 설계 반복 시에도 유연하게 대응할 수 있도록 지원한다. 특히 알테어의 인공지능(AI) 기반 해석 설루션인 ‘알테어 피직스AI’를 함께 활용할 경우, 기존에 며칠씩 걸리던 물리 해석 작업을 수 초 내지는 수 분 내로 단축할 수 있다.   실시간 협업도 중요한 차별점이다. 사용자는 디지털 트윈 환경에서 여러 사용자와 동시에 설계를 진행하고, 가상 환경에서 실시간으로 시뮬레이션을 수행할 수 있다. 특히 3D 설계, AI, 레이 트레이싱 기술이 결합된 몰입형 업무 환경을 제공하며, 클라우드 기반의 고품질 렌더링과 스트리밍 기능을 통해 복잡한 시스템 통합도 간소화된다. 알테어는 충돌 및 낙하 테스트 등 고난도 해석 작업에서도 시뮬레이션 속도와 협업 효율을 높일 수 있을 것으로 보고 있다.   이번 협업은 엔비디아의 GPU 가속, NIM 마이크로서비스, 옴니버스 플랫폼 등 최신 기술을 기반으로 하며, 알테어는 이를 바탕으로 시뮬레이션, AI, 데이터 분석, 고성능 컴퓨팅(HPC) 등 자사의 핵심 역량을 단일 플랫폼에 집약해 디지털 엔지니어링의 새로운 표준을 제시할 계획이다.     엔비디아의 티모시 코스타 CAE 및 CUDA-X 부문 수석 디렉터는 “디지털 트윈 기술은 산업을 재편하고 있다”면서, “알테어 사용자는 이제 엔비디아의 첨단 기술을 기반으로 더욱 효율적이고 실질적인 디지털 엔지니어링을 구현할 수 있을 것”이라고 말했다.   알테어의 샘 마할링엄 최고기술책임자(CTO)는 “엔비디아의 블랙웰 가속기, AI, 옴니버스 기술을 알테어원에 통합함으로써 고객은 디지털 트윈과 시뮬레이션을 보다 빠르고 직관적으로 운영할 수 있게 됐다”면서, “이번 통합은 데이터, AI, 시뮬레이션을 하나의 워크플로로 연결해 디지털 엔지니어링 혁신을 실현하는 중요한 전환점이 될 것”이라고 강조했다.   한편 알테어는 옴니버스 블루프린트 통합 외에도 주요 제품에 엔비디아 기술을 적용해 성능 향상을 지속하고 있다. 알테어의 구조해석 설루션인 ‘알테어 옵티스트럭트’는 GPU 가속 라이브러리 cuDSS를 도입해 CPU 및 GPU에서 해석 성능을 개선했다. 또한 알테어의 주요 전산유체해석(CFD) 소프트웨어가 블랙웰 플랫폼에서 최대 1.6배의 속도 향상을 기록했고, 입자 해석 시뮬레이션 소프트웨어인 ‘알테어 이뎀’은 기존 32코어 CPU 대비 최대 40배 빠른 시뮬레이션 속도를 달성한 바 있다.
작성일 : 2025-03-27
매스웍스-알테라, “AI로 5G/6G 무선 시스템 개발 가속화”
매스웍스가 인텔의 자회사인 알테라(Altera)와 함께 알테라 FPGA(프로그래머블 반도체)의 무선 개발 가속화를 위한 협력 계획을 발표했다. 이를 통해 무선 시스템 엔지니어는 AI 기반 오토인코더를 사용해 채널 상태 정보(CSI) 데이터를 압축하고, 프론트홀 트래픽과 대역폭 요구사항을 크게 줄일 수 있게 된다. 또한 5G 및 6G 무선 통신 시스템을 다루는 엔지니어는 사용자 데이터 무결성을 보장하고, 무선 통신 시스템의 신뢰성과 성능 표준을 유지하는 동시에 비용을 절감할 수 있을 것으로 예상된다. 매스웍스는 알테라 FPGA에 특화된 AI 및 무선 개발을 강화하는 포괄적인 툴 제품군을 제공한다. ‘딥러닝 HDL 툴박스(Deep Learning HDL Toolbox)’는 FPGA 하드웨어에서 딥러닝 신경망을 구현하고자 하는 엔지니어의 요구사항을 충족한다. 딥러닝 HDL 툴박스는 ‘HDL 코더(HDL Coder)’의 기능을 활용함으로써, 사용자는 효율적인 고성능 딥러닝 프로세서 IP 코어를 커스터마이즈하고 구축 및 배포할 수 있다. 이는 표준 네트워크와 레이어를 지원함으로써 무선 애플리케이션의 성능과 유연성을 높인다. FPGA AI 스위트는 오픈비노(OpenVINO) 툴킷을 통해 널리 사용되는 산업 프레임워크의 사전 훈련된 AI 모델을 활용하여 알테라 FPGA에서 버튼 하나로 맞춤형 AI 추론 가속기 IP를 생성할 수 있도록 지원한다. 또한 FPGA AI 스위트는 FPGA 개발자가 쿼터스(Quartus) 프라임 소프트웨어 FPGA 플로를 사용해 AI 추론 가속기 IP를 FPGA 설계에 원활하게 통합할 수 있게 한다. 개발자들은 딥러닝 툴박스와 오픈비노 툴킷을 결합해 알테라 FPGA에서 AI 추론을 최적화할 수 있는 과정을 간소화할 수 있다.     알테라의 마이크 피튼(Mike Fitton) 버티컬 시장 담당 부사장 겸 총괄 매니저는 “매스웍스와 알테라의 협력을 통해 기업은 5G RAN(무선 접속 네트워크)에서 ADAS(첨단 운전자 보조 시스템)에 이르기까지 다양한 5G 및 6G 무선 통신 애플리케이션에 AI의 강력한 힘을 활용할 수 있게 됐다”면서, “개발자는 알테라의 FPGA AI 스위트(suite)와 매스웍스 소프트웨어를 활용해 알고리즘 설계부터 하드웨어 구현에 이르는 워크플로를 간소화하고, AI 기반 무선 시스템이 현대 애플리케이션의 엄격한 요구사항을 충족하도록 보장할 수 있게 됐다”고 말했다. 매스웍스의 후만 자린코우브(Houman Zarrinkoub) 수석 제품 매니저는 “AI 기반 압축은 통신 산업에 있어 매우 강력한 기술”이라며, “매스웍스 소프트웨어는 AI 및 무선 개발을 위한 강력한 기반을 제공한다. 무선 엔지니어는 매스웍스 툴과 알테라의 FPGA 기술을 통합해 고성능 AI 애플리케이션과 첨단 5G 및 6G 무선 시스템을 효율적으로 개발할 수 있다”고 말했다.
작성일 : 2025-03-25
인텔, 제온 6 프로세서 기반 AI 및 네트워킹 설루션 공개
인텔은 광범위한 데이터센터 및 네트워크 인프라 워크로드에 높은 성능과 효율을 제공하는 P-코어를 탑재한 제온 6(Xeon 6 processors with Performance-cores) 프로세서를 출시했다. 최신 인텔 제온 6 프로세서는 데이터센터와 네트워킹 분야에서 성능 향상을 제공한다. P-코어를 탑재한 인텔 제온 6700/6500 시리즈 프로세서는 최신 데이터센터에 최적화된 CPU로, 성능과 에너지 효율성 간의 균형을 제공한다. 인텔은 “폭넓은 엔터프라이즈 워크로드에서 이전 세대 대비 평균 1.4배 향상된 성능을 제공하며, AI 시스템의 기본 CPU로서 GPU와 결합해 호스트 CPU로도 높은 성능을 발휘한다”고 설명했다. 또한, 제온 6 프로세서는 높은 와트당 성능 효율을 구현해 평균적으로 5년 된 서버를 5:1 비율로 통합할 수 있으며, 인텔이 소개한 일부 사용 사례에서는 최대 10:1의 통합을 지원해 총소유비용(TCO)을 최대 68%까지 절감할 수 있다.   ▲ 인텔 제온 6 프로세서   네트워크 및 에지를 위한 인텔 제온 6는 고성능과 전력 효율을 갖춘 시스템 온 칩(SoC)으로, 가상 무선 액세스 네트워크(vRAN), 미디어, AI, 네트워크 보안을 위한 인텔의 내장 가속기를 활용해 AI 중심 환경에서 증가하는 네트워크 및 에지 수요에 대응한다. 제온6 SoC는 인텔 vRAN 부스트(vRAN Boost)를 통해 이전 세대 대비 RAN 처리 용량을 최대 2.4배 확대하고, 와트당 성능을 70% 향상시켰다. 또한, 제온 6은 인텔 미디어 트랜스코드 가속기(Intel Media Transcode Accelerator)를 내장한 서버 SoC이며, 인텔 제온 6538N과 비교해 와트당 성능을 최대 14배까지 높인다.   인텔 제온 6 SoC는 웹루트 CSI(Webroot CSI) 업로드 모델 추론 속도가 인텔 제온 D-2899NT10 대비 최대 4.3배 빠르며, AI RAN의 코어당 성능이 vRAN 부스트를 통해 이전 세대 대비 최대 3.2배 향상되었다. 38코어 시스템은 비디오 에지 서버에서 int8 추론을 통해 최대 38개의 카메라 스트림을 동시에 처리할 수 있다.   ▲ 인텔 제온 6 SoC   한편, 인텔은 기업, 통신, 클라우드, 고성능 컴퓨팅(HPC), 에지 및 AI 애플리케이션의 증가하는 수요를 충족하기 위해 새로운 이더넷 컨트롤러 및 네트워크 어댑터 제품군 2종을 공개했다. 초기 제품은 듀얼 포트 25GbE PCIe 및 OCP 3.0 규격 어댑터로 제공되며, 올해 안에 추가 스펙도 선보일 예정이다. 인텔 이더넷 E830 컨트롤러 및 네트워크 어댑터는 최대 200GbE 대역폭, 유연한 포트 구성, 정밀 시간 측정(Precision Time Measurement, PTM)을 포함한 고급 정밀 시간 기능을 제공한다. 고밀도 가상화 워크로드에 최적화되어 있으며, 강력한 보안 기능과 높은 성능을 지원한다. 인텔 이더넷 E610 컨트롤러 및 네트워크 어댑터는 컨트롤 플레인(Control Plane) 작업에 최적화된 10GBASE-T 연결을 지원한다. 610 시리즈는 높은 전력 효율성, 첨단 관리 및 보안 기능을 제공해, 네트워크 운영을 간소화하고 네트워크 무결성을 강화한다. 인텔은 제온 6 프로세서와 고성능 이더넷 설루션을 결합해, 기업이 혁신을 가속화하고 경쟁력을 확보할 수 있는 강력한 기반을 제공한다고 전했다. 인텔의 미쉘 존스턴 홀타우스(Michelle Johnston Holthaus) 임시 공동 최고경영자(CEO) 겸 인텔 프로덕트 CEO는 “인텔은 고객의 가장 큰 과제를 해결하고 비즈니스 성장을 지원하는 최첨단 리더십 제품을 시장에 선보이는 데 집중하고 있다”면서, “제온 6 제품군은 AI를 위한 업계 최고 수준의 CPU와 혁신적인 네트워킹 기능을 제공하는 동시에 효율성을 높이고 총소유비용(TCO)을 절감한다”고 말했다.
작성일 : 2025-02-25
지멘스, RIKEN의 차세대 AI 기기 연구 위해 에뮬레이션 및 HLS 플랫폼 공급
지멘스 디지털 인더스트리 소프트웨어, 지멘스 EDA 사업부는 일본의 국가 연구 개발 기관인 이화학연구소(RIKEN)이 차세대 AI 디바이스 연구를 강화하기 위해 지멘스의 반도체 설계 검증 설루션인 벨로체 스트라토 CS 에뮬레이션(Veloce Strato CS emulation) 및 캐터펄트(Catapult) 상위 수준 합성(HLS) 플랫폼을 채택하여 AI 가속기(AI accelerator) 디바이스의 아키텍처 및 설계 공간 탐색을 수행한다고 발표했다. 지멘스의 하드웨어 기반 설루션인 벨로체 스트라토 CS 에뮬레이션 및 캐터펄트 HLS 플랫폼의 결합은 대규모 주문형 집적 회로(ASICs)의 빠른 합성 및 에뮬레이션을 가능하게 하는 기술을 RIKEN에 제공한다. 이러한 지멘스의 설루션은 RIKEN이 최적화된 AI 컴퓨팅 회로 및 이를 포함하는 시스템온칩(SoCs)의 성능을 평가하는 데 중요한 역할을 담당하고 있다. 지멘스는 이러한 검증 작업을 거쳐 개발된 AI 가속기가 2030년까지 운영될 예정인 후가쿠(Fugaku) 이후 차세대 슈퍼컴퓨터에 도입될 가능성이 있는 후보 중 하나가 될 것으로 보고 있다.     RIKEN 계산과학센터 프로세서 연구팀의 팀장인 사노 겐타로(Kentaro Sano) 박사는 “RIKEN이 지멘스의 에뮬레이션 및 HLS 기능을 도입함으로써 ‘과학을 위한 AI(AI for Science)’ 연구를 위한 차세대 AI 디바이스 탐색을 수행할 수 있게 되었다. 이를 통해 세계에서 가장 강력한 슈퍼컴퓨터를 개발하고 있는 자사의 입지를 강화할 수 있다”라고 말하며, “자사의 목표는 과학적 발견을 위한 생성형 AI 모델을 구축하는 데 필수인 컴퓨팅 인프라를 구축, 관리 및 지속적으로 강화하는 것이다. 지멘스의 설루션은 이러한 연구에서 중요한 역할을 한다”라고 말했다. RIKEN 계산과학센터는 일본에서 가장 큰 계산과학 연구 기관이자 다양한 과학 분야에서 세계적인 리더로 자리 잡고 있으며, K 컴퓨터(K computer) 및 후가쿠(Fugaku)와 같은 슈퍼컴퓨터를 개발한 것으로 알려져 있다. RIKEN은 일본 사이타마현 와코시에 본부를 둔 자연과학종합연구소로 일본 문부과학성 산하의 연구 기관이며, 일본 내에선 최고로 평가되고 있는 것은 물론 그리고 세계적으로도 상당한 연구 실적을 남긴 곳이다. 지멘스 디지털 인더스트리 소프트웨어의 장 마리 브루네(Jean Marie Brunet) 하드웨어 지원 검증 부문 부사장은 “RIKEN의 혁신적인 AI 디바이스 연구를 지원할 수 있어 기쁘다. 최신 벨로체 스트라토 CS 에뮬레이션 및 캐터펄트 HLS 플랫폼은 RIKEN이 연구 목표를 달성하고 AI 분야에서 혁신을 주도할 수 있도록 포괄적인 설루션을 제공한다”고 말했다. 지멘스 디지털 인더스트리 소프트웨어의 쓰치다 유키오(Yukio Tsuchida) 일본 전자설계자동화(Electronic Design Automation) 부문 부사장은 “지멘스는 RIKEN에서 진행되는 최첨단 연구 개발을 지원하게 되어 매우 자랑스럽게 생각한다. 우리는 AI의 강력한 성능을 대규모 과학 연구에 적용하는 가능성을 탐색하는 RIKEN의 목표 달성을 지속적으로 지원할 것”이라고 말했다.
작성일 : 2025-02-17
IBM, 생성형 AI 시대를 위한 새로운 광학 기술 발표
IBM은 데이터센터에서 생성형 AI 모델의 학습 및 실행 방식을 획기적으로 개선할 수 있는 차세대 광학 기술을 발표했다. 이는 기존의 전선 기반 단거리 통신을 보완하는 새로운 공동 패키지형 광학(co-packaged optics : CPO) 기술로, 데이터센터 내부 연결 속도를 대폭 향상시킬 수 있는 새로운 공정이다. 특히 IBM은 이 기술을 구동할 수 있는 폴리머 광학 도파관(Polymer Optical Waveguide : PWG)을 성공적으로 설계, 조립해 최초로 공개했다. IBM 연구진은 CPO 기술이 칩, 회로 기판, 서버 간 고대역폭 데이터를 전송하는 컴퓨팅 방식에 가져올 변화를 시연했다.  광섬유 기술은 전기 대신 빛으로 장거리 데이터 전송을 빠르게 처리하기 때문에, 현재 전 세계 상업 및 통신 트래픽 대부분에 사용되고 있다. 그러나 데이터센터의 경우, 외부 통신 네트워크에는 광섬유를 사용하는데 반해, 내부 통신 네트워크의 대부분에는 여전히 구리선을 사용하고 있다. 이 전선은 대규모 분산 학습 과정에서 다른 장치의 데이터를 기다리느라 절반 이상의 시간을 유휴 상태로 보내는 GPU 가속기들을 연결하고 있는데 이로 인해 상당한 비용과 에너지가 소모된다. IBM 연구진은 광학 속도와 처리 능력을 데이터센터 내부로 도입할 방법을 제시했다. IBM은 새롭게 발표된 논문을 통해, 고속 광학 연결을 가능하게 하는 새로운 CPO 모듈의 시제품을 소개했다. 이 기술은 데이터센터 통신의 대역폭을 확장하고, GPU의 유휴 시간을 줄이며, AI 처리 속도를 향상시킬 수 있다.   ▲ IBM 리서치의 광학 모듈 시제품   IBM은 이번 연구 혁신을 통해 중급 전기 배선(interconnect) 대비 전력 소비를 5배 이상 줄임으로써 생성형 AI 확장 비용을 낮추고, 데이터센터 간 케이블 연결 길이를 기존 1미터에서 수백 미터로 확장할 수 있을 것으로 보고 있다. 또한, CPO 기술을 통해 기존 전기 배선(wiring)을 사용할 때보다 대규모 언어 모델(LLM)의 학습 속도를 최대 5배까지 높일 수 있다고 보았다. 이를 통해 일반적인 LLM 학습 시간이 3개월에서 3주로 단축될 수 있으며, 더 큰 모델과 더 많은 GPU를 활용할 경우 성능 향상의 폭이 더욱 커진다는 것이다. 이외에도 IBM은 AI 모델 학습 시 모델 당 미국 가정 약 5000가구의 연간 전력 소비량에 해당하는 에너지를 절감함으로써, 데이터센터 에너지 효율을 높일 수 있을 것으로 전망했다.   IBM 리서치 연구 개발 총책임자인 다리오 길(Dario Gil) 수석 부회장은 “생성형 AI가 점점 더 많은 에너지와 처리 능력을 요구함에 따라 데이터센터는 진화해야 한다. 공동 패키지형 광학(CPO) 기술은 데이터센터를 미래에 대비하도록 만들 수 있다”면서, “이 획기적인 기술을 통해 미래의 칩은 광섬유 케이블이 데이터 센터 안팎으로 데이터를 전달하는 방식으로 통신하게 될 것이며, 미래의 AI 워크로드를 처리할 수 있는 더 빠르고 지속 가능한 새로운 통신 시대를 열 것”이라고 말했다.
작성일 : 2024-12-10
레노버, SC24에서 AI 잠재력 극대화하는 차세대 HPC 설루션 공개
레노버가 미국 애틀랜타에서 개최된 ‘슈퍼컴퓨팅 2024(SC24)’에 참여해 지속 가능한 AI(인공지능) 전환을 구현하는 고성능 컴퓨팅(HPC) 기술을 선보였다. SC24 발표에서 레노버는 과학 및 기술 연구, 엔지니어링, 비즈니스 등 다방면에서 AI의 잠재력을 극대화할 수 있는 에너지 효율적인 플랫폼 및 설루션을 소개했다. 10년 이상의 노하우와 40개 이상의 특허를 바탕으로 개발된 레노버의 6세대 넵튠(Neptune) 액체 냉각 기술은 기존 공랭식 시스템에 비해 더 효율적으로 열을 제거한다. 새로 혁신된 섀시는 100% 수냉식인 컴팩트한 시스템에 서버를 수직 방향으로 전환해 전력 소모를 줄여 에너지 효율이 크게 향상되었다. 이제 모든 규모의 조직이 개방형 환경에서 표준 전력을 사용해 한 번에 한 트레이씩 고성능 가속 컴퓨팅을 구현할 수 있다. 6세대 레노버 넵튠 수냉식 슈퍼컴퓨팅 서버는 최신 프로세서 및 가속기 기술을 활용해 AI를 효율적으로 실행한다. 지난 10월 출시된 레노버 씽크시스템(ThinkSystem) SC777 V4 넵튠은 6세대 오픈 루프 및 직접 온수 냉각 기술을 탑재한 첨단 수냉식 서버다. 씽크시스템 SC777 V4넵튠은 엔비디아 GB200 그레이스 블랙웰(Grace Blackwell) NVL4 슈퍼칩을 지원하며, 신속함과 비용 및 에너지 효율성에 기반해 제품 출시 관련 1조 개의 매개 변수 AI 모델을 실행할 수 있다. 엔비디아 H200 NVL 플랫폼은 주류 엔터프라이즈 서버를 위한 AI 가속화를 지원한다. 레노버 씽크시스템 SR675 V3와 엔비디아 H200 NVL은 강력한 성능과 효율적인 확장을 제공하는 동시에 광범위한 HPC 워크로드의 요구 사항을 유연하게 충족한다. 또한 풀 스택 AI 포트폴리오에서 실행되는 엔비디아와의 하이브리드 AI 어드밴티지(Hybrid AI Advantage)는 조직이 인사이트를 신속하게 결과로 전환할 수 있도록 지원하며, 어디에서나 AI 기반 컴퓨팅을 빠르고 쉽게 제공한다. 레노버는 콜로케이션 파트너십을 통해 AI 및 HPC 성능 최대화를 필요로 하는 고객들에게 넵튠 액체 냉각 인프라를 제공한다. 이러한 콜로케이션 파트너십은 고객이 데이터센터 공간이 부족하더라도 고성능 프라이빗 AI를 구현할 수 있도록 지원한다. 레노버 넵튠의 직접 수냉 시스템에 기반한 고밀도 콜로케이션을 통해 기업은 에너지 효율성을 극대화하고 열 재활용 가능성을 확보할 수 있으며, 직접 액체 냉각을 통해 데이터센터의 에너지 효율을 30%까지 향상시킬 수 있다.   슈퍼컴퓨터는 자동차∙비행기 설계, 유전 탐사, 금융 리스크 평가, 유전자 맵 작성, 기상 예측 등 다양한 분야에서 활용되고 있다. 레노버는 자사의 수냉식 슈퍼컴퓨터가 전 세계 각지에서 에너지 최적화 및 기술 혁신을 이끌고 있다고 전했다. 스콧 티즈(Scott Tease) 레노버 ISG 제품 총괄 부사장은 “생성형 AI의 시대에 데이터센터는 IT 인프라 및 디지털 경제의 중추로 자리잡고 있다. 데이터센터로 인해 급증하는 에너지 수요에 책임 있게 대응하는 것은 우리 모두의 과제”라며 “레노버 넵튠 액체 냉각 기술의 혁신적인 발전 덕분에 지속가능한 데이터센터 및 AI 워크로드를 구현하는 고성능 컴퓨팅이 가능해졌다”고 전했다.
작성일 : 2024-11-29
AMD 기반 ‘엘 캐피탄’, 세계에서 가장 빠른 슈퍼컴퓨터로 등재
AMD는 세계에서 가장 빠른 슈퍼컴퓨터를 선정하는 톱500(Top500) 리스트에 AMD 기반 슈퍼컴퓨터가 6회 연속 등재되면서 고성능 컴퓨팅(HPC) 분야에서 리더십을 입증했다고 밝혔다. AMD 인스팅트(Instinct) MI300A APU로 구동되고 휴렛팩커드 엔터프라이즈(HPE)가 구축한 미국 로렌스 리버모어 국립 연구소(LLNL)의 엘 캐피탄(El Capitan) 슈퍼컴퓨터는 최신 톱500 리스트에서 1.742 엑사플롭스의 HPL(High-Performance Linpack) 스코어를 기록하며, 세계에서 가장 빠른 슈퍼컴퓨터로 선정되었다.  미국 핵안보국(NNSA)의 첫 번째 엑사스케일급 시스템인 엘 캐피탄은 NNSA의 트리랩스(Tri-Labs)인 LLNL과 로스앨러모스(Los Alamos) 및 샌디아(Sandia) 국립 연구소의 최고 컴퓨팅 자원으로 자리잡았다. 엘 캐피탄은 과학적 탐구와 국가 안보를 강화하는데 사용되며, 핵실험 없는 안전한 핵 억지력과 보안 및 신뢰성을 보장하는데 필요한 방대한 컴퓨팅 성능을 제공한다. 이 시스템은 노후 핵 비축물 인증과 같은 NNSA의 핵 비축물 관리 프로그램(Stockpile Stewardship Program)을 비롯해 확산 방지 및 대테러와 같은 주요 핵 안보 임무에 필수적인 모델링 및 시뮬레이션 기능을 지원한다.     LLNL과 NNSA의 다른 연구소들은 엘 캐피탄과 함께 AI 및 머신러닝 기반 데이터 분석을 수행하는 투올러미(Tuolumne) 시스템을 활용하여 빠르고 정확하게 예측 불확실성을 정량화할 수 있는 과학 모델을 생성하기 위한 LLNL의 AI 기반 목표를 더욱 가속화하고 있다. 엘 캐피탄은 AI를 적용하여 관성 봉입 핵융합(Inertial Confinement Fusion) 연구와 같은 고밀도 에너지 문제를 해결하는데 사용되고, 투올러미는 기후 모델링과 방역 및 신약 개발, 지진 모델링 등 비분류 공개 과학(Unclassified Open Science) 응용 분야에 활용될 예정이다. AMD의 최신 에픽 9005 시리즈 프로세서는 엔터프라이즈, AI 및 클라우드 환경을 위한 서버 CPU로, 고성능 컴퓨팅 및 AI 워크로드에서 이전 세대 대비 최대 37% 향상된 IPC(Instruction Per Cycle) 성능을 제공한다. 또한, 이 프로세서는 세계적인 난제를 해결하는 과학 및 고성능 컴퓨팅 애플리케이션에서 경쟁사 대비 최대 3.9배 더 빠른 인사이트 도출 시간을 제공한다. AMD 인스팅트 가속기는 AI 설루션에서 엑사스케일급 슈퍼컴퓨터에 이르기까지 다양한 규모의 데이터센터를 위한 고성능을 제공한다. AMD 인스팅트 MI300X 및 MI325X 가속기는 높은 AI 성능과 메모리 기능을 갖추고 있으며, CPU 및 GPU 코어와 적층형 메모리를 단일 패키지로 통합한 AMD 인스팅트 MI300A APU는 고성능 컴퓨팅 및 AI 워크로드를 위한 향상된 효율과 성능을 제공한다. AMD는 이외에도 오크리지 국립 연구소(Oak Ridge National Lab)의 엘 캐피탄과 프론티어(Frontier) 시스템이 그릭500(Green500) 리스트에서 각각 18위와 22위를 차지하면서, 고성능 컴퓨팅 워크로드를 지원하는 AMD 에픽 프로세서와 인스팅트 GPU의 성능 및 에너지 효율을 다시 한 번 입증했다고 전했다. AMD의 포레스트 노로드(Forrest Norrod) 수석 부사장 겸 총괄 책임자는 “엘 캐피탄이 엑사플롭의 장벽을 깨고, 세계에서 가장 빠른 AMD 기반 두 번째 슈퍼컴퓨터로 선정되어 매우 기쁘다. AMD 인스팅트 MI300 APU의 뛰어난 성능과 효율성을 입증한 이 획기적인 컴퓨터는 AMD와 LLNL 및 HPE 간의 헌신적인 협력의 결과물”이라면서, “AMD는 고성능 컴퓨팅과 AI의 컨버전스를 새롭게 정의하는 선도적인 성능과 기능을 통해 지속적으로 컴퓨팅의 미래를 주도하게 될 것”이라고 밝혔다. LLNL의 리버모어 컴퓨팅 최고기술책임자(CTO)인 브로니스 R. 드 수핀스키(Bronis R. de Supinski)는 “AMD 인스팅트 MI300A APU를 활용하여 절대적 한계치를 넘어서는 컴퓨팅 성능과 이전에는 상상하지 못한 뛰어난 에너지 효율성을 갖춘 시스템을 구축했다. 엘 캐피탄은 더욱 보편화되고 있는 AI를 기존의 시뮬레이션 및 모델링 워크로드와 통합함으로써 다양한 과학적 연구 분야에서 새로운 발견의 가능성을 높일 수 있게 되었다”고 전했다.
작성일 : 2024-11-19
델, AI 팩토리 포트폴리오에 최신 기술 적용한 서버/랙 시스템/전문 서비스 추가
델 테크놀로지스는 자사의 AI 설루션 포트폴리오인 ‘델 AI 팩토리(Dell AI Factory)’에 AI 구축 간소화를 위한 신규 인프라 설루션과 전문 서비스를 추가했다고 밝혔다. 델은 확장된 라인업을 통해 기업 및 기관이 AI 워크로드를 가속하고 데이터 관리를 효율화할 수 있도록 지원할 계획이다. 올해 새롭게 공개된 통합 랙 스케일러블 시스템인 ‘델 IRSS(Integrated Rack Scalable Systems)’는 플러그 앤 플레이 방식의 랙 스케일 시스템을 제공하는 공장 통합형 턴키 프로그램으로, 델 스마트 쿨링(Dell Smart Cooling) 기술이 적용되어 있다. IRSS는 전체 랙에 대한 원콜 서비스 및 지원 옵션을 통해 에너지 효율적인 AI 인프라스트럭처 구축을 더욱 간소화한다. 설치가 완료되면 델에서 패키징 폐기물 및 재활용을 처리하고 기존 노후 하드웨어의 재활용까지 지원한다. 표준 19인치 모델인 ‘델 IR5000(Dell Integrated Rack 5000)’에 탑재되는 서버로 ‘델 파워엣지 XE9685L(Dell PowerEdge XE9685L)’ 및 ‘델 파워엣지 XE7740(Dell PowerEdge XE7740)’이 추가됐다. 델 IR5000은 공간 효율적인 폼 팩터로 고집적 애플리케이션을 위해 설계되었으며, 고성능을 제공하는 동시에 에너지 효율을 유지한다.  델 파워엣지 XE9685L은 AI, 머신러닝, 고성능 컴퓨팅(HPC) 및 기타 데이터 집약적인 워크로드를 위해 설계된 고집적 4U 수랭식 서버이다. 최대 12개의 PCIe 젠 5.0 슬롯과 함께 엔비디아 HGX (NVIDIA HGX) H200 및 B200 GPU와 페어링된 듀얼 AMD 5세대 에픽(EPYC) CPU는 특정 컴퓨팅 요구 사항을 충족하는 맞춤형 구성, 최적화된 스토리지 연결 및 까다로운 워크로드를 위한 최대 IO 처리량을 지원한다. 이 플랫폼은 랙당 최대 96개의 엔비디아 GPU를 탑재할 수 있어 업계 최고 수준의 GPU 집적도를 제공한다.   ▲ 델 파워엣지 XE7740 서버   델 파워엣지 XE7740은 공랭식의 4U 모델로 2개의 인텔 제온 6(Intel Xeon) P-코어 프로세서와 인텔 가우디(Intel Gaudi) 3 PCIe 가속기 또는 엔비디아 H200 NVL 등 최대 8개의 더블 와이드 가속기, 또는 엔비디아 L4 텐서 코어(Tensor Core) GPU 등의 최대 16개의 싱글 와이드 가속기를 사용할 수 있다. 델은 “다양한 선택의 폭이 제공되는 만큼 생성형 AI 모델의 미세 조정이나 추론에서부터 대규모 데이터 세트에 대한 가치 추출에 이르기까지 규모에 맞게 서버 구성의 적절히 조정할 수 있다”고 설명했다.   델은 곧 출시될 엔비디아 GB200 그레이스 블랙웰 NVL4 슈퍼칩(Grace Blackwell NVL4 Superchip)을 델 IR7000용으로 설계된 새로운 델 파워엣지 XE 서버를 통해 50OU 표준 랙에서 랙당 최대 144개의 GPU를 지원할 계획이다. IR7000 랙은 100%에 가까운 열 포집 능력으로 고전력 및 액체 냉각을 필요로 하는 대규모 HPC 및 AI 워크로드를 지원한다. 또한, 델 테크놀로지스는 AI 작업을 위해 데이터를 효율적으로 관리하고 분석할 수 있는 최신 아키텍처 수요에 대응하게 위해 ‘델 데이터 레이크하우스(Dell Data Lakehouse)’도 업데이트 했다. 이 플랫폼은 AI에 최적화된 하드웨어와 풀 스택 소프트웨어 제품군을 기반으로 구축되었으며, 향후 대규모 분산 데이터 처리를 위한 아파치 스파크(Apache Spark)를 포함하도록 확장될 예정이다. 대량의 데이터를 관리하는 기업의 경우, 이를 통해 데이터 애널리틱스와 관리 및 처리에 이르기까지 통합된 접근 방식을 확보함으로써 효율성을 높이고 보다 신속하게 실행 가능한 인사이트를 얻을 수 있다. 한편, 델은 AI 에코시스템 전반의 파트너와 협력하여 AI 구축을 강화하고 간소화하는데 노력하고 있다고 전했다. 엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)는 AI 운영 및 활용 사례 구축을 위해 성능을 보다 가속화한다. 새로운 엔비디아 HGX H200 및 H100NVL 지원 옵션은 엔비디아 HGX H100 대비 최대 1.9배 더 높은 성능을 제공한다. 엔비디아 기반 델 AI 팩토리의 일부인 ‘엔비디아 기반 델 에이전틱 RAG(Dell Agentic RAG with NVIDIA)’를 통해 고객은 복잡한 쿼리를 수행하고 검색 증강 생성(RAG) 작업을 가속할 수 있다. 대규모 데이터 세트를 보유한 조직에서는 델의 이 설계를 기반으로 AI 에이전트를 사용하여 RAG 워크플로 성능을 개선하고, 복잡한 쿼리를 처리하며, 더 높은 품질의 결과를 제공할 수 있다. 이 설루션은 델 파워엣지와 델 파워스케일(Dell PowerScale)을 비롯해 니모 리트리버(NeMo Retriever) 마이크로서비스, 멀티모달 PDF 데이터 추출을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint)’ 등 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 활용한다. AI PC를 위한 델 검증 설계(Dell Validated Designs for AI PCs)는 NPU 기술이 탑재된 델 AI PC에서 AI 애플리케이션 개발을 촉진하기 위해 설계된 오픈 소스 가이드이다. 개발자는 모듈식 설계를 쉽게 맞춤화하여 LLM, 비전, 텍스트 및 음성 등의 기능을 애플리케이션에 통합할 수 있다. 또한 다양한 프로세서 종류나 플랫폼에 걸쳐 AI 애플리케이션을 배포할 수 있다. 이러한 확장 가능한 접근 방식을 통해 온디바이스 AI에서 일상적인 프로세스를 자동화하고 시간과 비용을 절감하고 데이터 보안을 개선할 수 있다. 델 프로페셔널 서비스(Dell Professional Services)는 AI 관련 전략 개발이나 구현에 어려움을 겪는 기업과 기관들이 AI 목표를 보다 효율적으로 달성할 수 있도록 지원한다. ‘지속 가능한 데이터 센터를 위한 자문 및 구현 서비스(Advisory and Implementation Services for Sustainable Data Centers)’는 지능형 전력 및 냉각 관리를 통해 저탄소, 에너지 효율적인 데이터 센터를 위한 전략을 수립하고 구현하는데 필요한 전문 지식을 제공한다. ‘데이터 관리 서비스(Data Management Services)’는 데이터를 검색, 분류, 정제하여 AI-레디 카탈로그를 제공하고 체계화된 고품질 데이터에 대한 안정적이고 간소화된 액세스를 보장한다. ‘AI 네트워킹을 위한 설계 서비스(Design Services for AI Networking)’는 더 빠른 속도, 지연 시간 단축, 향상된 확장성을 통해 AI 워크로드에 최적화된 네트워크 설계를 제공한다. ‘서비스나우 나우 어시스트를 위한 구현 서비스(Implementation Services for ServiceNow Now Assist)’는 AI 기반 요약을 통해 콘텐츠 수집을 간소화하여 결과를 자동화하고 생산성을 향상시키는 ‘나우 어시스트’를 통해 서비스 관리 워크플로에 생성형 AI 기능을 통합한다. 한국 델 테크놀로지스의 김경진 총괄사장은 “여러 고객들이 AI를 구축하고 실행하기까지 점점 더 다양한 도전과제에 직면하게 된다”면서, “델은 계속해서 진일보한 AI 오퍼링을 선보임으로써 고객이 AI를 통해 보다 스마트하고 유연하게 대응할 수 있는 미래를 만들어갈 수 있도록 하는데 집중하고 있다”고 밝혔다. 델 파워엣지 XE9685L과 델 파워엣지 XE7740은 2025년 1분기에 전 세계에 출시될 예정이며, 델 데이터 레이크하우스 업데이트는 현재 전세계에서 이용 가능하다. AI PC를 위한 델 검증 설계는 현재 전 세계에서 이용 가능하며, 엔비디아 기반의 델 생성형 AI 설루션의 GPU 업데이트는 올해 내에 제공될 예정이고, 엔터프라이즈 RAG 업데이트는 현재 이용이 가능하다. ‘델 데이터 관리 서비스’와 ‘지속 가능한 데이터 센터를 위한 델 서비스,’ ‘AI 네트워킹을 위한 델 설계 서비스,’ ‘서비스나우 나우 어시스트를 위한 델 구현 서비스’는 현재 일부 국가에서 제공되고 있다.
작성일 : 2024-11-19