• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "GPU"에 대한 통합 검색 내용이 1,752개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아-구글 딥마인드, 대규모 언어 모델 혁신 위해 협력
엔비디아가 구글의 연례 개발자 콘퍼런스인 ‘구글 I/O 2024’에서 세 가지 새로운 협업 내용을 발표했다. 이번 협업으로 엔비디아와 구글은 세계적 수준의 성능을 갖춘 AI 기반 애플리케이션을 더 쉽게 만들 수 있도록 개발자를 지원할 예정이다. 텍스트, 이미지, 사운드와 같은 여러 유형의 데이터를 처리하는 모델이 점점 더 보편화되면서 생성형 AI를 구동하는 대규모 언어 모델(LLM)에 대한 혁신이 가속화되고 있다. 그러나 이러한 모델을 구축하고 배포하는 것은 여전히 어려운 과제다. 개발자는 모델을 빠르게 경험하고 평가해 사용 사례에 가장 적합한 모델을 결정한 다음, 비용 효율적일 뿐만 아니라 최상의 성능을 제공하는 방식으로 모델을 최적화할 수 있는 방법이 필요하다. 엔비디아는 이번 행사에서 구글이 선보인 두 가지 새로운 모델인 젬마 2(Gemma 2)와 팔리젬마(PaliGemma)를 최적화하기 위해 텐서RT-LLM(TensorRT-LLM)을 사용하고 있다. 이 두 모델은 모두 제미나이(Gemini)를 만드는 데 사용된 동일한 연구와 기술을 기반으로 구축됐으며, 각각 특정 영역에 중점을 둔다. 젬마 2는 광범위한 사용 사례를 위한 차세대 젬마 모델로, 획기적인 성능과 효율성을 위해 설계된 완전히 새로운 아키텍처가 특징이다. 팔리젬마는 PaLI-3에서 영감을 받은 개방형 시각 언어 모델(VLM)이다. 이는 SigLIP 시각 모델과 젬마 언어 모델을 포함한 개방형 구성 요소를 기반으로 구축됐으며, 이미지, 짧은 비디오 캡션, 시각적 이미지 질의응답, 이미지 내 텍스트 이해, 객체 감지나 분할과 같은 시각 언어 작업을 위해 설계됐다. 팔리젬마는 광범위한 시각 언어 작업에서 높은 수준의 미세 조정 성능을 탑재했고 엔비디아 JAX-툴박스(JAX-Toolbox)에서도 지원된다.   젬마 2와 팔리젬마는 대규모 AI 모델 배포를 간소화하는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼의 일부인 엔비디아 NIM 추론 마이크로서비스와 함께 제공될 예정이다. 새로운 두 모델에 대한 NIM 지원은 팔리젬마를 시작으로 API 카탈로그에서 사용할 수 있으며, 곧 엔비디아 NGC와 깃허브(GitHub)에서 컨테이너로 출시될 예정이다. 구글은 데이터 과학자에게 인기 있는 개발자 플랫폼 중 하나인 구글 코랩(Colab)에서 오픈 소스 GPU 데이터 프레임 라이브러리인 래피즈 cuDF(RAPIDS cuDF)가 기본으로 지원된다고 발표했다. 매월 1000만 명에 이르는 구글 코랩의 월간 사용자들은 이제 코드 변경 없이 단 몇 초 만에 엔비디아 L4 텐서 코어(Tensor Core) GPU를 사용해 판다스(pandas) 기반 파이썬(Python) 워크플로를 최대 50배까지 가속화할 수 있다. 구글 코랩을 사용하는 개발자는 래피즈 cuDF를 통해 탐색적 분석(exploratory analysis)과 생산 데이터 파이프라인의 속도를 높일 수 있다.  또한, 엔비디아와 구글은 엔비디아 RTX 그래픽을 사용해 AI PC를 활용하는 파이어베이스 젠킷(Firebase Genkit)에 대한 협업도 발표했다. 이는 개발자가 새로운 젬마 모델 제품군을 비롯한 생성형 AI 모델을 웹과 모바일 애플리케이션에 쉽게 통합해 맞춤형 콘텐츠, 시맨틱 검색(semantic search), 문의에 대한 답변을 제공할 수 있도록 지원한다. 개발자는 로컬 RTX GPU로 작업 줄기(work stream)를 시작한 다음, 작업을 구글 클라우드 인프라로 원활하게 이동할 수 있다. 개발자들은 모바일 개발자들이 주로 쓰는 프로그래밍 언어인 자바스크립트(JavaScript)를 사용하는 젠킷으로 앱을 더욱 쉽게 개발할 수 있다. 엔비디아와 구글 클라우드는 AI의 발전을 위해 다양한 분야에서 협력하고 있다고 전했다. 곧 출시될 그레이스 블랙웰(Grace Blackwell) 기반 DGX 클라우드 플랫폼과 JAX 프레임워크 지원부터 구글 쿠버네티스 엔진(Kubernetes Engine)에 엔비디아 네모(NeMo) 프레임워크 도입까지, 양사의 풀스택(full-stack) 파트너십은 사용자가 구글 클라우드에서 엔비디아 기술을 사용해 AI로 수행할 수 있는 작업의 가능성을 확장하고 있다.
작성일 : 2024-05-17
슈퍼마이크로, HPC와 AI 환경에 최적화된 데이터센터용 냉각 솔루션 출시
슈퍼마이크로컴퓨터가 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에 참가해 데이터센터 전력 소모량 감축과 동시에 AI 및 HPC 용량 확장을 목표로 할 때 직면하는 까다로운 요구사항을 충족할 수 있는 방안을 발표했다.   슈퍼마이크로는 콜드 플레이트, CDU, CDM, 냉각탑 전체 등을 포함한 수냉식 냉각 솔루션을 제공한다. 데이터센터에 수냉식 냉각 서버 및 인프라를 도입할 경우 데이터센터의 PUE가 크게 감소해 총 전력 소비량을 최대 40%까지 줄일 수 있다.   슈퍼마이크로 애플리케이션에 최적화된 고성능 서버는 높은 성능의 CPU 및 GPU를 탑재해 시뮬레이션, 데이터 분석 및 머신러닝에 적합하다. 슈퍼마이크로 4U 8-GPU 수냉식 냉각 서버는 엔비디아 H100/H200 HGX GPU를 통해 집적도가 높은 폼팩터에서 페타플롭스(PetaFlops) 수준의 AI 컴퓨팅 성능을 제공한다. 슈퍼마이크로는 곧 수냉식 X14 8U/6U 슈퍼블레이드, 랙마운트 X14 하이퍼, 그리고 슈퍼마이크로 X14 빅트윈을 출시할 예정이다. 다양한 HPC 최적화 서버 플랫폼이 P 코어(성능 코어)를 탑재한 콤팩트 멀티 노드 폼팩터 형태로 인텔 제온 6900을 지원한다.   슈퍼마이크로는 광범위한 수냉식 냉각 MGX 제품 포트폴리오를 지속적으로 출시하고 있다. 최근에는 새로운 인텔 가우디 3 가속기 및 AMD MI300X 가속기와 함께 인텔의 최신 가속기 지원을 확정했다. 랙당 최대 120개의 노드를 제공하는 슈퍼마이크로 슈퍼블레이드를 사용하면 대규모 HPC 애플리케이션을 단 몇 개의 랙에서 실행할 수 있다. 슈퍼마이크로는 인텔 제온 6 프로세서를 통합한 슈퍼마이크로 X14 서버를 비롯해 다양한 제품군을 ISC 2024에서 선보였다.     한편, 슈퍼마이크로는 ISC 2024에서 HPC 및 AI 환경을 위해 설계된 다양한 솔루션을 선보였다. 슈퍼마이크로의 새로운 4U 8-GPU 수냉식 냉각 서버는 엔비디아 HGX H100 및 H200 GPU를 탑재한 대표적인 제품군이다. 해당 제품을 비롯한 다양한 서버들이 출시되는 대로 엔비디아 B200 HGX GPU를 지원할 예정이다. 새로운 시스템은 고급 GPU를 탑재했으며, 고속 HBM3 메모리를 사용해 기존 시스템보다 더 많은 데이터를 GPU에 보다 가까이 가져와 AI 훈련 및 HPC 시뮬레이션을 가속화한다.    또한, 슈퍼마이크로는 ISC 2024에서 인텔 가우디 3 AI 액셀러레이터를 탑재한 8U 서버를 소개했다. 이 신규 서버는 AI 훈련 및 추론을 위해 설계됐으며, 기존 이더넷 패브릭과 직접 연결될 수 있다. 모든 인텔 가우디 3 가속기에 24개의 200Gb 이더넷 포트가 통합돼 유연한 개방형 표준 네트워킹을 제공한다. 또한 128GB의 HBM2e 고속 메모리가 포함된다. 인텔 가우디 3 가속기는 단일 노드에서 수천 개의 노드까지 효율적으로 확장 및 추가될 수 있도록 설계됐다. 이로 인해 생성형 AI 모델의 까다로운 요구 사항의 충족이 가능하다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 데이터센터에 종합 수냉식 냉각 솔루션과 같은 최신 기술을 도입하기 위해 AI 및 HPC 고객과 지속적으로 협력하고 있다”며, “슈퍼마이크로의 완전한 수냉식 냉각 솔루션은 랙당 최대 100kW를 처리할 수 있다. 이로 인해 데이터센터의 TCO(총 소유 비용) 감축과 AI 및 HPC 컴퓨팅의 집적도 향상이 가능하다. 당사는 빌딩 블록 아키텍처를 통해 최신 GPU와 가속기를 시장에 출시하고 있다. 또한, 새로운 랙 스케일 솔루션을 지속적으로 출시함으로써 고객에게 보다 신속하게 제품을 공급하고 있다. 이 프로세스는 검증된 공급업체와 함께 이루어진다”고 설명했다.
작성일 : 2024-05-17
엔비디아, “생성형 AI 통해 다양한 분야서 HPC 활용 연구 가속화 지원”
엔비디아가 생성형 AI를 통해 HPC(고성능 컴퓨팅) 작업을 가속화하며 코드 생성, 기상, 유전학, 재료 과학 분야의 연구를 지원하고 있다고 밝혔다. 생성형 AI는 국가와 기업 연구소에서 비즈니스와 과학을 위한 HPC를 가속화하며 기반을 다지고 있다. 샌디아 국립 연구소(Sandia National Laboratories)는 세계 최대 규모의 슈퍼컴퓨터에서 사용하도록 설계된 병렬 프로그래밍 언어인 코코스(Kokkos)로 코드를 자동으로 생성하는 시도를 하고 있다. 여러 국립 연구소의 연구진이 개발한 이 특수 언어는 수만 대의 프로세서에서 작업을 수행하는 데 필요한 미묘한 부분까지도 처리할 수 있다. 샌디아 국립 연구소의 연구진들은 검색 증강 생성(RAG) 기술을 사용해 코코스 데이터베이스를 생성하고 AI 모델과 연결하고 있다. 이들은 다양한 RAG 접근 방식을 실험하면서 초기 테스트에서 긍정적인 결과를 보여주고 있다. 과학자들이 평가하게 될 RAG 옵션 중에는 네모 리트리버(NeMo Retriever)와 같은 클라우드 기반 서비스도 있다.     이러한 모델 조정과 RAG를 통한 코파일럿 구축은 시작에 불과하다. 연구진들은 궁극적으로 기후, 생물학, 재료 과학과 같은 분야의 과학 데이터로 훈련된 파운데이션 모델의 활용을 목표로 하고 있다. 일기 예보 분야의 연구원과 기업들은 기상, 기후 연구를 위한 서비스와 소프트웨어 세트인 엔비디아 어스-2(Earth-2)의 생성형 AI 모델인 코디프(CorrDiff)를 채택하고 있다. 코디프는 기존 대기 모델의 25km 해상도를 2km까지 조정할 수 있다. 또한, 결합할 수 있는 예측 수를 100배 이상 확장해 예측 신뢰도를 높일 수 있다. 자체 소형 위성 네트워크에서 데이터를 수집하는 기업인 스파이어(Spire)의 톰 고완(Tom Gowan) 머신러닝 및 모델링 책임자는 “생성형 AI를 통해 더 빠르고 정확한 예보가 가능해지고 있다”고 전했다. 스위스에 본사를 둔 메테오매틱스(Meteomatics)는 최근 자사의 일기 예보 사업에도 엔비디아의 생성형 AI 플랫폼을 사용할 계획이라고 발표했다. 메테오매틱스의 마틴 펜글러(Martin Fengler) CEO는 “엔비디아와의 협력은 에너지 기업들이 날씨 변동에 대한 빠르고 정확한 인사이트를 통해 재생 에너지 운영을 극대화하고 수익성을 높이는 데 도움이 될 것”이라고 말했다. 마이크로소프트는 생성형 AI로 재료 과학 분야의 작업을 가속화하는 연구를 진행했다. 마이크로소프트의 매터젠(MatterGen) 모델은 원하는 특성을 나타내는 새롭고 안정적인 물질을 생성한다. 이 접근 방식을 통해 화학, 자기, 전자, 기계 등의 기타 원하는 특성을 지정할 수 있다. 마이크로소프트 연구팀은 엔비디아 A100 GPU를 사용해 애저(Azure) AI 인프라에서 매터젠을 훈련시켰으며, 카본3D(Carbon3D)와 같은 기업은 상업용 3D 프린팅 작업에서 재료 과학에 생성형 AI를 적용하며 기회를 찾고 있다. 엔비디아는 “이는 연구자들이 생성형 AI를 통해 HPC와 과학 분야에서 할 수 있는 일의 시작에 불과하다”면서, “현재 사용 가능한 엔비디아 H200 텐서 코어 GPU와 곧 출시될 엔비디아 블랙웰(Blackwell) 아키텍처 GPU는 새로운 차원의 작업을 실현시킬 것”이라고 기대했다.
작성일 : 2024-05-16
CADENCE_ASME Turbo Expo 2024 Lunch & Learn
<행사 안내> *행사 업체 : CADENCE (NUMECA / Fine Turbo / Fidelity CFD / Pointwise 개발 및 공급 업체) *행사 내용 : CADENCE ASME Turbo Expo 2024 Lunch & Learn *날짜 및 시간 : Monday, June 24 (12:00 - 13:30) *장소: Aloft Hotel (outside of ExCeL Main Entrance) One Eastern Gateway, Royal Victoria Dock, London E16 1FR - Room Tactic 1-4 *비고 : 점심 제공 (무료), Turbomachinery 최신 기술 소개와 커뮤니케이션  *접수하기 : 등록 링크   (무료) 등록하신 분들께서는   참석 인원 확인 및 원활한  현장 안내를 위해 '나인플러스IT 담당자( cfd@npit.co.kr )'에게 등록/참석하신다는 메일을 보내주시면 감사하겠습니다.   How can you perform industrial-level turbomachinery CFD simulations more easily? Join us for our annual Lunch & Learn event to learn about the latest advancements in CFD simulation and our completely upgraded user experience in the Cadence Fidelity Turbo platform.  Register below to discover: ·New improvements to our solvers in Fine and Fidelity CFD and the simplified transition between platforms ·The new Cadence Millennium M1 CFD Supercomputer, a unique combination of high-fidelity simulation software with GPU-powered hardware solving high-fidelity aerodynamics, aeroacoustics, and combustion at unprecedented speeds ·First integration of our CFD workflows into the Cadence Optimality Intelligent System Explorer, enabling multi-disciplinary analysis and optimization Date: Monday, June 24  Time: 12:00 - 13:30  Location: Aloft Hotel (outside of ExCeL Main Entrance) One Eastern Gateway, Royal Victoria Dock, London E16 1FR - Room Tactic 1-4  Lunch will be provided.  Don’t miss out and save your seat today. Seats are limited and will be reserved on a first-come, first-served basis. Any registrations after seats are filled will be placed on a wait list. SAVE MY SEAT We look forward to your attendance!
작성일 : 2024-05-10
매스웍스, 의료 소프트웨어 개발 가속화 위한 엔비디아 홀로스캔 통합 기능 출시
매스웍스는 의료 기기 구축을 위한 엔비디아의 실시간 AI 컴퓨팅 소프트웨어 플랫폼인 엔비디아 홀로스캔(NVIDIA Holoscan)에서 매트랩(MATLAB)을 사용할 수 있는 통합 기능을 발표했다. 의료기기 엔지니어는 실시간 데이터 처리와 추론을 위해 기존의 매트랩 알고리즘과 함수를 GPU 가속 엔비디아 홀로스캔 오퍼레이터(Holoscan Operator)로 래핑하여, 스트리밍 데이터를 분석하고 시각화 애플리케이션의 개발 및 배포를 가속화할 수 있다. 의료기기 엔지니어는 최첨단 소재와 전자기기 활용 기술의 속도감 있는 혁신과 더불어 복잡하게 변화하는 국제 규제를 준수해야 한다. 이로 인해 많은 기기가 시장에 출시된 지 얼마 지나지 않아 구형이 되었고, ‘소프트웨어 의료기기(SaMD)’의 등장을 촉진시켰다. 소프트웨어 의료 기기는 하드웨어에 종속되지 않고 의료 기기의 사용 목적에 부합하는 기능을 가지며 독립적인 형태의 소프트웨어만으로 이뤄진 의료 기기를 말한다. 엔지니어는 소프트웨어 의료기기가 시장에서 지속적인 경쟁력을 유지할 수 있도록 소프트웨어 정의 워크플로를 개발하여 초기 배포 이후의 추가 소프트웨어 기능을 통합할 수 있게 해야 한다. 엔비디아 홀로스캔은 센서 처리 플랫폼으로, 실시간 인사이트를 제공하는 AI 및 고성능 컴퓨팅 애플리케이션의 개발 및 배포를 간소화한다. 또한 에지에서 스트리밍 데이터의 확장 가능한 소프트웨어 정의 처리에 필요한 풀 스택 인프라를 제공해 최신 AI 애플리케이션을 임상 환경에 도입할 수 있도록 지원한다. 의료기기 엔지니어는 홀로스캔과 매트랩의 통합 기능을 통해 영상 및 신호 처리, 필터링, 변환, 딥러닝 알고리즘과 관련된 기존의 내장된 행렬 연산과 복잡한 툴박스 함수를 사용할 수 있다. 매트랩으로 홀로스캔 파이프라인을 구현하려면 매트랩 함수 생성, GPU 코더(GPU Coder)를 통한 가속화된 CUDA 코드 생성, 홀로스캔 오퍼레이터 래퍼 생성 및 새로운 매트랩 오퍼레이터(MATLAB Operator)를 사용한 홀로스캔 애플리케이션 재구축의 4 단계를 거쳐야 한다. 이러한 과정으로 구축된 소프트웨어 정의 워크플로는 매트랩과 홀로스캔의 추가적인 통합 검증 및 확인 기능을 통해 IEC 62304 등의 산업 규정 및 표준을 준수하도록 할 수 있다.     엔비디아의 데이비드 뉴올니(David Niewolny) 의료 기술 부문 사업 개발 책임자는 “의료 기술 산업은 인공지능에 의해 혁신을 거듭하고 있다”며, “엔비디아와 매스웍스는 의료 등급의 엔비디아 홀로스캔 플랫폼 내에서 성장 중인 매트랩 개발 커뮤니티에 호환성 높은 개발 환경을 제공함으로써 의료 기술 분야의 AI 기반 혁신을 가속화하고 있다”고 말했다. 매스웍스의 데이비드 리치(David Rich) 제품 마케팅 부서장은 “이제 엔지니어들은 엔비디아 홀로스캔을 통해 매트랩 함수를 작성하고 수천 배 더 빨리 실행할 수 있다”며, “수백만 명의 고객이 산업 규정과 표준을 준수하는 제품을 설계, 개발 및 테스트하고자 하는 가운데, 업계 리더인 엔비디아와의 협업으로 의료 기기 혁신을 주도할 수 있게 됐다”고 말했다.
작성일 : 2024-05-09
엔비디아, 차세대 로봇 파지 기술 위한 협업 내용 소개
엔비디아가 복잡한 자율 로봇 조작 분야를 발전시키기 위해 알파벳(Alphabet)의 소프트웨어와 AI 로보틱스 회사인 인트린직(Intrinsic)과 협력해 엔비디아 AI와 아이작(Isaac) 플랫폼 기술을 통합했다고 소개했다. 미국 시카고에서 열리는 오토메이트(Automate) 전시회에서 인트린직은 로봇 파지(grasp) 기술의 발전 내용을 소개한다. 또한 엔비디아 아이작 매니퓰레이터(Isaac Manipulator)로 구현된 파운데이션 모델로 산업 확장성을 지원해, AI를 통한 산업 자동화의 새로운 가치를 선보일 예정이다. 엔비디아는 지난 3월 GTC에서 파운데이션 모델과 모듈식 GPU 가속 라이브러리의 모음인 아이작 매니퓰레이터를 공개했다. 아이작 매니퓰레이터는 산업 자동화 기업의 AI 모델 훈련과 작업 재프로그래밍을 가속화해, 동적 조작 작업을 위한 확장과 반복이 가능한 워크플로를 구축할 수 있도록 지원한다. 파운데이션 모델은 신경망이 데이터의 관계를 추적해 학습하게 하는 트랜스포머 딥러닝 아키텍처를 기반으로 한다. 일반적으로 방대한 데이터 세트에 기반해 학습되며, 텍스트용 챗GPT(ChatGPT)처럼 센서와 로봇 정보를 처리하고 이해하는 데에 사용할 수 있다. 이를 통해 이전과는 전혀 다른 로봇의 인식과 의사 결정이 가능해지며, 사전 예제 없이도 작업을 수행할 수 있는 제로샷 러닝(zero-shot learning)을 제공한다.      파지 기술은 로봇 공학에서 오랫동안 추구된 기술로, 지금까지는 프로그래밍하는데 드는 많은 시간과 비용의 문제로 인해 확장하기가 어려웠다. 그 결과 지금까지 로봇은 반복적인 픽앤플레이스(pick-and-place) 조건을 원활하게 처리하는데 어려움이 있었다. 이런 문제는 시뮬레이션을 활용함으로써 개선할 수 있을 전망이다. 인트린직은 엔비디아 아이작 심(Isaac Sim)과 함께 엔비디아 옴니버스(Omniverse) 플랫폼에 합류했다. 이들은 판금과 흡입 그리퍼의 컴퓨터 지원 설계 모델을 사용해 진공 그립을 위한 합성 데이터를 생성했다. 이를 통해 인트린직은 산업용 공작 기계의 선두 제조업체인 트럼프 머신 툴스(Trumpf Machine Tools)의 고객사를 위해 프로토타입을 제작할 수 있었다. 이 프로토타입은 AI 기반 로봇 솔루션용 개발자 환경인 인트린직 플로우스테이트(Flowstate)를 사용해 프로세스, 관련 인식 그리고 모션 계획을 시각화한다. 아이작 매니퓰레이터가 포함된 워크플로를 통해 파지 자세와 쿠다(CUDA) 가속 로봇 모션을 구현할 수 있다. 또한 인트린직 플랫폼으로 실제 환경에 배포하기 전에 이를 먼저 아이작 심을 사용한 시뮬레이션으로 평가해 비용을 절감할 수 있다. 이번 협력을 통해 엔비디아와 인트린직은 로봇 팔을 위한 최첨단의 조작 민첩성과 모듈식 AI 기능을 제공할 계획이다. 이는 강력한 파운데이션 모델 모음과 GPU 가속 라이브러리를 통해 보다 많은 새로운 로봇 공학과 자동화 작업 가속화를 가능하게 한다. 엔비디아는 인트린직과 협업을 통해 그리퍼(gripper), 환경 그리고 물체 전반에 걸쳐 보편적으로 적용할 수 있는 로봇 파지 기술의 잠재력을 소개한다는 비전을 내세운다. 인트린직의 웬디 탠 화이트(Wendy Tan White) CEO는 “광범위한 업계에서 엔비디아와의 협력은 파운데이션 모델이 얼마나 큰 영향을 미칠 수 있는지 보여준다. 여기에는 오늘날의 처리 과제를 대규모로 관리하기 쉽게 만들고, 이전에는 실현 불가능했던 애플리케이션을 만들고, 개발 비용을 절감하고, 최종 사용자를 위한 유연성을 높이는 것이 포함된다"고 말했다. 
작성일 : 2024-05-08
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional Services)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08
RTX A400/A1000 : AI 기반 워크플로 강화하는 전문가용 GPU
개발 및 공급 : 엔비디아 주요 특징 : AI 처리를 위한 3세대 텐서 코어 및 레이 트레이싱을 위한 2세대 RT 코어 탑재, 암페어 아키텍처 기반의 CUDA 코어 탑재해 그래픽/컴퓨팅 처리속도 향상, 전문가 작업의 데이터를 처리속도 향상 위한 메모리 대역폭 증가, 효율적인 비디오 처리를 위한 인코딩/디코딩 엔진 탑재 등   엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   향상된 성능으로 창의성 및 효율 향상 지원 RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다. 엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다.   ▲ 엔비디아 RTX A1000   차세대 기능을 통한 성능 강화 A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W이며, 콤팩트하고 에너지 효율적인 워크스테이션을 위해 향상된 기능을 제공한다.  2세대 RT 코어 : 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어 : 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다.  암페어 아키텍처 기반 쿠다 코어 : 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. 4GB/8GB 메모리 : A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 인코딩/디코딩 엔진 : 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다.   RTX 솔루션의 활용 범위 확대 엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
라이젠 프로 8040/8000 시리즈 : AI로 생산성 높이는 기업용 PC 프로세서
개발 및 공급 : AMD 주요 특징 : 4nm 젠 4 아키텍처 기반으로 성능 및 전력 효율 향상, 와이파이 7 기술 지원, 일부 모델에 NPU 기반 AI 엔진 탑재 등     AMD는 비즈니스 환경에서 높은 생산성과 프리미엄급 AI 및 연결 경험을 제공하는 새로운 기업용 모바일 및 데스크톱 AI PC 프로세서를 공개했다. 새로운 AMD 라이젠 프로 8040(Ryzen PRO 8040) 시리즈는 기업용 노트북과 모바일 워크스테이션을 위해 개발된 x86 프로세서이다. AMD는 비즈니스 사용자를 위한 AI 지원 데스크톱 프로세서인 AMD 라이젠 프로 8000 시리즈 데스크톱 프로세서도 출시했다. 이 제품은 낮은 전력 소모로 첨단 성능을 제공하도록 설계되었다. AMD는 이번에 새롭게 공개된 일부 모델에 AMD 라이젠 AI(AMD Ryzen AI)를 탑재했다. 새로운 라이젠 AI 기반 프로세서는 CPU, GPU 및 전용 온칩 NPU(Neural Processing Unit)를 탑재한다. 전용 NPU의 경우 최대 16 TOPS의 연산 성능을 제공하며, 전체 시스템은 최대 39 TOPS로 이전 세대보다 향상된 전용 AI 프로세싱 성능을 제공한다. 새로운 라이젠 AI 지원 프로세서를 장착한 기업용 PC는 AI 기반 협업과 콘텐츠 제작, 데이터 및 분석 워크로드에서 더 높은 성능과 향상된 사용자 경험을 제공한다. 또한, AMD 프로 기술이 추가됨에 따라 IT 관리자들은 IT 운영을 간소화하고, 조직 전반에 걸쳐 보다 신속하게 PC를 구축할 수 있는 엔터프라이즈급 관리 기능을 사용할 수 있다. AMD는 정교한 공격으로부터 프로세서와 클라우드를 방어할 수 있는 통합 보안 기능 및 안정성과 신뢰성 및 플랫폼 수명을 갖춘 엔터프라이즈 소프트웨어 등의 이점을 제공한다고 전했다. 새로운 라이젠 프로 8040 시리즈 모바일 프로세서는 2024년 2분기부터 HP와 레노버를 포함한 OEM 파트너사를 통해 공급될 예정이며, 라이젠 프로 8000 시리즈 데스크톱 프로세서는 2024년 2분기부터 OEM 파트너사인 HP와 레노버, 일부 채널 파트너 플랫폼을 통해 공급될 예정이다.   라이젠 프로 8040 시리즈      전문가용 노트북 및 모바일 워크스테이션을 위한 AMD 라이젠 프로 8040 시리즈 모바일 프로세서는 집약적인 비즈니스 및 AI 워크로드에 최적화된 효율과 프로세싱 성능을 제공한다. 이 프로세서는 까다로운 모바일 워크스테이션 애플리케이션에서 최대 30% 향상된 성능을 제공하는 4nm의 ‘젠 4(Zen 4)’ 아키텍처를 기반으로 하며, 최대 8개의 고성능 코어를 탑재한다. 일부 모델에는 AMD 라이젠 AI를 탑재하고 AMD RDNA 3 그래픽을 통합했는데, AMD는 “경쟁사 프로세서 대비 화상회의 시 84% 더 적은 전력으로 최대 72% 더 높은 성능을 제공한다”고 설명했다. 또한, 라이젠 프로 8040 시리즈 프로세서 기반 PC는 와이파이 7(WiFi-7) 기술도 활용할 수 있다. 시리즈 중 최상위 제품인 AMD 라이젠 9 프로 8945HS는 8개의 코어와 16개의 스레드, 24MB 캐시 및 라데온(Radeon) 780M 그래픽을 탑재하고 있다. 이 프로세서는 테크니컬 컴퓨팅, 멀티미디어 콘텐츠 제작, 개별 그래픽 등 리소스 집약적 애플리케이션에 필요한 연산 성능을 제공하며, 3D 렌더링, 비디오 인코딩 및 사진 편집 등과 같은 까다로운 그래픽 관련 워크로드를 처리한다. 이번에 발표된 라이젠 프로 8040 시리즈는 6 코어 12 스레드의 라이젠 5 프로 8540U부터 8 코어 16 스레드의 라이젠 9 프로 8945HS까지 8종이다. 이 중 8540U를 제외한 7개 제품에서 라이젠 AI를 지원한다.   라이젠 프로 8000 시리즈     기업용 데스크톱을 위한 AMD 라이젠 프로 8000 시리즈 프로세서는 4nm 공정 기술을 기반으로 최대 8개의 고성능 젠 4 코어를 탑재했으며, 일부 모델은 전용 AI 엔진을 탑재하여 향상된 전력 및 효율과 몰입형 AI 경험을 제공한다.  AMD 라이젠 프로 8000 시리즈 프로세서를 장착한 데스크톱은 주요 비즈니스 애플리케이션 및 데이터에 대한 보다 빠른 액세스와 초고속 데이터 전송, 원활한 워크플로를 위해 최신 DDR5 및 PCIe 4를 지원하며, 일부 모델은 와이파이 7 기반의 차세대 연결성도 제공한다. 라인업 중 최상위 제품인 AMD 라이젠 8700G 프로세서는 고성능 8 코어 16 스레드, 24MB 캐시 및 통합 AMD 라데온 780M 그래픽을 탑재한다. AMD 라이젠 8700G는 AMD의 성능 테스트에서 경쟁 제품 대비 더 적은 전력을 소모하면서도 최대 19% 향상된 성능을 제공하는 것으로 나타났다. AMD는 “AMD 라이젠 7 프로 8799G 프로세서를 탑재한 기업용 데스크톱은 특정 테스트를 기준으로 경쟁사 프로세서에 비해 최대 47% 향상된 시스템 성능과 3배 향상된 그래픽 성능을 제공한다”고 전했다. 이번에 발표된 라이젠 프로 8000 시리즈는 4 코어 8 스레드의 라이젠 3 프로 8300GE부터 8 코어 16 스레드의 라이젠 7 프로 8700G까지 8종이며, 라이젠 5 프로 8600G 및 8600GE, 라이젠 7 프로 8700G 및 8700GE 등 네 종이 라이젠 AI를 지원한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[피플 & 컴퍼니] 한국알테어 이승훈 기술 총괄 본부장
더욱 빠르고 효율적인 제품 개발을 위한 AI 기술 본격화 추진   제조산업에서도 AI(인공지능)에 대한 관심이 높아지고 있다. 한편으로 실질적인 AI 도입과 활용에 대한 제조업계의 고민도 커졌다. 알테어는 시뮬레이션, HPC, 클라우드, 데이터 애널리틱스 등 자사의 기술 역량을 바탕으로 제조산업을 위한 AI 기술 개발을 가속화하고 있으며, 향후 본격적으로 제조시장에 확산시킨다는 전략을 내세웠다. ■ 정수진 편집장   ▲ 한국알테어 이승훈 기술 총괄 본부장은 제품 개발에서 AI의 활용이 구체화되고 있다고 짚었다.   제조산업에서 AI에 대한 관심이 높아지고, 도입과 활용이 확산되는 배경은 무엇이라고 보는지 제품의 생산 방식이 다품종 소량 생산 방식이 확대되면서 제품의 개발 주기가 꾸준히 짧아지고 있다. 이에 따라 제품 개발과 관련한 예측과 의사결정은 더욱 빨라져야 한다는 요구도 높다. 이를 위해 프로토타입을 만들어 실험하는 방식에서 컴퓨터와 CAE 소프트웨어를 사용하는 시뮬레이션으로 변화해 왔는데, 시뮬레이션 역시 해결해야 하는 과제가 있다. 시뮬레이션을 활용하려면 전문적인 엔지니어링 지식이 필요하고, 시뮬레이션에 걸리는 시간이 더욱 빨라지는 제품 개발 주기에 맞추기 어려워졌다. 시뮬레이션이 제품의 초기 개발에서 생산까지 더욱 폭넓게 쓰이는 상황이 시뮬레이션 기반의 의사결정에 걸리는 시간을 늘리게 된 측면도 있다. AI는 이에 대한 해결책으로 관심을 모으고 있다. 제조업체에서 실험 데이터와 해석 데이터가 상당히 쌓여 있는 상황인데, 이를 AI 학습에 활용해서 빠르게 인사이트를 얻고 제품 개발에 반영할 수 있겠다는 아이디어가 이제 구체화되고 있는 시점이라고 볼 수 있겠다.   최근 AI와 관련한 제조산업의 동향이나 이슈가 있다면 제조업체에서 해석 데이터와 실험 데이터가 쌓여 있기는 한데, 이 데이터가 각 엔지니어의 PC에 흩어져 있는 것이 현실이다. 이에 따라 여러 곳에 저장된 데이터를 통합 관리하는 시스템에 대한 요구가 있다. 또한, 이 데이터를 AI에 활용하기 위한 추가 가공의 자동화에 대한 목소리도 있다. 엔지니어링 데이터를 AI에 활용하기 위해서는 AI에 맞는 데이터의 전처리(pre-processing)가 중요하다. 전처리란, 아무렇게나 쌓여 있는 데이터를 분류하고 AI에 적용하기 위해 적절한 포맷의 데이터로 변환하는 작업을 가리킨다. 이 부분에서 많은 제조기업 고객사들이 데이터를 어떻게 가공해야 할 지에 대한 고민을 갖고 있기도 하다. 이전에는 파이썬(Python)과 같은 프로그래밍 언어를 배워서 데이터 변환 코드를 만들어야 했는데, 알테어는 데이터를 자동으로 변환할 수 있는 솔루션을 제공해 쌓여 있는 데이터의 분류와 정제 과정을 더 쉽게 할 수 있도록 돕는다. 이런 부분에서 LG전자의 사레를 소개할 만하다. LG전자는 알테어와 협업해서 해석 엔지니어가 퇴근한 후에 해석 데이터를 취합하고 변환과 AI 학습까지 수행하는 자동화 시스템을 구축했다. 학습된 AI는 웹 환경에서 설계 엔지니어에게 필요한 데이터를 제공하고, 설계 엔지니어는 제품에 대한 치수나 조건을 입력하면 시뮬레이션을 거치지 않고 빠르게 가상 시험 결과를 확인할 수 있게 됐다. AI는 제품의 초기 개발 단계뿐 아니라 전체 개발 과정에 적용할 수 있다. 초기 단계에서는 실험에서 나온 데이터가 존재한다면 이를 기반으로 어떤 결과가 나올지 쉽게 확인할 수 있다. 이후 단계에서도 다양한 데이터를 학습해 추가적인 예측을 할 수 있고, 대시보드 등을 통해 누구나 데이터 및 예측 결과를 확인하거나, 몇 가지 조건을 입력해 새로운 예측을 할 수 있는 단계로 나아갈 수도 있다. 최종 단계의 데이터는 후속 제품이나 다른 제품을 개발할 때 활용하는 것도 가능하다.   제품 개발 사이클의 단축이라는 점에서는 시뮬레이션이 가져다 줄 수 있는 이점과 비슷한 부분이 있어 보인다. AI의 역할은 시뮬레이션을 보완하는 것인가, 아니면 시뮬레이션을 대신할 수 있는 것인가 지금은 AI가 기존의 시뮬레이션을 완전히 대체할 수 있는 단계는 아니다. 하지만 AI를 통해 제품의 초기 개발 단계에서 데이터 기반의 예측 결과를 빠르게 얻을 수 있고, 향후 설계를 위한 인사이트를 얻을 수 있다는 점에서 의미가 있다. AI를 학습시키기 위한 데이터는 필요하기 때문에 시뮬레이션은 여전히 중요하다. 지금의 상황은 실험이나 해석 데이터를 기반으로 AI를 통해 인사이트를 얻는 단계라고 볼 수 있다. 시뮬레이션이 자리잡기까지의 과정을 살펴보면, 초기에는 실험과 시뮬레이션을 함께 사용하다가 시뮬레이션 부분이 강화되면서 실험의 비중을 줄여 왔다. 앞으로 AI 기술이 더욱 발전하고 데이터가 더 많이 쌓인다면 AI가 확대되고 시뮬레이션이 줄어들 수도 있을 것 같다. 이런 흐름은 단계적으로 일어날 수도 있고, 제품별로 변화의 속도가 달라질 수도 있다고 본다.   ▲ 알테어는 시뮬레이션과 연계해 제조 분야에서 활용할 수 있는 AI 솔루션을 내세운다.   제조산업의 AI 활용을 위한 알테어의 기술 차별점은 무엇인지 알테어는 멀티피직스 시뮬레이션뿐 아니라 복잡한 시뮬레이션을 활용하기 위한 고성능 컴퓨팅(HPC)과 클라우드, 데이터 애널리틱스와 AI 등 폭넓은 기술 역량을 갖추었다는 점에서 차별점이 있다고 본다. 이는 온프레미스와 클라우드, CPU 컴퓨팅과 GPU 컴퓨팅을 모두 지원해 시뮬레이션 및 AI를 유연하게 활용하도록 도울 수 있다는 뜻이다.  알테어는 지난 2022년 데이터 기반 AI를 위한 머신러닝 분석 플랫폼인 래피드마이너(RapidMiner)를 인수하면서 AI 분야 진출을 시작했다. 래피드마이너는 제조뿐 아니라 BFSI(은행.금융.서비스.보험) 등 다양한 산업에서 활용할 수 있는 솔루션이다. 예를 들어, 고객 지원이나 불만사항에 대한 다응, 주가 예측 등에도 래피드마이너가 유용하다. 또한, 2023년부터는 래피드마이너 등 기존 제품군으로 AI 시장에 대응하는 것 외에 제조산업을 타깃으로 하는 특화 기술을 개발했고, 올해는 이 부분을 본격적으로 선보이고자 한다. 제조산업을 위한 알테어의 AI 기술로는 설계 탐색과 최적화를 위한 디자인AI(DesignAI), 비슷한 형상을 자동 인식하고 분류하는 셰이프AI(shapeAI), 해석 결과를 학습해 물리현상을 빠르게 예측하는 피직스AI(physicsAI), 시스템 레벨에서 빠른 3D → 1D 변환을 위한 롬AI(romAI)가 있다.  이런 AI 기술은 적은 수의 데이터로도 학습이 가능하며, 알테어의 기존 시뮬레이션 솔루션 제품군에 들어가는 형태로 제공되어 익숙한 인터페이스로 사용할 수 있다. 하이퍼메시(HyperMesh)에는 이미 피직스AI와 셰이프AI가 포함되어 있고 향후 심랩(SimLab)과 인스파이어(Inspire)를 비롯해 다양한 솔루션에 AI가 추가될 예정이다. 알테어는 래피드마이너를 활용한 데이터 기반의 AI와 시뮬레이션 기반의 AI를 모두 지원한다. 그리고 타사 솔루션의 데이터를 활용할 수 있는 개방성과 유연한 라이선스 사용도 장점으로 내세우고 있다.    향후 제조 분야의 AI 전망과 알테어의 전략을 소개한다면 AI에 대한 고객들의 기대치가 높다고 느낀다. 알테어는 지난 4월 4일 ‘AI 워크숍’을 진행했는데, 기업의 의사결정권자부터 현업 엔지니어까지 예상보다 많은 분들이 참여해 높은 관심을 보였다. 관심이 높은 만큼 실제 활용 방향에 대한 고민이 많다는 것을 알 수 있었다. 사용자의 기대치와 실제로 할 수 있는 것 사이의 거리, 알테어와 같은 솔루션 기업과 사용자인 제조기업의 시각차도 어느 정도 확인할 수 있었다. 이런 부분은 고객들을 많이 만나고 의견을 나누면서 간극을 좁혀야 할 것 같다. 당장 AI가 시뮬레이션을 완벽하게 대체하기는 어렵겠지만, 클라우드 기반의 통합 환경에서 시뮬레이션과 AI를 통합해 사용할 수 있도록 하는 것을 목표로 삼고 있다. 클라우드는 데이터의 통합 관리와 공유 측면에서도 이점이 있다고 본다. 시뮬레이션과 AI를 위해 대규모 데이터를 관리하기 어려운 소규모 기업은 클라우드의 장점에 주목할 만하다고 본다. 한편으로 보안 등의 우려를 가진 기업에게는 프라이빗 클라우드 환경을 제공해 데이터 보안을 유지하면서 알테어 원 클라우드와 동일한 환경에서 작업할 수도 있다. 알테어는 AI 솔루션 제품군을 빠르게 업데이트하면서 사용자의 피드백을 반영하고 있다. 고객들이 AI에 대해 갖고 있는 기대치 또는 눈높이가 상당히 높은 것으로 보여서, 이에 대응해 경쟁 우위를 확보하고자 노력 중이다. 제조 분야에서도 AI에 대한 관심이 높지만, 어떻게 활용할지에 대한 고민이 큰 상황으로 보인다. 알테어는 이런 부분에서 도움을 줄 수 있도록 AI 기술 개발과 함께 커스터마이징과 컨설팅 등을 폭넓게 제공하고자 한다. 본사의 개발팀과도 활발히 소통하면서 사용성이나 적용 범위 등에 대한 고객의 어려움을 덜고, 최대한 빠르게 고객이 원하는 AI를 구현할 수 있도록 할 계획이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02