• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "HPC"에 대한 통합 검색 내용이 651개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HPE, 미국 아르곤 국립 연구소에 엑사스케일 슈퍼컴퓨터 제공
HPE는 미국에서 열린 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에서 미국 에너지부 산하 아르곤 국립 연구소에 인텔과 협력해 엑사스케일 슈퍼컴퓨터인 ‘오로라(Aurora)’를 공급했다고 발표했다. 오로라는 시스템의 87%만 가동한 상태에서 1.012 엑사플롭(exaflop)에 도달하면서, ‘TOP500’ 슈퍼컴퓨터 차트에서 전 세계 두 번째로 빠른 슈퍼컴퓨터로 등재되었다. 오로라는 HPE가 두 번째로 제작한 엑사스케일 시스템일 뿐만 아니라 대규모의 인공지능 지원(AI-capable) 시스템이다. HPC 및 AI 워크로드 처리 성능을 측정하는 HPL 혼합 정밀도(Mixed-Precision : MxP) 벤치마크에서 전체 시스템의 89%만을 가동한 상태에서 10.6 엑사플롭을 달성했다. 엑사스케일 컴퓨팅 시스템은 초당 10의 18제곱 번의 작업을 처리할 수 있으며, 이러한 대규모 컴퓨팅 역량을 통해 인류가 당면한 어려운 문제를 해결해 나갈 수 있다. 오로라는 엑사스케일의 규모와 범위를 지원할 수 있도록 설계된 HPE 크레이 EX 슈퍼컴퓨터(HPE Cray EX supercomputer)로 구축됐다. 또한, 오로라는 단일 시스템으로는 개방형 이더넷 기반 슈퍼컴퓨팅 인터커넥트 솔루션인 HPE 슬링샷(HPE Slingshot)이 최대 규모로 배포된 시스템이기도 하다. 이러한 패브릭 시스템은 오로라의 컴퓨팅 노드 엔드포인트 7만 5000개, 2400개의 스토리지 및 서비스 네트워크 엔드포인트를 5600개의 스위치와 연결한다. 이를 통해 오로라의 컴퓨팅 블레이드 1만 624개, 인텔 제온 CPU 맥스 시리즈 프로세서(Intel Xeon CPU Max Series Processor) 2만 1248개 및 인텔 데이터 센터의 GPU 6만 3744개 유닛 전반에 걸쳐 고속 네트워킹을 지원함으로써 성능을 향상시킨다.     초기 설계 단계부터 AI 지원 시스템으로 개발된 오로라를 기반으로 연구원들은 생성형 AI 모델을 구동함으로써 과학 발전을 더욱 가속할 수 있게 되었다. 일례로 과학자들은 인간 두뇌 속 800억 개의 뉴런에 대해 더 깊이 연구하기 위한 브레인 매핑(brain mapping : 뇌 지도화) 연구, 딥러닝을 활용한 고에너지 입자 물리학, 머신 러닝 기술을 통한 신약 설계 및 개발 등 오로라를 활용해 초기 AI 기반 연구를 진행한 바 있다. 오로라 엑사스케일 슈퍼컴퓨터는 HPE, 인텔, 미국 에너지부, 아르곤 국립 연구소간 파트너십의 결과로, 혁신 엔지니어링 기술로 과학 기술 발전에 이바지하기 위해 공동 투자 및 협력을 진행했다. 오로라 초기 과학 프로그램(Aurora Early Science Program)을 통해 입증된 바와 같이 민관 부문의 파트너십은 과학 기술 진보를 위해서 필수이다. 나아가, 연구원들은 오로라 시스템의 최적화 및 스트레스 테스트(stress-test) 과정의 일환으로 이미 다양한 프로그래밍 모델, 언어 및 애플리케이션을 시스템에서 성공적으로 실행했다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 솔루션 담당 수석 부사장 겸 총괄은 “오로라는 세계가 당면한 가장 어려운 문제들을 해결하고 획기적인 과학 기술을 발견하기 위한 대규모 컴퓨팅 역량을 제공할 수 있으며, 이러한 오로라를 통해 엑사스케일 컴퓨팅에 또 하나의 이정표를 만들어갈 수 있게 되었다”면서, “HPE는 미국 에너지부, 아르곤 국립 연구소, 그리고 인텔과의 견고한 파트너십을 통해 이러한 대규모 수준의 시스템을 현실화할 수 있게 된 점을 자랑스럽게 여기며, 이러한 성과는 혁신적인 공동 엔지니어링, 다양한 부서들의 협력 그리고 무엇보다 과학 발전과 인류를 위해 최첨단 기술을 발전시키겠다는 핵심 가치를 공유함으로써 달성할 수 있었다”고 말했다.
작성일 : 2024-05-23
AMD 인스팅트 MI300X 가속기, 애저 오픈AI 서비스 워크로드와 새로운 애저 가상머신 지원
AMD는 ‘마이크로소프트 빌드(Microsoft Build)’ 콘퍼런스에서 마이크로소프트 고객 및 개발자를 위한 최신 엔드투엔드 컴퓨팅 및 소프트웨어 기능을 공개했다. 마이크로소프트는 AMD 인스팅트(AMD Instinct) MI300X 가속기, ROCm 개방형 소프트웨어, 라이젠(Ryzen) AI 프로세서 및 소프트웨어와 알베오(Alveo) MA35D 미디어 가속기 등 AMD의 솔루션을 통해 광범위한 시장에 걸쳐 AI 기반을 구축할 수 있는 툴을 지원한다. 마이크로소프트의 새로운 애저(Azure) ND MI300X 가상머신(VM)은 현재 공식 출시되었으며, 까다로운 AI 워크로드를 처리해야 하는 허깅 페이스(Hugging Face)와 같은 고객에게 높은 성능과 효율성을 제공한다. 2023년 11월 프리뷰로 발표된 애저 ND MI300x v5 가상머신 시리즈는 고객들이 AI 워크로드를 실행할 수 있도록 캐나다 중부 지역에 공식 배포되고 있다. 최상급의 성능을 제공하는 이러한 가상머신은 높은 HBM 용량과 메모리 대역폭을 제공함으로써 고객들이 GPU 메모리에 더 큰 모델을 탑재하거나 더 적은 GPU를 이용해 궁극적으로 전력, 비용 및 솔루션 구현 시간을 절감할 수 있도록 지원한다. 또한, 이러한 가상머신과 이를 지원하는 ROCm 소프트웨어는 애저 오픈AI 서비스를 비롯한 애저 AI 프로덕션 워크로드에도 사용되고 있어, 고객들이 GPT-3.5 및 GPT-4 모델에 액세스할 수 있도록 지원한다. 마이크로소프트는 AMD 인스팅트 MI300X와 ROCm 개방형 소프트웨어 스택을 통해 GPT 추론 워크로드에서 높은 수준의 가격 대비 성능을 달성했다고 설명했다.   ▲ AMD 인스팅트 MI300X   한편, AMD 라이젠 AI 소프트웨어는 개발자들이 AMD 라이젠 AI 기반 PC에서 AI 추론을 최적화하고 구축할 수 있도록 지원한다. 라이젠 AI 소프트웨어를 이용하면 AI 전용 프로세서인 AMD XDNA 아키텍처 기반 신경망 처리장치(NPU)를 통해 애플리케이션을 실행할 수 있다. AI 모델을 CPU 또는 GPU에서만 실행하면 배터리가 빠르게 소모될 수 있지만, 라이젠 AI 기반 노트북은 임베디드 NPU을 활용해 AI 모델이 구동하기 때문에 CPU 및 GPU 리소스를 다른 컴퓨팅 작업에 활용할 수 있다. 이를 통해 배터리 수명을 늘리는 것은 물론, 개발자가 온디바이스 LLM AI 워크로드와 애플리케이션을 로컬에서 동시에 효율적으로 실행할 수 있다. 4세대 AMD 에픽 프로세서는 애저에서 사용되는 범용 가상머신을 비롯해 메모리 집약적, 컴퓨팅 최적화 및 가속 컴퓨팅 가상머신 등 수많은 솔루션을 지원하고 있다. 이러한 가상머신은 클라우드 분야에서 AMD 에픽 프로세서의 성장 및 수요 증가를 이끌고 있으며, 더욱 향상된 가격 대비 성능으로 범용 및 메모리 집약적 가상머신의 성능을 최대 20%까지 향상시키는 것은 물론, 애저를 지원하는 이전 세대 AMD 에픽 프로세서 기반 가상머신에 비해 컴퓨팅 최적화 가상머신에 대한 CPU 성능을 최대 2배까지 높일 수 있다. 프리뷰로 공개되었던 Dalsv6, Dasv6, Easv6, Falsv6 및 Famsv6 가상머신 시리즈는 향후 수개월 이내에 정식 공급될 예정이다. AMD의 빅터 펭(Victor Peng) 사장은 “AMD 인스팅트 MI300X 및 ROCm 소프트웨어 스택은 세계에서 가장 까다로운 AI 워크로드 중 하나인 애저 오픈AI(OpenAI) 챗GPT(Chat GPT) 3.5 및 4 서비스를 지원하고 있다”면서, “애저의 새로운 가상머신이 공식 출시됨에 따라 AI 고객들이 더욱 폭넓게 MI300X에 액세스하여 AI 애플리케이션을 위한 고성능, 고효율의 솔루션을 활용할 수 있게 되었다”고 밝혔다. 마이크로소프트의 최고기술책임자인 케빈 스콧(Kevin Scott) AI 부문 수석 부사장은 “마이크로소프트와 AMD는 PC를 시작으로, 엑스박스(Xbox)용 맞춤형 실리콘과 HPC, 현재의 AI에 이르기까지 여러 컴퓨팅 플랫폼에 걸쳐 다양한 파트너십을 이어오고 있다”면서, “최근에는 놀라운 AI 성능과 가치를 제공하기 위해 강력한 컴퓨팅 하드웨어와 최적화된 시스템 및 소프트웨어의 결합이 중요하다는 점에 주목했다. 우리는 마이크로소프트의 AI 고객 및 개발자들이 최첨단 컴퓨팅 집약적인 프론티어 모델에 대해 탁월한 가격 대비 성능 결과를 달성할 수 있도록 AMD의 ROCm 및 MI300X를 이용했다. 앞으로도 AI 발전을 가속화하기 위해 AMD와의 협력에 주력할 것”이라고 말했다.
작성일 : 2024-05-22
슈퍼마이크로, HPC와 AI 환경에 최적화된 데이터센터용 냉각 솔루션 출시
슈퍼마이크로컴퓨터가 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에 참가해 데이터센터 전력 소모량 감축과 동시에 AI 및 HPC 용량 확장을 목표로 할 때 직면하는 까다로운 요구사항을 충족할 수 있는 방안을 발표했다.   슈퍼마이크로는 콜드 플레이트, CDU, CDM, 냉각탑 전체 등을 포함한 수냉식 냉각 솔루션을 제공한다. 데이터센터에 수냉식 냉각 서버 및 인프라를 도입할 경우 데이터센터의 PUE가 크게 감소해 총 전력 소비량을 최대 40%까지 줄일 수 있다.   슈퍼마이크로 애플리케이션에 최적화된 고성능 서버는 높은 성능의 CPU 및 GPU를 탑재해 시뮬레이션, 데이터 분석 및 머신러닝에 적합하다. 슈퍼마이크로 4U 8-GPU 수냉식 냉각 서버는 엔비디아 H100/H200 HGX GPU를 통해 집적도가 높은 폼팩터에서 페타플롭스(PetaFlops) 수준의 AI 컴퓨팅 성능을 제공한다. 슈퍼마이크로는 곧 수냉식 X14 8U/6U 슈퍼블레이드, 랙마운트 X14 하이퍼, 그리고 슈퍼마이크로 X14 빅트윈을 출시할 예정이다. 다양한 HPC 최적화 서버 플랫폼이 P 코어(성능 코어)를 탑재한 콤팩트 멀티 노드 폼팩터 형태로 인텔 제온 6900을 지원한다.   슈퍼마이크로는 광범위한 수냉식 냉각 MGX 제품 포트폴리오를 지속적으로 출시하고 있다. 최근에는 새로운 인텔 가우디 3 가속기 및 AMD MI300X 가속기와 함께 인텔의 최신 가속기 지원을 확정했다. 랙당 최대 120개의 노드를 제공하는 슈퍼마이크로 슈퍼블레이드를 사용하면 대규모 HPC 애플리케이션을 단 몇 개의 랙에서 실행할 수 있다. 슈퍼마이크로는 인텔 제온 6 프로세서를 통합한 슈퍼마이크로 X14 서버를 비롯해 다양한 제품군을 ISC 2024에서 선보였다.     한편, 슈퍼마이크로는 ISC 2024에서 HPC 및 AI 환경을 위해 설계된 다양한 솔루션을 선보였다. 슈퍼마이크로의 새로운 4U 8-GPU 수냉식 냉각 서버는 엔비디아 HGX H100 및 H200 GPU를 탑재한 대표적인 제품군이다. 해당 제품을 비롯한 다양한 서버들이 출시되는 대로 엔비디아 B200 HGX GPU를 지원할 예정이다. 새로운 시스템은 고급 GPU를 탑재했으며, 고속 HBM3 메모리를 사용해 기존 시스템보다 더 많은 데이터를 GPU에 보다 가까이 가져와 AI 훈련 및 HPC 시뮬레이션을 가속화한다.    또한, 슈퍼마이크로는 ISC 2024에서 인텔 가우디 3 AI 액셀러레이터를 탑재한 8U 서버를 소개했다. 이 신규 서버는 AI 훈련 및 추론을 위해 설계됐으며, 기존 이더넷 패브릭과 직접 연결될 수 있다. 모든 인텔 가우디 3 가속기에 24개의 200Gb 이더넷 포트가 통합돼 유연한 개방형 표준 네트워킹을 제공한다. 또한 128GB의 HBM2e 고속 메모리가 포함된다. 인텔 가우디 3 가속기는 단일 노드에서 수천 개의 노드까지 효율적으로 확장 및 추가될 수 있도록 설계됐다. 이로 인해 생성형 AI 모델의 까다로운 요구 사항의 충족이 가능하다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 데이터센터에 종합 수냉식 냉각 솔루션과 같은 최신 기술을 도입하기 위해 AI 및 HPC 고객과 지속적으로 협력하고 있다”며, “슈퍼마이크로의 완전한 수냉식 냉각 솔루션은 랙당 최대 100kW를 처리할 수 있다. 이로 인해 데이터센터의 TCO(총 소유 비용) 감축과 AI 및 HPC 컴퓨팅의 집적도 향상이 가능하다. 당사는 빌딩 블록 아키텍처를 통해 최신 GPU와 가속기를 시장에 출시하고 있다. 또한, 새로운 랙 스케일 솔루션을 지속적으로 출시함으로써 고객에게 보다 신속하게 제품을 공급하고 있다. 이 프로세스는 검증된 공급업체와 함께 이루어진다”고 설명했다.
작성일 : 2024-05-17
엔비디아, “생성형 AI 통해 다양한 분야서 HPC 활용 연구 가속화 지원”
엔비디아가 생성형 AI를 통해 HPC(고성능 컴퓨팅) 작업을 가속화하며 코드 생성, 기상, 유전학, 재료 과학 분야의 연구를 지원하고 있다고 밝혔다. 생성형 AI는 국가와 기업 연구소에서 비즈니스와 과학을 위한 HPC를 가속화하며 기반을 다지고 있다. 샌디아 국립 연구소(Sandia National Laboratories)는 세계 최대 규모의 슈퍼컴퓨터에서 사용하도록 설계된 병렬 프로그래밍 언어인 코코스(Kokkos)로 코드를 자동으로 생성하는 시도를 하고 있다. 여러 국립 연구소의 연구진이 개발한 이 특수 언어는 수만 대의 프로세서에서 작업을 수행하는 데 필요한 미묘한 부분까지도 처리할 수 있다. 샌디아 국립 연구소의 연구진들은 검색 증강 생성(RAG) 기술을 사용해 코코스 데이터베이스를 생성하고 AI 모델과 연결하고 있다. 이들은 다양한 RAG 접근 방식을 실험하면서 초기 테스트에서 긍정적인 결과를 보여주고 있다. 과학자들이 평가하게 될 RAG 옵션 중에는 네모 리트리버(NeMo Retriever)와 같은 클라우드 기반 서비스도 있다.     이러한 모델 조정과 RAG를 통한 코파일럿 구축은 시작에 불과하다. 연구진들은 궁극적으로 기후, 생물학, 재료 과학과 같은 분야의 과학 데이터로 훈련된 파운데이션 모델의 활용을 목표로 하고 있다. 일기 예보 분야의 연구원과 기업들은 기상, 기후 연구를 위한 서비스와 소프트웨어 세트인 엔비디아 어스-2(Earth-2)의 생성형 AI 모델인 코디프(CorrDiff)를 채택하고 있다. 코디프는 기존 대기 모델의 25km 해상도를 2km까지 조정할 수 있다. 또한, 결합할 수 있는 예측 수를 100배 이상 확장해 예측 신뢰도를 높일 수 있다. 자체 소형 위성 네트워크에서 데이터를 수집하는 기업인 스파이어(Spire)의 톰 고완(Tom Gowan) 머신러닝 및 모델링 책임자는 “생성형 AI를 통해 더 빠르고 정확한 예보가 가능해지고 있다”고 전했다. 스위스에 본사를 둔 메테오매틱스(Meteomatics)는 최근 자사의 일기 예보 사업에도 엔비디아의 생성형 AI 플랫폼을 사용할 계획이라고 발표했다. 메테오매틱스의 마틴 펜글러(Martin Fengler) CEO는 “엔비디아와의 협력은 에너지 기업들이 날씨 변동에 대한 빠르고 정확한 인사이트를 통해 재생 에너지 운영을 극대화하고 수익성을 높이는 데 도움이 될 것”이라고 말했다. 마이크로소프트는 생성형 AI로 재료 과학 분야의 작업을 가속화하는 연구를 진행했다. 마이크로소프트의 매터젠(MatterGen) 모델은 원하는 특성을 나타내는 새롭고 안정적인 물질을 생성한다. 이 접근 방식을 통해 화학, 자기, 전자, 기계 등의 기타 원하는 특성을 지정할 수 있다. 마이크로소프트 연구팀은 엔비디아 A100 GPU를 사용해 애저(Azure) AI 인프라에서 매터젠을 훈련시켰으며, 카본3D(Carbon3D)와 같은 기업은 상업용 3D 프린팅 작업에서 재료 과학에 생성형 AI를 적용하며 기회를 찾고 있다. 엔비디아는 “이는 연구자들이 생성형 AI를 통해 HPC와 과학 분야에서 할 수 있는 일의 시작에 불과하다”면서, “현재 사용 가능한 엔비디아 H200 텐서 코어 GPU와 곧 출시될 엔비디아 블랙웰(Blackwell) 아키텍처 GPU는 새로운 차원의 작업을 실현시킬 것”이라고 기대했다.
작성일 : 2024-05-16
[피플 & 컴퍼니] 한국알테어 이승훈 기술 총괄 본부장
더욱 빠르고 효율적인 제품 개발을 위한 AI 기술 본격화 추진   제조산업에서도 AI(인공지능)에 대한 관심이 높아지고 있다. 한편으로 실질적인 AI 도입과 활용에 대한 제조업계의 고민도 커졌다. 알테어는 시뮬레이션, HPC, 클라우드, 데이터 애널리틱스 등 자사의 기술 역량을 바탕으로 제조산업을 위한 AI 기술 개발을 가속화하고 있으며, 향후 본격적으로 제조시장에 확산시킨다는 전략을 내세웠다. ■ 정수진 편집장   ▲ 한국알테어 이승훈 기술 총괄 본부장은 제품 개발에서 AI의 활용이 구체화되고 있다고 짚었다.   제조산업에서 AI에 대한 관심이 높아지고, 도입과 활용이 확산되는 배경은 무엇이라고 보는지 제품의 생산 방식이 다품종 소량 생산 방식이 확대되면서 제품의 개발 주기가 꾸준히 짧아지고 있다. 이에 따라 제품 개발과 관련한 예측과 의사결정은 더욱 빨라져야 한다는 요구도 높다. 이를 위해 프로토타입을 만들어 실험하는 방식에서 컴퓨터와 CAE 소프트웨어를 사용하는 시뮬레이션으로 변화해 왔는데, 시뮬레이션 역시 해결해야 하는 과제가 있다. 시뮬레이션을 활용하려면 전문적인 엔지니어링 지식이 필요하고, 시뮬레이션에 걸리는 시간이 더욱 빨라지는 제품 개발 주기에 맞추기 어려워졌다. 시뮬레이션이 제품의 초기 개발에서 생산까지 더욱 폭넓게 쓰이는 상황이 시뮬레이션 기반의 의사결정에 걸리는 시간을 늘리게 된 측면도 있다. AI는 이에 대한 해결책으로 관심을 모으고 있다. 제조업체에서 실험 데이터와 해석 데이터가 상당히 쌓여 있는 상황인데, 이를 AI 학습에 활용해서 빠르게 인사이트를 얻고 제품 개발에 반영할 수 있겠다는 아이디어가 이제 구체화되고 있는 시점이라고 볼 수 있겠다.   최근 AI와 관련한 제조산업의 동향이나 이슈가 있다면 제조업체에서 해석 데이터와 실험 데이터가 쌓여 있기는 한데, 이 데이터가 각 엔지니어의 PC에 흩어져 있는 것이 현실이다. 이에 따라 여러 곳에 저장된 데이터를 통합 관리하는 시스템에 대한 요구가 있다. 또한, 이 데이터를 AI에 활용하기 위한 추가 가공의 자동화에 대한 목소리도 있다. 엔지니어링 데이터를 AI에 활용하기 위해서는 AI에 맞는 데이터의 전처리(pre-processing)가 중요하다. 전처리란, 아무렇게나 쌓여 있는 데이터를 분류하고 AI에 적용하기 위해 적절한 포맷의 데이터로 변환하는 작업을 가리킨다. 이 부분에서 많은 제조기업 고객사들이 데이터를 어떻게 가공해야 할 지에 대한 고민을 갖고 있기도 하다. 이전에는 파이썬(Python)과 같은 프로그래밍 언어를 배워서 데이터 변환 코드를 만들어야 했는데, 알테어는 데이터를 자동으로 변환할 수 있는 솔루션을 제공해 쌓여 있는 데이터의 분류와 정제 과정을 더 쉽게 할 수 있도록 돕는다. 이런 부분에서 LG전자의 사레를 소개할 만하다. LG전자는 알테어와 협업해서 해석 엔지니어가 퇴근한 후에 해석 데이터를 취합하고 변환과 AI 학습까지 수행하는 자동화 시스템을 구축했다. 학습된 AI는 웹 환경에서 설계 엔지니어에게 필요한 데이터를 제공하고, 설계 엔지니어는 제품에 대한 치수나 조건을 입력하면 시뮬레이션을 거치지 않고 빠르게 가상 시험 결과를 확인할 수 있게 됐다. AI는 제품의 초기 개발 단계뿐 아니라 전체 개발 과정에 적용할 수 있다. 초기 단계에서는 실험에서 나온 데이터가 존재한다면 이를 기반으로 어떤 결과가 나올지 쉽게 확인할 수 있다. 이후 단계에서도 다양한 데이터를 학습해 추가적인 예측을 할 수 있고, 대시보드 등을 통해 누구나 데이터 및 예측 결과를 확인하거나, 몇 가지 조건을 입력해 새로운 예측을 할 수 있는 단계로 나아갈 수도 있다. 최종 단계의 데이터는 후속 제품이나 다른 제품을 개발할 때 활용하는 것도 가능하다.   제품 개발 사이클의 단축이라는 점에서는 시뮬레이션이 가져다 줄 수 있는 이점과 비슷한 부분이 있어 보인다. AI의 역할은 시뮬레이션을 보완하는 것인가, 아니면 시뮬레이션을 대신할 수 있는 것인가 지금은 AI가 기존의 시뮬레이션을 완전히 대체할 수 있는 단계는 아니다. 하지만 AI를 통해 제품의 초기 개발 단계에서 데이터 기반의 예측 결과를 빠르게 얻을 수 있고, 향후 설계를 위한 인사이트를 얻을 수 있다는 점에서 의미가 있다. AI를 학습시키기 위한 데이터는 필요하기 때문에 시뮬레이션은 여전히 중요하다. 지금의 상황은 실험이나 해석 데이터를 기반으로 AI를 통해 인사이트를 얻는 단계라고 볼 수 있다. 시뮬레이션이 자리잡기까지의 과정을 살펴보면, 초기에는 실험과 시뮬레이션을 함께 사용하다가 시뮬레이션 부분이 강화되면서 실험의 비중을 줄여 왔다. 앞으로 AI 기술이 더욱 발전하고 데이터가 더 많이 쌓인다면 AI가 확대되고 시뮬레이션이 줄어들 수도 있을 것 같다. 이런 흐름은 단계적으로 일어날 수도 있고, 제품별로 변화의 속도가 달라질 수도 있다고 본다.   ▲ 알테어는 시뮬레이션과 연계해 제조 분야에서 활용할 수 있는 AI 솔루션을 내세운다.   제조산업의 AI 활용을 위한 알테어의 기술 차별점은 무엇인지 알테어는 멀티피직스 시뮬레이션뿐 아니라 복잡한 시뮬레이션을 활용하기 위한 고성능 컴퓨팅(HPC)과 클라우드, 데이터 애널리틱스와 AI 등 폭넓은 기술 역량을 갖추었다는 점에서 차별점이 있다고 본다. 이는 온프레미스와 클라우드, CPU 컴퓨팅과 GPU 컴퓨팅을 모두 지원해 시뮬레이션 및 AI를 유연하게 활용하도록 도울 수 있다는 뜻이다.  알테어는 지난 2022년 데이터 기반 AI를 위한 머신러닝 분석 플랫폼인 래피드마이너(RapidMiner)를 인수하면서 AI 분야 진출을 시작했다. 래피드마이너는 제조뿐 아니라 BFSI(은행.금융.서비스.보험) 등 다양한 산업에서 활용할 수 있는 솔루션이다. 예를 들어, 고객 지원이나 불만사항에 대한 다응, 주가 예측 등에도 래피드마이너가 유용하다. 또한, 2023년부터는 래피드마이너 등 기존 제품군으로 AI 시장에 대응하는 것 외에 제조산업을 타깃으로 하는 특화 기술을 개발했고, 올해는 이 부분을 본격적으로 선보이고자 한다. 제조산업을 위한 알테어의 AI 기술로는 설계 탐색과 최적화를 위한 디자인AI(DesignAI), 비슷한 형상을 자동 인식하고 분류하는 셰이프AI(shapeAI), 해석 결과를 학습해 물리현상을 빠르게 예측하는 피직스AI(physicsAI), 시스템 레벨에서 빠른 3D → 1D 변환을 위한 롬AI(romAI)가 있다.  이런 AI 기술은 적은 수의 데이터로도 학습이 가능하며, 알테어의 기존 시뮬레이션 솔루션 제품군에 들어가는 형태로 제공되어 익숙한 인터페이스로 사용할 수 있다. 하이퍼메시(HyperMesh)에는 이미 피직스AI와 셰이프AI가 포함되어 있고 향후 심랩(SimLab)과 인스파이어(Inspire)를 비롯해 다양한 솔루션에 AI가 추가될 예정이다. 알테어는 래피드마이너를 활용한 데이터 기반의 AI와 시뮬레이션 기반의 AI를 모두 지원한다. 그리고 타사 솔루션의 데이터를 활용할 수 있는 개방성과 유연한 라이선스 사용도 장점으로 내세우고 있다.    향후 제조 분야의 AI 전망과 알테어의 전략을 소개한다면 AI에 대한 고객들의 기대치가 높다고 느낀다. 알테어는 지난 4월 4일 ‘AI 워크숍’을 진행했는데, 기업의 의사결정권자부터 현업 엔지니어까지 예상보다 많은 분들이 참여해 높은 관심을 보였다. 관심이 높은 만큼 실제 활용 방향에 대한 고민이 많다는 것을 알 수 있었다. 사용자의 기대치와 실제로 할 수 있는 것 사이의 거리, 알테어와 같은 솔루션 기업과 사용자인 제조기업의 시각차도 어느 정도 확인할 수 있었다. 이런 부분은 고객들을 많이 만나고 의견을 나누면서 간극을 좁혀야 할 것 같다. 당장 AI가 시뮬레이션을 완벽하게 대체하기는 어렵겠지만, 클라우드 기반의 통합 환경에서 시뮬레이션과 AI를 통합해 사용할 수 있도록 하는 것을 목표로 삼고 있다. 클라우드는 데이터의 통합 관리와 공유 측면에서도 이점이 있다고 본다. 시뮬레이션과 AI를 위해 대규모 데이터를 관리하기 어려운 소규모 기업은 클라우드의 장점에 주목할 만하다고 본다. 한편으로 보안 등의 우려를 가진 기업에게는 프라이빗 클라우드 환경을 제공해 데이터 보안을 유지하면서 알테어 원 클라우드와 동일한 환경에서 작업할 수도 있다. 알테어는 AI 솔루션 제품군을 빠르게 업데이트하면서 사용자의 피드백을 반영하고 있다. 고객들이 AI에 대해 갖고 있는 기대치 또는 눈높이가 상당히 높은 것으로 보여서, 이에 대응해 경쟁 우위를 확보하고자 노력 중이다. 제조 분야에서도 AI에 대한 관심이 높지만, 어떻게 활용할지에 대한 고민이 큰 상황으로 보인다. 알테어는 이런 부분에서 도움을 줄 수 있도록 AI 기술 개발과 함께 커스터마이징과 컨설팅 등을 폭넓게 제공하고자 한다. 본사의 개발팀과도 활발히 소통하면서 사용성이나 적용 범위 등에 대한 고객의 어려움을 덜고, 최대한 빠르게 고객이 원하는 AI를 구현할 수 있도록 할 계획이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[넥스트폼] BARAM v24.1.3 Release
              SW 소식 >             BARAM v24.1.0 공개 >             BARAM v24.1.0이 공개되었습니다. BARAM v24.1.0에는 밀도 기반 압축성 솔버와 Batch Process 등 다양한 기능이 포함되어 있습니다. (링크)를 누르시면 BARAM v24.1.0 안내 페이지로 이동합니다.  이외에도 baramFlow tutorials 6개, baramMesh tutorials 1개가 추가되었습니다. (링크)에서 확인해주세요.             baramFlow New Features 밀도 기반 압축성 솔버 및 Far-field Riemann 경계 조건 추가 (TSLAeroFoam) User Parameters 기능 추가 Batch Process 기능 추가 User Parameters를 조합하여 순서대로 계산 실행 가능 격자 정보 확인 기능 추가 (격자 갯수, 해석 영역 크기, 최대/최소 격자 체적) baramFlow Improvement Realizable k-ε 모델의 벽함수 개선 정상 상태 계산을 비정상 상태 계산의 초기값으로 사용하는 기능 추가 cell zone source term에 단위 표시 계산 종료 시, 종료 팝업 창 띄우는 기능 추가 특정 경계면은 이름에 따라 경계 조건 자동 부여 다상 유동의 정상 상태 계산 시 maximum Courant number 설정 가능             baramMesh New Features snap 단계에서 Implicit Feature Snapping 지원 baramMesh Improvement 형상 이름의 공백에 _ (underscore) 자동 추가 Region 단계에서 고체 영역만 설정하도록 기능 개선                                     BARAM ARM 64 버전 Azure Marketplace 공개 >              Azure Marketplace에서 사용할 수 있는 BARAM CFD Package가 공개되었습니다. 이제 고사양의 HPC (High Performance Computing) 없이도 BARAM을 이용하여 복잡한 CFD 계산을 돌릴 수 있습니다.  Azure Marketplace에서 NEXTFOAM BARAM을 검색하시거나 (링크)를 클릭하시면 Azure Marketplace에 등록되어 있는 BARAM CFD Package를 사용하실 수 있습니다.                         교육 소식 >             4월 CAE / AI 엔지니어를 위한HPC 교육 >             CAE / AI 엔지니어를 위한 HPC 교육 4월 CAE / AI 엔지니어를 위한 HPC 교육 일정을 안내드립니다. HPC 환경에서 OpenFOAM 수행 방법 및 병렬 AI 학습 방법 / HPC 구축 실습을 통해 HPC의 개념 이해 / 최적 성능을 도출할 수 있는 방안 및 효율적인 HPC 관리 방안을 목표로 교육이 진행됩니다. 일정 : 4월 24일 ~ 4월 25일 (링크)를 클릭하시면 4월 CAE/ AI 엔지니어를 위한 HPC 교육 내용을 확인하실 수 있습니다.                         일반 소식 >             2024년 AI CFD 춘계 워크샵              지난 2월 29일 서강대학교 AS관 509호에서 AI CFD 워크샵이 있었습니다. GIST 최성임 교수님, 인하대학교 고승찬 교수님, KAIST 이승철 교수님을 비롯하여 AI CFD를 주제로 연구하시는 분들과 모임을 가지는 뜻 깊은 시간이었습니다.  이 자리에서 PINN (Physics-Informed Neural Network)를 비롯하여 FNO, DeepONet 등 Neural Network를 CFD에 적용한 연구 및 활용 성과에 대해 의견을 나누었습니다.  저희 회사에서도 이보성 박사님께서 NEXTFOAM 연구 성과 및 근황을 주제로 발표를 진행해주셨습니다.                         WHAT IS OPENFOAM? OpenFOAM은 오픈소스 CFD 소프트웨어이다. GNU GPL 라이센스를 사용하고 있어 누구나 자유롭게 사용이 가능하며 수정 및 재배포를 할 수 있다.       WHAT IS MESHLESS CFD? 질점격자 기반의 CFD해석 기법으로 FVM해석 기법의 보존성을 갖추고 있으며 전처리 작업시간을 획기적으로 줄일 수 있습니다.FAMUS는 무격자 기법의 CFD 해석 SW 입니다.       WHAT IS BARAM SERIES? BARAM은 넥스트폼이 개발한 OpenFOAM CFD 해석 프로그램입니다. 넥스트폼이 개발한 OpenFOAM Solver와 Utility를 GUI 기반으로 사용이 가능합니다.           수신거부
작성일 : 2024-04-29