• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "세트"에 대한 통합 검색 내용이 1,055개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
액센츄어, 공장과 창고를 ‘소프트웨어 정의 시설’로 바꾸는 ‘피지컬 AI 오케스트레이터’ 출시
액센츄어가 제조업체들이 기존 및 미래의 공장과 창고를 혁신하여 소프트웨어 정의 시설로 전환할 수 있도록 돕는 설루션인 ‘피지컬 AI 오케스트레이터(Physical AI Orchestrator)’를 출시했다. 이 클라우드 기반 설루션은 엔비디아 옴니버스(NVIDIA Omniverse), 엔비디아 메트로폴리스(NVIDIA Metropolis), 그리고 액센츄어의 AI 리파이너리(AI Refinery) 플랫폼의 AI 에이전트를 결합한다. 소프트웨어 정의 시설에서는 가상 복제본이 물리적인 자동화 공장이나 창고 및 장비를 미러링한다. 이러한 라이브 디지털 트윈은 문제를 감지하고 정확한 물리학을 사용해 잠재적인 공정 변경의 영향을 실시간으로 시뮬레이션한다. 그다음 AI 에이전트가 통찰력을 정확한 지침으로 변환하여, 물리적 공장이 변화하는 수요, 품질 또는 일정에 적응할 수 있도록 한다. 제조업체는 피지컬 AI 오케스트레이터를 통해 컨베이어, 산업용 및 모바일 로봇부터 작업 현장 및 창고 레이아웃에 이르기까지, 계획되거나 기존의 물리적 자산에 대한 라이브 디지털 트윈을 구축하고 이를 물리적 대상에 연결할 수 있다.     피지컬 AI 오케스트레이터는 ▲리얼리티 캡처 ▲AI 에이전트 ▲비전 분석 ▲자산 커넥터 ▲XR 확장 등의 기능을 제조업체에 제공한다. 리얼리티 캡처(Reality capture)는 공장 및 장비의 디지털 트윈을 생성하기 위한 자동화 AI 기반 프로세스 세트이다. 비디오와 스캔 데이터가 사실적인 3D 모델로 변환되어 레이아웃 변경을 감지하고 디지털 트윈을 최신 상태로 유지한다. AI 에이전트는 과거 프로젝트의 전문 지식을 바탕으로 새로운 생산 라인을 설계, 시뮬레이션, 설치하는 등의 전체 과정에서 엔지니어를 지원한다. 비전 분석(Vision analytics) 기능은 정확한 시뮬레이션 실행에 필요한 시설 내 작업자, 차량, 자재 이동과 같은 실시간 비디오 데이터를 캡처하고 수집한다. 자산 커넥터(Asset connectors)는 기존 장비를 플러그 앤 플레이 방식으로 시뮬레이션에 통합하며, XR 확장(XR extensions) 기능은 고품질 증강 환경에서 디지털 트윈과 상호 작용하고 공유 가상 공간에서 훈련 및 협업을 가능하게 한다. 액센츄어는 피지컬 AI 오케스트레이터를 초기에 도입 기업들이 측정 가능한 이점을 확인했다고 전했다. 이 설루션은 제품 설계 비용과 신규 공장 건설을 위한 자본 비용을 낮추고 더 높은 공장 계획 정확도를 제공하도록 설계되었다. 네트워크 및 데이터 설루션 제공업체인 벨덴(Belden)은 피지컬 AI 오케스트레이터를 사용하여 지속적인 작업을 방해하지 않으면서 로봇 주변에 안전 구역을 생성하는 가상 안전 펜스(virtual safety fence) 설루션을 개발했다. 이 설루션은 에지 AI(edge AI)를 사용해 시설 내 작업자, 차량, 로봇의 움직임과 장비 경로를 센티미터 수준의 정밀도로 감지하고 모델링한다. 이를 통해 사람이 로봇의 작업 구역에 들어가면 로봇이 자동으로 중지되거나 경로가 변경된다. 한 소비재 제조업체는 이 회사는 피지컬 AI 오케스트레이터를 사용해 창고 운영의 디지털 트윈을 구축하여 작업자 이동, 피킹(picking) 비율, 컨베이어 시스템을 분석해 처리량 격차와 레이아웃 비효율을 파악했다. 디지털 트윈은 레이아웃 설계 및 자원 배분에 대한 조정을 권장했다. 그 결과 컨베이어 흐름을 최적화하여 처리량이 20% 향상되었고, 반복적인 시행착오 재설계를 없애 자본 지출을 15% 절감했다. 액센츄어 인더스트리 X(Industry X)의 프라사드 사티야볼루(Prasad Satyavolu) 디지털 엔지니어링 및 제조 서비스 미주 지역 책임자는 “피지컬 AI 오케스트레이터는 물리적 공간을 위한 두뇌 역할을 한다. 엔비디아 옴니버스 기술과 액센츄어 AI 리파이너리로 구동되는 이 설루션은 소프트웨어 정의 공장을 구현하고, 에이전틱 AI(agentic AI)와 피지컬 AI(physical AI)를 제조 구조의 일부로 만들도록 설계되었다”고 전했다. 또한 “우리는 이미 이 설루션이 전 세계 고객에게 빠르고 지속적인 이점을 제공하는 것을 목격하고 있다. 이는 특히 미국 기업들에 해당하는데, 미국에서는 제조 혁신이 재산업화(reindustrialization)의 전제 조건이기 때문”이라고 덧붙였다.
작성일 : 2025-11-03
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
CAD&Graphics 2025년 11월호 목차
  INFOWORLD   Editorial 17 AI와 CAE의 융합, ‘지능형 시뮬레이션’ 시대를 연다    Hot Window 18 말하면 설계하는 시대를 향해 – AI로 그리는 설계의 미래 / 한명기 21 리얼타임을 통한 디지털 트랜스포메이션의 진화 / 권오찬   Focus 26 AWS, 산업 혁신 이끄는 AI 에이전트 비전과 전략 공개 28 AEC/MFG 산업의 미래는? 지더블유캐드코리아, CAD/CAM/CAE 통합 플랫폼 비전 제시 30 유니티, “게임 엔진 넘어 AI·디지털 트윈 시대의 산업 기반 기술로”   Case Study 33 핵융합 실험을 위한 3D 시뮬레이션 플랫폼 개발 유니티로 구현한 핵융합 디지털 트윈, V-KSTAR 36 인더스트리 4.0을 위한 로봇 예측 유지보수의 발전 / 이웅재 디지털 트윈과 AI가 시뮬레이션과 현실의 간극을 메우다   People&Company 40  지더블유캐드코리아 최종복 대표이사 CAE·PDM까지 라인업 확장… ‘가성비’ 넘어 AI·성능으로 승부   New Product 42 HP Z2 미니 G1a 리뷰 / 이민철 BIM 엔지니어의 실무 프로젝트 성능 검증 50 3D 설계 환경에 통합된 전문 CAE 시뮬레이션 ZW3D Structural & Flow 54 접촉·포스 성능 향상 및 MFBD 후처리, 산업별 툴킷 기능 강화 리커다인 2026 57 실시간 3D 시각화 워크플로의 생산성 향상 트윈모션 2025.2 74 이달의 신제품   On Air 62 캐드앤그래픽스 CNG TV 지식방송 지상중계 AI와 BIM의 융합, 건축 설계의 패러다임을 바꾸다 64 캐드앤그래픽스 CNG TV 지식방송 지상중계 제조 산업에서의 사이버 보안과 위기 상황 대응 방안 65 캐드앤그래픽스 CNG TV 지식방송 지상중계 시뮬레이션의 미래 : AI와 디지털 트윈이 주도하는 제조 혁신   Column 66 디지털 지식전문가 조형식의 지식마당 / 조형식 인공지능 시대의 서바이벌 노트 : 인공지능 마인드세트와 원칙 69 현장에서 얻은 것 No. 23 / 류용효 나만의 AI 에이전트 필살기 Ⅲ – 본질에 집중하는 삶   76 New Books 78 News   Directory 147 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 81 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 코드로 강력한 수학 그래픽 애니메이션을 만드는 매님 84 새로워진 캐디안 2025 살펴보기 (12) / 최영석 유틸리티 기능 소개 Ⅹ 88 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2026 (8) / 천벼리 아레스 커맨더의 동적 블록과 트리니티 블록 라이브러리   Reverse Engineering 91 시점 – 사물이나 현상을 바라보는 눈 (11) / 유우식 무엇을 믿을 것인가?   Mechanical 98 제품 개발 혁신을 돕는 크레오 파라메트릭 12.0 (4) / 박수민 모델 기반 정의 개선사항   Analysis 104 앤시스 워크벤치를 활용한 해석 성공 사례 / 장형진 앤시스 LS-DYNA S-ALE를 활용한 폭발 성형 해석 방법 108 최적화 문제를 통찰하기 위한 심센터 히즈 (9) / 이종학 프로세스 자동화 Ⅳ – 다물리 시스템 최적화 118 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (27) / 나인플러스IT 차세대 다중물리 CFD 설루션의 ‘4A’ 122 설계, 데이터로 다시 쓰다 (2) / 최병열 DX 시대에서 AX 시대로 126 로코드를 활용하여 엔지니어링 데이터 분석 극대화하기 (4) / 윤경렬, 김도희 로코드를 활용하여 시뮬레이션 데이터 분석을 따라해 보자 132 가상 제품 개발을 위한 MBSE 및 SysML의 이해와 핵심 전략 (1) / 오재응 디지털 모델 중심 시스템 설계로의 전환 전략   Manufacturing 138 자율제조를 위한 데이터 표준화와 사이버 보안 강화 전략 (2) / 차석근 산업 사이버 위협을 돌파하기 위한 IEC 62443   PLM 144 산업 디지털 전환을 가속화하는 버추얼 트윈 (8) / 이희라 부품 공용화 및 표준화를 위한 AI 기반 3D 형상 분석 설루션
작성일 : 2025-10-31
[케이스 스터디] 인더스트리 4.0을 위한 로봇 예측 유지보수의 발전
디지털 트윈과 AI가 시뮬레이션과 현실의 간극을 메우다   제조 시설은 지속적인 문제에 직면해 있다. 정비 일정은 일반적으로 실제 마모와 관계없이 3개월마다 부품을 점검하고 6개월마다 구성 요소를 교체하는 등 엄격한 일정을 따른다. 그 결과 불필요한 점검과 교체로 인한 비효율적인 시간 낭비가 발생하고, 반대로 정비 일정 전에 부품이 고장 나는 일도 생긴다. 센트랄수펠렉-파리 사클레대학교(CentraleSupélec–Université Paris-Saclay)의 지궈 젠(Zhiguo Zeng) 교수와 그의 연구팀은 디지털 트윈 기술과 딥러닝을 결합한 혁신적인 접근 방식을 통해 이 문제를 해결하고 있다. 그들의 목표는 모든 중요 부품에 센서를 배치할 필요 없이 시스템 수준의 모니터링 데이터만으로 로봇 시스템의 구성요소 수준의 고장을 감지하는 것이다. 젠 교수는 “유지보수는 공장에서 매우 큰 문제”라면서, “기계에 유지보수가 필요한 시기를 미리 안다면 주문이 적은 시기에 수리 일정을 잡을 수 있어 생산성 손실을 최소화할 수 있다”고 말했다. 그는 신뢰성 공학과 수명 예측 분야에서 풍부한 경험을 갖고 있지만, 디지털 트윈 기술은 그의 이전 연구와는 결이 다른 새로운 영역이었다. 센트랄수펠렉의 안 바로스(Anne Barros) 교수와 페드로 로드리게스-아예르베(Pedro Rodriguez-Ayerbe) 교수가 주도하는 학제 간 프로젝트인 ‘미래의 산업(Industry of the future)’에 참여하면서, 그는 디지털 트윈이 어떻게 강력한 시뮬레이션 도구를 물리적 시스템에 실시간으로 직접 연결할 수 있는지 깨달았다. 젠 교수는 “디지털 트윈은 결함 진단에 매우 유용하다. 이를 실제 기계의 데이터에 연결하여 그 데이터로 모델을 개선할 수 있다”고 설명했다.  제조업, 자동차, 항공우주 및 기타 분야로 활용 영역이 확대되면서, 디지털 트윈은 인더스트리 4.0에서 유망한 기술 중 하나로 자리잡고 있다. 물리적 객체나 시스템의 가상 복제본인 디지털 트윈(digital twin)을 생성함으로써, 조직은 운영 현황과 유지보수 필요성을 명확하게 파악할 수 있다. 또한 디지털 트윈은 예측 유지 관리 시스템 개발의 어려운 측면 중 하나인 고장 데이터의 부족에 대한 해결책을 제시한다. 젠 교수는 “현실에서는 고장이 자주 발생하는 걸 보기는 어렵다. 그래서 이제는 시뮬레이션을 통해 고장 데이터를 만들어낸다”고 설명했다.   가상과 물리의 가교 역할 디지털 트윈 프로젝트는 물리적 시스템과 가상 시스템 간의 다양한 수준의 통합을 통해 구현 옵션을 제공한다. 젠 교수의 연구팀은 세 가지 서로 다른 수준의 디지털 표현으로 작업했다. 기본 수준에서 디지털 모델은 기존 시뮬레이션처럼 작동하며, 물리적 시스템과 데이터를 교환하지 않는 정적 모델로 오프라인에서 실행된다. 그다음 단계는 디지털 섀도로, 가상 모델이 물리적 시스템의 데이터를 받아 그 행동을 미러링하지만 제어하지는 않는다. 가장 발전된 구현은 데이터와 정보의 양방향 흐름을 갖춘 진정한 디지털 트윈이다. 여기서 모델은 관찰을 바탕으로 스스로 업데이트하고 물리적 시스템을 제어하는 실시간 결정을 내린다. 연구팀은 테스트용으로 ArmPi FPV 교육용 로봇을 선택했다. 이 로봇은 5개의 관절과 하나의 엔드이펙터로 구성되며, 6개의 서보 모터로 제어된다. 결함 진단의 기초가 될 만큼 정확한 디지털 트윈을 만드는 것은 어려운 일이었다. 또한 기존 모니터링 접근 방식의 한계를 해결해야 했다. 젠 교수는 “대부분의 산업 사례에서 베어링을 진단하려면 베어링 수준의 센서가 필요하며, 이는 쉽지 않은 일이다. 내부에 베어링이 있는 큰 기계를 상상해보면 센서를 설치하기 위해서는 기계를 분해해야 하는데 때로는 공간이 충분하지 않을 때도 있다”고 말했다.   그림 1. ArmPi FPV 교육용 로봇(출처 : 센트랄수펠렉)   그들의 접근 방식은 시스템 수준 데이터(로봇 엔드 이펙터의 이동 궤적)를 사용하여 구성 요소 수준의 오류(개별 모터 문제)를 진단하는 것이었다. 또한 디지털 트윈을 사용하여 관찰할 수 있는 것과 감지해야 할 것 사이의 격차를 해소하고자 했다. 연구팀은 시뮬링크(Simulink)와 심스케이프 멀티바디(Simscape Multibody)를 사용하여 디지털 트윈을 구축했으며, 구성요소와 시스템 수준 동작을 모두 나타내는 계층적 모델을 만들었다. 젠 교수는 “모든 것은 시뮬레이션 모델을 설계하는 것으로 시작한다. 동적 시스템과 그 제어기를 모델링하고 싶다면 시뮬링크는 매우 강력하다”고 말했다. 연구팀은 시뮬링크를 사용해 모터 제어기를 PID 제어기로 모델링하면서 실험적으로 조정한 게인 값을 활용했다. 또한, 시뮬링크의 시각화 기능을 적극적으로 활용해 시뮬레이션 데이터와 실제 로봇의 센서 데이터를 연동할 수 있는 인터페이스를 구축하고, 실시간 모니터링 환경을 구성하였다. ROS 툴박스(ROS Toolbox)는 로봇 하드웨어와의 연결에서 유용한 역할을 했다. 젠 교수는 “로봇 운영 체제(Robot Operating System : ROS)를 사용하려면 일반적으로 ROS와 파이썬(Python) 환경을 별도로 구성하고 모든 연결을 직접 처리해야 한다”면서, “ROS 툴박스를 사용하면 이런 설정이 자동으로 관리되기 때문에 많은 노력을 아낄 수 있다”고 설명했다. 연구팀은 AI 모델 학습을 위한 데이터 준비 과정에서는 두 가지 접근 방식을 시도하였다. 먼저, 로봇에 입력되는 모터 명령과 그에 따른 그리퍼(gripper)의 움직임 패턴과 같은 원시 계측값을 기반으로 데이터를 수집하였다. 이후에는 디지털 트윈을 활용한 방식을 도입하였다. 시뮬레이션을 통해 로봇이 명령에 따라 어떻게 움직여야 하는지를 예측하고, 이 결과를 실제 움직임과 비교함으로써 예상과 실제 간의 차이를 도출하였다. 이러한 차이는 미세한 고장을 감지하는 데 유용한 지표로 작용하였다.   그림 2. 심스케이프 멀티바디의 로봇 팔에 대한 시뮬링크 모델(출처 : 센트랄수펠렉)   연구팀은 딥 러닝 툴박스(Deep Learning Toolbox)를 사용하여 장단기 메모리(Long Short-Term Memory : LSTM) 신경망을 훈련하여 특정 실패를 나타내는 패턴을 식별했다. 모델 아키텍처에는 각각 100개의 숨겨진 단위가 있는 두 개의 LSTM 계층, 그 사이의 드롭아웃 계층 및 완전히 연결된 분류 계층이 포함된다. 연구팀은 매트랩 앱 디자이너(MATLAB App Designer)를 사용하여 각 모터의 위치, 전압 및 온도를 포함한 실시간 데이터를 수집하는 그래픽 사용자 인터페이스를 설계했다. 이 인터페이스를 통해 로봇의 상태를 모니터링하고 오류 진단 모델의 예측을 검증할 수 있었다. 이러한 통합 도구들이 원활하게 함께 작동하면서, 연구팀은 소프트웨어 호환성 문제와 씨름하기보다는 효율적으로 기술적 과제 해결에 집중할 수 있었다.   현실 격차에 도전하다 연구팀은 실제 로봇에서 훈련된 모델을 테스트했을 때 연구원들이 ‘현실 격차’라고 부르는 시뮬레이션과 현실 세계 간의 불일치에 직면했다. 결함 진단 모델은 시뮬레이션에서 98%의 정확도를 달성하여 모터 고장의 위치와 유형을 모두 정확하게 식별했지만, 실제 로봇에서 테스트했을 때 성능은 약 60%로 떨어졌다. 젠 교수는 “시뮬레이션이 현실과 일치하지 않는 이유를 분석하고 있다”고 말하며, “실제 세계를 시뮬레이션 상에서 표현할 때 고려하지 못한 요소들이 있다”고 설명했다. 젠 교수와 그의 연구팀은 통신 신뢰성 문제, 시뮬레이션에서 고려되지 않은 모터 노이즈, 제어 명령과 모니터링 활동 간의 동기화 문제 등 성능 격차에 기여하는 여러 요인을 확인했다.   그림 3. 정상 상태 오류에서 로봇 팔의 애니메이션 및 관련 혼동 매트릭스(출처 : 센트랄수펠렉)   이러한 과제는 디지털 트윈 애플리케이션의 광범위한 문제를 반영한다. 현실은 가장 정교한 시뮬레이션보다 더 복잡하다. 연구팀은 낙담하기보다는 실제 노이즈 패턴을 시뮬레이션 하는 모듈을 디지털 트윈에 추가하고 전이 학습에 도메인 적응 기술을 적용하는 등 이러한 격차를 해소하기 위한 방법을 개발했다. 젠 교수는 “디지털 트윈 모델을 개발할 때 보정 테스트를 하긴 하지만, 이 역시 통제된 환경에서 이루어진다”고 말했다. 이어서 “하지만 산업 현장에 모델을 실제로 적용하면 훨씬 더 많은 노이즈가 포함된 데이터를 접하게 된다. 이처럼 현실의 노이즈를 알고리즘 관점에서 어떻게 보정할 것인가는 매우 도전적인 연구 주제”라고 설명했다. 이러한 수정을 통해 연구팀은 실제 세계 정확도를 약 85%까지 개선했다. 이는 실용적 구현을 향한 중요한 진전이다.   소규모 실험실에서 스마트 공장으로 연구팀의 작업은 단일 로봇을 넘어서 확장되고 있다. 이들은 다수의 로봇이 협업하며 생산 라인을 구성하는 소규모 스마트 공장 환경을 구축하고 있으며, 이를 통해 고장 진단 알고리즘을 보다 실제에 가까운 조건에서 실험하고자 한다. 젠 교수는 “우리는 미니 스마트 공장을 구축하려고 한다”면서, “생산 설비와 유사한 환경을 만들어 로봇에 알고리즘을 적용해, 실제 생산 스케줄링에 통합될 수 있는지를 실험하고 있다”고 설명했다. 이러한 접근 방식은 교육적 효과도 크다. 센트랄수펠렉의 공학과 학생들은 수업과 프로젝트를 통해 디지털 트윈, 로보틱스, 머신러닝 기술을 실습 기반으로 학습하고 있다. 젠 교수는 “학생들이 처음부터 가상 공간에서 모델을 직접 설계하고 이를 점차 실제 로봇과 연결해가는 과정을 보면, 그들이 이 과정을 진심으로 즐기고 있다는 걸 알 수 있다”고 전했다. 이 연구는 제조업뿐 아니라 물류, 스마트 창고 등 다양한 산업 분야로의 확장이 가능하다. 예를 들어 스마트 창고에서는 로봇이 정해진 경로를 따라 이동하지만, 장애물이 나타나면 이를 인식하고 경로를 유동적으로 조정해야 한다.   그림 4. 여러 로봇이 소규모 스마트 공장 환경의 생산 라인에서 협력하여 작동한다.(출처 : 센트랄수펠렉)   젠 교수는 “스마트 창고에서 로봇은 사전 정의된 규칙을 따르지만, 패키지가 떨어지고 경로가 막히는 등 경로를 리디렉션하고 다시 프로그래밍해야 하는 경우가 있을 수 있다. 이런 경우 로봇을 조정하기 위해 각 로봇의 실시간 위치를 알아야 하기 때문에 디지털 트윈 시스템이 필요하다”고 설명했다. 연구팀은 구성요소가 고장 날 때 로봇의 움직임을 조정하는 것과 같은 내결함성 제어를 포함한 추가 응용 프로그램을 모색하고 있다. 또한 연구자들은 에너지 소비만 고려하는 것이 아니라, 궤적 최적화 모델에서 각 모터의 성능 저하 수준과 잔여 유효 수명도 고려하는 건전성 인식 제어를 개발하고 있다. 그들의 코드, 모델, 데이터 세트를 깃허브 저장소(GitHub repository)를 통해 자유롭게 공개하고 있으며, 다른 연구자들이 이를 바탕으로 연구를 확장해 나가기를 기대하고 있다. 목표는 개선의 출처가 어디든 간에, 보다 나은 고장 진단 시스템을 구축하는 것이다. 젠 교수는 “누군가 우리보다 더 나은 결과를 만들어낸다면 정말 기쁠 것”이라고 전했다. 중국 제조업 현장에서 일하던 부모님의 영향을 받아 공학자의 길을 걷게 된 젠 교수에게 이번 연구는 단순한 학문적 탐구를 넘어선 개인적인 사명이기도 하다. 젠 교수는 “어릴 때 제조업에서 일하는 것이 얼마나 힘든 일인지 직접 보며 자랐다”면서, “내가 그렸던 비전은 그런 육체 노동을 로봇이 대체하게 해 사람들이 보다 나은 삶을 살 수 있도록 하는 것이었다”고 전했다.   ■ 이웅재 매스웍스코리아의 이사로 응용 엔지니어팀을 이끌고 있으며, 인공지능·테크니컬 컴퓨팅과 신호처리·통신 분야를 중심으로 고객의 기술적 성공을 지원하는 데 주력하고 있다. LG이노텍과 LIG넥스원에서 연구개발을 수행하며 신호처리와 통신 분야의 전문성을 쌓아왔다.     ■ 기사 PDF는 추후 제공됩니다.
작성일 : 2025-10-20
에픽게임즈, 다양한 산업에서 활용할 수 있는 신기능 추가된 ‘트윈모션 2025.2’ 출시
에픽게임즈는 다양한 산업 분야의 크리에이터를 위한 신규 기능 및 개선 사항이 추가된 ‘트윈모션 2025.2(Twinmotion 2025.2)’를 출시했다고 발표했다. 트윈모션은 언리얼 엔진 5를 기반으로 건축과 영화 & TV, 자동차, 제품 디자인 등 다양한 산업 분야에서 빠르게 사실적인 시각화 작업을 지원하며, 직관적이고 쉬운 UI와 강력한 라이브러리 제공을 통해 전문가와 초보자 모두 누구나 손쉽게 사용할 수 있는 리얼타임 3D 시각화 설루션이다.     최신 버전인 트윈모션 2025.2에서는 ▲나나이트(Nanite) 가상화된 지오메트리 ▲빠르고 쉬운 시각화 ▲향상된 렌더링 기능 ▲향상된 애니메이션 ▲버추얼 카메라(VCam) ▲향상된 머티리얼 할당, 편집, 구성 등 다양한 산업 분야의 크리에이터를 위한 새로운 기능과 향상된 워크플로를 제공한다. 2년 전 언리얼 엔진 5의 다이내믹 글로벌 일루미네이션 시스템 ‘루멘(Lumen)’이 트윈모션에 도입된 데 이어, 이번 버전에서는 UE5의 또 다른 기능인 나나이트 가상화된 지오메트리 시스템이 추가됐다. 나나이트는 보이는 데이터만 필요할 때 자동으로 스트리밍하는 기능으로, 수억 개 또는 수십억 개의 폴리곤으로 구성된 여러 개의 초고해상도 복잡한 메시도 실시간 성능을 유지하면서 작업할 수 있다. 이를 통해 파일을 임포트하기 전에 최적화할 필요가 없어 시간을 절약할 수 있다. 메시는 임포트할 때나 임포트 후에도 나나이트로 변환할 수 있으며, 해당 오브젝트의 모든 메시를 일괄 변환할 수 있는 것은 물론 메가스캔 3D 애셋 및 3D 식물, 스케치팹 애셋도 나나이트로 변환할 수 있다. 트윈모션 2025.2 버전에는 빠르고 쉬운 시각화를 위해 기존과 같은 수준의 시각화를 더 빠르고 간편하게 구현하면서도, 성능 부담을 줄여주는 신규 기능이 추가됐다. 먼저, ‘패럴랙스 윈도우’를 지원한다. 패럴랙스 윈도우는 오픈 셰이딩 언어(OSL) 셰이더를 통해 단순한 가벼운 평면에 실내 공간의 깊이감을 만들어 내 복잡한 3D 지오메트리 없이도 방이나 건물 내부를 시뮬레이션할 수 있는 기능이다. 창문을 모델링할 필요 없이 외부 표면에 패럴랙스 윈도우를 배치하기만 하면 된다. 라이브러리에는 사무실, 주거 공간, 헬스장, 소매점 등 27가지 인테리어가 포함된 패럴랙스 윈도우 폴더가 추가됐다. 이와 함께, ‘애니메이션 포그 카드’를 통해 신에 사실감을 손쉽게 구현할 수 있다. 라이브러리 VFX 폴더에 포함된 17종의 새로운 애니메이션 포그 카드를 사용하면 성능에 미치는 영향을 최소화하면서도 드래그 앤 드롭으로 손쉽게 안개를 배치하고 연출할 수 있다. 안개는 신의 바람이나 카드별로 바람 속도, 방향에 따라 반응할 수 있도록 설정이 가능하다. 트윈모션 2025.2는 향상된 렌더링 기능으로 포토리얼한 트윈모션에서 좀 더 자유로운 스타일이 필요할 때 활용할 수 있도록, 해칭, 쿠와하라 필터링, 펜 등 회화 및 스케치 스타일 효과와 같이 더욱 유연하고 향상된 비주얼 퀄리티를 제공하기 위해 전체 ‘FX 포스트 프로세싱’ 시스템을 개편했다. 또한, 이제 .cube 형식의 자체 룩업 테이블(LUT)을 임포트할 수 있어, 특정 컬러 룩을 구현하고 여러 샷이나 프로젝트 간에 컬러 일관성을 유지하며 컬러 그레이딩 과정을 간소화할 수 있다. 정적인 신에서 움직임을 빠르게 시뮬레이션할 때 유용한 ‘스태틱 오브젝트에 선형 또는 방사형 모션 블러 적용’ 기능과 비디오나 시퀀스를 익스포트할 때 더 높은 퀄리티의 사실적인 모션 블러를 적용할 수 있는 옵션도 추가됐다. 트윈모션 2025.2에는 향상된 애니메이션으로 선택한 형태(평면, 원기둥, 구체)에 따라 오브젝트를 원래 위치에서 바깥쪽이나 안쪽으로 이동시켜 기술 프레젠테이션이나 극적인 연출에 활용할 수 있는 분해도 애니메이션 ‘익스플로더’가 추가됐다. 기존의 트랜슬레이터 및 로테이터 애니메이터에도 ‘스태거 오프셋’이 추가돼 오브젝트가 하늘에서 떨어지거나 지면에서 솟아오르는 효과 그리고 순차적으로 회전하는 것과 같이 신에 역동적인 연쇄 연출을 손쉽게 만들 수 있게 됐다. 또한, 애니메이터를 ‘시퀀스 툴’에서 트랙으로 사용할 수 있어, 애니메이션의 시작 시각 변경, 재생 시간 조절, 다른 애니메이션 요소와 동기화하는 것이 간편해졌으며, 애니메이션을 멈추고 정확한 순간을 선택해 촬영할 수 있도록 이미지 속성에 새로운 글로벌 ‘스태틱/리얼타임 애니메이션’ 재생 옵션이 추가됐다. 이번 버전은 촬영감독부터 시각화 전문가에 이르기까지 누구나 활용 가능한 버추얼 카메라(VCam)를 새롭게 지원한다. 트윈모션을 안드로이드 또는 iOS에서 언리얼 VCam 앱에 연결하면 휴대용 디바이스를 움직이는 것만으로 신에 버추얼 카메라를 배치할 수 있다. ‘샷 탐색’ 기능을 활용하면 신을 자유롭게 탐색하면서 카메라 배치, 각도, 노출, 초점, 배율 등의 설정을 1인칭 시점에서 실험해 볼 수 있으며, ‘디자인 리뷰’에서는 가상의 애셋을 실제로 걸어 다니면서 모든 각도에서 살펴볼 수 있다. 트윈모션 2025.2에서는 향상된 머티리얼 할당, 편집, 구성을 통해 머티리얼 도크에서 머티리얼을 폴더로 정리하고 이름으로 검색할 수 있으며, 머티리얼을 알파벳순으로 정렬할 수 있다. 또한 툴바에 ‘멀티드롭’ 툴 버튼이 추가되어 신에서 마우스 클릭 한 번으로 머티리얼을 빠르게 적용할 수 있어 반복적인 드래그 앤 드롭 작업이 필요 없어졌다. 머티리얼 속성 패널을 탭으로 구성해 가독성을 높이는 한편 주요 설정에 더 쉽게 접근할 수 있고, UV, 엑스레이, 양면과 같은 일부 속성을 서로 다른 유형의 여러 머티리얼을 선택해서 일괄 변경할 수도 있다. 이 탭 중 하나는 해당 머티리얼이 어떤 메시에 할당되어 있는지 확인하고 선택할 수 있는 새로운 기능을 제공한다. 이 외에도, 이번 버전에서는 트윈모션 뷰포트 카메라 위치 및 속성을 DCC 뷰포트 카메라와 동기화할 수 있으며, 컨피규레이션 일괄 익스포트, 클라우드 호스팅 콘텐츠 기능, 3D 잔디, 파노라마 세트, 알리아스(*.wire) 파일 테셀레이션 옵션 등 더욱 향상된 다양한 기능을 만나볼 수 있다.
작성일 : 2025-10-01
[칼럼] 인공지능 기술 : 도입에서 혁신으로
디지털 지식전문가 조형식의 지식마당   빠르게, 그리고 깊게 지난 2년간 필자는 정신없이 AI 지식을 흡수하고 수많은 설루션을 직접 사용했다. 신기함과 불편함이 뒤섞인 체험 끝에, 직감적으로 2025년이 인공지능 기술의 이정표가 될 것이라 확신하게 됐다.   거시 흐름, 지능형 자동화와 에이전트의 부상 인공지능(AI) 기술의 발전은 2024년을 기점으로 단순히 새로운 기술의 도입을 넘어, 산업과 사회 전반의 혁신을 촉발하는 핵심 동력으로 자리 잡았다. 여러 분석가는 2024년이 AI 도입의 해였다면, 2025년은 AI가 기존 산업의 경계를 허물고 운영 방식을 근본적으로 재정의하는 ‘혁신의 해’가 될 것으로 전망하고 있다. 이러한 변화의 물결 속에서 기업들은 막연한 기대감을 넘어, AI 기술을 통해 실질적인 비즈니스 가치(ROI)를 창출하는 데 집중하고 있다. 특히, 반복적이고 명확한 규칙 기반의 작업을 AI로 자동화함으로써 즉각적인 효율성 증대와 함께 투자 성과를 확보하는 전략이 부상하고 있다. 이러한 맥락에서 ‘지능형 자동화(intelligent automation)’는 단순 반복 작업을 넘어 복잡한 워크플로를 자율적으로 처리하고 의사결정까지 내리는 단계로 진화하고 있다. 이는 ‘AI 에이전트’의 형태로 구현되며, 응용 AI의 차세대 진화로 주목받고 있다.  이러한 거시적 흐름 속에서 AI 기술의 3대 핵심 분야인 언어 모델, 이미지 및 영상 모델, 음성 모델의 최신 기술적 동향과 시장 변화를 심층적으로 분석하고, 나아가 이들 간의 융합 현상인 ‘멀티모달 AI’의 부상을 조망함으로써 비즈니스 리더와 기술 전문가에게 전략적 통찰을 만들어 봤다. 첫 번째, 대규모 언어 모델(LLM)의 혁신은 대부분 ‘트랜스포머(transformer)’ 아키텍처에 기반을 두고 있다. GPT-4, LLaMA 2, Falcon 등 현재 시장을 선도하는 모델은 이 아키텍처를 활용하여 방대한 데이터 세트에서 인간 언어의 패턴과 구조를 학습한다. 트랜스포머는 언어 모델의 근간을 이루며, 그 영향력은 비단 텍스트에만 머무르지 않고, 오픈AI(OpenAI)의 최신 비디오 생성 모델인 소라(Sora)의 ‘디퓨전 트랜스포머’ 아키텍처에도 확장 적용되고 있다. 최근 LLM 훈련 방법론은 단순히 모델의 규모를 키우는 것을 넘어, 효율과 특화된 성능을 확보하는 방향으로 진화하고 있다. LLM 시장은 ‘규모’를 추구하는 초대형 모델(LLM)과 ‘효율’을 추구하는 소형 언어 모델(SLM)이 공존하는 양면적 발전 양상을 보인다. GPT-4o나 제미나이(Gemini)와 같은 초대형 모델은 뛰어난 범용성과 성능으로 시장을 선도하는 한편, 특정 산업이나 용도에 맞게 최적화된 SLM은 적은 비용과 빠른 속도를 무기로 틈새시장을 공략하고 있다. 이러한 이원화된 전략은 기업이 적용 업무의 성격에 따라 두 모델을 전략적으로 선택하거나 조합하는 하이브리드 접근법을 채택하도록 유도하고 있다. 두 번째, 최근 이미지 및 영상 생성 모델의 핵심 기술은 ‘디퓨전 모델(diffusion model)’이다. 이 모델은 기존의 생성적 적대 신경망(GAN)이 가진 ‘모드 붕괴(mode collapse)’ 문제를 해결하며 고품질의 다양하고 사실적인 이미지 생성을 가능하게 했다. 디퓨전 모델은 이미지에 점진적으로 노이즈를 추가한 뒤, 이 노이즈를 단계적으로 제거하며 깨끗한 이미지를 복원하는 방식을 사용한다. 이 기술은 스테이블 디퓨전(Stable Diffusion), 달리(DALL-E)와 같은 대표적인 서비스에 활용되고 있다. 대규모 언어 모델과 마찬가지로, 이미지 및 영상 모델 역시 규모의 확장과 효율의 최적화라는 상반된 흐름을 동시에 경험하고 있다. 디퓨전 모델은 모델의 규모가 클수록 더 좋은 성능을 보이지만, 그만큼 막대한 연산 자원과 느린 처리 속도라는 문제에 직면한다. 이러한 한계를 극복하기 위해 모델 경량화와 처리 속도를 높이는 기술적 접근이 중요하게 다루어지고 있다. 이는 AI 기술의 상용화와 대중화를 위한 필수 단계이다. 영상 생성 기술은 미디어 및 엔터테인먼트 산업의 콘텐츠 창작 패러다임을 근본적으로 변화시키고 있다. 텍스트 입력만으로 원하는 비디오를 만들 수 있는 능력은 브레인스토밍을 가속화하고, 마케팅 자료, 게임 비주얼, 와이어프레임 및 프로토타입 제작 시간을 획기적으로 단축시켜 기업의 시장 대응력을 높인다. 특히, 전자상거래 기업은 AI 생성 이미지를 사용하여 다양한 제품 쇼케이스와 맞춤형 마케팅 자료를 대규모로 제작할 수 있다. 세 번째, 음성 모델은 크게 음성 신호를 텍스트로 변환하는 ‘음성 인식(ASR : Automatic Speech Recognition)’과 텍스트를 음성으로 변환하는 ‘음성 합성(TTS : Text-to-Speech)’ 기술로 구분된다. 딥러닝 기술의 발전은 이 두 분야에 혁명적인 변화를 가져왔다. 음성 인식(ASR) : 딥러닝 기반의 엔드 투 엔드 모델은 음향 모델링과 언어 모델링 과정을 통합하여 ASR의 정확도를 비약적으로 향상시켰다. 최신 시스템은 배경 소음을 제거하고 자연어 처리(NLP) 기술을 활용하2025/10여 문맥을 이해함으로써 최대 99%에 가까운 정확도를 달성하고 있다. 이는 단순히 음성을 텍스트로 바꾸는 것을 넘어, 사용자의 의도를 정확히 이해하고 적절하게 대응하는 대화형 AI 시스템의 핵심 기반이 된다. 음성 합성(TTS) : 딥러닝 기반 모델은 기계적인 느낌을 벗어나 사람처럼 자연스럽고 운율이 담긴 목소리를 생성하는 데 큰 발전을 이루었다. 이는 텍스트 분석, 운율 모델링, 그리고 실제 음성 파형을 생성하는 ‘보코더(vocoder)’ 과정을 통해 이루어진다. 현대 음성 합성 기술의 발전 방향은 단순히 자연스러움을 넘어, 인간-기계 상호작용을 더욱 몰입감 있고 개인화된 경험으로 이끄는 데 있다. 감정 표현 TTS : 이는 기계에 감정을 부여하여 인간 언어와 더욱 유사한 음성을 생성하는 것을 목표로 한다. 기쁨, 슬픔, 분노 등 다양한 감정을 표현하는 음성 합성은 사용자 경험을 더욱 풍부하게 만든다. 개인화된 음성 합성(Personalized TTS) : 이 기술은 약 1시간 분량의 데이터만으로 개인의 목소리를 복제하여 맞춤형 TTS를 만드는 연구 단계에 있다. 이는 부모의 목소리로 동화책을 읽어주는 등 감성적이고 따뜻한 응용 분야에 적용될 가능성을 열어준다.   감성으로 완성되는 기술 올해는 유난히 더운 것인지 아니면, 우리가 에어컨 환경에 너무 노출되어서 더위에 대한 저항력이 없어진 것인지는 모르지만 너무 더워서 정신적 활동이 힘들었다. 그 와중에 개인 자료를 정리하던 중에 개인적으로는 필자의 입사 이력서 사진을 우연히 찾아봤으나, 손상이 많이 되어서 인공지능으로 복원해 보기로 했다.     그림 1. 옛날 사진을 스마트폰으로 촬영한 이미지와 구글 인공지능으로 생성한 이미지   우선 스마트폰으로 이 사진을 찍은 다음 구글의 제미나이로 복원하고 다양한 모습으로 재현해 봤다. 그리고 동영상도 만들어 봤다. 아주 작고 희미한 흑백 사진이라고 우리의 머리속에 있는 이미지와 유사할 때까지 계속 보강된 이미지를 만들 수 있다. 그래서 최근에는 ‘포즈의 정리(Theorem of Pose)’라는 책을 구입해서 인공지능 생성 이미지 프롬프트를 본격적으로 연구해 보기로 했다.     그림 2. 구글 제미나이로 생성된 이미지   돌이켜보면 생각보다 빠른 속도다. 기술은 때로 불안과 경외를 동시에 불러온다. 그러나 확실한 것은, 인공지능이 우리의 감성을 자극하기 시작했다는 사실이다. 오래된 사진이 되살아나고, 목소리가 감정을 띠며, 텍스트가 움직이는 영상으로 변한다. 도입의 해를 지나 혁신의 해로 들어서는 지금, 우리는 효율을 넘어 의미를 설계해야 한다. AI는 결국, 우리 일과 삶의 이야기를 더 풍부하게 엮어내는 도구다. 기술이 감성을 만나 경험을 재편할 때, 진짜 혁신은 비로소 현실이 된다. 기업의 입장에서 2024년이 ‘도입의 해’였다면 2025년은 운영 방식 자체를 재정의하는 ‘혁신의 해’다. 기업은 막연한 기대가 아니라 ROI로 말하기 시작했고, 반복적·규칙 기반 업무를 AI로 자동화하여 즉각적인 효율과 투자 성과를 확보하는 전략이 주류로 부상했다. 그 중심에는 언어, 시각(이미지·영상), 음성이라는 세 가지 축과 이들을 촘촘히 엮어내는 멀티모달 AI가 있다.   ■ 조형식 항공 유체해석(CFD) 엔지니어로 출발하여 프로젝트 관리자 및 컨설턴트를 걸쳐서 디지털 지식 전문가로 활동하고 있다. 현재 디지털지식연구소 대표와 인더스트리 4.0, MES 강의, 캐드앤그래픽스 CNG 지식교육 방송 사회자 및 컬럼니스트로 활동하고 있다. 보잉, 삼성항공우주연구소, 한국항공(KAI), 지멘스에서 근무했다. 저서로는 ‘PLM 지식’, ‘서비스공학’, ‘스마트 엔지니어링’, ‘MES’, ‘인더스트리 4.0’ 등이 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
엔비디아, “새로운 오픈 모델과 시뮬레이션 라이브러리로 로보틱스 연구개발 가속화”
엔비디아가 오픈소스 뉴턴 물리 엔진(Newton Physics Engine)을 엔비디아 아이작 랩(NVIDIA Isaac Lab)에서 이용 가능하며, 로봇 기술을 위한 엔비디아 아이작 GR00T N1.6 추론 비전 언어 행동(vision language action : VLA) 모델과 새로운 AI 인프라를 함께 제공한다고 발표했다. 이들 기술은 개발자와 연구자에게 개방형 가속 로보틱스 플랫폼을 제공해 반복 작업을 가속화하고, 테스트를 표준화하며, 로봇의 추론과 훈련 통합을 지원한다. 아울러 로봇이 시뮬레이션에서 실제 환경으로 안전하고 안정적으로 기술을 이전할 수 있도록 돕는다. 로봇은 시뮬레이션 환경에서 더 빠르고 안전하게 학습할 수 있지만, 복잡한 관절, 균형, 움직임을 가진 휴머노이드 로봇은 오늘날 기존 물리 엔진의 한계를 시험한다. 전 세계 25만 명 이상의 로보틱스 개발자들은 정확한 물리 엔진을 필요로 하며, 이는 로봇이 시뮬레이션에서 학습한 기술을 현실 세계에서 안전하고 안정적으로 수행하기 위해 필수이다. 엔비디아는 리눅스 재단이 관리하는 GPU 가속 오픈소스 물리 엔진 뉴턴의 베타 버전을 공개했다. 이는 엔비디아 워프(Warp)와 오픈USD(OpenUSD) 프레임워크 기반으로, 엔비디아와 구글 딥마인드, 디즈니 리서치가 공동 개발했다. 뉴턴은 유연한 설계 및 다양한 물리 솔버와의 호환성을 갖췄다. 이를 통해 개발자가 눈이나 자갈 위를 걷거나, 컵과 과일을 다루는 등 매우 복잡한 로봇 동작을 시뮬레이션하고 이를 현실 세계에 성공적으로 적용할 수 있도록 지원한다.     휴머노이드가 물리적 환경에서 인간과 유사한 작업을 수행하기 위해서는 모호한 지시를 이해하고 이전에 경험하지 못한 상황에 대처할 수 있어야 한다. 곧 허깅 페이스에서 공개될 오픈소스 아이작 GR00T N1.6 로봇 파운데이션 모델의 최신 버전에는 피지컬 AI를 위해 개발된 오픈 맞춤형 추론 비전 언어 모델(VLM)인 엔비디아 코스모스 리즌(Cosmos Reason)이 통합될 예정이다. 코스모스 리즌은 로봇이 심층 사고를 하는 두뇌 역할을 담당하며 기존의 지식, 상식, 물리학을 활용해 모호한 지시를 단계별 계획으로 전환하고, 새로운 상황을 처리하며, 다양한 작업에 걸쳐 일반화할 수 있도록 한다. 코스모스 리즌은 현재 피지컬 리즈닝 리더보드(Physical Reasoning Leaderboard) 1위를 차지하고 있으며, 100만 회 이상 다운로드를 기록했다. 또한, 모델 훈련을 위한 대규모 실제 데이터, 합성 데이터를 선별하고 주석을 달 수 있다. 코스모스 리즌 1은 NIM에서 제공되며, 사용하기 쉬운 마이크로서비스 형태로 AI 모델 배포를 지원한다.  아이작 GR00T N1.6은 휴머노이드가 물체를 동시에 이동하고 조작할 수 있도록 해 상체와 팔의 자유도를 넓히고, 무거운 문을 여는 것과 같은 까다로운 작업을 수행할 수 있도록 한다. 개발자는 허깅 페이스의 오픈소스 엔비디아 피지컬 AI 데이터세트(Physical AI Dataset)를 사용해 아이작 GR00T N 모델을 사후 훈련할 수 있다. 이 데이터세트는 480만 회 이상 다운로드됐으며, 현재 수천 개의 합성 궤적과 실제 궤적 데이터를 포함한다. 또한, 엔비디아는 오픈소스 코스모스 월드 파운데이션 모델(WFM)의 신규 업데이트를 발표했다. 300만 회 이상 다운로드된 이 모델은 개발자가 텍스트, 이미지, 영상 프롬프트를 활용해 대규모로 피지컬AI 모델 훈련을 가속화할 수 있는 다양한 데이터 생성을 지원한다. 코스모스 프리딕트(Cosmos Predict) 2.5는 곧 출시될 예정이며, 세 가지 코스모스 WFM의 성능을 하나의 강력한 모델로 통합해 복잡성을 줄이고, 시간을 절약하며, 효율을 높인다. 또한 최대 30초의 긴 동영상 생성, 다중 뷰 카메라 출력을 지원해 더욱 풍부한 세계 시뮬레이션을 구현한다. 코스모스 트랜스퍼(Cosmos Transfer) 2.5는 곧 출시될 예정이며, 기존 모델 대비 3.5배 작으면서도 더 빠르고 높은 품질의 결과를 제공한다. 이제 사실적인 합성 데이터를 생성할 수 있으며, 그라운드 트루스(ground-truth) 3D 시뮬레이션 장면, 깊이, 세분화, 에지, 고해상도 지도와 같은 공간 제어 입력값을 활용할 수 있다.   로봇에게 물체를 잡는 법을 학습시키는 것은 로보틱스에서 가장 어려운 과제 중 하나다. 파지는 단순히 팔을 움직이는 것이 아니라 생각을 정밀한 동작으로 전환하는 것으로, 로봇이 시행착오를 통해 학습해야 하는 기술이다. 엔비디아 옴니버스(Omniverse) 플랫폼 기반의 아이작 랩 2.3 개발자 프리뷰의 새로운 정밀 파지(dexterous grasping) 워크플로는 다관절 손과 팔을 가진 로봇을 가상 환경에서 자동화된 커리큘럼으로 훈련시킨다. 이 과정은 간단한 작업부터 시작해 점차 복잡성을 높여간다. 해당 워크플로는 중력, 마찰, 물체의 무게 등 요소를 변경해 로봇이 예측 불가능한 환경에서도 기술을 습득하도록 훈련시킨다. 컵을 집거나 방을 가로질러 걷는 것과 같이 새로운 기술을 로봇에게 숙달시키는 것은 매우 어렵다. 또한, 이러한 기술을 실제 로봇에서 테스트하는 과정은 시간과 비용이 많이 요구된다. 이러한 어려움을 해결할 수 있는 방법은 시뮬레이션이다. 시뮬레이션은 로봇이 학습한 기술을 무수한 시나리오, 작업, 환경에서 테스트할 수 있는 방법을 제공한다. 그러나 개발자들은 시뮬레이션 환경에서도 현실 세계를 반영하지 못하고 단편적이고 단순화된 테스트를 구축하는 경우가 많다. 완벽하고 단순한 시뮬레이션 환경에서 학습한 로봇은 현실 세계의 복잡성에 직면하는 순간 실패할 가능성이 크다. 엔비디아와 라이트휠은 개발자가 시스템을 처음부터 구축하지 않고도 시뮬레이션 환경에서 복잡한 대규모 평가를 실행할 수 있는 오픈소스 정책 평가 프레임워크인 아이작 랩-아레나(Arena) 공동 개발 중이다. 이 프레임워크는 확장 가능한 실험과 표준화된 테스트를 지원하며 곧 공개될 예정이다. 엔비디아는 개발자들이 이러한 첨단 기술과 소프트웨어 라이브러리를 최대한 활용할 수 있도록, 까다로운 워크로드를 위해 설계된 AI 인프라를 발표했다. 엔비디아 GB200 NVL72는 엔비디아 그레이스(Grace) CPU 36개와 엔비디아 블랙웰(Blackwell) GPU 72개를 통합한 랙 규모 시스템으로, 주요 클라우드 공급업체들이 채택해 복잡한 추론과 피지컬 AI 작업을 포함한 AI 훈련과 추론을 가속화하고 있다. 엔비디아 RTX 프로 서버(RTX PRO Servers)는 훈련, 합성 데이터 생성, 로봇 학습, 시뮬레이션 전반의 모든 로봇 개발 워크로드를 위한 단일 아키텍처를 제공하며, RAI 연구소(RAI Institute)에서 도입 중이다. 블랙웰 GPU로 구동되는 엔비디아 젯슨 토르(Jetson Thor)는 로봇이 실시간 지능형 상호작용을 위한 다중 AI 워크플로 실행을 지원한다. 또한 실시간 로봇 추론으로 휴머노이드 로보틱스 전반에서 고성능 피지컬 AI 워크로드와 애플리케이션의 돌파구를 마련한다. 젯슨 토르는 피규어 AI, 갤봇(Galbot), 구글 딥마인드, 멘티 로보틱스, 메타(Meta), 스킬드 AI, 유니트리(Unitree) 등 파트너사에 도입 중이다. 엔비디아의 레브 레바레디언(Rev Lebaredian) 옴니버스, 시뮬레이션 기술 부문 부사장은 “휴머노이드는 피지컬 AI의 차세대 영역으로, 예측 불가능한 세상에서 추론하고, 적응하며, 안전하게 행동하는 능력이 필요하다. 이번 업데이트로 개발자들은 로봇을 연구 단계에서 일상 생활로 가져오기 위한 세 가지 컴퓨터를 갖게 됐다. 아이작 GR00T가 로봇의 두뇌 역할을 하고, 뉴턴이 신체를 시뮬레이션하며, 엔비디아 옴니버스가 훈련장이 된다”고 말했다.
작성일 : 2025-09-30
DJI, 핸즈프리 웨어러블 카메라 ‘오즈모 나노’ 출시
DJI가 오즈모 나노(Osmo Nano)를 출시했다. 가벼운 웨어러블 액션캠인 오즈모 나노는 양면 자석 디자인으로 다양한 곳에 장착할 수 있다. 또한 차세대 1/1.3인치 센서와 고성능 이미지 프로세서를 탑재해 최대 13.5스톱의 다이내믹 레인지를 제공한다. 초소형 디자인, 간편한 마그네틱 마운팅, 다양한 액세서리 옵션을 갖춘 오즈모 나노는 어디든 장착이 가능하다. DJI 액션 카메라 중 가장 작은 모델로, 무게는 52g이며 크기는 약 57mm×29mm×28mm이다. 헤드밴드, 헬멧, 랜야드, 모자 등 다양한 장착 옵션을 제공해 사용자가 어디든 휴대하며 콘텐츠를 촬영할 수 있다.     수상 스포츠 및 야외 활동 시에는 추가 하우징 없이도 최대 10m 방수 성능을 제공하며, 다기능 비전 독(Vision Dock)과 함께 사용할 경우 땀·비·가벼운 물 튀김으로부터 보호하는 IPX4 등급의 생활 방수 기능을 제공한다. 다기능 비전 독의 내장 OLED HD 터치스크린을 통해 원격으로도 제어할 수 있다. 1/1.3인치 센서는 소형 액션캠에서 가능한 높은 화질을 제공하며, 고성능 이미지 프로세서는 13.5스톱의 다이내믹 레인지를 제공해 저조도 환경에서도 성능을 보장한다. 최대 4K/60fps 동영상과 4K/120fps 슬로 모션으로 장면을 선명하게 포착하며, 143° 초광각 시야는 모든 프레임에 더 넓은 앵글을 담는다. 오즈모 나노는 10-bit & D-Log M 컬러 성능을 제공한다. 10-bit 동영상은 최대 10억 가지 색상을 캡처하며, 8-bit 표준 동영상보다 약 72% 더 넓은 컬러 스페이스를 담아 향상된 시각 표현이 가능하다. 한편, D-Log M 모드는 색상 및 밝기 정보를 보존해 후반 작업과 편집에 유용하다. 저조도 환경에서는 오즈모 나노의 슈퍼나이트(SuperNight) 모드가 노이즈 감소 알고리즘을 이용해 화질을 향상시킨다. 이미지 안정화 시스템으로는 호라이즌밸런싱(HorizonBalancing)이 수평을 유지하고 ±30° 범위 내에서 기울기를 보정하며, 록스테디 3.0(RockSteady 3.0)은 손떨림을 방지해 준다. 오즈모 나노의 다기능 비전 독은 디스플레이 화면, 원격 사진 트리거, 충전 스테이션 및 고속 파일 전송 스테이션 역할을 한다. 마그네틱 디자인으로 카메라를 어떤 방향으로든 장착할 수 있어 셀카와 인물 사진 촬영 모드 간 전환이 간편하다. 비전 독을 사용하면 메인 카메라를 20분 만에 배터리 잔량 80%까지 고속 충전할 수 있다. 완전히 충전된 카메라는 1080p/24fps 동영상을 최대 200분까지 녹화할 수 있으며, 새로운 인듀어런스 모드를 사용하면 4K/30fps(16:9) 동영상을 최대 60분까지 녹화할 수 있다. 다기능 비전 독에는 내장 마이크로SD 카드 슬롯이 있어, PD 고속 충전 케이블을 사용해 모바일 기기나 컴퓨터에 연결하면 최대 600 MB/s의 속도로 전송을 할 수 있다. 오즈모 나노에는 듀얼 마이크가 내장되어 스테레오 녹음을 지원하며, 몰입감 있는 1인칭 시청각 경험을 위한 선명하고 생생한 오디오를 제공한다. 오즈모오디오(OsmoAudio) 직접 마이크 연결을 통해서는 오즈모 나노를 두 개의 DJI 마이크 송신기에 수신기 없이 직접 연결하여 스튜디오 품질의 사운드를 녹음할 수 있다. DJI 오즈모 나노는 DJI 스토어 및 공인 판매처에서 주문할 수 있다. 오즈모 나노 카메라, 다기능 비전 독, 마그네틱 모자 클립, 마그네틱 스트랩, 보호 케이스, USB-C to USB-C PD 케이블(USB 3.1), 양방향 마그네틱 볼 조인트 어댑터 마운트가 포함된 오즈모 나노 스탠더드 콤보는 카메라 내장 저장장치의 용량에 따라 64GB 38만 9000원, 128GB 44만 9000원이다. 오즈모 나노의 촬영 경험을 향상시킬 수 있는 다양한 마운트와 액세서리가 별도로 판매된다. 여기에는 마그네틱 헤드밴드, 양방향 퀵 릴리즈 접이식 어댑터 마운트, ND 필터 세트, 글라스 렌즈 커버, 양방향 마그네틱 볼 조인트 어댑터 마운트 등이 있다.
작성일 : 2025-09-24
젠하이저, 1인 크리에이터 위한 무선 마이크 ‘프로파일 와이어리스 1채널 세트’ 출시
젠하이저는 1인 크리에이터를 위해 핵심 기술을 제공하는 무선 마이크 시스템 ‘프로파일 와이어리스(Profile Wireless) 1채널 세트’를 출시한다고 밝혔다. 이번 신제품은 구성이 간편하고 휴대성이 우수해 다양한 현장에서 빠르게 오디오를 캡처할 수 있으며, 추가 트랜스미터와 충전 바를 통해 2채널 시스템으로 확장할 수 있는 유연한 구조를 제공하는 것이 특징이다.     ‘프로파일 와이어리스 1채널 세트’는 2.4GHz 무선 연결을 통해 안정적인 오디오 전송을 지원하며, 고성능 A/D 컨버터 2개를 활용한 32비트 플로트(32-bit float) 녹음으로 넓은 다이나믹 레인지에서 정밀한 오디오를 담아낸다. 특히, 녹음 중 클리핑된 소리도 복원이 가능해 돌발 상황이 잦은 촬영 환경에서도 안정적인 결과를 보장한다. 세트의 클립온 마이크 트랜스미터와 수신기는 사전 페어링되어 별도의 설정 없이 바로 사용할 수 있으며, 내장 메모리를 탑재해 최대 30시간 내부 녹음이 가능하다. 수신기나 마이크의 본체에서 원격으로 녹음 시작 및 중지를 제어할 수 있으며, 방향에 따라 자동으로 회전되는 OLED 디스플레이를 탑재해 작업의 효율을 한층 끌어올렸다. ‘프로파일 와이어리스 1채널 세트’는 스마트폰, PC, 카메라 등의 다양한 장비와 호환되도록 USB-C 및 라이트닝 어댑터, 3.5mm 카메라 케이블이 함께 제공되며, 세트 구성품으로 클립온 마이크 1개, 2채널 수신기, USB-C 및 라이트닝 어댑터, 마이크 마운트 클립과 자석, 콜드 슈 어댑터, 전용 파우치 등이 포함된다. ‘프로파일 와이어리스 1채널 세트’의 가격은 29만원이다. 젠하이저의 헨드릭 밀라우어(Hendrik Millauer) 방송 및 영화 부문 제품 매니저는 “이번 제품은 1인 크리에이터를 위해 경제적이면서도 휴대성이 뛰어난 설루션으로, 향후 시스템 확장이 손쉽도록 설계되었다”며, “특히 32비트 플로트 녹음을 지원해 크리에이터들이 보다 높은 품질의 오디오를 손쉽게 확보할 수 있도록 돕는다”고 밝혔다.
작성일 : 2025-09-15
처리 시간이 10시간 미만인 LES 워크플로
성공적인 유동 해석을 위한 케이던스의 CFD 기술 (25)   이번 호에서는 사용자가 피델리티 포인트와이즈(Fidelity Pointwise)와 피델리티 LES 솔버(Fidelity LES Solver, 이전 명칭 CharLES)를 사용하여 LES 워크플로의 이점을 누릴 수 있는 방법에 대해 설명한다.   ■ 자료 제공 : 나인플러스IT, www.vifs.co.kr   대규모 와류 시뮬레이션(LES)은 최근 전산 유체 역학(CFD)에서 그 중요성이 커지고 있다. 이러한 급증은 주로 제한된 설계 공간, 긴 실행 시간, 물리학 감소 등 기존의 레이놀즈 평균 나비에 스토크(RANS) 기반 CFD에 내재된 트레이드오프 때문이다. 코드 설계 및 컴퓨팅 아키텍처의 발전으로 경계층 분리, 항공 음향, 연소 등 복잡한 산업 문제에 대해 LES(Large-Eddy Simulation, 대형 와류 시뮬레이션)와 같은 고충실도 시뮬레이션을 구현할 수 있게 되었다. 이러한 발전은 시뮬레이션 결과에 대한 신뢰도를 높여줄 뿐만 아니라, GPU 컴퓨팅 아키텍처의 활용을 통해 LES 솔버의 성능을 크게 향상시켰다. 이러한 개선으로 이제 LES 워크플로를 실제 엔지니어링 작업에 적용하여 10시간 미만의 처리 시간을 달성할 수 있게 되었으며, 이를 통해 LES는 생산 수준의 CFD 환경에서 실용적인 선택이 될 수 있게 되었다.   ▲ CFD Prediction for High-Lift Aerodynamics(Slotnick, 2019)   피델리티 LES 솔버 피델리티 LES 솔버가 고충실도 LES 시뮬레이션에서 갖는 장점은 다음과 같이 네 가지로 볼 수 있다. 보로노이 다이어그램 기반 대규모 병렬 메시 환경 강력하고 비선형적으로 안정적인 수치 체계 및 고급 물리 모델 대규모 데이터 세트를 위한 신속한 시각화 및 심문 확장 가능한 GPU 상주 다중 물리 유동 솔버     전처리는 전체 정확도에 큰 영향을 미치고 일반적으로 전체 워크플로 시간의 약 75~80%를 차지하기 때문에 CFD 워크플로에서 매우 중요한 단계이다. 이 단계에서 CFD 사용자를 지원하기 위해 피델리티 LES는 피델리티 스티치(Fidelity Stitch)라는 고급 메시 툴을 개발했다. 이 툴은 정확도를 개선하고 메시 품질 지표를 향상하는 데 필요한 시간을 단축하여 전처리 워크플로를 훨씬 더 효율적으로 만들 수 있도록 설계되었다. 피델리티 스티치는 LES를 위한 보로노이 다이어그램 기반 볼륨 메시 툴이다. 보로노이 다이어그램은 유클리드 거리를 기반으로 한 고유한 파티션이다. 이 메시 프로세스에는 두 가지 입력이 있다. 첫 번째 입력은 피델리티 스티치가 다이어그램을 클립하는 데 사용할 수밀하고 매니폴드한 표면 메시를 가져오는 것이다. 두 번째 입력은 사이트 생성이다. 토폴로지는 사이트 배치와 해당 사이트 스텐실과 서피스 메시의 교차점을 생성한 결과물이다. 그러면 스티치가 임의의 다면체 셀을 직접 생성한다.     로이드 알고리즘은 반복적으로 메시를 평활화하는 데 사용된다. 이 스무딩 절차는 벽에 가까운 정렬을 유리하게 만들고 고해상도가 필수적인 인터페이스에서 셀 볼륨을 보다 균일하게 분배한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-09-03