• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "블루프린트"에 대한 통합 검색 내용이 65개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[케이스 스터디] 언리얼 엔진으로 새롭게 정의한 ‘케이팝 데몬 헌터스’
프리비즈와 레이아웃 혁신해 애니메이션 공정 효율 향상   소니 픽처스 이미지웍스는 넷플릭스 흥행작인 ‘케이팝 데몬 헌터스’의 제작에 언리얼 엔진을 도입해 제작 파이프라인을 혁신했다. 제작 초기 단계부터 최종 렌더링 수준의 비주얼을 확인하며 창작자의 의도를 정교하게 시각화한 것이 핵심이다. 특히 유니버설 신 디스크립션(USD) 기반의 워크플로를 구축해 프리비즈와 레이아웃 과정의 효율을 높여 시네마틱한 완성도를 극대화했다. ■ 자료 제공 : 에픽게임즈   ‘케이팝 데몬 헌터스’는 단순한 영화가 아니라, 하나의 문화적 현상이다. 이 넷플릭스 오리지널 애니메이션 영화는 조회 수 2억 3600만 회를 기록하며 넷플릭스 역사상 가장 인기 있는 영화로 자리잡았을뿐만 아니라, 사운드트랙 또한 빌보드 핫 100 차트 역사상 처음으로 네 곡이 동시에 톱 10에 오르는 전례 없는 기록을 세웠다. 소니 픽처스 애니메이션이 제작한 이 애니메이션은 빠른 액션 전개, 대규모 군중 연출, 콘서트 규모의 라이팅이 결합된 작품으로, 기존의 레이아웃과 프리비즈 방식으로는 결과를 사전에 판단하기 어려웠다. 액션, 라이팅, 머티리얼, 이펙트가 시네마틱한 관점에서 각각 따로가 아니라 서로 유기적으로 결합되어 어떻게 작동하는지를 확인하는 것이 핵심적인 연출 결정의 기준이었기 때문이다. 이를 제작 초반부터 가능하게 하기 위해, 소니 픽처스 이미지웍스 팀은 파이프라인 시작 단계에서 창작 의도를 보다 온전히 시각화할 수 있는 방법이 필요했고, 그 해답으로 언리얼 엔진을 선택했다.   더 빠르게 구현하는 최종 픽셀 수준의 비주얼 ‘케이팝 데몬 헌터스’는 비밀리에 초자연적 위협으로부터 세상을 수호하는 케이팝 걸 그룹 헌트릭스의 이야기를 그린다. 기상천외한 판타지 액션으로 가득한 이야기 속에서, 특히 목욕탕을 배경으로 한 액션 시퀀스는 소니 픽처스 이미지웍스에게 중요한 전환점이었다. 이 장면에서 주인공들은 새로운 라이벌 보이 밴드이자 정체를 숨긴 악령들인 사자 보이즈와 맞서던 중, 물귀신의 기습을 받는다. 소니 픽처스 이미지웍스의 제이슨 볼드윈(Jason Baldwin) 리얼타임 슈퍼바이저는 목욕탕에서 벌어지는 액션 시퀀스는 정말 놀라웠다며, “머티리얼 표현을 극대화해 모든 요소가 젖어 있고 반사되고 안개가 낀 느낌을 제대로 구현할 수 있었기 때문”이라고 밝혔다.   ▲ 소니 픽처스 이미지웍스 제공   이 시퀀스에서 소니 픽처스 이미지웍스의 레이아웃 팀은 처음으로 실시간 볼류메트릭을 사용해, 수증기가 자욱하게 깔리고 부드럽게 확산되는 라이팅이 증기 사이를 스며드는 목욕탕 특유의 분위기를 구현했다. 이 음산한 환경 속에서 혼란스럽고 긴박한 난투극이 벌어지며, 팀은 안개와 수증기가 가득한 공간에서 빠르고 격렬한 전투 연출을 구현해야 하는 과제에 직면했다. 소니 픽처스 이미지웍스의 애덤 홈즈(Adam Holmes) 비주얼라이제이션 총괄은 “언리얼 엔진을 처음 접한 레이아웃 아티스트 한 명이 약 일주일 만에 이 메인 액션 신(scene)의 기본 레이아웃인 블록아웃을 완성했다”고 설명했다. 이 초기 블록아웃을 통해 팀은 복잡한 액션 동선, 독창적인 카메라 워크, 그리고 검이 악령을 폭발시키는 모든 시각 효과까지 함께 구현할 수 있었고, 해당 신이 지향하는 시네마틱한 비전을 생생하게 표현할 수 있었다. 라이팅, 머티리얼, 분위기, 카메라가 유기적으로 작동하는 방식을 제작 초기 단계부터 확인할 수 있었기 때문에, 팀은 시퀀스의 감정적 톤을 설정해 나갈 수 있었다. 젖은 타일의 광택, 수증기의 밀도, 빠르게 전개되는 카메라 워크는 긴장감과 스펙터클을 극대화하며 액션 신에 드라마와 몰입감을 더했다. 궁극적으로 이러한 초기 시각화 작업은 시퀀스의 최종적인 예술적 효과를 한층 끌어 올리는 역할을 수행했다. 볼드윈은 “레이아웃 단계에서 모든 요소가 최종 렌더에 가까운 수준으로 함께 결합되는 모습을, 게다가 그렇게 빠르게 세팅할 수 있다는 점이 정말 놀라웠다”고 말했다.   마야, 언리얼 엔진, USD를 연결하는 파이프라인 오토데스크의 마야(Maya)와 언리얼 엔진간의 워크플로는 소니 픽처스 이미지웍스의 ‘케이팝 데몬 헌터스’ 애니메이션 파이프라인의 핵심 기반이었다. 홈즈는 “마야 파이프라인에서 개발한 애니메이션 릭을 언리얼 엔진으로 가져오는 과정은 매우 중요하고, 이를 자동화하기 위해 여러 스크립트를 만들었다”고 설명했다. 레이아웃 샷의 애니메이션 작업이 완료되면 이를 다시 마야로 보내서 적용할 수 있으며, 레이아웃 아티스트가 완성한 모든 작업을 그대로 유지할 수 있었다.   ▲ 소니 픽처스 이미지웍스 제공   이 워크플로는 소니 픽처스 이미지웍스가 유니버설 신 디스크립션(Universal Scene Description : USD)을 본격적으로 도입하면서 한 단계 더 발전했다. USD를 활용함으로써 내부 툴과 언리얼 엔진 간에 애셋 이동 과정이 더 빠르고 일관되게 이루어질 수 있었다. 볼드윈은 “이제 모델링 단계에서 애셋을 기존 파이프라인에 보내면, 이 데이터를 USD를 통해 매우 손쉽고 안정적으로 언리얼 엔진으로 가져왔다가 다시 내보낼 수 있다”라고 전했다. 소니 픽처스 이미지웍스에게 이러한 방식의 작업은 아티스트들이 사용하는 크리에이티브 툴 간의 반복 작업에 큰 변화를 가져왔다. 소니 픽처스 이미지웍스의 황종환 리얼타임 파이프라인 슈퍼바이저는 “초기에는 시퀀스 하나를 익스포트하는 데만 6~8시간이 걸렸다. 하지만 소스 코드에 접근할 수 있다는 점이 큰 전환점이 되었다. 그 덕분에 작업 시간을 30분으로 줄일 수 있었고, 지금은 시퀀스를 5분 만에 익스포트한다”고 설명했다.   캐릭터, 군중, 콘서트 라이팅의 확장 팀은 언리얼 엔진의 컨트롤 릭을 활용해 수십 명의 캐릭터 애니메이션을 엔진에서 직접 제작했다. 소니 픽처스 이미지웍스의 릴리아 라이(Lillia Lai) 리깅 개발 리드는 “언리얼 엔진에서 컨트롤 릭을 구성하기로 한 이유는 실행 속도가 매우 빠르기 때문이다. 하나의 신에서 필요하다면 최대 20명에서 30명에 이르는 여러 캐릭터를 동시에 다룰 수 있다”고 말했다.   ▲ 소니 픽처스 이미지웍스 제공   ‘케이팝 데몬 헌터스’에서 세 명의 주인공은 각 시퀀스마다 서로 다른 커스텀 의상을 착용한다. 이를 위해 소니 픽처스 이미지웍스는 블루프린트 비주얼 스크립팅 시스템을 활용해 의상과 액세서리를 즉시 교체할 수 있는 캐릭터 시스템을 구축했다. 이 시스템은 무작위로 조합된 다양한 캐릭터로 가득 찬 대규모 군중을 제작할 때 그 진가를 발휘했다. 라이는 “단 하나의 체형과 여러 헤어스타일만 만들면 된다. 그런 다음 원하는 조합으로 헤어스타일과 의상을 교체하고, 이를 언리얼 엔진의 폴리지 모드와 결합해 공연장 전체를 빠르게 채울 수 있었다”고 설명했다. 폴리지 모드는 원래 언리얼 엔진 신에 식물과 나무를 손쉽게 배치하기 위해 설계된 기능이다. 팀은 이 기능을 공연장에 모인 군중을 구현하는 데 적용하면서, 폴리지 모드 툴을 활용하는 새로운 방법을 발견할 수 있었다.   ▲ 소니 픽처스 이미지웍스 제공   공연장 신을 방대한 규모의 다양한 관객으로 채우는 것은 물론, 프리비즈 단계부터 콘서트 전체 라이팅이 환경에 미치는 영향을 직접 탐색할 수 있었다. 홈즈는 “그 효과를 제대로 시각화할 수 있는 유일한 방법은 언리얼 엔진을 사용하는 것이었다”고 말했다. 프리비즈 아티스트들은 파이프라인의 마지막 단계가 아니라 시작 단계에서부터 아름답고 놀라운 신을 구성할 수 있었으며, 소니 픽처스 애니메이션과 이미지웍스의 크리에이티브 팀은 그 어느 때보다 다양한 시각적 옵션을 확보할 수 있었다. 아티스트는 콘서트가 어떤 느낌일지 상상하는 대신, 공연의 에너지와 규모를 실시간으로 대응하며 각 노래의 감정적 임팩트를 극대화하기 위해 안무, 무대 연출, 라이팅을 조정할 수 있었다. 이 기술로 팀은 시작 단계부터 더 큰 스케일과, 한층 강화된 시네마틱한 환경을 구현했다. 볼드윈은 “이런 경험은 난생 처음이었다”라고 놀라움을 표현했다. 이 콘서트 신에서 수백 개의 라이팅에 애니메이션을 적용한 뒤, 이미지웍스 팀은 이를 USD를 통해 파운드리(Foundry)의 카타나(Katana)로 익스포트할 수 있는 플러그인을 제작했고, 그 결과 언리얼 엔진과 카타나 간 라이팅을 거의 일대일에 가깝게 일치시킬 수 있었다. 홈즈는 “프레임마다 키를 베이킹하지 않고도 카타나에서 언리얼 엔진 애니메이션을 유지할 수 있도록 F 커브를 익스포트하는 방식을 개발했다. 그렇게 하면 수천 프레임에 달하는 불필요한 데이터가 추가로 생성되지 않는다”고 설명했다. 원본 라이팅 커브를 유지함으로써 프리비즈부터 최종 라이팅까지 콘서트의 리듬과 에너지를 그대로 유지할 수 있었다. 이를 통해 아티스트들은 복잡한 애니메이션을 다시 제작할 필요 없이 반복 작업을 이어갈 수 있었다. ‘케이팝 데몬 헌터스’에서의 이러한 라이팅 실험을 통해 이미지웍스는 리얼타임과 기존 라이팅 워크플로 간의 경계를 확장할 수 있었다.   ▲ 소니 픽처스 이미지웍스 제공   차세대 애니메이션 파이프라인 구축 ‘케이팝 데몬 헌터스’는 강력한 최첨단 기술이 애니메이션 제작 방식을 어떻게 혁신하고 있는지를 보여주는 대표적인 사례이다. 이 프로젝트에서 소니 픽처스 이미지웍스는 CG 레이아웃 파이프라인 전반을 재정비해 다양한 영역을 현대화했으며, 리얼타임 기술과 USD 프레임워크를 결합해 이전에는 불가능했던 방식으로 부서 간 협업을 이뤄냈다. 홈즈는 “이번 작품에서 구축한 기반 덕분에 현재와 향후 프로젝트에서 레이아웃과 프리비즈 과정의 속도와 효율이 20~25% 가량 향상될 것으로 기대하고 있다”고 전했다. 볼드윈은 “언리얼 엔진이 무엇을 할 수 있는지, 우리가 무엇을 해낼 수 있는지 알고 있었기 때문에 그대로 실행에 옮겼다. 그 결과 현재는 매우 견고한 파이프라인을 구축하게 되었다”고 설명했다.   ▲ 소니 픽처스 이미지웍스 제공   소니 픽처스 이미지웍스 팀은 신 개발 방식을 간소화하고 파이프라인을 재정립함으로써 퍼포먼스와 스케일, 그리고 시각적인 에너지에 더욱 집중할 수 있었으며, 이는 ‘케이팝 데몬 헌터스’의 핵심인 역동적인 스토리텔링을 뒷받침했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-04-02
아비바-엔비디아, ‘AI 팩토리’ 위한 디지털 트윈 아키텍처 공개
아비바는 엔비디아와 협력해 자사의 엔지니어링 및 운영 소프트웨어를 엔비디아 옴니버스 DSX 블루프린트(NVIDIA Omniverse DSX Blueprint)에 통합했다고 밝혔다. 이를 통해 기가와트급 AI 팩토리를 위한 새로운 라이프사이클 디지털 트윈 아키텍처를 선보였다. 양사는 대규모 데이터센터에 적용할 수 있는 물리적·디지털 모듈을 공동 개발하고 이를 AI 팩토리 형태로 구현한다. 이 방식은 기존 AEC(엔지니어링·조달·시공) 프로젝트에서 검증된 방법론을 기반으로 삼았다. 이번 협력은 아비바의 산업 인텔리전스 플랫폼 커넥트와 산업용 디지털 트윈 기술 포트폴리오를 중심으로 진행한다. 기업은 도메인 특화 시뮬레이션과 디지털 시각화, 협업 설계 도구를 통해 GPU 활용 효율을 높일 수 있다. 아비바에 따르면 AI의 토큰 생성에 걸리는 시간을 줄여 AI 팩토리 구축 속도와 확장성을  높일 수 있다. 아비바는 슈나이더 일렉트릭, 이탭(ETAP)과 맺은 전략적 파트너십을 이번 협력과 연계한다. 세 기업은 엔비디아 옴니버스 DSX 블루프린트 기반 AI 팩토리의 설계부터 시뮬레이션, 구축, 운영, 최적화 전 과정을 공동으로 고도화하고 있다. 이를 통해 아비바가 보유한 산업 전문성을 AI 인프라 영역으로 확장한다는 전략이다.     아비바는 설루션 통합을 통해 AI 팩토리의 전체 생애주기에 걸쳐 디지털 트윈의 가치를 제공한다는 비전을 내세웠다. 우선 오픈USD 기반 심레디(SimReady) 자산을 아비바 유니파이드 엔지니어링(AVEVA Unified Engineering)으로 가져올 수 있는 신규 컨버터를 제공한다. 이를 통해 기존 자산 재사용과 고정밀 시뮬레이션 환경 활용이 가능해진다. 아비바 자산 정보 관리(AVEVA Asset Information Management)를 활용하면 단일 데이터 소스를 바탕으로 설계부터 운영까지 장비와 시스템을 일관되게 관리할 수 있다. 아비바 프로세스 시뮬레이션(AVEVA Process Simulation)은 AI 팩토리의 고급 액체 냉각 네트워크를 모델링하고 시뮬레이션하여 설계를 최적화하고 냉각 효율을 높이는 데 쓰인다. 아비바 PI 시스템(AVEVA PI System)은 엔비디아 옴니버스 DSX 익스체인지 전반에서 IT와 OT 데이터를 통합 수집하고 분석한다. 향후 엔비디아 NV-태서랙트(NVIDIA NV-Tesseract) 모델을 적용해 이상 탐지와 예측 기능까지 확대할 계획이다. 이를 통해 냉각 시스템과 서버 랙 등에서 발생하는 데이터를 실시간으로 분석할 수 있다. 아비바 오퍼레이션 컨트롤(AVEVA Operations Control)과 유니파이드 오퍼레이션 센터(Unified Operations Center)는 전력과 기계, 안전 시스템을 하나의 통합 플랫폼으로 관리한다. 상황 인식 기반 템플릿을 통해 장애 원인 분석과 대응 권고, 성능 저하 추세 파악 등이 가능하다. 고객은 고밀도 AI 팩토리 환경에서도 안정적인 운영을 구현하고 차세대 AI 인프라 구축을 앞당길 수 있다. 아비바의 롭 맥그리비 최고제품책임자는 “AI 팩토리는 글로벌 디지털 경제를 견인하는 핵심 인프라로 자리 잡고 있다”면서, “아비바와 엔비디아는 전문성과 소프트웨어, 운영 역량을 결합해 새로운 디지털 트윈 구축 방식을 제시하고 있다”고 전했다. 엔비디아의 블라디미르 트로이 AI 인프라 부문 부사장은 “기가와트급 AI 팩토리의 확산은 설계부터 운영까지 전체 생애주기를 최적화할 수 있는 산업 지능을 요구한다”면서, “아비바의 소프트웨어를 엔비디아 옴니버스 DSX 블루프린트에 통합함으로써 개발자들이 AI 인프라를 더 빠르고 효율적으로 구축할 수 있게 됐다”고 밝혔다.
작성일 : 2026-03-20
엔비디아, GTC 2026에서 ‘피지컬 AI’ 시대의 개막을 알리다
엔비디아가 자사의 AI 및 가속 컴퓨팅 콘퍼런스인 ‘엔비디아 GTC 2026’에서 에이전틱, 피지컬, 헬스케어 AI의 차세대 혁신을 가속화하기 위한 오픈 모델 제품군을 확장한다고 발표했다. 이번 발표의 핵심은 디지털 세계의 지능을 물리적 세계로 확장하는 ‘피지컬 AI(physical AI)’의 구현과 이를 뒷받침하는 데이터 인프라의 개방에 있다. 엔비디아 젠슨 황 CEO는 GTC 2026의 기조연설에서 “피지컬 AI의 시대가 도래했다”고 선언하면서 “이제 모든 산업 기업은 로봇 기업이 될 것”이라고 강조했다. 엔비디아는 개발자와 과학자가 디지털과 실제 환경 모두에서 스스로 추론하고 행동할 수 있는 지능형 시스템을 구축하도록 지원하는 새로운 모델을 선보였다. 엔비디아는 풀스택(full-stack) 플랫폼을 통해 컴퓨팅 자원부터 오픈 모델, 소프트웨어 프레임워크를 아우르며 전 세계 생태계를 하나로 묶는다는 비전을 제시했다. 차세대 스마트 공장과 물류, 운송, 인프라를 혁신할 지능형 기계를 만들어 나갈 토대를 만들겠다는 것이다. 특히 엔비디아는 피지컬 AI의 성공이 방대한 양의 데이터를 생성하는 능력에 달려 있다고 보고, 컴퓨팅을 고품질 데이터로 전환하는 새로운 유형의 에이전트 엔진을 제시했다.이러한 전략에 따라, 엔비디아는 대규모 피지컬 AI 시스템 훈련에 드는 비용과 시간, 복잡성을 줄이는 개방형 레퍼런스 아키텍처인 ‘피지컬 AI 데이터 팩토리 블루프린트(Physical AI Data Factory Blueprint)’를 공개했다. 개발자는 이 블루프린트를 사용해 엔비디아 코스모스(Cosmos) 오픈 월드 파운데이션 모델과 코딩 에이전트를 통해 제한된 훈련 데이터를 방대하고 다양한 데이터세트로 변환할 수 있다. 여기에는 현실 세계에서 포착하기 어려운 돌발 상황과 롱테일(long-tail) 시나리오가 포함되어 모델의 신뢰성을 높인다.     기술적인 성과로는 합성 세계 생성, 피지컬 AI 추론, 행동 시뮬레이션을 하나로 통합한 월드 파운데이션 모델(World Foundation Model : WFM)인 ‘엔비디아 코스모스 3’가 발표됐다. 이 모델은 피지컬 AI가 복잡한 환경에서도 원활하게 작동할 수 있도록 지원하며, 로봇이 상황을 인지하고 판단해 행동하는 자율성을 갖추게 한다. 휴머노이드 로봇 전용 모델인 엔비디아 아이작(Isaac) GR00T N1.7 버전은 실제 환경에 즉시 투입 가능한 상용화 수준에 도달했으며, 성공률을 2배 높인 차세대 GR00T N2 모델도 공개되었다.엔비디아는 글로벌 로봇 기업과의 협력을 통해 강력한 생태계를 구축하고 있다고 밝혔다. 전 세계 200만 대 이상의 로봇 설치 기반을 보유한 화낙, ABB, 야스카와, 쿠카는 엔비디아 아이작 시뮬레이션 프레임워크를 자사의 가상 시운전 설루션에 통합했다. 이를 통해 물리적으로 정교하게 구현된 디지털 트윈 환경에서 복잡한 로봇 애플리케이션과 생산 라인 전체를 개발하고 검증할 수 있게 됐다. 또한 젯슨(Jetson) 모듈을 컨트롤러에 탑재해 에지(edge)에서 실시간 AI 추론이 가능한 시스템을 구축 중이다. 국내 기업의 참여도 눈에 띈다. 엘지전자는 휴머노이드 로봇의 본격적인 현장 배치를 위해 엔비디아 아이작 GR00T N1.7을 채택했다. 삼성은 가상 환경에서 정교한 케이블 핸들링 공정을 숙달할 수 있도록 엔비디아의 물리 엔진을 활용해 조립 로봇을 훈련시키고 있다. 이외에 폭스콘 역시 스킬드 AI(Skild AI)와 협력하여 엔비디아 블랙웰(Blackwell) 생산 라인의 고정밀 조립 작업에 AI 기반의 듀얼암 로봇을 투입하여 성과를 내고 있다. 인프라 측면에서는 티모바일이 엔비디아, 노키아와 협력하여 5G 네트워크를 분산형 AI 컴퓨터로 전환함으로써 전 세계 에지 AI 인프라를 위한 확장 가능한 청사진을 만들고 있다. 마이크로소프트 애저와 네비우스는 엔비디아의 데이터 팩토리 블루프린트를 각 사의 클라우드 서비스에 통합했다. 이를 통해 개발자는 가속 컴퓨팅 성능을 대규모 훈련 데이터로 즉시 전환하고, 차세대 자율 시스템과 로봇을 현실로 구현하는 에이전트 기반 워크플로를 지원받게 된다. 헬스케어와 과학 연구 분야에서도 혁신이 이어지고 있다. 엔비디아는 단백질 결합체 설계를 위한 생성형 모델인 ‘프로티나-콤플렉사(Proteina-Complexa)’를 공개해 신약 개발 속도를 높이고 있다. 존슨앤드존슨 메드테크와 씨엠알 서지컬은 수술 로봇 시스템의 임상 배포와 훈련을 위해 엔비디아 코스모스와 아이작 심(Isaac Sim)을 도입했다. 이외에도 디즈니는 엔비디아의 물리 시뮬레이션 기술을 활용해 올라프 로봇과 드로이드의 자율 주행 능력을 강화하는 등, 엔비디아의 피지컬 AI 기술은 산업 전반으로 확산되고 있다.
작성일 : 2026-03-17
언리얼 엔진 5.7 : 현실감 높은 대규모 월드 구현과 더 강력해진 통합 워크플로
개발 및 공급 : 에픽게임즈 주요 특징 : 고도화된 오픈 월드 제작 기능 추가, 확장 가능한 고품질 렌더링 기능, 메타휴먼 통합 강화, 애니메이션 및 리깅 툴세트 개선, 버추얼 프로덕션 워크플로 향상, AI 어시스턴트 지원 등   풍부하고 아름다운 디테일로 가득한 사실감 넘치는 광활한 월드를 제작할 수 있으면서도 현세대 하드웨어에서 고퀄리티로 실시간 렌더링할 수 있는 다양한 툴을 제공하는 언리얼 엔진 5.7(Unreal Engine 537)이 출시됐다. 언리얼 엔진 5.7은 밀도 높고 울창한 대규모의 식생과 다양한 콘텐츠를 절차적으로 생성하고, 물리적으로 정확하게 복잡한 레이어드 및 블렌디드 머티리얼을 제작할 수 있으며, 이전보다 훨씬 더 많은 라이트를 자유롭게 활용해 더욱 예술적인 방식으로 월드를 표현할 수 있다. 또한, 더 강력하고 직관적인 애니메이션과 리깅 워크플로, 한층 깊고 유연해진 메타휴먼 통합을 비롯 확장된 버추얼 프로덕션 기능을 경험할 수 있다. 새롭게 추가된 언리얼 에디터 내의 AI 어시스턴트는 개발 과정 전반에서 전문적인 도움을 제공한다.   고도화된 오픈 월드 제작 환경을 빠르고 자연스럽게 구성하면서도, 짧은 시간 안에 몰입감 넘치는 게임 경험을 구현할 수 있는 프로시저럴 콘텐츠 제너레이션 프레임워크(PCG)가 이제 정식 버전으로 제공된다. 역동적이면서 시각적으로 풍부한 대규모 월드를 더 쉽고 효율적으로 제작할 수 있도록 다양한 기능이 향상되었다. 예를 들어, 새로운 PCG 에디터 모드는 스플라인 드로잉, 포인트 페인팅, 볼륨 생성 등 다양한 기능을 지원하는 PCG 프레임워크 기반의 커스터마이징 가능한 툴 라이브러리를 제공한다. 각 툴은 PCG 그래프에 연결되어 실시간으로 파라미터를 조정하거나 애셋 워크플로를 독립적으로 실행할 수 있으며, 단 한 줄의 코드를 작성하지 않고도 프로젝트에 맞는 새로운 툴을 만들어 라이브러리를 확장할 수도 있다.   ▲ PCG 에디터 모드(출처 : 언리얼 엔진 홈페이지)   여기에 더해, 다수의 성능 최적화 덕분에 PCG GPU 연산 속도가 빨라졌다. 또한 GPU 파라미터 설정 기능이 추가되어 GPU 노드 작업 시 다양한 파라미터 값을 동적으로 설정할 수 있다. 처음부터 직접 툴을 제작하는 경우, 새로운 Polygon2D 데이터 타입과 관련 연산자를 통해 한층 더 유연하게 작업할 수 있다. 이를 통해 표면이나 스플라인으로 변환할 수 있는 폐쇄 영역을 정의할 수 있고, 스플라인 교차점(spline Intersection) 및 스플라인 분할(split spline) 연산자도 새롭게 추가됐다.   ▲ ‘더 위쳐 4’ 언리얼 엔진 5 테크 데모(출처 : 언리얼 엔진 홈페이지)   PCG 프레임워크는 사용자가 그 위에 자신만의 시스템을 구축할 수 있는 프레임워크로, 새로운 프로시저럴 베지테이션 에디터(PVE)는 이 시스템의 가능성을 보여주는 좋은 예시이다. PVE는 속도, 확장성, 그리고 유연한 제작을 위해 설계된 그래프 기반 툴로 언리얼 엔진 내에서 고퀄리티의 식생 애셋을 실시간으로 제작하고 커스터마이징할 수 있으며, 나나이트 스켈레탈 어셈블리를 직접 출력할 수 있는 옵션도 제공한다.   ▲ 프로시저럴 베지테이션 에디터(출처 : 언리얼 엔진 홈페이지)   이번 첫 번째 실험 단계 버전에서는 PVE를 새로운 퀵셀 메가플랜트(Quixel Megaplants) 애셋과 함께 사용할 수 있다. 이 애셋은 이제 팹(Fab)에서 제공되며, 콘텐츠 브라우저로 직접 다운로드할 수 있다. 첫 번째 컬렉션에는 크기와 구조가 다른 5종의 식물이 포함되어 있으며, 나무, 관목, 풀, 식물 등 수백 가지의 식생 프리셋이 향후 추가될 예정이다.   ▲ 퀵셀 메가플랜트(출처 : 언리얼 엔진 홈페이지)   확장 가능한 고퀄리티 렌더링 정교한 식생을 만드는 것과 정교한 식생으로 가득 찬 월드를 효율적으로 렌더링하는 것은 완전히 다른 문제이다. 언리얼 엔진 5.7에는 성능, 안정성, 확장성을 위해 설계된 실험 단계의 새로운 지오메트리 렌더링 시스템인 나나이트 폴리지(Nanite Foliage)가 추가됐다. 나나이트 폴리지를 사용하면 대규모 오픈 월드에서 디테일하고 밀도 높은 식생 환경을 제작하고, 애니메이션을 적용할 수 있으며, 이는 현세대 하드웨어에서도 효율적으로 렌더링된다. 이 기능은 나나이트 복셀을 활용해 나무의 윗부분, 솔잎, 지면의 잔디 등 수백만 개의 미세하고 겹쳐 있는 요소를 효율적으로 자동 렌더링하여, 멀리서 보면 하나의 밀도감 있는 덩어리처럼 보이게 한다. 이를 통해 LOD를 제작할 필요 없이 크로스 페이드, 팝 현상 없이도 안정적인 프레임 속도를 유지할 수 있다. 또한 나나이트 폴리지는 나나이트 어셈블리를 활용해 저장 공간, 메모리, 렌더링 비용을 줄이고, 나나이트 스키닝을 통해 바람 등에 반응하는 동적 움직임을 구현한다. PVE에서 나나이트 폴리지와 호환되는 메시를 렌더링할 수 있을 뿐만 아니라, USD를 통해 외부 애플리케이션에서 제작된 나무를 가져올 수도 있다.   ▲ 나나이트 폴리지(출처 : 언리얼 엔진 홈페이지)   강력한 툴세트 중 하나인 서브스트레이트(Substrate)도 정식 버전으로 제공한다. 서브스트레이트는 언리얼 엔진의 최첨단 모듈형 머티리얼 제작 및 렌더링 프레임워크로, 레이어드 및 블렌디드 머티리얼을 기본적으로 지원한다. 서브스트레이트는 금속, 클리어 코트, 피부, 천 등 다양한 재질의 특성을 물리적으로 정확하게 고퀄리티로 결합할 수 있게 해준다. 이를 통해 다중 레이어 자동차 도색, 오일 가죽, 피부 위의 피와 땀 같은 사실적인 재질 표현을 손쉽게 구현할 수 있으며, 또한 커스텀 셰이딩 특성을 정교하게 조정할 수 있어 엔진 수정 없이도 고유한 머티리얼 로직을 직접 만들 수 있다. 서브스트레이트는 언리얼 엔진의 라이팅 파이프라인에 통합되어, 모든 재질에 고퀄리티의 결과를 제공한다. 또한 모바일까지 포함해 모든 UE5 타깃 플랫폼에서 일관된 성능과 비주얼 퀄리티를 지원한다.   ▲ 서브스트레이트(출처 : 언리얼 엔진 홈페이지)   메가라이트(MegaLights)는 언리얼 엔진 5.7을 통해 실험 단계에서 베타로 전환됐다. 메가라이트를 활용하면 신(scene)에 훨씬 더 많은 다이내믹 섀도를 생성하는 라이트를 추가할 수 있어, 에어리어 라이트 같은 복잡한 광원에서도 사실적이고 부드러운 그림자 효과를 구현할 수 있다. 이처럼 확장성이 높은 라이팅 워크플로 덕분에 이전보다 더 자유롭게 작업하면서, 더 크고 풍부하며 복잡한 월드를 제작할 수 있다. 또한, 디렉셔널 라이트, 반투명, 나이아가라 파티클 그림자 생성, 그리고 헤어의 빛과 그림자 표현이 더 정교해져 비주얼 퀄리티가 향상됐다. 이와 더불어 기본 성능과 노이즈 감소 기능이 강화되었으며, 수동으로 라이트를 최적화할 필요성도 줄어들었다.   ▲ 메가라이트(출처 : 언리얼 엔진 홈페이지)   확장된 메타휴먼 통합 메타휴먼(MetaHuman)은 언리얼 엔진을 비롯한 파이프라인 내 다양한 툴과의 통합이 한층 강화되고 있다. 메타휴먼 크리에이터 언리얼 엔진 플러그인이 리눅스 및 맥OS를 지원해, 이들 플랫폼 사용자도 언리얼 엔진 통합이 제공하는 모든 혜택을 활용할 수 있다. 메타휴먼 애니메이터의 리눅스 및 맥OS 지원은 향후 버전에서 제공될 예정이다.   ▲ 메타휴먼(출처 : 언리얼 엔진 홈페이지)   이번 출시 버전에서는 파이썬(Python) 또는 블루프린트 스크립팅을 사용해 언리얼 에디터에서 실시간으로 또는 렌더 팜에서 오프라인으로 메타휴먼 캐릭터 애셋의 거의 모든 편집 및 조합 작업을 자동화하고 일괄 처리할 수 있다. 다양한 포즈의 메시를 맞출 수 있는 기능이 추가되어 템플릿과 모델 메시 간에 UV 공간 기반 버텍스 대응 옵션을 제공하며, FBX를 통해 외부 DCC 툴과의 메시 연동을 지원한다. 애니메이션 측면에서도 라이브 링크 페이스를 아이패드 또는 안드로이드 디바이스의 외부 카메라와 연동해 실시간으로 애니메이션을 생성하고 연기를 녹화할 수 있다. 이를 통해 보다 간편하고 비용 효율적인 리얼타임 페이셜 캡처 설루션을 구현할 수 있다.   ▲ 라이브 링크 페이스(출처 : 언리얼 엔진 홈페이지)   마지막으로 헤어 스타일링 측면에서도 두 가지 주요 업데이트가 추가되었다. 언리얼 엔진에서 조인트 기반 변형, 페인팅, 메시 기반 조작을 통해 헤어 가이드와 스트랜드를 직접 제작하고 조정할 수 있으며, 시뮬레이션된 헤어 피직스와 아티스트가 연출한 애니메이션을 블렌딩할 수 있다. 최신 후디니(Houdini)용 메타휴먼 업데이트에서는 사전에 제작된 데이터를 사용해 헤어스타일을 제작할 수 있는 가이드 기반 워크플로를 제공한다. 이 툴에는 조정할 수 있는 다양한 헤어스타일 프리셋이 포함되어 있어 이를 시작점으로 활용할 수 있다.   한층 강화된 에디터 내 애니메이션 툴세트 언리얼 엔진 5.6에서 에디터 내 리깅 및 애니메이션 제작 툴세트가 대폭 강화된 데 이어, 5.7 버전에서는 새롭게 개선된 애니메이션 모드가 추가되어 워크플로를 간소화하고 화면 공간 활용을 최적화했다. 애니메이터라면 누구나 알 수 있듯, 리그(rig)나 여러 애셋에서 다수의 컨트롤을 반복적으로 선택하는 작업은 번거롭고 시간이 많이 소요되는데, 셀렉션 세트 기능이 추가되어 클릭 한 번만으로 해결할 수 있다. 이 기능은 캐릭터 양쪽에 미러링된 사본을 자동으로 생성하고, 작업의 집중도를 위해 세트를 숨기거나 표시하는 기능을 제공하며, 팀원 간에 세트를 공유할 수도 있다.   ▲ 셀렉션 세트(출처 : 언리얼 엔진 홈페이지)   IK 리타기터(IK Retargeter)가 개선되어 발과 지면의 접촉이 한층 자연스러워지고, 찌그러지거나 늘어나는 애니메이션의 리타기팅을 지원한다. 추가로 공간 인식 기반 리타기팅을 통해 캐릭터의 자체 충돌을 방지하고, 캐릭터의 크기와 관계없이 상대적 비율에 따라 접촉점이 유지되도록 한다.   ▲ IK 리타기터(출처 : 언리얼 엔진 홈페이지)   리깅 측면에서 언리얼 엔진 5.7은 업계 표준 스컬프팅 워크플로 수준의 유연성을 제공한다. 업데이트된 스켈레탈 에디터를 활용하면 스켈레탈 메시 상에서 본 배치, 웨이트 페인팅, 블렌드 셰이프 스컬프팅 사이를 매끄럽게 전환할 수 있다. 즉각적인 업데이트 덕분에 50~100개의 블렌드 셰이프를 갖춘 리그 제작도 훨씬 쉬워졌다.   ▲ 블렌드 셰이프 스컬프팅(출처 : 언리얼 엔진 홈페이지)   다음으로, 단방향 피직스 월드 콜리전 지원이 새롭게 추가되어 이제 캐릭터를 신에 배치해 환경 내 사물과 상호작용하며 보다 사실적인 래그돌, 역동적인 게임플레이, 몰입감 있는 애니메이션 테스트를 구현할 수 있다.   ▲ 피직스 월드 콜리전(출처 : 언리얼 엔진 홈페이지)   마지막으로, 새로운 디펜던시 뷰가 추가되어 컨트롤 리그 또는 모듈형 컨트롤 리그의 데이터 흐름을 명확한 노드 기반 그래프로 시각화할 수 있다. 이를 통해 복잡한 컨트롤 설정을 더 빠르고 쉽게 디버깅하거나 최적화할 수 있다.   ▲ 디펜던시 뷰(출처 : 언리얼 엔진 홈페이지)   향상된 버추얼 프로덕션 워크플로 언리얼 엔진 5.7에는 버추얼 프로덕션의 새로운 가능성을 제시하는 여러 기능이 추가됐다. 모션 캡처 작업을 위한 새로운 프롭용 다이내믹 컨스트레인트 컴포넌트가 추가됐으며, 모캡 매니저에서 예시 구현도 함께 제공된다. 이제 오브젝트는 손 위치에 자동으로 부착되어 저글링과 같은 복잡한 동작에서도 자연스럽고 부드러운 결과를 제공한다. 또한 블루프린트에서 이 기능을 확장해 자신만의 다이내믹 컨스트레인트 로직과 동작을 구현할 수도 있다.   ▲ 프롭용 다이내믹 컨스트레인트 컴포넌트(출처 : 언리얼 엔진 홈페이지)   새롭게 추가된 라이브 링크 브로드캐스트 컴포넌트를 통해 언리얼 엔진 자체가 네트워크 전반에서 애니메이션 데이터의 소스로 동작할 수 있다. 이를 통해 다양한 멀티 머신 기반 버추얼 프로덕션(VP) 및 모캡 스테이지 워크플로를 구현할 수 있다. 예를 들어, 리타기팅 작업을 다른 에디터 세션으로 분리해 처리하고 그 결과를 메인 신으로 전송할 수 있다. 레벨에 액터를 추가한 뒤 라이브 링크 서브젝트로 전환하면, 에디터에서 트랜스폼, 카메라, 애니메이션 데이터를 직접 스트리밍할 수 있다.   ▲ 라이브 링크 브로드캐스트 컴포넌트(출처 : 언리얼 엔진 홈페이지)   또한, 이번 버전에는 언리얼 엔진이 기본 제공하는 실시간 합성 툴인 컴포셔(Composure)가 새롭게 향상됐다. 접근성이 향상된 컴포셔는 이제 라이브 비디오 입력과 파일 기반의 이미지 미디어 플레이트를 모두 처리하며, 24fps의 영화나 영상에 실시간으로 결과물을 제공할 수 있다. 이와 함께, 이번 업데이트로 새롭게 추가된 그림자와 반사 통합 기능과 향상된 키어 기능으로 실사 영상과 CG 요소를 자연스럽게 결합할 수 있다.   ▲ 컴포셔(출처 : 언리얼 엔진 홈페이지)   즉시 도움을 받을 수 있는 AI 어시스턴트 언리얼 엔진 5.7에는 새로운 AI 어시스턴트가 도입되어 에디터 내에서 직접 언리얼 엔진 관련 가이드를 제공하며, 마치 숙련된 UE 개발자가 팀에 있는 것처럼 필요한 만큼 자세한 도움을 즉시 받을 수 있다. 또한 현재 작업에 집중할 수 있도록 전용 슬라이드 아웃 패널을 통해 에디터를 벗어나지 않고도 질문을 하거나, C++ 코드를 생성할 수 있고, 단계별 안내를 받을 수 있다.   ▲ AI 어시스턴트(출처 : 언리얼 엔진 홈페이지)   질문을 입력하는 것 외에도, 인터페이스 요소 위에 커서를 두고 F1 키를 눌러 툴팁처럼 손쉽게 AI 어시스턴트를 불러와 해당 주제에 대한 대화를 시작할 수 있다. 언리얼 에디터 홈 패널에서 튜토리얼, 문서, 뉴스, 포럼 등 주요 리소스와 최근 프로젝트를 바로 이용할 수 있다. 언리얼 엔진을 처음 사용한다면, 언리얼 에디터에서 바로 실행되는 인터랙티브형 시작하기 샘플을 이용하면 된다.   ▲ 언리얼 에디터 홈 패널(출처 : 언리얼 엔진 홈페이지)   그 외 개선 사항 지금까지 살펴본 주요 기능 외에도 언리얼 엔진 5.7은 다양한 신규 기능과 향상된 기능을 제공한다. 모든 업데이트에 대한 자세한 내용은 출시 노트에서 확인할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-12-02
에픽게임즈, 언리얼 엔진 5.7에서 고도화된 오픈 월드 구현과 더 강력해진 통합 워크플로 지원
에픽게임즈는 다양한 신규 기능 및 개선 사항이 추가된 언리얼 엔진 5.7을 정식 출시했다고 발표했다. 이번 언리얼 엔진 5.7 업데이트는 풍부한 디테일로 사실감 넘치는 광활한 월드를 제작하고, 현세대 하드웨어에서 고퀄리티로 실시간 렌더링할 수 있는 다양한 툴을 제공한다. 그리고 복잡한 레이어드 및 블렌디드 머티리얼을 물리적으로 정확하게 제작할 수 있으며, 이전보다 더 많은 라이트를 자유롭게 활용할 수 있다. 또한, 더 강력하고 직관적인 애니메이션과 리깅 워크플로, 한층 깊고 유연해진 메타휴먼 통합, 확장된 버추얼 프로덕션 기능과 함께 새롭게 추가된 언리얼 에디터 내 AI 어시스턴트가 개발 과정 전반에서 전문적인 도움을 제공한다.     언리얼 엔진 5.7에서는 프로시저럴 콘텐츠 제너레이션 프레임워크(PCG)가 정식 버전으로 제공되어 환경을 빠르고 자연스럽게 구성하면서도 몰입감 높은 대규모 월드를 더 쉽고 효율적으로 제작할 수 있다. 새로운 PCG 에디터 모드는 스플라인 드로잉, 포인트 페인팅, 볼륨 생성 등 다양한 기능을 지원하는 커스터마이징 가능한 툴 라이브러리를 제공한다. 다수의 성능 최적화 덕분에 PCG GPU 연산 속도가 획기적으로 빨라졌고, GPU 파라미터 설정 기능이 추가되어 다양한 파라미터 값을 동적으로 설정할 수 있게 됐다. 또한, 새로운 폴리곤 2D 데이터 타입과 관련 연산자를 통해 한층 더 유연하게 제작할 수 있고, 스플라인 교차점(Spline Intersection) 및 스플라인 분할(Split Spline) 연산자도 새롭게 추가됐다. 이와 함께 프로시저럴 베지테이션 에디터(PVE)가 추가돼 엔진 내에서 고퀄리티의 식생 애셋을 실시간으로 제작하고 커스터마이징할 수 있다. 팹(Fab)을 통해서도 5종의 퀵셀 메가플랜트 애셋을 다운로드할 수 있으며, 향후 수백 종의 식물 프리셋이 추가될 예정이다. 언리얼 엔진 5.7에서는 나나이트 폴리지, 서브스트레이트, 메가라이트 등 렌더링 기술 전반이 더욱 향상됐다. 새로운 지오메트리 렌더링 시스템인 나나이트 폴리지가 추가되어 대규모 오픈 월드에서 매우 디테일하고 밀도 높은 식생 환경을 제작하고 애니메이션을 적용할 수 있다. LOD를 제작할 필요 없이 크로스 페이드, 팝 현상 없이도 안정적인 프레임 속도를 유지할 수 있으며, 나나이트 어셈블리를 활용해 저장 공간, 메모리, 렌더링 비용을 줄이고, 나나이트 스키닝을 통해 바람 등에 반응하는 동적 움직임을 구현한다. 언리얼 엔진의 최첨단 모듈형 머티리얼 제작 및 렌더링 프레임워크인 서브스트레이트도 정식 버전으로 제공된다. 이 프레임워크는 레이어드와 블렌디드 머티리얼을 지원해 금속, 클리어 코트, 피부, 천 등 다양한 머티리얼의 물리적 특성을 정확하게 고퀄리티로 결합할 수 있다. 이를 통해 다중 레이어 자동차 도색, 오일 가죽, 피부 위의 피와 땀 같은 사실적인 재질 표현을 손쉽게 구현할 수 있다. 메가라이트는 이번 버전에서 베타 버전으로 전환되었다. 신(scene)에 훨씬 더 많은 다이내믹 섀도를 생성하는 라이트를 추가할 수 있어 복잡한 광원에서도 사실적이고 부드러운 그림자 효과를 구현할 수 있다. 이를 통해 이전보다 훨씬 자유로운 라이팅 연출이 가능해져, 더 크고 풍부하며 복잡한 월드를 제작할 수 있다. 또한 디렉셔널 라이트, 반투명, 나이아가라 파티클 그림자 생성, 그리고 헤어의 빛과 그림자 표현이 더 정교해 비주얼 퀄리티가 향상되었다. 메타휴먼은 언리얼 엔진을 비롯한 파이프라인 내 다양한 툴과의 통합이 한층 강화됐다. 이제 메타휴먼 크리에이터 언리얼 엔진 플러그인이 리눅스 및 맥OS를 지원해 플랫폼 간 호환성과 접근성이 확대됐다. 파이썬 또는 블루프린트 스크립팅을 사용해 언리얼 에디터에서는 실시간으로, 렌더 팜에서는 오프라인으로 메타휴먼 캐릭터 애셋의 편집 및 조합 작업을 자동화하고 일괄 처리할 수 있다. 또한 다양한 포즈의 메시를 맞출 수 있는 기능도 추가됐으며, FBX 포맷을 통해 외부 DCC 툴과의 연동도 지원한다. 애니메이션의 경우, 라이브 링크 페이스를 아이패드 또는 안드로이드 디바이스의 외부 카메라와 연동해 실시간으로 애니메이션을 생성하고 연기를 녹화할 수 있다. 또한 언리얼 엔진에서 직접 헤어 가이드와 스트랜드를 제작하고 조정할 수 있으며, 후디니용 메타휴먼 업데이트를 통해 사전에 제작된 데이터를 활용해 헤어스타일을 효율적으로 제작할 수 있는 가이드 중심의 워크플로를 제공한다. 언리얼 엔진 5.6에서 에디터 내 리깅 및 애니메이션 제작 툴세트가 대폭 강화된 데 이어, 5.7 버전에서는 새롭게 개선된 애니메이션 모드가 추가돼 워크플로를 간소화하고 화면 공간 활용을 최적화할 수 있게 됐다. 셀렉션 세트 기능으로 다수의 컨트롤을 클릭 한 번으로 선택할 수 있고, IK 리타기터 개선으로 발과 지면의 접촉이 한층 자연스러워지고 찌그러지거나 늘어나는 애니메이션의 리타기팅을 지원한다. 리깅 부분에서는 업데이트된 스켈레탈 에디터를 통해 스켈레탈 메시 상에서 본 배치, 웨이트 페인팅, 블렌드 셰이프 스컬프팅 사이를 매끄럽게 전환하며 작업할 수 있다. 또한 단방향 피직스 월드 콜리전 기능이 추가돼 캐릭터와 환경 간 상호작용이 한층 사실적으로 구현되며, 새로운 디펜던시 뷰를 통해 컨트롤 릭 또는 모듈형 컨트롤 릭의 데이터 흐름을 명확한 노드 기반 그래프로 시각화해 효율적으로 디버깅과 최적화할 수 있게 됐다. 새롭게 추가된 프롭용 다이내믹 컨스트레인트 컴포넌트는 모션캡처 작업 후 오브젝트가 손 위치에 자동으로 부착되어 복잡한 동작에서도 자연스럽고 부드러운 결과를 제공한다. 이번 버전에는 라이브 링크 브로드캐스트 컴포넌트가 새롭게 추가돼, 언리얼 엔진 자체가 네트워크 전반에서 애니메이션 데이터의 소스로 동작할 수 있다. 이를 통해 다양한 멀티 머신 기반 버추얼 프로덕션(VP) 및 모캡 스테이지 워크플로를 효율적으로 구현할 수 있게 됐다. 또한, 언리얼 엔진의 실시간 합성 툴, 컴포셔가 향상돼 라이브 비디오와 파일 기반의 이미지 미디어를 모두 실시간으로 처리하며, 24fps의 영화나 영상에도 즉시 결과물을 제공한다. 그림자와 반사 통합 기능과 향상된 키어 기능으로 실사 영상과 CG를 더욱 자연스럽게 결합할 수 있다. 언리얼 엔진 5.6에 새롭게 도입된 AI 어시스턴트는 에디터 내에서 직접 언리얼 엔진 관련 가이드를 제공하며, C++ 코드 생성과 단계별 안내 등 실시간 지원 기능을 제공한다. 또한 언리얼 에디터 홈 패널에서는 튜토리얼, 문서, 뉴스, 포럼 등 주요 리소스를 한곳에서 이용할 수 있으며, 초보 사용자를 위한 인터랙티브형 시작하기 샘플도 함께 제공된다.
작성일 : 2025-11-13
[무료강좌] DX 시대에서 AX 시대로
설계, 데이터로 다시 쓰다 (2)   머뭇거릴 틈이 없다. 우리가 디지털 전환에 적응할 때쯤 선두 그룹은 벌써 AI(인공지능) 시대를 대비하고 있다. AI 전문가들도 과거 수십년 간의 성장보다 최근 몇 년의 급속한 발전에 놀라면서도 이제는 예측하기 어려운 속도에 두려워하기까지 한다. 이번 호에서는 AI 시대를 맞이하기 위해 우리가 준비해야 할 것이 무엇인지 알아보고자 한다.    ■ 최병열 피도텍에서 AI 기반 Data-driven Design SW 개발 총괄을 맡고 있다. 한양대에서 공학박사 학위를 받았고, 20여 년간 100여건의 최적 설계 프로젝트를 주도하며 컨설팅 경험을 쌓았다. 홈페이지 | www.pidotech.com   DX와 AX 지난 호에서 소개한 ‘중국제조 2025’ 정책에서 볼 수 있듯이, 향후 제조업의 성공 가능성을 높이는 방안 중 하나는 예측 기술의 발전이다. 강력한 드라이빙 포스(driving force)가 선진 기업에 적용되는 시뮬레이션, 데이터 생성 시스템, 최적설계 등의 효율적인 설계 프로세스를 구축할 수 있게 주도하였고, 인적, 물적, 정책적 지원을 뒷받침하면서 단숨에 AX(AI 전환)를 이끄는 선두 그룹에 탑승할 수 있는 기회를 제공하였다. 전통적인 개발 방식의 기업들이 도태되는 현실에서, 선두 그룹의 기업들은 DX(디지털 전환)에서 AX로의 전환을 신속하게 추진하고 있다. 뒤쳐져 있는 산업 구조를 재편할 수 있는 기회이지만 외면하면 경쟁에서 사라질 수도 있다는 위기감을 이들 기업은 명심하고 있다. 즉, 따라잡지 못하면 사라진다.    DX란? AX란? DX는 ‘디지털 전환’을 의미하고, 가상 프로토타이핑(Virtual Prototyping : VP)은 DX를 실행하기 위한 핵심 수단이 된다. 실제 물리적으로 손에 잡히는 것으로 측정하고 평가하던 방식(physical prototyping)을 가상의 공간에서 대체하는 방식으로 바뀌는 혁신이 이루어지고 있다. AX란 ‘AI transformation’의 약자로, 데이터 중심의 산업 변환을 의미한다. 엔지니어링의 핵심 가치는 예측하는 것이다. 현재 설계 안의 성능을 예측하고, 불량 가능성을 예측한다. DX 시대에서는 디지털 모델을 예측 도구로 삼았다면, AX 시대에서는 데이터를 예측 도구로 삼는다. 이제 DX를 넘어 AX가 빠르게 확산되고 있다.   그림 1. DX와 AX   휴머노이드 로봇을 예로 본다면, DX 시대에는 기본적인 동작 제어를 수학 모델로 프로그래밍하여 구현하던 방식이었다. 오랫동안 연구해 온 노하우가 주도하던 시대였다. 반면, AX 시대에서는 동작 데이터를 통한 학습으로 동작을 수행함에 따라 자연스러운 움직임이나 미세한 조작이 가능해졌다. 이제는 강화 학습을 통해 로봇이 유투브로 새로운 동작을 학습하는 시기에 접어들었다. 학습용 데이터를 확보할 수 있는 역량이 주도하는 시대로 변하고 있다.   그림 2. AX 시대로의 진입(출처 : The New York Times, Driverless Digest)   왜 DX에서 AX로 가야 하는가? 얼마전 미국 로스엔젤레스에서 웨이모(Waymo)의 자율주행 택시가 방화로 인한 화재로 전소되는 사건이 있었다. 정부 정책에 반대하는 시위대의 소행으로 추측된다. 2023년 이후 1년여 만에 자율주행 택시를 허가한 샌프란시스코의 운수업 시장에서 웨이모가 20%까지 점유율을 확대하면서 운전으로 생계를 이어가던 사람들에겐 상당한 위협으로 작용할 만큼 AI의 성장이 현실화되었다는 반증이다. 어느새 우리도 AX 시대로 진입하고 있다. 삼쩝삼, 닥터나우, 로톡, 타다와 같은 AI 플랫폼이 우리 주변에 자리잡고 있다. 세무사, 의사, 변호사, 운전기사의 직무를 위협하는 존재로 인식되어 거센 반발에 부딪혀 있지만 연이은 고소, 고발에 대한 무죄, 무혐의 판결이 늘어남에 따라 이제는 공생을 생각해야 할 시점이다. 제조 환경은 점점 더 복잡하고 불확실해지고 있다. 시장 변화의 속도는 빨라지고, 고객 요구는 다변화되고 있으며, 제품의 수명주기는 단축되고 있다. 이처럼 미래가 불확실할수록 데이터를 기반으로 한 예측과 시뮬레이션이 중요해진다. 최근에는 고성능 컴퓨팅 자원과 오픈소스 툴의 발달로 중소기업도 상대적으로 적은 비용으로 가상 환경을 구축할 수 있게 되었다.   성공 사례 엔비디아는 AI의 모든 스타일을 하나의 생태계에서 지원하여 산업 전반에 걸친 AI 설루션을 제공하는 리더이다. 엔비디아의 옴니버스 블루프린트(Omniverse Blueprint)는 ‘AI가 실제 환경에서 움직이고 판단하는 것을 디지털 트윈 안에서 먼저 완전히 학습하고 테스트할 수 있게 해주는 설계 도구’이다. 다음의 몇 가지 성공 사례로 AX 시대가 도래 되고 있음을 소개하고자 한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-11-04
에이수스, 엔비디아 GB10 기반 AI 슈퍼컴퓨터 ‘어센트 GX10’ 국내 출시
에이수스 코리아는 엔비디아 GB10 그레이스 블랙웰(Grace Blackwell) 기반의 개인용 AI 슈퍼컴퓨터 ‘Ascent GX10(어센트 GX10)’을 국내 공식 출시한다고 밝혔다. 에이수스 어센트 GX10은 높은 AI 성능과 공간 효율을 제공한다. 손바닥 정도의 사이즈임에도 최대 1000TOPs의 AI 성능을 구현하여 AI 연구원, 데이터 과학자뿐만 아니라 AI 기반 개발 및 연구를 필요로 하는 개인 및 기업 프로젝트에도 최적의 성능을 제공한다.     어센트 GX10은 내장된 GB10 그레이스 블랙웰 슈퍼칩을 통해 FP4 정밀도 기준 최대 1페타플롭의 AI 성능을 지원한다. 이를 위해 최신 세대 CUDA(쿠다) 코어와 5세대 텐서(Tensor) 코어를 탑재하였으며, NVLink C2C 인터커넥트를 통해 연결된 20개의 Arm 아키텍처 기반 고효율 코어를 포함하고 있다. 또한 128GB의 통합 시스템 메모리를 통해 최대 2000억개의 매개변수를 처리할 수 있으며, 엔비디아 커넥트X(NVIDIA ConnectX) 네트워크 인터페이스 카드를 활용해 GX10 시스템 두 대를 연결하여 라마 3.1(Llama 3.1)과 같이 더 많은 매개변수를 가진 대형 AI 모델도 효율적으로 학습하고 처리할 수 있다. 에이수스는 어센트 GX10이 가진 성능을 최대한 발휘할 수 있는 간편한 AI 모델 개발을 위한 쉬운 개발 환경을 제공한다. 개발자는 엔비디아 AI 소프트웨어 라이브러리를 사용할 수 있으며, 엔비디아 NGC 카탈로그와 엔비디아 개발자 포털에서 제공되는 소프트웨어 개발 키트(SDK), 오케스트레이션 도구, 프레임워크, 모델 등 다양한 리소스를 지원받을 수 있다. 여기에 더해 에이전트 AI 애플리케이션 구축을 위한 엔비디아 블루프린트(NVIDIA Blueprints)와 NIM 마이크로 서비스도 지원하여 다양한 연구 및 개발, 테스트가 가능하다. 에이수스는 국내 공식 대리점인 코잇, 크로스젠, 유니퀘스트, 대원CTS를 통해 어센트 GX10의 구매 및 상담이 가능하다고 전했다.
작성일 : 2025-10-31
엔비디아, 3D 객체를 빠르게 만들기 위한 ‘AI 블루프린트’ 공개
엔비디아가 3D 객체 생성을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint for 3D object generation)’를 공개했다. 이는 3D 아티스트가 간단한 텍스트 프롬프트만으로 최대 20개의 3D 객체를 생성해 특정 장면의 프로토타입을 만들 수 있도록 지원한다. 3D 아티스트는 끊임없는 프로토타이핑 작업 문제에 직면하고 있다. 전통적인 워크플로에서는 3D 장면 구현을 위해 저충실도 임시 애셋을 제작하고, 핵심 요소가 제자리에 배치될 때까지 수정을 반복해야 하기 때문이다. 그 후에야 시각적 요소를 세부적으로 다듬어 완성할 수 있다. 이렇게 프로토타이핑은 시간이 많이 소요되고 종종 불필요한 작업을 수반한다. 그 결과 아티스트는 창의적인 작업보다 지루한 모델링 작업에 더 많은 시간을 할애해야 한다. 생성형 AI는 장면 프로토타이핑을 위한 초안을 제안하거나 객체를 생성하는 등 중간 작업을 신속히 처리해 아티스트를 돕는다. 그러나 이러한 가속화된 워크플로를 구현하기 위해 여러 AI 모델을 연결하는 일은 기술적으로 복잡할 수 있다. 엔비디아 AI 블루프린트는 샘플 워크플로를 제공해 사용자가 복잡한 기술 단계를 건너뛰고 고급 생성형 AI 기술을 빠르게 활용할 수 있도록 지원한다. 또한 AI 블루프린트는 각 사용자의 요구에 맞게 조정될 수 있다.     엔비디아가 이번에 새로 공개한 AI 블루프린트는 3D 아티스트가 간단한 텍스트 프롬프트만으로 최대 20개의 3D 객체를 생성해 특정 장면의 프로토타입을 만들 수 있게 해주는 워크플로다. 또한 새로운 마이크로소프트 트렐리스(Microsoft TRELLIS) 엔비디아 NIM 마이크로서비스는 3D 객체 생성을 위한 AI 블루프린트 내에서 작동하며, 기존 모델보다 20% 빠른 속도로 고품질 3D 애셋을 생성한다. 아이디어의 탄생에서 시작하는 3D 프로젝트는 테마, 장소, 장식, 색상, 질감 등 시각적 세부 요소를 신중히 고려하는 과정을 거친다. 장면에 애셋을 배치한 후에도 개별 또는 전체 시각 요소를 여러 차례 검토하고 수정해야 한다. 3D 객체 생성을 위한 엔비디아 AI 블루프린트는 프로토타이핑 과정을 자동화하는 파이프라인을 제공한다. 사용자가 프롬프트로 예술적인 아이디어를 입력하면, 블루프린트에 내장된 대형 언어 모델(LLM)이 장면에 포함 가능한 20개의 객체를 제안한다. 이는 라마 3.1 8B(Llama 3.1 8B) 엔비디아 NIM 마이크로서비스로 가속화된다. 엔비디아 사나(SANA)는 고해상도 이미지를 빠르게 합성하는 텍스트-이미지 프레임워크로, 생성 가능한 객체를 보여주는 프리뷰를 생성한다. 각 객체는 재생성, 수정, 삭제가 가능해 아티스트의 자유로운 창작 활동을 지원한다. 이후 아티스트는 새로운 마이크로소프트 트렐리스 엔비디아 NIM 마이크로서비스를 통해 각 객체를 고품질 프리뷰에서 즉시 활용 가능한 3D 모델로 변환할 수 있다. 이 마이크로서비스는 최첨단 모델의 배포를 간소화하고 속도를 20% 향상시킨다. 또한 최대 20개의 3D 애셋 모음은 즉시 사용하거나 오픈 소스 3D 플랫폼 블렌더(Blender)에서 추가로 다듬을 수 있도록 준비된다. AI 블루프린트는 이를 자동으로 블렌더로 내보내며, 아티스트는 다른 인기 3D 애플리케이션으로도 애셋을 내보낼 수 있다. 아울러 라마 3.1 8B NIM 마이크로서비스로 구동되는 LLM은 장면에 포함할 객체의 아이디어와 프롬프트 제안을 생성할 수 있다. 따라서 프롬프트 경험이 많지 않은 아티스트도 창의적인 생산성을 높일 수 있다. 일반적으로 이러한 워크플로를 설정하려면 많은 시간과 기술적 지식이 필요하며, 적합한 파이프라인을 선택하기 위해 다양한 모델을 실험해야 한다. 엔비디아는 “AI 블루프린트는 검증된 워크플로를 사전에 선별해 패키징된 형태로 제공함으로써, 엔비디아 지포스 RTX(GeForce RTX)와 RTX PRO GPU에서의 배포를 단순화하고 시작 과정을 간소화한다”고 설명했다.
작성일 : 2025-09-04
HPE, 엔비디아와 협력해 에이전틱·피지컬 AI 혁신 가속화
HPE는 기업이 AI를 도입하고 개발 및 운영하는 과정을 폭넓게 지원하는 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)’ 포트폴리오의 주요 혁신 사항을 공개했다. HPE는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)와의 통합을 한층 강화하고, 최신 엔비디아 AI 모델 및 엔비디아 블루프린트(NVIDIA Blueprints)를 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)에 탑재함으로써 개발자들이 AI 애플리케이션을 보다 간편하게 구축하고 운영할 수 있도록 지원하게 되었다고 전했다. 또한 HPE는 엔비디아 블랙웰(NVIDIA Blackwell) 기반 가속 컴퓨팅을 탑재한 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) 서버를 출하할 예정이며, 이를 통해 생성형 AI, 에이전틱 AI 및 피지컬 AI 워크로드를 향상된 성능으로 지원할 수 있을 것으로 보고 있다. 엔비디아 블랙웰 아키텍처를 탑재한 HPE 프로라이언트 컴퓨트 서버는 두 종류의 엔비디아 RTX PRO 서버 구성을 포함한다. HPE 프로라이언트 DL385 Gen11 서버는 신규 2U RTX PRO 서버 폼팩터의 공랭식 서버로, 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 최대 2개까지 지원한다. 이 제품은 기업의 증가하는 AI 수요를 충족해야 하는 데이터센터 환경에 최적화된 설계를 지향한다. HPE 프로라이언트 컴퓨트 DL380a Gen12 서버는 4U 폼팩터 기반으로, 엔비디아 RTX PRO 6000 GPU를 최대 8개까지 지원하며 2025년 9월 출시될 예정이다.   특히 HPE 프로라이언트 컴퓨트 Gen12 서버는 HPE iLO(Integrated Lights Out) 7의 실리콘 RoT(Root of Trust) 및 시큐어 인클레이브(Secure Enclave) 기반으로 한 다층 보안 기능을 갖추고 있으며, 위조 및 변조 방지 보호와 양자 내성 펌웨어 서명(quantum-resistant firmware signing) 기능을 통해 한층 강화된 보안 환경을 제공한다.   ▲ HPE 프로라이언트 DL380a Gen12 서버   또한, HPE 컴퓨트 옵스 매니지먼트(HPE Compute Ops Management)으로 지원되는 중앙 집중형 클라우드 네이티브 방식의 라이프사이클 자동화 기능은 서버 관리에 소요되는 IT 업무 시간을 최대 75%까지 줄이고, 서버당 연간 평균 4.8시간의 다운타임 감소 효과를 제공한다. 대상 워크로드에는 생성형 및 에이전틱 AI을 비롯해 로보틱스 및 산업용 사례 등 피지컬 AI, 품질 관리(QC) 모니터링 및 자율주행과 같은 비주얼 컴퓨팅, 시뮬레이션, 3D 모델링, 디지털 트윈, 그리고 각종 엔터프라이즈 애플리케이션이 포함된다. 한편, HPE는 올해 말 출시 예정인 차세대 ‘HPE 프라이빗 클라우드 AI’를 발표했다. 이 설루션은 엔비디아 RTX PRO 6000 GPU를 탑재한 HPE 프로라이언트 컴퓨트 Gen12 서버를 지원하며, GPU 세대 간의 원활한 확장성, 폐쇠망(air-gapped) 관리 및 엔터프라이즈 멀티 테넌시(multi-tenancy) 기능 등을 제공할 예정이다. HPE와 엔비디아가 공동 개발한 엔터프라이즈 턴키 AI 팩토리 설루션인 HPE 프라이빗 클라우드 AI는 에이전틱 AI를 위한 최신 버전의 엔비디아 네모트론(NVIDIA Llama Nemotron) 모델, 피지컬 AI 및 로보틱스를 위한 코스모스 리즌(Cosmos Reason) VLM(vision language model), 엔비디아 블루프린트 VSS 2.4 (NVIDIA Blueprint for Video Search and Summarization)를 지원하여 대규모 영상 데이터에서 인사이트를 추출하는 영상 분석 AI 에이전트를 구축할 수 있다. 또한, HPE 프라이빗 클라우드 AI는 최신 AI 모델을 위한 엔비디아 NIM 마이크로서비스, 엔비디아 블루프린트를 빠르게 배포할 수 있도록 맞춤형 설계되어, 고객들은 HPE AI 에센셜(HPE AI Essentials)를 통해 이를 간편하게 활용할 수 있다. 이와 함께 HPE 프라이빗 클라우드 AI는 엔비디아 AI 가속화 컴퓨팅, 네트워킹, 소프트웨어와의 깊은 통합을 바탕으로, 기업들이 데이터 통제를 유지하면서도 AI의 가치를 보다 신속하게 활용할 수 있도록 지원한다. 이를 통해 고객은 급증하는 AI 추론 수요를 효과적으로 관리하고 AI 생산 속도를 가속화할 수 있다. HPE 셰리 윌리엄스(Cheri Williams) 프라이빗 클라우드 및 플렉스 설루션 부문 수석 부사장 겸 총괄은 “HPE는 AI 시대를 맞아 기업들이 성공을 이룰 수 있도록 필요한 툴과 기술을 제공하는 데 전념하고 있다”면서, “엔비디아와의 협업을 통해 기술 혁신의 경계를 지속적으로 넓혀가며, 생성형 AI, 에이전틱 AI, 피지컬AI의 가치 실현을 포함해 엔터프라이즈 환경의 복잡하고 다양한 요구를 충족하는 설루션을 제공하고 있다. HPE 프로라이언트 서버와 HPE 프라이빗 클라우드 AI의 확장된 역량을 결합함으로써, 기업들이 AI 혁신의 다음 단계를 더욱 신속하고 신뢰 있게 수용할 수 있도록 지원하고 있다”고 밝혔다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 AI 부사장은 “기업은 최신 AI 요구사항에 맞추기 위해 유연하고 효율적인 인프라가 필요하다”면서, “엔비디아 RTX PRO 6000 블랙웰 GPU를 탑재한 HPE 2U 프로라이언트 서버는 단일 통합형 기업용 플랫폼에서 거의 모든 워크로드를 가속화할 수 있도록 해줄 것”이라고 밝혔다.
작성일 : 2025-08-18
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크’ 국내 예약 주문 시작
엔비디아가 차세대 개인용 AI 슈퍼컴퓨터 ‘엔비디아 DGX 스파크(NVIDIA DGX Spark)’의 국내 예약 주문을 시작한다고 밝혔다. DGX 스파크는 책상 위에 올려 놓을 수 있는 크기의 AI 슈퍼컴퓨터로 생성형 AI, 거대 언어 모델(LLM), 고속 추론 등 다양한 AI 워크플로를 로컬 환경에서 효율적으로 구현할 수 있도록 설계됐다. AI 개발이 고도화됨에 따라, 조직은 데이터 보안 강화와 지연 최소화, 배포 유연성 등을 고려해 로컬 환경에서 직접 AI 모델을 개발하고 실행할 수 있는 시스템을 요구하고 있다. DGX 스파크는 이러한 수요에 대응해 데스크톱 환경에서도 데이터 크기나 위치, 모델 규모에 제약 없이 민첩하고 효율적인 AI 개발이 가능하도록 지원한다.     DGX 스파크는 데스크톱 폼팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)을 탑재해 FP4 정밀도 기준, 최대 1페타플롭의 AI 성능을 제공한다. 또한, 고성능 엔비디아 커넥트-X(Connect-X) 네트워킹으로 두 대의 엔비디아 DGX 스파크 시스템을 연결해 최대 4,050억 개 파라미터의 AI 모델을 처리할 수 있다. DGX 스파크는 128GB 메모리를 탑재했으며, 엔비디아 AI 소프트웨어 스택이 사전 설치돼 있다. 이를 통해 딥시크, 메타, 구글 등에서 선보인 최대 2000억 개 파라미터의 최신 AI 모델도 로컬 환경에서 직접 프로토타이핑, 미세 조정, 추론할 수 있다. 또한, 사용자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama) 등 익숙한 개발 도구를 사용할 수 있으며, 이를 DGX 클라우드나 가속화된 데이터센터 환경으로 손쉽게 확장할 수 있다. 이와 함께 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprint)에 대한 액세스를 통해 AI 애플리케이션을 더욱 빠르게 개발하고 배포할 수 있도록 지원한다. 엔비디아는 “DGX 스파크는 올해 엔비디아 연례 개발자 콘퍼런스인 GTC와 컴퓨텍스(COMPUTEX)에서 공개된 이후 큰 관심을 받아왔으며, 이번 국내 예약 주문을 계기로 본격적인 보급이 기대된다”고 전했다. DGX 스파크의 국내 예약 주문은 엔비디아 공식 홈페이지를 통해 진행된다. 국내 주요 파트너사 중 원하는 업체를 선택해 예약할 수 있으며, 대량 구매도 가능하다. 공식 파트너사로는 에즈웰에이아이, 비엔아이엔씨, 디에스앤지, 아이크래프트, 리더스시스템즈, 메이머스트, MDS테크, 유클릭, 씨이랩, 제스프로가 있다.
작성일 : 2025-07-29