• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 리얼타임"에 대한 통합 검색 내용이 378개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[케이스 스터디] KAI의 언리얼 엔진 기반 차세대 시뮬레이션 에코시스템
비행 훈련부터 제품 개발·운영까지 아우르는 핵심 인프라를 목표로   최근 몇 년 사이 시뮬레이션 산업은 디지털 트윈, AI(인공지능), VR(가상현실)/AR(증강현실) 등 첨단 디지털 기술 중심으로 빠르게 재편되고 있다. KAI(한국항공우주산업)는 이러한 흐름에 발맞춰 언리얼 엔진을 도입함으로써 항공산업 전반에 걸친 디지털 혁신을 추진하고 있다. ■ 자료 제공 : 에픽게임즈   KAI는 KT-1 기본 훈련기, T-50 고등훈련기, 수리온 기동헬기, 송골매 무인기 등 다양한 항공우주 시스템을 자체적으로 설계 및 제작하며, 지난 40년간 항공산업 및 국방산업을 선도해 온 종합 항공우주 설루션 기업이다. 최근에는 소형무장헬기(LAH)와 차세대 전투기 KF-21 개발을 비롯해 위성과 발사체 총조립 등 우주 분야로도 사업을 확대하고 있다. KAI는 2024년 ‘언리얼 페스트 시애틀 2024(Unreal Fest Seattle 2024)’에 참가해 자사의 시뮬레이션 전략을 소개하는 세션을 진행했다. 이번 호에서는 이 발표 내용을 바탕으로 시뮬레이션 산업의 급변하는 흐름 속에서 KAI가 어떻게 대응하고 있는지, 언리얼 엔진을 중심으로 한 시뮬레이션 통합 전략과 실제 적용 사례, 그리고 향후 비전 등을 중심으로 KAI의 기술 혁신에 대해 살펴본다.   ▲ 이미지 출처 : ‘KAI의 언리얼 엔진 기반 차세대 시뮬레이션 에코시스템 | 언리얼 엔진’ 영상 캡처   시뮬레이션 산업의 변화와 KAI의 대응 최근 시뮬레이션 산업은 빠르게 발전하며 구조적인 변화를 겪고 있다. 클라우드 기반 시뮬레이션 도입으로 언제 어디서든 고성능 자원에 접근할 수 있게 되었고, 디지털 트윈, AI, 머신러닝 기술의 결합을 통해 시뮬레이션은 단순한 재현을 넘어 예측과 최적화를 수행할 수 있는 툴로 진화하고 있다. 또한 VR/AR/MR(혼합현실) 기술은 훈련의 몰입감과 현실감을 높여 실제 환경과 유사한 시뮬레이션을 가능하게 하고, 마이크로서비스 아키텍처를 기반으로 한 소프트웨어 설계는 유연성과 확장성을 높이고 있다. KAI는 이러한 디지털 전환에 적극 대응하기 위해 전통적인 레거시 시뮬레이션 시스템을 언리얼 엔진과 통합하고 있다. 핵심 전략은 세 가지이다. 첫째, 언리얼 엔진을 활용한 빠른 프로토타이핑으로 기술 검증과 적용 속도를 높이는 것이다. 둘째, 표준화된 인터페이스를 통해 기존 시스템과의 원활한 연동을 실현하는 것이다. 셋째, 지속 가능한 콘텐츠 개발을 위한 플랫폼 설계로 장기적인 생태계 구축을 추진하는 것이다. 이를 통해 KAI는 기존 자산의 가치를 극대화함과 동시에 급변하는 기술 환경에 유연하고 효율적으로 대응하고 있다.   언리얼 엔진이 변화하는 시뮬레이션 산업에 주는 영향 언리얼 엔진은 시뮬레이션 산업의 진화에 있어 중요한 역할을 하고 있다. 우선 고품질의 리얼타임 3D 그래픽을 통해 현실감 있는 몰입형 시뮬레이션 환경을 구현할 수 있어, 훈련과 테스트의 효율성을 높이고 있다. 또한 VR/AR/MR과의 통합 지원은 다양한 산업에서 실제 같은 체험 기반 학습을 가능하게 한다. 언리얼 엔진의 모듈형 아키텍처와 개방된 생태계는 기존 레거시 시스템과의 통합을 쉽게 하고, 새로운 기술이나 기능을 빠르게 적용할 수 있는 유연성을 제공한다. 특히 디지털 트윈, AI, 머신러닝 등 최신 기술과의 연계가 원활하여 복잡한 시스템의 설계, 유지보수, 운영 효율을 높일 수 있다. KAI와 같은 기업에게 언리얼 엔진은 단순한 툴을 넘어, 지속 가능한 시뮬레이션 콘텐츠를 개발하고 새로운 시뮬레이션 생태계를 구축하는 핵심 기술로 자리잡고 있다.   ▲ KAI의 시뮬레이터로 본 FA-50의 모습(이미지 출처 : KAI)   기존 시스템에 언리얼 엔진을 통합한 사례 KAI는 항공기 훈련 체계에 언리얼 엔진을 도입해 현실성과 효율을 갖춘 시뮬레이터를 개발하고 있다. 대표적으로 VR 시뮬레이터의 경우, 조종사가 풀 플라이트 시뮬레이터에 들어가기 전 VR 기기를 통해 절차와 조작 감각을 사전에 익힐 수 있도록 돕고 있다. 언리얼 엔진으로 실제 항공기와 동일한 가상 조종석을 구현해 이륙/착륙, 비상절차, 항전 장비 조작 등을 별도 교관 없이 반복 학습할 수 있도록 했다. 기존의 시뮬레이터는 실제 항공기 수준의 조작감과 훈련 효과를 제공하지만, 높은 구축 비용과 운영 비용, 전용 시설의 필요 등으로 대량 보급에 한계가 있었다. KAI는 이러한 문제를 보완하기 위해 VR 기술을 도입했다. 언리얼 엔진은 영상 발생 장치, 계기 패널, 입출력 장치 등을 대체한 것은 물론, VR HMD(헤드 마운트 디스플레이) 하나만으로 기존의 여러 장치를 필요로 하는 대형 시현 시스템의 효과를 구현할 수 있게 했다. 또한 KAI는 독자적인 역학 모델과 항전 시스템을 언리얼 엔진의 실시간 렌더링과 결합해 실제 조종과 유사한 수준의 훈련 환경을 제공하고 있다. GIS(지리 정보 시스템), DEM(수치 표고 모델) 등 초정밀지도 기반의 한반도 3D 지형을 재현해 조종사의 임무 지역 지형 학습까지 지원하고 있다. 정비 훈련 분야에서도 언리얼 엔진은 핵심 플랫폼으로 활용되고 있다. 2024년 I/ITSEC 전시회에서 공개된 FA-50 정비 훈련 시뮬레이터는 VR 환경에서 점검과 부품 교체를 실습할 수 있을 뿐만 아니라, 사용자가 직접 교육 과정을 만들 수 있도록 설계됐다. 이를 통해 기존 문서와 평면형 CBT(컴퓨터 기반 훈련), 반복 시나리오 기반의 실습 중심 교육의 한계를 극복할 대안을 제시했다. 또한 같은 행사에서 선보인 수리온 헬기 비행 시뮬레이터(VFT)는 디지털 트윈과 고해상도 시각화를 통해 실제 기체 성능과 지형 정보를 반영한 몰입형 훈련 환경을 제공했다.   ▲ FA-50 비행 시뮬레이션의 디스플레이 장면(이미지 출처 : KAI)   시뮬레이션·시스템 개발에서 언리얼 엔진의 기여도 언리얼 엔진 도입 이후 KAI의 시뮬레이션 제작 파이프라인에는 큰 변화가 있었다. 데이터스미스를 활용해 카티아 등 설계 도구의 3D 모델을 쉽게 불러올 수 있어, 실제 설계 기반의 가상 조종석과 기체 모델을 빠르게 구축하고 별도의 모델링 없이 제작 시간을 줄일 수 있었다. 또한 자체 개발한 비행역학 엔진과 항공전자 시뮬레이션 소프트웨어를 언리얼 엔진과 실시간으로 연동해, 백엔드 시스템과 시각화 프론트엔드를 효과적으로 통합함으로써 전반적인 생산성이 향상되었다. 특히 조종사가 시각과 청각 정보를 통해 상황을 판단하는 VR 시뮬레이터 개발에서는 언리얼 엔진의 렌더링, 사운드, 애니메이션 기능이 핵심 도구로 사용되었다. 물리 기반 렌더링(PBR)은 금속, 유리, 계기판 등 재질을 사실적으로 구현했으며, 파티클 시스템과 머티리얼 노드를 통해 연기, 공기 왜곡 등의 시각 효과도 유연하게 조정할 수 있었다. 사운드 역시 메타사운드를 통해 엔진 RPM이나 환경 변화에 따라 실시간으로 반응하며, 조종사에게 실제 비행과 유사한 감각을 제공했다. 또한 애니메이션 블루프린트를 활용해 조종간, 계기판, 비행 제어면 간 연동 애니메이션의 비주얼을 직관적으로 구현할 수 있었으며, 스카이 애트머스피어, 볼류메트릭 클라우드, 하이트 포그 등의 기능은 대기 표현과 공간 인식 훈련의 몰입감을 높였다. 지형 구현에서도 언리얼 엔진의 LWC(Large World Coordinates)를 통해 수천 km 단위의 지형에서도 고속 이동 시 정밀도를 유지할 수 있었고, 풀 소스 코드를 활용해 AI 훈련 체계에 맞는 좌표 변환, 시스템 연동, 정밀 지형 구조를 구현할 수 있었다. 이 과정에서 실제 지형 데이터, 항공 사진, 고도 정보를 언리얼 엔진에 통합했고, GIS, DEM 기반의 정밀 지형 정보를 효과적으로 활용해 복잡한 비행 경로, 저공 비행 훈련, 목표 탐색 등 고난도 시나리오도 현실감 있게 구현할 수 있었다. 그 결과 KAI는 초대형 지형 데이터, 초정밀 위치 기반 훈련, 외부 시스템과의 정밀한 좌표 연동을 모두 만족하는 차세대 항공기 시뮬레이터 플랫폼을 성공적으로 구축할 수 있었다. 이외에도 다양한 플러그인, 하드웨어 인터페이스, 형상 관리 툴 연동, 이제는 리얼리티스캔으로 변경된 리얼리티캡처, 마켓플레이스 등을 활용하여 프로젝트 확장성과 콘텐츠 제작 유연성이 높아졌다.   ▲ 애니메이션 블루프린트를 활용해 구현한 조종간(이미지 출처 : KAI)   대규모 전술 훈련을 위한 AI 에이전트를 언리얼 엔진에 도입 KAI는 차세대 전술 훈련 시뮬레이터 개발을 위해 강화학습 기반의 AI 에이전트를 실제 훈련 시나리오에 연동하는 작업을 진행 중이다. 특히, 복잡한 전장 환경에서는 다양한 무기 체계와 플랫폼이 동시에 운용되기 때문에, 이를 하나의 시뮬레이션 공간에서 유기적으로 연동하는 기술이 매우 중요하다. 기존 상용 시뮬레이터 설루션의 경우 외부 시스템 연동이나 커스터마이징에 제약이 많지만, 언리얼 엔진은 C++ 기반의 풀 소스 코드 접근이 가능해 이러한 한계를 극복할 수 있다. KAI는 이러한 개방성을 바탕으로 자체 개발한 AI 에이전트를 정밀하게 통합해, 복잡한 상호작용이 필요한 전술 훈련 시나리오에서도 실질적인 이점을 확보할 수 있었다. 이와 같은 통합은 단순히 AI를 활용하는 수준을 넘어, 인간 조종사와 AI가 동일한 시뮬레이션 환경에서 훈련하고 상호 작용할 수 있는 구조를 의미한다. 기존의 설루션으로는 구현하기 어려웠지만 KAI는 언리얼 엔진을 도입해 이를 실현할 수 있었다. 결과적으로 언리얼 엔진은 AI, 실시간 시뮬레이션, 데이터 피드백이 통합된 플랫폼을 제공하며, KAI의 차세대 전술 훈련체계 구현에 핵심 역할을 하고 있다.   ▲ 지형 데이터 통합으로 구현한 대규모 도시 지역 디지털 트윈(이미지 출처 : KAI)   향후 시뮬레이션 에코시스템의 방향과 KAI의 비전 향후 시뮬레이션 에코시스템은 개방성, 지속 가능성, 개인화를 중심으로 발전해 나갈 것이다. AI와 빅데이터를 기반으로 한 맞춤형 훈련 시스템, 클라우드 환경에서의 지리적 제약 없는 고성능 시뮬레이션 그리고 VR/AR, 웨어러블 기술 등을 활용한 몰입형 실시간 피드백 시스템이 표준이 되어갈 것으로 전망된다. 이러한 변화 속에서 KAI는 기술 통합형 플랫폼과 자체 시뮬레이션 에코시스템을 구축하며, 대한민국 시뮬레이션 산업의 지속 가능한 성장 기반을 마련할 예정이다. 언리얼 엔진을 단순한 개발 툴이 아닌 시뮬레이션 엔진으로 활용하며, 플랫폼을 중심으로 고퀄리티 콘텐츠를 빠르게 생산할 수 있는 시뮬레이션 콘텐츠 파이프라인을 개발 중이다. KAI의 비전은 국내를 넘어 글로벌 시뮬레이션 에코시스템과 연결되는 것이다. 언리얼 엔진의 개방성과 기술력을 바탕으로 산업 전반에 걸쳐 공유 가능한 시뮬레이션 플랫폼을 만들고, 이를 통해 다양한 산업, 기관, 개발자가 협력할 수 있는 건강하고 확장 가능한 에코시스템을 조성하는 것이 목표다. 이러한 방향성과 비전을 바탕으로, KAI는 시뮬레이션 기술을 단순한 훈련 도구를 넘어 제품 개발, 유지보수, 운영 효율 개선을 위한 핵심 인프라로 성장시키고자 한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-09-03
코리아 그래픽스 2025, 9월 11~12일 온라인 개최...“AI로 혁신하는 3D 시각화와 산업의 미래” 집중 조명
국내 대표 컴퓨터 그래픽 컨퍼런스인 ‘코리아 그래픽스 2025’가 오는 9월 11일(목)부터 12일(금)까지 온라인으로 개최된다. 올해로 13회째를 맞이하는 이번 행사는 ‘AI로 혁신하는 3D 시각화와 산업의 미래’를 주제로, 제조·건축·엔터테인먼트 등 산업 현장에서 적용 가능한 AI·XR·디지털 트윈 최신 기술과 활용 사례를 심도 있게 다룰 예정이다. 9월 11일, 행사 첫째 날은 ‘디지털 트윈과 3D 시각화’를 주제로 진행된다. 한양대학교 현경훈 교수는 생성형 AI를 활용한 디자인·제조 혁신 방안을 발표한다. 에픽게임즈 코리아 권오찬 시니어 에반젤리스트는 언리얼 엔진 리얼타임 기술 기반의 디지털 트랜스포메이션 사례를 소개한다. HP코리아 차성호 이사는 AI 워크스테이션을 통한 생산성 향상 사례를 공유한다. 에스엘즈 정재헌 대표는 AEC 산업의 공간지능 및 증강휴먼 기술 발전을 다룬다. 유니티코리아 김현민 엔지니어는 Unity Asset Manager를 통한 CAD 데이터 관리 및 실시간 협업 혁신을 제시한다. 메가존클라우드 홍동희 그룹장은 CAD와 Unity 결합을 통한 신규 비즈니스 모델과 기회를 설명한다. 캐디안 한명기 상무는 AI-CAD 기반 3D 도면 생성 기술 및 적용 솔루션을 소개한다. 이노시뮬레이션 이지선 CTO는 모빌리티 XR과 AI 융합 사례를 발표한다. 9월 12일, 둘째 날은 'AI 비주얼 트렌드와 응용 사례'를 주제로 AI 기반 비주얼 트렌드와 응용 사례가 집중적으로 다뤄진다. 서울미디어대학원대학교 유훈식 교수는 AI 시대 그래픽 디자인 패러다임 변화와 혁신 사례를 발표한다. 현대자동차 신종호 매니저는 언리얼 엔진 기반 제조 소프트웨어 개발과 스마트팩토리 사례를 소개한다. LG CNS 이희재 팀장은 생성형 AI 플랫폼 ‘COP’을 통한 업무 생산성 향상 방안을 공유한다. 아이스케이프 조세희 대표는 생성형 AI 영상 제작 노하우를 공개한다. AI팩토리 김태영 CEO는 노코드 AI 에이전트와 바이브 코딩을 활용한 자동화 및 생산성 향상 방안을 제시한다. 이윰 스페이스 이윰 대표는 세계관 디자인을 중심으로 한 생성 AI 기반 아트워크 사례를 발표한다. 고려대학교 박진호 교수는 XR과 AI 융합을 통한 초연결 콘텐츠의 가능성을 제시한다. 한편 이번 행사에는 에픽게임즈코리아, 유니티코리아, 메가존클라우드, HP코리아, 현대자동차, LG CNS 등 국내외 주요 기업과 연구진이 참여한다. 산업별 AI·3D 시각화 기술의 미래 방향성을 제시하며, 실무 적용 가능한 인사이트를 공유할 예정이다. 이번 행사를 주관하는 캐드앤그래픽스 최경화 국장은 “산학연 전문가가 함께 모여 AI와 3D 시각화 기술의 융합 가능성을 논의하는 자리가 될 것”이라며, “급변하는 산업 환경 속에서 혁신을 이끌어갈 유익한 기회가 될 것”이라고 밝혔다. 현재 코리아 그래픽스 2025 사전등록 이벤트가 진행 중이다. 
작성일 : 2025-08-30
에픽게임즈, ‘언리얼 페스트 서울 2025’ 마쳐
에픽게임즈 코리아는 ‘언리얼 페스트 서울 2025’가 성공적으로 개최됐다고 밝혔다. 언리얼 페스트는 개발자와 크리에이터에게 언리얼 엔진 및 에픽게임즈의 에픽 에코시스템을 구성하는 제품에 대한 최신 기술과 제작 경험을 공유하기 위해 에픽게임즈에서 매년 진행하는 글로벌 행사이다. 8월 25일~26일 서울 삼성동 코엑스 그랜드볼룸에서 진행된 올해 ‘언리얼 페스트 2025 서울’에는 1800여 명이 현장을 찾아, 언리얼 엔진 및 에픽 에코시스템 제품들의 최신 기술을 확인하고 다양한 산업에서의 혁신적인 리얼타임 3D 인터랙티브 제작 경험을 공유했다. 온라인 중계 역시 전년 대비 전체 중계 세션이 50% 줄었음에도 불구하고 5000여 명의 시청자 수를 기록했다.     에픽게임즈 코리아 박성철 대표의 환영사와 함께 시작된 ‘언리얼 페스트 2025 서울’에서는 에픽게임즈 팀 스위니 대표가 키노트를 통해 업계의 주요 트렌드를 짚어 보고, 언리얼 엔진 개발자를 위한 새로운 기회와 모든 크리에이터를 위한 리얼타임 3D 오픈 에코시스템을 에픽게임즈가 어떻게 구축해 나가고 있는지에 대한 인사이트를 공유했다. 이어, 빌 클리포드 언리얼 엔진 총괄 부사장이 게임을 넘어 다양한 산업 분야에서 크리에이터들이 언리얼 엔진을 활용해 창의적·기술적 한계를 어떻게 뛰어넘고 있는지 그리고 에코시스템의 미래에 대해 소개했다. 마지막으로, 마커스 와스머 개발 담당 수석 부사장은 최근 언리얼 엔진의 업데이트 내용을 뒤돌아보고 향후의 로드맵을 공유하면서 키노트 발표를 마무리했다. 이후 ▲‘더 위쳐 4 언리얼 엔진 5 테크 데모’ 속 기술 들여다보기 ▲언리얼 엔진 5.6으로 모바일 게임 개발하기 ▲일본 사례로 보는 UE5 그래픽 심층 인사이트 ▲나이아가라로 인터랙티브한 파티클 효과 제작해 보기 등의 게임 트랙 세션과 ▲ UE 5.6과 함께 확 달라진 메타휴먼 : 핵심 업데이트 알아보기 ▲언리얼 엔진 5 애니메이션 리타기팅의 미래 등의 미디어 & 엔터테인먼트 트랙 세션, 그리고 ▲ 언리얼 엔진과 에픽 에코시스템을 통한 시뮬레이션 산업의 혁신과 같은 제조 및 시뮬레이션 트랙 세션 등 다양한 주제의 세션이 이틀에 걸쳐 진행됐다. 파트너사 세션도 진행됐다. 게임 트랙에서는 넥슨게임즈의 듀랑고 IP를 이용한 ‘프로젝트 DX’ 세션, 넷마블몬스터의 ‘몬길 : STAR DIVE’ 세션, 넥슨의 ‘낙원 : LAST PARADISE’ 세션, 스퀘어 에닉스의 라이팅 관련 세션 등 다양한 국내외 게임사들의 세션이 많은 관심을 얻었다. 또한, 애니메이션 ‘킹 오브 킹스’의 제작사 모팩스튜디오를 비롯해 메타로켓, Kong Studios, 사운드얼라이언스 등이 참여한 미디어 & 엔터테인먼트 트랙과 한국항공우주산업(KAI)과 비브스튜디오스, 현대자동차, 삼성중공업, 현대오토에버 등이 참여한 제조 및 시뮬레이션 트랙도 진행됐다.
작성일 : 2025-08-29
메타휴먼 5.6 : 디지털 휴먼의 제작 워크플로 향상 및 생태계 확장
개발 및 공급 : 에픽게임즈 주요 특징 : 언리얼 엔진 통합 및 워크플로 간소화, 새로운 파라메트릭 보디 시스템, 신규 언리얼 엔진 의상 애셋, 고퀄리티 실시간 애니메이션 및 오디오 기반 애니메이션 제작 향상, 다양한 DCC 툴을 위한 플러그인 및 스타터 키트 모음 등   혁신적인 디지털 휴먼 툴세트인 메타휴먼(MetaHuman)이 얼리 액세스를 종료하고, 다양한 기능을 갖춘 새 버전을 출시했다. 에픽게임즈는 메타휴먼 5.6 출시를 통해 주요 기능을 새롭게 제공하는 한편, 메타휴먼의 활용 범위를 넓혀주는 새로운 라이선스 옵션과 통합 기능을 도입했다. 이제 메타휴먼 크리에이터는 언리얼 엔진에 통합되어 향상된 퀄리티는 물론 얼굴, 체형, 의상을 더욱 다양하게 확장할 수 있는 새로운 제작 워크플로를 제공한다. 메타휴먼 애니메이터 역시 업데이트되어 거의 모든 카메라 또는 오디오로 실시간 애니메이션을 생성하는 기능이 추가됐다.   그림 1. 이미지 출처 : ‘메타휴먼 시즐릴 | 언리얼 페스트’ 영상 캡처   메타휴먼 크리에이터 언리얼 엔진에서 메타휴먼 제작 메타휴먼 크리에이터가 이제 언리얼 엔진에 통합되어 크리에이터로부터 많은 요청을 받았던 기능을 제공한다. 더 이상 인스턴스를 기다리거나 제한된 세션 시간을 신경 쓸 필요가 없으며, 익스포트 과정이 신속한 어셈블리 단계로 대체되어 반복 작업이 더 빠르고 쉬워졌다. 파이프라인을 관리해야 하는 스튜디오의 경우 메타휴먼 크리에이터(MetaHuman Creator), 메타휴먼 애니메이터(MetaHuman Animator), 메시 투 메타휴먼(Mesh to MetaHuman)이 이제 하나의 애플리케이션으로 통합되면서, 캐릭터 제작 워크플로가 간소화되고 로컬 애셋 관리가 한층 유연해지는 이점을 누릴 수 있게 됐다. 또한, 메타휴먼 크리에이터 툴의 풀 소스 코드 액세스가 제공되어 캐릭터 제작 파이프라인의 필요에 맞춰 툴을 확장하고 커스터마이징할 수 있으며, 자동 리깅과 텍스처 합성을 제공하는 클라우드 서비스를 통해 로컬 에디터 내 제작 워크플로가 향상된다.   그림 2. ‘Creator your MetaHumans’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   새로운 파라메트릭 보디 시스템 메타휴먼 크리에이터의 직관적인 페이스 제작 툴이 이제 보디 제작에도 확장됐다. 새로운 파라메트릭 보디 시스템은 광범위한 실제 스캔 데이터를 바탕으로 거의 무한대로 사실적인 체형을 생성할 수 있으며, 페이스 제작 때와 마찬가지로 스컬프팅하고 결합할 수 있다. 또한 키, 가슴, 허리, 다리 길이 등 다양한 신체 치수를 조정하거나 제한할 수 있어, 온라인 패션 쇼핑 등 다양한 용도에 맞춰 특정 비율의 메타휴먼을 제작할 수 있다.   그림 3. ‘MetaHuman body editing’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   새로운 언리얼 엔진 의상 애셋 실제 사람처럼 메타휴먼도 의상이 필요하다. 그 선택의 폭 역시 넓을수록 좋다. 이제 DCC 앱에서 사실적인 메시 기반 의상을 제작하고, 새로운 언리얼 엔진 의상 애셋을 사용하여 메타휴먼을 위한 전체 의상 세트를 생성할 수 있다. 이 기능은 액세서리를 포함한 다양한 의상을 통합된 의상 애셋으로 구성할 수 있다. 다양한 신체 사이즈와 체형에 가장 잘 맞는 의상 애셋을 미리 제작할 수 있으며, 이는 캐릭터의 체형에 따라 자동으로 크기가 조정되므로 모든 신체에 맞는 의상을 생성한다. 의상은 메타휴먼 형식으로 패키징하여 팹 마켓플레이스와 제3자 마켓플레이스에서 구매하거나 판매할 수 있기 때문에, 누구나 사용할 수 있는 기성 메타휴먼 의상의 폭이 더욱 넓어진다.   그림 4. ‘MetaHuman clothing’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   향상된 비주얼 퀄리티 메타휴먼은 최고의 퀄리티와 사실감을 구현할 수 있도록 지속적으로 발전하고 있다. 이를 위해 메타휴먼 데이터베이스의 실제 스캔 데이터가 확장되어, 더욱 다양한 캐릭터 메시 셰이프와 텍스처를 제공한다. 또한 스캔 데이터의 캡처 및 처리 기능도 향상되어 잡티와 같은 디테일까지 더욱 사실적으로 표현할 수 있다. 그 결과, 메타휴먼 크리에이터로 더욱 실감 나는 얼굴 텍스처를 구현하고 한층 다양한 캐릭터를 만들 수 있으며, 메시 투 메타휴먼을 사용하면 임포트한 메시나 캡처된 영상과 더욱 일치하는 메타휴먼을 만들 수 있다.   그림 5. 이미지 출처 : 언리얼 엔진 홈페이지   메타휴먼 애니메이터 웹캠과 스마트폰으로 제작하는 고퀄리티 실시간 애니메이션 메타휴먼 애니메이터를 사용하면 대부분의 웹캠과 다양한 스마트폰을 비롯한 모노 카메라로 배우의 연기를 캡처하고 언리얼 엔진에서 실시간으로 메타휴먼에 애니메이션을 적용할 수 있다. 기존에 지원되던 스테레오 HMC와 아이폰뿐만 아니라 이제 일부 안드로이드 스마트폰을 포함해 언리얼 엔진 라이브 링크와 연동되는 모든 카메라를 지원한다. 실시간 작업이 가능하기 때문에 라이브 공연이나 즉각적인 피드백이 필요한 촬영 현장에서도 메타휴먼은 배우와 완벽하게 동기화된다. 오프라인 작업 역시 프로젝트 요구 사항에 적합한 환경에서 계속 사용할 수 있다.   그림 6. ‘MetaHuman real-time animation’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   향상된 오디오 기반 애니메이션 이제 오디오만으로 리얼타임 애니메이션을 생성할 수 있어, 라이브 연기를 더욱 손쉽게 구현할 수 있게 됐다. 또한 메타휴먼 애니메이터는 오디오 화자의 감정을 분석해 더욱 실감 나는 애니메이션을 생성할 수 있으며, 이를 수동으로 조정해 특정 상황에 맞게 공감할 수 있는 메타휴먼의 연기를 제작할 수 있다. 메타휴먼 애니메이터는 오디오 기반 연기에 실제와 같은 머리 움직임까지 구현하여 더욱 사실적인 결과물을 즉시 만들어 낸다. <그림 7>은 감정을 수동으로 조정할 수 있는 오디오 기반 애니메이션을 보여준다. 윗줄은 왼쪽부터 행복, 슬픔, 혐오를, 아랫줄은 왼쪽부터 화남, 놀람, 두려움을 나타낸다.   그림 7. ‘MetaHuman audio-driven animation’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   어디에서든 활용할 수 있는 메타휴먼 메타휴먼을 언리얼 엔진뿐만 아니라 다른 엔진이나 크리에이티브 소프트웨어에서 사용할 수 있도록 언리얼 엔진 EULA에 새로운 라이선스 옵션이 추가돼, 이제 메타휴먼을 더 다양한 곳에서 만나볼 수 있다. 자세한 내용은 라이선스 페이지에서 확인할 수 있다. 확장된 메타휴먼 에코시스템에는 다른 디지털 콘텐츠 제작 툴의 플러그인 및 스타터 키트 모음이 추가되고 있으며, 여기에는 팹 마켓플레이스 통합도 포함된다.   마야용 메타휴먼 이번 메타휴먼 5.6 출시를 통해 3래터럴의 모든 파이프라인을 누구나 사용할 수 있게 됐다. 리깅 전문가는 마야(Maya)용 메타휴먼을 사용해 캐릭터의 표정을 세밀하게 조정하고 더욱 사실적으로 연출할 수 있다. 또한, 다른 메타휴먼 툴 및 워크플로와의 호환성은 그대로 유지하면서 동시에 마야의 메시 편집 툴세트와 스컬프팅 툴로 메타휴먼 메시를 직접 조작해, 메타휴먼 데이터베이스의 제한을 넘어 독특한 스타일라이즈드 캐릭터나 유사 인간형 캐릭터를 제작할 수 있다.   그림 8. ‘MetaHuman for Maya’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   그룸 아티스트는 이 플러그인으로 마야의 기존 XGen 시스템에서 생성한 메타휴먼 호환 그룸을 Alembic 파일로 익스포트할 수 있다.   후디니용 메타휴먼 후디니(Houdini)의 프로시저럴 툴세트를 활용해 메타휴먼을 위한 포니테일, 매듭, 둥근 올림머리, 땋은 머리, 도넛형 헤어와 같은 복잡한 헤어 스타일을 제작할 수 있다. 후디니용 메타휴먼 플러그인 및 스타터 키트로 후디니에서 메타휴먼 호환 그룸을 생성하고, Alembic 파일 포맷을 통해 언리얼 엔진으로 임포트해 메타휴먼에 손쉽게 적용할 수 있다.   그림 9. ‘MetaHuman for Houdini’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   팹에서 만나는 메타휴먼 모든 디지털 콘텐츠 크리에이터가 디지털 애셋을 검색, 공유, 구매 그리고 판매할 수 있는 에픽의 오픈 마켓플레이스인 팹(Fab)과 제3자 마켓플레이스에서 메타휴먼과 의상, 그룸 등 메타휴먼 호환 액세서리를 구매하고 판매할 수 있다. 5.6 이상의 버전에서 생성된 모든 메타휴먼은 동일한 공통 표준을 준수하기 때문에 여러 캐릭터에 애니메이션, 의상, 그룸을 재사용하고 공유할 수 있다. 이로써 누구나 어디에서든 사용할 수 있는 메타휴먼과 메타휴먼 호환 액세서리의 종류와 범위가 대폭 확대될 것으로 예상되며, 이를 통해 메타휴먼을 프로젝트에 더욱 빠르고 손쉽게 사용할 수 있을 것으로 전망된다.   그림 10. ‘MetaHuman on Fab’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
[온에어] HP Z북 울트라, AI 워크스테이션의 새로운 기준 제시
캐드앤그래픽스 지식방송 CNG TV 지상 중계   CNG TV는 7월 11일 ‘모바일에서 데스크톱 GPU 성능 구현이 가능한 HP 고성능 AI 워크스테이션 및 사용기 소개’를 주제로 웨비나를 개최했다. HP가 선보인 차세대 고성능 AI 모바일 워크스테이션 ‘Z북 울트라(ZBook Ultra)’는 데스크톱 수준의 그래픽 성능을 노트북에 구현했다. 웨비나에서는 HP코리아 차성호 이사와 감성놀이터 최석영 대표가 제품의 특징과 실제 활용 사례를 공개했다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲ 왼쪽부터 캐드앤그래픽스 박경수 이사, HP코리아 차성호 이사, 감성놀이터 최석영 대표   AI 시대를 위한 고성능 모바일 컴퓨팅의 해답 HP는 웨비나를 통해 고성능 모바일 AI 워크스테이션 ‘Z북 울트라’를 공개했다. 이번 신제품은 최대 96GB 그래픽 메모리, 55 TOPS MPU 성능, 총 125 TOPS 통합 성능을 구현해 데스크톱 수준의 AI 컴퓨팅 성능을 제공한다. 특히 ISV 인증을 획득해 산업 현장의 전문 소프트웨어와의 호환성을 확보했다. HP코리아 차성호 이사는 “AI 기술 확산에 따라 로컬 디바이스에서의 고성능 처리 수요가 증가하고 있으며, Z북 울트라는 모바일에서 이를 충분히 감당할 수 있는 제품”이라며, “워크플로 복잡성, 보안 이슈, 빠른 결과 요청 등 AI 시대의 업무 변화에 최적화된 성능과 안정성을 제공한다”고 말했다. Z북 울트라는 AMD의 라이젠 AI 프로세서(최대 16코어, 80MB 캐시)와 라데온 800M 시리즈 그래픽 유닛을 기반으로 설계되었다. DDR5X 메모리 아키텍처를 통해 CPU와 GPU가 최대 128GB를 공유하며, 이 중 최대 96GB를 그래픽 메모리로 할당할 수 있다. 이는 데스크톱 워크스테이션에서 고가의 그래픽 카드 두 개를 장착해야 가능한 성능에 맞먹는다. 또한 AI 컴패니언 앱을 탑재해 인터넷 없이도 요약, 번역, 질의 응답이 가능한 온디바이스 AI 기능을 제공하며, 듀얼 팬 및 증기 챔버 냉각 구조로 발열도 최소화했다.     AI 영상 제작자의 실사용 리뷰…“가볍고 빠르다” 감성놀이터 최석영 대표는 실제 제품을 활용한 AI 콘텐츠 제작 사례를 소개하며 “Z북 울트라는 이동성과 고성능을 동시에 갖춘 드문 워크스테이션”이라고 평가했다. 최석영 대표는 AI 기반의 이미지 생성, 언리얼 엔진을 활용한 시네마틱 영상 제작, 메타휴먼 캐릭터 작업 등에서 빠른 렌더링 속도와 끊김 없는 실시간 미리보기를 경험했다고 밝혔다. 특히 최 대표는 “기존에는 고성능 작업을 위해 데스크톱을 들고 다녔지만, Z북 울트라는 그 필요를 완전히 대체할 수 있었다”며 “AI 영화, 영상 편집, 3D 디자인, 리얼타임 엔진 기반 작업이 가능한 휴대형 워크스테이션으로, AI 콘텐츠 제작자들에게 강력히 추천하고 싶다”고 말했다. Z북 울트라는 고사양 GPU, 풍부한 메모리, 강력한 냉각 시스템, 온디바이스 AI 기능을 갖춘 전문가용 워크스테이션으로 AI 개발을 비롯해 3D 렌더링, 미디어 엔터테인먼트 산업의 모바일 업무 환경 혁신을 예고하고 있다. 데스크톱의 성능과 노트북의 휴대성을 동시에 요구하는 전문 작업자들에게 새로운 대안이 될 전망이다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
건축 시각화, 제조, 영화, 시뮬레이션 등에서 활용 가능한 게임 엔진, 언리얼 엔진
건축 시각화, 제조, 영화, 시뮬레이션 등에서 활용 가능한 게임 엔진, 언리얼 엔진 개발   에픽게임즈, www.unrealengine.com/en-US 공급   에픽게임즈 코리아, www.unrealengine.com/ko 에픽게임즈는 인터랙티브 엔터테인먼트를 선도하며, 3D 엔진 기술을 제공하고 있다. 또한, 언리얼 엔진의 개발사로서, 세계 유수의 게임 제작뿐만 아니라 영화, TV, 건축, 자동차, 제조, 시뮬레이션 등 산업에서 사용되고 있다. 에픽게임즈의 언리얼 엔진(Unreal Engine)은 디지털 트윈 구현을 위해 뛰어난 리얼타임 렌더링, 데이터 통합 그리고 확장 가능한 생태계를 제공한다.  주요 기능 언리얼 엔진은 ▲ 대규모 트라이앵글 및 대규모 3D 모델 등 방대한 양의 오브젝트를 포함해 대규모 디지털 트윈 환경의 리얼타임 렌더링을 가능하게 하는 ‘나나이트’ ▲ 킬로미터 단위에 이르는 거대하고 디테일한 환경에서도 무한한 바운스 및 인다이렉트 스페큘러 리플렉션을 활용해 실시간 렌더링이 가능한 완전한 다이내믹 글로벌 일루미네이션 및 리플렉션 시스템 ‘루멘’ ▲ 대규모 3D 환경 생성을 자동화하여 개발 속도와 효율성을 크게 향상시킨다. 이를 통해 대규모 디지털 트윈 구현의 자동화가 가능한 ‘PCG(프로시저럴 콘텐츠 생성)’ ▲ 실시간 데이터 접근 및 시뮬레이션을 클라우드를 통해 직접 스트리밍할 수 있는 클라우드 기반 데이터 배포 기술 ‘픽셀 스트리밍’ 등의 기술을 제공한다. 또한, ▲ CAD/BIM 데이터를 언리얼 엔진으로 손쉽게 통합하는 ‘데이터스미스’와 복잡한 데이터 최적화를 워크플로를 통해서 간소화하는 ‘데이터프랩’과 같은 데이터 통합 및 최적화 기능 ▲ Cesium, ESRI와 같은 글로벌 GIS 솔루션의 데이터를 쉽게 가져올 수 있다.  이를 통해 GIS 데이터를 빠르고 정확하게 통합할 수 있어 대규모 디지털 트윈 구현이 용이하게 하는 기술 ‘레벨 지오레퍼런싱’ ▲ 커스터마이징과 확장 가능성을 극대화하는 ‘개방형 소스코드와 API’ ▲ 디지털 트윈 서비스에 필요한 실시간 IoT 데이터를 쉽게 통합할 수 있는 ‘IoT 프로토콜 통합’ 등의 기술도 언리얼 엔진에서 제공한다.  이와 함께, 에픽게임즈는 디지털 트윈 구현에 사용되는 손쉬운 시각화 툴인 트윈모션, 3D 스캔 솔루션인 리얼리티캡처 등 디지털 트윈을 구현하는 데 필요한 다양한 솔루션들이 포함된 강력한 에픽 에코시스템을 제공하고 있다. 통합 콘텐츠 마켓플레이스 팹(Fab) 스토어와 도시 샘플, 프로젝트 애니웨어, 프로젝트 앙투아네트, PCG 샘플, 프로젝트 힐사이드와 같은 샘플 프로젝트를 제공하여, 디지털 트윈 개발자들이 언리얼 엔진을 활용해 실제 디지털 트윈 프로젝트를 빠르게 개발하고 구현할 수 있도록 지원하고 있다. 상세 내용은 <디지털 트윈 가이드>에서 확인할 수 있습니다. 상세 내용 보러가기
작성일 : 2025-07-29
에픽게임즈, ‘언리얼 페스트 2025 서울’의 전체 세션 확정 발표
에픽게임즈 코리아는 오는 8월 25일~26일 코엑스 그랜드볼룸에서 개최되는 ‘언리얼 페스트 2025 서울’에서 게임, 미디어&엔터테인먼트, 제조 및 시뮬레이션 등의 산업별 트랙을 통해 38개 세션이 진행된다고 전했다. 2010년 한국에서 최초로 시작된 언리얼 페스트(구 언리얼 서밋)는 개발자와 크리에이터에게 언리얼 엔진 및 에픽게임즈의 에픽 에코시스템을 구성하는 제품에 대한 최신 기술과 다양한 산업의 리얼타임 3D 인터랙티브 제작 경험을 공유하는 연례행사이다. 이번 언리얼 페스트에서는 에픽게임즈의 팀 스위니 대표와 빌 클리포드 언리얼 엔진 총괄 부사장, 마커스 와스머 개발 담당 수석 부사장의 키노트를 시작으로 언리얼 엔진 및 에픽 에코시스템에 대한 최신 기술과 개발 트렌드가 공유된다. 산업별 트랙 중 제조 및 시뮬레이션 트랙에서는 방위 산업과 조선, 제조 등 다양한 산업 분야에서 언리얼 엔진을 활용한 혁신적인 디지털 트윈 세션이 제공되며, 자동차 산업에서 언리얼 엔진을 활용한 리얼타임 3D 콘텐츠 제작 방식과 그 가능성을 살펴볼 수 있는 세션도 마련된다.  파트너사 세션으로는 ▲ 한국항공우주산업(KAI) 및 비브스튜디오스의 ‘언리얼 엔진을 활용한 전투기 정비 훈련 시뮬레이터 구축’ ▲현대오토에버의 ‘Virtual Factory Builder : 언리얼 엔진으로 디지털 트윈 혁신하기’ ▲삼성중공업의 ‘조선업과 3D 기반 디지털 트랜스포메이션’ ▲ 현대자동차의 ‘언리얼 엔진을 활용한 제조 SW 개발의 빠른 프로토타이핑과 의사결정’ ▲현대오토에버의 ‘언리얼 엔진 5를 활용한 차량 내비게이션 구현’ ▲현대모비스의 ‘언리얼 엔진을 활용한 자동차 부품 디자인 개발’ 등이 진행된다.     게임 트랙에서는 렌더링, 플랫폼, 루멘, 나이아가라, PCG 등 언리얼 엔진의 최신 기술을 바탕으로, 스타일라이즈부터 오픈 월드 게임 개발에 이르기까지 다양한 프로그래밍 및 비주얼 아트 관련 세션들이 마련된다. 에픽게임즈는 언리얼 엔진과 에코시스템의 최신 기술을 깊이 있게 다루며, 외부 파트너사는 현업에서의 실전 경험과 인사이트를 공유할 예정이다. 파트너사 세션에는 컴투스, 넥슨게임즈, 넷마블몬스터, 폴리모프, 아틀러스, 스퀘어 에닉스 등이 참여한다. 미디어 & 엔터테인먼트 트랙에서는 영화와 애니메이션, 방송 & 라이브 이벤트 분야에서 언리얼 엔진을 활용 중인 다양한 파트너들이 제작 사례와 노하우를 공유하는 세션을 진행한다. 에픽게임즈도 애니메이션 제작과 디지털 휴먼 구현에 유용한 언리얼 엔진의 최신 기술과 워크플로를 소개하는 세션을 준비해 콘텐츠 제작자들에게 실질적인 인사이트를 제공할 예정이다. 파트너사 세션에는 사운드얼라이언스, 자루스튜디오, IEL, 문화유산기술연구소, 웨스트월드, 메타로켓, 쿠트 이미지웍스 등이 참가한다. 한편, 에픽게임즈는 전체 세션 확정을 기념해 50% 할인된 가격에 티켓을 구매할 수 있는 얼리버드 혜택 기간을 23일까지 일주일 연장하기로 결정했다. 단, 얼리버드 혜택은 조기에 마감될 수 있다. ‘언리얼 페스트 2025 서울’은 에픽 라운지 홈페이지를 통해 등록 가능하다. 참석자 전원에게는 한정판 굿즈와 함께 최신 기술 체험 전시와 다양한 이벤트가 제공된다.
작성일 : 2025-07-17
HP Z북 울트라 G1a 리뷰 (1) - AI 크리에이터와 3D 작업을 위한 최적화
2025년형 HP ZBook Ultra G1a(Z북 울트라 G1a)는 휴대성과 고성능을 모두 만족시키는 최신 모바일 워크스테이션이다. 이번 리뷰에서는 AI 콘텐츠 제작, 블렌더 기반의 3D 작업, 언리얼 엔진을 활용한 디지털 휴먼 제작 등 실제 프로젝트 기반으로 테스트한 결과를 중심으로 제품의 성능을 살펴보았다.   HP Z북 울트라 G1a는 2025년 최신 모델로, 이 글에서는 AI 크리에이터 작업과 블렌더(Blender)를 이용한 3D 작업, 높은 컴퓨터 성능을 필요로 하는 언리얼 엔진을 활용한 디지털 휴먼 작업을 통해 리뷰하고자 한다. 처음 노트북을 개봉할 때 느낌은 모던하면서 고성능 느낌의 노트북 디자인이 적용되어 보여 좋았다.   HP Z북 울트라 G1a의 제품 구성 Z북 울트라 G1a의 기본 성능 체크를 위해 내 컴퓨터 성능을 체크한다. 이 모델은 워크스테이션급 성능을 노트북에 담아 휴대성과 성능을 모두 만족시키는 제품으로 설계되었다. AMD 라이젠(Ryzen) AI MAX+ 395는 16코어 32스레드의 젠 5(Zen 5) 아키텍처와 40개 컴퓨트 유닛을 탑재한 라데온(Radeon) 8060S 통합 그래픽을 결합한 혁신적인 APU(Accelerated Processing Unit : 가속 처리 장치)다. 이 프로세서는 50 TOPS의 XDNA 2 NPU를 통해 강력한 AI 성능을 제공하며, 별도의 독립 그래픽카드 없이도 RTX 4060에서 4070 수준의 그래픽 성능을 구현한다. AI 크리에이터와 3D 그래픽 작업을 하는 휴대용 워크스테이션이 필요한 사람들에게 좋은 컴퓨터 성능이다. 이번 리뷰에서 가장 좋았던 것은 AI 콘텐츠를 개발할 때 컴퓨터2025/7의 성능을 계속해서 체크해야 하는 부분이 있다는 것이다. 온디바이스 AI를 활용하여 인터넷이 연결되지 않았을 때도 코파일럿+ PC(Copilot+ PC)를 적용하여 마치 비서처럼 쓸 수 있었다. AI 콘텐츠를 제작할 때 새로운 방법을 이용하여 접근할 때가 많은데, 이럴 때는 오류와 문제들이 많이 발생한다. 이런 경우, 이 부분을 함께 해결할 협업자가 필요한데 문제 해결과 검색에 많이 활용되었으며, 음성인식을 지원하여 대화하며 문제를 해결할 수 있어서 작업하는데 편했다.   ▲ HP Z북 울트라 G1a의 구성   AMD 최적화된 AI 모델로 온디바이스 AI 활용 온디바이스 AI 기능을 통해 클라우드 연결 없이도 로컬에서 AI 작업을 수행할 수 있어 데이터 보안과 작업 속도 면에서 큰 장점을 보였다. 특히 실시간 AI 문제 해결과 정보 서치 작업에서 지연 시간이 거의 없어 원활한 작업 환경을 제공했다. AMD에 최적화된 모델 발표가 있어 그 부분을 테스트한 부분이 좋은 성과라고 생각된다. 어뮤즈(Amuse)는 AI 기반 이미지 생성 및 편집을 위한 소프트웨어로 텐서스택(TensorStack)에서 개발했으며, AMD와 협력하여 최적화된 성능을 제공한다. 주요 기능으로는 스테이블 디퓨전(Stable Diffusion) 모델을 활용한 AI 이미지 생성, AMD XDNA 슈퍼 레졸루션(AMD XDNA Super Resolution)을 통한 고해상도 이미지 출력 등이 있으며, 사용자 친화적인 인터페이스로 간편한 설치 및 사용이 가능하다. AMD에서 전문적인 생성형 AI 프로그램인 어뮤즈를 이용하여 이미지를 만들어 보았다. 약 15초 정도 걸렸으며, 노트북에서도 이런 퀄리티가 가능했다.   ▲ 온디바이스 AI 활용   ▲ AMD에 최적화된 AI 모델   생성형 AI 이미지 작업 생성형 AI를 활용한 이미지 작업에서는 복잡한 프롬프트도 빠르게 처리하여 고품질의 이미지를 생성할 수 있었다. 특히 AMD의 하드웨어 가속 기능을 통해 일반적인 노트북 대비 2~3배 빠른 렌더링 속도를 보여 주었다. 생성 시간은 15초(2048×2048)였다. 콤피UI(ComfyUI)는 생성형 AI 오픈소스 프로그램으로 AI를 이용하여 이미지와 비디오를 생성할 수 있는 오픈 소스다. 콤피UI보다 빨리 렌더링되는 느낌이었다.   ▲ 생성형 AI 이미지 작업   생성형 AI 비디오 작업 비디오 생성 작업에서도 안정적인 성능을 보여주었으나, 짧은 시간의 비디오 생성의 부분과 해상도가 높지 않은 생성형 비디오 생성이라서 한계는 있다. 하지만 비디오 생성을 노트북으로 테스트해서 확인할 수 있다는 자체가 놀라웠다.   ▲ 생성형 AI 이미지 작업   메타휴먼을 활용한 언리얼 엔진 작업 테스트 고사양의 컴퓨터 성능이 필요한 메타휴먼 작업에 활용해 보았다. 먼저 클라우드와 연결하여 디지털 휴먼을 만들어 보았다. 일반 노트북에서는 끊어지는 현상과 고사양의 노트북이 아닐 때는 화면이 끊어지는 현상이 있는데, HP Z북 울트라 G1a에서는 자연스럽게 화면이 이어지며 움직임 테스트에서도 언리얼 엔진의 게임 템플릿에서 자연스럽게 리얼타임으로 실행되는 결과를 볼 수 있었다.   ▲ 메타휴먼을 활용한 언리얼 엔진 작업   언리얼 엔진 작업 테스트 실제 시네마틱 영상 제작 과정에서는 언리얼 엔진의 실시간으로 미리보기 기능 자체와 실제 렌더링을 할 때 컴퓨터의 성능이 중요한 역할을 한다. 다른 노트북으로는 작업했을 때에는 실시간 미리보기는 화면이 끊어지는 현상이 있었지만, 이번 리뷰를 통해 워크스테이션급 노트북을 이용하면 어느 정도 작업이 가능하다는 점을 확인할 수 있었다.   ▲ 언리얼 엔진에서 작업   블렌더 3D 렌더링 테스트 블렌더 3D를 셋업하고 샘플 신(scene)의 인테리어 부분을 이미지 렌더링해 보니 시간적인 면에서 17분 39초가 소요됐다. 이는 동급 노트북 대비 상당히 빠른 렌더링 속도로, 복잡한 3D 신도 효율적으로 처리할 수 있음을 보여준다. 하지만 다른 작업을 하면서 멀티 렌더링할 때 다운되는 현상이 있었다. 메모리가 필요한 다른 작업 없이 블렌더 싱글 렌더링만 진행할 때는 큰 이상은 없었다.   ▲ 블렌더 렌더링 테스트   맺음말 결론적으로 온디바이스 AI를 통해 정보 검색과 문제해결에 도움이 되었고, AI 전문 작업에서 빠른 제작 시간과 렌더링 시간을 보여주었다. 실제 인터넷에서 서비스 페이지까지 들어가서 프롬프트를 입력하면 보통 120초 이상 걸리는데, 바로 열어서 프롬프트를 입력하거나 대화하면 10초 정도면 바로 원하는 정보를 얻을 수 있다. 3D 작업과 리얼타임 엔진인 언리얼 엔진 작업에서도 노트북으로 편하게 시네마틱 영상 제작을 할 수 있었다. AMD의 그래픽카드이기 때문에 엔비디아 칩셋을 이용한 콤피UI는 테스트 설치가 되지 않아, 많이 사용하는 AI 오픈 소스로는 테스트하지 못해 아쉽다.   ■ 최석영 AI프로덕션 감성놀이터의 대표이며, 국제고양이AI필름페스티· 21벌 총감독이다. AI 칼럼니스트로도 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다. 
작성일 : 2025-07-01
HP Z북 울트라 G1a 리뷰 (1) - AI 크리에이터와 3D 작업을 위한 최적화
2025년형 HP ZBook Ultra G1a(Z북 울트라 G1a)는 휴대성과 고성능을 모두 만족시키는 최신 모바일 워크스테이션이다. 이번 리뷰에서는 AI 콘텐츠 제작, 블렌더 기반의 3D 작업, 언리얼 엔진을 활용한 디지털 휴먼 제작 등 실제 프로젝트 기반으로 테스트한 결과를 중심으로 제품의 성능을 살펴보았다.   HP Z북 울트라 G1a는 2025년 최신 모델로, 이 글에서는 AI 크리에이터 작업과 블렌더(Blender)를 이용한 3D 작업, 높은 컴퓨터 성능을 필요로 하는 언리얼 엔진을 활용한 디지털 휴먼 작업을 통해 리뷰하고자 한다. 처음 노트북을 개봉할 때 느낌은 모던하면서 고성능 느낌의 노트북 디자인이 적용되어 보여 좋았다.   HP Z북 울트라 G1a의 제품 구성 Z북 울트라 G1a의 기본 성능 체크를 위해 내 컴퓨터 성능을 체크한다. 이 모델은 워크스테이션급 성능을 노트북에 담아 휴대성과 성능을 모두 만족시키는 제품으로 설계되었다. AMD 라이젠(Ryzen) AI MAX+ 395는 16코어 32스레드의 젠 5(Zen 5) 아키텍처와 40개 컴퓨트 유닛을 탑재한 라데온(Radeon) 8060S 통합 그래픽을 결합한 혁신적인 APU(Accelerated Processing Unit : 가속 처리 장치)다. 이 프로세서는 50 TOPS의 XDNA 2 NPU를 통해 강력한 AI 성능을 제공하며, 별도의 독립 그래픽카드 없이도 RTX 4060에서 4070 수준의 그래픽 성능을 구현한다. AI 크리에이터와 3D 그래픽 작업을 하는 휴대용 워크스테이션이 필요한 사람들에게 좋은 컴퓨터 성능이다. 이번 리뷰에서 가장 좋았던 것은 AI 콘텐츠를 개발할 때 컴퓨터2025/7의 성능을 계속해서 체크해야 하는 부분이 있다는 것이다. 온디바이스 AI를 활용하여 인터넷이 연결되지 않았을 때도 코파일럿+ PC(Copilot+ PC)를 적용하여 마치 비서처럼 쓸 수 있었다. AI 콘텐츠를 제작할 때 새로운 방법을 이용하여 접근할 때가 많은데, 이럴 때는 오류와 문제들이 많이 발생한다. 이런 경우, 이 부분을 함께 해결할 협업자가 필요한데 문제 해결과 검색에 많이 활용되었으며, 음성인식을 지원하여 대화하며 문제를 해결할 수 있어서 작업하는데 편했다.   ▲ HP Z북 울트라 G1a의 구성   AMD 최적화된 AI 모델로 온디바이스 AI 활용 온디바이스 AI 기능을 통해 클라우드 연결 없이도 로컬에서 AI 작업을 수행할 수 있어 데이터 보안과 작업 속도 면에서 큰 장점을 보였다. 특히 실시간 AI 문제 해결과 정보 서치 작업에서 지연 시간이 거의 없어 원활한 작업 환경을 제공했다. AMD에 최적화된 모델 발표가 있어 그 부분을 테스트한 부분이 좋은 성과라고 생각된다. 어뮤즈(Amuse)는 AI 기반 이미지 생성 및 편집을 위한 소프트웨어로 텐서스택(TensorStack)에서 개발했으며, AMD와 협력하여 최적화된 성능을 제공한다. 주요 기능으로는 스테이블 디퓨전(Stable Diffusion) 모델을 활용한 AI 이미지 생성, AMD XDNA 슈퍼 레졸루션(AMD XDNA Super Resolution)을 통한 고해상도 이미지 출력 등이 있으며, 사용자 친화적인 인터페이스로 간편한 설치 및 사용이 가능하다. AMD에서 전문적인 생성형 AI 프로그램인 어뮤즈를 이용하여 이미지를 만들어 보았다. 약 15초 정도 걸렸으며, 노트북에서도 이런 퀄리티가 가능했다.   ▲ 온디바이스 AI 활용   ▲ AMD에 최적화된 AI 모델   생성형 AI 이미지 작업 생성형 AI를 활용한 이미지 작업에서는 복잡한 프롬프트도 빠르게 처리하여 고품질의 이미지를 생성할 수 있었다. 특히 AMD의 하드웨어 가속 기능을 통해 일반적인 노트북 대비 2~3배 빠른 렌더링 속도를 보여 주었다. 생성 시간은 15초(2048×2048)였다. 콤피UI(ComfyUI)는 생성형 AI 오픈소스 프로그램으로 AI를 이용하여 이미지와 비디오를 생성할 수 있는 오픈 소스다. 콤피UI보다 빨리 렌더링되는 느낌이었다.   ▲ 생성형 AI 이미지 작업   생성형 AI 비디오 작업 비디오 생성 작업에서도 안정적인 성능을 보여주었으나, 짧은 시간의 비디오 생성의 부분과 해상도가 높지 않은 생성형 비디오 생성이라서 한계는 있다. 하지만 비디오 생성을 노트북으로 테스트해서 확인할 수 있다는 자체가 놀라웠다.   ▲ 생성형 AI 이미지 작업   메타휴먼을 활용한 언리얼 엔진 작업 테스트 고사양의 컴퓨터 성능이 필요한 메타휴먼 작업에 활용해 보았다. 먼저 클라우드와 연결하여 디지털 휴먼을 만들어 보았다. 일반 노트북에서는 끊어지는 현상과 고사양의 노트북이 아닐 때는 화면이 끊어지는 현상이 있는데, HP Z북 울트라 G1a에서는 자연스럽게 화면이 이어지며 움직임 테스트에서도 언리얼 엔진의 게임 템플릿에서 자연스럽게 리얼타임으로 실행되는 결과를 볼 수 있었다.   ▲ 메타휴먼을 활용한 언리얼 엔진 작업   언리얼 엔진 작업 테스트 실제 시네마틱 영상 제작 과정에서는 언리얼 엔진의 실시간으로 미리보기 기능 자체와 실제 렌더링을 할 때 컴퓨터의 성능이 중요한 역할을 한다. 다른 노트북으로는 작업했을 때에는 실시간 미리보기는 화면이 끊어지는 현상이 있었지만, 이번 리뷰를 통해 워크스테이션급 노트북을 이용하면 어느 정도 작업이 가능하다는 점을 확인할 수 있었다.   ▲ 언리얼 엔진에서 작업   블렌더 3D 렌더링 테스트 블렌더 3D를 셋업하고 샘플 신(scene)의 인테리어 부분을 이미지 렌더링해 보니 시간적인 면에서 17분 39초가 소요됐다. 이는 동급 노트북 대비 상당히 빠른 렌더링 속도로, 복잡한 3D 신도 효율적으로 처리할 수 있음을 보여준다. 하지만 다른 작업을 하면서 멀티 렌더링할 때 다운되는 현상이 있었다. 메모리가 필요한 다른 작업 없이 블렌더 싱글 렌더링만 진행할 때는 큰 이상은 없었다.   ▲ 블렌더 렌더링 테스트   맺음말 결론적으로 온디바이스 AI를 통해 정보 검색과 문제해결에 도움이 되었고, AI 전문 작업에서 빠른 제작 시간과 렌더링 시간을 보여주었다. 실제 인터넷에서 서비스 페이지까지 들어가서 프롬프트를 입력하면 보통 120초 이상 걸리는데, 바로 열어서 프롬프트를 입력하거나 대화하면 10초 정도면 바로 원하는 정보를 얻을 수 있다. 3D 작업과 리얼타임 엔진인 언리얼 엔진 작업에서도 노트북으로 편하게 시네마틱 영상 제작을 할 수 있었다. AMD의 그래픽카드이기 때문에 엔비디아 칩셋을 이용한 콤피UI는 테스트 설치가 되지 않아, 많이 사용하는 AI 오픈 소스로는 테스트하지 못해 아쉽다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 최석영 AI프로덕션 감성놀이터의 대표이며, 국제고양이AI필름페스티· 21벌 총감독이다. AI 칼럼니스트로도 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다. 
작성일 : 2025-07-01