• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 언리얼 엔진 5"에 대한 통합 검색 내용이 417개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
현실감 더한 트윈모션 2026.1 출시, 실시간 시각화 성능 대폭 강화
에픽게임즈가 다양한 산업 분야의 크리에이터를 위해 새로운 기능과 개선 사항을 담은 ‘트윈모션 2026.1(Twinmotion 2026.1)’을 출시했다. 이번 버전은 실시간 시각화의 핵심인 현실감과 자연스러움을 강화하는 데 집중했다. 3D 모델과 실사 이미지를 합성하고 실제 카메라와 유사한 효과를 구현하는 기능뿐만 아니라 생동감 있는 환경 연출과 사용자 편의성까지 전반적인 업그레이드가 이루어졌다. 트윈모션은 언리얼 엔진 5를 기반으로 건축, 영화, 자동차, 제품 디자인 등 여러 분야에서 사실적인 시각화 작업을 지원하는 설루션이다. 직관적인 사용자 인터페이스와 강력한 라이브러리를 통해 전문가와 초보자 모두 손쉽게 사용할 수 있는 것이 특징이다. 지난 2025.2 버전에서 나나이트 가상화 지오메트리 시스템을 도입한 데 이어, 이번 2026.1 버전은 보다 정교한 표현을 위한 다양한 기능을 추가했다.     새롭게 도입된 ‘포토 매칭’ 기능은 매치 퍼스펙티브 도구를 사용해 특정 위치에 소실점을 지정하면 카메라 위치와 초점 거리를 자동으로 조정한다. 이를 통해 3D 모델과 2D 이미지를 자연스럽게 합성할 수 있으며, 3D 오브젝트에서 계산된 지면에 그림자를 투영해 현실감을 높인다. ‘자동 에지 소프트닝’은 컴퓨터 그래픽 특유의 날카로운 테두리를 부드럽게 처리하는 기능이다. 사용자가 지정한 반경까지 모서리를 자동으로 뭉툭하게 만들어 자연스러운 결과물을 얻을 수 있다. 라이팅 채널 지원을 통해 빛의 영향을 받는 요소를 정밀하게 제어하는 것도 가능해졌다. 특정 채널에 할당된 오브젝트와 라이트만 서로 반응하도록 설정할 수 있어, 제품 촬영 시 배경 조명이 제품에 영향을 주지 않도록 세밀하게 조정할 수 있다. 카메라 및 렌즈 효과도 실제와 더욱 유사하게 개선됐다. ‘오토 포커스’ 기능은 사물의 거리에 따라 초점을 자동으로 조절하며, 뎁스 오브 필드 효과로 카메라가 바라보는 지점을 자연스럽게 따라가게 할 수 있다. 아나모픽 타원 보케와 페츠발 보케 등 실제 렌즈에서 발생하는 블러 특성을 재현하는 효과도 추가됐다. 프레임 가장자리가 미묘하게 휘어지는 배럴 디스토션 기능도 함께 도입됐다. 장면의 생동감을 더하는 파티클 VFX 시스템은 전면 개편됐다. 불, 연기, 안개, 물 등의 표현 성능과 비주얼 품질이 향상됐으며 사용자가 원하는 형태로 파라미터를 조정할 수 있다. 애셋 라이브러리에는 사실적인 유럽 나무 10종이 추가됐으며, 각 나무마다 세 가지 변형 형태를 제공해 풍성한 환경을 조성할 수 있게 돕는다. 사용자 편의를 위한 워크플로 개선도 눈에 띈다. 에픽게임즈에 따르면 버전이 바뀌어도 애셋을 연속해서 활용할 수 있도록 파일 저장 구조를 개선했다. 기존에는 버전에 따라 애셋을 다시 다운로드하거나 이동시켜야 했으나, 이제는 영구적인 폴더 구조로 관리되어 반복 작업 없이 효율적인 작업이 가능하다. 기존 사용자는 에픽게임즈 런처나 데브 포털에서 트윈모션 2026.1을 내려받을 수 있다. 처음 사용하는 사용자는 공식 홈페이지에서 라이선스 옵션을 확인한 뒤 무료 체험판을 이용할 수 있다.
작성일 : 2026-04-17
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
[케이스 스터디] 언리얼 엔진으로 새롭게 정의한 ‘케이팝 데몬 헌터스’
프리비즈와 레이아웃 혁신해 애니메이션 공정 효율 향상   소니 픽처스 이미지웍스는 넷플릭스 흥행작인 ‘케이팝 데몬 헌터스’의 제작에 언리얼 엔진을 도입해 제작 파이프라인을 혁신했다. 제작 초기 단계부터 최종 렌더링 수준의 비주얼을 확인하며 창작자의 의도를 정교하게 시각화한 것이 핵심이다. 특히 유니버설 신 디스크립션(USD) 기반의 워크플로를 구축해 프리비즈와 레이아웃 과정의 효율을 높여 시네마틱한 완성도를 극대화했다. ■ 자료 제공 : 에픽게임즈   ‘케이팝 데몬 헌터스’는 단순한 영화가 아니라, 하나의 문화적 현상이다. 이 넷플릭스 오리지널 애니메이션 영화는 조회 수 2억 3600만 회를 기록하며 넷플릭스 역사상 가장 인기 있는 영화로 자리잡았을뿐만 아니라, 사운드트랙 또한 빌보드 핫 100 차트 역사상 처음으로 네 곡이 동시에 톱 10에 오르는 전례 없는 기록을 세웠다. 소니 픽처스 애니메이션이 제작한 이 애니메이션은 빠른 액션 전개, 대규모 군중 연출, 콘서트 규모의 라이팅이 결합된 작품으로, 기존의 레이아웃과 프리비즈 방식으로는 결과를 사전에 판단하기 어려웠다. 액션, 라이팅, 머티리얼, 이펙트가 시네마틱한 관점에서 각각 따로가 아니라 서로 유기적으로 결합되어 어떻게 작동하는지를 확인하는 것이 핵심적인 연출 결정의 기준이었기 때문이다. 이를 제작 초반부터 가능하게 하기 위해, 소니 픽처스 이미지웍스 팀은 파이프라인 시작 단계에서 창작 의도를 보다 온전히 시각화할 수 있는 방법이 필요했고, 그 해답으로 언리얼 엔진을 선택했다.   더 빠르게 구현하는 최종 픽셀 수준의 비주얼 ‘케이팝 데몬 헌터스’는 비밀리에 초자연적 위협으로부터 세상을 수호하는 케이팝 걸 그룹 헌트릭스의 이야기를 그린다. 기상천외한 판타지 액션으로 가득한 이야기 속에서, 특히 목욕탕을 배경으로 한 액션 시퀀스는 소니 픽처스 이미지웍스에게 중요한 전환점이었다. 이 장면에서 주인공들은 새로운 라이벌 보이 밴드이자 정체를 숨긴 악령들인 사자 보이즈와 맞서던 중, 물귀신의 기습을 받는다. 소니 픽처스 이미지웍스의 제이슨 볼드윈(Jason Baldwin) 리얼타임 슈퍼바이저는 목욕탕에서 벌어지는 액션 시퀀스는 정말 놀라웠다며, “머티리얼 표현을 극대화해 모든 요소가 젖어 있고 반사되고 안개가 낀 느낌을 제대로 구현할 수 있었기 때문”이라고 밝혔다.   ▲ 소니 픽처스 이미지웍스 제공   이 시퀀스에서 소니 픽처스 이미지웍스의 레이아웃 팀은 처음으로 실시간 볼류메트릭을 사용해, 수증기가 자욱하게 깔리고 부드럽게 확산되는 라이팅이 증기 사이를 스며드는 목욕탕 특유의 분위기를 구현했다. 이 음산한 환경 속에서 혼란스럽고 긴박한 난투극이 벌어지며, 팀은 안개와 수증기가 가득한 공간에서 빠르고 격렬한 전투 연출을 구현해야 하는 과제에 직면했다. 소니 픽처스 이미지웍스의 애덤 홈즈(Adam Holmes) 비주얼라이제이션 총괄은 “언리얼 엔진을 처음 접한 레이아웃 아티스트 한 명이 약 일주일 만에 이 메인 액션 신(scene)의 기본 레이아웃인 블록아웃을 완성했다”고 설명했다. 이 초기 블록아웃을 통해 팀은 복잡한 액션 동선, 독창적인 카메라 워크, 그리고 검이 악령을 폭발시키는 모든 시각 효과까지 함께 구현할 수 있었고, 해당 신이 지향하는 시네마틱한 비전을 생생하게 표현할 수 있었다. 라이팅, 머티리얼, 분위기, 카메라가 유기적으로 작동하는 방식을 제작 초기 단계부터 확인할 수 있었기 때문에, 팀은 시퀀스의 감정적 톤을 설정해 나갈 수 있었다. 젖은 타일의 광택, 수증기의 밀도, 빠르게 전개되는 카메라 워크는 긴장감과 스펙터클을 극대화하며 액션 신에 드라마와 몰입감을 더했다. 궁극적으로 이러한 초기 시각화 작업은 시퀀스의 최종적인 예술적 효과를 한층 끌어 올리는 역할을 수행했다. 볼드윈은 “레이아웃 단계에서 모든 요소가 최종 렌더에 가까운 수준으로 함께 결합되는 모습을, 게다가 그렇게 빠르게 세팅할 수 있다는 점이 정말 놀라웠다”고 말했다.   마야, 언리얼 엔진, USD를 연결하는 파이프라인 오토데스크의 마야(Maya)와 언리얼 엔진간의 워크플로는 소니 픽처스 이미지웍스의 ‘케이팝 데몬 헌터스’ 애니메이션 파이프라인의 핵심 기반이었다. 홈즈는 “마야 파이프라인에서 개발한 애니메이션 릭을 언리얼 엔진으로 가져오는 과정은 매우 중요하고, 이를 자동화하기 위해 여러 스크립트를 만들었다”고 설명했다. 레이아웃 샷의 애니메이션 작업이 완료되면 이를 다시 마야로 보내서 적용할 수 있으며, 레이아웃 아티스트가 완성한 모든 작업을 그대로 유지할 수 있었다.   ▲ 소니 픽처스 이미지웍스 제공   이 워크플로는 소니 픽처스 이미지웍스가 유니버설 신 디스크립션(Universal Scene Description : USD)을 본격적으로 도입하면서 한 단계 더 발전했다. USD를 활용함으로써 내부 툴과 언리얼 엔진 간에 애셋 이동 과정이 더 빠르고 일관되게 이루어질 수 있었다. 볼드윈은 “이제 모델링 단계에서 애셋을 기존 파이프라인에 보내면, 이 데이터를 USD를 통해 매우 손쉽고 안정적으로 언리얼 엔진으로 가져왔다가 다시 내보낼 수 있다”라고 전했다. 소니 픽처스 이미지웍스에게 이러한 방식의 작업은 아티스트들이 사용하는 크리에이티브 툴 간의 반복 작업에 큰 변화를 가져왔다. 소니 픽처스 이미지웍스의 황종환 리얼타임 파이프라인 슈퍼바이저는 “초기에는 시퀀스 하나를 익스포트하는 데만 6~8시간이 걸렸다. 하지만 소스 코드에 접근할 수 있다는 점이 큰 전환점이 되었다. 그 덕분에 작업 시간을 30분으로 줄일 수 있었고, 지금은 시퀀스를 5분 만에 익스포트한다”고 설명했다.   캐릭터, 군중, 콘서트 라이팅의 확장 팀은 언리얼 엔진의 컨트롤 릭을 활용해 수십 명의 캐릭터 애니메이션을 엔진에서 직접 제작했다. 소니 픽처스 이미지웍스의 릴리아 라이(Lillia Lai) 리깅 개발 리드는 “언리얼 엔진에서 컨트롤 릭을 구성하기로 한 이유는 실행 속도가 매우 빠르기 때문이다. 하나의 신에서 필요하다면 최대 20명에서 30명에 이르는 여러 캐릭터를 동시에 다룰 수 있다”고 말했다.   ▲ 소니 픽처스 이미지웍스 제공   ‘케이팝 데몬 헌터스’에서 세 명의 주인공은 각 시퀀스마다 서로 다른 커스텀 의상을 착용한다. 이를 위해 소니 픽처스 이미지웍스는 블루프린트 비주얼 스크립팅 시스템을 활용해 의상과 액세서리를 즉시 교체할 수 있는 캐릭터 시스템을 구축했다. 이 시스템은 무작위로 조합된 다양한 캐릭터로 가득 찬 대규모 군중을 제작할 때 그 진가를 발휘했다. 라이는 “단 하나의 체형과 여러 헤어스타일만 만들면 된다. 그런 다음 원하는 조합으로 헤어스타일과 의상을 교체하고, 이를 언리얼 엔진의 폴리지 모드와 결합해 공연장 전체를 빠르게 채울 수 있었다”고 설명했다. 폴리지 모드는 원래 언리얼 엔진 신에 식물과 나무를 손쉽게 배치하기 위해 설계된 기능이다. 팀은 이 기능을 공연장에 모인 군중을 구현하는 데 적용하면서, 폴리지 모드 툴을 활용하는 새로운 방법을 발견할 수 있었다.   ▲ 소니 픽처스 이미지웍스 제공   공연장 신을 방대한 규모의 다양한 관객으로 채우는 것은 물론, 프리비즈 단계부터 콘서트 전체 라이팅이 환경에 미치는 영향을 직접 탐색할 수 있었다. 홈즈는 “그 효과를 제대로 시각화할 수 있는 유일한 방법은 언리얼 엔진을 사용하는 것이었다”고 말했다. 프리비즈 아티스트들은 파이프라인의 마지막 단계가 아니라 시작 단계에서부터 아름답고 놀라운 신을 구성할 수 있었으며, 소니 픽처스 애니메이션과 이미지웍스의 크리에이티브 팀은 그 어느 때보다 다양한 시각적 옵션을 확보할 수 있었다. 아티스트는 콘서트가 어떤 느낌일지 상상하는 대신, 공연의 에너지와 규모를 실시간으로 대응하며 각 노래의 감정적 임팩트를 극대화하기 위해 안무, 무대 연출, 라이팅을 조정할 수 있었다. 이 기술로 팀은 시작 단계부터 더 큰 스케일과, 한층 강화된 시네마틱한 환경을 구현했다. 볼드윈은 “이런 경험은 난생 처음이었다”라고 놀라움을 표현했다. 이 콘서트 신에서 수백 개의 라이팅에 애니메이션을 적용한 뒤, 이미지웍스 팀은 이를 USD를 통해 파운드리(Foundry)의 카타나(Katana)로 익스포트할 수 있는 플러그인을 제작했고, 그 결과 언리얼 엔진과 카타나 간 라이팅을 거의 일대일에 가깝게 일치시킬 수 있었다. 홈즈는 “프레임마다 키를 베이킹하지 않고도 카타나에서 언리얼 엔진 애니메이션을 유지할 수 있도록 F 커브를 익스포트하는 방식을 개발했다. 그렇게 하면 수천 프레임에 달하는 불필요한 데이터가 추가로 생성되지 않는다”고 설명했다. 원본 라이팅 커브를 유지함으로써 프리비즈부터 최종 라이팅까지 콘서트의 리듬과 에너지를 그대로 유지할 수 있었다. 이를 통해 아티스트들은 복잡한 애니메이션을 다시 제작할 필요 없이 반복 작업을 이어갈 수 있었다. ‘케이팝 데몬 헌터스’에서의 이러한 라이팅 실험을 통해 이미지웍스는 리얼타임과 기존 라이팅 워크플로 간의 경계를 확장할 수 있었다.   ▲ 소니 픽처스 이미지웍스 제공   차세대 애니메이션 파이프라인 구축 ‘케이팝 데몬 헌터스’는 강력한 최첨단 기술이 애니메이션 제작 방식을 어떻게 혁신하고 있는지를 보여주는 대표적인 사례이다. 이 프로젝트에서 소니 픽처스 이미지웍스는 CG 레이아웃 파이프라인 전반을 재정비해 다양한 영역을 현대화했으며, 리얼타임 기술과 USD 프레임워크를 결합해 이전에는 불가능했던 방식으로 부서 간 협업을 이뤄냈다. 홈즈는 “이번 작품에서 구축한 기반 덕분에 현재와 향후 프로젝트에서 레이아웃과 프리비즈 과정의 속도와 효율이 20~25% 가량 향상될 것으로 기대하고 있다”고 전했다. 볼드윈은 “언리얼 엔진이 무엇을 할 수 있는지, 우리가 무엇을 해낼 수 있는지 알고 있었기 때문에 그대로 실행에 옮겼다. 그 결과 현재는 매우 견고한 파이프라인을 구축하게 되었다”고 설명했다.   ▲ 소니 픽처스 이미지웍스 제공   소니 픽처스 이미지웍스 팀은 신 개발 방식을 간소화하고 파이프라인을 재정립함으로써 퍼포먼스와 스케일, 그리고 시각적인 에너지에 더욱 집중할 수 있었으며, 이는 ‘케이팝 데몬 헌터스’의 핵심인 역동적인 스토리텔링을 뒷받침했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-04-02
CAD&Graphics 2026년 4월호 목차
  15 THEME. 지속 가능한 성장을 위한 플랜트·조선 산업의 디지털/AI 전환 글로벌 플랜트·조선 프로젝트의 새로운 경쟁력을 위한 실행 중심 DX 전략 플랜트 DX/AX를 통한 산업 혁신 : 지속 가능하면서 효율적인 추진 전략 DX·AI 시대의 플랜트 토목 설계 자동화 디지털 건설 블록을 통한 EPC 산업의 AI/ML 기반 디지털 전환 전략 AI 스마트 선박 및 스마트 해운의 사이버 안전 대응 전략 플랜트·조선 산업을 위한 대용량 3D 시각화 설루션 적용 사례 AI 기반 엔지니어링을 위한 CAD 데이터 품질 인프라 구축   INFOWORLD   Focus 40 SIMTOS 2026, “AI 자율제조로 나아가는 글로벌 제조 혁신을 한 눈에” 42 로크웰 오토메이션의 자율 제조 비전… “산업 전주기에 AI 내재화”   People&Company 44 아비바 스티브 르완 부사장, 에릭 첸 부사장 AI로 연결된 스마트 제조의 미래… 파트너 생태계로 혁신 가치 극대화   Case Study 46  언리얼 엔진으로 새롭게 정의한 ‘케이팝 데몬 헌터스’ 프리비즈와 레이아웃 혁신해 애니메이션 공정 효율 향상 50 2025년을 빛낸 유니티 고객 성공 사례 실시간 3D 기술로 산업 전반의 디지털 혁신 주도   New Products 53 통합 워크플로 및 생성형 AI 기능으로 엔지니어링 혁신 가속 앤시스 2026 R1 56 투사현실로 현장 레이아웃을 구현하는 스마트 건설 설루션 XR Projector Gen3   Column 59 트렌드에서 얻은 것 No. 29 / 류용효 나의 바이브 코딩 도전기 62 디지털 지식전문가 조형식의 지식마당 / 조형식 디지털 전환을 넘어 AI 전환으로 : 기업의 존재 방식을 재정의하는 시대   On Air 64 캐드앤그래픽스 CNG TV 지식방송 지상중계 가상 엔지니어링 기반 스마트 건설 장비 개발 프로세스 66 캐드앤그래픽스 CNG TV 지식방송 지상중계  AI 시대, 인간의 전략적 진화… ‘슈퍼휴먼’으로 거듭나는 법 67 캐드앤그래픽스 CNG TV 지식방송 지상중계 피지컬 AI가 이끄는 제조 패러다임의 변화 : 대한민국 제조업의 미래   68 New Books   Directory 107 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 69 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환 72 새로워진 캐디안 2026 살펴보기 (5) / 최영석 스마트 옵셋 외 76 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2026 (13) / 최하얀 분산 근무 시대의 새로운 CAD 라이선스 전략   Analysis 79 심센터 HEEDS 더 깊게 살펴 보기 (4) / 이종학 최적 검색 가속화를 위한 AI 프레딕터 84 제품 개발 혁신을 돕는 크레오 파라메트릭 12.0 (9) / 김주현 크레오 플로 어낼리시스를 통한 유동해석 90 앤시스 워크벤치를 활용한 해석 성공 사례 / 박장순 웨이브가이드의 열 & 열 변형 해석 96 산업을 위한 AI와 버추얼 트윈 기술 (2) / 고석원 차량 공력 성능 예측 고도화를 위한 CFD 전략 99 성공적인 유동 해석을 위한 케이던스의 CFD 기술 / 나인플러스IT 선박 운영 비용을 줄이는 파력 추진 시스템의 개발 102 가상 제품 개발을 위한 MBSE 및 SysML의 이해와 핵심 전략 (6) / 오재응 SysML의 블록 정의 및 사용     2026-4-aifrom 캐드앤그래픽스     캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기
작성일 : 2026-03-27
AMD, 크리에이터 및 개발자 겨냥한 고성능 프로세서 ‘라이젠 9 9950X3D2’ 공개
AMD가 오는 4월 22일, 듀얼 3D V-캐시(3D V-Cache) 기술을 적용한 데스크톱 프로세서인 ‘라이젠(Ryzen) 9 9950X3D2’ 듀얼 에디션을 전 세계 시장에 출시한다고 밝혔다. AMD의 잭 후인(Jack Huynh) 컴퓨팅 및 그래픽 그룹 수석 부사장은 이번 신제품이 차세대 애플리케이션을 위한 혁신의 결과물임을 강조했다. 라이젠 9 9950X3D2는 두 개의 칩렛 모두에 2세대 3D V-캐시 기술을 적용해, 기존 라이젠 시리즈 중 최대 용량인 총 208MB의 캐시를 탑재한 것이 특징이다.   ▲ 출처 : AMD 유튜브 캡처   AMD에 따르면, 이번 프로세서의 핵심은 컴퓨팅 다이(compute die) 바로 위에 대용량 캐시를 수직으로 적층한 구조에 있다. 이런 설계는 데이터와 CPU 코어 사이의 거리를 좁혀 지연 시간을 줄여준다. 결과적으로 더 많은 게임 데이터와 애셋, 작업 데이터를 코어 바로 옆에 배치함으로써 까다로운 워크로드에서도 높은 응답성을 확보할 수 있게 되었다. 라이젠 9 9950X3D2는 16개의 ‘젠(Zen) 5’ 코어를 기반으로 설계된 플래그십 모델이다. 특히 최대 200W의 TDP(열 설계 전력)를 지원하도록 설계되어 성능 향상을 위한 충분한 헤드룸을 제공한다. 이를 통해 사용자는 라이젠 9 X3D 시리즈 특유의 게이밍 성능은 물론, 초고속 데이터 액세스가 필요한 전문 작업에서도 최상급의 성능을 경험할 수 있다. 이번 제품은 특히 대규모 소스 코드 빌드, 게임 엔진 컴파일, AI 모델링, 3D 렌더링 등 복잡한 콘텐츠 제작 파이프라인에서 높은 성능을 발휘한다. AMD의 발표에 따르면, 다빈치 리졸브, 블렌더, 언리얼 엔진, 크로미움 등의 환경에서 기존 라이젠 9 9950X3D 대비 약 5~10%의 성능 향상을 제공한다. AMD는 이번 신제품이 기존 AM5 플랫폼과 호환되어 간편한 업그레이드가 가능하며, 고성능 컴퓨팅 환경을 필요로 하는 개발자와 전문가들에게 새로운 기준을 제시할 것으로 기대하고 있다. 잭 후인 부사장은 “라이젠 9 9950X3D2는 메인스트림과 하이엔드 데스크톱 사이의 간극을 메우는 제품”이라면서, “이제 게이머와 크리에이터는 더 이상 성능을 위해 용도를 선택할 필요 없이 하나의 프로세서로 두 영역 모두에서 최고의 경험을 누릴 수 있을 것”이라고 전했다.
작성일 : 2026-03-27
[케이스 스터디] CES 2026에서 만난 언리얼 엔진
차세대 HMI부터 시뮬레이션,몰입형 모빌리티 생태계까지   CES(국제전자제품박람회)의 자동차 전시관은 올해도 활기 넘치는 현장이었으며, 모빌리티와 디지털 몰입 경험의 융합이 더 이상 트렌드가 아닌 업계 표준으로 자리 잡았음을 보여줬다. 지난해 박람회가 혁신적인 기술의 가능성을 보여줬다면, 2026년은 실행 중심으로의 전환이 뚜렷해진 해였다. 제조사와 기술 기업들은 운전자 경험을 새롭게 정의하는 양산 수준의 설루션을 선보였다. ■ 자료 제공 : 에픽게임즈   CES 2026는 에픽게임즈에게도 중요한 이정표가 된 행사로, 에픽은 언리얼 엔진 5 기반의 차세대 HMI(휴먼-머신 인터페이스) 경험을 공개했다. AMD와의 기술 협업을 통해 라이젠 AI 임베디드 P100 시리즈(Ryzen AI Embedded P100 Series)에서 구동되는 이 프로젝트는 하나의 UE5 실행 인스턴스에서 디지털 콕핏의 모든 픽셀을 구동하는 성능을 보여준다. 소니 혼다 모빌리티와 퀄컴 등 파트너사들이 선보인 언리얼 엔진 애플리케이션을 통해, 올해 CES는 HMI의 미래가 인터랙티브하고 몰입감 있으며 데이터 중심의 게임화된 경험으로 진화하고 있음을 보여줬다. 이번 호에서는 언리얼 엔진 5의 차세대 HMI 경험에 대한 내용과 함께, 전시장에 참여한 협력사 및 파트너사가 선보인 창의적인 언리얼 엔진 쇼케이스를 살펴본다.   언리얼 엔진 5의 차세대 HMI 경험 CES 2026에서 공개된 언리얼 엔진 5의 차세대 HMI 경험은 디지털 자동차 콕핏의 모든 픽셀을 언리얼 엔진 5로 구동하는 기술력을 선보인다. 이 프로젝트는 단순한 데모를 넘어 자동차 HMI 개발에서 비주얼 퀄리티, 성능, 상호작용 측면의 새로운 기준을 제시하는 것을 목표로 한 에픽게임즈의 내부 프로젝트다. 언리얼 엔진 5의 차세대 HMI 경험은 하나의 UE5 실행 인스턴스로 계기판, 지도, 미니맵, 컨트롤 패널, 3D 배경을 포함한 디지털 콕핏 전체를 동시에 렌더링하며, 60fps로 구동되는 고해상도 디스플레이 경험을 제공한다. CES에서 선보인 주요 기능은 다음과 같다. HMI 환경에서 게임 요소를 직접 체험할 수 있는 커스터마이징 가능한 비주얼과 인터랙티브 테마(조작 가능한 젤리빈 캐릭터가 등장하는 폴가이즈 테마 포함) 주요 관심 지점과 파리의 상징적인 랜드마크를 포함한 2D 항공 뷰 및 3D 스트리트 레벨 내비게이션을 지원하는 네이티브 지도 AMD의 주행 시뮬레이터와 통합돼 포토리얼한 언리얼 엔진 환경에서 생성된 합성 데이터를 활용해 AI 시스템을 학습하는 첨단 운전자 보조 시스템(ADAS) 게임을 포함해 오디오·비디오 스트리밍 플랫폼 등 크로미움(Chromium) 기반 제3자 애플리케이션 실행 기능 디지털 콕핏 내에서 로켓 리그(Rocket League)와 같은 게임을 플레이할 수 있는 기능 HMI 인터페이스 전반에 걸쳐 음성으로 사용자를 안내하는 밝고 다채로운 음성 인식 어시스턴트 에픽게임즈는 언리얼 엔진 5 차세대 HMI 경험을 활용해 실제 양산 제품 수준의 안전한 환경에서 새로운 HMI 기능을 테스트하고 개선하며, 자동차 HMI의 미래 가능성을 제시한다.   CES에서 소개된 주요 언리얼 엔진 프로젝트 CES 2026에서는 향후 자동차 산업의 방향을 제시할 다양한 언리얼 엔진 기반 프로젝트가 공개됐다. 주요 하이라이트는 다음과 같다.   아처마인드 소프트웨어 개발 및 서비스 기업 아처마인드(ArcherMind)는 퀄컴 스냅드래곤 엘리트(Qualcomm Snapdragon Elite) 플랫폼에서 구동되는 자동차 HMI 데모를 선보였다. 45인치 대형 디스플레이를 갖추고 언리얼 엔진으로 구현된 이 디지털 콕핏 경험은 ADAS, 인포테인먼트 터치스크린, 그리고 동승자 화면이라는 세 가지 영역으로 구성돼 있다. 인포테인먼트 화면에는 사용자가 직접 상호작용할 수 있는 자동차 시각화 기능이 포함돼 있어, 차량의 문을 열고 닫거나 색상을 변경하고 실내 조명을 조절하는 등 다양한 기능을 사용할 수 있다. 또한, 이 데모는 AI를 활용한 HMI 제어를 지원해, 음성 명령으로 에어컨을 작동시키거나 지도에서 위치를 검색하고 아마존 및 구글과 같은 제3자 서비스에 연결할 수 있다. 실내 카메라는 운전자의 표정을 감지해 AI 어시스턴트에 전달하며, 운전자가 웃고 있을 경우 신나는 음악을 추천한다. 또한 AI는 차에 탑승한 인원 수를 인식해, 해당 인원에 맞는 인근 레스토랑을 찾거나 정확한 인원으로 저녁 식사 예약을 도와주는 등 다양한 작업을 지원한다.   ▲ 아처마인드가 선보인 자동차 HMI 디지털 콕핏 데모 화면(출처 : 에픽게임즈)   브런즈윅 코퍼레이션 브런즈윅 코퍼레이션(Brunswick Corporation)은 CES 2026에서 플라이트(Flite)의 기술로 구현된 이포일링(eFoiling) 시뮬레이터와 레저용 보트 운항의 미래를 보여주는 차세대 조타석 시뮬레이터를 공개했다. AI 코파일럿을 탑재한 퓨처 헬름 시뮬레이터(Future Helm Simulator)는 항로 계획, 조종, 정박, 상황 인식을 지능적으로 지원하는 차세대 경험을 제공하며, 보트 운항 시 선장이 가장 큰 스트레스를 느끼는 요소를 줄이는 것을 목표로 한다. 플라이트보드 이포일 시뮬레이터(Fliteboard eFoil Simulator)는 실제 수면에서의 주행을 충실히 재현하도록 향상된 역학과 반응성을 적용해, 전동 하이드로포일 서프보드로 물 위를 미끄러지듯 활주하는 감각을 전달한다. 두 시뮬레이터 모두 언리얼 엔진으로 구동되며, 사용자는 수로를 탐색하고 자동으로 정박하며, 관심 지점과 야생 동물을 식별하고 게임화된 시나리오에서 경주까지 즐길 수 있는 높은 상호작용과 사실적인 해양 환경을 경험할 수 있다. 이러한 시뮬레이션을 통해 소비자들은 미래의 보트 운항 경험을 탐색하고, 자율 운항 기능을 테스트하며, 실제 환경에서 선박이 어떻게 반응하는지를 검증할 수 있다. 브런즈윅의 기술은 디지털 세계와 실제 세계를 연결하고 차세대 해양 기술 개발을 가속화한다.   ▲ 브런즈윅 코퍼레이션이 CES 2026에서 공개한 차세대 보트 운항 시뮬레이터 시연 모습(출처 : 에픽게임즈)   디스페이스 디스페이스(dSPACE) 부스에서는 언리얼 엔진 기반 시뮬레이션과 통합된 디스페이스 하드웨어 및 소프트웨어를 활용해 ADAS와 자율 주행을 테스트하는 시연을 볼 수 있었다. 이미 수백만 대의 차량에 적용돼 긴급 제동과 같은 핵심 기능을 담당하는 카메라 기반 인지 장치는, 멀티 GPU 시스템에서 동기화되어 구동되는 고퀄리티 리얼타임 시뮬레이션을 통해 테스트되고 있었다. 이 시뮬레이션은 포토리얼한 렌더링과 카메라, 레이더, 초음파 출력과 같은 물리 기반 센서 데이터를 함께 생성하며, 이렇게 생성된 데이터는 인지 성능을 평가하기 위해 전자 제어 장치(ECU)로 직접 전달된다. 이 시스템은 120대 이상의 차량과 보행자가 포함된 복잡한 시나리오를 시뮬레이션할 수 있으며, 추가 카메라 구성이나 폭설과 같은 악천후 조건을 즉시 적용해 환경 변화가 인지 정확도에 미치는 영향을 평가하고, 이를 바탕으로 알고리즘을 향상시킬 수 있다.   ▲ CES 2026 디스페이스 부스에서 시연된 언리얼 엔진 기반 ADAS·자율주행 통합 시뮬레이션(출처 : 에픽게임즈)   이카엑스 이카엑스(ECARX)는 퀄컴 스냅드래곤 엘리트 SoC 기반의 단일 플랫폼에서, 언리얼 엔진 5로 구동되는 디지털 콕핏과 ADAS를 동시에 구현한 혁신적인 통합 데모를 시연했다. 차량의 3D 디지털 트윈은 화면에서 실제 차량과 일관된 시각적 표현을 제공해 사용자가 차량을 실시간으로 제어할 수 있도록 한다. 차량의 문과 엔진 후드를 열거나, 차체 색상, 휠/스포일러 디자인, 실내 조명, 오디오 환경 설정을 변경할 수 있으며, 이 모든 조작은 화면에 즉각적이고 매끄럽게 반영된다. 또한, 이 데모에는 연못에서 실시간으로 헤엄치는 물고기와 터치하는 즉시 꽃이 피어나는 벚나무 등 온스크린 환경의 속도와 반응성을 강조하는 창의적인 요소도 포함됐다. 특히 이카엑스 팀은 전체 데모를 단 한 달 만에 제작해 언리얼 엔진 5와 스냅드래곤으로 퀄리티를 유지하면서도 HMI 개발 속도를 높일 수 있음을 보여준다.   ▲ CES 2026 이카엑스 부스에서 공개된 디지털 콕핏 및 ADAS 통합 데모 체험 현장. 차량 외관과 실내를 화면을 통해 시각적으로 제어하는 모습(출처 : 에픽게임즈)   일렉트로비트 일렉트로비트(Elektrobit)는 올해 EB 시비온(EB civion)을 공개했다. EB 시비온은 자동차 OEM이 공급망을 보다 효과적으로 관리하고 소프트웨어 중심 자동차(SDV)를 위한 디지털 콕핏과 애플리케이션 개발을 가속화할 수 있도록 설계된 통합 설루션이다. EB 시비온은 언리얼 엔진을 HMI 소프트웨어 스택의 핵심 구성 요소로 활용해 ADAS 시나리오의 3D 시각화를 구현하는 등 다양한 영역에 적용하고 있다. 시뮬레이션 기반 타깃 표시 기능은 빠른 프로토타이핑을 지원하고, 나이아가라는 동적인 차량 비주얼 이펙트를 제공한다. 또한, 레벨 스트리밍은 대규모 ADAS 데이터를 효율적으로 처리하고, 머티리얼 시스템은 실시간 센서 시각화를 처리한다. 또한 올해 부스에서는 언리얼 엔진으로 구동되는 CARLA를 활용해 안전한 리눅스 기반 애플리케이션을 구축하고 검증하는 방법도 소개했다. CARLA는 현재 정교한 ADAS 시뮬레이터 중 하나로, 심층적인 ADAS 시나리오 검증과 차량 신호에 대한 고퀄리티 시뮬레이션과 테스트, 카메라 데이터 기록, 그리고 전 과정에 걸친 안전 애플리케이션 검증 기능을 제공한다.   ▲ CES 2026 일렉트로비트 부스에서 공개된 EB 시비온 기반 디지털 콕핏 및 ADAS 시각화 데모 체험 현장(출처 : 에픽게임즈)   존 디어 존 디어(John Deere) 부스에서는 현대 농업 기계가 수동 조작에서 자동화로 전환되는 과정을 보여주는 시뮬레이터를 체험할 수 있었다. 언리얼 엔진을 활용하면 짧은 수확철이 아닌 시기에도 실제 수확 환경을 시뮬레이션할 수 있으며, 디스플레이를 통해 스테레오 카메라에 사실적인 시각 데이터를 제공함으로써 자동 하역과 같은 복잡한 시스템을 실제 농경지 환경을 기다리지 않고도 연중 내내 테스트하고 검증하며 향상할 수 있다.   ▲ CES 2026 존 디어 부스에서 공개된 농업 기계 자동화 시뮬레이터 체험 현장(출처 : 에픽게임즈 제공)   코테이 코테이(Kotei)의 부스에서는 언리얼 엔진 5로 제작되고 최신 퀄컴 스냅드래곤 엘리트 플랫폼에서 실행되는 HMI 데모를 볼 수 있었다. 이 데모는 두 개의 화면에 걸쳐 구현됐으며 ADAS 및 주차 시각화, 커스터마이징할 수 있는 차량 색상 및 실내 분위기, 그리고 재미있는 인터랙티브 테마를 선보였다. 차량 내 경험뿐만 아니라, 팀은 ADAS 시뮬레이션과 테스트에 활용되는 언리얼 엔진 기반 디지털 트윈도 공개했다.   ▲ CES 2026 코테이 부스에서 공개된 HMI 데모 체험 현장. 언리얼 엔진 5와 퀄컴 스냅드래곤 엘리트 플랫폼 기반으로 두 개의 화면에 걸쳐 ADAS 및 차량 시각화 기능을 구현한 모습(출처 : 에픽게임즈)   퀄컴 테크놀로지스 퀄컴 테크놀로지스(Qualcomm Technologies)는 CES 2026에서 스냅드래곤 콕핏 엘리트(Snapdragon Cockpit Elite) 및 스냅드래곤 라이드 엘리트(Snapdragon Ride Elite) 플랫폼 데모를 통해 퀄컴 아드레노(Adreno) GPU와 AI 기능을 결합된 환경에서 언리얼 엔진의 루멘 글로벌 일루미네이션 시스템이 구현하는 강력한 경험을 시연했다. 스냅드래곤 디지털 섀시(Snapdragon Digital Chassis) 콘셉트 차량에는 여러 개의 내장형 AI 에이전트가 탑재돼, 사용자의 질문에 답변하고 문제 해결을 지원하며 차내에서 다양한 작업을 선제적으로 수행할 수 있다. 특히 이 AI 에이전트들은 함께 작동한다. 예를 들어, 노면 상태가 악화되면 ADAS AI 에이전트가 보조 AI 에이전트에 도로 상태가 좋지 않다는 정보를 전달하고, 보조 AI 에이전트는 이를 운전자에게 안내한다. 이후 AI 에이전트는 승차감을 보다 편안하게 만들기 위해 차량 설정을 자동으로 조정한다. 하드웨어 기반 레이 트레이싱 지원을 통해 퀄컴 테크놀로지스는 루멘을 활용해 사실적인 라이팅과 그림자를 구현하며 차량 내 비주얼을 매우 높은 퀄리티로 렌더링할 수 있다. 또한 포트나이트 테마를 비롯한 다양한 테마를 적용해 디스플레이를 커스터마이징할 수도 있다.   ▲ CES 2026에서 퀄컴 테크놀로지스의 ‘스냅드래곤 디지털 섀시’ 콘셉트 차량을 통해 시연된 언리얼 엔진 기반 차량 내 경험(출처 : 에픽게임즈)   소니 혼다 모빌리티 현재 양산 전 단계에 있는 아필라 1(AFEELA 1)은 소니 혼다 모빌리티(Sony Honda Mobility)의 첫 번째 모델이다. CES 2026에서 소니 혼다 모빌리티는 언리얼 엔진으로 구현된 인상적인 차량 내 경험을 갖춘 여러 대의 아필라 1 자동차를 선보였다. 아필라 1에 적용된 이 시네마틱 유저 인터페이스는 모든 주행을 연결되고 몰입감 있는 여정으로 바꿔준다. 3D 네이티브 지도 렌더링 시스템, 차량의 인지 정보를 실시간으로 시각화하는 차세대 ADAS 클러스터 뷰 모드, 그리고 실제 주행 데이터에 엔터테인먼트와 정보를 결합한 완전한 인터랙티브 인터페이스 등이 주요 기능으로 제공된다. 사용자는 다양한 테마 중에서 원하는 스타일을 선택할 수 있으며, 디지털 콕핏 디스플레이, 실내 조명, 미디어 바, 전기차 주행 사운드가 유기적으로 연동돼 하나의 통합되고 몰입감 있는 경험을 제공한다.(에픽은 포트나이트 테마를 테스트해보았다.) 소니 혼다 모빌리티가 언리얼 엔진을 활용해 아필라 1 디지털 콕핏을 개발한 과정이 궁금하다면 언리얼 페스트 올랜도 2025에서 녹화된 세션에서 확인이 가능하다.   ▲ CES 2026 현장에서 차량 디스플레이를 통해 포트나이트를 직접 체험하는 모습(출처 : 에픽게임즈)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-03-05
CAD&Graphics 2026년 3월호 목차
  INFOWORLD   Case Study 15 CES 2026에서 만난 언리얼 엔진 차세대 HMI부터 시뮬레이션, 몰입형 모빌리티 생태계까지 20 건설 인력 교육을 혁신한 지멘스와 에듀케이션XR의 디지털 툴 XR과 AI로 건설 분야의 차세대 전기 공학자 양성   Focus 24 플랜트 조선 컨퍼런스 2026, DX 및 AI가 이끄는 기술 진화와 산업 혁신 짚다 46 인텔, 코어 울트라 시리즈 3로 온디바이스 AI 및 에지 시장 공략 가속화 48 오라클, “DB를 넘어 데이터 중심의 AI 플랫폼 기업으로”   People&Company 30 지멘스 디지털 인더스트리 소프트웨어 오병준 한국지사장 AI·디지털 트윈으로 제조 현장의 실질적 가치 입증할 것   New Products 33 HP Z북 울트라 G1a 리뷰 / 정수진 CAE 실무 해석 프로젝트 성능 검증 40 현장을 디지털화하는 차세대 하이브리드 스캐닝 설루션 Stonex X70GO 43 이달의 신제품   Column 50 트렌드에서 얻은 것 No. 28 / 류용효 스마트 엔지니어링과 제조 지능화를 위한 AI 활용 전략 54 디지털 지식전문가 조형식의 지식마당 / 조형식 온톨로지 디지털 트윈 정보화 시대   On Air 57 캐드앤그래픽스 CNG TV 지식방송 지상중계 DX와 AI로 재도약하는 플랜트·조선 산업의 미래   58 News   Directory 107 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 63 새로워진 캐디안 2026 살펴보기 (4) / 최영석 원 중심선 그리기 외 66 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 뮌헨 공과대학교 연구진의 오픈소스 3D 건물 데이터셋 개발 기술 70 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2026 (12) / 최하얀 다이세이의 모바일 CAD 도입과 건설 현장 워크플로의 혁신   Mechanical 73 제품 개발 혁신을 돕는 크레오 파라메트릭 12.0 (8) / 김성철 향상된 제너레이티브 디자인   Analysis 78 앤시스 워크벤치를 활용한 해석 성공 사례 / 박준수 복합재 날개 구조의 배치 설계와 파라메트릭 자동화 해석 88 심센터 HEEDS 더 깊게 살펴 보기 (3) / 이종학 심센터 HEEDS SHERPA의 최적 검색 원리 94 산업을 위한 AI와 버추얼 트윈 기술 (1) / 신정일 MBSE 기반 저탄소 친환경 선박 성능 검증의 프론트 로딩 97 성공적인 유동 해석을 위한 케이던스의 CFD 기술 / 나인플러스IT 고양력 항공기 형상의 공력 시뮬레이션 102 가상 제품 개발을 위한 MBSE 및 SysML의 이해와 핵심 전략 (5) / 오재응 모델 기반 시스템 엔지니어링에서 SysML의 역할     2026-3-dx-aifrom 캐드앤그래픽스     캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기
작성일 : 2026-02-25
HP Z북 울트라 G1a 리뷰 : AI 엔지니어가 살펴본 모바일 워크스테이션의 새로운 기준
HP Z북 울트라 G1a는 고성능 AI 작업과 3D 제작을 동시에 염두에 둔 14인치 모바일 워크스테이션이다. 이 글에서는 필자가 실제로 자주 사용하는 AI 리서처와 3D 제작 작업 시나리오를 바탕으로, 기존에 사용해 온 게이밍 노트북과 비교하면서 HP Z북 울트라 G1a의 장단점을 조명해보고자 한다.   HP Z북 울트라 G1a(ZBook Ultra G1a)는 프로세서 성능과 메모리 용량에 명확하게 집중한 구성을 취함으로써, 기존의 노트북 선택 방법과는 다른 노선을 제시한다. 일반적으로 노트북을 선택할 때 대부분의 사용자는 성능, 휴대성, 가격, 배터리 지속 시간, 확장성 등 여러 요소를 종합적으로 고려한다. 그러나 특정 작업 환경에서는 이러한 균형 중심의 접근이 오히려 비효율로 작용하기도 한다. 대용량 데이터 전처리, 로컬 AI 추론, 3D 콘텐츠 제작과 같이 CPU와 메모리 자원 의존도가 높은 워크로드에서는, 그래픽 성능이나 휴대성보다 연산 자원과 메모리 용량이 작업 효율을 결정짓는 핵심 요소가 되기 때문이다. HP Z북 울트라 G1a는 바로 이러한 관점에서 색다른 접근법을 채택한 기기라고 볼 수 있다. AMD의 라이젠 AI 맥스+ 프로 395(Ryzen AI Max+ PRO 395) 프로세서를 탑재해 128GB에 달하는 대용량 메모리를 제공하는 반면, 그래픽 카드는 외장 GPU가 아닌 내장 그래픽으로 구성된 14인치 노트북이다. 이처럼 극명하게 갈린 사양 구성은 과연 AI 개발과 3D 콘텐츠 제작이라는 두 가지 작업을 모두 감당할 수 있는 선택지일까?   제품 개요 워크스테이션은 일반적으로 크고 무거운 데스크톱 형태로, ‘들고 다니는 기기’와는 거리가 멀다는 인식이 강하다. 그러나 HP Z북 울트라 G1a는 이러한 고정관념을 벗어나, 14인치 폼팩터 안에 워크스테이션급 성능을 담아냈다. 앞서 언급했듯 이 제품은 AMD 라이젠 AI 맥스+ 프로 395 프로세서와 라데온 8060S(Radeon 8060S) 그래픽을 기반으로 설계되었으며, 최대 128GB LPDDR5x 메모리와 대용량 NVMe SSD를 탑재했다. 정량적인 하드웨어 스펙상 무게는 약 1.57~1.59kg으로, 여타 게이밍 노트북과 비교해도 크게 무겁지 않은 수준이다. 실제로 가방에 넣어 휴대했을 때도 다른 노트북에 비해 체감 무게가 과하게 느껴지지는 않았다. 기기 양쪽에는 USB-C 타입 포트 2개(충전 포트 포함)를 비롯해 HDMI, USB-A 타입 단자, 3.5mm 이어폰 단자가 배치되어 있어, 워크스테이션으로서 요구되는 기본적인 확장성도 충분히 갖추고 있다.   디자인 본격적인 사용기에 앞서 디자인을 살펴보자. 보기 좋은 떡이 먹기도 좋다는 말도 있듯이, 매일 사용하는 기기는 사용자의 마음에 들 정도로는 아름다워야 한다. HP Z북 울트라 G1a의 디자인은 간결하고 군더더기 없었다. 특히, 전반적인 제품의 마감 품질이 높다는 것이 느껴졌다. 처음 노트북이 닫힌 상태에서 보았을 때는 매끄럽고 둥근 디자인의 겉모습이 단정하다는 느낌이 들고, 화면을 열어 전원을 켰을 때에는 베젤이 얇고 깔끔하여 프로페셔널하다는 인상을 준다. 디자인에서 가장 좋았던 점은 키보드이다. 처음에는 짙은 회색의 평범한 플라스틱 소재로 느껴졌지만, 사용하다 보니 키보드의 키감이 좋을 뿐만 아니라 이물질이 잘 묻지 않는 코팅으로 되어 있어 사용 시 편리했다. 외부 작업 중 노트북을 열었을 때, 손때 묻은 키보드를 다른 사람에게 드러내는 것이 걱정인 사람이라면 이 노트북의 키보드 마감이 더욱 마음에 들 것이라 생각한다. 또한 카메라에는 오픈·클로즈 방식의 물리적 커버가 적용되어, 노트북 내장 웹캠을 사용하지 않을 때는 완전히 가릴 수 있다. 사소해 보일 수 있지만, 사용자를 고려한 세심한 설계라는 점에서 인상 깊은 부분이었다.   그림 1. 노트북 전면. 디자인이 깔끔하고 단정하여 외부 미팅에도 무난하게 사용할 수 있었다.   AI 및 데이터 전처리 워크로드 이제 AI 엔지니어의 관점에서 이 제품을 살펴보자. AI 제품 개발 과정에서 절실하게 체감하는 주요 요소 중 하나는 CPU 메모리의 여유이다. 모델 학습은 클라우드 GPU나 서버 자원을 활용하는 경우가 많아졌지만, 탐색적 데이터 분석, 실험을 위한 데이터 전처리는 대부분 로컬 환경에서 수행해야 하기 때문이다. 따라서 CPU 성능과 GPU 성능 둘 중 하나를 선택해야 한다면, 많은 사람들의 예상과 달리 GPU보다는 CPU를 선택하는 것이 합리적이다. CPU 메모리가 여유가 있다면 데이터셋을 실험 가능한 요건에 맞춰 수정 및 조정하는 것이 조금 더 편리해질 뿐만 아니라, 데이터셋 전처리와 동시에 다른 작업이 가능하기 때문이다. HP Z북 울트라 G1a의 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 대용량 데이터 전처리와 모델 로딩 과정에서 매우 안정적인 모습을 보였다. 텍스트·이미지 데이터 전처리 작업에서 메모리 부족 현상은 거의 발생하지 않았으며, 기존에 사용하던 게이밍 노트북(32GB RAM, RTX 4060 기준) 대비 체감상 약 절반 수준의 시간으로 작업을 마칠 수 있었다. 이는 대규모 로컬 데이터셋을 다루는 리서처에게 매우 중요한 요소다. AI 허브나 대학·연구기관에서 제공하는 공공 데이터셋의 경우 단일 데이터셋만으로도 수백 GB를 훌쩍 넘기는 경우가 많고, 이를 포맷에 맞게 전처리하는 데 상당한 시간이 소요되기 때문이다. HP Z북 울트라 G1a는 메모리의 양이 크기 때문에, 작업 중간 중간에 메모리 부족으로 인해 컴퓨터가 멈추거나 작업 수행 완료를 위해 컴퓨터를 손 놓고 기다리는 일 없이 여유롭게 전처리를 수행할 수 있었다. 몇 가지 사례를 들어보면, 첫째 <그림 2>와 같이 데이터의 압축 해제, 복사와 같은 간단한 작업에서 매우 빠른 처리 속도를 보여주었다. 데이터 전처리 성능을 실험하기 위해 활용한 ‘음식 분류’ 데이터셋의 경우, 각 클래스마다 1천 개의 고화질 사진이 저장되어 있어 전체 용량이 1TB에 육박하는 매우 큰 데이터셋이다. 그러나 HP Z북 울트라 G1a에서는 30GB 용량의 데이터를 압축 해제하는 데 8분밖에 소요되지 않았고, 일관적으로 140MB/s 전후의 속도를 유지하였다. 이는 HP Z북 울트라 G1a의 메모리 대역폭 확대, 멀티채널 구성 안정성 증가가 큰 영향을 미쳤기 때문으로 생각할 수 있다. 일반적인 환경에서는 압축 해제 단계에서 CPU 처리 속도가 병목으로 작용하여, 저장장치가 충분한 성능을 갖추고 있음에도 불구하고 연속적인 읽기·쓰기 작업이 지연되는 현상이 발생하기도 한다.   그림 2. 대용량 데이터의 전처리에도 빠른 속도를 유지하였고, 프로그램 운용에 여유가 있었다.   반면, HP Z북 울트라 G1a에서는 향상된 프로세서 구조와 메모리 서브시스템을 통해 병목이 제거되었으며, 그 결과 압축 해제와 동시에 디스크 I/O가 지속적으로 최대 대역폭에 가깝게 활용될 수 있었다. 이로 인해 사용자 관점에서는 압축 해제뿐 아니라 파일 복사 속도까지 향상된 것처럼 느껴져 직접적으로 작업 효율 향상이 체감되었다. 기존의 게이밍 노트북이 동일한 작업을 수행하는데 평균 60MB/s의 속도로 약 12분 정도가 소요된 것을 고려하면, 이 작업이 전체 데이터셋에 적용될 때 얼마만큼의 작업 시간을 아낄 수 있을 지 기대해 볼 만하다. 둘째, 파이썬 코드를 활용한 데이터 전처리에서도 높은 성능 개선을 보여주었다. CSV 파일을 활용하여 3D 복셀 데이터를 만드는 작업을 수행하는 코드를 기준으로 실험해보았다. 이는 앞에서와 동일하게 CPU·메모리에 집중된 작업을 할 때의 효율을 검사하기 위한 실험으로, 동일한 SVC 파일을 대상으로 데이터의 시각화를 수행하였을 때를 비교한 것이다. 결과적으로, HP Z북 울트라 G1a는 평균적으로 75FPS(초당 프레임)를 유지하였고, 시각화된 데이터를 360도 회전시켜 확인하는 데에 큰 문제가 없었다. 반면, 기준이 된 다른 기기는 평균 42FPS를 유지하고, 시각화된 데이터를 360도로 회전시켜 확인하는 데 약간의 로딩이 필요했다. 특히, 시각화 결과물을 회전하는 과정에서 약간의 버벅임과 끊김이 발생하여 데이터를 세부적으로 확인할 때 약간의 어려움이 따랐다. 기준 기기 또한 일반적인 사무용 노트북을 기준으로 보았을 때보다는 훨씬 빠르고 원활한 데이터 전처리 성능을 보여주었으나, HP Z북 울트라 G1a는 전처리뿐 아니라 시각화 데이터 인터랙션에서도 안정적으로 동작함으로써 실시간에 가까운 시각화 환경을 제공했다는 점에서 차별화된 사용 경험을 제공하였다.   그림 3. 3D 복셀화에 소요된 시간과 프레임률을 tqdm으로 측정한 결과. 동일한 작업을 수행하는 데 HP Z북 울트라는 75FPS, 기준 기기(HX370 CPU, 32RAM)는 42FPS의 성능을 보여주었다.   로컬 AI 추론 로컬 AI 추론 작업에서도 HP Z북 울트라 G1a는 충분히 인상적인 성능을 보여주었다. 로컬 AI 세팅에는 올라마(Ollama)를 사용하였다. 올라마는 다양한 오픈소스 LLM을 간편히 사용할 수 있게 하는 프로그램으로 윈도우, 맥, 리눅스 등 다양한 환경을 지원하며 CLI 및 GUI 환경을 모두 지원하여 확장성이 좋다. 또한, 로컬에서 REST API 형태로 모델을 노출할 수 있어 파이썬(Python), 노드.js(Node.js), 자바(JAVA(Spring)), 랭체인(LangChain) 등과 연동이 용이하며, 프로토타입 서비스 제작 및 온디바이스 AI, 사내 전용 LLM 구축을 위해 다양하게 쓰인다. 필자는 윈도우에서 GUI 기반의 올라마 클라이언트를 설치하여 로컬 AI 추론을 수행하였으며, 엔비디아 그래픽 카드 드라이버(CUDA 포함)를 설치하지 않고 올라마를 구동하였다. 이 지점에서 HP Z북 울트라 G1a의 프로세서의 특장점이 드러난다. 바로 SoC(System on a Chip) 설계를 통해 프로세서 자체에서 CPU·GPU·NPU를 통합하여 활용한다는 것이다. 따라서 이 워크스테이션을 사용하는 사람은 일반적으로 말하는 CPU-Only와 같이 GPU 드라이버를 따로 설치하지 않더라도, AI 추론 및 훈련을 수행할 때 GPU·NPU를 사용하는 것과 같은 효과를 체감할 수 있다.   그림 4. 올라마의 공식 홈페이지. 윈도우, 맥, 리눅스 등 다양한 OS를 지원하며 오픈소스로 활용 가능한 LLM 모델의 가중치를 제공하여 로컬 추론을 가능하게 하는 프로그램이다.   올라마를 활용해 중·대형 언어 모델(gpt-oss:120B)과 소형 언어 모델(qwen3:8B)을 각각 다운로드한 뒤, 동일한 조건에서 추론 시간을 비교해 보았다. 결과는 예상 이상이었다. 중·대형 언어 모델의 추론에는 (약간의 쿨링 소음이 발생하였지만) 약 10초가 소요되었고, 소형 언어 모델 역시 약 13초 내외로 추론을 마쳤다. 비교 대상으로 사용한 다른 노트북에서는 중·대형 모델이 추론 도중 오류를 일으켰고, 소형 모델조차 358초가 걸렸던 점을 감안하면 상당한 차이다. ‘메모리 용량 차이가 얼마나 크겠어’라고 생각한 필자의 판단을 무색하게 만들 정도로, 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 로컬 AI 추론 환경에서 분명한 강점으로 작용했다. 이러한 특성은 AI 개발자에게만 국한된 장점은 아니다. 성능이 검증된 오픈소스 언어 모델을 노트북에 직접 탑재해 휴대할 수 있다는 것은, 인터넷 연결이 원활하지 않은 환경에서도 개인화된 AI 비서를 여러 개 운용하며 작업을 이어갈 수 있음을 의미한다. 로컬 환경에서의 AI 활용 가능성을 실질적인 수준으로 끌어올렸다는 점에서, HP Z북 울트라 G1a의 방향성과 장점이 명확히 드러나는 지점이었다.   그림 5. qwen3:8b로 로컬 추론을 수행한 결과   그림 6. gpt-oss:120b로 로컬 추론을 수행한 결과   3D 작업 워크플로 다음은 3D 작업 워크플로로 넘어가 보자. 필자가 주로 사용하는 캐릭터 크리에이터(Character Creator), 지브러시(Zbrush) 등을 통하여 내장 그래픽만을 가지고 있음에도 ‘충분히 작업이 가능한가?’라는 요소를 살펴보고, 다음으로는 고화질을 요구하는 3D 게임을 실행시켜 성능을 테스트해 보았다. 먼저, 리얼루션(Reallusion)의 캐릭터 크리에이터 5 소프트웨어를 설치하여 작업 가능 여부를 확인해 보았다. 이 소프트웨어는 사실적 묘사를 담은 메타 휴먼을 만들기 위한 소프트웨어이다. 얼굴, 체형, 옷 및 장신구 같은 다양한 요소를 조합하는 자유도가 높고, 피부 결이나 머리카락 같은 요소까지 섬세하게 구현해야 하기 때문에 일반적인 게이밍 노트북에서도 원활한 작업이 어려운 소프트웨어 중 하나이다. 실제로, 필자가 보유한 게이밍 노트북 기기에서는 동일한 작업을 수행하며 컴퓨터가 다운되는 경우가 종종 있었고, 새로운 스킨으로 교체하거나 요소를 변형할 때 1 ~ 5분 정도의 로딩 타임을 요구했다.   그림 7. 캐릭터 크리에이터로 작업하는 모습   그러나, HP Z북 울트라 G1a에서는 로딩 시간이 1 ~ 3분 이하로 줄어드는 모습을 보여주었을 뿐만 아니라, 컴퓨터가 다운되는 경우도 발생하지 않아 상당히 쾌적하게 작업을 진행할 수 있었다. 물론 다루는 데이터의 크기 자체가 큰 만큼 약간의 로딩 시간은 피해갈 수 없었으나, 대부분 1분 이내의 로딩으로 작업이 완료되어 작업 완료를 기다리는 시간이 줄어들었다. 다음으로는 지브러시를 통해 추가 검증을 진행하였다. 지브러시의 경우 매끄러운 표면을 위해 의도적으로 폴리곤을 많이 나누면서 메모리 부하가 발생하는 경우가 많은데, <그림 8>과 같이 복잡한 인간형 모델링, 특히 상업적으로 판매 가능한 정도의 모델링을 테스트하였음에도 데이터의 로드 및 조형에 시간이 소요되지 않고 바로 진행할 수 있는 정도의 원활함을 보여주었다.   그림 8. 매끄러운 곡선으로 폴리곤의 수가 많아지더라도 원활히 처리하는 모습을 볼 수 있다.   마지막으로, 3D 게임을 통해 성능을 확인하였다. 대상이 된 게임은 ‘호그와트 레거시’로, 언리얼 엔진으로 만들어졌으며 비교적 실사화 스타일의 그래픽, 다양한 파티클 사용으로 고난도의 그래픽 컨트롤을 요구하는 게임이다. 게임에서는 플레이를 진행하며 기기의 사양을 자동으로 측정하여 적절한 그래픽 옵션을 정해주는데, 이 기기는 자동으로 중간 단계의 그래픽 옵션으로 세팅되는 것을 확인하였다.   그림 9. 기기 옵션을 자동으로 분석하여 적절한 수준의 그래픽 구현. 이 기기는 중간 옵션을 배정받았다.   물론 기존의 작업에 비해 3D 게임을 진행할 때는 기기의 쿨링팬 소음이 두드러지게 들리는 편이었다. 앞서 수행한 작업에서는 쿨링이 필요하지 않거나, 쿨링이 필요하더라도 비교적 짧고 조용하게 한 번의 ‘쏴아아’하는 소리가 들렸다면, 3D 게임을 실행 중일 때는 지속적인 쿨링 소음이 발생하였기 때문이다. 그러나, 여기에서도 HP Z북 울트라 G1a의 탁월한 점을 발견할 수 있었다. 그것은 바로 ‘소음이 발생하는 만큼 쿨링이 잘 되고 있다’는 점이다. 랩톱을 주로 사용하는 사용자는 공감하겠지만, 일부 랩톱의 경우 쿨링 소음이 큰데도 불구하고 쿨링이 제대로 되지 않아 기기 아래쪽의 키보드 부분이 상당히 뜨거워지는 경우가 잦다. 그러나 이 기기는 소음이 크더라도 쿨링이 확실히 진행되고 있었고, 피부에 장시간 접촉시킬 수 있을 정도의 발열만 있었다. 아울러, 게임 내의 실사화 그래픽은 모두 끊기는 부분 없이 자연스럽게 재생되었고, 게임 진행에 이상이 없이 원활히 진행되었다.   그림 10. 그림 내 실사화 시나리오 중 그래픽 재현성이 좋은 부분의 캡처. 왼쪽의 바다 물결 표현, 전면의 포그 표현 등이 끊기지 않고 자연스럽게 재생되었다.   맺음말 HP Z북 울트라 G1a는 AI 리서처와 3D 제작 작업을 병행하는 사용자에게 모바일 워크스테이션으로서 분명한 가치를 지닌 기기다. 이 제품의 구성은 모든 요소를 고르게 끌어올리기보다는, 프로세서와 메모리 성능에 명확하게 힘을 준 제품이다. 이에 사용 목적이 분명한 사용자에게 강점으로 작용한다. AI 전처리, 로컬 추론, 3D 제작 작업과 같이 CPU·메모리 의존도가 높은 워크로드에서는 이러한 설계 방향이 체감 성능으로 직결되기 때문이다. 그런 의미에서 HP Z북 울트라 G1a는 특히 다음과 같은 사용자에게 추천하고 싶다. 첫째, 대용량 데이터 전처리가 일상적인 AI 엔지니어, 둘째, 3D 콘텐츠 제작 과정에서 초안과 검증 단계의 결과물을 빠르게 만들어야 하는 사용자, 셋째, 이 모든 작업을 데스크톱이나 서버에 의존하지 않고 모바일 환경에서도 이어가야 하는 사용자다. HP Z북 울트라 G1a를 사용하는 사용자라면, 적어도 서버급 연산을 요구하는 극단적인 작업을 제외하고는 대부분의 실무 환경에서 성능으로 인한 제약을 체감할 일은 드물 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 박정은 AI 융합 분야 연구자이자 엔지니어로, 컴퓨터 비전, 게임 엔진, 머신러닝, 딥러닝 기반 실무를 수행하며 대용량 AI 데이터 전처리와 AI 실험 파이프라인을 설계·운용해왔다. 필적, 운동학, 감정 인식 중심의 AI 프로덕트 R&D를 수행하며, 모바일 워크스테이션 환경에서 CPU·GPU 자원을 밀도 있게 활용하는 실험 구조를 활용하였다. 산업 연계 교육 현장에서 연구와 실무를 연결하는 엔지니어이자 교육자로 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04
[케이스 스터디] 게임으로 이어진 ‘킬 빌’의 다음 이야기
언리얼 엔진을 통해 시네마틱 경험으로 탄생한 복수극   20여 년 전 쿠엔틴 타란티노(Quentin Tarantino)는 영화 ‘킬 빌(Kill Bill)’을 위해 구상한 한 신(scene)을 작성했지만, 그 장면은 끝내 스크린에 올리지 못한 채 팬들의 전설과 오래된 대본 속에만 남았다. 그 이야기는 ‘잊혀진 챕터 : 유키의 복수(The Lost Chapter : Yuki’s Revenge)’로 되살아나, 영화가 아닌 ‘포트나이트’에서 게임이라는 새로운 매개체를 통해 처음으로 세상에 공개되었다. ■ 자료 제공 : 에픽게임즈   ▲ 쿠엔틴 타란티노 감독과 에픽게임즈의 특별 협업 작품 ‘잊혀진 챕터 : 유키의 복수’ 한 장면 속 총을 든 주인공 베아트릭스 키도(우마 서먼)(출처 : 에픽게임즈)   에픽게임즈가 쿠엔틴 타란티노 감독에게 처음 제안을 보냈을 때, 타란티노 감독은 “(이 장면을 위해) 오랜 시간을 고민하며 적절한 시기가 올 때까지 기다리고 있었다”고 말했다. 그는 포트나이트가 “보다 더 시네마틱한 경험을 제공”할 수 있을 것 같았기 때문에, 유키의 복수를 위해 최적이라고 판단하고 협업을 진행했다. ‘잊혀진 챕터 : 유키의 복수’에서는 언리얼 엔진의 ‘버추얼 프로덕션 툴’을 활용해 타란티노 감독의 비전을 현실로 제작했다. 이를 통해 감독은 배우들에게 연기를 지시하고 포트나이트 속에서 실시간으로 연기를 확인할 수 있었다. 더 서드 플로어(The Third Floor)와 에픽게임즈는 메타휴먼 기술로 배우들의 모습을 정교하게 구현하고 실제 연기를 스타일라이즈드 애니메이션과 결합했다. 영화 제작자들은 언리얼 엔진의 메타휴먼 기술과 버추얼 프로덕션 툴을 활용해 유연하고 통합된 시스템에서 배우들이 즉각적으로 펼치는 라이브 액션을 경험할 수 있었다.   ▲ ‘더 로스트 챕터 : 유키의 복수’의 제작 비하인드 영상에 출연한 타란티노 감독(출처 : 에픽게임즈)   제작 팀은 4D 스캔을 기반으로 학습된 고퀄리티 ‘메타휴먼 페이셜 릭’을 사용해 포트나이트 스타일에 부합하는 섬세한 얼굴 표정과 감정을 구현했다. 그리고 메타휴먼 애니메이터를 웹캠과 스마트폰 등 표준 모노 카메라와 스테레오 HMC와 함께 사용해 현장에서 리얼타임 고퀄리티 애니메이션을 캡처했다. 헤드마운트 카메라를 사용해 배우들의 목소리와 얼굴 데이터를 동시에 캡처하고, 각 녹화 세션이 최종 애니메이션 제작 파이프라인에 바로 투입할 수 있었다. 에픽게임즈의 스콧 벤자 애니메이션 감독은 “언리얼 엔진의 실시간 캐릭터 렌더링 기능은 애니메이터뿐 아니라 배우들에게도 큰 도움이 된다”고 밝혔다. 배우들은 다양한 포즈를 시험해보고, 여러 표정을 즉석에서 시도하며 자신이 전달하려는 신체 표현이 화면에서 어떻게 읽히는지를 바로 확인할 수 있다. 이러한 과정을 통해 연기와 애니메이션 사이 간극을 좁히고, 퍼포먼스를 더 자연스럽고 설득력 있게 만든다는 것이다. 배우와 촬영 팀의 상호작용을 강화하기 위해 팀은 에어소프트 소품 총에 장착할 수 있는 프로토타입 하드웨어 부착물인 머즐리포트(MuzzleReport)를 개발했다. 이 장치는 발사 시점을 감지해 해당 이벤트를 언리얼 엔진으로 직접 전송한다. 이를 통해 팀은 가상 신에서 실시간으로 총구 화염, 탄흔 궤적, 탄착 지점을 확인할 수 있어, 배우에게 즉각적인 시각 및 촉각 피드백을 전달할 수 있었다. 유키 역의 배우 미유 이시다테 로버츠는 이번 촬영 방식에 대해 “내 몸의 움직임은 물론, 소품이 어떻게 사용되는지와 내가 세계관 안에서 어떻게 반응하는지까지 정확히 볼 수 있어 매우 새롭고 혁신적인 경험이었다”면서, “모든 촬영 장면이 내 앞에 바로 보였기 때문에 상상할 필요가 없었다”고 전했다.   ▲ ‘잊혀진 챕터 : 유키의 복수’에 출연한 유키가 차량 위에서 총을 겨누고 있다.(출처 : 에픽게임즈)   ▲ 촬영 현장에서 유키 역할로 분한 미유 이시다테 로버츠가 장비를 장착한 채 총을 겨누고 있다.(출처 : 에픽게임즈)   제작 과정에는 실시간 파괴도 포함되어, 촬영 중에 엔진에서 피직스 기반 파손과 충격 효과를 실시간으로 재생할 수 있었다. 이를 통해 샷 컴포지션을 더 정확하게 설정할 수 있었고, 배우들은 순간적으로 반응을 조정할 수 있었으며, 팀은 후반 작업이 아닌 촬영 중에 주요 파괴 장면을 다듬을 수 있었다. 에픽게임즈 관계자는 가상 프로덕션 환경에서 무기를 사용하는 장면의 중요성에 대해 “배우가 소품을 다루더라도 실제와 같은 반응을 느낄 수 있어야 하고, 동시에 단순히 연기하는 것이 아니라 무언가를 맞히고 있다는 감각을 체감하는 것이 중요하다”고 설명했다. 이를 위해 무기 끝 부분에 머즐리포트를 부착해 발사 순간을 감지하고, 그 데이터를 언리얼 엔진으로 실시간 전송했다고 밝혔다. 배우가 실제 무기를 쏘는 것처럼 몰입해 연기할 수 있었던 경험은 기존 가상 프로덕션 현장에서는 보기 드문 사례였다고 덧붙였다. 스턴트맨인 조 벨은 총구 관련 촬영 장면과 관련해 “현장에서 모두가 완전히 안전하다는 걸 알고 있는 소품 총을 사용하면서, 발사 후 반사적인 행동과 반응이 잘 보이도록 연출할 수 있었다”면서, “총을 쏘거나 차량이 무너지고 파편이 튀는 장면까지 실시간으로 화면을 확인하며 촬영할 수 있었다”고 설명했다. 에픽게임즈 관계자는 이번 프로젝트에서 언리얼 엔진이 수행한 역할에 대해 “작업을 최대한 빠르게 진행하기 위해 언리얼 엔진이 핵심이 될 것이라는 점은 처음부터 알고 있었다”고 말했다. 그는 이어 “과거에는 스토리보드나 기존 방식으로 여러 번의 반복 작업이 필요했던 카메라 구도와 화면 구성도, 현장에서는 실시간으로 조정할 수 있었다”면서, “이런 도구들이 모두 언리얼 엔진 사용자에게 열려 있다는 점에서, 우리는 전문가의 작업 방식을 일반 개인 사용자까지 확장되어 활용될 수 있으면서도 동일한 수준의 퀄리티를 제공하고 싶었다”고 덧붙였다. 잊혀진 챕터는 에픽게임즈의 리얼타임 툴이 영화와 인터랙티브 스토리텔링을 더욱 긴밀하게 연결하여 영화적 순간을 포트나이트에서 수백만 명이 함께 즐기는 공유 경험으로 전환할 수 있었음을 보여준다.   ▲ 베아트릭스 키도의 스턴트를 연기한 조 벨이 화면에 비친 자신의 모습을 화면으로 보며 연기를 조정하고 있다.(출처 : 에픽게임즈)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04