• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "인터랙션"에 대한 통합 검색 내용이 87개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[케이스 스터디] 확장현실로 건설 장비의 사용 교육과 운영 효율 강화
포지FX가 VR 훈련 설루션을 만드는 방법   콘크리트 레벨링 기술 기업인 소메로 엔터프라이즈(Somero Enterprises)는 포지FX(ForgeFX)와 파트너십을 맺고 S-22EZ 레이저 스크리드 장비용 몰입형 가상 현실(VR) 설루션으로 작업자 교육에 혁신을 가져왔다. 콘크리트 전문가를 위한 이 몰입형 교육 설루션은 높은 교육 비용과 물류 문제를 줄이는 동시에 작업자에게 안전하고 참여도가 높은 실습 학습 환경을 제공한다. 소메로와 같은 제조업체는 유니티(Unity)의 기술 및 XR 인터랙션 툴킷(XR Interaction Toolkit)과 같은 툴을 활용하여 교육 프로세스를 간소화하고, 운영자의 숙련도를 개선하며, 운영상의 제약을 줄일 수 있다. ■ 자료 제공 : 유니티 코리아     오늘날 건설 업계에서 숙련된 인재를 찾는 것은 인력 부족으로 인해 프로젝트가 중단될 위기에 처한 것과 마찬가지로 벅찬 일이다. 2024년 미국 건설업협회에 따르면, 현재 건설업체의 79%가 숙련된 인력을 구하기 어려워 프로젝트 일정과 비용에 영향을 받고 있다고 한다. 전미 주택 건설업자 협회에 따르면 2031년까지 인력의 41%가 은퇴할 것으로 예상되는 등 인력 고령화도 이러한 격차의 원인 중 하나이다. 건설업계의 기술 인력 부족에 대한 스마트 설루션의 필요성이 그 어느 때보다 커졌다.   기존 교육의 과제 소메로는 고품질의 평탄한 콘크리트 바닥을 만들기 위한 핵심 도구인 S-22EZ 레이저 스크리드 기계를 비롯한 레이저 유도 콘크리트 스크리드 장비 전문 업체이다. 이들의 목표는 높은 출장 비용, 장비의 마모, 물류의 한계 등 글로벌 수용 능력의 제약을 해결하면서, 안전하고 효율적으로 운영자를 교육할 수 있는 VR 시뮬레이터를 개발하는 것이었다. 교육생들은 물리적 기계 없이도 컨트롤을 다루고 공간 역학을 이해하는 경험이 필요했다. 콘크리트 평탄화 기술을 마스터하려면 단순한 도구가 아니라 수년간의 신체적 연습을 통해 연마한 기술을 전수받아야 한다. 소메로의 데이브 라사카(Dave Raasakka) 글로벌 고객 지원 담당 부사장은 “콘크리트는 부패하기 쉬운 제품이다. 일단 땅에 떨어지면 한 시간 내에 완료해야 한다. 그렇지 않으면 문제가 생길 수 있다”고 설명했다. S-22EZ 레이저 스크리드 장비와 같은 중장비 교육에는 일반적으로 기계 자체, 레이저 트랜스미터와 같은 특수 장비, 적절한 콘크리트 형태와 타설 조건을 갖춘 전용 교육 공간 등 광범위한 물리적 자원이 필요하다. 이러한 실제 시나리오는 종종 기계의 마모를 포함하여 높은 비용을 수반하며 장비 가용성, 악천후, 높은 부품에 접근하는 동안의 미끄러짐 및 추락과 같은 위험과 같은 요인으로 인해 방해를 받을 수 있다. 6개의 글로벌 서비스 센터와 연간 수백 명의 교육생을 보유한 소메로 콘크리트 인스티튜트(Somero Concrete Institute)는 이러한 물류, 재무 및 안전 문제를 효과적으로 해결할 수 있는 확장 가능한 설루션이 필요했다. 소메로는 그들의 요구 사항을 충족하고 제약 조건을 해결하는 일관된 고품질 학습 경험을 제공하기 위해 대체 교육 설루션으로 포지FX 시뮬레이션(ForgeFX Simulations)을 선택했다. 실제 기계로 작업하는 경험을 모방하는 데 필요한 촉각적 피드백과 시각적 사실감을 포착하는 등 레이저 스크리드의 작동을 정확하게 재현하는 몰입형 교육 시뮬레이터를 설계해야 하는 복잡한 과제에 직면했다. 유니티 기반의 이 설루션은 S-22EZ의 복잡한 컨트롤을 복제하여 교육생에게 가상 환경에서 실제와 같은 실습 경험을 제공하므로 학습 과정에서 물리적 장비가 필요하지 않다.     사실감을 높여주는 기술/기능 유니티의 XR(확장현실) 툴은 S-22EZ 레이저 스크리드 VR 시뮬레이터를 구동하여 사실적인 몰입형 3D 환경에서 장비 동작을 정밀하게 재현할 수 있다. 유니티 클라우드(Unity Cloud)의 예외 보고 기능은 실행 가능한 스택 추적을 제공하여 최소한의 수동 개입으로 QA 및 이슈 추적을 지원한다. 성능의 경우, 유니티의 CPU 및 GPU 프로파일러를 사용하여 병목 현상을 진단하고 프레임 속도를 최적화하여 원활하고 반응이 빠른 VR 경험을 보장한다. 이러한 도구는 특히 물리 계산에서 비효율적인 부분을 파악하고 해결하여, 원활한 상호 작용과 안정적인 시뮬레이션을 유지하도록 안내한다. XR 인터랙션 툴킷(XRITK)은 가상 상호작용을 간소화하는 직관적인 크로스 플랫폼 설루션으로, 소메로 트레이닝 시뮬레이터의 몰입도와 운영 효율을 높인다. 유니티는 XRITK를 사용하여 VR 릭을 관리함으로써 메타 퀘스트 3에서 컨트롤러와 고급 핸드 트래킹 기능을 지원하여 교육생의 몰입도를 극대화하는 원활하고 반응이 빠른 교육 환경을 만들 수 있었다. 이 설정은 스냅 회전, 순간 이동, 오브젝트 조작과 같은 인터랙션 구성 요소를 표준화하여 개발 시간을 최소화하고 향후 하드웨어 및 소프트웨어 업데이트에도 시뮬레이터가 적응력을 유지할 수 있도록 한다.   ▲ 충돌기가 작동하는 모습을 보여주는 개발자 화면   유니티의 잡 시스템을 사용하면 메인 스레드의 성능에 영향을 주지 않고 보조 스레드에서 콘크리트를 사실적으로 시뮬레이션할 수 있다. 트리거 충돌기를 바운딩 박스로 사용하여 의도적이든 비의도적이든 콘크리트에 영향을 줄 수 있는 요소(예 : 스크리드 헤드 또는 기계 타이어로 인한 요소)를 정의했다. 여기에는 강체(rigid body)가 없고 충돌(collision)에 대한 레이어 마스크가 아무것도 포함하지 않도록 설정되어 있으므로, 메인 스레드에서 최소한의 작업이 수행되고 있다. 작업 시스템을 사용하면 메인 스레드 성능에 영향을 주지 않고 독립형 퀘스트 헤드셋에서 최대 4개의 스레드를 동시에 실행할 수 있다.(메인 스레드에서는 콘크리트에 영향을 줄 수 있는 기계 조각을 나타내는 바운딩 박스의 위치를 추적한다.)   ▲ 핸드 트래킹을 통해 기계 컨트롤과 현실감 있게 상호작용할 수 있다.   유니티는 다음을 활용한다. 유니티 터레인(Unity Terrain)을 활용하여 콘크리트 표면을 사실적으로 렌더링하고 텍스처를 블렌딩하여 타설 전반에 걸쳐 다양한 마감과 일관성을 반영한다. 유니티 잡(Unity Job)은 커스텀 콘크리트 시뮬레이션의 계산을 오프로드하여 쟁기나 진동기와 같은 콘크리트 충돌기가 콘크리트의 매끄러움이나 거칠기에 미치는 영향과 표면에서 콘크리트를 밀고 당기는 방식을 결정하는 커스텀 콘크리트 시뮬레이션에 배포된다. ‘러프’ 및 ‘스무스’ 텍스처가 있으며, 기본값은 러프이다. 지형 높이 맵의 각 지점에서 얼마나 부드러운 텍스처를 표시할지에 대한 알파 값을 설정한다. 메인 스레드에는 작업에 쓰이는 하이트맵 및 알파 맵 데이터와 일치하도록 지형을 업데이트하는 두 가지 빠른 함수가 있다. 이러한 시스템은 사용자가 콘크리트 작업의 시각적, 촉각적 뉘앙스를 경험할 수 있는 몰입형 가상 환경을 강화하여 복잡한 건설 활동을 충실하게 재현함으로써 교육 효과와 사용자 참여를 높인다.   ▲ 워크어라운드 검사 강의 시연하기   고객 피드백 파일럿 단계가 끝날 무렵, 소메로는 VR 교육을 마친 후 22EZ 레이저 스크리드에서 작업자 기술이 향상되었음을 보여주는 두 가지 사례 연구를 수행했다. 사례 1 : 비사용자 직원이 VR 교육을 받고 성공적으로 기계 사용법을 시연할 수 있었다. 사례 2 : 교육을 받은 비사용자를 대상으로 설문조사를 실시한 결과, 기계 작동에 자신감이 생겼다고 응답했다.   시뮬레이터의 향후 계획 보다 효과적인 교육 소메로 S-22EZ 고급 레이저 스크리드 VR 교육 시뮬레이터는 건설 교육 기술의 도약을 상징한다. 이 몰입형 교육 플랫폼은 기존 교육 방법의 문제를 해결함으로써 전 세계 운영자에게 높아진 정확성, 접근성 및 참여도를 제공한다. 복잡한 실제 시나리오를 시뮬레이션하고 환경에 미치는 영향을 줄이며 기술 유지를 강화하는 기능을 갖춘 이 시뮬레이터는 작업자가 최적의 성과를 낼 수 있도록 준비할 뿐만 아니라 소메로가 더 높은 효율과 ROI를 달성할 수 있도록 지원한다.   시장 도달 범위 확대 이 시뮬레이터는 유통업체가 대규모 기계를 원격으로 대화형으로 시연할 수 있는 기능을 제공함으로써, 소메로의 글로벌 시장 진출에 긍정적인 영향을 미칠 것으로 보인다. 소메로는 판매 주기를 가속화하고, 고객의 의사 결정을 개선하며, 글로벌 입지를 확장하는 동시에 기존 장비 쇼케이스와 관련된 물류 비용과 환경에 미치는 영향을 줄일 수 있는 잠재력을 가지고 있다.   체계적인 수업 그 이상 소메로는 시뮬레이터 2단계에 대한 추가 테스트를 진행하면서 3단계 로드맵을 구상하고 있다. 다양한 슬럼프 수준이나 건조 단계와 같은 요소를 재현하는 고급 콘크리트 시뮬레이션, 구조화된 수업 단계를 넘어, 교육생이 가상 기계와 자유롭게 상호작용할 수 있는 샌드박스 스타일의 수업 등이 잠재적인 집중 분야이다. 포지FX와 소메로는 유니티 플랫폼에서 혁신을 거듭하면서, 제조 업계에서 혁신적인 교육 경험을 제공할 수 있는 가능성을 높이고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
[포커스] 코리아 그래픽스 2025, AI로 가속하는 산업과 크리에이티브의 변화를 짚다 (1)
‘코리아 그래픽스 2025’가 지난 9월 11~12일 온라인으로 진행됐다. ‘AI로 혁신하는 3D 시각화와 산업의 미래’를 주제로 열린 ‘코리아 그래픽스 2025’에서는 급변하는 기술 트렌드 속에서 AI(인공지능)와 3D 시각화가 산업과 문화 전반에 미치는 영향력을 조명했다. 또한 AI 기술의 실질적인 적용 사례와 잠재력을 통해, AI가 단순한 도구를 넘어 창의적 동반자로 진화하는 흐름을 짚었다. ■ 정수진 편집장     캐드앤그래픽스 최경화 국장은 개회사에서 AI와 3D 시각화 기술의 융합이 산업과 문화를 혁신하는 핵심 동력이라고 강조했다. 생성형 AI가 3D 창작을 대중화하는 가운데, 제조·건설 분야에서는 디지털 트윈과 XR(확장현실)이, 엔터테인먼트에서는 실시간 시각화 기술이 새로운 가치를 만들고 있다. 최경화 국장은 “AI를 창의적 동반자로 삼아 기술을 지휘하는 디자이너의 역할이 중요해질 것”이라고 덧붙였다.   AI 시대의 디자인 혁신과 생성형 AI의 미래 행사 첫째 날인 9월 11일, 한양대학교 현경훈 교수는 ‘디자이너와 생성형 AI가 만드는 디자인-제조의 미래’를 주제로 기조연설을 진행했다. 그는 “생성형 AI는 불과 몇 분 만에 고품질의 시각적 결과물을 만들어낼 정도로 기술 발전 속도가 빠르다. 특히 공간 설계 분야, 즉 건축 설계에서는 많은 인력과 전문 지식이 필요하여 설계 자동화에 대한 관심이 매우 크며, 자동 평면도 생성 및 건물 성능 시뮬레이션 방법이 지속적으로 개발되어 왔다. 그러나 이 분야의 생성형 AI는 주로 정량화된 목표 달성을 위한 수단으로만 활용되는 한계가 있다”고 짚었다. 한편으로 스타일, 의미, 조형성, 선호도와 같은 정성적 지표나 디자인 초기 단계처럼 목표 정의가 어려운 영역에서는 AI 모델을 바로 활용하여 디자인을 자동화하기가 어렵다. 또한, 많은 디자인 요소를 가진 객체에서는 이들 요소의 재조합에 따른 탐색 공간이 더욱 방대해지고, 모든 공간을 탐색하는 데에 오랜 시간이 걸린다. 따라서 인간이 디자인 공간을 효과적으로 탐색할 수 있도록 지원하는 것이 필요하며, 이는 디자이너를 위한 생성형 AI가 해결해야 할 문제라는 것이 현경훈 교수의 시각이다. 현경훈 교수는 프롬프트만으로 원하는 결과물을 얻기가 어려운 생성형 AI와의 소통 문제를 해결할 수 있는 방법으로 ‘동작 기반 AI 인터랙션’ 개념을 제시했다. 핵심은 디자이너가 아이디어를 구상하는 과정에서 취하는 스케치, 검색, 특정 영역 응시 등 다양한 ‘동작’을 통해 디자이너의 관심 영역과 의도를 추론하고, 이를 바탕으로 정량화하기 어려운 목표를 달성하도록 지원하는 것이다. 현경훈 교수는 “디자이너를 위한 생성형 AI는 동작을 활용하여 디자이너가 의도한 결과를 생성할 수 있어야 하고, 단순한 아이디어 시각화를 넘어 탐색과 활용의 균형을 통해 진정한 AI 기반 탐색이 가능해져야 한다”고 짚었다.   ▲ 한양대학교 현경훈 교수   AI 시대의 디자인 패러다임 변화와 디자이너의 역할 9월 12일에는 두 편의 기조연설이 진행됐다. 서울미디어대학원대학교 유훈식 교수는 ‘AI 시대의 그래픽 디자인 패러다임 변화와 혁신 사례’를 주제로 한 기조연설에서 디지털 전환(DX)을 넘어 AI로의 완전한 패러다임 변화가 도래했으며, 기업과 개인 모두가 AI를 통해 업무 방식을 혁신해야 한다고 강조했다. 유훈식 교수는 AI의 기술 발전 속도가 매우 빠르며, 디자인 분야에서도 생성형 AI의 활용이 활발히 이루어지고 있다고 설명했다. 특히 이미지, 텍스트, 동영상 등 고품질의 시각적 결과물을 순식간에 만들어내는 생성형 AI의 능력은 디자인 산업에 큰 혁신을 가져오고 있다고 분석했다. 또한, 생성형 AI를 활용한 가구 공연 영상 제작 경험을 공유하면서, “디자인 패러다임이 시스템 구축 및 프롬프트 엔지니어링 중심으로 변화하고 있으며, AI를 통해 인간의 역량을 증강하는 디자인 방식으로 나아가야 한다”고 전했다. 이런 변화에 맞춰서 디자이너의 역할은 전통적인 GUI(그래픽 사용자 인터페이스) 디자인을 넘어 UX/UI, 제품 및 서비스 경험, 나아가 비즈니스 모델까지 고려하는 형태로 확장되고 있다. 유훈식 교수는 “미래에는 디자이너가 AI 디자인 시스템을 구축하고, 데이터 학습 및 프롬프트 최적화 역량을 갖춘 ‘AI 디자이너’로서 활동해야 한다”고 말했다. AI는 텍스트, 이미지, 영상 생성 분야에서 이미 인간보다 뛰어난 능력을 보여주고 있으며, 인간은 AI와 협업하여 창의적이고 감성적인 ‘휴먼 터치’를 더하는 역할에 집중해야 한다는 것이다. AI 디자이너는 궁극적으로 AI를 디자인하여 자신만의 AI 시스템을 만들고, 이를 통해 최적화된 결과물을 창출하는 철학과 관점을 가져야 한다는 것이 유훈식 교수의 조언이다.   ▲ 서울미디어대학원대학교 유훈식 교수   모빌리티 XR과 AI 융합 기술의 미래 고려대학교 박진호 교수는 ‘XR과 인공지능의 만남 : XR 콘텐츠의 무한한 가능성과 초연결 콘텐츠의 미래’를 주제로 한 기조연설에서, XR 기술과 AI의 결합이 산업에 가져올 가능성을 조명했다. 박진호 교수는 VR, AR, MR을 포함한 XR 기술이 메타버스 및 디지털 트윈과 밀접하게 연관되어 있으며, 그래픽, 디바이스, 시뮬레이션 기술이 유기적으로 연결되어 있다고 설명했다. 특히 AI가 XR 기술과 융합되어 에이전틱 AI(agentic AI) 및 피지컬 AI(physical AI)로 발전하고 있다고 강조했다. 모빌리티 산업에서는 XR 기술이 주로 교육/훈련 및 엔지니어링 분야에 적용되고 있다. 실제 차량을 이용한 프로토타이핑, 테스팅, 마케팅 등은 많은 비용과 시간이 들지만, 가상현실 기술을 활용한 버추얼 검증을 통해 이를 상당 부분 대체하면서 시간과 비용을 절감하는 추세이다. 박진호 교수는 “또한 모빌리티 분야에서 AI의 중요성이 부각되고 있으며, 특히 무인화 추세가 가속화된다”고 설명했다. AI는 전투기를 포함해 전차, 농기계 등의 무인 조종 기술 개발에 활용된다. AI 개발 환경 지원 툴을 활용해 가상 환경을 자동으로 생성하고 물리 기반의 합성 데이터를 만들어 AI 훈련에 활용할 수 있다. AI가 탑재된 모빌리티의 가상 주행 데이터를 분석하는 검사 시스템도 개발되고 있다. 박진호 교수는 가상 훈련과 가상 검증을 넘어, AI와 모빌리티가 혼합된 ‘AI In The Loop’ 시뮬레이션 시스템의 기술적 수요가 증가하고 있다고 전했다. 박진호 교수는 “미래 자율주행 시대가 도래하면 자동차가 더 이상 단순한 이동 수단이 아니라 콘텐츠 소비 플랫폼이 될 것”이라고 전망하면서, 이러한 모빌리티 콘텐츠의 확장이 미래 산업에서 중요한 방향이 될 것으로 내다봤다.   ▲ 고려대학교 박진호 교수   한편, 9월 11일에는 ‘디지털 트윈 & 3D 시각화’ 트랙이, 9월 12일에는 ‘AI 비주얼 트렌드 & 응용’ 트랙이 진행됐다.   ■ 이어 보기 : [포커스] 코리아 그래픽스 2025, AI로 가속하는 산업과 크리에이티브의 변화를 짚다 (2)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
한국컴퓨터그래픽스학회, 2025 학술대회 및 여름학교 통해 최신 컴퓨터 그래픽스 연구 성과 공유
한국컴퓨터그래픽스학회는 7월 8일부터 11일까지 강원도 고성 델피노 리조트에서 2025 학술대회 및 여름학교를 진행했다고 전했다. ‘Generating Worlds, Rendering Reality’를 주제로 열린 이번 행사에는 학계, 산업계, 학생 등 약 410여 명이 참석해 컴퓨터 그래픽스 및 관련 분야의 최신 연구 성과와 기술을 공유하며 교류의 장을 펼쳤다.     이번 학술대회에서는 국내외 저명 연사들의 초청강연을 비롯해 다양한 논문 및 포스터 발표 세션, 산업체 특별세션, 대학 및 산업체 전시, 여름학교 프로그램 등이 함께 진행되며 참가자들로부터 호응을 얻었다. 첫 번째 초청강연에서는 정보통신기획평가원(IITP) 홍진배 원장이 ‘AX 2.0 시대, 우리의 준비’를 주제로 물리 AI(physical AI)를 포함한 국가 인공지능 전략기술의 발전 방향을 제시했다. 이어 오스템임플란트 최규옥 회장은 ‘의료 IT가 여는 스마트 병원의 미래’를 주제로 AI 기반 진료 시스템의 실제 도입 사례를 소개하고 의료 산업의 디지털 전환 가능성을 조망했다. 아시아그래픽스협회와의 연계로 초청된 중국 베이징대학교 왕펑솨이(Peng-Shuai Wang) 교수는 ‘통합형 3D 표현 및 학습’에 관한 최신 연구 성과를 발표했다. 아시아그래픽스협회는 2015년 창립된 이래 아시아 지역 컴퓨터 그래픽스 및 상호작용 기술 분야 연구자 간 교류와 협력을 촉진해온 전문 기관이다. 한국컴퓨터그래픽스학회는 “이번 초청은 한국컴퓨터그래픽스학술대회에서 처음으로 이루어진 아시아그래픽스협회와의 공식 연계 프로그램으로, 한·중 젊은 연구자 간 활발한 학술 교류와 협력의 가능성을 여는 계기가 되었다”고 설명했다. 또한 KAIST 박용근 교수는 라벨이 없는 3D 이미지와 AI 기반 조직 분석 기법을 활용한 다양한 응용 가능성을 제시했으며, GengenAI 조호진 대표는 합성 데이터 기반 산업용 AI 적용 사례를 발표했다. 이외에 이번 행사에서는 우수논문상 시상과 함께 공로패 수여식도 진행되었으며, 학회의 산학 협력 활성화와 발전에 기여해 온 서울대학교 신영길 교수가 공로패를 수상했다. 한국컴퓨터그래픽스학회의 최수미 학회장은 “이번 행사는 차세대 컴퓨터 그래픽스 및 인터랙션 기술을 선도할 인재 양성과 산학연관의 연구 협력 촉진에 있어 매우 뜻깊은 자리였다”면서, “앞으로도 국내외 학술 교류의 장을 지속적으로 확대해 나갈 계획”이라고 전했다.
작성일 : 2025-07-14
[케이스 스터디] 실시간 3D 엔진 기반의 전기자동차 HMI 개발
별에서 영감을 받은 지리 갤럭시 E8의 스마트 콕핏   갈릴레오 갈릴레이부터 에드윈 허블과 미국 항공우주국의(NASA)에 이르기까지 수많은 천문학의 선구자들을 매료시킨 밤하늘의 상상력을 담은 자동차가 있다. 갤럭시 E8(Galaxy E8)은 지리(Geely)의 플래그십 모델이자 브랜드 최초의 순수 전기차로, 인류의 우주에 대한 열정과 문명, 기술 혁신을 하나의 차체 안에 담아내고 있다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 제공 : Geely Auto   갤럭시 E8은 차량의 내/외부를 통해 유저 중심의 프리미엄 경험을 제공하도록 설계되었다. 공기역학적인 실루엣은 별빛을 연상시키는 반짝임으로 표현되며, 실내에는 경계 없는 8K 해상도를 지원하는 45인치 대형 스마트 스크린이 탑재된 디지털 콕핏 시스템을 갖추고 있다. 또한 퀄컴 스냅드래곤(Qualcomm Snapdragon) 8295 플래그십 콕핏 칩과 언리얼 엔진(Unreal Engine)을 기반으로 2D 및 3D 그래픽이 구현된다.   언리얼 엔진 기반 경험 언리얼 엔진은 이 차량의 인터페이스와 시각적 몰입감을 극대화하는 데 핵심 역할을 수행했다. 예를 들어, 시간의 흐름에 따라 앰비언트 조명이 자연스럽게 변화하도록 설계되었으며, 비가 오거나 눈이 내리는 날 사용자가 문을 열면 시뮬레이션된 별빛이 한쪽에서 다른 쪽으로 흐르며 몰입감 있고 분위기 있는 효과를 연출한다. 디지털 트윈 경험에서는 데스크톱을 통해 갤럭시 E8의 인터랙티브 3D 모델을 확인할 수 있으며, 이를 통해 헤드라이트, 도어, 창문, 트렁크 등의 기능을 직접 제어할 수 있다. 에어컨의 공기 흐름과 같은 세부적인 제어 기능 역시 언리얼 엔진 기반으로 설계되어 실시간 상호작용이 가능하다. 미니멀한 UI 디자인은 사용 편의성과 연속적이고 부드러운 인터랙티브 경험을 완성하며, 몰입감 있는 시청각 경험까지 제공한다.  지리 자동차 연구소(Geely Automobile Research Institute, 이하 GARI)의 스마트 콕핏 팀은 언리얼 엔진을 사용하여 몰입감 있고 지능적이며 안전한 콕핏 경험을 개발할 수 있었다.   ▲ 이미지 제공 : Geely Auto   지리 HMI의 도전 과제와 설루션 갤럭시 E8의 8K 디스플레이를 개발하는 과정에서 GARI 팀이 직면한 주요 도전 과제는 시스템 리소스를 최소화하면서도 실시간 성능과 뛰어난 비주얼 퀄리티를 동시에 구현하는 휴먼-머신 인터페이스(HMI)를 설계하는 것이었다. 이를 해결하기 위해 GARI 팀은 복합적인 전략을 마련하고 단계적으로 적용했다. 먼저, 다이내믹 프레임 전략을 도입하여 시각적 요소와 인터랙션 유형에 따라 프레임 레이트를 유동적으로 적용했다. 원활한 인터랙션을 위해 전경 요소는 25fps(초당 프레임)로 고정해 부드러운 반응성을 확보했으며, 상대적으로 우선순위가 낮은 시나리오에는 15fps, 5fps, 동결 모드로 구성된 3단계 프레임 전략을 적용함으로써 시스템 리소스를 효율적으로 분배했다. 다음으로 계층적 리소스 관리를 통해 8K 화면의 리소스에 2D 및 3D 애셋을 1:9 비율로 포함했다. 부드럽게 전환되고 지연 없는 경험을 만들기 위해 3D 자동차 모델만 메모리에 저장하고, 다른 모든 애셋은 백그라운드에서 조용히 로드되도록 했다. 마지막으로 인터랙티브 전략을 통해 시스템 반응성과 데이터 흐름의 안정성을 강화했다. HMI 시스템에서 발생하는 신호 소스는 HMI 내부 신호와 터치 입력으로 제한하고, 실시간으로 처리해야 할 신호와 사전에 저장된 데이터 링크를 명확히 구분했다. 또한 신호가 순서대로 도착하지 않거나 반복적으로 입력되는 경우에는 L2 캐싱 및 분류 시스템을 활용해 이를 체계적으로 관리함으로써, 인터페이스의 안정성과 효율을 높였다.   지리가 HMI 제작에 언리얼 엔진을 선택한 이유 지리의 HMI 프로젝트에서는 코드 수준에서의 광범위한 통합이 가능한 커스텀 운영 체제(Galaxy N-OS)의 개발이 필요했다. 이에 따라 GARI 팀은 기존 개발 툴보다 더 향상된 기능과 확장성을 제공할 수 있는 게임 엔진의 가능성에 주목하고, 다양한 상용 엔진을 면밀히 평가했다. 최종적으로 GARI 팀은 언리얼 엔진을 선택했다. 그 결정의 핵심에는 언리얼 엔진의 리얼타임 렌더링 성능과 커스터마이징 가능성이 있었다. 특히 언리얼 엔진이 오픈소스로 제공된다는 점은 팀원들이 다양한 기능을 직접 개발하고 효과적으로 커스터마이징할 수 있도록 해 주었으며, 성능 최적화 측면에서도 높은 유연성을 확보할 수 있게 했다. 여러 리얼타임 렌더링 엔진을 검토한 결과, GARI 팀은 언리얼 엔진이 통합된 개발 도구 생태계와 렌더링 품질, 그리고 기본 DCC 작업부터 레벨 임포트까지의 과정을 간소화해주는 레벨 디자인 툴 등 포괄적인 개발 환경을 갖추고 있다는 점에서 가장 적합하다고 판단했다. GARI 팀이 특히 주목한 언리얼 엔진의 기능 중 하나는 블루프린트 비주얼 스크립팅 시스템이다. 이를 활용한 비주얼 프로그래밍으로 복잡한 인터랙션 로직을 시각적으로 설계하고 구현할 수 있게 하여, HMI 시스템 개발을 보다 직관적으로 수행할 수 있도록 돕는다. 레벨, 노멀, 게임플레이, 머티리얼 블루프린트를 포함되어 있으며, 블루프린트 노드를 통해 로직, 머티리얼, 트랜지션 등을 빠르게 구현할 수 있어 POC(개념 검증) 단계는 물론 이후 프로젝트 엔지니어링의 효율성도 크게 향상된다. 또한 언리얼 엔진의 고급 렌더링 기능은 사실적인 사용자 인터페이스와 몰입감 있는 비주얼 효과 구현을 가능하게 하여 고퀄리티의 그래픽을 안정적으로 제공한다. 피직스 시뮬레이션 시스템은 현실의 물리 효과를 정밀하게 재현하여 차량 본체와의 인터랙션을 더욱 사실감 있게 구현하고, 몰입도를 높여준다. 여기에 더해, 언리얼 엔진은 PC, 게임 콘솔, 모바일 디바이스 등 다양한 플랫폼에 폭넓게 대응할 수 있어 개발된 HMI 시스템의 배포와 실행이 용이하다는 장점도 있다. 결론적으로 GARI 팀은 언리얼 엔진의 도입이 HMI 경험의 혁신을 이끌었다고 평가하고 있다.   ▲ 이미지 제공 : Geely Auto    HMI 개발을 위한 언리얼 엔진의 핵심 기능 HMI 개발을 위한 언리얼 엔진의 핵심 기능은 지리의 고유한 커스터마이징 프로세스 전반에 걸쳐 적용되었다. 이 프로세스는 콘셉트 제안, 요구사항 분석, 인터페이스 콘셉트 디자인, 3D 엔진 아트 복원, 엔진 소프트웨어 개발, 차량 기능 통합, 엔진 및 시스템 통합, 온보드 테스트 및 납품 등 여러 단계로 구성되어 있다. 지리는 전체 개발 과정에서 언리얼 엔진의 다양한 기능과 툴을 적극적으로 활용했다. 레벨(Level) 은 신(scene) 간의 매끄러운 전환과 원 테이크 기반의 연속적인 사용자 경험을 지원하며, 베리언트(Variant)는 런타임 중 애셋 관리를 간소화하고 처리 속도를 높이는 데 기여했다. 시퀀서(Sequencer)는 레벨 시퀀스와 함께 활용되어 트랜지션을 효율적으로 제어하고 애니메이션 제작을 보다 간편하게 수행할 수 있도록 도왔다. 또한 애니메이션과 머티리얼 개발에는 블루프린트를 폭넓게 사용했으며, 라이트맵과 포스트 프로세스 이펙트 등 다양한 기능을 통해 완성도 높은 HMI를 구현했다. 특히 8K 디스플레이 환경에서 고해상도 인터페이스를 안정적으로 구현하기 위해 최적화 작업이 중요했다. 초기 구동 시점과 실시간 사용자 인터랙션 중에도 시스템이 원활하게 작동하도록 하기 위해 지리는 언리얼 엔진의 여러 최적화 툴을 함께 사용했다. 언리얼 인사이트(Unreal Insights)를 통해 시작 시간을 단축하고, 언리얼 프론트엔드(Unreal Frontend)를 통해 전반적인 성능을 최적화했으며, 명령줄 기반의 디버깅 툴인 통계 시스템과 Memreport를 활용하여 세부적인 성능 데이터를 분석했다. 또한, 언리얼 엔진의 기본 툴 외에도 스냅드래곤 프로파일러(Snapdragon Profiler)를 병행해 사용함으로써 개발 효율성과 분석 정확도를 높였다. 이와 함께 안드로이드 스튜디오 프로파일러(Android Studio Profiler), 안드로이드 디버그 브리지(Android Debug Bridge, ADB), 렌더독(RenderDoc), 부트차트(Bootchart), 비지박스(BusyBox) 등 Android 및 Linux 기반의 전문 툴도 적재적소에 활용했다.   ▲ 이미지 제공 : Geely Auto   앞으로의 계획 지리는 이번 프로젝트를 성공적으로 완료한 이후, 새로운 기술을 수용하고 HMI 혁신을 지속적으로 발전시키는 데 더욱 집중하고 있다. 앞으로 지리의 차세대 스마트 드라이빙 시스템에는 갤럭시 어시스트 드라이빙(Galaxy Assisted Driving), 자동 주차, 홈존 주차 지원 등 새로운 기능이 추가될 예정인데, 지리는 이를 통해 사용자 편의성과 주행 안전성을 한층 더 끌어올릴 수 있을 것으로 기대하고 있다. 장기적으로는 대형 AI 모델과 3D 엔진이 통합된 HMI 시스템이 운전 경험을 근본적으로 변화시킬 것으로 전망된다. 이러한 기술 혁신을 실현하기 위해서는 3D 엔진 개발자와 자동차 제조업체 간의 더욱 긴밀한 협업이 필수이다. 언리얼 엔진은 첨단 주행 기능을 시각적으로 구현하는 가상 뷰를 구축하는 데 핵심 역할을 수행하며, 커스텀 운영 체제 시스템의 거의 모든 요소에 긴밀하게 통합되어 HMI의 기능성과 사용자 경험을 동시에 향상시키고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-06-04
에픽게임즈 코리아, ‘시작해요 트윈모션 & 언리얼 2025’ 웨비나 진행
에픽게임즈 코리아는 ‘시작해요 트윈모션 & 언리얼 2025’를 4월 23일부터 시작한다고 밝혔다. ‘시작해요 트윈모션 & 언리얼 2025’는 트윈모션과 언리얼 엔진을 사용하는 것이 처음이거나 아직 익숙하게 다루지 못하는 초심자를 위한 튜토리얼 형식의 웨비나로, 4월 23일부터 5월 28일까지 6주간 매주 수요일 오후 2시에 에픽 라운지에서 진행된다. 이번 ‘시작해요 트윈모션 & 언리얼 2025’는 트윈모션과 언리얼 엔진을 활용한 고퀄리티 인터랙티브 3D 콘텐츠 제작을 목표로 기초 개념과 워크플로 전반에 대해 배우고, 결과물까지 제작하는 과정으로 강연이 진행된다.     웨비나의 1~3주 차에는 트윈모션을 활용한 모델링 파일 임포트부터 환경 구성, 인터랙션 구현을 위한 내용으로 진행된다. ▲1주 차에는 ‘트윈모션 시작하기’를 주제로, 트윈모션 및 기본 UI에 대해 알아보고, 전시공간 샘플 모델링 파일 임포트와 전시공간 익스테리어 환경 구성에 대해 설명한다. ▲2주 차에는 ‘트윈모션에서 전시공간 구성하기’를 통해 전시공간 인테리어 라이팅 및 맵핑, 루멘과 패스트레이서를 활용한 렌더링, 제품 모델링 파일을 임포트해 장면을 구성하는 방법에 대해 설명한다. ▲3주 차 '트윈모션에서 시각화 및 인터랙션 고도화하기' 시간에는 컨피규레이션 기능을 통한 상호작용 구현, HDRI 백드롭 시각화 툴을 활용한 신속한 시각화, 이미지, 영상, 로컬 프레젠테이션 실행파일 등으로 결과물을 출력하는 방법에 대한 학습이 진행된다. 웨비나 4~6주 차에는 언리얼 엔진에서 트윈모션 프로젝트를 활용해 메타휴먼, 언리얼 모션그래픽(Unreal Motion Graphics : UMG)을 적용하는 요소를 소개한다. ▲4주 차에는 '언리얼 엔진으로 트윈모션 프로젝트 가져오기'를 주제로 언리얼 엔진에 대해 알아보고, 데이터스미스 임포트, 데이터프랩으로 머티리얼을 자동 변환하는 방법에 대해 설명한다. ▲5주 차에는 '언리얼 엔진에서 리얼타임으로 제품 전시하기'를 통해 메타휴먼을 제작해 전시공간을 둘러보고, 리얼타임으로 제품 및 공간과 상호작용하는 방법을 설명한다. 마지막 ▲6주 차 ‘언리얼 엔진에서 인터랙티브 컨피규레이터 구성하기’ 시간에는 UMG로 제품 정보 표시, 제품의 머티리얼 교체, 시퀸서로 제품의 애니메이션 연출을 추가하는 방법에 대해 배운다. 고퀄리티 인터랙티브 3D 콘텐츠를 제작하고 싶은 사람이라면 전공 여부와 무관하게 학생, 직장인 등 누구나 무료로 등록할 수 있다. 에픽게임즈는 참가자들의 학습에 대한 이해도를 돕고자 매주 도전과제를 출제해 강좌 내용을 완전히 습득할 수 있도록 지원하며, 참가자들은 라이브 Q&A와 채팅을 통해 연사 및 커뮤니티와 실시간 소통할 수 있다. 또한, 매주 웨비나를 끝까지 시청하면 트윈모션과 언리얼 엔진 굿즈를 증정하는 '시청 이벤트'에 자동응모 되며, 출제되는 도전과제를 수행한 참석자에게 한정판 굿즈를 제공하는 '도전과제 이벤트'도 매주 진행된다. 이 밖에도 ‘도전과제 위클리픽’, ‘도전과제 완주 이벤트’ 등의 다양한 이벤트가 진행될 예정이다.
작성일 : 2025-04-21
[케이스 스터디] 언리얼 엔진으로 만든 버추얼 아이돌 플레이브
통합 시각화 파이프라인으로 새로운 경험 제공   리얼타임 3D 콘텐츠 제작 기술이 날로 진화함에 따라 버추얼 아티스트, 유튜버 등 디지털 휴먼 시장도 함께 성장하고 있는 가운데, 대한민국에는 데뷔 1년여 만에 실제 아이돌 못지 않은 인기를 누리고 있는 버추얼 아이돌이 있다. 바로 플레이브(PLAVE)다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 출처 : ‘언리얼 엔진으로 전례 없는 경험을 제공하는 PLAVE’ 영상 캡처   플레이브는 예준, 노아, 밤비, 은호, 하민 등 다섯 명의 멤버가 작사, 작곡 그리고 안무까지 직접 제작하는 버추얼 보이 그룹이다. 2023년 3월 12일 데뷔 이후 버추얼 아이돌 최초로 지상파 음악방송에서 1위를 차지한 것은 물론, 최근에는 잠실 실내체육관에서 양일간 오프라인 단독 라이브 콘서트를 개최해 전석이 매진되는 등 인기를 누리고 있다. 플레이브의 인기 비결에는 여러 요소가 있겠지만 언리얼 엔진의 리얼타임 기술로 자연스러운 비주얼 퀄리티뿐만 아니라, 매주 라이브 방송을 통해 팬들과 소통하며 아티스트의 진면목을 전할 수 있던 점을 꼽을 수 있다. 시네마틱 영상, 라이브 방송 그리고 오프라인 라이브 콘서트까지 어떻게 언리얼 엔진으로 통합 제작 파이프라인을 구축해 아티스트의 본질을 전달할 수 있었는지 살펴보기로 하자.    시네마틱 콘텐츠를 위한 리얼타임 통합 파이프라인   ▲ DCC 툴을 병합한 기존의 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)    ▲ 언리얼 엔진과 통합한 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)   플레이브의 소속사인 블래스트는 설립 초창기부터 여러 작품을 통해서 언리얼 엔진의 가능성을 확인했기 때문에, 버추얼 IP 파이프라인이라는 회사의 비전을 바탕으로 시네마틱과 라이브 콘텐츠를 모두 제작할 수 있는 언리얼 엔진 통합 파이프라인을 구축하고자 했다. 플레이브의 첫 뮤직비디오인 ‘기다릴게’를 제작하던 때만 해도 언리얼 엔진 제작 경험이 제한적이었기 때문에 레벨 디자인, 라이팅, 렌더링은 언리얼 엔진으로, 이펙트 및 의상 시뮬레이션, 합성 등은 기존의 DCC 툴을 사용하는 방식을 채택했다. 그렇지만 이러한 제작 방식은 언리얼 엔진의 리얼타임 렌더링의 장점을 극대화하지 못하고 전체적인 콘텐츠 제작 속도를 저하시켰다. 또한, 본래 언리얼 엔진 중심의 통합 파이프라인을 구축하려고 했던 블래스트의 비전과 맞지 않는다는 판단 하에, 파이프라인을 언리얼 엔진으로 완전히 대체하기로 결정했다.     ▲ 플레이브 ‘WAY 4 LUV’ 뮤직비디오 영상   의상 및 헤어 시뮬레이션을 언리얼 엔진의 실시간 시뮬레이션으로 완전히 전환하면서, 이제는 애니메이션이 수정될 때마다 라이브 방송처럼 실시간으로 시뮬레이션되어 임포트 과정이 간소화되었다. 렌더링을 위해 라이브 시뮬레이션을 베이크해야 하는 경우 역시 언리얼 엔진의 테이크 레코더를 사용하면 바로 결과를 확인할 수 있어, 전체적인 작업 과정이 효율적으로 향상되었다. 또한, 이펙트 제작에는 언리얼 엔진의 나이아가라 시스템을 전면 도입하여 룩뎁 아티스트들은 모든 최종 연출 요소를 실시간으로 확인하며 함께 작업할 수 있게 되었다. 애니메이션, 시뮬레이션, 이펙트 등의 모든 최종 연출 요소가 엔진으로 통합되면서, 언리얼 엔진을 컴포지터로까지 활용할 수 있었다. 그 결과 ‘WAY 4 LUV’의 시네마틱 영상부터는 모델링, 애니메이션, 룩뎁 등 각 제작 요소가 통합된 최종 결과물을 언리얼 엔진에서 실시간으로 렌더링할 수 있게 되어, 작업의 효율과 퀄리티를 향상시킬 수 있었다.   고도화된 리얼타임 모션 캡처로 아티스트의 진심을 전한 라이브 방송   ▲ 플레이브의 첫 라이브 방송(이미지 제공 : 블래스트)   ▲ 플레이브의 최근 라이브 방송(이미지 제공 : 블래스트)   라이브 방송은 플레이브의 강력한 팬덤을 구축하는 데 있어 매우 중요한 역할을 하고 있는 만큼, 블래스트는 아티스트의 매력과 진심을 잘 전할 수 있도록 많은 노력을 기울여 왔다. 특히 아티스트의 모든 모션이 자연스럽게 보이도록 하기 위해 언리얼 엔진의 라이브 링크로 스트리밍한 모션 캡처 원시 데이터를 실시간으로 가공할 수 있는 다양한 설루션을 개발하는데 많은 정성을 들였다.   ▲ 실시간 간섭 회피 설루션 전후 비교(이미지 제공 : 블래스트)   개발된 설루션은 다양한 체형 사이에 애니메이션을 이질감 없이 자연스럽게 전환할 수 있는 리타기팅 설루션, 매 촬영 때마다 발생하는 마커의 위치 오차를 모션으로 측정하여 보정하는 캘리브레이션 설루션, 신체 비율 또는 외형 차이에 따른 메시 간섭 문제를 실시간으로 해결하는 간섭 회피 설루션, 정확한 포즈와 자연스러운 주변 환경과의 인터랙션 사이를 상황에 따라 적절하게 전환할 수 있는 Dynamic FK/ IK 설루션, 골반 너비와 신발 밑창 및 볼 너비까지 보정해 지면과 발의 접지를 정교하게 표현하는 Foot IK 설루션 등이다. 이를 통해 기존에는 실시간으로 처리하기 어려워서 라이브 콘텐츠에서 적용할 수 없었던 모션 캡처 데이터의 실시간 가공 기술을 자체적으로 개발하여 언리얼 엔진에 통합했다. 이러한 기술 투자 덕분에 버추얼 아이돌임에도 아티스트의 진심을 잘 전할 수 있는 기술적 기반을 갖추게 되었다.   리얼타임 통합 파이프라인의 화룡점정, 오프라인 라이브 콘서트 플레이브는 시네마틱 영상을 매 앨범 발매 시 제작하고 라이브 방송을 지난 1년 반 동안 매주 4시간씩 진행하면서, 언리얼 엔진 중심의 리얼타임 파이프라인을 고도화할 수 있었다. 그리고 그 과정에서 블래스트가 깨달은 점은 두 파이프라인을 서로 구분할 필요가 없다는 점이었다. 아티스트의 퍼포먼스를 실시간으로 보여 줄 지, 녹화해 두고 퀄리티를 올린 후에 보여 줄 지의 차이만 있을 뿐, 두 파이프라인은 모두 라이브 모션 캡처에서 시작한다는 점에서 근본적으로 동일했기 때문이다. 이러한 깨달음을 바탕으로 블래스트는 모든 콘텐츠가 라이브 모션 캡처로부터 시작되는 통합 파이프라인을 개발하였고, 이를 통해 제작 흐름이 간소화되고 직관적으로 개선되어 작업의 효율을 높일 수 있었다. 무엇보다도 큰 이점은 통합된 파이프라인을 통해 콘서트 제작 및 연출에 필요한 역량을 미리 내재화할 수 있었다는 점이다.   ▲ 시네마틱과 라이브 콘텐츠 제작 파이프라인이 통합된 전체 파이프라인(이미지 제공 : 블래스트)   콘서트는 연출뿐만 아니라 제작 파이프라인에서도 시네마틱과 라이브 콘텐츠의 특성을 모두 가지고 있는 특별한 무대다. 수많은 무대의 동선을 사전에 미리 짜맞추며 연출을 확정해 놓으면서도 리허설 때마다 라이브로 전환해야 하므로, 콘서트 작업에는 녹화와 라이브를 수시로 전환할 수 있는 파이프라인이 필수적이다. 이를 위해서 메타휴먼의 캐릭터 설계에 힌트를 얻어 시네마틱 퀄리티와 라이브 퍼포먼스를 모두 만족하는 유연하고 모듈화된 통합 캐릭터 시스템을 개발했다. 이 시스템은 콘서트에 필요한 모든 상황을 지원하기 위해 스켈레탈 메시를 분리해서 적절한 계층구조로 설계하고, 각각의 스켈레탈 메시 컴포넌트는 시퀀서의 애니메이션 트랙을 재생하는 모드와 라이브 링크 모션 캡처 및 실시간 시뮬레이션을 적용하는 모드 사이를 자유롭게 전환할 수 있도록 구현했다. 또한, 라이브 캐릭터 전용 기능은 모두 별도의 컴포넌트로 모듈화시켜 필요한 기능만 라이브 방송 시나리오에 맞춰 적용할 수 있도록 설계했으며, 추가로 룩뎁 아티스트가 일관적인 퀄리티로 작업할 수 있도록 캐릭터 클래스의 모든 기능이 프리뷰 모드와 플레이 모드에서 동일하게 동작하도록 개발했다. 이런 통합 캐릭터 클래스 설계 덕분에 언제든지 시네마틱과 라이브를 간단하게 전환하면서 작업 효율도 높일 수 있게 되었다.   ▲ 스켈레탈 메시의 계층 구조 및 모듈화된 컴포넌트(왼쪽), 컴포넌트 단위로 두 가지 모드를 자유롭게 전환 가능(오른쪽)(이미지 제공 : 블래스트)   통합 캐릭터 클래스와 더불어 좀 더 파이프라인을 단순화하기 위해 언리얼 엔진의 테이크 레코더 기능을 활용한 새로운 모션 캡처 녹화 파이프라인을 구축했으며, 그 덕분에 이제는 모션 캡처부터 시네마틱까지 모든 과정을 언리얼 엔진 내에서 진행할 수 있게 되었다. 이로써 시네마틱용 애니메이션을 제작하기 위해 여러 소프트웨어를 오갈 필요 없이 언리얼 엔진 하나로 모든 작업이 가능해졌다. 또한, 이 새로운 파이프라인을 사용해 자체적으로 개발한 신체 간섭 회피, 캘리브레이션, 리타기팅 기능을 언리얼 엔진 안에서 바로 녹화할 수 있어, 평소 라이브 방송과 동일한 수준의 모션 캡처 퀄리티를 얻을 수 있게 되었다. 이렇게 테이크 레코더의 기능을 통해 녹화 직후 바로 결과를 확인할 수 있어 작업의 효율이 크게 향상되었고, 특히 현장에서 실시간으로 피드백을 주고받을 수 있게 되면서 기획과 디렉팅 측면에서도 큰 발전을 이룰 수 있었다.   ▲ 기존의 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   ▲ 언리얼 엔진으로 통합 후 테이크 레코더를 활용한 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   시네마틱과 라이브 파이프라인의 통합이 더욱 높은 효과를 내기 위해서는 앞서 언급된 기능의 개발과 함께 현장 오퍼레이팅에 대한 지원도 필요했다. 버추얼 파이프라인에서는 여러 소프트웨어를 함께 사용해야 했기 때문에 언리얼 엔진 설정, 녹화 설정, 심지어 단순한 녹음 작업까지 모두 오퍼레이터와 소통해야 했다. 그래서 작업 과정을 단순화하고 자동화하기 위해 언리얼 엔진 기반의 ‘버추얼 슬레이트’라는 태블릿 애플리케이션을 개발했다. 이 애플리케이션은 스튜디오 내 여러 장치와 소프트웨어를 연결하여 원격으로 동시 제어할 수 있고, 녹화 버튼 하나로 언리얼 엔진의 녹화 기능, 모션 캡처 소프트웨어, 여러 채널의 비디오 및 오디오를 동시에 녹화할 수 있다. 그리고 녹화가 끝나면 자동으로 모든 파일의 이름과 저장 위치를 정리하고, 미리보기 장면을 만들어 준다. 이제는 오퍼레이터가 초기 설정만 도와주면, 콘텐츠 제작자들이 직접 모션 캡처 녹화를 할 수 있어 제작자와 아티스트는 서로 의견을 주고받으며 촬영을 진행할 수 있게 되었다.   ▲ 기존의 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   ▲ 향상된 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   한편, 시네마틱과 라이브를 결합한 오프라인 라이브 콘서트는 관객에게 높은 몰입감을 전달하는 것이 매우 중요하다. 그렇기 때문에 현실의 무대에 실존하는 아티스트를 보는 것과 같은 스케일과 원근감을 현실감 있게 잘 반영하는 것도 중요한 과제였다. 이 과제를 풀기 위해서는 LED 스크린에 투사된 결과를 미리 예측할 수 있어야 했는데, 이를 위해 언리얼 엔진 내에 실제 공연장과 동일한 크기의 디지털 트윈 레벨을 제작하고 가상 공연장의 LED 스크린에 최종 이미지를 투사했다. 그런 뒤에 관객의 시점에서 VR로 이를 감상하는 방식으로 관객의 시점을 미리 시뮬레이션하며 스케일과 원근감을 조정해 나갔다. 이러한 방법으로 플레이브의 콘서트는 대형 콘서트장의 어떤 좌석에서도 눈앞의 무대에 멤버들이 실존한다는 현실감을 관객에게 전달할 수 있었다.   ▲ 가상에서의 VR 시뮬레이션(이미지 제공 : 블래스트)   ▲ 실제 무대 연출 장면(이미지 제공 : 블래스트)   LED 그 이상의 무한한 상상력을 담게 해 준 언리얼 엔진 블래스트는 2차원의 LED 스크린 평면을 넘어 공연장 전체라는 3차원의 경험으로 관객의 경험을 확장시켜, 플레이브 콘서트에서만 느낄 수 있는 새로운 경험을 만들어나가기 위해 고민했다. 이러한 고민의 결과로 실존하는 아티스트의 콘서트에서는 불가능한 아이디어와 연출, 예를 들면 탑의 꼭대기처럼 다양한 공간을 이동하며 노래 부르기, 바이크를 탄 채로 무대로 등장하고 연출의 단절 없이 공연 시작하기, 등장이나 퇴장 시에 꽃잎을 흩뿌리면서 나타나고 사라지기 등 그야말로 버추얼 아이돌이기에 가능한 연출을 실현할 수 있었다. 이러한 시각적 효과에서 더 나아가 연기와 같은 실제 무대 장치를 결합하여 일반적인 콘서트에서는 불가능한 특별한 연출을 시도할 수 있었다. 그 중에서도 플레이브의 세계관에 등장하는 큐브로 가득찬 ‘아스테룸’이라는 공간에서 세계관 속 빌런과 벌인 박진감 넘치는 격투 액션 신은 버추얼이 아니었다면 불가능한 무대였을 것이다. 또한, 언리얼 엔진은 LED 스크린 너머의 공간에 원하는 환경을 효율적으로 제작하고 다양한 연출들을 자유롭게 시도할 수 있게 해 주었다. 물리적인 시공간의 제약 속에서 짧은 기간 내에 다수의 조직이 동시 협업해야 하기 때문에 작업 충돌을 피하면서도 변경 사항들을 실시간으로 동기화할 수 있는 파이프라인이 매우 중요한데, 여기에 언리얼 엔진의 레벨 스트리밍과 서브 시퀀스 기능이 큰 도움이 되었다. 레벨 스트리밍 덕분에 레벨 디자인, 애니메이션, 룩뎁 작업을 분리하여 하나의 퍼시스턴트 레벨에 스트리밍하는 방식으로 각 팀의 작업 공간을 분리하면서도 동시에 협업이 가능했다. 또한, 룩뎁 레벨 시퀀스 안에 애니메이션 서브 시퀀스를 적용하여 애니메이터와 룩뎁 아티스트의 작업 시퀀스를 분리하면서도 서로의 변경 사항을 함께 업데이트할 수 있었다.   ▲ 레벨과 시퀀스 구조(이미지 제공 : 블래스트)   콘서트 현장의 분위기를 고조시키는 현란한 DMX 조명 연출 역시 언리얼 엔진의 뛰어난 DMX 연동 지원 덕분에 가능했다. 언리얼 엔진 공연 조명을 전문으로 다루는 메타로켓과 협업하여 언리얼 엔진 내에서 실제 콘서트 현장 조명을 시뮬레이션하면서 현실과 가상의 무대 조명을 완성했다.   ▲ 메타로켓과의 협업으로 완성된 공연장 무대 조명(이미지 제공 : 블래스트)   무엇보다 비주얼 퀄리티까지 보장된 리얼타임 렌더링이라는 언리얼 엔진의 강점이 가장 큰 도움이 되었다. 덕분에 콘서트 2~3일 전까지도 끊임없이 수정하며 퀄리티를 끌어올릴 수 있었고, 콘서트 직전의 리허설까지도 이슈를 확인하고 해결할 수 있었기 때문에 촉박한 시간임에도 완성도 높은 콘서트를 제작할 수 있었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06
콘진원, ‘AI콘텐츠 페스티벌’에서 뉴콘텐츠아카데미 신기술 활용 프로젝트 전시 개최
문화체육관광부와 한국콘텐츠진흥원(이하 콘진원)은 10월 31일부터 11월 2일까지 서울 삼성동 코엑스에서 진행되는 ‘AI콘텐츠 페스티벌’에서 뉴콘텐츠아카데미(이하 NCA)에서 제작된 신기술 활용 프로젝트를 전시한다.  ​NCA는 빠르게 변화하는 콘텐츠산업 현장에서 필요한 기술 융합형 인재를 양성하는 교육 프로그램이다. 지난해 9월 개원 이후 기술 융합형 인재들이 산업계로 진출할 수 있도록 전방위적인 지원을 제공하고 있다.  콘진원은 이번 AI콘텐츠 페스티벌을 통해 NCA에서 제작된 신기술 융합 프로젝트를 대중 및 산업 관계자에게 선보이고 상용화와 사업화까지 지원할 방침이다. ​ 이번 전시에서는 인공지능을 비롯한 첨단 기술을 활용한 콘텐츠를 통해 이용자에게 새로운 경험과 몰입감을 제공할 예정이다. ​ ▲생성형 인공지능을 활용하여 제작된 그림 속에서 플레이하는 호러 XR 인터랙션 무비 <In the Picture> ▲인공지능 이미지 학습 기술을 통해 마음속 희망, 소망, 바램을 시각화하는 체험형 전시 <Melodish> ▲생성형 인공지능 이미지와 모래놀이를 결합하여 심리적 안락함을 제공하는 실감형 미디어아트 <Larimar> ▲전기를 다루는 고양이 제트와 함께 전기를 빼앗긴 놀이공원에 빛을 되찾아주는 미디어 어트랙션 <파지직(PAZIZIC)> ▲관람객의 심박수에 따라 시청각 요소가 변화하는 인터랙티브 오디오 비주얼 몰입형 전시 <UINPULSE> ▲관객의 뇌파 데이터를 측정해 시각화한 인공지능 이미지를 보여주는 <몽상정원> 등 총 6종의 콘텐츠가 선보여진다. ​ 11월 1일에는 전시에 참여하는 NCA 프로젝트 <In the Picture>, <Melodish>와 더불어 NCA 단기과정으로 참여하고 있는 인공지능 단편영화 <조이(JOI)> 등 NCA 프로젝트 기획자 3인이 패널로 참여해 제작 비하인드 스토리 및 노하우를 공유하는 ‘AI 창작 워크숍’을 진행한다. 좌장으로는 김땡땡스튜디오 대표이자 NCA 단기과정 퍼실리테이터인 김경래 작가가 나설 예정이다. 워크숍은 AI콘텐츠 페스티벌 공식 누리집(하단 참조)을 통해 사전 신청 시 무료로 참여 가능하다. ​ 한편, 콘진원은 지난 9월 26일 국내 우수 콘텐츠 스타트업의 글로벌 진출을 위한 비즈니스 활성화를 목적으로 하는 ‘스타트업콘’과 연계한 ‘NCA 쇼케이스’를 개최하여 행사에 참석한 국내외 콘텐츠 분야 전문가, 투자자, 창작자 등 콘텐츠 업계 관계자들의 눈길을 끌었다. 쇼케이스에서는 ▲신기술 융합 체험형 전시 콘텐츠 ▲버추얼 프로덕션 영상 등 프로젝트 5종을 전시 및 상영하여 관람객의 호응을 얻었다.  ​ 콘진원 콘텐츠기반본부 유윤옥 본부장은 “최근 전 세계적으로 신기술융합콘텐츠 분야가 빠르게 성장하고 있고, 관련 콘텐츠를 향유하는 사람도 증가하고 있다”라며, “이러한 추세에 맞춰 콘텐츠산업 현장 인재를 양성하고 배출하기 위해 NCA와 같은 인재양성사업을 지속적으로 추진할 계획이다”라고 말했다. ​ AI콘텐츠 페스티벌은 국내 유수의 AI 창작 콘텐츠를 총망라하여 AI콘텐츠의 창작 활성화와 대중화를 도모하기 위한 행사다. ‘AI로 만나는 새로운 콘텐츠 세상’이라는 슬로건 아래 국내 우수 AI 콘텐츠기업 및 창작자 50여 팀이 참여하여 ▲전시·체험 ▲콘퍼런스 ▲창작 워크숍 ▲AI 영상 상영관 등 다양한 프로그램이 진행될 예정이다.  ​
작성일 : 2024-10-29
어도비, 기업의 생산성 높이는 ‘어도비 익스피리언스 플랫폼 AI 어시스턴트’ 출시
어도비가 ‘어도비 익스피리언스 플랫폼 AI 어시스턴트(Adobe Experience Platform AI Assistant)’를 출시했다. 이 기능은 생성형 AI를 통해 실무자의 생산성을 높이고, 더욱 많은 팀원이 콘텐츠 제작 및 인사이트 워크플로에 참여하도록 지원해 기업용 애플리케이션에 대한 접근을 한층 확대한다. 어도비 익스피리언스 플랫폼은 기업 고객에 대한 통합 인사이트를 구축하고 모든 채널에서 고객 참여를 유도하는 솔루션으로, 코카콜라 컴퍼니, 메이저리그베이스볼, 메리어트 인터내셔널, 제너럴 모터스, TSB은행, 레알 마드리드를 비롯한 다양한 업체가 사용하고 있다. 이제부터 기업은 어도비 익스피리언스 플랫폼 AI 어시스턴트를 통해 대화형 인터페이스에서 데이터를 더욱 심층적으로 파악하고 워크플로를 간소화하며 조직에 가치를 제공할 수 있다. 어도비 익스피리언스 플랫폼 AI 어시스턴트는 어도비 실시간 고객 데이터 플랫폼(Adobe Real-Time CDP), 저니 옵티마이저(Adobe Journey Optimizer), 커스터머 저니 애널리틱스(Adobe Customer Journey Analytics) 등 어도비 익스피리언스 클라우드 애플리케이션에 내장돼, 기술 질문에 대한 답변을 제공할 뿐만 아니라 작업 자동화, 결과 시뮬레이션, 신규 타깃 및 여정 생성 등을 지원한다. 이 같은 역량은 기업 고유 데이터, 캠페인, 타깃 청중, 비즈니스 목표 등에 대한 인사이트와 어도비 제품에 대한 지식을 바탕으로 한 생성형 경험 모델을 통해 구현되며, 모두 개인정보 보호를 최우선으로 고려해 안전하게 제공된다.     어도비 익스피리언스 플랫폼 AI 어시스턴트는 다양한 배경과 경험을 가진 사용자가 문제를 빠르게 탐색하고 해결할 수 있는 인사이트를 제공한다. 가령 사용자는 ‘잠재 고객 세그먼트 구축 방법’이나 ‘아이덴티티 맵에 대한 정의’와 같은 제품 관련 질문에 대해 신속한 답변을 얻고, 익숙하지 않은 시나리오를 해결할 수 있다. 또한 ‘내 세그먼트 사용 빈도’와 같은 질문을 통해 SQL 쿼리를 실행하지 않고도 데이터셋, 타깃 및 여정에 대한 운영 인사이트를 확보하는 것도 가능하다.   어도비 익스피리언스 플랫폼 AI 어시스턴트는 잠재 고객 경험부터 개인화 캠페인을 위한 타깃, 데이터 분석 시각화까지 다양한 요소 생성을 추후 지원할 예정이다. 브랜드는 어도비 파이어플라이(Adobe Firefly)를 활용해 이메일 및 웹 페이지에 사용할 카피, 디자인, 이미지 등 마케팅 애셋을 생성하고, 결과를 상시 실험할 수 있다. 또한 어도비 익스피리언스 플랫폼 AI 어시스턴트는 PDF, 발표자료, 워드 문서 등 기존 애셋으로 크리에이티브 제작 브리프를 자동 생성해, 콘텐츠 제작을 가속화한다. 이를 통해 브랜드는 데이터 세그먼트별 폴더 구성이나 AI 생성 콘텐츠의 브랜드 기준 부합 여부를 확인하는 것과 같은 번거로운 작업을 생략할 수 있다.   사용자는 어도비 익스피리언스 플랫폼 AI 어시스턴트에 추후 추가될 역량을 통해 결과를 시뮬레이션하고 마케팅 활동을 최적화하며 더욱 정확한 결과를 빠르게 얻을 수 있다. 특히 ‘해당 세그먼트의 예상 전환 수’나 ‘세그먼트 필터 추가 적용 시 결과’ 등 복잡한 질문에도 몇 초안에 예측 인사이트를 받을 수 있다. 이 밖에도 특정 고객 그룹을 위한 맞춤형 프로모션 제안 등 차선책을 제공해 전환율을 높일 수 있는 기능도 추가될 예정이다. 어도비의 안줄 밤브리(Anjul Bhambhri) 어도비 익스피리언스 클라우드 수석 부사장은 “AI 어시스턴트는 새로운 사용 사례와 초기 사용자의 진입장벽을 대폭 낮추면서 기업용 소프트웨어에 획기적인 변화를 가져오고 있다”며, “매일 40페타바이트(PB)에 달하는 데이터와 50억 건의 사용자 인터랙션을 비롯해 어도비 익스피리언스 플랫폼에서 처리되는 인터랙션, 캠페인 및 프로필 규모를 감안하면, 어도비는 데이터 기반으로 인사이트를 제공하고 자동화할 수 있는 솔루션을 선보이는 독보적인 입지를 가지고 있다”고 설명했다.
작성일 : 2024-07-17
[케이스 스터디] 발레오, SXSW에서 차량 내 XR 레이싱 게임 공개
자율주행 시대의 새로운 사용자 경험을 제시하다   “아직 멀었어요?” 차를 몰고 떠나는 장거리 여행에서 이 말을 듣지 않을 수 있다면, 매일 가족을 태우고 운전하며 평화롭고 정숙한 분위기를 누릴 수 있다면 부모들은 더 이상 바랄 게 없을 것이다. 발레오(Valeo)의 소프트웨어 엔지니어 팀은 이러한 염원을 담아 발레오 레이서(Valeo Racer)를 개발하고, 미국 오스틴에서 열린 SXSW(South by Southwest)에서 처음으로 공개했다. ■ 자료 제공 : 유니티 코리아   ▲ 발레오 레이서   자동차의 주행환경과 3D를 결합한 몰입형 경험 발레오 레이서는 실제 주행 환경과 가상 3D 요소를 결합해 특별한 몰입형 경험을 제공하는 차량 내 XR(확장 현실) 게임이다. 승객은 차량의 와이파이에 연결된 스마트폰이나 태블릿으로 게임을 플레이하며 서로 경쟁할 수 있다. 플레이어는 도로를 달리는 실제 차량이 표시되는 환경에서 경주용 차량을 운전하며 장애물을 피하고, 코인을 수집해 최대한 높은 점수를 획득해야 한다. 발레오 레이서는 실시간 영상과 차량 주변 환경 인식 시스템을 디지털 게임 요소와 결합한 XR 비디오 게임이다. 이 엔드리스 러너 게임은 발레오에서 개발한 새로운 소프트웨어 스택에 의해 생성된다. 이 스택은 카메라, 레이더, 초음파 센서 등 차량에 탑재된 ADAS(첨단 운전자 보조 시스템)와 인공 지능 주변 환경 인식 알고리즘을 사용해 유니티 런타임(Unity Runtime)으로 차량의 실시간 주변 환경 데이터를 처리하여 게임 요소를 생성한다.  유니티 엔진 전용 요소인 유니티 런타임이 고성능 그래픽스 렌더링, 사용자 입력 및 인터랙션 관리, 게임 컴포넌트 조정, 실시간 물리 시뮬레이션 지원, 애니메이션, 스크립팅 언어, 애셋 관리, 네트워킹을 비롯한 게임의 다양한 핵심 요소를 처리하며, 모든 작업이 최종 기기에서 이루어진다. 발레오 레이서는 런타임을 사용하여 승객이 차량의 센서를 통해 수집한 실시간 데이터를 활용하는 혼합 현실 게임을 차량 내 와이파이에 연결된 스마트폰이나 태블릿에서 플레이할 수 있도록 했으며, 차 안에서 경쟁도 가능하도록 구현했다. 세계적인 자동차 공급업체인 발레오 레이서가 단순한 게임의 재미를 넘어 발레오 레이서를 개발한 목적은 무엇일까? 전기자동차와 첨단 자율 주행 기능에서 운전자와 승객의 경험 혁신에 이르기까지, 자동차 업계는 빠르게 진화하고 있다. 차량 내 엔터테인먼트 역시 사용자 경험을 향상하는 중요한 요소로 자리잡았다.   센서 데이터를 활용해 유니티로 XR 구현 발레오 레이서의 제프리 부쿼트 CTO와 유니티의 닉 페이시 유니티 인더스트리 매니징 프로듀서는 SXSW에서 XR 어소시에이션(XR Association)의 엘리자베스 하이만 CEO와 함께 ‘증강현실에서 즐기는 주행 : 자율 주행 차량 내 엔터테인먼트’를 주제로 대담을 진행했다. 제프리 부쿼트는 자동차 센서와 소프트웨어를 본래의 용도에서 더 나아가 무한한 가능성으로 다른 응용 분야에도 사용할 수 있다고 역설했다. 그는 “2030년에는 거의 모든 차량에 카메라와 기타 센서가 탑재될 것이다. 관련 소프트웨어와 함께 이러한 기술은 차세대 모빌리티 분야의 안전성, 전기화, 지속 가능성을 뒷받침하게 될 것”이라면서, “그뿐만 아니라, 게임이나 교육 등 다른 다양한 분야도 새로운 기회를 맞이하게 될 것이다. 자동차, 게임, 기타 창의적인 업계의 파트너들과 함께 새로운 기회를 모색할 수 있어 매우 기쁘다”라고 전했다. 페이시는 “지금까지는 차량이 주는 신호를 유니티같은 더 뛰어난 그래픽스 엔진으로 구현하는 데에 많은 노력이 집중되어 왔다. 그 결과 이제 운전자는 매우 뛰어난 그래픽스와 실시간 정보를 제공받아 더 안전하고 효율적으로 운전할 수 있게 되었다. 이제는 승객들도 그러한 경험을 누릴 수 있어야 한다. 이러한 기술 융합은 거의 언제나 소비자에게 유익한 방향으로 흘러간다”고 덧붙였다. 발레오 레이서는 자동차 센서와 카메라 업계를 선도하는 세계적인 기업이며, 20년 이상 증강현실 분야를 연구해 왔다. 차량 후방 카메라 영상과 헤드업 디스플레이에 표시되는 주차 보조선 오버레이 디스플레이는 발레오 레이서에서 개발하여 이미 수백만 대의 차량에 도입된 AR 기능이다. 발레오 레이서의 새로운 XR SDK는 게임 개발자가 차량에 내장된 기존 카메라, 센서, 인식 알고리즘 및 인공지능을 활용하여 차량 내 게임 경험을 혁신할 새로운 유형의 게임을 제작할 수 있도록 지원할 것이다. 하이만은 “가상, 증강 및 혼합현실 분야의 무역 협회인 XR 어소시에이션의 리더로서, 나는 언제나 몰입형 기술의 최신 발전과 사용 사례를 식별하고 선보일 기회를 찾고 있다”면서, “발레오 레이서는 게임 경험일 뿐만 아니라, 개발자에게 자율 주행 차량의 발전과 몰입형 기술을 융합하는 새로운 제품과 경험 제작에 대한 영감을 주는 플랫폼이기도 하다”고 전했다.   새로운 차량 엔터테인먼트의 PoC 구축 발레오 레이서는 자동차 기술 기업의 게임 업계 진출을 알리는 신호탄이 아니다. 그보다는 자동차 업계가 발레오 레이서 XR SDK로 무엇을 실현할 수 있는지 보여 주는 데모이며, 새로운 유형의 차량 내 엔터테인먼트에 대한 PoC(Proof of Concept : 개념 검증)라고 할 수 있다. 차량의 자율성이 향상됨에 따라, XR을 이용해 승객과 운전자 모두를 위한 새로운 경험을 만들 기회는 더 많아질 것이다.   ▲ 발레오 레이서     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-06-03
[케이스 스터디] 해외 소장 문화재의 ‘디지털 귀향’ 프로젝트
언리얼 엔진과 에픽 에코시스템으로 이뤄낸 문화유산 디지털 경험   문화유산은 우리의 과거를 이해하고, 현재와 미래의 역사와 정체성을 보존하고 전해질 수 있도록 하는 중요한 자산이다. 이러한 대한민국의 문화유산 중 약 23만 점은 합법 또는 부당하게 반출되어, 이를 아카이빙하여 관리하고 가능한 경우 국내에 환수하려는 다양한 노력들이 이어지고 있다. 이런 노력의 일환으로 대한민국 정부는 최근 디지털 기술과 장비들의 발전에 힘입어 복잡하고 어려운 물리적 환수를 대체할 수 있는 ‘디지털 공유’라는 개념을 생각해 냈다. ■ 자료 제공 : 에픽게임즈   ‘디지털 공유’의 개념은 해외 박물관에 소장되어 있는 한국 예술품의 디지털 원형 데이터를 매우 정밀하게 구축하고, 이를 기반으로 실물 예술품을 감상하는 것과 같이 디지털로 실감 나는 콘텐츠를 개발하고 한국과 현지에 동시에 전시해 그 가치를 함께 공유하는 것이다. 이 개념을 처음으로 구체화한 프로젝트가 바로 ‘클리블랜드미술관(CMA) 소장 한국문화재 디지털 귀향 프로젝트’이다.   TRIC 및 CMA 소장 한국문화재 디지털 귀향 프로젝트 소개 이 프로젝트를 수행한 TRIC(문화유산기술연구소)는 문화와 유산을 위한 디지털 기술 R&D와 그 활용 사업을 통해 새로운 가치를 창출하는 기업으로, 지난 10년 동안 인도네시아, 라오스, 튀르키예, 카자흐스탄, 일본, 이집트 등 전 세계의 주요 유산을 대상으로 디지털 아카이빙 및 콘텐츠를 개발해 모두가 누릴 수 있도록 서비스하고 있다. 최근에는 리얼타임 콘텐츠의 발전 덕분에 언리얼 엔진을 중심으로 파이프라인을 구축하며 클리블랜드 미술관의 프로젝트를 진행하고 있다.   ▲ TRIC가 진행한 다양한 프로젝트(이미지 출처 : 언리얼 엔진 홈페이지)   CMA 소장 한국문화재 디지털 귀향 프로젝트는 미국 클리블랜드 미술관이 소장하고 있는 한국 문화유산의 디지털 원형 데이터를 구축하고 디지털 실감 콘텐츠를 제작하여 올 3월부터 한미 양국에서 동시에 전시하는 국제 협력 프로젝트다. 총 3년에 걸쳐 진행되고 있는 이 프로젝트는 1차년도인 2022년에 클리블랜드 미술관이 소장하고 있는 한국 유물 대표 13점을 디지털 아카이빙했고, 2차년도인 2023년에는 13점의 유물 중 대규모 전시 연출에 가장 적합한 칠보산도를 선정해 몰입적인 실감 콘텐츠로 제작했다. 그리고 3차년도인 올해 3월에는 한미 양국에 그 결과물을 선보이는 공동전시를 개최했다.    ▲ CMA 소장 한국문화재 디지털 귀향 프로젝트 : 칠보산도(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진을 작업 파이프라인에 도입한 이유 예술품 데이터를 활용한 콘텐츠 구축 프로젝트는 디지털 버전의 예술품을 얼마나 실제와 동일하게 구현하는지 그 사실성이 가장 중요하다. 하지만 메시와 텍스처가 정밀할수록, 그리고 단일 예술품이 아닌 건축물을 구현할수록 데이터가 무거워지는 것은 필연적이기 때문에 기존에는 데이터 경량 및 최적화 작업에 많은 리소스를 투입했다. TRIC는 설립 초창기부터 다양한 미디어 기술을 통한 관람객과 예술 사이의 상호작용(인터랙션)을 중요하게 생각해 왔고, 물리적 센싱 기반의 콘텐츠나 VR 및 AR 등 실시간 인터랙티브 콘텐츠 개발을 주로 해 왔기 때문에 이러한 최적화 작업이 반드시 필요했다. 이 때문에 퀄리티를 그대로 보존하면서도 최소한의 작업으로 실시간 구동이 가능한 언리얼 엔진을 도입했다.   ▲ 언리얼 엔진으로 구현한 높은 정밀도의 디지털 유물(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진 5의 루멘과 나나이트를 활용하면 데이터의 디테일을 높은 비주얼 퀄리티로 구현할 수 있을 뿐만 아니라 리얼타임 제작에 필수였던 장시간의 최적화 작업에 대한 부담을 줄여 주었기 때문에, 적은 인원으로도 목표한 퀄리티의 결과물을 빠르게 도출할 수 있었다. 또한, 언리얼 엔진을 도입한 덕분에 기본 영상부터 복잡한 계산과 시뮬레이션을 요구하는 몰입형 다면 영상, 아나몰픽 영상 등 새로운 출력 방식의 콘텐츠 제작을 위한 작업 파이프라인까지 TRIC가 진행하고 있는 프로젝트 전반의 파이프라인을 단축할 수 있었다.   ▲ TRIC가 제작한 아나몰픽 영상(이미지 출처 : 언리얼 엔진 홈페이지)   최근에 진행한 프로젝트의 파이프라인 CMA 소장 한국문화재 디지털 귀향 프로젝트는 크게 13점의 유물을 스캔하여 디지털화하고, 칠보산도 실감 콘텐츠를 제작하는 2가지 작업으로 진행되었다. 이를 위해 스캔 작업에서는 리얼리티캡처를 전면적으로 활용하였고, 칠보산도 실감 콘텐츠 제작에서는 언리얼 엔진 중심의 파이프라인을 구축했다. 먼저 프로젝트 1차 연도에 진행한 디지털 데이터 구축 작업의 경우, 칠보산도를 포함하여 클리블랜드 박물관이 소장하고 있는 한국 유물 13점에 대한 초정밀 디지털 데이터를 구축했다. 일반적으로 정밀한 3D 스캔은 라이다 또는 구조광 스캐너 등의 전문 장비를 활용해 진행하는 경우가 많은데, 이번에는 유물이 해외에 있어 장비의 반입과 적절한 환경을 조성하기가 어렵다는 점 때문에 사진 측량 기반의 데이터를 생성하는 방식으로 제작했다. 그리고 이를 위해 TRIC가 예술품 데이터 구축 사업에서 대부분의 공간 및 오브젝트의 3D 데이터를 구축할 때 사용하는 리얼리티캡처를 사용했다. 유물마다 수천 장의 사진을 촬영한 후 리얼리티캡처로 메시를 생성했는데, 덕분에 높은 정밀도의 텍스처와 메시가 적용된 애셋을 구축할 수 있었다. 리얼리티캡처는 코로나19 팬데믹으로 독일 국경이 봉쇄된 상황에서 베를린의 건축사진가와 협업을 통해 샤를로텐부르크성 도자기 방 프로젝트를 성공적으로 마무리할 수 있게 해 주었던 핵심 툴이기도 하다.   ▲ 스캔된 13점의 실제 유물(위)과 디지털 버전(아래)(이미지 출처 : 언리얼 엔진 홈페이지)   프로젝트 2차 연도에 진행한 실감 콘텐츠 제작 작업에서는 길게 펼쳐진 병풍 속에 그려진 칠보산을 3면으로 구성된 몰입형 스크린으로 옮겨, 전통 회화의 느낌을 그대로 살리면서 입체적인 공간감을 더하고자 했다. 이를 위해 먼저 카메라 로데이터를 활용해 폭당 수천 장의 이미지를 연결하여 방대한 기가픽셀 데이터를 구축했다. 모든 요소들을 객체별, 색역별, 층별로 분리해 별도의 레이어로 제작하고, 여기에 언리얼 엔진을 활용해 3차원 공간에 재배치한 후 촬영하는 방식을 통해 평면의 전통 회화 유물인 칠보산도에 입체감과 역동감을 부여하여 3D 콘텐츠로 재탄생시켰다.   ▲ 2D 병풍화를 레이어화하여 언리얼 엔진에서 3D 공간에 재배치(이미지 출처 : 언리얼 엔진 홈페이지)   입체감 표현에 무엇보다 중요했던 것은 캐릭터의 윤곽선을 따라 붓 선의 느낌이 나도록 표현하는 것이었다. TRIC는 언리얼 엔진의 머티리얼 에디터를 통해 셰이더를 제작했고, 그 위에 종이 질감의 고퀄리티 텍스처를 메가스캔에서 다운로드 후 가공하여 캐릭터에 포스트 프로세싱 재질을 입혀주는 방식으로 제작했다. 그리고 역동감을 살리기 위해서 필요했던 포그는 언리얼 엔진의 나이아가라 플루이드로 제작했다. 덕분에 다른 오브젝트와 실시간으로 반응하는 시뮬레이션이 가능했고, 원하는 타이밍에 시퀀서를 통해 제어할 수 있었다. 또한, Open VDB를 활용했던 기존 방식보다 가볍고 필요한 수정을 즉시 작업할 수도 있었다. 이렇게 잘 만들어진 캐릭터와 이펙트를 3면으로 구성된 스크린으로 보여주기 위해 세 개의 카메라를 하나로 묶은 카메라 리그를 사용해 애니메이션을 효과적으로 한 번에 처리했고, 렌더링 역시 시퀀서에 배치된 세 개의 카메라를 동시에 렌더링할 수 있는 무비 렌더 큐로 개별 영상을 한 번에 출력했다.   ▲ 3개의 카메라로 동시에 렌더링하는 장면(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진과 에픽 에코시스템의 역할  칠보산도 실감 콘텐츠처럼 전통 회화 리소스를 활용한 콘텐츠에서는 동양 회화 특유의 심미적 감각과 화풍이 모든 요소와 장면에 일관적으로 유지되어야 하기 때문에, 모든 과정에서 정밀하게 컨트롤할 수 있는 제작 툴이 필요하다. 언리얼 엔진은 퍼포먼스의 제약 없이 콘텐츠 자체의 비주얼 퀄리티를 최대한 올리면서 나이아가라, 시퀀서 등으로 그 구성 애셋을 세밀하면서도 정확하게 컨트롤할 수 있는 환경을 제공했다. 또한, 언리얼 엔진 마켓플레이스와 메가스캔의 라이브러리에서 구름, 달, 안개, 바람, 비 등 다양한 자연 현상을 구현할 때 적합한 리소스를 빠르게 확보할 수 있었고, 리깅된 애니메이션 캐릭터를 전통 회화 스타일로 완전히 새롭게 입체화하는데 반드시 필요한 원화의 캐릭터 질감을 구현하는 데 적합한 고퀄리티의 셰이더, 텍스처 등도 제공하여 작업 시간을 줄일 수 있었다.   ▲ 전통 회화의 붓 선 셰이더 적용 여부 비교. 투명도 0.2(위), 투명도 0.8(아래)(이미지 출처 : 언리얼 엔진 홈페이지)   무엇보다 언리얼 엔진의 리얼타임 렌더링이 프로젝트에 반드시 필요한 핵심 기술이었다. 이번 프로젝트의 경우, 콘텐츠 제작 기간이 2개월도 주어지지 않아 시간이 촉박했다. 그에 반해 3개의 스크린이 사다리꼴 모양으로 배치된 몰입형 스크린에서 콘텐츠를 구현하기 위해 3개의 버추얼 카메라로 촬영하여 매우 높은 해상도로 렌더링해야 했다. 이런 경우 관람객의 위치 및 화각에 따라 몰입도가 확연히 달라지기 때문에, 다양한 변수에 대응하며 반복적이고 섬세한 조정이 필요했다. 특히, 한국과 미국이라는 지구 정 반대편에 있는 양국 전문가들이 참여하다 보니 실시간 컨퍼런스 콜을 통해 세부 의견을 주고받아야 하는 상황이었는데, 언리얼 엔진을 통해 실시간으로 확인하고 조정할 수 있었기 때문에 소통 시간을 줄일 수 있었다. 또한, 최종 결과물의 퀄리티도 이미 제작 과정에서 미리 확인할 수 있었기 때문에 커뮤니케이션의 오류나 재작업 리스크가 거의 없었다. 만약 전통적인 방식으로 제작했다면 회의만 하다 정해진 프로젝트 기간이 다 되거나, 겨우 합의에 이르렀다 해도 퀄리티는 물론 기간 내에 제작하는 것조차 불가능했을 것이다.   ▲ TRIC가 해외 전문가들과 컨퍼런스 콜을 진행하는 모습(이미지 출처 : 언리얼 엔진 홈페이지)   문화유산기술연구소의 향후 목표 및 나아갈 방향 단기적으로는 현재 수행하고 있는 CMA 소장 한국문화재 디지털 귀향 프로젝트와 이집트 문화유산 ODA(공적개발원조) 프로젝트를 성공적으로 마치는 것이 TRIC의 목표다. 장기적으로는 이러한 성과를 바탕으로 확보된 수많은 데이터와 리얼타임 콘텐츠를 연결하는 메타버스와 유사한 개념의 시대별 리얼타임 월드를 구축하는 것을 목표로 하고 있다. 이를 위해서 언리얼 엔진과 에픽 에코시스템을 더욱 적극적으로 활용해 역사적으로 보존할 가치가 높은 도시의 시대별 모습을 입체적으로 복원해 나갈 계획이다. 그 일환으로, 우선 8세기 서라벌 전체를 리얼타임 월드로 구축하는 프로젝트를 언리얼 엔진을 활용하여 진행하고 있다. 신라의 왕경인 서라벌의 지형, 식생 등이 복원된 환경에서 건축, 도로, 사람, 역사적 사건 및 사회 등의 방대한 데이터를 하나의 플랫폼에서 마주하고, 발굴 및 연구 결과를 업데이트할 수 있다. 뿐만 아니라 이를 체험하며 교류할 수 있는 하나의 콘텐츠로서, 실사 수준의 퀄리티로 영화나 다큐멘터리 속의 장면도 그 자리에서 바로 만들어 낼 수 있다.   ▲ 서라벌 리얼타임 월드(위)와 나나이트 트라이앵글 시각화(아래)(이미지 출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01