• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "애프터 이펙트"에 대한 통합 검색 내용이 282개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AI 특수효과와 후반작업 마스터하기
AI 크리에이터 시대 : 영상 제작의 새로운 패러다임 (4)   이번 호에서는 AI를 활용한 영상 제작 과정 중 특수효과 부분을 대신할 수 있는가에 대해서 자세히 살펴보도록 한다.   ■ 연재순서 제1회 AI 영상 제작 생태계의 현재와 미래 제2회 AI 기반 크리에이티브 워크플로 혁신 제3회 소셜 미디어 최적화 AI 영상 제작 전략 제4회 AI 특수효과 및 후반작업 마스터하기 제5회 AI 기반 몰입형 사운드 디자인   ■ 최석영 AI프로덕션 감성놀이터의 대표이며, 국제고양이AI필름페스티벌 총감독이다. AI 칼럼니스트로도 활동하고 있다.   그림 1. 다빈치 리졸브의 후반 제작 과정 이미지(www.blackmagicdesign.com/kr/products/ davinciresolve)    “AI를 활용하면 프롬프트가 특수효과이다.” 전통적인 영상 제작에서는 특수효과 하나를 만들기 위해 3D 모델링부터 애니메이션, 렌더링까지 수개월의 작업 시간이 필요했다. 하지만 AI 기반 프롬프트 시스템의 도입으로 복잡한 비주얼 이펙트를 텍스트 명령어만으로 실시간 생성할 수 있게 되었다. 이제 감독은 “중세시대 용이 하늘을 나는 장면을 만들어 주세요”라고 입력하면 몇 분 내에 완성된 시퀀스를 확인할 수 있어, 창작 과정에서 즉각적인 피드백과 수정이 가능해졌다. 기존에 대규모 VFX 팀이 담당했던 모션 그래픽 작업도 개인 크리에이터가 직관적인 언어로 구현할 수 있어, 제작 비용과 기간이 획기적으로 단축되었다. 결국 기술적 전문성보다는 창의적 아이디어와 스토리텔링 능력이 영상 제작의 핵심 경쟁력으로 자리잡는 패러다임 전환이 일어나고 있다.   이제 AI 크리에이터, 슈퍼워크 시대이다.   그림 2. 5초만에 만들어지는 이미지와 비디오 결과물   그림 3. 5초만에 만들어지는 이미지와 비디오 결과물   과거 영화 한 편을 완성하려면 촬영, 편집, 음향, VFX 등 각 분야별 전문 팀이 수개월간 협업해야 했지만, 이제 AI를 전문적으로 활용할 수 있는 소수의 인원으로 모든 제작 과정을 통합 관리할 수 있게 되었다. AI 영상 생성 도구로 원하는 장면을 즉석에서 만들고, 자동 편집 시스템으로 컷 편집과 색 보정을 처리하며, AI 음성 합성과 배경음악 생성까지 원스톱으로 해결하는 것이 현실이 되었다. 기존에는 불가능했던 개인의 창작 범위가 할리우드급 제작 수준까지 확장되면서, 소규모 팀이나 1인 크리에이터도 대작 수준의 콘텐츠를 독립적으로 완성할 수 있는 환경이 조성되었다. 이러한 변화는 콘텐츠 제작의 진입장벽을 대폭 낮춰, 누구나 자신만의 독창적인 영상 작품을 세상에 선보일 수 있는 민주화된 창작 생태계를 만들어 가고 있다.  결국 기술적 제약이 사라진 ‘슈퍼워크’ 시대에서는 순수한 상상력과 스토리텔링 역량이 크리에이터를 차별화하는 유일한 요소가 될 것이다. 필자가 영상 제작에서 특수효과 팀에 있을 때 활용되는 3D 프로그램들인 후디니, 애프터이펙트, 누크, 언리얼 엔진 등으로 제작된 이펙트 영상은 고가의 시스템과 전문성이 있어야 제작이 가능하며, 그 분야에 숙련도를 갖추기 위해서는 많은 시간이 필요했다. 생성형 AI 콘텐츠 제작의 전문성과 프롬프트만으로도 기존의 특수효과 표현 및 불가능한 장면도 가능하게 되었다.      ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-07-01
에픽게임즈, 언리얼 엔진 5.6 출시
에픽게임즈는 다양한 툴세트와 기능을 새롭게 추가한 언리얼 엔진의 신규 업데이트 ‘언리얼 엔진 5.6’을 정식 출시했다고 발표했다. 이번 언리얼 엔진 5.6 업데이트는 ▲고퀄리티의 60FPS 오픈 월드 ▲더 빠른 애니메이션 제작 ▲언리얼 엔진에 통합된 메타휴먼 크리에이터 ▲간소화된 UX/UI 경험 ▲개발자 반복 작업 향상 ▲더 빠른 월드 제작을 위한 프로시저럴 툴 ▲향상된 시네마틱 및 퍼포먼스 캡처 워크플로 등에서 새로운 기능을 추가하고, 기존 기능을 향상시켰다. 언리얼 엔진 5.6은 고퀄리티의 60FPS 오픈 월드 구현을 위해 고사양 PC, 최신 콘솔, 모바일 디바이스에서 60FPS의 일관된 렌더링이 구현되는 게임을 개발하고 출시하는 데 필요한 최적화된 툴세트를 제공한다. 특히 ‘하드웨어 레이 트레이싱(HWRT)’ 시스템 개선으로 글로벌 일루미네이션 및 리플렉션 기술인 ‘루멘’의 성능이 향상되었으며, CPU 병목 현상을 제거해 더욱 복잡한 신(scene)도 60FPS의 프레임 속도를 유지할 수 있다. 또한, 새롭게 선보이는 기능인 ‘패스트 지오메트리 스트리밍 플러그인’을 통해 대량의 스태틱 지오메트리를 포함한 월드도 일정한 프레임 속도로 빠르게 로드할 수 있다. 비동기 피직스 스테이트 생성 및 제거 등 콘텐츠 스트리밍 기능 또한 향상되었다.     더 빠른 애니메이션 제작 부분에서는 보다 직관적이고 정확하게 제어 가능한 에디터 내 툴세트를 지원하기 위해 대대적인 업데이트가 이루어졌다. 완전히 재설계된 ‘모션 트레일’을 통해 액터와 캐릭터 제어 기능이 새롭게 통합되면서 뷰포트에서 애니메이션의 궤적과 간격을 직접 조정할 수 있다. 또한 ‘점선’, ‘시간 기반’, ‘속도/분포’ 모드 등 다양한 스타일과 ‘핀 고정’, ‘오프셋’, ‘스페이스’ 등의 기능을 통해 보다 정밀하게 애니메이션을 제어할 수 있다. ‘트윈 툴’도 새롭게 개편되어 컨트롤하거나 선택한 키에 대한 애니메이션을 더 빠르고 세밀하게 조정할 수 있게 되었으며, 새로운 단축키와 ‘오버슈트’, ‘타임 오프셋 슬라이더’ 등이 추가되어 사용자 편의성과 사용성 또한 향상되었다. 시퀀서 또한 업데이트되어 새로운 시퀀서 내비게이션 툴을 사용하면 복잡한 계층구조를 쉽게 탐색할 수 있으며, 실시간 오디오 스크러빙 기능으로 애니메이션, 대화, 이펙트 등을 정확하게 동기화하고 현지화된 오디오를 기반해 다양한 언어의 타이밍에 맞춰 시퀀스를 조정할 수 있다. 마지막으로, 실험 단계 기능으로 ‘스켈레탈 메시 에디터’ 내에서 모프 타깃을 만들고 스컬프팅할 수 있으며, ‘컨트롤 릭 피직스’를 통해 캐릭터 릭에 프로시저럴 피직스 모션을 손쉽게 추가하거나 ‘래그돌 피직스’ 기능으로 보다 사실감 있는 캐릭터 애니메이션을 구현할 수 있다. 메타휴먼 부분에서는 ‘메타휴먼 크리에이터’가 언리얼 엔진에 통합되며, ‘메타휴먼 애니메이터’도 더욱 향상된 기능을 제공한다. 특히 이번 업데이트를 통해 얼굴뿐만 아니라 체형도 거의 무한대로 생성 가능하며, 새로운 의상 애셋을 통해 메타휴먼에 자동으로 맞춰지는 완벽한 의상을 손쉽게 제작할 수 있다. 또한, 페이스와 보디에 대한 실제 스캔 데이터도 대폭 추가되어 더욱 다양한 고퀄리티의 캐릭터 제작이 가능해졌다. ‘메타휴먼 애니메이터’의 경우 이제 대부분의 웹캠, 스마트폰, 오디오에서 배우의 연기를 실시간으로 캡처할 수 있으며, DCC용 신규 플러그인과 ‘팹 마켓플레이스’와의 통합 등 에코시스템도 더욱 확장된다. 간소화된 UX/UI 경험 부분에서는 에디터 전반의 UX/UI가 새롭게 개편되어 더욱 직관적이고 빠른 워크플로를 지원한다. 새롭게 디자인된 콘텐츠 브라우저로 애셋 정리와 탐색이 훨씬 쉬워졌으며, 썸네일 크기의 조절과 가로 및 세로 방향 전환도 더욱 매끄럽게 조정할 수 있다. 또한, ‘뷰포트 툴바’의 섹션 메뉴와 ‘퀵 액세스 컨트롤’ 기능 개편으로 주요 툴에 더 빠르게 접근 가능하며, 상황에 맞춰 자동 조절되는 툴바, 선택 및 모델링 모드를 위한 전용 제어 기능 등 사용성 또한 향상되었다. 언리얼 엔진 5.6은 개발자의 효율적인 반복작업을 위해서 워크플로를 가속화하고, 타깃 플랫폼 및 디바이스에 더 빠르게 콘텐츠를 제공할 수 있는 다양한 툴을 추가했다. 새롭게 재설계된 ‘프로젝트 런처’ UI로 디바이스 실행 프로파일을 보다 빠르게 생성 및 관리할 수 있으며 빌드, 쿠킹, 디바이스 배포 구성 또한 빠르게 설정할 수 있다. ‘젠 스트리밍’을 베타로 전환해 전체 패키지 빌드 없이도 콘텐츠 테스트와 반복작업을 간소화해 생산성을 향상시켰다. 또한, 실험 단계의 ‘점진적 쿠킹’ 기능은 변경된 애셋만 분석 및 처리 가능해 반복 작업을 효율적으로 할 수 있다. 프로시저럴 툴 부분에서는 강력해진 PCG 프레임워크를 통해 복잡한 월드를 더욱 빠르고 효율적으로 제작할 수 있다. 인라인 상수를 지원하는 노드 그래프 UX와 새로운 3D 뷰포트를 통해 요소 생성 및 조작, 그리고 미리보기할 수 있으며, 노드 필터링 기능이 있는 맞춤형 그래프 템플릿으로 더 빠르게 반복작업을 할 수 있다. 특히 GPU 성능이 개선되어 복잡한 신에서도 인스턴스 처리가 안정적으로 이루어지고, CPU 오버헤드를 줄여 인스턴스 작업 시 강화된 유연성과 정밀성을 제공한다. PCG도 멀티스레딩 지원으로 전반적인 성능이 향상되며, 복잡한 대규모 환경에서도 더 빠른 처리와 반응 속도를 제공한다. 또한, ‘PCG 바이옴 코어 v2(Biome Core v2)’ 플러그인을 통해 바이옴을 더 빠르고 직관적으로 생성하고 업데이트할 수 있으며, 바이옴 별 ‘블렌딩’과 ‘바이옴 레이어링’ 기능으로 자연스러운 생물 환경을 보다 효율적으로 구축할 수 있다. 시네마틱 및 퍼포먼스 캡처 워크플로 부분에서는 새롭게 통합된 다양한 툴세트를 통해 제작 파이프라인 전반에 효율성을 더했다. 새로운 통합 설루션인 ‘모캡 매니저’로 언리얼 에디터 내에서 퍼포먼스 캡처 데이터를 시각화, 녹화 및 관리하고, 애셋 관리부터 모캡 스테이지 및 연기자/캐릭터 구성, 라이브 링크 데이터 미리보기 등 다양한 기능으로 제작의 효율을 높일 수 있다. ‘캡처 매니저’는 라이브 링크 허브와 통합되어 모바일 디바이스, 비디오 파일, 스테레오 헤드 마운트 카메라(HMC)에서 메타휴먼 테이크를 정밀하게 가져와 처리할 수 있어 서드파티 페이셜 캡처 시스템과의 호환성과 유연성이 강화되었다. 또한 새로운 파이프라인 친화적인 ‘시네마틱 어셈블리 툴세트(CAT)’가 추가되어 프로젝트 구성 전환, 시네마틱 템플릿 재사용 등 다양한 기능을 통해 샷 관리 파이프라인을 효율적으로 관리할 수 있다.
작성일 : 2025-06-04
[케이스 스터디] 실시간 3D 엔진 기반의 전기자동차 HMI 개발
별에서 영감을 받은 지리 갤럭시 E8의 스마트 콕핏   갈릴레오 갈릴레이부터 에드윈 허블과 미국 항공우주국의(NASA)에 이르기까지 수많은 천문학의 선구자들을 매료시킨 밤하늘의 상상력을 담은 자동차가 있다. 갤럭시 E8(Galaxy E8)은 지리(Geely)의 플래그십 모델이자 브랜드 최초의 순수 전기차로, 인류의 우주에 대한 열정과 문명, 기술 혁신을 하나의 차체 안에 담아내고 있다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 제공 : Geely Auto   갤럭시 E8은 차량의 내/외부를 통해 유저 중심의 프리미엄 경험을 제공하도록 설계되었다. 공기역학적인 실루엣은 별빛을 연상시키는 반짝임으로 표현되며, 실내에는 경계 없는 8K 해상도를 지원하는 45인치 대형 스마트 스크린이 탑재된 디지털 콕핏 시스템을 갖추고 있다. 또한 퀄컴 스냅드래곤(Qualcomm Snapdragon) 8295 플래그십 콕핏 칩과 언리얼 엔진(Unreal Engine)을 기반으로 2D 및 3D 그래픽이 구현된다.   언리얼 엔진 기반 경험 언리얼 엔진은 이 차량의 인터페이스와 시각적 몰입감을 극대화하는 데 핵심 역할을 수행했다. 예를 들어, 시간의 흐름에 따라 앰비언트 조명이 자연스럽게 변화하도록 설계되었으며, 비가 오거나 눈이 내리는 날 사용자가 문을 열면 시뮬레이션된 별빛이 한쪽에서 다른 쪽으로 흐르며 몰입감 있고 분위기 있는 효과를 연출한다. 디지털 트윈 경험에서는 데스크톱을 통해 갤럭시 E8의 인터랙티브 3D 모델을 확인할 수 있으며, 이를 통해 헤드라이트, 도어, 창문, 트렁크 등의 기능을 직접 제어할 수 있다. 에어컨의 공기 흐름과 같은 세부적인 제어 기능 역시 언리얼 엔진 기반으로 설계되어 실시간 상호작용이 가능하다. 미니멀한 UI 디자인은 사용 편의성과 연속적이고 부드러운 인터랙티브 경험을 완성하며, 몰입감 있는 시청각 경험까지 제공한다.  지리 자동차 연구소(Geely Automobile Research Institute, 이하 GARI)의 스마트 콕핏 팀은 언리얼 엔진을 사용하여 몰입감 있고 지능적이며 안전한 콕핏 경험을 개발할 수 있었다.   ▲ 이미지 제공 : Geely Auto   지리 HMI의 도전 과제와 설루션 갤럭시 E8의 8K 디스플레이를 개발하는 과정에서 GARI 팀이 직면한 주요 도전 과제는 시스템 리소스를 최소화하면서도 실시간 성능과 뛰어난 비주얼 퀄리티를 동시에 구현하는 휴먼-머신 인터페이스(HMI)를 설계하는 것이었다. 이를 해결하기 위해 GARI 팀은 복합적인 전략을 마련하고 단계적으로 적용했다. 먼저, 다이내믹 프레임 전략을 도입하여 시각적 요소와 인터랙션 유형에 따라 프레임 레이트를 유동적으로 적용했다. 원활한 인터랙션을 위해 전경 요소는 25fps(초당 프레임)로 고정해 부드러운 반응성을 확보했으며, 상대적으로 우선순위가 낮은 시나리오에는 15fps, 5fps, 동결 모드로 구성된 3단계 프레임 전략을 적용함으로써 시스템 리소스를 효율적으로 분배했다. 다음으로 계층적 리소스 관리를 통해 8K 화면의 리소스에 2D 및 3D 애셋을 1:9 비율로 포함했다. 부드럽게 전환되고 지연 없는 경험을 만들기 위해 3D 자동차 모델만 메모리에 저장하고, 다른 모든 애셋은 백그라운드에서 조용히 로드되도록 했다. 마지막으로 인터랙티브 전략을 통해 시스템 반응성과 데이터 흐름의 안정성을 강화했다. HMI 시스템에서 발생하는 신호 소스는 HMI 내부 신호와 터치 입력으로 제한하고, 실시간으로 처리해야 할 신호와 사전에 저장된 데이터 링크를 명확히 구분했다. 또한 신호가 순서대로 도착하지 않거나 반복적으로 입력되는 경우에는 L2 캐싱 및 분류 시스템을 활용해 이를 체계적으로 관리함으로써, 인터페이스의 안정성과 효율을 높였다.   지리가 HMI 제작에 언리얼 엔진을 선택한 이유 지리의 HMI 프로젝트에서는 코드 수준에서의 광범위한 통합이 가능한 커스텀 운영 체제(Galaxy N-OS)의 개발이 필요했다. 이에 따라 GARI 팀은 기존 개발 툴보다 더 향상된 기능과 확장성을 제공할 수 있는 게임 엔진의 가능성에 주목하고, 다양한 상용 엔진을 면밀히 평가했다. 최종적으로 GARI 팀은 언리얼 엔진을 선택했다. 그 결정의 핵심에는 언리얼 엔진의 리얼타임 렌더링 성능과 커스터마이징 가능성이 있었다. 특히 언리얼 엔진이 오픈소스로 제공된다는 점은 팀원들이 다양한 기능을 직접 개발하고 효과적으로 커스터마이징할 수 있도록 해 주었으며, 성능 최적화 측면에서도 높은 유연성을 확보할 수 있게 했다. 여러 리얼타임 렌더링 엔진을 검토한 결과, GARI 팀은 언리얼 엔진이 통합된 개발 도구 생태계와 렌더링 품질, 그리고 기본 DCC 작업부터 레벨 임포트까지의 과정을 간소화해주는 레벨 디자인 툴 등 포괄적인 개발 환경을 갖추고 있다는 점에서 가장 적합하다고 판단했다. GARI 팀이 특히 주목한 언리얼 엔진의 기능 중 하나는 블루프린트 비주얼 스크립팅 시스템이다. 이를 활용한 비주얼 프로그래밍으로 복잡한 인터랙션 로직을 시각적으로 설계하고 구현할 수 있게 하여, HMI 시스템 개발을 보다 직관적으로 수행할 수 있도록 돕는다. 레벨, 노멀, 게임플레이, 머티리얼 블루프린트를 포함되어 있으며, 블루프린트 노드를 통해 로직, 머티리얼, 트랜지션 등을 빠르게 구현할 수 있어 POC(개념 검증) 단계는 물론 이후 프로젝트 엔지니어링의 효율성도 크게 향상된다. 또한 언리얼 엔진의 고급 렌더링 기능은 사실적인 사용자 인터페이스와 몰입감 있는 비주얼 효과 구현을 가능하게 하여 고퀄리티의 그래픽을 안정적으로 제공한다. 피직스 시뮬레이션 시스템은 현실의 물리 효과를 정밀하게 재현하여 차량 본체와의 인터랙션을 더욱 사실감 있게 구현하고, 몰입도를 높여준다. 여기에 더해, 언리얼 엔진은 PC, 게임 콘솔, 모바일 디바이스 등 다양한 플랫폼에 폭넓게 대응할 수 있어 개발된 HMI 시스템의 배포와 실행이 용이하다는 장점도 있다. 결론적으로 GARI 팀은 언리얼 엔진의 도입이 HMI 경험의 혁신을 이끌었다고 평가하고 있다.   ▲ 이미지 제공 : Geely Auto    HMI 개발을 위한 언리얼 엔진의 핵심 기능 HMI 개발을 위한 언리얼 엔진의 핵심 기능은 지리의 고유한 커스터마이징 프로세스 전반에 걸쳐 적용되었다. 이 프로세스는 콘셉트 제안, 요구사항 분석, 인터페이스 콘셉트 디자인, 3D 엔진 아트 복원, 엔진 소프트웨어 개발, 차량 기능 통합, 엔진 및 시스템 통합, 온보드 테스트 및 납품 등 여러 단계로 구성되어 있다. 지리는 전체 개발 과정에서 언리얼 엔진의 다양한 기능과 툴을 적극적으로 활용했다. 레벨(Level) 은 신(scene) 간의 매끄러운 전환과 원 테이크 기반의 연속적인 사용자 경험을 지원하며, 베리언트(Variant)는 런타임 중 애셋 관리를 간소화하고 처리 속도를 높이는 데 기여했다. 시퀀서(Sequencer)는 레벨 시퀀스와 함께 활용되어 트랜지션을 효율적으로 제어하고 애니메이션 제작을 보다 간편하게 수행할 수 있도록 도왔다. 또한 애니메이션과 머티리얼 개발에는 블루프린트를 폭넓게 사용했으며, 라이트맵과 포스트 프로세스 이펙트 등 다양한 기능을 통해 완성도 높은 HMI를 구현했다. 특히 8K 디스플레이 환경에서 고해상도 인터페이스를 안정적으로 구현하기 위해 최적화 작업이 중요했다. 초기 구동 시점과 실시간 사용자 인터랙션 중에도 시스템이 원활하게 작동하도록 하기 위해 지리는 언리얼 엔진의 여러 최적화 툴을 함께 사용했다. 언리얼 인사이트(Unreal Insights)를 통해 시작 시간을 단축하고, 언리얼 프론트엔드(Unreal Frontend)를 통해 전반적인 성능을 최적화했으며, 명령줄 기반의 디버깅 툴인 통계 시스템과 Memreport를 활용하여 세부적인 성능 데이터를 분석했다. 또한, 언리얼 엔진의 기본 툴 외에도 스냅드래곤 프로파일러(Snapdragon Profiler)를 병행해 사용함으로써 개발 효율성과 분석 정확도를 높였다. 이와 함께 안드로이드 스튜디오 프로파일러(Android Studio Profiler), 안드로이드 디버그 브리지(Android Debug Bridge, ADB), 렌더독(RenderDoc), 부트차트(Bootchart), 비지박스(BusyBox) 등 Android 및 Linux 기반의 전문 툴도 적재적소에 활용했다.   ▲ 이미지 제공 : Geely Auto   앞으로의 계획 지리는 이번 프로젝트를 성공적으로 완료한 이후, 새로운 기술을 수용하고 HMI 혁신을 지속적으로 발전시키는 데 더욱 집중하고 있다. 앞으로 지리의 차세대 스마트 드라이빙 시스템에는 갤럭시 어시스트 드라이빙(Galaxy Assisted Driving), 자동 주차, 홈존 주차 지원 등 새로운 기능이 추가될 예정인데, 지리는 이를 통해 사용자 편의성과 주행 안전성을 한층 더 끌어올릴 수 있을 것으로 기대하고 있다. 장기적으로는 대형 AI 모델과 3D 엔진이 통합된 HMI 시스템이 운전 경험을 근본적으로 변화시킬 것으로 전망된다. 이러한 기술 혁신을 실현하기 위해서는 3D 엔진 개발자와 자동차 제조업체 간의 더욱 긴밀한 협업이 필수이다. 언리얼 엔진은 첨단 주행 기능을 시각적으로 구현하는 가상 뷰를 구축하는 데 핵심 역할을 수행하며, 커스텀 운영 체제 시스템의 거의 모든 요소에 긴밀하게 통합되어 HMI의 기능성과 사용자 경험을 동시에 향상시키고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-06-04
어도비 프리미어 프로, AI로 푸티지 생성, 편집, 검색 속도 향상
어도비가 AI를 활용해 영상 및 오디오 클립을 즉시 생성하고 길이를 확장할 수 있는 프리미어 프로(Premiere Pro)의 생성형 확장(Generative Extend)과 테라바이트급 푸티지에서 특정 클립을 몇 초 만에 빠르게 찾아내는 AI 구동 미디어 인텔리전스(Media Intelligence)를 출시했다. 상업적으로 안전하게 사용할 수 있는 파이어플라이 비디오 모델로 구동되는 생성형 확장을 통해 편집자는 4K 및 가로, 세로형 영상, 오디오 클립과 함께 길이를 조절할 수 있어, 푸티지 내 부족한 부분을 채우는 방식을 혁신적으로 개선할 수 있다. 또한 애프터 이펙트(After Effects)는 향상된 성능과 3D 도구를 제공하며, 프레임닷아이오(Frame.io)는 저장, 대본, 다양한 문서 형식을 지원하도록 업그레이드됐다. 이번에 공개된 생성형 확장과 미디어 인텔리전스는 어도비 크리에이티브 커뮤니티에서 높은 기대를 모은 영상 역량으로, 수년간의 연구와 베타 고객의 피드백을 거쳐 정식 출시됐다. 또한 프리미어 프로에 다국어 캡션 생성을 자동화하는 AI 구동 캡션 번역(Caption Translation) 기능도 새롭게 추가되어, 영상 전문가들이 전 세계 시청자들과 더 손쉽게 소통할 수 있도록 지원한다. 뿐만 아니라, 카메라로 촬영한 RAW 영상 및 로그(LOG) 푸티지를 프리미어로 가져오는 즉시 해당 클립을 HDR 또는 SDR로 자동 변환해, 색 보정 작업의 정확도를 높이는 프리미어 색상 관리(Premiere Color Management)도 정식 출시됐다. 프리미어 프로의 전반적인 성능 향상과 더불어, 이러한 신규 기능들은 편집 작업을 더욱 빠르고 효율적으로 만들어준다.     4K 및 세로형 영상을 지원하는 생성형 확장 정식 출시로, 영상 편집 시 종종 발생하는 짧은 클립으로 인한 편집 문제를 쉽게 해결할 수 있다. 전문 편집 툴인 생성형 확장 기능은 클립의 길이를 늘려 푸티지의 영상 또는 오디오 공백을 채우고 장면 전환을 매끄럽게 하며 샷을 길게 유지해 완벽한 타이밍의 편집을 가능케한다. 클릭 및 드래그만으로 사실적인 영상과 오디오를 확장할 수 있어, 품질 저하 없이 타임라인을 유연하게 조정할 수 있다. 또한 세로형 영상도 지원해, 편집자는 별도의 프레임 재조정 없이 소셜미디어에 최적화된 콘텐츠를 쉽게 제작하고 내보낼 수 있다. 생성형 확장은 상업적으로 안전한 파이어플라이 비디오 모델로 구동된다. AI 생성 콘텐츠에 대한 투명성을 높이고자, 생성형 확장으로 제작된 콘텐츠 결과물에는 디지털 미디어의 '영양 성분 표시'와 같은 역할을 하는 콘텐츠 자격증명(Content Credentials)이 첨부된다. 프리미어 프로 및 애프터 이펙트 업그레이드를 통해 영화 제작자는 몇 초 내로 테라바이트 크기의 푸티지를 검색하고 시각 효과 및 모션 그래픽 워크플로를 간소화할 수 있게 됐다. 프리미어 프로의 AI 구동 미디어 인텔리전스 기능은 편집자가 프로젝트 푸티지를 다루는 방식을 근본적으로 바꾸고 시간을 절약한다. 번거로운 수동 검색을 대신해 미디어 인텔리전스는 개체, 위치, 카메라 각도, 촬영 날짜, 카메라 유형 등 메타데이터를 포함한 클립 콘텐츠를 자동 인식해 편집자가 필요할 때 원하는 장면을 찾을 수 있도록 돕는다.  프리미어 프로의 AI 구동 캡션 번역(Caption Translation)은 몇 초 만에 캡션을 27개 언어로 번역할 수 있는 기능으로, 수동 번역으로 인해 속도가 느려지고 워크플로가 중단되거나 비용이 추가되는 상황을 개선한다. 또한 프리미어 프로는 새로운 컬러 시스템을 제공해, 기존 대비 더 높은 정확도와 일관된 색상을 구현하고 거의 모든 카메라의 로그 영상을 HDR및 SDR 콘텐츠로 자동 변환한다. 이를 통해 편집자는 푸티지 편집 작업을 빠르게 시작하고 완벽한 피부 톤, 보다 생생한 색상, 향상된 다이내믹 레인지(Dynamic Range)로 어느 때보다 쉽게 멋진 영상을 제작할 수 있다. 애프터 이펙트는 고성능 미리보기 재생(High-Performance Preview Playback)을 통해 모든 컴퓨터에서 전체 컴포지션을 어느 때보다 빠르게 재생할 수 있게 됐고, 애니메이션 환경 조명(Animated Environment Light) 등 확장된 3D 툴로 보다 빠르고 사실적인 3D 합성을 지원한다. 애프터 이펙트의 HDR 모니터링(HDR Monitoring) 기능은 HDR 콘텐츠를 정확하게 재생하고 작업함으로써 더욱 밝고 생동감 있는 모션 디자인 작업을 할 수 있다. 크리에이티브 팀에 따라 조정할 수 있는 프레임닷아이오 V4의 확장된 스토리지는 다양한 클라우드 플랫폼에 파일을 저장해, 워크플로 분절 없이 방대한 양의 미디어를 한곳에서 협업할 수 있도록 지원한다. 많은 크리에이티브 팀이 대규모 콘텐츠 제작과 빠르게 증가하는 수요에 대응하는 데 어려움을 겪고 있는 가운데, 프레임닷아이오 V4는 스크립트, 촬영지 사진, 원본 미디어 등 모든 것을 단일 플랫폼에서 저장, 관리, 협업 및 배포할 수 있도록 돕는다. 프레임닷아이오에는 스크립트, 브리핑 문서, 예산, 제안서, 장면 세부 묘사, 스토리보드 및 기타 제작 자료에 대한 협업을 지원하는 확장된 텍스트 문서 검토 툴(Expanded text document review tools), 영상 및 오디오 파일을 빠르게 텍스트로 변환할 수 있는 대본 생성(Transcription generation, 베타), 편집 중인 콘텐츠를 보호할 수 있도록 영상, 이미지 및 문서에 적용 가능한 맞춤형 텍스트 워터마크, 대규모 팀의 사용자 그룹 관리자가 워크스페이스 및 프로젝트 전반에서 대량 사용자 접근 권한을 자동화할 수 있는 접근 허용 그룹(Access Groups, 베타) 등의 기능이 제공된다. 이 밖에도 어도비는 고성능 미리보기 재생 엔진, 강력한 신규 3D 모션 디자인 툴, HDR 모니터링 등 애프터 이펙트의 신규 기능도 공개했다. 또한 프레임닷아이오 V4 업그레이드에는 팀 단위로 사용 가능한 확장 스토리지가 포함돼, 워크플로 단절 없이 편집 중인 작업물과 완성된 애셋을 자유롭게 공유하고, 관리, 정리할 수 있도록 지원한다. 어도비의 애슐리 스틸(Ashley Still) 디지털 미디어 부문 총괄 겸 수석 부사장은 “4K에서 가능한 생성형 확장 기능과 AI 구동 미디어 인텔리전스를 활용해, 프리미어 프로 이용자들이 어떤 상상력을 자극하는 다채로운 영상을 만들어낼지 기대된다”면서, “파이어플라이의 강력한 성능과 어도비의 첨단 AI 역량을 통해 영상 편집의 새 지평을 열고 있으며, 이용자들이 가장 중요한 일, 즉 생동감 있고 매력적인 스토리텔링에 온전히 집중할 수 있도록 돕고 있다”고 말했다.
작성일 : 2025-04-04
[무료강좌] AI 영상 제작 생태계의 현재와 미래
AI 크리에이터 시대 : 영상 제작의 새로운 패러다임 (1)   이번 호에서는 AI 영상 제작 생태계의 현재 상황을 분석하고, 기술 발전에 따른 미래 변화를 예측하며, 여러 분야에 활용할 수 있는 생성형 AI 영상 제작 기술을 살펴보고자 한다.   ■ 연재순서 제1회 AI 영상 제작 생태계의 현재와 미래 제2회 AI 기반 크리에이티브 워크플로 혁신 제3회 소셜 미디어 최적화 AI 영상 제작 전략 제4회 AI 특수효과 및 후반작업 마스터하기 제5회 AI 기반 몰입형 사운드 디자인   ■ 최석영 AI프로덕션 감성놀이터의 대표이며, 국제고양이AI필름페스티벌 총감독이다. AI 칼럼니스트로도 활동하고 있다.    그림 1. 오픈소스 AI, ComfyUI를 활용한 생성형 비디오 Wan2.1    AI 영상 제작의 패러다임 전환 인공지능 기술의 급속한 발전은 영상 제작 산업에 근본적인 변화를 가져오고 있다. 전통적으로 영상 콘텐츠 제작은 전문적인 기술, 고가의 장비, 그리고 상당한 시간과 인력을 필요로 했다. 그러나 AI 기술의 등장으로 이러한 장벽이 크게 낮아지며, 영상 제작의 민주화가 빠르게 진행되고 있다. 이제는 프리미어보다는 AI 편집 프로그램인 캡컷(CapCut)으로 영상을 편집하고, 애프터이펙트보다 피카 AI(Pika AI)로 고급 이펙트 영상을 제작하는 경우가 늘고 있다.   그림 2. 캡컷 서비스 이미지(capcut.com)   그림 3. 피카 AI 서비스 이미지(pika.ai)   AI 영상 제작 기술의 현재 생성형 AI 비디오 기술   그림 4. 오픈AI 소라의 영상 생성 제작 이미지(sora.com)   최근 급속도로 발전한 생성형 AI 기술은 영상 제작 방식을 혁신적으로 변화시키고 있다. 텍스트 프롬프트만으로 완전히 새로운 비디오를 생성하는 기술이 실현되어 창작의 새로운 패러다임을 형성하고 있다.   그림 5. 비디오 생성 기술이 뛰어난 구글의 비오 2(Veo 2, https:// deepmind.google/technologies/veo/veo-2)   주요 기술 및 모델 텍스트-비디오(Text-to-Video) 생성 : 오픈AI의 소라(Sora), 구글의 루미에르(Lumiere) 등이 텍스트 설명만으로 사실적인 비디오를 생성하는 기술을 선보이고 있다. 소라는 최대 60초 길이의 복잡한 내러티브 장면을 생성할 수 있는 능력을 갖추었으며, 물리적 정확성과 시간적 일관성 측면에서 괄목할 만한 성과를 보여주고 있다. 이미지-비디오(Image-to-Video) 변환 : 런웨이(Runway)의 젠-3(Gen-3) 등은 정적 이미지를 동적 비디오로 확장하는 기술을 제공한다. 이 기술은 단일 이미지에 내재된 정보를 바탕으로 자연스러운 움직임과 시간적 흐름을 생성한다. 비디오 확장 및 편집 : 캡컷 등의 플랫폼은 기존 비디오 클립을 AI로 확장하거나 스타일을 변환하는 서비스를 제공하고 있다. 이러한 도구는 비디오의 해상도 향상, 프레임 보간, 스타일 변환 등 다양한 작업을 자동화한다.    AI 기반 후보정 및 편집 기술   그림 6. AI 기반 DI(Digital Intermediate) 프로그램. 무료 기능도 탁월하다.    AI는 영상의 촬영 이후 단계에서도 혁신을 가져오고 있다. 이는 편집의 효율을 높이고 전문가 수준의 결과물을 더 쉽게 얻을 수 있게 한다.   주요 기술 자동 색 보정 및 그레이딩 : 블랙매직 디자인(Blackmagic Design)의 다빈치 리졸브 18(DaVinci Resolve 18) 등에 탑재된 AI 기능은 영상의 색감과 톤을 자동으로 최적화한다. 객체 인식 및 자동 트래킹 : AI 기반 시스템은 비디오 내 객체를 식별하고 추적하여 효과 적용이나 편집 작업을 자동화한다. 오디오 처리 및 개선 : 배경 소음 제거, 음성 명확화, 자동 믹싱 등 AI 기반 오디오 처리 기술이 비디오 제작의 음향 품질을 크게 향상시키고 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-04-02
트윈모션 2025.1 : 다양한 산업 분야를 위한 실시간 시각화 기능 강화
개발 및 공급 : 에픽게임즈 주요 특징 : 쉽고 사실적인 실외 환경 기능 향상, 인터랙티브 3D 프레젠테이션 제작 기능 추가, 라이팅 및 렌더링 기능 향상, 향상된 카메라 애니메이션 기능, 자동차 및 운송 디자이너를 위한 기능 추가 등   에픽게임즈는 모든 크리에이터를 위해 대규모 신규 기능 및 개선 사항이 추가된 ‘트윈모션 2025.1(Twinmotion 2025.1)’을 출시했다. 트윈모션은 건축과 자동차, 소비자 제품, 영화 등 여러 산업 분야의 크리에이터가 고품질 시각화를 쉽고 빠르게 제작할 수 있는 기능을 제공하며, 직관적인 아이콘 기반의 쉬운 UI(사용자 인터페이스)로 초보자부터 전문가까지 누구나 손쉽게 사용할 수 있는 리얼타임 3D 시각화 설루션이다. 최신 버전인 트윈모션 2025.1에서는 ▲쉽고 사실적인 실외 환경 ▲컨피규레이션 ▲라이팅 및 렌더링 향상 ▲카메라 애니메이션 향상 ▲자동차 및 운송 디자인을 위한 기능 등 모든 산업 분야의 크리에이터를 위한 대규모의 신규 기능을 추가하는 것은 물론 기존 기능을 큰 폭으로 개선했다. 주요 기능의 신규 추가 및 개선 외에도 임의의 두 지점 간의 거리를 정확하게 측정할 수 있는 새로운 측정 툴이 추가됐으며, 평면 전체에서 오브젝트 미러링, 면의 노멀 반전, 면을 선택 및 삭제하는 툴과 임포트한 복잡한 메시로 작업할 때 리얼타임 퍼포먼스를 유지할 수 있도록 자동 레벨 오브 디테일(LOD) 생성 기능 등이 제공된다.   ▲ 볼류메트릭 클라우드(이미지 출처 : Unreal Engine KR 유튜브 캡처)   쉽고 사실적인 실외 환경 신(scene)에 사실적인 ‘볼류메트릭 클라우드’를 사용할 수 있는 옵션이 추가됐다. 이를 통해 구름의 높이, 범위, 분포를 조정하고 밀도, 색상, 부피 및 기타 설정을 미세 조정하여 원하는 구름의 모양을 만들 수 있으며, 바람의 영향을 받거나 구름의 그림자를 만들 수도 있다. 혼탁도 및 애트머스피어 밀도와 같은 새로운 설정 기능을 통해 다이내믹 스카이의 선명도와 색상을 제어할 수 있고, 태양의 색상이나 온도, 익스포넨셜 하이트 포그의 색상과 높이, 밀도도 설정할 수 있다. 이러한 환경 설정을 프리셋으로 저장하고 재사용할 수 있는 기능도 추가돼 환경 패널의 모든 설정을 단 한 번의 클릭으로 적용할 수 있으며, 환경 패널의 재설계를 통해 논리적으로 그룹화된 설정을 제공한다.   ▲ 환경 프리셋(이미지 출처 : Unreal Engine KR 유튜브 캡처)   컨피규레이션 컨피규레이션은 고객이나 관계자에게 프로젝트의 다양한 베리에이션을 선보일 수 있는 인터랙티브 3D 프레젠테이션 제작 기능으로, 신축 부동산 영업팀, 제품 디자이너, 자동차 제조사 등 다양한 분야에서 활용할 수 있다. 프레젠테이션 환경에 따라 트윈모션을 전체화면 모드로 사용하거나 이미지, 파노라마, 비디오 또는 시퀀스를 보다가 트리거 아이콘 클릭만으로 간단히 베리에이션을 즉시 전환할 수 있다.   ▲ 컨피규레이션(이미지 출처 : Unreal Engine KR 유튜브 캡처)   라이팅/렌더링 라이팅 및 렌더링 향상 부분에서는 라이브 이벤트나 설치물의 시각화, 배 선체의 반사와 같은 이펙트 시뮬레이션에 도움을 줄 수 있는 새로운 ‘프로젝터 라이트’가 추가돼, 이제 모든 이미지나 영상 텍스처를 표면에 투사할 수 있게 됐다. 또한, 표준 및 루멘 라이팅 모드에서 직교 뷰의 리얼타임 렌더링이 크게 향상돼, 이제 그림자를 지원하고 오브젝트 주변의 검은색 윤곽선이 제거됐다. 이를 통해 패스 트레이서를 사용하지 않고도 고퀄리티 평면도와 입면도 뷰를 빠르게 생성할 수 있으며, 보다 정확하게 상호작용하는 오브젝트를 배치할 수 있다. 리얼타임 렌더링 퀄리티를 향상시키기 위해, ‘버추얼 섀도 맵(Virtual Shadow Map)’ 기술을 기반으로 리얼타임 렌더링 모드에서 섀도를 렌더링하는 새로운 추가적인 방법도 구현됐다. 이 방법은 표준 섀도보다 더 정확한 섀도를 생성하고, 패스 트레이스 섀도와 더 일치하는 섀도를 생성한다.   ▲ 프로젝터 라이트(이미지 출처 : Unreal Engine KR 유튜브 캡처)   카메라 애니메이션 카메라 애니메이션 향상 부분에는 카메라 애니메이션 제어와 관련된 여러 가지 기능이 추가 및 개선됐다. 새로운 ‘선회 카메라’ 릭은 씬 내에서 지정된 중앙 피벗을 중심으로 카메라를 회전시켜 오브젝트 또는 초점의 360도 뷰를 손쉽게 표시할 수 있으며, 시작점과 끝점, 높이 오프셋을 설정할 수 있다. 이외에도, 이제 카메라 경로에서 지점을 선택하고 탄젠트를 조정하여 부드럽고 제어된 카메라 모션을 설정할 수 있으며, 액션캠을 위한 룩앳 컨스트레인트를 사용할 수 있는 새로운 기능을 통해 움직이는 특정 대상의 샷을 정확하게 촬영할 수 있다.   자동차 및 운송 디자인 이번 버전에는 특히 자동차 및 운송 디자인을 위한 기능이 다양하게 제공된다. 업계에서 많이 사용되는 ‘Alias Wire 파일 형식’의 표면을 임포트하는 기능이 새롭게 지원돼, 임포트 대화창에서 추가적으로 정밀하게 테셀레이션 파라미터를 설정할 수 있다. 또한, 타이어처럼 평평한 원통형 오브젝트에 텍스처를 입히고 자동으로 UV를 생성하는 신규 타이어 베이스 머티리얼이 추가됐다. 자동차 페인트 재질에도 진줏빛 강도, 클리어 코트 거칠기, 오염(먼지, 지문, 스크래치)에 대한 새로운 제어 기능을 추가했으며, 메탈 카테고리에 새로운 코팅된 탄소 섬유 소재 등이 추가됐다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-03-06
에픽게임즈, 다양한 산업의 크리에이터를 위한 시각화 기능 제공하는 트윈모션 2025.1 출시
에픽게임즈는 모든 크리에이터를 위해 대규모 신규 기능 및 개선 사항이 추가된 '트윈모션 2025.1'을 출시했다고 발표했다. 트윈모션은 건축과 자동차, 소비자 제품, 영화 등 모든 산업 분야의 크리에이터가 고퀄리티 시각화를 쉽고 빠르게 제작할 수 있는 기능을 제공하며, 직관적인 아이콘 기반의 쉬운 UI로 초보자에서부터 전문가에 이르기까지 누구나 손쉽게 사용할 수 있는 리얼타임 3D 시각화 설루션이다. 최신 버전인 트윈모션 2025.1에서는 ▲쉽고 사실적인 실외 환경 ▲컨피규레이션 ▲라이팅 및 렌더링 향상 ▲카메라 애니메이션 향상 ▲자동차 및 운송 디자인을 위한 기능 등 모든 산업 분야의 크리에이터를 위한 대규모의 신규 기능을 추가하는 것은 물론 기존 기능들을 크게 개선했다.     새 버전에서는 환경 신(scene)에 사실적인 ‘볼류메트릭 클라우드’를 사용할 수 있는 옵션이 추가됐다. 이를 통해, 구름의 높이, 범위, 분포를 조정하고 밀도, 색상, 부피 및 기타 설정을 미세 조정하여 원하는 구름의 모양을 만들 수 있으며, 바람의 영향을 받거나 구름의 그림자를 만들 수도 있다. 혼탁도 및 애트머스피어 밀도와 같은 새로운 설정 기능을 통해 다이내믹 스카이의 선명도와 색상을 제어할 수 있고, 태양의 색상이나 온도, 익스포넨셜 하이트 포그의 색상과 높이, 밀도도 설정할 수 있다. 이러한 환경 설정을 프리셋으로 저장하고 재사용할 수 있는 기능도 추가돼 환경 패널의 모든 설정을 단 한 번의 클릭으로 적용할 수 있으며, 환경 패널의 재설계를 통해 논리적으로 그룹화된 설정을 제공한다. 컨피규레이션은 고객이나 관계자에게 프로젝트의 다양한 베리에이션을 선보일 수 있는 인터랙티브 3D 프레젠테이션 제작 기능으로, 신축 부동산 영업팀, 제품 디자이너, 자동차 제조사 등 다양한 분야에서 활용할 수 있다. 프레젠테이션 환경에 따라 트윈모션을 전체화면 모드로 사용하거나 이미지, 파노라마, 비디오 또는 시퀀스를 보다가 트리거 아이콘 클릭만으로 간단히 베리에이션을 즉시 전환할 수 있다. 라이팅 및 렌더링 향상 부분에서는 라이브 이벤트나 설치물의 시각화, 배 선체의 반사와 같은 이펙트 시뮬레이션에 도움을 줄 수 있는 새로운 ‘프로젝터 라이트’가 추가돼 이제 모든 이미지나 영상 텍스처를 표면에 투사할 수 있게 됐다. 또한, 표준 및 루멘 라이팅 모드에서 직교 뷰의 리얼타임 렌더링이 향상돼, 이제 그림자를 지원하고 오브젝트 주변의 검은색 윤곽선이 제거됐다. 이를 통해 패스 트레이서를 사용하지 않고도 고퀄리티 평면도와 입면도 뷰를 빠르게 생성할 수 있으며, 보다 정확하게 상호작용하는 오브젝트를 배치할 수 있다. 리얼타임 렌더링 퀄리티를 향상시키기 위해, '버추얼 섀도 맵(Virtual Shadow Map)' 기술을 기반으로 리얼타임 렌더링 모드에서 섀도를 렌더링하는 새로운 추가적인 방법도 구현됐다. 이 방법은 표준 섀도보다 더 정확한 섀도를 생성하고, 패스 트레이스 섀도와 더 일치하는 섀도를 생성한다. 카메라 애니메이션 향상 부분에는 카메라 애니메이션 제어와 관련된 여러 가지 기능이 추가 및 개선됐다. 새로운 ‘선회 카메라’ 릭은 신 내에서 지정된 중앙 피벗을 중심으로 카메라를 회전시켜 오브젝트 또는 초점의 360도 뷰를 손쉽게 표시할 수 있으며, 시작점과 끝점, 높이 오프셋을 설정할 수 있다. 이외에도, 이제 카메라 경로에서 지점을 선택하고 탄젠트를 조정하여 부드럽고 제어된 카메라 모션을 설정할 수 있으며, 액션캠을 위한 룩앳 컨스트레인트를 사용할 수 있는 새로운 기능을 통해 움직이는 특정 대상의 샷을 정확하게 촬영할 수 있다. 이번 버전에는 특히 자동차 및 운송 디자인을 위한 기능이 다양하게 제공된다. 업계에서 많이 사용되는 ‘Alias Wire 파일 형식’의 표면을 임포트하는 기능이 새롭게 지원돼, 임포트 대화창에서 추가적으로 정밀하게 테셀레이션 파라미터를 설정할 수 있다. 또한, 타이어처럼 평평한 원통형 오브젝트에 텍스처를 입히고 자동으로 UV를 생성하는 신규 타이어 베이스 머티리얼이 추가됐다. 자동차 페인트 재질에도 진줏빛 강도, 클리어 코트 거칠기, 오염(먼지, 지문, 스크래치)에 대한 새로운 제어 기능을 추가했으며, 메탈 카테고리에 새로운 코팅된 탄소 섬유 소재 등이 추가됐다. 주요 기능의 신규 추가 및 개선 외에도 임의의 두 지점 간의 거리를 정확하게 측정할 수 있는 새로운 측정 툴이 추가됐으며, 평면 전체에서 오브젝트 미러링, 면의 노멀 반전, 면을 선택 및 삭제하는 툴과 임포트한 복잡한 메시로 작업할 때 리얼타임 퍼포먼스를 유지할 수 있도록 자동 레벨 오브 디테일(LOD) 생성 기능 등이 제공된다.
작성일 : 2025-02-19
영상 제작자를 위한 혁신 및 AI 툴, 어도비 프리미어 프로 발표
어도비가 학생부터 인디 영화 및 다큐멘터리 제작자, 영상 전문가까지 모든 수준의 영화 제작자를 지원하는 새로운 혁신을 발표했다. 이제부터 영상 편집자는 어도비 프리미어 프로(Adobe Premiere Pro)에서 베타로 이용 가능한 새로운 미디어 인텔리전스(media intelligence) 및 검색 패널(search panel)을 통해 특정 클립을 찾기 위해 수 기가바이트의 파일을 검색하지 않고도 파일 라이브러리에서 필요한 클립을 빠르게 찾을 수 있다. 또한 비효율적이고 많은 비용 투입이 필요한 다국어 캡션 생성을 자동화하는 새로운 AI 구동 캡션 번역(caption translation, 베타)으로 전 세계 시청자와 손쉽게 소통할 수 있다. 애슐리 스틸(Ashley Still) 어도비 크리에이티브 클라우드(Adobe Creative Cloud) 수석 부사장 겸 총괄은 “어도비는 영화 제작자가 스토리를 전달하고 크리에이티브 비전을 실현하도록 지원하는 데 힘을 쏟고 있다”며 “이번 프리미어 프로의 혁신은 크리에이티브 전문가가 작업 시간을 단축하고 커리어를 쌓아 전 세계 관객을 사로잡고 이들에게 영감을 주는 데 집중할 수 있도록 돕는다”고 말했다. 커뮤니티의 주요 요구 사항을 해결한 새로운 혁신 어도비는 프리미어 프로 업데이트를 통해 영화 제작자가 장면에서 콘텐츠를 쉽게 식별하고 푸티지를 빠르게 검색하며 몇 초안에 전 세계에 배포할 수 있는 기능을 제공해 영상 후반 작업의 워크플로우를 가속화한다. 이를 포함한 프리미어 프로의 신규 기능은 다음과 같다. •  많은 푸티지를 다루는 대규모 프로젝트에서 필요한 클립을 찾는 것은 쉽지 않은 작업이다.  이제 프리미어 프로의 새로운 AI 구동 미디어 인텔리전스 및 검색 패널(베타)을 사용하면 편집자는 원하는 시점에 필요한 장면을 정확하게 찾을 수 있다. 미디어 인텔리전스는 개체, 위치, 카메라 각도, 촬영 날짜, 카메라 유형 등 메타데이터를 포함한 클립 콘텐츠를 자동 인식해 직접 장면을 찾는 수고를 덜어준다. 편집자가 새로운 검색 패널에 필요한 클립 유형을 입력하면 미디어 인텔리전스는 알아서 필요한 작업을 진행하고 원하는 장면을 검색한다. •  영화 제작자가 전 세계에 콘텐츠를 배포하고 참여도와 접근성을 높이면서 캡션의 역할이 그 어느 때보다도 중요하지만 수동 번역으로 인해 속도가 느리고 워크플로우가 중단되거나 추가 비용이 투입되는 경우가 많았다. 이제 프리미어 프로에서 17개 언어로 네이티브로 제공되는 캡션 번역(베타)을 통해 빠르고 정확하게 새로운 시청자 층을 확대할 수 있다. 애프터 이펙트에는 모션 전문가의 요구사항을 반영한 기능이 개선됐다. •  컴포지션 전체를 그 어느 때보다 빠르게 재생할 수 있는 캐싱 개선(Improved Caching)으로 최소 사양을 충족하는 모든 컴퓨터에서 캐싱하는 순간 컴포지션 전체를 재생할 수 있다. •  향상된 HDR 지원(Improved HDR Support)으로 HDR(High Dynamic Range) 콘텐츠를 정확하게 가져오고 모니터링하며 내보낼 수 있어 더욱 밝고 생생한 모션 디자인 작업이 가능하다. 이 밖에도 어도비는 프레임닷아이오(Frame.io)에서 캐논(Canon) 제품 대상의 카메라 투 클라우드(Camera to Cloud, C2C) 지원을 확대했다. 사용자는 프레임닷아이오를 통해 캐논 EOS C80 및 EOS C400 카메라에서 직접 고품질 영상을 자동 업로드 및 액세스할 수 있어, 실시간 협업은 물론 영상 워크플로우를 가속화하고 보다 원활한 영상 제작 및 후반 작업을 할 수 있다. C2C는 촬영과 동시에 자동으로 미디어를 업로드하기 때문에 수동으로 파일을 전송할 필요가 없어 워크플로우를 혁신적으로 개선한다. 이 기능을 통해 미디어를 즉시 사용하고 프레임닷아이오의 강력한 크리에이티브 관리 툴을 이용한 실시간 협업이 가능해져, 콘텐츠 제작을 가속화하고 팀이 분산된 상황에서의 어려움을 해소하며 프로젝트 지연을 최소화할 수 있다.        
작성일 : 2025-02-09
어도비, 영상 전문가를 위한 신 기능 및 AI 툴 발표
어도비가 학생부터 인디 영화 및 다큐멘터리 제작자, 영상 전문가까지 모든 수준의 영화 제작자를 지원하는 새로운 혁신을 발표했다. 영상 편집자는 어도비 프리미어 프로(Adobe Premiere Pro)에서 베타로 이용 가능한 새로운 미디어 인텔리전스(media intelligence) 및 검색 패널(search panel)을 통해 특정 클립을 찾기 위해 수 기가바이트의 파일을 검색하지 않고도 파일 라이브러리에서 필요한 클립을 빠르게 찾을 수 있다. 또한 비효율적이고 많은 비용 투입이 필요한 다국어 캡션 생성을 자동화하는 새로운 AI 구동 캡션 번역(caption translation, 베타)으로 전 세계 시청자와 손쉽게 소통할 수 있다. 애슐리 스틸(Ashley Still) 어도비 크리에이티브 클라우드(Adobe Creative Cloud) 수석 부사장 겸 총괄은 “어도비는 영화 제작자가 스토리를 전달하고 크리에이티브 비전을 실현하도록 지원하는 데 힘을 쏟고 있다”면서, “이번 프리미어 프로의 혁신은 크리에이티브 전문가가 작업 시간을 단축하고 커리어를 쌓아 전 세계 관객을 사로잡고 이들에게 영감을 주는 데 집중할 수 있도록 돕는다”고 말했다.     어도비는 프리미어 프로 업데이트를 통해 영화 제작자가 장면에서 콘텐츠를 쉽게 식별하고 푸티지를 빠르게 검색하며 몇 초안에 전 세계에 배포할 수 있는 기능을 제공해 영상 후반 작업의 워크플로를 가속화한다.  프리미어 프로의 새로운 AI 구동 미디어 인텔리전스 및 검색 패널(베타)을 사용하면 편집자는 원하는 시점에 필요한 장면을 정확하게 찾을 수 있다. 미디어 인텔리전스는 개체, 위치, 카메라 각도, 촬영 날짜, 카메라 유형 등 메타데이터를 포함한 클립 콘텐츠를 자동 인식해 직접 장면을 찾는 수고를 덜어준다. 편집자가 새로운 검색 패널에 필요한 클립 유형을 입력하면 미디어 인텔리전스는 알아서 필요한 작업을 진행하고 원하는 장면을 검색한다. 영화 제작자가 전 세계에 콘텐츠를 배포하고 참여도와 접근성을 높이면서 캡션의 역할이 그 어느 때보다도 중요하지만 수동 번역으로 인해 속도가 느리고 워크플로가 중단되거나 추가 비용이 투입되는 경우가 많았다. 프리미어 프로에서는 17개 언어로 네이티브로 제공되는 캡션 번역(베타)을 통해 빠르고 정확하게 새로운 시청자 층을 확대할 수 있다.     한편, 애프터 이펙트에는 모션 전문가의 요구사항을 반영한 기능이 개선됐다. 컴포지션 전체를 더욱 빠르게 재생할 수 있는 캐싱 개선(Improved Caching)으로 최소 사양을 충족하는 모든 컴퓨터에서 캐싱하는 순간 컴포지션 전체를 재생할 수 있다. 그리고, 향상된 HDR 지원(Improved HDR Support)으로 HDR(High Dynamic Range) 콘텐츠를 정확하게 가져오고 모니터링하며 내보낼 수 있어 더욱 밝고 생생한 모션 디자인 작업이 가능하다. 이 밖에도 어도비는 프레임닷아이오(Frame.io)에서 캐논(Canon) 제품 대상의 카메라 투 클라우드(Camera to Cloud, C2C) 지원을 확대했다고 전했다. 사용자는 프레임닷아이오를 통해 캐논 EOS C80 및 EOS C400 카메라에서 직접 고품질 영상을 자동 업로드 및 액세스할 수 있어, 실시간 협업은 물론 영상 워크플로를 가속화하고 보다 원활한 영상 제작 및 후반 작업을 할 수 있다. C2C는 촬영과 동시에 자동으로 미디어를 업로드하기 때문에 수동으로 파일을 전송할 필요가 없어 워크플로를 개선할 수 있다. 이 기능을 통해 미디어를 즉시 사용하고 프레임닷아이오의 크리에이티브 관리 툴을 이용한 실시간 협업이 가능해져, 콘텐츠 제작을 가속화하고 팀이 분산된 상황에서의 어려움을 해소하며 프로젝트 지연을 줄일 수 있다.
작성일 : 2025-02-05
[케이스 스터디] 언리얼 엔진으로 만든 버추얼 아이돌 플레이브
통합 시각화 파이프라인으로 새로운 경험 제공   리얼타임 3D 콘텐츠 제작 기술이 날로 진화함에 따라 버추얼 아티스트, 유튜버 등 디지털 휴먼 시장도 함께 성장하고 있는 가운데, 대한민국에는 데뷔 1년여 만에 실제 아이돌 못지 않은 인기를 누리고 있는 버추얼 아이돌이 있다. 바로 플레이브(PLAVE)다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 출처 : ‘언리얼 엔진으로 전례 없는 경험을 제공하는 PLAVE’ 영상 캡처   플레이브는 예준, 노아, 밤비, 은호, 하민 등 다섯 명의 멤버가 작사, 작곡 그리고 안무까지 직접 제작하는 버추얼 보이 그룹이다. 2023년 3월 12일 데뷔 이후 버추얼 아이돌 최초로 지상파 음악방송에서 1위를 차지한 것은 물론, 최근에는 잠실 실내체육관에서 양일간 오프라인 단독 라이브 콘서트를 개최해 전석이 매진되는 등 인기를 누리고 있다. 플레이브의 인기 비결에는 여러 요소가 있겠지만 언리얼 엔진의 리얼타임 기술로 자연스러운 비주얼 퀄리티뿐만 아니라, 매주 라이브 방송을 통해 팬들과 소통하며 아티스트의 진면목을 전할 수 있던 점을 꼽을 수 있다. 시네마틱 영상, 라이브 방송 그리고 오프라인 라이브 콘서트까지 어떻게 언리얼 엔진으로 통합 제작 파이프라인을 구축해 아티스트의 본질을 전달할 수 있었는지 살펴보기로 하자.    시네마틱 콘텐츠를 위한 리얼타임 통합 파이프라인   ▲ DCC 툴을 병합한 기존의 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)    ▲ 언리얼 엔진과 통합한 시네마틱 콘텐츠 제작 파이프라인(이미지 제공 : 블래스트)   플레이브의 소속사인 블래스트는 설립 초창기부터 여러 작품을 통해서 언리얼 엔진의 가능성을 확인했기 때문에, 버추얼 IP 파이프라인이라는 회사의 비전을 바탕으로 시네마틱과 라이브 콘텐츠를 모두 제작할 수 있는 언리얼 엔진 통합 파이프라인을 구축하고자 했다. 플레이브의 첫 뮤직비디오인 ‘기다릴게’를 제작하던 때만 해도 언리얼 엔진 제작 경험이 제한적이었기 때문에 레벨 디자인, 라이팅, 렌더링은 언리얼 엔진으로, 이펙트 및 의상 시뮬레이션, 합성 등은 기존의 DCC 툴을 사용하는 방식을 채택했다. 그렇지만 이러한 제작 방식은 언리얼 엔진의 리얼타임 렌더링의 장점을 극대화하지 못하고 전체적인 콘텐츠 제작 속도를 저하시켰다. 또한, 본래 언리얼 엔진 중심의 통합 파이프라인을 구축하려고 했던 블래스트의 비전과 맞지 않는다는 판단 하에, 파이프라인을 언리얼 엔진으로 완전히 대체하기로 결정했다.     ▲ 플레이브 ‘WAY 4 LUV’ 뮤직비디오 영상   의상 및 헤어 시뮬레이션을 언리얼 엔진의 실시간 시뮬레이션으로 완전히 전환하면서, 이제는 애니메이션이 수정될 때마다 라이브 방송처럼 실시간으로 시뮬레이션되어 임포트 과정이 간소화되었다. 렌더링을 위해 라이브 시뮬레이션을 베이크해야 하는 경우 역시 언리얼 엔진의 테이크 레코더를 사용하면 바로 결과를 확인할 수 있어, 전체적인 작업 과정이 효율적으로 향상되었다. 또한, 이펙트 제작에는 언리얼 엔진의 나이아가라 시스템을 전면 도입하여 룩뎁 아티스트들은 모든 최종 연출 요소를 실시간으로 확인하며 함께 작업할 수 있게 되었다. 애니메이션, 시뮬레이션, 이펙트 등의 모든 최종 연출 요소가 엔진으로 통합되면서, 언리얼 엔진을 컴포지터로까지 활용할 수 있었다. 그 결과 ‘WAY 4 LUV’의 시네마틱 영상부터는 모델링, 애니메이션, 룩뎁 등 각 제작 요소가 통합된 최종 결과물을 언리얼 엔진에서 실시간으로 렌더링할 수 있게 되어, 작업의 효율과 퀄리티를 향상시킬 수 있었다.   고도화된 리얼타임 모션 캡처로 아티스트의 진심을 전한 라이브 방송   ▲ 플레이브의 첫 라이브 방송(이미지 제공 : 블래스트)   ▲ 플레이브의 최근 라이브 방송(이미지 제공 : 블래스트)   라이브 방송은 플레이브의 강력한 팬덤을 구축하는 데 있어 매우 중요한 역할을 하고 있는 만큼, 블래스트는 아티스트의 매력과 진심을 잘 전할 수 있도록 많은 노력을 기울여 왔다. 특히 아티스트의 모든 모션이 자연스럽게 보이도록 하기 위해 언리얼 엔진의 라이브 링크로 스트리밍한 모션 캡처 원시 데이터를 실시간으로 가공할 수 있는 다양한 설루션을 개발하는데 많은 정성을 들였다.   ▲ 실시간 간섭 회피 설루션 전후 비교(이미지 제공 : 블래스트)   개발된 설루션은 다양한 체형 사이에 애니메이션을 이질감 없이 자연스럽게 전환할 수 있는 리타기팅 설루션, 매 촬영 때마다 발생하는 마커의 위치 오차를 모션으로 측정하여 보정하는 캘리브레이션 설루션, 신체 비율 또는 외형 차이에 따른 메시 간섭 문제를 실시간으로 해결하는 간섭 회피 설루션, 정확한 포즈와 자연스러운 주변 환경과의 인터랙션 사이를 상황에 따라 적절하게 전환할 수 있는 Dynamic FK/ IK 설루션, 골반 너비와 신발 밑창 및 볼 너비까지 보정해 지면과 발의 접지를 정교하게 표현하는 Foot IK 설루션 등이다. 이를 통해 기존에는 실시간으로 처리하기 어려워서 라이브 콘텐츠에서 적용할 수 없었던 모션 캡처 데이터의 실시간 가공 기술을 자체적으로 개발하여 언리얼 엔진에 통합했다. 이러한 기술 투자 덕분에 버추얼 아이돌임에도 아티스트의 진심을 잘 전할 수 있는 기술적 기반을 갖추게 되었다.   리얼타임 통합 파이프라인의 화룡점정, 오프라인 라이브 콘서트 플레이브는 시네마틱 영상을 매 앨범 발매 시 제작하고 라이브 방송을 지난 1년 반 동안 매주 4시간씩 진행하면서, 언리얼 엔진 중심의 리얼타임 파이프라인을 고도화할 수 있었다. 그리고 그 과정에서 블래스트가 깨달은 점은 두 파이프라인을 서로 구분할 필요가 없다는 점이었다. 아티스트의 퍼포먼스를 실시간으로 보여 줄 지, 녹화해 두고 퀄리티를 올린 후에 보여 줄 지의 차이만 있을 뿐, 두 파이프라인은 모두 라이브 모션 캡처에서 시작한다는 점에서 근본적으로 동일했기 때문이다. 이러한 깨달음을 바탕으로 블래스트는 모든 콘텐츠가 라이브 모션 캡처로부터 시작되는 통합 파이프라인을 개발하였고, 이를 통해 제작 흐름이 간소화되고 직관적으로 개선되어 작업의 효율을 높일 수 있었다. 무엇보다도 큰 이점은 통합된 파이프라인을 통해 콘서트 제작 및 연출에 필요한 역량을 미리 내재화할 수 있었다는 점이다.   ▲ 시네마틱과 라이브 콘텐츠 제작 파이프라인이 통합된 전체 파이프라인(이미지 제공 : 블래스트)   콘서트는 연출뿐만 아니라 제작 파이프라인에서도 시네마틱과 라이브 콘텐츠의 특성을 모두 가지고 있는 특별한 무대다. 수많은 무대의 동선을 사전에 미리 짜맞추며 연출을 확정해 놓으면서도 리허설 때마다 라이브로 전환해야 하므로, 콘서트 작업에는 녹화와 라이브를 수시로 전환할 수 있는 파이프라인이 필수적이다. 이를 위해서 메타휴먼의 캐릭터 설계에 힌트를 얻어 시네마틱 퀄리티와 라이브 퍼포먼스를 모두 만족하는 유연하고 모듈화된 통합 캐릭터 시스템을 개발했다. 이 시스템은 콘서트에 필요한 모든 상황을 지원하기 위해 스켈레탈 메시를 분리해서 적절한 계층구조로 설계하고, 각각의 스켈레탈 메시 컴포넌트는 시퀀서의 애니메이션 트랙을 재생하는 모드와 라이브 링크 모션 캡처 및 실시간 시뮬레이션을 적용하는 모드 사이를 자유롭게 전환할 수 있도록 구현했다. 또한, 라이브 캐릭터 전용 기능은 모두 별도의 컴포넌트로 모듈화시켜 필요한 기능만 라이브 방송 시나리오에 맞춰 적용할 수 있도록 설계했으며, 추가로 룩뎁 아티스트가 일관적인 퀄리티로 작업할 수 있도록 캐릭터 클래스의 모든 기능이 프리뷰 모드와 플레이 모드에서 동일하게 동작하도록 개발했다. 이런 통합 캐릭터 클래스 설계 덕분에 언제든지 시네마틱과 라이브를 간단하게 전환하면서 작업 효율도 높일 수 있게 되었다.   ▲ 스켈레탈 메시의 계층 구조 및 모듈화된 컴포넌트(왼쪽), 컴포넌트 단위로 두 가지 모드를 자유롭게 전환 가능(오른쪽)(이미지 제공 : 블래스트)   통합 캐릭터 클래스와 더불어 좀 더 파이프라인을 단순화하기 위해 언리얼 엔진의 테이크 레코더 기능을 활용한 새로운 모션 캡처 녹화 파이프라인을 구축했으며, 그 덕분에 이제는 모션 캡처부터 시네마틱까지 모든 과정을 언리얼 엔진 내에서 진행할 수 있게 되었다. 이로써 시네마틱용 애니메이션을 제작하기 위해 여러 소프트웨어를 오갈 필요 없이 언리얼 엔진 하나로 모든 작업이 가능해졌다. 또한, 이 새로운 파이프라인을 사용해 자체적으로 개발한 신체 간섭 회피, 캘리브레이션, 리타기팅 기능을 언리얼 엔진 안에서 바로 녹화할 수 있어, 평소 라이브 방송과 동일한 수준의 모션 캡처 퀄리티를 얻을 수 있게 되었다. 이렇게 테이크 레코더의 기능을 통해 녹화 직후 바로 결과를 확인할 수 있어 작업의 효율이 크게 향상되었고, 특히 현장에서 실시간으로 피드백을 주고받을 수 있게 되면서 기획과 디렉팅 측면에서도 큰 발전을 이룰 수 있었다.   ▲ 기존의 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   ▲ 언리얼 엔진으로 통합 후 테이크 레코더를 활용한 모션 캡처 녹화 파이프라인(이미지 제공 : 블래스트)   시네마틱과 라이브 파이프라인의 통합이 더욱 높은 효과를 내기 위해서는 앞서 언급된 기능의 개발과 함께 현장 오퍼레이팅에 대한 지원도 필요했다. 버추얼 파이프라인에서는 여러 소프트웨어를 함께 사용해야 했기 때문에 언리얼 엔진 설정, 녹화 설정, 심지어 단순한 녹음 작업까지 모두 오퍼레이터와 소통해야 했다. 그래서 작업 과정을 단순화하고 자동화하기 위해 언리얼 엔진 기반의 ‘버추얼 슬레이트’라는 태블릿 애플리케이션을 개발했다. 이 애플리케이션은 스튜디오 내 여러 장치와 소프트웨어를 연결하여 원격으로 동시 제어할 수 있고, 녹화 버튼 하나로 언리얼 엔진의 녹화 기능, 모션 캡처 소프트웨어, 여러 채널의 비디오 및 오디오를 동시에 녹화할 수 있다. 그리고 녹화가 끝나면 자동으로 모든 파일의 이름과 저장 위치를 정리하고, 미리보기 장면을 만들어 준다. 이제는 오퍼레이터가 초기 설정만 도와주면, 콘텐츠 제작자들이 직접 모션 캡처 녹화를 할 수 있어 제작자와 아티스트는 서로 의견을 주고받으며 촬영을 진행할 수 있게 되었다.   ▲ 기존의 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   ▲ 향상된 오퍼레이팅 소통 방식(이미지 제공 : 블래스트)   한편, 시네마틱과 라이브를 결합한 오프라인 라이브 콘서트는 관객에게 높은 몰입감을 전달하는 것이 매우 중요하다. 그렇기 때문에 현실의 무대에 실존하는 아티스트를 보는 것과 같은 스케일과 원근감을 현실감 있게 잘 반영하는 것도 중요한 과제였다. 이 과제를 풀기 위해서는 LED 스크린에 투사된 결과를 미리 예측할 수 있어야 했는데, 이를 위해 언리얼 엔진 내에 실제 공연장과 동일한 크기의 디지털 트윈 레벨을 제작하고 가상 공연장의 LED 스크린에 최종 이미지를 투사했다. 그런 뒤에 관객의 시점에서 VR로 이를 감상하는 방식으로 관객의 시점을 미리 시뮬레이션하며 스케일과 원근감을 조정해 나갔다. 이러한 방법으로 플레이브의 콘서트는 대형 콘서트장의 어떤 좌석에서도 눈앞의 무대에 멤버들이 실존한다는 현실감을 관객에게 전달할 수 있었다.   ▲ 가상에서의 VR 시뮬레이션(이미지 제공 : 블래스트)   ▲ 실제 무대 연출 장면(이미지 제공 : 블래스트)   LED 그 이상의 무한한 상상력을 담게 해 준 언리얼 엔진 블래스트는 2차원의 LED 스크린 평면을 넘어 공연장 전체라는 3차원의 경험으로 관객의 경험을 확장시켜, 플레이브 콘서트에서만 느낄 수 있는 새로운 경험을 만들어나가기 위해 고민했다. 이러한 고민의 결과로 실존하는 아티스트의 콘서트에서는 불가능한 아이디어와 연출, 예를 들면 탑의 꼭대기처럼 다양한 공간을 이동하며 노래 부르기, 바이크를 탄 채로 무대로 등장하고 연출의 단절 없이 공연 시작하기, 등장이나 퇴장 시에 꽃잎을 흩뿌리면서 나타나고 사라지기 등 그야말로 버추얼 아이돌이기에 가능한 연출을 실현할 수 있었다. 이러한 시각적 효과에서 더 나아가 연기와 같은 실제 무대 장치를 결합하여 일반적인 콘서트에서는 불가능한 특별한 연출을 시도할 수 있었다. 그 중에서도 플레이브의 세계관에 등장하는 큐브로 가득찬 ‘아스테룸’이라는 공간에서 세계관 속 빌런과 벌인 박진감 넘치는 격투 액션 신은 버추얼이 아니었다면 불가능한 무대였을 것이다. 또한, 언리얼 엔진은 LED 스크린 너머의 공간에 원하는 환경을 효율적으로 제작하고 다양한 연출들을 자유롭게 시도할 수 있게 해 주었다. 물리적인 시공간의 제약 속에서 짧은 기간 내에 다수의 조직이 동시 협업해야 하기 때문에 작업 충돌을 피하면서도 변경 사항들을 실시간으로 동기화할 수 있는 파이프라인이 매우 중요한데, 여기에 언리얼 엔진의 레벨 스트리밍과 서브 시퀀스 기능이 큰 도움이 되었다. 레벨 스트리밍 덕분에 레벨 디자인, 애니메이션, 룩뎁 작업을 분리하여 하나의 퍼시스턴트 레벨에 스트리밍하는 방식으로 각 팀의 작업 공간을 분리하면서도 동시에 협업이 가능했다. 또한, 룩뎁 레벨 시퀀스 안에 애니메이션 서브 시퀀스를 적용하여 애니메이터와 룩뎁 아티스트의 작업 시퀀스를 분리하면서도 서로의 변경 사항을 함께 업데이트할 수 있었다.   ▲ 레벨과 시퀀스 구조(이미지 제공 : 블래스트)   콘서트 현장의 분위기를 고조시키는 현란한 DMX 조명 연출 역시 언리얼 엔진의 뛰어난 DMX 연동 지원 덕분에 가능했다. 언리얼 엔진 공연 조명을 전문으로 다루는 메타로켓과 협업하여 언리얼 엔진 내에서 실제 콘서트 현장 조명을 시뮬레이션하면서 현실과 가상의 무대 조명을 완성했다.   ▲ 메타로켓과의 협업으로 완성된 공연장 무대 조명(이미지 제공 : 블래스트)   무엇보다 비주얼 퀄리티까지 보장된 리얼타임 렌더링이라는 언리얼 엔진의 강점이 가장 큰 도움이 되었다. 덕분에 콘서트 2~3일 전까지도 끊임없이 수정하며 퀄리티를 끌어올릴 수 있었고, 콘서트 직전의 리허설까지도 이슈를 확인하고 해결할 수 있었기 때문에 촉박한 시간임에도 완성도 높은 콘서트를 제작할 수 있었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-01-06