• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 프리미어 프로. 애프터 이펙트"에 대한 통합 검색 내용이 542개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
어도비, 파이어플라이 및 익스프레스에 구글 제미나이 2.5 플래시 이미지 모델 탑재 
어도비가 파이어플라이(Adobe Firefly) 및 어도비 익스프레스(Adobe Express)에서 구글 제미나이 2.5 플래시 이미지(Gemini 2.5 Flash Image) 모델을 지원한다고 발표했다. 어도비 파이어플라이와 익스프레스 통해 제공되는 제미나이 2.5 플래시 이미지 모델을 통해 사용자는 더 쉽게 뛰어난 콘텐츠를 제작하고 아이디어를 빠르게 실현할 수 있다.  앞으로 소셜 크리에이터는 파이어플라이에서 제미나이 2.5 플래시 이미지 모델을 활용해 일관된 스타일의 그래픽 시리즈를 제작하고, 이를 어도비 익스프레스로 가져와 애니메이션, 사이즈 조정, 프롬프트 기반 캡션 생성 및 소셜 채널 게시까지 한 번에 작업할 수 있다. 마케터와 기업 사용자는 어도비 익스프레스에서 제미나이 2.5 플래시 이미지 모델을 통해 기존 캠페인 애셋을 소셜 콘텐츠, 전단지, 프레젠테이션, 이메일 그래픽 등 다양한 포맷으로 손쉽게 제작하는 것은 물론, 배경 교체, 개체 삽입, 이미지 변형 등을 몇 분 만에 실행해 브랜드 가이드에 맞는 사실적인 결과물을 빠르게 얻는 것이 가능하다. 디자이너의 경우 파이어플라이에서 제품 콘셉트나 캐릭터 디자인 시안을 빠르게 만들고, 다양한 방향성을 탐색하며, 포토샵이나 일러스트레이터에서 정교한 편집을 이어갈 수도 있다.     어도비는 크리에이터들에게 폭 넓고 다양한 생성형 AI 모델을 제공하기 위해 어도비 파이어플라이와 어도비 익스프레스를 통해 이미지, 영상, 벡터, 오디오 전반에 걸쳐 상업적으로 안전한 파이어플라이 생성형 모델군을 제공함은 물론 구글, 오픈AI, 블랙 포레스트 랩스(Black Forest Labs), 런웨이(Runway), 피카(Pika), 이디오그램(Ideogram), 루마 AI(Luma AI), 문밸리(Moonvalley) 등 파트너사의 생성형 AI 모델까지 선택할 수 있도록 한다고 소개했다. 생성형 AI 모델은 각기 고유한 심미적인 스타일을 지니고 있다. 어도비는 워크플로나 플랫폼을 전환하지 않고도 작업 목적에 맞는 모델을 선택해 활용할 수 있는 유연성을 제공한다. 보다 정밀한 제어를 원하는 크리에이티브 전문가는 어도비 포토샵(Adobe Photoshop), 어도비 일러스트레이터(Adobe Illustrator), 어도비 프리미어(Adobe Premiere) 등 크리에이티브 클라우드(Creative Cloud) 앱을 통해 세밀하게 조정하거나 편집할 수 있다. 어도비는 자사의 제품 내에서 어떤 생성형 AI 모델을 선택하더라도, 어도비 앱에서 생성하거나 업로드한 콘텐츠는 생성형 AI 모델의 훈련에 사용되지 않는다고 전했다. 어도비 파이어플라이 생성형 AI 모델은 이를 항상 준수하며, 파트너십 계약 시에도 필수 조건으로 명시하고 있다. 또한 투명성을 강화하기 위해, 어도비 파이어플라이와 어도비 익스프레스에서 전적으로 AI로 생성된 모든 콘텐츠에는 콘텐츠 자격증명(Content Credentials)이 첨부된다. 한편, 제미나이 2.5 플래시 이미지 모델은 파이어플라이의 텍스트를 이미지로(Text to Image) 모듈, 파이어플라이 보드(Firefly Board, 베타) 및 어도비 익스프레스에서 바로 사용할 수 있다.
작성일 : 2025-08-27
DJI, 8K 360° 동영상 촬영 지원하는 ‘오즈모 360’ 출시
DJI가 자사의 첫 번째 360도 카메라 ‘오즈모 360(Osmo 360)’을 공식 출시한다고 밝혔다. 오즈모 360은 16mm(1인치) 360° 이미징으로 선명한 이미지를 구현하며, 8K/50fps 360° 동영상 촬영을 지원하는 360 카메라다. 또한 8K/30fps로 최장 100분 연속 촬영이 가능하다. 360° 촬영을 위해 특별히 설계된 오즈모 360은 정사각형 HDR 이미지 센서를 탑재했다. 기존 16mm 직사각형 센서와 동일한 360° 이미지 필드를 유지하면서, 비효율적으로 남는 기존 직사각형 센서의 미사용 영역을 제거한 것이다. DJI는 이 설계 덕분에 센서 활용률이 25% 향상되었고, 더 뛰어난 화질과 전력 효율, 더 작은 크기와 적은 무게를 갖출 수 있었다”고 설명했다.     오즈모 360은 2.4μm 픽셀을 기반으로 한 네이티브 8K/30fps 360° 파노라마 영상 촬영이 가능하다. 8K/30fps 기준으로 최장 100분 연속 촬영이 가능하며, 더 큰 픽셀을 통해 더 많은 디테일, 노이즈 감소, 저조도 성능 강화 및 향상된 다이내믹 레인지를 실현한다. 또한 8K/50fps 초고화질 영상도 지원한다. 여기에 13.5스톱의 다이내믹 레인지와 대형 픽셀, 그리고 f/1.9 조리개가 결합돼 일출이나 일몰처럼 명암 대비가 큰 환경이나 저조도 상황에서도 선명하고 생동감 있는 영상을 안정적으로 촬영할 수 있다는 것이 DJI의 설명이다. 별도의 편집 없이 자연스럽게 사라지는 오즈모 인비저블 셀피 스틱은 마치 제3자가 촬영한 듯한 3인칭 시점의 다이내믹한 화면 구성을 연출할 수 있게 해준다. 4K 해상도에서100fps의 고속 프레임 레이트로 360° 동영상 촬영이 가능하고, 최대 4배속 느린 속도의 슬로 모션 모드로 동영상을 촬영할 수도 있다. 사진 촬영에서는 최대 120MP 해상도의 360° 스틸 이미지 촬영이 가능하다. 또한 손바닥 제스처 한 번이나 간단한 음성 명령으로 녹화 시작/정지 등의 조작을 핸즈프리로 실행할 수 있다. 오즈모 360에 탑재된 호라이즌스테디(HorizonSteady) 기능은 카메라가 어떤 방향으로 회전하더라도 영상을 수평으로 유지하고, 록스테디 3.0(RockSteady 3.0)은 단일 렌즈 모드에서 흔들림을 최소화하면서도 1인칭 시점의 몰입감을 제공한다. 오즈모 360과 연동할 수 있는 DJI 미모(DJI Mimo) 앱의 자이로프레임(GyroFrame) 기능을 사용하면 모션 컨트롤을 통해 360° 영상의 구도를 자유롭게 조정할 수 있다. 또한, 인텔리전트 트래킹 기능을 통해 사람, 차량, 반려동물 등 다양한 피사체를 자동으로 인식하고 추적할 수 있다. DJI 미모 또는 DJI 스튜디오(DJI Studio) 앱을 활용해 모바일과 데스크톱 환경 모두에서 손쉽게 영상 편집이 가능하며, 어도비 프리미어 전용 플러그인을 통해 360° 영상 제작 워크플로도 간소화된다.   오즈모 360은 녹화를 중단하지 않고 전면 및 후면 렌즈를 전환할 수 있어, 여행 브이로그를 하나의 끊김 없는 클립으로 매끄럽게 담을 수 있다. 또 단일 렌즈 모드에서는 1인칭 액션 카메라로 활용할 수 있는데, 이 경우 5K/60fps 평면 영상과 155°의 시야각을 제공한다. 이외에도 부스트 비디오 모드를 활성화하면 시야각이 170°까지 확장되며, 4K/120fps의 고속 영상 촬영도 지원한다. 오즈모 360은 105GB의 내장 스토리지를 탑재해 편의성을 높였다. 무게는 183g이며 스택형 디자인을 통해 두 개의 16mm 360 이미징 렌즈 모듈을 본체에 담았다. 또한 -20℃ 환경에서 1.5시간 이상 연속 촬영이 가능하다. 기본 배터리 기준 8K/30fps 해상도로 최대 100분간 연속 촬영이 가능하며, 오즈모 360 배터리 연장 로드를 사용하면 180분을 추가로 촬영할 수 있다. 충전은 12분 만에 50%까지 가능하다. 오즈모 360은 기존 DJI 생태계를 활용한다. 오즈모 액션 시리즈와 동일한 디자인의 마그네틱 퀵 릴리즈를 채택해 오즈모 액션 액세서리와 호환되며, 1/4인치 나사 홀을 갖춰 기존 장비와도 쉽게 호환된다. 수신기 없이 두 개의 DJI 마이크 송신기에 직접 연결해서 스튜디오 수준의 음질로 녹음할 수도 있다. DJI 오즈모 360는 DJI 스토어 및 공인 판매처에서 주문할 수 있다. 가격은 기본 구성인 스탠더드 콤보가 61만 6000원이며, 다기능 배터리 케이스와 조절식 퀵 릴리즈 어댑터 마운트, 1.2m 인비저블 셀피 스틱이 포함된 어드벤처 콤보가 77만 원이다. 이외에 다양한 액세서리를 별도로 구매할 수 있다. DJI의 크리스티나 장(Christina Zhang) 기업 전략 부문 수석 이사는 “DJI는 오즈모 360을 통해 360 카메라 시장의 기존 틀을 깨고 새로운 기준을 제시하고자 한다”면서, “DJI가 창의적인 카메라 기술 분야에서 쌓아온 깊은 혁신 역량을 바탕으로 파노라마 이미지 촬영의 새로운 장을 열고자 한다. 업계 최초의 사각형 HDR 센서를 적용한 16mm 360° 이미지 구현부터 저조도 환경에서의 탁월한 성능에 이르기까지, DJI는 360 카메라의 한계를 끊임없이 확장해 나가는 것을 목표로 한다”고 말했다.
작성일 : 2025-08-01
AI 특수효과와 후반작업 마스터하기
AI 크리에이터 시대 : 영상 제작의 새로운 패러다임 (4)   이번 호에서는 AI를 활용한 영상 제작 과정 중 특수효과 부분을 대신할 수 있는가에 대해서 자세히 살펴보도록 한다.   ■ 연재순서 제1회 AI 영상 제작 생태계의 현재와 미래 제2회 AI 기반 크리에이티브 워크플로 혁신 제3회 소셜 미디어 최적화 AI 영상 제작 전략 제4회 AI 특수효과 및 후반작업 마스터하기 제5회 AI 기반 몰입형 사운드 디자인   ■ 최석영 AI프로덕션 감성놀이터의 대표이며, 국제고양이AI필름페스티벌 총감독이다. AI 칼럼니스트로도 활동하고 있다.   그림 1. 다빈치 리졸브의 후반 제작 과정 이미지(www.blackmagicdesign.com/kr/products/ davinciresolve)    “AI를 활용하면 프롬프트가 특수효과이다.” 전통적인 영상 제작에서는 특수효과 하나를 만들기 위해 3D 모델링부터 애니메이션, 렌더링까지 수개월의 작업 시간이 필요했다. 하지만 AI 기반 프롬프트 시스템의 도입으로 복잡한 비주얼 이펙트를 텍스트 명령어만으로 실시간 생성할 수 있게 되었다. 이제 감독은 “중세시대 용이 하늘을 나는 장면을 만들어 주세요”라고 입력하면 몇 분 내에 완성된 시퀀스를 확인할 수 있어, 창작 과정에서 즉각적인 피드백과 수정이 가능해졌다. 기존에 대규모 VFX 팀이 담당했던 모션 그래픽 작업도 개인 크리에이터가 직관적인 언어로 구현할 수 있어, 제작 비용과 기간이 획기적으로 단축되었다. 결국 기술적 전문성보다는 창의적 아이디어와 스토리텔링 능력이 영상 제작의 핵심 경쟁력으로 자리잡는 패러다임 전환이 일어나고 있다.   이제 AI 크리에이터, 슈퍼워크 시대이다.   그림 2. 5초만에 만들어지는 이미지와 비디오 결과물   그림 3. 5초만에 만들어지는 이미지와 비디오 결과물   과거 영화 한 편을 완성하려면 촬영, 편집, 음향, VFX 등 각 분야별 전문 팀이 수개월간 협업해야 했지만, 이제 AI를 전문적으로 활용할 수 있는 소수의 인원으로 모든 제작 과정을 통합 관리할 수 있게 되었다. AI 영상 생성 도구로 원하는 장면을 즉석에서 만들고, 자동 편집 시스템으로 컷 편집과 색 보정을 처리하며, AI 음성 합성과 배경음악 생성까지 원스톱으로 해결하는 것이 현실이 되었다. 기존에는 불가능했던 개인의 창작 범위가 할리우드급 제작 수준까지 확장되면서, 소규모 팀이나 1인 크리에이터도 대작 수준의 콘텐츠를 독립적으로 완성할 수 있는 환경이 조성되었다. 이러한 변화는 콘텐츠 제작의 진입장벽을 대폭 낮춰, 누구나 자신만의 독창적인 영상 작품을 세상에 선보일 수 있는 민주화된 창작 생태계를 만들어 가고 있다.  결국 기술적 제약이 사라진 ‘슈퍼워크’ 시대에서는 순수한 상상력과 스토리텔링 역량이 크리에이터를 차별화하는 유일한 요소가 될 것이다. 필자가 영상 제작에서 특수효과 팀에 있을 때 활용되는 3D 프로그램들인 후디니, 애프터이펙트, 누크, 언리얼 엔진 등으로 제작된 이펙트 영상은 고가의 시스템과 전문성이 있어야 제작이 가능하며, 그 분야에 숙련도를 갖추기 위해서는 많은 시간이 필요했다. 생성형 AI 콘텐츠 제작의 전문성과 프롬프트만으로도 기존의 특수효과 표현 및 불가능한 장면도 가능하게 되었다.      ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-07-01
어도비, 파이어플라이 모바일 앱 출시 및 파이어플라이 보드 공개
어도비는 AI가 지원하는 콘텐츠 아이디어 구상, 생성, 제작을 위한 플랫폼인 ‘어도비 파이어플라이’의 확장을 발표했다. 먼저, iOS 및 안드로이드용 파이어플라이 앱 출시로 파이어플라이의 이미지 및 영상 생성 기능이 모바일로 확대된다. 크리에이터는 모바일 앱을 통해 어디서나 AI를 활용해 아이디어를 탐색하고, 이미지와 영상을 생성하거나 편집할 수 있다. 파이어플라이의 웹 앱과 모바일 앱은 독립적 또는 어도비 크리에이티브 클라우드(Creative Cloud) 앱과 함께 사용할 수 있다. 어도비 크리에이티브 클라우드와 동기화되어 아이디어 단계부터 최종 제작까지 창작 워크플로의 연속성과 효율성을 지원한다.     크리에이터는 파이어플라이 모바일을 통해 텍스트 프롬프트를 사용하여 어디서나 쉽게 이미지 및 영상을 생성하는 텍스트를 이미지로(Text to Image), 텍스트를 비디오로(Text to Video), 이미지를 비디오로(Image to Video) 기능을 사용할 수 있다. 또한 작업에 요소를 추가하거나 사람 혹은 불필요한 도로 표지판 같은 개체를 제거하는 생성형 채우기(Generative Fill) 기능, 그리고 이미지 크기를 확장하는 동시에 AI가 생성한 콘텐츠로 새로운 영역을 채우는 생성형 확장(Generative Expand) 기능도 이용할 수 있다. 크리에이터는 어도비의 파이어플라이 생성형 AI 모델군을 비롯해 오픈AI의 이미지 생성, 구글의 이마젠 3(Imagen 3) 및 이마젠 4(Imagen 4)와 비오 2(Veo 2) 및 비오 3(Veo 3) 등을 통해 다양한 콘셉트를 시도해볼 수 있다. 파이어플라이에서 생성된 콘텐츠는 자동으로 크리에이티브 클라우드 계정과 동기화되므로, 모바일 앱에서 시작한 프로젝트를 웹은 물론 포토샵, 프리미어 프로 등 데스크톱 앱에서도 이어서 작업할 수 있다. 그리고 파이어플라이 웹 앱을 통해 제공되는 파이어플라이 보드(Firefly Boards)가 공개 베타로 제공된다. 파이어플라이 보드는 AI 퍼스트 무드보드에 영상 기능을 추가해, 크리에이티브 팀의 아이디어 기획과 협업 방식을 혁신한다. 이를 통해 크리에이티브 전문가는 다양한 미디어를 넘나들며 AI 구동 영상 및 이미지 편집 기능을 활용해 함께 탐색하고 반복하며 아이디어를 발전시킬 수 있다. 파이어플라이 보드는 크리에이티브 전문가들이 다양한 미디어 유형의 수백 가지 아이디어를 동시에 구상하고 협업할 수 있는 새로운 방식을 선보인다. 파이어플라이 보드의 AI 구동 무드보드 환경에 영상이 추가되면서, 크리에이티브 전문가는 업로드한 영상 클립을 리믹스하거나 어도비의 상업적으로 안전한 파이어플라이 비디오 모델(Firefly Video Model), 구글의 비오 3, 루마 AI의 레이2(Ray 2), 피카의 텍스트-투-비디오 모델 2.2를 활용해 영상 푸티지를 생성할 수 있다. 크리에이티브 팀은 파이어플라이 모델과 파트너사의 모델을 활용해 이미지를 생성하는 것뿐만 아니라, 파이어플라이 보드의 AI 역량을 활용해 대화형 텍스트 프롬프트 기반으로 이미지를 반복적으로 수정할 수 있다. 이는 블랙 포레스트 랩스의 플럭스.1 콘텍스트(Flux.1 Kontext)와 오픈AI의 이미지 생성 역량을 통해 구현된다.     한편, 어도비는 생성형 AI 모델 생태계를 더욱 넓힌다고 밝혔다. 오픈AI, 구글, 블랙 포레스트 랩스 등 기존 모델에 더해 이디오그램, 루마 AI, 피카, 런웨이 등 신규 파트너 모델도 통합해 파이어플라이 생성형 AI 생태계가 확장됐다. 신규 파트너 모델은 파이어플라이 보드에서 먼저 출시되며, 곧 파이어플라이 앱 전반에서도 이용할 수 있다. 어도비는 지난 4월 오픈AI의 이미지 생성 기능, 구글의 이마젠 3 및 비오 2, 블랙 포레스트 랩스의 플럭스 1.1 프로(Flux 1.1 Pro)를 시작으로 생태계를 확장했다. 이제 크리에이터들은 이디오그램의 이디오그램 3.0(Ideogram 3.0), 루마AI의 레이2, 피카의 텍스트-투-비디오 모델 2.2, 런웨이의 젠-4 이미지(Gen-4 Image), 구글의 최신 모델인 이마젠 4 및 비오 3까지 선택할 수 있는 유연성을 갖게 됐다. 이 모델들은 이미지, 영상, 오디오, 벡터 등 어도비의 포괄적인 파이어플라이 모델군과 함께 사용할 수 있다.  어도비의 일라이 그린필드(Ely Greenfield) 수석 부사장 겸 최고기술책임자는 “크리에이터들이 파이어플라이 앱에서 어도비와 파트너 모델을 활용해 구현하는 이미지, 영상, 그래픽, 디자인의 폭과 예술성에 대해 깊은 인상을 받고 있다”면서, “파이어플라이의 목표는 웹과 모바일에서 업계 최고의 생성형 모델들을 사용해 아이디어 구상부터 생성, 편집에 이르기까지 모두 작업할 수 있는 가장 포괄적인 크리에이티브 플랫폼을 제공하는 것”이라고 말했다. iOS 및 안드로이드용 파이어 플라이 모바일 앱은 애플 앱스토어와 구글 플레이스토어에서 현재 영어 버전으로 제공되며, 파이어플라이 보드는 파이어플라이 웹 앱에서 베타 버전으로 이용할 수 있다. 또한 파이어플라이 웹 앱, 모바일 앱, 그 밖에 모든 최신 기능은 크리에이티브 클라우드 프로 플랜을 통해서도 이용 가능하다.
작성일 : 2025-06-18
에픽게임즈, 언리얼 엔진 5.6 출시
에픽게임즈는 다양한 툴세트와 기능을 새롭게 추가한 언리얼 엔진의 신규 업데이트 ‘언리얼 엔진 5.6’을 정식 출시했다고 발표했다. 이번 언리얼 엔진 5.6 업데이트는 ▲고퀄리티의 60FPS 오픈 월드 ▲더 빠른 애니메이션 제작 ▲언리얼 엔진에 통합된 메타휴먼 크리에이터 ▲간소화된 UX/UI 경험 ▲개발자 반복 작업 향상 ▲더 빠른 월드 제작을 위한 프로시저럴 툴 ▲향상된 시네마틱 및 퍼포먼스 캡처 워크플로 등에서 새로운 기능을 추가하고, 기존 기능을 향상시켰다. 언리얼 엔진 5.6은 고퀄리티의 60FPS 오픈 월드 구현을 위해 고사양 PC, 최신 콘솔, 모바일 디바이스에서 60FPS의 일관된 렌더링이 구현되는 게임을 개발하고 출시하는 데 필요한 최적화된 툴세트를 제공한다. 특히 ‘하드웨어 레이 트레이싱(HWRT)’ 시스템 개선으로 글로벌 일루미네이션 및 리플렉션 기술인 ‘루멘’의 성능이 향상되었으며, CPU 병목 현상을 제거해 더욱 복잡한 신(scene)도 60FPS의 프레임 속도를 유지할 수 있다. 또한, 새롭게 선보이는 기능인 ‘패스트 지오메트리 스트리밍 플러그인’을 통해 대량의 스태틱 지오메트리를 포함한 월드도 일정한 프레임 속도로 빠르게 로드할 수 있다. 비동기 피직스 스테이트 생성 및 제거 등 콘텐츠 스트리밍 기능 또한 향상되었다.     더 빠른 애니메이션 제작 부분에서는 보다 직관적이고 정확하게 제어 가능한 에디터 내 툴세트를 지원하기 위해 대대적인 업데이트가 이루어졌다. 완전히 재설계된 ‘모션 트레일’을 통해 액터와 캐릭터 제어 기능이 새롭게 통합되면서 뷰포트에서 애니메이션의 궤적과 간격을 직접 조정할 수 있다. 또한 ‘점선’, ‘시간 기반’, ‘속도/분포’ 모드 등 다양한 스타일과 ‘핀 고정’, ‘오프셋’, ‘스페이스’ 등의 기능을 통해 보다 정밀하게 애니메이션을 제어할 수 있다. ‘트윈 툴’도 새롭게 개편되어 컨트롤하거나 선택한 키에 대한 애니메이션을 더 빠르고 세밀하게 조정할 수 있게 되었으며, 새로운 단축키와 ‘오버슈트’, ‘타임 오프셋 슬라이더’ 등이 추가되어 사용자 편의성과 사용성 또한 향상되었다. 시퀀서 또한 업데이트되어 새로운 시퀀서 내비게이션 툴을 사용하면 복잡한 계층구조를 쉽게 탐색할 수 있으며, 실시간 오디오 스크러빙 기능으로 애니메이션, 대화, 이펙트 등을 정확하게 동기화하고 현지화된 오디오를 기반해 다양한 언어의 타이밍에 맞춰 시퀀스를 조정할 수 있다. 마지막으로, 실험 단계 기능으로 ‘스켈레탈 메시 에디터’ 내에서 모프 타깃을 만들고 스컬프팅할 수 있으며, ‘컨트롤 릭 피직스’를 통해 캐릭터 릭에 프로시저럴 피직스 모션을 손쉽게 추가하거나 ‘래그돌 피직스’ 기능으로 보다 사실감 있는 캐릭터 애니메이션을 구현할 수 있다. 메타휴먼 부분에서는 ‘메타휴먼 크리에이터’가 언리얼 엔진에 통합되며, ‘메타휴먼 애니메이터’도 더욱 향상된 기능을 제공한다. 특히 이번 업데이트를 통해 얼굴뿐만 아니라 체형도 거의 무한대로 생성 가능하며, 새로운 의상 애셋을 통해 메타휴먼에 자동으로 맞춰지는 완벽한 의상을 손쉽게 제작할 수 있다. 또한, 페이스와 보디에 대한 실제 스캔 데이터도 대폭 추가되어 더욱 다양한 고퀄리티의 캐릭터 제작이 가능해졌다. ‘메타휴먼 애니메이터’의 경우 이제 대부분의 웹캠, 스마트폰, 오디오에서 배우의 연기를 실시간으로 캡처할 수 있으며, DCC용 신규 플러그인과 ‘팹 마켓플레이스’와의 통합 등 에코시스템도 더욱 확장된다. 간소화된 UX/UI 경험 부분에서는 에디터 전반의 UX/UI가 새롭게 개편되어 더욱 직관적이고 빠른 워크플로를 지원한다. 새롭게 디자인된 콘텐츠 브라우저로 애셋 정리와 탐색이 훨씬 쉬워졌으며, 썸네일 크기의 조절과 가로 및 세로 방향 전환도 더욱 매끄럽게 조정할 수 있다. 또한, ‘뷰포트 툴바’의 섹션 메뉴와 ‘퀵 액세스 컨트롤’ 기능 개편으로 주요 툴에 더 빠르게 접근 가능하며, 상황에 맞춰 자동 조절되는 툴바, 선택 및 모델링 모드를 위한 전용 제어 기능 등 사용성 또한 향상되었다. 언리얼 엔진 5.6은 개발자의 효율적인 반복작업을 위해서 워크플로를 가속화하고, 타깃 플랫폼 및 디바이스에 더 빠르게 콘텐츠를 제공할 수 있는 다양한 툴을 추가했다. 새롭게 재설계된 ‘프로젝트 런처’ UI로 디바이스 실행 프로파일을 보다 빠르게 생성 및 관리할 수 있으며 빌드, 쿠킹, 디바이스 배포 구성 또한 빠르게 설정할 수 있다. ‘젠 스트리밍’을 베타로 전환해 전체 패키지 빌드 없이도 콘텐츠 테스트와 반복작업을 간소화해 생산성을 향상시켰다. 또한, 실험 단계의 ‘점진적 쿠킹’ 기능은 변경된 애셋만 분석 및 처리 가능해 반복 작업을 효율적으로 할 수 있다. 프로시저럴 툴 부분에서는 강력해진 PCG 프레임워크를 통해 복잡한 월드를 더욱 빠르고 효율적으로 제작할 수 있다. 인라인 상수를 지원하는 노드 그래프 UX와 새로운 3D 뷰포트를 통해 요소 생성 및 조작, 그리고 미리보기할 수 있으며, 노드 필터링 기능이 있는 맞춤형 그래프 템플릿으로 더 빠르게 반복작업을 할 수 있다. 특히 GPU 성능이 개선되어 복잡한 신에서도 인스턴스 처리가 안정적으로 이루어지고, CPU 오버헤드를 줄여 인스턴스 작업 시 강화된 유연성과 정밀성을 제공한다. PCG도 멀티스레딩 지원으로 전반적인 성능이 향상되며, 복잡한 대규모 환경에서도 더 빠른 처리와 반응 속도를 제공한다. 또한, ‘PCG 바이옴 코어 v2(Biome Core v2)’ 플러그인을 통해 바이옴을 더 빠르고 직관적으로 생성하고 업데이트할 수 있으며, 바이옴 별 ‘블렌딩’과 ‘바이옴 레이어링’ 기능으로 자연스러운 생물 환경을 보다 효율적으로 구축할 수 있다. 시네마틱 및 퍼포먼스 캡처 워크플로 부분에서는 새롭게 통합된 다양한 툴세트를 통해 제작 파이프라인 전반에 효율성을 더했다. 새로운 통합 설루션인 ‘모캡 매니저’로 언리얼 에디터 내에서 퍼포먼스 캡처 데이터를 시각화, 녹화 및 관리하고, 애셋 관리부터 모캡 스테이지 및 연기자/캐릭터 구성, 라이브 링크 데이터 미리보기 등 다양한 기능으로 제작의 효율을 높일 수 있다. ‘캡처 매니저’는 라이브 링크 허브와 통합되어 모바일 디바이스, 비디오 파일, 스테레오 헤드 마운트 카메라(HMC)에서 메타휴먼 테이크를 정밀하게 가져와 처리할 수 있어 서드파티 페이셜 캡처 시스템과의 호환성과 유연성이 강화되었다. 또한 새로운 파이프라인 친화적인 ‘시네마틱 어셈블리 툴세트(CAT)’가 추가되어 프로젝트 구성 전환, 시네마틱 템플릿 재사용 등 다양한 기능을 통해 샷 관리 파이프라인을 효율적으로 관리할 수 있다.
작성일 : 2025-06-04
[케이스 스터디] 실시간 3D 엔진 기반의 전기자동차 HMI 개발
별에서 영감을 받은 지리 갤럭시 E8의 스마트 콕핏   갈릴레오 갈릴레이부터 에드윈 허블과 미국 항공우주국의(NASA)에 이르기까지 수많은 천문학의 선구자들을 매료시킨 밤하늘의 상상력을 담은 자동차가 있다. 갤럭시 E8(Galaxy E8)은 지리(Geely)의 플래그십 모델이자 브랜드 최초의 순수 전기차로, 인류의 우주에 대한 열정과 문명, 기술 혁신을 하나의 차체 안에 담아내고 있다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 제공 : Geely Auto   갤럭시 E8은 차량의 내/외부를 통해 유저 중심의 프리미엄 경험을 제공하도록 설계되었다. 공기역학적인 실루엣은 별빛을 연상시키는 반짝임으로 표현되며, 실내에는 경계 없는 8K 해상도를 지원하는 45인치 대형 스마트 스크린이 탑재된 디지털 콕핏 시스템을 갖추고 있다. 또한 퀄컴 스냅드래곤(Qualcomm Snapdragon) 8295 플래그십 콕핏 칩과 언리얼 엔진(Unreal Engine)을 기반으로 2D 및 3D 그래픽이 구현된다.   언리얼 엔진 기반 경험 언리얼 엔진은 이 차량의 인터페이스와 시각적 몰입감을 극대화하는 데 핵심 역할을 수행했다. 예를 들어, 시간의 흐름에 따라 앰비언트 조명이 자연스럽게 변화하도록 설계되었으며, 비가 오거나 눈이 내리는 날 사용자가 문을 열면 시뮬레이션된 별빛이 한쪽에서 다른 쪽으로 흐르며 몰입감 있고 분위기 있는 효과를 연출한다. 디지털 트윈 경험에서는 데스크톱을 통해 갤럭시 E8의 인터랙티브 3D 모델을 확인할 수 있으며, 이를 통해 헤드라이트, 도어, 창문, 트렁크 등의 기능을 직접 제어할 수 있다. 에어컨의 공기 흐름과 같은 세부적인 제어 기능 역시 언리얼 엔진 기반으로 설계되어 실시간 상호작용이 가능하다. 미니멀한 UI 디자인은 사용 편의성과 연속적이고 부드러운 인터랙티브 경험을 완성하며, 몰입감 있는 시청각 경험까지 제공한다.  지리 자동차 연구소(Geely Automobile Research Institute, 이하 GARI)의 스마트 콕핏 팀은 언리얼 엔진을 사용하여 몰입감 있고 지능적이며 안전한 콕핏 경험을 개발할 수 있었다.   ▲ 이미지 제공 : Geely Auto   지리 HMI의 도전 과제와 설루션 갤럭시 E8의 8K 디스플레이를 개발하는 과정에서 GARI 팀이 직면한 주요 도전 과제는 시스템 리소스를 최소화하면서도 실시간 성능과 뛰어난 비주얼 퀄리티를 동시에 구현하는 휴먼-머신 인터페이스(HMI)를 설계하는 것이었다. 이를 해결하기 위해 GARI 팀은 복합적인 전략을 마련하고 단계적으로 적용했다. 먼저, 다이내믹 프레임 전략을 도입하여 시각적 요소와 인터랙션 유형에 따라 프레임 레이트를 유동적으로 적용했다. 원활한 인터랙션을 위해 전경 요소는 25fps(초당 프레임)로 고정해 부드러운 반응성을 확보했으며, 상대적으로 우선순위가 낮은 시나리오에는 15fps, 5fps, 동결 모드로 구성된 3단계 프레임 전략을 적용함으로써 시스템 리소스를 효율적으로 분배했다. 다음으로 계층적 리소스 관리를 통해 8K 화면의 리소스에 2D 및 3D 애셋을 1:9 비율로 포함했다. 부드럽게 전환되고 지연 없는 경험을 만들기 위해 3D 자동차 모델만 메모리에 저장하고, 다른 모든 애셋은 백그라운드에서 조용히 로드되도록 했다. 마지막으로 인터랙티브 전략을 통해 시스템 반응성과 데이터 흐름의 안정성을 강화했다. HMI 시스템에서 발생하는 신호 소스는 HMI 내부 신호와 터치 입력으로 제한하고, 실시간으로 처리해야 할 신호와 사전에 저장된 데이터 링크를 명확히 구분했다. 또한 신호가 순서대로 도착하지 않거나 반복적으로 입력되는 경우에는 L2 캐싱 및 분류 시스템을 활용해 이를 체계적으로 관리함으로써, 인터페이스의 안정성과 효율을 높였다.   지리가 HMI 제작에 언리얼 엔진을 선택한 이유 지리의 HMI 프로젝트에서는 코드 수준에서의 광범위한 통합이 가능한 커스텀 운영 체제(Galaxy N-OS)의 개발이 필요했다. 이에 따라 GARI 팀은 기존 개발 툴보다 더 향상된 기능과 확장성을 제공할 수 있는 게임 엔진의 가능성에 주목하고, 다양한 상용 엔진을 면밀히 평가했다. 최종적으로 GARI 팀은 언리얼 엔진을 선택했다. 그 결정의 핵심에는 언리얼 엔진의 리얼타임 렌더링 성능과 커스터마이징 가능성이 있었다. 특히 언리얼 엔진이 오픈소스로 제공된다는 점은 팀원들이 다양한 기능을 직접 개발하고 효과적으로 커스터마이징할 수 있도록 해 주었으며, 성능 최적화 측면에서도 높은 유연성을 확보할 수 있게 했다. 여러 리얼타임 렌더링 엔진을 검토한 결과, GARI 팀은 언리얼 엔진이 통합된 개발 도구 생태계와 렌더링 품질, 그리고 기본 DCC 작업부터 레벨 임포트까지의 과정을 간소화해주는 레벨 디자인 툴 등 포괄적인 개발 환경을 갖추고 있다는 점에서 가장 적합하다고 판단했다. GARI 팀이 특히 주목한 언리얼 엔진의 기능 중 하나는 블루프린트 비주얼 스크립팅 시스템이다. 이를 활용한 비주얼 프로그래밍으로 복잡한 인터랙션 로직을 시각적으로 설계하고 구현할 수 있게 하여, HMI 시스템 개발을 보다 직관적으로 수행할 수 있도록 돕는다. 레벨, 노멀, 게임플레이, 머티리얼 블루프린트를 포함되어 있으며, 블루프린트 노드를 통해 로직, 머티리얼, 트랜지션 등을 빠르게 구현할 수 있어 POC(개념 검증) 단계는 물론 이후 프로젝트 엔지니어링의 효율성도 크게 향상된다. 또한 언리얼 엔진의 고급 렌더링 기능은 사실적인 사용자 인터페이스와 몰입감 있는 비주얼 효과 구현을 가능하게 하여 고퀄리티의 그래픽을 안정적으로 제공한다. 피직스 시뮬레이션 시스템은 현실의 물리 효과를 정밀하게 재현하여 차량 본체와의 인터랙션을 더욱 사실감 있게 구현하고, 몰입도를 높여준다. 여기에 더해, 언리얼 엔진은 PC, 게임 콘솔, 모바일 디바이스 등 다양한 플랫폼에 폭넓게 대응할 수 있어 개발된 HMI 시스템의 배포와 실행이 용이하다는 장점도 있다. 결론적으로 GARI 팀은 언리얼 엔진의 도입이 HMI 경험의 혁신을 이끌었다고 평가하고 있다.   ▲ 이미지 제공 : Geely Auto    HMI 개발을 위한 언리얼 엔진의 핵심 기능 HMI 개발을 위한 언리얼 엔진의 핵심 기능은 지리의 고유한 커스터마이징 프로세스 전반에 걸쳐 적용되었다. 이 프로세스는 콘셉트 제안, 요구사항 분석, 인터페이스 콘셉트 디자인, 3D 엔진 아트 복원, 엔진 소프트웨어 개발, 차량 기능 통합, 엔진 및 시스템 통합, 온보드 테스트 및 납품 등 여러 단계로 구성되어 있다. 지리는 전체 개발 과정에서 언리얼 엔진의 다양한 기능과 툴을 적극적으로 활용했다. 레벨(Level) 은 신(scene) 간의 매끄러운 전환과 원 테이크 기반의 연속적인 사용자 경험을 지원하며, 베리언트(Variant)는 런타임 중 애셋 관리를 간소화하고 처리 속도를 높이는 데 기여했다. 시퀀서(Sequencer)는 레벨 시퀀스와 함께 활용되어 트랜지션을 효율적으로 제어하고 애니메이션 제작을 보다 간편하게 수행할 수 있도록 도왔다. 또한 애니메이션과 머티리얼 개발에는 블루프린트를 폭넓게 사용했으며, 라이트맵과 포스트 프로세스 이펙트 등 다양한 기능을 통해 완성도 높은 HMI를 구현했다. 특히 8K 디스플레이 환경에서 고해상도 인터페이스를 안정적으로 구현하기 위해 최적화 작업이 중요했다. 초기 구동 시점과 실시간 사용자 인터랙션 중에도 시스템이 원활하게 작동하도록 하기 위해 지리는 언리얼 엔진의 여러 최적화 툴을 함께 사용했다. 언리얼 인사이트(Unreal Insights)를 통해 시작 시간을 단축하고, 언리얼 프론트엔드(Unreal Frontend)를 통해 전반적인 성능을 최적화했으며, 명령줄 기반의 디버깅 툴인 통계 시스템과 Memreport를 활용하여 세부적인 성능 데이터를 분석했다. 또한, 언리얼 엔진의 기본 툴 외에도 스냅드래곤 프로파일러(Snapdragon Profiler)를 병행해 사용함으로써 개발 효율성과 분석 정확도를 높였다. 이와 함께 안드로이드 스튜디오 프로파일러(Android Studio Profiler), 안드로이드 디버그 브리지(Android Debug Bridge, ADB), 렌더독(RenderDoc), 부트차트(Bootchart), 비지박스(BusyBox) 등 Android 및 Linux 기반의 전문 툴도 적재적소에 활용했다.   ▲ 이미지 제공 : Geely Auto   앞으로의 계획 지리는 이번 프로젝트를 성공적으로 완료한 이후, 새로운 기술을 수용하고 HMI 혁신을 지속적으로 발전시키는 데 더욱 집중하고 있다. 앞으로 지리의 차세대 스마트 드라이빙 시스템에는 갤럭시 어시스트 드라이빙(Galaxy Assisted Driving), 자동 주차, 홈존 주차 지원 등 새로운 기능이 추가될 예정인데, 지리는 이를 통해 사용자 편의성과 주행 안전성을 한층 더 끌어올릴 수 있을 것으로 기대하고 있다. 장기적으로는 대형 AI 모델과 3D 엔진이 통합된 HMI 시스템이 운전 경험을 근본적으로 변화시킬 것으로 전망된다. 이러한 기술 혁신을 실현하기 위해서는 3D 엔진 개발자와 자동차 제조업체 간의 더욱 긴밀한 협업이 필수이다. 언리얼 엔진은 첨단 주행 기능을 시각적으로 구현하는 가상 뷰를 구축하는 데 핵심 역할을 수행하며, 커스텀 운영 체제 시스템의 거의 모든 요소에 긴밀하게 통합되어 HMI의 기능성과 사용자 경험을 동시에 향상시키고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-06-04
어도비, 에이전트 AI 통합 등 크리에이티브 클라우드 업데이트 공개
  어도비가 크리에이티브 전문가의 빠르고 정밀하며 제어 가능한 작업을 지원하기 위해 크리에이티브 클라우드(Creative Cloud)의 AI 에이전트 등 애플리케이션 전반에 걸친 100개 이상의 새로운 혁신을 공개했다. 어도비는 “크리에이티브 클라우드의 이번 업데이트를 통해 크리에이터의 업무 효율을 높이고 창작물의 수준을 높이는 데 도움을 줄 수 있는 AI 에이전트를 선보이는 한편, 최대 5배 빠른 성능 향상과 창작 과정 전반을 아우르는 다양한 혁신 기능을 추가했다”고 설명했다. 어도비는 오늘날 생성형 AI가 크리에이티브 전문가들을 지원하듯, AI 에이전트 역시 더욱 강력하고 생산적인 툴이 될 것이라고 믿는다. 최근 어도비는 에이전틱 AI에 대한 비전을 공개하며, 크리에이티브 전문가들이 자연어를 통해 포토샵에서 1000개 이상의 원클릭 액션에 접근하고, 새로운 기능을 배우면서 반복 작업을 손쉽게 처리하도록 지원하는 크리에이터 중심의 툴을 개발하고 있다고 밝혔다. 예를 들어, 포토샵(Photoshop)의 새로워진 액션 패널(Actions Panel, 베타)은 크리에이터에게 다양한 크리에이티브를 시도하도록 영감을 주는 스마트 추천을 제공하며, 여러 단계를 거치는 편집 과정을 선택할 수 있도록 돕는다. 단 한 번의 클릭으로 이러한 편집 과정을 실행할 수 있는 액션 패널은 향후 포토샵에 최초로 도입될 크리에이티브 AI 에이전트의 기반이 될 예정이다.     프리미어 프로(Primiere Pro)에 적용된 미디어 인텔리전스(Media Intelligence)는 에이전트 기반의 전문 영상 워크플로를 구축하는 토대를 마련한다. 미디어 인텔리전스는 콘텐츠 클립을 이해하고 각 프레임마다 사물과 장면 구성을 자동으로 인식하여, 편집 과정 중 시간 소모적인 작업을 해결하며 콘텐츠와 맥락을 파악해 몇 초 만에 필요한 정보를 찾을 수 있도록 지원한다. 또한, 어도비는 크리에이터가 압도적인 속도, 제어력, 정밀도로 작업할 수 있도록 크리에이티브 클라우드 앱 전반에 걸쳐 강력한 AI 혁신을 공개했다. 포토샵은 업그레이드를 통해 더 빠른 속도, 한층 스마트한 제안, 정밀한 디테일 작업을 위한 툴을 제공한다. 이번 업데이트에는 파이어플라이 구동 AI 기능이 추가됐는데, 텍스트를 이미지로(Text to Image)의 구성 참조(Composition Reference)는 참조 이미지와 동일한 구조와 시각적 배열을 가진 애셋을 생성하여 아이디어 구상을 위한 크리에이티브 제어력을 제공한다. 세부 사항 선택(Select Details)은 머리카락, 얼굴 특징, 의상 등을 보다 빠르고 직관적으로 선택할 수 있도록 지원하고, 색상 조정(Adjust Colors)은 이미지의 색조, 채도, 명도를 간편하게 조정할 수 있어 매끄럽고 즉각적인 색상 조정을 가능케한다.   일러스트레이터는 한층 향상된 속도와 함께 새로운 AI 생성 툴을 선보인다. 파이어플라이 구동의 생성형 모양 채우기(Generative Shape Fill) 및 텍스트를 패턴으로 기능은 디자이너가 디자인 프로세스를 빠르게 시작하고 자신만의 스타일로 콘셉트를 맞춤화할 수 있도록 돕는다. 또한 디자이너의 빠른 작업 수행을 지원하기 위해 메뉴 접근성을 향상시켰으며, 일러스트레이터 내 가장 인기 있는 효과들을 적용하는 속도도 최대 5배까지 높였다.     인디자인은 파이어플라이 구동 이미지 생성 기능과 함께 PDF파일을 인디자인 문서로 쉽게 변환하는 것과 같은 생산성 향상 기능을 제공한다. 생성형 채우기(Generative Fill, 베타)는 간단한 텍스트 프롬프트에서 벡터 그래픽을 아트웍으로 변환하며, 수학 표현식(Math Expressions)은 복잡한 수학 표기법을 레이아웃에 직접 배치할 수 있도록 해 크리에이터의 역량을 강화한다.   라이트룸(Lightroom)은 데스크톱과 모바일 앱 모두에서 사진을 편집하고 공유할 수 있는 새로운 툴을 선보인다. 라이트룸과 라이트룸 클래식(Lightroom Classic)에 새롭게 추가된 풍경 선택(Select Landscape) 기능은 물, 식물, 하늘 등과 같은 일반적인 풍경 요소를 자동으로 감지해 포토그래퍼가 마스크를 생성할 수 있도록 돕는다. 또한 라이트룸 모바일 및 웹에 도입된 새로운 공유 역량, 단체 사진을 정밀하고 간편하게 보정할 수 있는 퀵 액션(Quick Actions) 등의 기능도 업그레이드됐다.   프리미어 프로는 영상을 빠르게 생성, 편집 및 검색할 수 있는 툴을 제공한다. 정식 출시된 파이어플라이 구동 생성형 확장(Generative Extend)은 4K 및 세로형 동영상을 지원하여 바로 제작에 사용할 수 있다. 또한 캡션을 27개 언어로 즉시 번역하는 캡션 번역(Caption Translation) 등의 기능도 새롭게 선보인다.   어도비 프레스코(Adobe Fresco)는 이미지 콘텐츠 자격증명 내 포함할 수 있는 새로운 ‘생성형 AI를 사용하지 않은 창작물 태그(created without generative AI tag)’를 제공함으로써 제작자의 권리를 보호하는 한편, 소셜 미디어 계정에 직접 연결해 내보내기 할 수 있는 기능을 제공한다. 이외에도 어도비는 어도비 폰트 라이브러리(Adobe Fonts library)를 통해 고담, 헬베티카, 애리얼(Arial), 타임스 뉴 로만(Times New Roman) 등 1500개 이상의 인기 폰트를 크리에이티브 클라우드 애플리케이션에 추가했다. 어도비의 디파 수브라마니암(Deepa Subramaniam) 크리에이티브 클라우드 제품 마케팅 부사장은 “어도비는 향상된 속도와 정밀도, 제어력, 유연성 및 놀라운 크리에이티브 역량을 제공하며, 크리에이티브 전문가들이 최고의 작업을 할 수 있도록 최상의 도구를 제공하는 데 주력하고 있다”면서, “앱 성능 향상, 고객 요청을 반영한 주요 생산성 기능, 파이어플라이 구동의 새로운 AI 기능을 통해 크리에이티브 전문가들이 창의성을 마음껏 발휘할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2025-05-13
어도비, AI 콘텐츠 생성을 위한 ‘파이어플라이’ 올인원 앱 공개
어도비가 AI 기반 콘텐츠 구상, 생성 및 제작을 위한 올인원 앱인 새로운 파이어플라이(Firefly)를 공개했다. 파이어플라이는 크리에이터가 한 곳에서 크리에이티브 제어 기능을 사용해 이미지, 영상, 오디오, 벡터를 생성하고, 어도비의 크리에이티브 앱 전반에서 창작물을 반복 수정하며, 이를 제작 단계로 원활하게 연결할 수 있도록 돕는다. 어도비는 “상업적으로 안전한 파이어플라이 모델군과 더불어 구글 클라우드, 오픈AI(OpenAI)를 비롯한 파트너 모델에 대한 선택, 그리고 크리에이티브 클라우드 앱에 긴밀히 통합된 AI 구동 툴을 통해 업계에서 가장 포괄적인 크리에이티브 AI 플랫폼을 제공한다”고 전했다. 파이어플라이는 또한 크리에이티브 전문가가 파트너 모델을 사용해 다양한 스타일을 탐색할 수 있는 선택권도 제공한다. 현재 구글 클라우드와 오픈AI 모델을 사용할 수 있으며, fal.ai, 이디오그램(Ideogram), 루마(Luma), 피카(Pika), 런웨이(Runway) 등의 파트너 모델은 향후 몇 달 내 제공될 예정이다. 이 밖에도 파이어플라이에서 새롭게 선보이는 파이어플라이 보드(Firefly Boards, 공개 베타)를 통해 무드 보드(moodboarding) 제작, 크리에이티브 콘셉트 탐색 뿐 아니라 한 번에 수백 가지의 변형 작업을 반복하며 아이디어 구상을 위해 협업할 수 있는 AI 퍼스트 공간을 제공한다. 파이어플라이는 이미지, 영상, 오디오 및 벡터 생성을 통합하고 크리에이티브 제어 기능을 제공함으로써, 크리에이티브 전문가들이 더욱 생산적이고 정밀하게 작업할 수 있도록 돕는다. 포토샵(Photoshop), 프리미어 프로(Premiere Pro), 익스프레스(Express) 등 어도비의 크리에이티브 애플리케이션과 통합되어, 아이디어 구상부터 실제 제작까지 콘텐츠 제작 프로세스의 모든 단계에 걸쳐 AI로 구동되는 지원을 제공한다. 파이어플라이의 상업적으로 안전한 모델은 참조 이미지를 기반으로 파이어플라이의 결과물에 대한 가이드를 제공하는 구조 및 스타일 참조(Structure and Style Reference) 외에도 생성된 이미지와 영상의 카메라 앵글을 정밀하게 제어하고, 생성된 영상의 시작 및 종료 프레임을 지정하며, 오디오 및 영상을 다양한 언어로 번역하는 등 여러 기능을 지원한다. 또한, 어도비는 생생한 이미지를 위한 새로운 파이어플라이 이미지 모델 4(Firefly Image Model 4), 디테일하고 복잡한 이미지를 위한 파이어 플라이 모델 4 울트라(Firefly Image Model 4 Ultra), 텍스트 프롬프트와 이미지로 푸티지를 생성하는 파이어플라이 비디오 모델(Firefly Video Model) 등 상업적으로 안전한 어도비 크리에이티브 AI 모델도 정식 출시했다. 파이어플라이 앱은 파이어플라이 이미지 모델 4 및 파이어플라이 이미지 모델 4 울트라를 비롯해 상업적으로 안전하며 바로 제작에 사용 가능한 어도비의 모든 파이어플라이 모델을 포함한다.     파이어플라이 앱은 크리에이티브 전문가가 자신에게 가장 적합한 방식으로 유연하게 AI를 사용할 수 있도록 지원하기 위해 오픈AI의 이미지 생성 역량, 구글의 이마젠3(Imagen 3), 비오2(Veo 2) 및 플럭스 1.1 프로(Flux 1.1 Pro) 등 다양한 미적 스타일을 지닌 파트너의 제작 모델로 실험할 수 있는 선택권을 제공한다. 어도비는  fal.ai, 이디오그램, 루마, 피카 및 런웨이 등의 파트너 모델도 향후 몇 달 내 추가 통합할 계획이다. 파이어플라이 앱에서 공개 베타 버전으로 제공되는 새로운 파이어플라이 보드는 크리에이터가 무드 보드 및 스토리 보드 제작, 브레인스토밍, 크리에이티브 콘셉트 탐색, 한 번에 수백 가지 변형 반복 작업, 아이디어 구상을 위한 협업을 수행하고, 바로 제작에 돌입할 수 있는 AI 퍼스트 작업 공간을 제공한다. 초기에 프로젝트 콘셉트(Project Concept)로서 선공개한 파이어플라이 보드는 본격적인 제작 단계에 들어가기 전 크리에이티브 팀이 아이디어를 빠르고 효율적으로 정리하고 공유할 수 있도록 지원한다. 또한 크리에이터가 한 곳에서 아이디어를 시각화하고, 정교하게 다듬어 다음 단계의 작업으로 원활히 넘어갈 수 있도록 해준다. 생성형 AI와 크리에이티브 API로 구성된 어도비 파이어플라이 서비스(Firefly Services)는 어도비 AI 기술을 콘텐츠 제작 워크플로에 직접 통합해, 기업이 다양한 마케팅 채널에 맞춰 애셋 크기를 조정하는 등 반복적이고 시간 소모적인 작업을 신속하게 처리할 수 있도록 돕는다. 어도비는 상업적으로 안전한 파이어플라이 모델을 기반으로 파이어플라이 서비스에 새로운 API를 도입하고 있다. 현재 베타 버전으로 제공되는 포토샵 API는 기업들이 이미지 편집 워크플로를 보다 빠르게 처리할 수 있도록 하며, 텍스트를 비디오로(Text-to-Video) API와 이미지를 비디오로(Image-to-Video) API는 텍스트와 스틸 샷을 실사 클립으로 변환한다. 파이어플라이 이미지 모델 4를 활용한 최신 텍스트를 이미지로(Text-to-Image) API와 제품 설명 영상 등 몰입도 높은 비디오 콘텐츠 제작을 제작할 수 있는 아바타 API(Avatar API)도 곧 출시될 예정이다. 새로운 파이어플라이는 웹에서 사용할 수 있으며, 모바일 앱도 곧 출시될 예정이다. 한편 파이어플라이 이미지 모델 4, 파이어플라이 이미지 모델 4 울트라 및 새로운 파이어플라이 비디오 모델은 파이어플라이 웹에서 정식 출시됐으며, 파이어플라이 보드는 파이어플라이 앱 내에서 공개 베타 버전으로 제공된다.  어도비의 데이비드 와드와니(David Wadhwani) 디지털 미디어 사업 부문 사장은 “파이어플라이는 이미지, 영상, 오디오 및 벡터 생성을 단일의 공간에서 제공함으로써 AI 기반 크리에이티브 제작 경험을 혁신할 것”이라며, “새로운 파이어플라이 모델과 파트너 모델의 통합으로 이용자들은 자신의 비전을 실현할 수 있는 최고의 선택을 할 수 있다”고 말했다.
작성일 : 2025-04-25
어도비 프리미어 프로, AI로 푸티지 생성, 편집, 검색 속도 향상
어도비가 AI를 활용해 영상 및 오디오 클립을 즉시 생성하고 길이를 확장할 수 있는 프리미어 프로(Premiere Pro)의 생성형 확장(Generative Extend)과 테라바이트급 푸티지에서 특정 클립을 몇 초 만에 빠르게 찾아내는 AI 구동 미디어 인텔리전스(Media Intelligence)를 출시했다. 상업적으로 안전하게 사용할 수 있는 파이어플라이 비디오 모델로 구동되는 생성형 확장을 통해 편집자는 4K 및 가로, 세로형 영상, 오디오 클립과 함께 길이를 조절할 수 있어, 푸티지 내 부족한 부분을 채우는 방식을 혁신적으로 개선할 수 있다. 또한 애프터 이펙트(After Effects)는 향상된 성능과 3D 도구를 제공하며, 프레임닷아이오(Frame.io)는 저장, 대본, 다양한 문서 형식을 지원하도록 업그레이드됐다. 이번에 공개된 생성형 확장과 미디어 인텔리전스는 어도비 크리에이티브 커뮤니티에서 높은 기대를 모은 영상 역량으로, 수년간의 연구와 베타 고객의 피드백을 거쳐 정식 출시됐다. 또한 프리미어 프로에 다국어 캡션 생성을 자동화하는 AI 구동 캡션 번역(Caption Translation) 기능도 새롭게 추가되어, 영상 전문가들이 전 세계 시청자들과 더 손쉽게 소통할 수 있도록 지원한다. 뿐만 아니라, 카메라로 촬영한 RAW 영상 및 로그(LOG) 푸티지를 프리미어로 가져오는 즉시 해당 클립을 HDR 또는 SDR로 자동 변환해, 색 보정 작업의 정확도를 높이는 프리미어 색상 관리(Premiere Color Management)도 정식 출시됐다. 프리미어 프로의 전반적인 성능 향상과 더불어, 이러한 신규 기능들은 편집 작업을 더욱 빠르고 효율적으로 만들어준다.     4K 및 세로형 영상을 지원하는 생성형 확장 정식 출시로, 영상 편집 시 종종 발생하는 짧은 클립으로 인한 편집 문제를 쉽게 해결할 수 있다. 전문 편집 툴인 생성형 확장 기능은 클립의 길이를 늘려 푸티지의 영상 또는 오디오 공백을 채우고 장면 전환을 매끄럽게 하며 샷을 길게 유지해 완벽한 타이밍의 편집을 가능케한다. 클릭 및 드래그만으로 사실적인 영상과 오디오를 확장할 수 있어, 품질 저하 없이 타임라인을 유연하게 조정할 수 있다. 또한 세로형 영상도 지원해, 편집자는 별도의 프레임 재조정 없이 소셜미디어에 최적화된 콘텐츠를 쉽게 제작하고 내보낼 수 있다. 생성형 확장은 상업적으로 안전한 파이어플라이 비디오 모델로 구동된다. AI 생성 콘텐츠에 대한 투명성을 높이고자, 생성형 확장으로 제작된 콘텐츠 결과물에는 디지털 미디어의 '영양 성분 표시'와 같은 역할을 하는 콘텐츠 자격증명(Content Credentials)이 첨부된다. 프리미어 프로 및 애프터 이펙트 업그레이드를 통해 영화 제작자는 몇 초 내로 테라바이트 크기의 푸티지를 검색하고 시각 효과 및 모션 그래픽 워크플로를 간소화할 수 있게 됐다. 프리미어 프로의 AI 구동 미디어 인텔리전스 기능은 편집자가 프로젝트 푸티지를 다루는 방식을 근본적으로 바꾸고 시간을 절약한다. 번거로운 수동 검색을 대신해 미디어 인텔리전스는 개체, 위치, 카메라 각도, 촬영 날짜, 카메라 유형 등 메타데이터를 포함한 클립 콘텐츠를 자동 인식해 편집자가 필요할 때 원하는 장면을 찾을 수 있도록 돕는다.  프리미어 프로의 AI 구동 캡션 번역(Caption Translation)은 몇 초 만에 캡션을 27개 언어로 번역할 수 있는 기능으로, 수동 번역으로 인해 속도가 느려지고 워크플로가 중단되거나 비용이 추가되는 상황을 개선한다. 또한 프리미어 프로는 새로운 컬러 시스템을 제공해, 기존 대비 더 높은 정확도와 일관된 색상을 구현하고 거의 모든 카메라의 로그 영상을 HDR및 SDR 콘텐츠로 자동 변환한다. 이를 통해 편집자는 푸티지 편집 작업을 빠르게 시작하고 완벽한 피부 톤, 보다 생생한 색상, 향상된 다이내믹 레인지(Dynamic Range)로 어느 때보다 쉽게 멋진 영상을 제작할 수 있다. 애프터 이펙트는 고성능 미리보기 재생(High-Performance Preview Playback)을 통해 모든 컴퓨터에서 전체 컴포지션을 어느 때보다 빠르게 재생할 수 있게 됐고, 애니메이션 환경 조명(Animated Environment Light) 등 확장된 3D 툴로 보다 빠르고 사실적인 3D 합성을 지원한다. 애프터 이펙트의 HDR 모니터링(HDR Monitoring) 기능은 HDR 콘텐츠를 정확하게 재생하고 작업함으로써 더욱 밝고 생동감 있는 모션 디자인 작업을 할 수 있다. 크리에이티브 팀에 따라 조정할 수 있는 프레임닷아이오 V4의 확장된 스토리지는 다양한 클라우드 플랫폼에 파일을 저장해, 워크플로 분절 없이 방대한 양의 미디어를 한곳에서 협업할 수 있도록 지원한다. 많은 크리에이티브 팀이 대규모 콘텐츠 제작과 빠르게 증가하는 수요에 대응하는 데 어려움을 겪고 있는 가운데, 프레임닷아이오 V4는 스크립트, 촬영지 사진, 원본 미디어 등 모든 것을 단일 플랫폼에서 저장, 관리, 협업 및 배포할 수 있도록 돕는다. 프레임닷아이오에는 스크립트, 브리핑 문서, 예산, 제안서, 장면 세부 묘사, 스토리보드 및 기타 제작 자료에 대한 협업을 지원하는 확장된 텍스트 문서 검토 툴(Expanded text document review tools), 영상 및 오디오 파일을 빠르게 텍스트로 변환할 수 있는 대본 생성(Transcription generation, 베타), 편집 중인 콘텐츠를 보호할 수 있도록 영상, 이미지 및 문서에 적용 가능한 맞춤형 텍스트 워터마크, 대규모 팀의 사용자 그룹 관리자가 워크스페이스 및 프로젝트 전반에서 대량 사용자 접근 권한을 자동화할 수 있는 접근 허용 그룹(Access Groups, 베타) 등의 기능이 제공된다. 이 밖에도 어도비는 고성능 미리보기 재생 엔진, 강력한 신규 3D 모션 디자인 툴, HDR 모니터링 등 애프터 이펙트의 신규 기능도 공개했다. 또한 프레임닷아이오 V4 업그레이드에는 팀 단위로 사용 가능한 확장 스토리지가 포함돼, 워크플로 단절 없이 편집 중인 작업물과 완성된 애셋을 자유롭게 공유하고, 관리, 정리할 수 있도록 지원한다. 어도비의 애슐리 스틸(Ashley Still) 디지털 미디어 부문 총괄 겸 수석 부사장은 “4K에서 가능한 생성형 확장 기능과 AI 구동 미디어 인텔리전스를 활용해, 프리미어 프로 이용자들이 어떤 상상력을 자극하는 다채로운 영상을 만들어낼지 기대된다”면서, “파이어플라이의 강력한 성능과 어도비의 첨단 AI 역량을 통해 영상 편집의 새 지평을 열고 있으며, 이용자들이 가장 중요한 일, 즉 생동감 있고 매력적인 스토리텔링에 온전히 집중할 수 있도록 돕고 있다”고 말했다.
작성일 : 2025-04-04
[무료강좌] AI 영상 제작 생태계의 현재와 미래
AI 크리에이터 시대 : 영상 제작의 새로운 패러다임 (1)   이번 호에서는 AI 영상 제작 생태계의 현재 상황을 분석하고, 기술 발전에 따른 미래 변화를 예측하며, 여러 분야에 활용할 수 있는 생성형 AI 영상 제작 기술을 살펴보고자 한다.   ■ 연재순서 제1회 AI 영상 제작 생태계의 현재와 미래 제2회 AI 기반 크리에이티브 워크플로 혁신 제3회 소셜 미디어 최적화 AI 영상 제작 전략 제4회 AI 특수효과 및 후반작업 마스터하기 제5회 AI 기반 몰입형 사운드 디자인   ■ 최석영 AI프로덕션 감성놀이터의 대표이며, 국제고양이AI필름페스티벌 총감독이다. AI 칼럼니스트로도 활동하고 있다.    그림 1. 오픈소스 AI, ComfyUI를 활용한 생성형 비디오 Wan2.1    AI 영상 제작의 패러다임 전환 인공지능 기술의 급속한 발전은 영상 제작 산업에 근본적인 변화를 가져오고 있다. 전통적으로 영상 콘텐츠 제작은 전문적인 기술, 고가의 장비, 그리고 상당한 시간과 인력을 필요로 했다. 그러나 AI 기술의 등장으로 이러한 장벽이 크게 낮아지며, 영상 제작의 민주화가 빠르게 진행되고 있다. 이제는 프리미어보다는 AI 편집 프로그램인 캡컷(CapCut)으로 영상을 편집하고, 애프터이펙트보다 피카 AI(Pika AI)로 고급 이펙트 영상을 제작하는 경우가 늘고 있다.   그림 2. 캡컷 서비스 이미지(capcut.com)   그림 3. 피카 AI 서비스 이미지(pika.ai)   AI 영상 제작 기술의 현재 생성형 AI 비디오 기술   그림 4. 오픈AI 소라의 영상 생성 제작 이미지(sora.com)   최근 급속도로 발전한 생성형 AI 기술은 영상 제작 방식을 혁신적으로 변화시키고 있다. 텍스트 프롬프트만으로 완전히 새로운 비디오를 생성하는 기술이 실현되어 창작의 새로운 패러다임을 형성하고 있다.   그림 5. 비디오 생성 기술이 뛰어난 구글의 비오 2(Veo 2, https:// deepmind.google/technologies/veo/veo-2)   주요 기술 및 모델 텍스트-비디오(Text-to-Video) 생성 : 오픈AI의 소라(Sora), 구글의 루미에르(Lumiere) 등이 텍스트 설명만으로 사실적인 비디오를 생성하는 기술을 선보이고 있다. 소라는 최대 60초 길이의 복잡한 내러티브 장면을 생성할 수 있는 능력을 갖추었으며, 물리적 정확성과 시간적 일관성 측면에서 괄목할 만한 성과를 보여주고 있다. 이미지-비디오(Image-to-Video) 변환 : 런웨이(Runway)의 젠-3(Gen-3) 등은 정적 이미지를 동적 비디오로 확장하는 기술을 제공한다. 이 기술은 단일 이미지에 내재된 정보를 바탕으로 자연스러운 움직임과 시간적 흐름을 생성한다. 비디오 확장 및 편집 : 캡컷 등의 플랫폼은 기존 비디오 클립을 AI로 확장하거나 스타일을 변환하는 서비스를 제공하고 있다. 이러한 도구는 비디오의 해상도 향상, 프레임 보간, 스타일 변환 등 다양한 작업을 자동화한다.    AI 기반 후보정 및 편집 기술   그림 6. AI 기반 DI(Digital Intermediate) 프로그램. 무료 기능도 탁월하다.    AI는 영상의 촬영 이후 단계에서도 혁신을 가져오고 있다. 이는 편집의 효율을 높이고 전문가 수준의 결과물을 더 쉽게 얻을 수 있게 한다.   주요 기술 자동 색 보정 및 그레이딩 : 블랙매직 디자인(Blackmagic Design)의 다빈치 리졸브 18(DaVinci Resolve 18) 등에 탑재된 AI 기능은 영상의 색감과 톤을 자동으로 최적화한다. 객체 인식 및 자동 트래킹 : AI 기반 시스템은 비디오 내 객체를 식별하고 추적하여 효과 적용이나 편집 작업을 자동화한다. 오디오 처리 및 개선 : 배경 소음 제거, 음성 명확화, 자동 믹싱 등 AI 기반 오디오 처리 기술이 비디오 제작의 음향 품질을 크게 향상시키고 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-04-02