• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "애니메이션"에 대한 통합 검색 내용이 1,334개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[케이스 스터디] KAI의 언리얼 엔진 기반 차세대 시뮬레이션 에코시스템
비행 훈련부터 제품 개발·운영까지 아우르는 핵심 인프라를 목표로   최근 몇 년 사이 시뮬레이션 산업은 디지털 트윈, AI(인공지능), VR(가상현실)/AR(증강현실) 등 첨단 디지털 기술 중심으로 빠르게 재편되고 있다. KAI(한국항공우주산업)는 이러한 흐름에 발맞춰 언리얼 엔진을 도입함으로써 항공산업 전반에 걸친 디지털 혁신을 추진하고 있다. ■ 자료 제공 : 에픽게임즈   KAI는 KT-1 기본 훈련기, T-50 고등훈련기, 수리온 기동헬기, 송골매 무인기 등 다양한 항공우주 시스템을 자체적으로 설계 및 제작하며, 지난 40년간 항공산업 및 국방산업을 선도해 온 종합 항공우주 설루션 기업이다. 최근에는 소형무장헬기(LAH)와 차세대 전투기 KF-21 개발을 비롯해 위성과 발사체 총조립 등 우주 분야로도 사업을 확대하고 있다. KAI는 2024년 ‘언리얼 페스트 시애틀 2024(Unreal Fest Seattle 2024)’에 참가해 자사의 시뮬레이션 전략을 소개하는 세션을 진행했다. 이번 호에서는 이 발표 내용을 바탕으로 시뮬레이션 산업의 급변하는 흐름 속에서 KAI가 어떻게 대응하고 있는지, 언리얼 엔진을 중심으로 한 시뮬레이션 통합 전략과 실제 적용 사례, 그리고 향후 비전 등을 중심으로 KAI의 기술 혁신에 대해 살펴본다.   ▲ 이미지 출처 : ‘KAI의 언리얼 엔진 기반 차세대 시뮬레이션 에코시스템 | 언리얼 엔진’ 영상 캡처   시뮬레이션 산업의 변화와 KAI의 대응 최근 시뮬레이션 산업은 빠르게 발전하며 구조적인 변화를 겪고 있다. 클라우드 기반 시뮬레이션 도입으로 언제 어디서든 고성능 자원에 접근할 수 있게 되었고, 디지털 트윈, AI, 머신러닝 기술의 결합을 통해 시뮬레이션은 단순한 재현을 넘어 예측과 최적화를 수행할 수 있는 툴로 진화하고 있다. 또한 VR/AR/MR(혼합현실) 기술은 훈련의 몰입감과 현실감을 높여 실제 환경과 유사한 시뮬레이션을 가능하게 하고, 마이크로서비스 아키텍처를 기반으로 한 소프트웨어 설계는 유연성과 확장성을 높이고 있다. KAI는 이러한 디지털 전환에 적극 대응하기 위해 전통적인 레거시 시뮬레이션 시스템을 언리얼 엔진과 통합하고 있다. 핵심 전략은 세 가지이다. 첫째, 언리얼 엔진을 활용한 빠른 프로토타이핑으로 기술 검증과 적용 속도를 높이는 것이다. 둘째, 표준화된 인터페이스를 통해 기존 시스템과의 원활한 연동을 실현하는 것이다. 셋째, 지속 가능한 콘텐츠 개발을 위한 플랫폼 설계로 장기적인 생태계 구축을 추진하는 것이다. 이를 통해 KAI는 기존 자산의 가치를 극대화함과 동시에 급변하는 기술 환경에 유연하고 효율적으로 대응하고 있다.   언리얼 엔진이 변화하는 시뮬레이션 산업에 주는 영향 언리얼 엔진은 시뮬레이션 산업의 진화에 있어 중요한 역할을 하고 있다. 우선 고품질의 리얼타임 3D 그래픽을 통해 현실감 있는 몰입형 시뮬레이션 환경을 구현할 수 있어, 훈련과 테스트의 효율성을 높이고 있다. 또한 VR/AR/MR과의 통합 지원은 다양한 산업에서 실제 같은 체험 기반 학습을 가능하게 한다. 언리얼 엔진의 모듈형 아키텍처와 개방된 생태계는 기존 레거시 시스템과의 통합을 쉽게 하고, 새로운 기술이나 기능을 빠르게 적용할 수 있는 유연성을 제공한다. 특히 디지털 트윈, AI, 머신러닝 등 최신 기술과의 연계가 원활하여 복잡한 시스템의 설계, 유지보수, 운영 효율을 높일 수 있다. KAI와 같은 기업에게 언리얼 엔진은 단순한 툴을 넘어, 지속 가능한 시뮬레이션 콘텐츠를 개발하고 새로운 시뮬레이션 생태계를 구축하는 핵심 기술로 자리잡고 있다.   ▲ KAI의 시뮬레이터로 본 FA-50의 모습(이미지 출처 : KAI)   기존 시스템에 언리얼 엔진을 통합한 사례 KAI는 항공기 훈련 체계에 언리얼 엔진을 도입해 현실성과 효율을 갖춘 시뮬레이터를 개발하고 있다. 대표적으로 VR 시뮬레이터의 경우, 조종사가 풀 플라이트 시뮬레이터에 들어가기 전 VR 기기를 통해 절차와 조작 감각을 사전에 익힐 수 있도록 돕고 있다. 언리얼 엔진으로 실제 항공기와 동일한 가상 조종석을 구현해 이륙/착륙, 비상절차, 항전 장비 조작 등을 별도 교관 없이 반복 학습할 수 있도록 했다. 기존의 시뮬레이터는 실제 항공기 수준의 조작감과 훈련 효과를 제공하지만, 높은 구축 비용과 운영 비용, 전용 시설의 필요 등으로 대량 보급에 한계가 있었다. KAI는 이러한 문제를 보완하기 위해 VR 기술을 도입했다. 언리얼 엔진은 영상 발생 장치, 계기 패널, 입출력 장치 등을 대체한 것은 물론, VR HMD(헤드 마운트 디스플레이) 하나만으로 기존의 여러 장치를 필요로 하는 대형 시현 시스템의 효과를 구현할 수 있게 했다. 또한 KAI는 독자적인 역학 모델과 항전 시스템을 언리얼 엔진의 실시간 렌더링과 결합해 실제 조종과 유사한 수준의 훈련 환경을 제공하고 있다. GIS(지리 정보 시스템), DEM(수치 표고 모델) 등 초정밀지도 기반의 한반도 3D 지형을 재현해 조종사의 임무 지역 지형 학습까지 지원하고 있다. 정비 훈련 분야에서도 언리얼 엔진은 핵심 플랫폼으로 활용되고 있다. 2024년 I/ITSEC 전시회에서 공개된 FA-50 정비 훈련 시뮬레이터는 VR 환경에서 점검과 부품 교체를 실습할 수 있을 뿐만 아니라, 사용자가 직접 교육 과정을 만들 수 있도록 설계됐다. 이를 통해 기존 문서와 평면형 CBT(컴퓨터 기반 훈련), 반복 시나리오 기반의 실습 중심 교육의 한계를 극복할 대안을 제시했다. 또한 같은 행사에서 선보인 수리온 헬기 비행 시뮬레이터(VFT)는 디지털 트윈과 고해상도 시각화를 통해 실제 기체 성능과 지형 정보를 반영한 몰입형 훈련 환경을 제공했다.   ▲ FA-50 비행 시뮬레이션의 디스플레이 장면(이미지 출처 : KAI)   시뮬레이션·시스템 개발에서 언리얼 엔진의 기여도 언리얼 엔진 도입 이후 KAI의 시뮬레이션 제작 파이프라인에는 큰 변화가 있었다. 데이터스미스를 활용해 카티아 등 설계 도구의 3D 모델을 쉽게 불러올 수 있어, 실제 설계 기반의 가상 조종석과 기체 모델을 빠르게 구축하고 별도의 모델링 없이 제작 시간을 줄일 수 있었다. 또한 자체 개발한 비행역학 엔진과 항공전자 시뮬레이션 소프트웨어를 언리얼 엔진과 실시간으로 연동해, 백엔드 시스템과 시각화 프론트엔드를 효과적으로 통합함으로써 전반적인 생산성이 향상되었다. 특히 조종사가 시각과 청각 정보를 통해 상황을 판단하는 VR 시뮬레이터 개발에서는 언리얼 엔진의 렌더링, 사운드, 애니메이션 기능이 핵심 도구로 사용되었다. 물리 기반 렌더링(PBR)은 금속, 유리, 계기판 등 재질을 사실적으로 구현했으며, 파티클 시스템과 머티리얼 노드를 통해 연기, 공기 왜곡 등의 시각 효과도 유연하게 조정할 수 있었다. 사운드 역시 메타사운드를 통해 엔진 RPM이나 환경 변화에 따라 실시간으로 반응하며, 조종사에게 실제 비행과 유사한 감각을 제공했다. 또한 애니메이션 블루프린트를 활용해 조종간, 계기판, 비행 제어면 간 연동 애니메이션의 비주얼을 직관적으로 구현할 수 있었으며, 스카이 애트머스피어, 볼류메트릭 클라우드, 하이트 포그 등의 기능은 대기 표현과 공간 인식 훈련의 몰입감을 높였다. 지형 구현에서도 언리얼 엔진의 LWC(Large World Coordinates)를 통해 수천 km 단위의 지형에서도 고속 이동 시 정밀도를 유지할 수 있었고, 풀 소스 코드를 활용해 AI 훈련 체계에 맞는 좌표 변환, 시스템 연동, 정밀 지형 구조를 구현할 수 있었다. 이 과정에서 실제 지형 데이터, 항공 사진, 고도 정보를 언리얼 엔진에 통합했고, GIS, DEM 기반의 정밀 지형 정보를 효과적으로 활용해 복잡한 비행 경로, 저공 비행 훈련, 목표 탐색 등 고난도 시나리오도 현실감 있게 구현할 수 있었다. 그 결과 KAI는 초대형 지형 데이터, 초정밀 위치 기반 훈련, 외부 시스템과의 정밀한 좌표 연동을 모두 만족하는 차세대 항공기 시뮬레이터 플랫폼을 성공적으로 구축할 수 있었다. 이외에도 다양한 플러그인, 하드웨어 인터페이스, 형상 관리 툴 연동, 이제는 리얼리티스캔으로 변경된 리얼리티캡처, 마켓플레이스 등을 활용하여 프로젝트 확장성과 콘텐츠 제작 유연성이 높아졌다.   ▲ 애니메이션 블루프린트를 활용해 구현한 조종간(이미지 출처 : KAI)   대규모 전술 훈련을 위한 AI 에이전트를 언리얼 엔진에 도입 KAI는 차세대 전술 훈련 시뮬레이터 개발을 위해 강화학습 기반의 AI 에이전트를 실제 훈련 시나리오에 연동하는 작업을 진행 중이다. 특히, 복잡한 전장 환경에서는 다양한 무기 체계와 플랫폼이 동시에 운용되기 때문에, 이를 하나의 시뮬레이션 공간에서 유기적으로 연동하는 기술이 매우 중요하다. 기존 상용 시뮬레이터 설루션의 경우 외부 시스템 연동이나 커스터마이징에 제약이 많지만, 언리얼 엔진은 C++ 기반의 풀 소스 코드 접근이 가능해 이러한 한계를 극복할 수 있다. KAI는 이러한 개방성을 바탕으로 자체 개발한 AI 에이전트를 정밀하게 통합해, 복잡한 상호작용이 필요한 전술 훈련 시나리오에서도 실질적인 이점을 확보할 수 있었다. 이와 같은 통합은 단순히 AI를 활용하는 수준을 넘어, 인간 조종사와 AI가 동일한 시뮬레이션 환경에서 훈련하고 상호 작용할 수 있는 구조를 의미한다. 기존의 설루션으로는 구현하기 어려웠지만 KAI는 언리얼 엔진을 도입해 이를 실현할 수 있었다. 결과적으로 언리얼 엔진은 AI, 실시간 시뮬레이션, 데이터 피드백이 통합된 플랫폼을 제공하며, KAI의 차세대 전술 훈련체계 구현에 핵심 역할을 하고 있다.   ▲ 지형 데이터 통합으로 구현한 대규모 도시 지역 디지털 트윈(이미지 출처 : KAI)   향후 시뮬레이션 에코시스템의 방향과 KAI의 비전 향후 시뮬레이션 에코시스템은 개방성, 지속 가능성, 개인화를 중심으로 발전해 나갈 것이다. AI와 빅데이터를 기반으로 한 맞춤형 훈련 시스템, 클라우드 환경에서의 지리적 제약 없는 고성능 시뮬레이션 그리고 VR/AR, 웨어러블 기술 등을 활용한 몰입형 실시간 피드백 시스템이 표준이 되어갈 것으로 전망된다. 이러한 변화 속에서 KAI는 기술 통합형 플랫폼과 자체 시뮬레이션 에코시스템을 구축하며, 대한민국 시뮬레이션 산업의 지속 가능한 성장 기반을 마련할 예정이다. 언리얼 엔진을 단순한 개발 툴이 아닌 시뮬레이션 엔진으로 활용하며, 플랫폼을 중심으로 고퀄리티 콘텐츠를 빠르게 생산할 수 있는 시뮬레이션 콘텐츠 파이프라인을 개발 중이다. KAI의 비전은 국내를 넘어 글로벌 시뮬레이션 에코시스템과 연결되는 것이다. 언리얼 엔진의 개방성과 기술력을 바탕으로 산업 전반에 걸쳐 공유 가능한 시뮬레이션 플랫폼을 만들고, 이를 통해 다양한 산업, 기관, 개발자가 협력할 수 있는 건강하고 확장 가능한 에코시스템을 조성하는 것이 목표다. 이러한 방향성과 비전을 바탕으로, KAI는 시뮬레이션 기술을 단순한 훈련 도구를 넘어 제품 개발, 유지보수, 운영 효율 개선을 위한 핵심 인프라로 성장시키고자 한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-09-03
에픽게임즈, ‘언리얼 페스트 서울 2025’ 마쳐
에픽게임즈 코리아는 ‘언리얼 페스트 서울 2025’가 성공적으로 개최됐다고 밝혔다. 언리얼 페스트는 개발자와 크리에이터에게 언리얼 엔진 및 에픽게임즈의 에픽 에코시스템을 구성하는 제품에 대한 최신 기술과 제작 경험을 공유하기 위해 에픽게임즈에서 매년 진행하는 글로벌 행사이다. 8월 25일~26일 서울 삼성동 코엑스 그랜드볼룸에서 진행된 올해 ‘언리얼 페스트 2025 서울’에는 1800여 명이 현장을 찾아, 언리얼 엔진 및 에픽 에코시스템 제품들의 최신 기술을 확인하고 다양한 산업에서의 혁신적인 리얼타임 3D 인터랙티브 제작 경험을 공유했다. 온라인 중계 역시 전년 대비 전체 중계 세션이 50% 줄었음에도 불구하고 5000여 명의 시청자 수를 기록했다.     에픽게임즈 코리아 박성철 대표의 환영사와 함께 시작된 ‘언리얼 페스트 2025 서울’에서는 에픽게임즈 팀 스위니 대표가 키노트를 통해 업계의 주요 트렌드를 짚어 보고, 언리얼 엔진 개발자를 위한 새로운 기회와 모든 크리에이터를 위한 리얼타임 3D 오픈 에코시스템을 에픽게임즈가 어떻게 구축해 나가고 있는지에 대한 인사이트를 공유했다. 이어, 빌 클리포드 언리얼 엔진 총괄 부사장이 게임을 넘어 다양한 산업 분야에서 크리에이터들이 언리얼 엔진을 활용해 창의적·기술적 한계를 어떻게 뛰어넘고 있는지 그리고 에코시스템의 미래에 대해 소개했다. 마지막으로, 마커스 와스머 개발 담당 수석 부사장은 최근 언리얼 엔진의 업데이트 내용을 뒤돌아보고 향후의 로드맵을 공유하면서 키노트 발표를 마무리했다. 이후 ▲‘더 위쳐 4 언리얼 엔진 5 테크 데모’ 속 기술 들여다보기 ▲언리얼 엔진 5.6으로 모바일 게임 개발하기 ▲일본 사례로 보는 UE5 그래픽 심층 인사이트 ▲나이아가라로 인터랙티브한 파티클 효과 제작해 보기 등의 게임 트랙 세션과 ▲ UE 5.6과 함께 확 달라진 메타휴먼 : 핵심 업데이트 알아보기 ▲언리얼 엔진 5 애니메이션 리타기팅의 미래 등의 미디어 & 엔터테인먼트 트랙 세션, 그리고 ▲ 언리얼 엔진과 에픽 에코시스템을 통한 시뮬레이션 산업의 혁신과 같은 제조 및 시뮬레이션 트랙 세션 등 다양한 주제의 세션이 이틀에 걸쳐 진행됐다. 파트너사 세션도 진행됐다. 게임 트랙에서는 넥슨게임즈의 듀랑고 IP를 이용한 ‘프로젝트 DX’ 세션, 넷마블몬스터의 ‘몬길 : STAR DIVE’ 세션, 넥슨의 ‘낙원 : LAST PARADISE’ 세션, 스퀘어 에닉스의 라이팅 관련 세션 등 다양한 국내외 게임사들의 세션이 많은 관심을 얻었다. 또한, 애니메이션 ‘킹 오브 킹스’의 제작사 모팩스튜디오를 비롯해 메타로켓, Kong Studios, 사운드얼라이언스 등이 참여한 미디어 & 엔터테인먼트 트랙과 한국항공우주산업(KAI)과 비브스튜디오스, 현대자동차, 삼성중공업, 현대오토에버 등이 참여한 제조 및 시뮬레이션 트랙도 진행됐다.
작성일 : 2025-08-29
HP, 에픽게임즈 ‘언리얼 페스트 2025 서울’ 골드 스폰서로 참여
HP가 8월 25일부터 26일까지 이틀간 열린 에픽게임즈의 ‘언리얼 페스트 2025 서울’ 행사에 골드 스폰서로 참여했다며, 전시 부스를 운영하고 파트너사와 공동 토크 세션을 진행했다고 밝혔다. HP는 골드 스폰서로 참여해 에픽게임즈와의 파트너십을 공고히 하고 미디어 및 엔터테인먼트 분야에서의 리더십을 한층 강화했다고 전했다.  ‘언리얼 페스트’는 언리얼 엔진과 에픽 에코시스템의 최신 기술과 활용 사례를 공유하는 에픽게임즈의 대표적인 연례 행사로 올해는 게임, 미디어, 엔터테인먼트, 제조 및 시뮬레이션 등 다양한 산업별 트랙을 통해 총 38개의 세션으로 진행됐다. HP는 8월 26일 ‘기술 혁신으로 여는 창의적 스토리텔링의 미래’를 주제로 미국 애니메이션 엔터테인먼트 스튜디오 IEL(Immersive Enterprise Laboratories)과 공동 세션을 진행했다. 이 세션에는 IEL의 블레이크 박스터(Blake Baxter) CEO와 다니엘 우르바흐(Daniel Urbach) CCO가 참여해, HP와 엔비디아 기술 기반 AI 파이프라인을 활용한 제작 사례를 공유했다. 이들은 HP Z6 워크스테이션과 엔비디아 RTX 프로 6000 블랙웰을 이용해 빠른 반복 작업, 높은 시각적 완성도, 창작의 자유를 구현한 과정을 소개했다. 한편 HP는 Z by HP 워크스테이션 포트폴리오를 지속적으로 확장하며 미디어 및 엔터테인먼트 분야를 포함한 다양한 산업군에 최적화된 솔루션을 제공하고 있다. 이번 전시 부스에서도 ▲ HP Z6 G5 A 데스크톱 워크스테이션 ▲ HP Z2 타워 G1i ▲ HP ZBook X G1i ▲ Z 디스플레이 등 주요 제품군을 선보였다. 또한, 어도비(Adobe)와 공동 개발한 디지털 스캐닝 기기 ‘HP Z 캡티스(HP Z Captis)’도 함께 전시했다. 김대환 HP 코리아 대표는“언리얼 페스트는 글로벌 크리에이티브 산업의 최신 혁신을 보여주는 대표적인 행사”라며 “HP는 이번 후원을 통해 파트너사와 함께 창작자들에게 차세대 기술 기반 워크플로우를 제시하고, AI 중심의 워크스테이션 혁신을 통해 산업 전반의 창의적 혁신을 가속화하는 데 기여하고자 한다”고 전했다. HP는 최근 워크스테이션 사업 부문에서 AI 중심 혁신 전략을 강화하고 있다. 특히, 크리에이티브 산업의 고도화된 AI 워크플로우 수요에 맞춰, 대규모 데이터 처리 및 AI 기반 콘텐츠 제작에 최적화된 성능을 갖춘 제품 개발에 집중하고 있다. 이를 바탕으로 크리에이티브 산업 전반에 특화된 워크스테이션 포트폴리오를 지속적으로 확대하고 차세대 AI 워크스테이션 제품 혁신을 가속화하며 고객에게 차별화된 가치를 제공할 방침이다.  한편, HP는 스타트업을 대상으로 한 ‘HP 스타트업 챌린지’와 국내 대학생을 위한 ‘AI 연구개발 지원 사업’ 등을 운영하며 고성능 워크스테이션을 제공하고 있다. 이를 통해 유망 스타트업의 성장을 돕고, 학계 연구 인재들이 AI 및 데이터 사이언스 분야에서 역량을 발휘할 수 있도록 지원하는 등 미래 기술 생태계 조성에 힘쓰고 있다고 전했다.
작성일 : 2025-08-27
어도비, 파이어플라이 및 익스프레스에 구글 제미나이 2.5 플래시 이미지 모델 탑재 
어도비가 파이어플라이(Adobe Firefly) 및 어도비 익스프레스(Adobe Express)에서 구글 제미나이 2.5 플래시 이미지(Gemini 2.5 Flash Image) 모델을 지원한다고 발표했다. 어도비 파이어플라이와 익스프레스 통해 제공되는 제미나이 2.5 플래시 이미지 모델을 통해 사용자는 더 쉽게 뛰어난 콘텐츠를 제작하고 아이디어를 빠르게 실현할 수 있다.  앞으로 소셜 크리에이터는 파이어플라이에서 제미나이 2.5 플래시 이미지 모델을 활용해 일관된 스타일의 그래픽 시리즈를 제작하고, 이를 어도비 익스프레스로 가져와 애니메이션, 사이즈 조정, 프롬프트 기반 캡션 생성 및 소셜 채널 게시까지 한 번에 작업할 수 있다. 마케터와 기업 사용자는 어도비 익스프레스에서 제미나이 2.5 플래시 이미지 모델을 통해 기존 캠페인 애셋을 소셜 콘텐츠, 전단지, 프레젠테이션, 이메일 그래픽 등 다양한 포맷으로 손쉽게 제작하는 것은 물론, 배경 교체, 개체 삽입, 이미지 변형 등을 몇 분 만에 실행해 브랜드 가이드에 맞는 사실적인 결과물을 빠르게 얻는 것이 가능하다. 디자이너의 경우 파이어플라이에서 제품 콘셉트나 캐릭터 디자인 시안을 빠르게 만들고, 다양한 방향성을 탐색하며, 포토샵이나 일러스트레이터에서 정교한 편집을 이어갈 수도 있다.     어도비는 크리에이터들에게 폭 넓고 다양한 생성형 AI 모델을 제공하기 위해 어도비 파이어플라이와 어도비 익스프레스를 통해 이미지, 영상, 벡터, 오디오 전반에 걸쳐 상업적으로 안전한 파이어플라이 생성형 모델군을 제공함은 물론 구글, 오픈AI, 블랙 포레스트 랩스(Black Forest Labs), 런웨이(Runway), 피카(Pika), 이디오그램(Ideogram), 루마 AI(Luma AI), 문밸리(Moonvalley) 등 파트너사의 생성형 AI 모델까지 선택할 수 있도록 한다고 소개했다. 생성형 AI 모델은 각기 고유한 심미적인 스타일을 지니고 있다. 어도비는 워크플로나 플랫폼을 전환하지 않고도 작업 목적에 맞는 모델을 선택해 활용할 수 있는 유연성을 제공한다. 보다 정밀한 제어를 원하는 크리에이티브 전문가는 어도비 포토샵(Adobe Photoshop), 어도비 일러스트레이터(Adobe Illustrator), 어도비 프리미어(Adobe Premiere) 등 크리에이티브 클라우드(Creative Cloud) 앱을 통해 세밀하게 조정하거나 편집할 수 있다. 어도비는 자사의 제품 내에서 어떤 생성형 AI 모델을 선택하더라도, 어도비 앱에서 생성하거나 업로드한 콘텐츠는 생성형 AI 모델의 훈련에 사용되지 않는다고 전했다. 어도비 파이어플라이 생성형 AI 모델은 이를 항상 준수하며, 파트너십 계약 시에도 필수 조건으로 명시하고 있다. 또한 투명성을 강화하기 위해, 어도비 파이어플라이와 어도비 익스프레스에서 전적으로 AI로 생성된 모든 콘텐츠에는 콘텐츠 자격증명(Content Credentials)이 첨부된다. 한편, 제미나이 2.5 플래시 이미지 모델은 파이어플라이의 텍스트를 이미지로(Text to Image) 모듈, 파이어플라이 보드(Firefly Board, 베타) 및 어도비 익스프레스에서 바로 사용할 수 있다.
작성일 : 2025-08-27
언리얼 페스트 2025 서울 개막… UE6 통합 비전과 산업별 활용 전략 제시
에픽게임즈가 8월 25일 서울 코엑스에서 ‘언리얼 페스트 2025 서울’ 행사를 개막했다. 이번 행사는 게임·제조·미디어&엔터테인먼트 등 3개 산업 트랙과 38개 세션을 통해 언리얼 엔진의 최신 기술 및 크리에이터 생태계 전략을 공유하며, 서울을 아시아 개발 허브로 자리매김하게 하는 계기가 됐다. ▲ 에픽게임즈 팀 스위니 CEO ▲ 언리얼 페스트 2025 행사장 전경 기조연설에서 에픽게임즈 팀 스위니 CEO는 차세대 엔진의 청사진을 제시하며 “언리얼 엔진의 강력함과 UEFN(언리얼 에디터 포 포트나이트)의 직관성과 접근성이 결합될 때, 그것이 차세대 언리얼 엔진(UE6)의 힘이 될 것”이라고 언급했다. 또한 제작된 게임·콘텐츠를 플랫폼에 구애받지 않고 배포하며, 나아가 서로 다른 게임 간 상호운용성을 구현하는 것이 목표라고 밝혔다. UEFN 생태계는 출시 2년 만에 급성장했다. 에픽게임즈에 따르면 지금까지 26만 개 이상의 아일랜드가 제작됐으며, 누적 플레이 시간은 112억 시간을 넘어섰다. 이번 행사에서는 AI NPC 제작 도구, Verse 코드 어시스턴트, Scene Graph 베타 등 차세대 툴이 공개됐으며, LEGO·오징어게임·스타워즈 등 글로벌 IP도 포트나이트 크리에이티브에 순차적으로 제공될 예정이다. ▲ 에픽게임즈 코리아 박성철 대표 ▲ 언리얼 페스트 2025 행사장 전경 한편 EGS(에픽게임즈 스토어)의 정책 변화도 소개됐다. 에픽은 일정 매출 구간까지 수수료를 면제하고 이후 88:12 수익 배분 구조를 적용하는 새로운 정책을 예고했으며, 웹샵(Web Shops) 도입과 인앱 리워드(5%) 제공, iOS(EU) 및 Android 진출 계획, 모바일 퍼블리싱 기능 등을 준비 중이다. 지금까지 EGS는 개발자와 퍼블리셔에게 21억 달러 이상을 지급하며 글로벌 유통 플랫폼으로 성장했다. EOS(에픽 온라인 서비스)는 크로스플레이, 매치메이킹, 음성·텍스트 채팅, 업적 등 다양한 기능을 무료로 제공해왔으며, 올해 안에는 콘솔·PC·모바일을 아우르는 소셜 오버레이가 도입될 예정이다. 산업별 트랙에서는 ▲게임 분야(UE6 비전, UEFN·Verse 활용, 국내외 주요 게임사 사례 발표) ▲제조·시뮬레이션 분야(현대오토에버, 삼성중공업, KAI 등 실제 적용 사례) ▲미디어&엔터테인먼트 분야(디지털 휴먼, 애니메이션, 라이브 이벤트 사례) 등이 공유됐다. ▲ 언리얼 페스트 2025 미디어 라운드테이블에 참석한 팀 스위니 에픽게임즈 CEO(가운데)와 박성철 에픽게임즈 코리아 대표(오른쪽) 언리얼 페스트 2025 서울은 엔진·플랫폼·스토어·소셜을 아우르는 에픽 생태계 전략을 총체적으로 조망한 자리였다. UE6 비전, UEFN 확장, EGS 정책 변화, EOS 소셜 강화는 “창작 → 배포 → 수익화 → 커뮤니티”로 이어지는 창작 생태계 순환 구조를 이루는 핵심 축으로 제시됐다. 이번 행사는 내일까지 계속된다.
작성일 : 2025-08-25
유니티, 글로반트와 협력해 엔터프라이즈 분야 실시간 3D 혁신 가속화
유니티는 인공지능(AI), 클라우드, 데이터 분석 등 기술 서비스를 제공하는 글로반트(Globant)와 새로운 글로벌 파트너십을 맺었다고 밝혔다. 이번 파트너십을 통해 글로반트는 유니티 서비스 파트너 프로그램 회원사가 되었으며, 양사는 디지털 트윈, 자동차, 헬스케어, 생명과학, 제조 등 고성장 산업 분야에 최첨단 인터랙티브 설루션을 제공할 예정이다.   양사의 이번 협력은 제조업 효율을 위한 디지털 트윈 설계 및 구축, 헬스케어 전문가 역량 강화를 위한 몰입형 교육 도구, 자동차 및 산업 고객을 위한 차세대 시각화 플랫폼(고해상도 3D 맵, 애니메이션 아바타, 몰입형 차량 엔터테인먼트 시스템 등)의 개발에 중점을 둘 예정이다. 또한 글로반트는 유니티 제품을 기업 기술 스택에 통합하고, 시장 진출 전략을 지원하며, 전 세계 고객을 위한 맞춤형 설루션을 공동 개발함으로써 유니티의 신규 상업 시장 확대를 지원한다. 이와 함께, 글로반트는 유니티 서비스 파트너로서 기업들이 유니티의 실시간 3D 기술과 디지털 자산 관리 설루션을 활용해 제품 개발을 가속화하고, 운영을 최적화하며, 고객 참여를 강화할 수 있도록 지원한다. 이번 협력의 핵심은 글로반트가 엔지니어와 디자이너를 대상으로, 유니티 플랫폼 인증 교육을 실시해 고객들이 세계 최대 규모의 유니티 인증 엔터프라이즈 기술 인력 풀을 활용할 수 있도록 하는 포괄적인 교육 이니셔티브다. 글로반트 팀은 매년 재인증과 지속적인 인재 개발 투자를 통해 유니티 플랫폼을 기반으로 혁신의 최전선에 설 수 있도록 한다.   유니티와 글로반트는 협력을 통해 게임 분야의 기술과 혁신 노하우를 다른 산업에도 적용할 수 있을 것으로 보고 있다. 이를 통해 실시간 3D로 가능한 것의 한계를 넓히는 한편, 기업들이 비즈니스를 구축하고 교육하며 운영하고 고객과 소통하는 방식을 재구성할 수 있도록 돕겠다는 것이다. 이번 파트너십은 북미, EMEA(유럽·중동·아프리카), APAC(아시아 태평양) 지역으로 확장되며, 글로반트의 딜리버리 센터 네트워크와 시장 전문성을 활용해 유니티 기반 설루션의 글로벌 확산을 지원할 예정이다. 글로반트의 마틴 미고야(Martín Migoya) CEO 겸 공동 창립자는 “디지털 혁신의 선구자로서, 유니티의 기술이 산업의 운영, 참여, 진화 방식에 혁신을 가져오고 있음을 목격하며 큰 영감을 받고 있다”면서, “글로반트의 기술력과 글로벌 네트워크, 그리고 유니티의 혁신적인 기술을 결합함으로써, 전 세계 고객이 효율성을 높이고 비즈니스 성장을 지원하는 인터랙티브 교육, 시뮬레이션, 시각화 도구 등 첨단 디지털 설루션을 구축할 수 있도록 돕겠다”고 말했다. 유니티의 알렉스 블룸(Alex Blum) COO는 “글로반트와의 파트너십을 통해 몰입형 인터랙티브 경험이 필수적인 산업 분야에 유니티의 실시간 3D 기술을 더욱 효과적으로 제공할 수 있게 되었다”면서, “자동차, 헬스케어, 제조 등 다양한 산업의 기업들이 새로운 효율성을 확보하고, 교육 및 디자인을 혁신하며, 차별화된 고객 경험을 제공할 수 있도록 함께 지원하겠다”고 전했다.
작성일 : 2025-08-22
유니티 6.2 정식 출시… “합리적이고 효율적인 개발 생태계 확장”
유니티가 유니티 6의 두 번째 업데이트인 ‘유니티 6.2(Unity 6.2)’ 정식 버전을 출시했다. 이번 업데이트는 데이터 중심의 안정성 개선, AI 기반 생산성 극대화, 최신 플랫폼 개발 환경 강화 등 개발자들이 한층 더 합리적이고 효율적으로 창작할 수 있는 생태계 확장에 초점을 뒀다.     먼저, 유니티는 개발자가 유니티 생태계 전반에서의 데이터 수집, 관리, 사용 등을 파악하고 통제할 수 있도록 새로운 ‘개발자 데이터 프레임워크(Developer Data Framework)’를 제공한다. 이 프레임워크는 각 프로젝트 내에서 데이터가 활용되는 방식을 개발자에게 투명하게 보여주고, 세부적으로 직접 제어할 수 있는 기능을 지원한다. 또한 다양한 기기에 걸쳐 프로젝트의 성능과 안정성을 실시간으로 모니터링하는 데 도움을 주는 ‘향상된 진단 기능’을 제공한다. 충돌 및 ANR(Application Not Responding) 등에 대한 문제를 빠르게 진단하고, 심층적인 데이터를 제공함으로써 더 원활한 게임 플레이와 플레이어 유지율 향상에 도움을 준다. 유니티 6.2부터 에디터에 통합된 ‘유니티 AI(Unity AI)’는 번거로운 작업 자동화, 애셋 생성 등 개발 워크플로 간소화 및 가속화를 지원한다. 컨텍스트 기반 ‘어시스턴트(Assistant)’ 기능을 통해 개발자들은 자세한 내용을 설명하지 않고도 프로젝트 애셋을 프롬프트로 드래그하면 게임 오브젝트, 스크립트, 프리팹 등에 대해 신속한 지원을 받을 수 있다. 스크립트나 오류 메시지 등 문제를 더 쉽게 파악하고 해결하는 ‘콘솔 오류 디버그’ 기능도 제공한다. 아울러 오브젝트 생성, 애셋 배치, 신 설정 자동화를 비롯해 스프라이트, 텍스처, 애니메이션, 사운드 등 다양한 플레이스홀더 애셋을 워크플로 내에서 매끄럽게 생성하고 활용할 수 있다. 일정 기준 이상의 광원이나 리지드보디(Rigidbody, 게임 개체의 물리적 속성을 시뮬레이션하는 데 사용되는 구성 요소)가 없는 오브젝트를 손쉽게 검색하고, 이름·레이어·컴포넌트 등을 일괄 수정 및 정리하는 것도 가능하다. 현재 유니티 AI는 베타 버전으로 제공하며, 개발자 커뮤니티 피드백을 바탕으로 더욱 고도화해 나갈 예정이다. 유니티 6.2는 ‘안드로이드 XR 패키지(Android XR package)’를 통해 관련 애플리케이션 제작에 필요한 안정적이고 완성도 높은 기반을 제공한다. 핸드 메시를 시각화해 오클루전에 활용할 수 있으며, URP(Universal Render Pipeline)에서 후처리 효과에 대한 GPU 부하를 줄여 색 보정 및 비네팅과 같은 이미지 효과를 보다 실용적으로 구현할 수 있다. 또한 디스플레이의 주사율을 동적으로 조정하는 기능을 지원해 더욱 매끄러운 성능을 제공한다. 이밖에 ▲맞춤형 에디터 기반 그래프 툴을 구축할 수 있도록 지원하는 API 프레임워크 ‘그래프 툴킷’ ▲자동으로 LOD(Level of Detail)를 생성해 반복 수정 작업을 최소화하는 ‘메시 LOD’ ▲몰입형 XR 및 게임 환경을 위한 사용자 인터페이스(UI)를 직접 렌더링할 수 있는 ‘월드 스페이스 UI’ 등의 기능도 제공한다.
작성일 : 2025-08-20
메타휴먼 5.6 : 디지털 휴먼의 제작 워크플로 향상 및 생태계 확장
개발 및 공급 : 에픽게임즈 주요 특징 : 언리얼 엔진 통합 및 워크플로 간소화, 새로운 파라메트릭 보디 시스템, 신규 언리얼 엔진 의상 애셋, 고퀄리티 실시간 애니메이션 및 오디오 기반 애니메이션 제작 향상, 다양한 DCC 툴을 위한 플러그인 및 스타터 키트 모음 등   혁신적인 디지털 휴먼 툴세트인 메타휴먼(MetaHuman)이 얼리 액세스를 종료하고, 다양한 기능을 갖춘 새 버전을 출시했다. 에픽게임즈는 메타휴먼 5.6 출시를 통해 주요 기능을 새롭게 제공하는 한편, 메타휴먼의 활용 범위를 넓혀주는 새로운 라이선스 옵션과 통합 기능을 도입했다. 이제 메타휴먼 크리에이터는 언리얼 엔진에 통합되어 향상된 퀄리티는 물론 얼굴, 체형, 의상을 더욱 다양하게 확장할 수 있는 새로운 제작 워크플로를 제공한다. 메타휴먼 애니메이터 역시 업데이트되어 거의 모든 카메라 또는 오디오로 실시간 애니메이션을 생성하는 기능이 추가됐다.   그림 1. 이미지 출처 : ‘메타휴먼 시즐릴 | 언리얼 페스트’ 영상 캡처   메타휴먼 크리에이터 언리얼 엔진에서 메타휴먼 제작 메타휴먼 크리에이터가 이제 언리얼 엔진에 통합되어 크리에이터로부터 많은 요청을 받았던 기능을 제공한다. 더 이상 인스턴스를 기다리거나 제한된 세션 시간을 신경 쓸 필요가 없으며, 익스포트 과정이 신속한 어셈블리 단계로 대체되어 반복 작업이 더 빠르고 쉬워졌다. 파이프라인을 관리해야 하는 스튜디오의 경우 메타휴먼 크리에이터(MetaHuman Creator), 메타휴먼 애니메이터(MetaHuman Animator), 메시 투 메타휴먼(Mesh to MetaHuman)이 이제 하나의 애플리케이션으로 통합되면서, 캐릭터 제작 워크플로가 간소화되고 로컬 애셋 관리가 한층 유연해지는 이점을 누릴 수 있게 됐다. 또한, 메타휴먼 크리에이터 툴의 풀 소스 코드 액세스가 제공되어 캐릭터 제작 파이프라인의 필요에 맞춰 툴을 확장하고 커스터마이징할 수 있으며, 자동 리깅과 텍스처 합성을 제공하는 클라우드 서비스를 통해 로컬 에디터 내 제작 워크플로가 향상된다.   그림 2. ‘Creator your MetaHumans’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   새로운 파라메트릭 보디 시스템 메타휴먼 크리에이터의 직관적인 페이스 제작 툴이 이제 보디 제작에도 확장됐다. 새로운 파라메트릭 보디 시스템은 광범위한 실제 스캔 데이터를 바탕으로 거의 무한대로 사실적인 체형을 생성할 수 있으며, 페이스 제작 때와 마찬가지로 스컬프팅하고 결합할 수 있다. 또한 키, 가슴, 허리, 다리 길이 등 다양한 신체 치수를 조정하거나 제한할 수 있어, 온라인 패션 쇼핑 등 다양한 용도에 맞춰 특정 비율의 메타휴먼을 제작할 수 있다.   그림 3. ‘MetaHuman body editing’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   새로운 언리얼 엔진 의상 애셋 실제 사람처럼 메타휴먼도 의상이 필요하다. 그 선택의 폭 역시 넓을수록 좋다. 이제 DCC 앱에서 사실적인 메시 기반 의상을 제작하고, 새로운 언리얼 엔진 의상 애셋을 사용하여 메타휴먼을 위한 전체 의상 세트를 생성할 수 있다. 이 기능은 액세서리를 포함한 다양한 의상을 통합된 의상 애셋으로 구성할 수 있다. 다양한 신체 사이즈와 체형에 가장 잘 맞는 의상 애셋을 미리 제작할 수 있으며, 이는 캐릭터의 체형에 따라 자동으로 크기가 조정되므로 모든 신체에 맞는 의상을 생성한다. 의상은 메타휴먼 형식으로 패키징하여 팹 마켓플레이스와 제3자 마켓플레이스에서 구매하거나 판매할 수 있기 때문에, 누구나 사용할 수 있는 기성 메타휴먼 의상의 폭이 더욱 넓어진다.   그림 4. ‘MetaHuman clothing’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   향상된 비주얼 퀄리티 메타휴먼은 최고의 퀄리티와 사실감을 구현할 수 있도록 지속적으로 발전하고 있다. 이를 위해 메타휴먼 데이터베이스의 실제 스캔 데이터가 확장되어, 더욱 다양한 캐릭터 메시 셰이프와 텍스처를 제공한다. 또한 스캔 데이터의 캡처 및 처리 기능도 향상되어 잡티와 같은 디테일까지 더욱 사실적으로 표현할 수 있다. 그 결과, 메타휴먼 크리에이터로 더욱 실감 나는 얼굴 텍스처를 구현하고 한층 다양한 캐릭터를 만들 수 있으며, 메시 투 메타휴먼을 사용하면 임포트한 메시나 캡처된 영상과 더욱 일치하는 메타휴먼을 만들 수 있다.   그림 5. 이미지 출처 : 언리얼 엔진 홈페이지   메타휴먼 애니메이터 웹캠과 스마트폰으로 제작하는 고퀄리티 실시간 애니메이션 메타휴먼 애니메이터를 사용하면 대부분의 웹캠과 다양한 스마트폰을 비롯한 모노 카메라로 배우의 연기를 캡처하고 언리얼 엔진에서 실시간으로 메타휴먼에 애니메이션을 적용할 수 있다. 기존에 지원되던 스테레오 HMC와 아이폰뿐만 아니라 이제 일부 안드로이드 스마트폰을 포함해 언리얼 엔진 라이브 링크와 연동되는 모든 카메라를 지원한다. 실시간 작업이 가능하기 때문에 라이브 공연이나 즉각적인 피드백이 필요한 촬영 현장에서도 메타휴먼은 배우와 완벽하게 동기화된다. 오프라인 작업 역시 프로젝트 요구 사항에 적합한 환경에서 계속 사용할 수 있다.   그림 6. ‘MetaHuman real-time animation’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   향상된 오디오 기반 애니메이션 이제 오디오만으로 리얼타임 애니메이션을 생성할 수 있어, 라이브 연기를 더욱 손쉽게 구현할 수 있게 됐다. 또한 메타휴먼 애니메이터는 오디오 화자의 감정을 분석해 더욱 실감 나는 애니메이션을 생성할 수 있으며, 이를 수동으로 조정해 특정 상황에 맞게 공감할 수 있는 메타휴먼의 연기를 제작할 수 있다. 메타휴먼 애니메이터는 오디오 기반 연기에 실제와 같은 머리 움직임까지 구현하여 더욱 사실적인 결과물을 즉시 만들어 낸다. <그림 7>은 감정을 수동으로 조정할 수 있는 오디오 기반 애니메이션을 보여준다. 윗줄은 왼쪽부터 행복, 슬픔, 혐오를, 아랫줄은 왼쪽부터 화남, 놀람, 두려움을 나타낸다.   그림 7. ‘MetaHuman audio-driven animation’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   어디에서든 활용할 수 있는 메타휴먼 메타휴먼을 언리얼 엔진뿐만 아니라 다른 엔진이나 크리에이티브 소프트웨어에서 사용할 수 있도록 언리얼 엔진 EULA에 새로운 라이선스 옵션이 추가돼, 이제 메타휴먼을 더 다양한 곳에서 만나볼 수 있다. 자세한 내용은 라이선스 페이지에서 확인할 수 있다. 확장된 메타휴먼 에코시스템에는 다른 디지털 콘텐츠 제작 툴의 플러그인 및 스타터 키트 모음이 추가되고 있으며, 여기에는 팹 마켓플레이스 통합도 포함된다.   마야용 메타휴먼 이번 메타휴먼 5.6 출시를 통해 3래터럴의 모든 파이프라인을 누구나 사용할 수 있게 됐다. 리깅 전문가는 마야(Maya)용 메타휴먼을 사용해 캐릭터의 표정을 세밀하게 조정하고 더욱 사실적으로 연출할 수 있다. 또한, 다른 메타휴먼 툴 및 워크플로와의 호환성은 그대로 유지하면서 동시에 마야의 메시 편집 툴세트와 스컬프팅 툴로 메타휴먼 메시를 직접 조작해, 메타휴먼 데이터베이스의 제한을 넘어 독특한 스타일라이즈드 캐릭터나 유사 인간형 캐릭터를 제작할 수 있다.   그림 8. ‘MetaHuman for Maya’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   그룸 아티스트는 이 플러그인으로 마야의 기존 XGen 시스템에서 생성한 메타휴먼 호환 그룸을 Alembic 파일로 익스포트할 수 있다.   후디니용 메타휴먼 후디니(Houdini)의 프로시저럴 툴세트를 활용해 메타휴먼을 위한 포니테일, 매듭, 둥근 올림머리, 땋은 머리, 도넛형 헤어와 같은 복잡한 헤어 스타일을 제작할 수 있다. 후디니용 메타휴먼 플러그인 및 스타터 키트로 후디니에서 메타휴먼 호환 그룸을 생성하고, Alembic 파일 포맷을 통해 언리얼 엔진으로 임포트해 메타휴먼에 손쉽게 적용할 수 있다.   그림 9. ‘MetaHuman for Houdini’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   팹에서 만나는 메타휴먼 모든 디지털 콘텐츠 크리에이터가 디지털 애셋을 검색, 공유, 구매 그리고 판매할 수 있는 에픽의 오픈 마켓플레이스인 팹(Fab)과 제3자 마켓플레이스에서 메타휴먼과 의상, 그룸 등 메타휴먼 호환 액세서리를 구매하고 판매할 수 있다. 5.6 이상의 버전에서 생성된 모든 메타휴먼은 동일한 공통 표준을 준수하기 때문에 여러 캐릭터에 애니메이션, 의상, 그룸을 재사용하고 공유할 수 있다. 이로써 누구나 어디에서든 사용할 수 있는 메타휴먼과 메타휴먼 호환 액세서리의 종류와 범위가 대폭 확대될 것으로 예상되며, 이를 통해 메타휴먼을 프로젝트에 더욱 빠르고 손쉽게 사용할 수 있을 것으로 전망된다.   그림 10. ‘MetaHuman on Fab’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
디지털 작업절차서 통합 시스템
3D 모델링 기반 작업 절차서 지원,  디지털 작업절차서 통합 시스템  개발 및 자료 제공   아이티언, 070-4055-1000, www.itian.co.kr 블로그   https://blog.naver.com/itian-dx  유튜브   www.youtube.com/@itiandxstudio 기업의 가장 중요한 자산은 현장 직원이라고 한다. 공장의 자동화를 추구하지만 글로벌 통계에 따르면 직원의 75%가 현장 근무직이다. 모두가 DX(디지털 전환)를 이야기하지만 현장 근무직의 대부분(약 73%)이 최신 디지털 기술의 도움을 받지 못하고 있다. 디지털 작업지시서 통합 시스템을 통해 이러한 현장 근무자에게 보다 효율적인 디지털 기술을 제공한다. 1. 주요 특징  디지털 작업지시서 통합 시스템은 MES와 PLM(CAD) 등 기반 시스템 데이터를 활용/연계하여 3D 모델링 기반 작업 절차서를 쉽게 제작할 수 있는 기능을 제공한다. 이렇게 생성된 작업 절차서는 3D 뷰어를 통해 현장 작업자에게 직관적으로 전달되며, 필요시 모델 인식 기술을 활용해 실제 제품 위에 AR로 작업 절차서를 표시할 수 있다. 이를 통해 조립 업무의 효율성과 신뢰도를 높이고, 생산성 향상과 품질 안정화를 실현한다. 직관적이고 실시간으로 활용 가능한 디지털 작업지시서는 제조 현장의 디지털 전환을 가속화한다. 2. 주요 기능 1) 매뉴얼 제작 도구(Creo Illustrate)  정비 및 생산 매뉴얼, 사용자 매뉴얼 삽입용 일러스트 제작 도구 3D 모델을 기반으로 손쉽게 정비 매뉴얼 애니메이션 제작 및 단계별 작업 절차서 제작이 가능하다. 2) 작업 절차 Web뷰어(+AR 뷰어)  만들어진 작업 절차서는 웹(Web) 뷰어를 통해 단계별 작업 절차를 확인하며 작업을 진행할 수 있다. 더 나아가 필요시 해당 제품의 형상을 인식하여 모델 인식 기반 AR 기술로 정확한 조립 위치에 대한 안내 및 작업 가이드가 가능하다. 3) 품질검수 AR 솔루션(Smart Inspector) : 웹 기반 품질 검수 저작 도구를 통해 품질 검수 항목을 쉽게 제작하고 제품 인식(모델 인식)을 통해 AR로 품질 검수의 정확한 위치 안내 및 설계 3D 모델과 비교를 통해 보다 정확하게 품질 검수를 수행할 수 있고, 검수 결과는 자동으로 시스템에 저장하고 결과 리포트 및 이력을 관리할 수 있다. 4) 공간인식, 모델 인식 기반 AR원격 협업(iCOLAR)  기존의 원격 협업을 넘어서 작업 공간 인식 또는 제품 형상 인식을 통한 AR기반 원격 협업 솔루션이다. iCOLAR는 영상 미팅, 텍스트 채팅 및 화면/문서 공유와 같은 기본 기능은 물론 실제 3D모델을 활용하여 기존 협업 도구와 차별화를 제공한다.  또한 솔루션의 다각적인 활용을 위해 작업 가이드 및 품질 검수 가이드 템플릿을 제공하여 보다 효율적인 원격 협업을 도와 준다. 5) 기반 시스템 연계 실시간 모니터링(iDT Viewer)  기반 시스템(ERP, PLM, MES등) 연계 생산 현황, 작업 현황 실시간 모니터링 3D 뷰어를 제공한다. 6) 디지털 작업 절차서 관리 시스템을 통한 업데이트 배포 관리 : 설계 변경 등 작업 절차서 업데이트 발생 시 기존의 작업 절차서를 일일이 수정할 필요 없이 업데이트를 반영하여 배포 가능하다. 3. 도입 효과 설계/생산 연결로 작업 시간 단축, 생산/서비스 작업 효율 향상, 제품에 대한 전사적 초기 이해도 증가, 조립 업무 효율 및 신뢰도 향상을 통한 품질 안정화, PDM 및 POP 시스템을 연계하여 편의성 및 작업 효율성 개선, 스마트 팩토리 구축 시 디지털 혁신 기술 활용(상태 모니터링 및 디지털 AR 작업 절차서로 활용), 공간 인식/제품 형상 인식 기술을 활용한 AR 원격 협업으로 보다 효율적이고 정확한 원격 협업이 가능하다. 4. 주요 고객 한화에어로스페이스, SK에너지, 현대자동차, 메가존, LS일렉트릭, 한온시스템, SK온, 현대모비스, HL클레무브, 보스 반도체, 아이모스 시스템 등.     상세 내용은 <디지털 트윈 가이드>에서 확인할 수 있습니다. 상세 내용 보러가기
작성일 : 2025-07-29
[신간] 한 번에 완성하는 AI 영상 제작 with 챗GPT+소라+브루
권유라 지음 / 20,000원 / 제이펍   챗GPT로 기획하고, 소라로 제작하고, 브루로 편집한다.  이제 누구나 영상 창작자가 될 수 있는 시대가 열렸다. 챗GPT로 영상 기획과 프롬프트를 생성하고, 소라(Sora)에 프롬프트를 입력하기만 하면 완성도 높은 영상을 제작할 수 있다. 여기에 브루(Vrew)로 컷 편집과 자막을 더하면, 누구나 전문가 못지않은 결과물을 만들어 낼 수 있다. 이 책은 AI 영상 제작 입문자를 위한 체계적인 가이드를 담았다. 챗GPT, 소라, 브루를 처음 접하는 사람도 차근차근 따라 하다 보면 어느새 AI 영상 제작이 가능해진다. 영상 콘텐츠, 이제 쉽고 빠르게 시작해 보자. 1. AI 영상 제작의 A to Z, 한 권으로 짧게 끝내는 진짜 실용서  챗GPT - 소라 - 브루로 이어지는 AI 영상 제작의 전 과정을 한 권에 담았다. 초보자도 프로그램 간 연계 흐름을 자연스럽게 익히고, 직접 다양한 영상을 제작해 보도록 구성했다. 특히 ‘애니메이션’과 ‘유튜브 쇼츠’, 두 가지 실전 프로젝트를 중심으로 프롬프트 작성부터 영상 스타일 유지, 자막 편집까지 전 과정을 꼼꼼하게 다루어 책의 완성도를 높였다. 단순한 사용법을 넘어, 기획부터 편집까지 이 책으로 한 번에 완성할 수 있다. 2. 챗GPT 100% 활용, 프롬프트 작성부터 기획 노하우까지 AI 영상 제작의 핵심은 ‘프롬프트’이다. 이 책은 챗GPT를 활용해 주제, 세부 설정, 스타일 등 소라에 필요한 프롬프트를 체계적으로 기획하고 다듬는 방법을 설명한다. 덕분에 막연했던 아이디어가 구체적인 스토리로 정리되고, 소라로 자신만의 영상 스타일과 메시지를 구현할 수 있다. 따라 하기만 하는 책이 아니다. 작은 아이디어 하나를 시작으로, 스스로 기획하고 영상을 완성하는 능력을 기르는 데 집중한 실전서이다.
작성일 : 2025-07-22