• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "애니메이션"에 대한 통합 검색 내용이 1,339개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[케이스 스터디] 인더스트리 4.0을 위한 로봇 예측 유지보수의 발전
디지털 트윈과 AI가 시뮬레이션과 현실의 간극을 메우다   제조 시설은 지속적인 문제에 직면해 있다. 정비 일정은 일반적으로 실제 마모와 관계없이 3개월마다 부품을 점검하고 6개월마다 구성 요소를 교체하는 등 엄격한 일정을 따른다. 그 결과 불필요한 점검과 교체로 인한 비효율적인 시간 낭비가 발생하고, 반대로 정비 일정 전에 부품이 고장 나는 일도 생긴다. 센트랄수펠렉-파리 사클레대학교(CentraleSupélec–Université Paris-Saclay)의 지궈 젠(Zhiguo Zeng) 교수와 그의 연구팀은 디지털 트윈 기술과 딥러닝을 결합한 혁신적인 접근 방식을 통해 이 문제를 해결하고 있다. 그들의 목표는 모든 중요 부품에 센서를 배치할 필요 없이 시스템 수준의 모니터링 데이터만으로 로봇 시스템의 구성요소 수준의 고장을 감지하는 것이다. 젠 교수는 “유지보수는 공장에서 매우 큰 문제”라면서, “기계에 유지보수가 필요한 시기를 미리 안다면 주문이 적은 시기에 수리 일정을 잡을 수 있어 생산성 손실을 최소화할 수 있다”고 말했다. 그는 신뢰성 공학과 수명 예측 분야에서 풍부한 경험을 갖고 있지만, 디지털 트윈 기술은 그의 이전 연구와는 결이 다른 새로운 영역이었다. 센트랄수펠렉의 안 바로스(Anne Barros) 교수와 페드로 로드리게스-아예르베(Pedro Rodriguez-Ayerbe) 교수가 주도하는 학제 간 프로젝트인 ‘미래의 산업(Industry of the future)’에 참여하면서, 그는 디지털 트윈이 어떻게 강력한 시뮬레이션 도구를 물리적 시스템에 실시간으로 직접 연결할 수 있는지 깨달았다. 젠 교수는 “디지털 트윈은 결함 진단에 매우 유용하다. 이를 실제 기계의 데이터에 연결하여 그 데이터로 모델을 개선할 수 있다”고 설명했다.  제조업, 자동차, 항공우주 및 기타 분야로 활용 영역이 확대되면서, 디지털 트윈은 인더스트리 4.0에서 유망한 기술 중 하나로 자리잡고 있다. 물리적 객체나 시스템의 가상 복제본인 디지털 트윈(digital twin)을 생성함으로써, 조직은 운영 현황과 유지보수 필요성을 명확하게 파악할 수 있다. 또한 디지털 트윈은 예측 유지 관리 시스템 개발의 어려운 측면 중 하나인 고장 데이터의 부족에 대한 해결책을 제시한다. 젠 교수는 “현실에서는 고장이 자주 발생하는 걸 보기는 어렵다. 그래서 이제는 시뮬레이션을 통해 고장 데이터를 만들어낸다”고 설명했다.   가상과 물리의 가교 역할 디지털 트윈 프로젝트는 물리적 시스템과 가상 시스템 간의 다양한 수준의 통합을 통해 구현 옵션을 제공한다. 젠 교수의 연구팀은 세 가지 서로 다른 수준의 디지털 표현으로 작업했다. 기본 수준에서 디지털 모델은 기존 시뮬레이션처럼 작동하며, 물리적 시스템과 데이터를 교환하지 않는 정적 모델로 오프라인에서 실행된다. 그다음 단계는 디지털 섀도로, 가상 모델이 물리적 시스템의 데이터를 받아 그 행동을 미러링하지만 제어하지는 않는다. 가장 발전된 구현은 데이터와 정보의 양방향 흐름을 갖춘 진정한 디지털 트윈이다. 여기서 모델은 관찰을 바탕으로 스스로 업데이트하고 물리적 시스템을 제어하는 실시간 결정을 내린다. 연구팀은 테스트용으로 ArmPi FPV 교육용 로봇을 선택했다. 이 로봇은 5개의 관절과 하나의 엔드이펙터로 구성되며, 6개의 서보 모터로 제어된다. 결함 진단의 기초가 될 만큼 정확한 디지털 트윈을 만드는 것은 어려운 일이었다. 또한 기존 모니터링 접근 방식의 한계를 해결해야 했다. 젠 교수는 “대부분의 산업 사례에서 베어링을 진단하려면 베어링 수준의 센서가 필요하며, 이는 쉽지 않은 일이다. 내부에 베어링이 있는 큰 기계를 상상해보면 센서를 설치하기 위해서는 기계를 분해해야 하는데 때로는 공간이 충분하지 않을 때도 있다”고 말했다.   그림 1. ArmPi FPV 교육용 로봇(출처 : 센트랄수펠렉)   그들의 접근 방식은 시스템 수준 데이터(로봇 엔드 이펙터의 이동 궤적)를 사용하여 구성 요소 수준의 오류(개별 모터 문제)를 진단하는 것이었다. 또한 디지털 트윈을 사용하여 관찰할 수 있는 것과 감지해야 할 것 사이의 격차를 해소하고자 했다. 연구팀은 시뮬링크(Simulink)와 심스케이프 멀티바디(Simscape Multibody)를 사용하여 디지털 트윈을 구축했으며, 구성요소와 시스템 수준 동작을 모두 나타내는 계층적 모델을 만들었다. 젠 교수는 “모든 것은 시뮬레이션 모델을 설계하는 것으로 시작한다. 동적 시스템과 그 제어기를 모델링하고 싶다면 시뮬링크는 매우 강력하다”고 말했다. 연구팀은 시뮬링크를 사용해 모터 제어기를 PID 제어기로 모델링하면서 실험적으로 조정한 게인 값을 활용했다. 또한, 시뮬링크의 시각화 기능을 적극적으로 활용해 시뮬레이션 데이터와 실제 로봇의 센서 데이터를 연동할 수 있는 인터페이스를 구축하고, 실시간 모니터링 환경을 구성하였다. ROS 툴박스(ROS Toolbox)는 로봇 하드웨어와의 연결에서 유용한 역할을 했다. 젠 교수는 “로봇 운영 체제(Robot Operating System : ROS)를 사용하려면 일반적으로 ROS와 파이썬(Python) 환경을 별도로 구성하고 모든 연결을 직접 처리해야 한다”면서, “ROS 툴박스를 사용하면 이런 설정이 자동으로 관리되기 때문에 많은 노력을 아낄 수 있다”고 설명했다. 연구팀은 AI 모델 학습을 위한 데이터 준비 과정에서는 두 가지 접근 방식을 시도하였다. 먼저, 로봇에 입력되는 모터 명령과 그에 따른 그리퍼(gripper)의 움직임 패턴과 같은 원시 계측값을 기반으로 데이터를 수집하였다. 이후에는 디지털 트윈을 활용한 방식을 도입하였다. 시뮬레이션을 통해 로봇이 명령에 따라 어떻게 움직여야 하는지를 예측하고, 이 결과를 실제 움직임과 비교함으로써 예상과 실제 간의 차이를 도출하였다. 이러한 차이는 미세한 고장을 감지하는 데 유용한 지표로 작용하였다.   그림 2. 심스케이프 멀티바디의 로봇 팔에 대한 시뮬링크 모델(출처 : 센트랄수펠렉)   연구팀은 딥 러닝 툴박스(Deep Learning Toolbox)를 사용하여 장단기 메모리(Long Short-Term Memory : LSTM) 신경망을 훈련하여 특정 실패를 나타내는 패턴을 식별했다. 모델 아키텍처에는 각각 100개의 숨겨진 단위가 있는 두 개의 LSTM 계층, 그 사이의 드롭아웃 계층 및 완전히 연결된 분류 계층이 포함된다. 연구팀은 매트랩 앱 디자이너(MATLAB App Designer)를 사용하여 각 모터의 위치, 전압 및 온도를 포함한 실시간 데이터를 수집하는 그래픽 사용자 인터페이스를 설계했다. 이 인터페이스를 통해 로봇의 상태를 모니터링하고 오류 진단 모델의 예측을 검증할 수 있었다. 이러한 통합 도구들이 원활하게 함께 작동하면서, 연구팀은 소프트웨어 호환성 문제와 씨름하기보다는 효율적으로 기술적 과제 해결에 집중할 수 있었다.   현실 격차에 도전하다 연구팀은 실제 로봇에서 훈련된 모델을 테스트했을 때 연구원들이 ‘현실 격차’라고 부르는 시뮬레이션과 현실 세계 간의 불일치에 직면했다. 결함 진단 모델은 시뮬레이션에서 98%의 정확도를 달성하여 모터 고장의 위치와 유형을 모두 정확하게 식별했지만, 실제 로봇에서 테스트했을 때 성능은 약 60%로 떨어졌다. 젠 교수는 “시뮬레이션이 현실과 일치하지 않는 이유를 분석하고 있다”고 말하며, “실제 세계를 시뮬레이션 상에서 표현할 때 고려하지 못한 요소들이 있다”고 설명했다. 젠 교수와 그의 연구팀은 통신 신뢰성 문제, 시뮬레이션에서 고려되지 않은 모터 노이즈, 제어 명령과 모니터링 활동 간의 동기화 문제 등 성능 격차에 기여하는 여러 요인을 확인했다.   그림 3. 정상 상태 오류에서 로봇 팔의 애니메이션 및 관련 혼동 매트릭스(출처 : 센트랄수펠렉)   이러한 과제는 디지털 트윈 애플리케이션의 광범위한 문제를 반영한다. 현실은 가장 정교한 시뮬레이션보다 더 복잡하다. 연구팀은 낙담하기보다는 실제 노이즈 패턴을 시뮬레이션 하는 모듈을 디지털 트윈에 추가하고 전이 학습에 도메인 적응 기술을 적용하는 등 이러한 격차를 해소하기 위한 방법을 개발했다. 젠 교수는 “디지털 트윈 모델을 개발할 때 보정 테스트를 하긴 하지만, 이 역시 통제된 환경에서 이루어진다”고 말했다. 이어서 “하지만 산업 현장에 모델을 실제로 적용하면 훨씬 더 많은 노이즈가 포함된 데이터를 접하게 된다. 이처럼 현실의 노이즈를 알고리즘 관점에서 어떻게 보정할 것인가는 매우 도전적인 연구 주제”라고 설명했다. 이러한 수정을 통해 연구팀은 실제 세계 정확도를 약 85%까지 개선했다. 이는 실용적 구현을 향한 중요한 진전이다.   소규모 실험실에서 스마트 공장으로 연구팀의 작업은 단일 로봇을 넘어서 확장되고 있다. 이들은 다수의 로봇이 협업하며 생산 라인을 구성하는 소규모 스마트 공장 환경을 구축하고 있으며, 이를 통해 고장 진단 알고리즘을 보다 실제에 가까운 조건에서 실험하고자 한다. 젠 교수는 “우리는 미니 스마트 공장을 구축하려고 한다”면서, “생산 설비와 유사한 환경을 만들어 로봇에 알고리즘을 적용해, 실제 생산 스케줄링에 통합될 수 있는지를 실험하고 있다”고 설명했다. 이러한 접근 방식은 교육적 효과도 크다. 센트랄수펠렉의 공학과 학생들은 수업과 프로젝트를 통해 디지털 트윈, 로보틱스, 머신러닝 기술을 실습 기반으로 학습하고 있다. 젠 교수는 “학생들이 처음부터 가상 공간에서 모델을 직접 설계하고 이를 점차 실제 로봇과 연결해가는 과정을 보면, 그들이 이 과정을 진심으로 즐기고 있다는 걸 알 수 있다”고 전했다. 이 연구는 제조업뿐 아니라 물류, 스마트 창고 등 다양한 산업 분야로의 확장이 가능하다. 예를 들어 스마트 창고에서는 로봇이 정해진 경로를 따라 이동하지만, 장애물이 나타나면 이를 인식하고 경로를 유동적으로 조정해야 한다.   그림 4. 여러 로봇이 소규모 스마트 공장 환경의 생산 라인에서 협력하여 작동한다.(출처 : 센트랄수펠렉)   젠 교수는 “스마트 창고에서 로봇은 사전 정의된 규칙을 따르지만, 패키지가 떨어지고 경로가 막히는 등 경로를 리디렉션하고 다시 프로그래밍해야 하는 경우가 있을 수 있다. 이런 경우 로봇을 조정하기 위해 각 로봇의 실시간 위치를 알아야 하기 때문에 디지털 트윈 시스템이 필요하다”고 설명했다. 연구팀은 구성요소가 고장 날 때 로봇의 움직임을 조정하는 것과 같은 내결함성 제어를 포함한 추가 응용 프로그램을 모색하고 있다. 또한 연구자들은 에너지 소비만 고려하는 것이 아니라, 궤적 최적화 모델에서 각 모터의 성능 저하 수준과 잔여 유효 수명도 고려하는 건전성 인식 제어를 개발하고 있다. 그들의 코드, 모델, 데이터 세트를 깃허브 저장소(GitHub repository)를 통해 자유롭게 공개하고 있으며, 다른 연구자들이 이를 바탕으로 연구를 확장해 나가기를 기대하고 있다. 목표는 개선의 출처가 어디든 간에, 보다 나은 고장 진단 시스템을 구축하는 것이다. 젠 교수는 “누군가 우리보다 더 나은 결과를 만들어낸다면 정말 기쁠 것”이라고 전했다. 중국 제조업 현장에서 일하던 부모님의 영향을 받아 공학자의 길을 걷게 된 젠 교수에게 이번 연구는 단순한 학문적 탐구를 넘어선 개인적인 사명이기도 하다. 젠 교수는 “어릴 때 제조업에서 일하는 것이 얼마나 힘든 일인지 직접 보며 자랐다”면서, “내가 그렸던 비전은 그런 육체 노동을 로봇이 대체하게 해 사람들이 보다 나은 삶을 살 수 있도록 하는 것이었다”고 전했다.   ■ 이웅재 매스웍스코리아의 이사로 응용 엔지니어팀을 이끌고 있으며, 인공지능·테크니컬 컴퓨팅과 신호처리·통신 분야를 중심으로 고객의 기술적 성공을 지원하는 데 주력하고 있다. LG이노텍과 LIG넥스원에서 연구개발을 수행하며 신호처리와 통신 분야의 전문성을 쌓아왔다.     ■ 기사 PDF는 추후 제공됩니다.
작성일 : 2025-10-20
에픽게임즈, 다양한 산업에서 활용할 수 있는 신기능 추가된 ‘트윈모션 2025.2’ 출시
에픽게임즈는 다양한 산업 분야의 크리에이터를 위한 신규 기능 및 개선 사항이 추가된 ‘트윈모션 2025.2(Twinmotion 2025.2)’를 출시했다고 발표했다. 트윈모션은 언리얼 엔진 5를 기반으로 건축과 영화 & TV, 자동차, 제품 디자인 등 다양한 산업 분야에서 빠르게 사실적인 시각화 작업을 지원하며, 직관적이고 쉬운 UI와 강력한 라이브러리 제공을 통해 전문가와 초보자 모두 누구나 손쉽게 사용할 수 있는 리얼타임 3D 시각화 설루션이다.     최신 버전인 트윈모션 2025.2에서는 ▲나나이트(Nanite) 가상화된 지오메트리 ▲빠르고 쉬운 시각화 ▲향상된 렌더링 기능 ▲향상된 애니메이션 ▲버추얼 카메라(VCam) ▲향상된 머티리얼 할당, 편집, 구성 등 다양한 산업 분야의 크리에이터를 위한 새로운 기능과 향상된 워크플로를 제공한다. 2년 전 언리얼 엔진 5의 다이내믹 글로벌 일루미네이션 시스템 ‘루멘(Lumen)’이 트윈모션에 도입된 데 이어, 이번 버전에서는 UE5의 또 다른 기능인 나나이트 가상화된 지오메트리 시스템이 추가됐다. 나나이트는 보이는 데이터만 필요할 때 자동으로 스트리밍하는 기능으로, 수억 개 또는 수십억 개의 폴리곤으로 구성된 여러 개의 초고해상도 복잡한 메시도 실시간 성능을 유지하면서 작업할 수 있다. 이를 통해 파일을 임포트하기 전에 최적화할 필요가 없어 시간을 절약할 수 있다. 메시는 임포트할 때나 임포트 후에도 나나이트로 변환할 수 있으며, 해당 오브젝트의 모든 메시를 일괄 변환할 수 있는 것은 물론 메가스캔 3D 애셋 및 3D 식물, 스케치팹 애셋도 나나이트로 변환할 수 있다. 트윈모션 2025.2 버전에는 빠르고 쉬운 시각화를 위해 기존과 같은 수준의 시각화를 더 빠르고 간편하게 구현하면서도, 성능 부담을 줄여주는 신규 기능이 추가됐다. 먼저, ‘패럴랙스 윈도우’를 지원한다. 패럴랙스 윈도우는 오픈 셰이딩 언어(OSL) 셰이더를 통해 단순한 가벼운 평면에 실내 공간의 깊이감을 만들어 내 복잡한 3D 지오메트리 없이도 방이나 건물 내부를 시뮬레이션할 수 있는 기능이다. 창문을 모델링할 필요 없이 외부 표면에 패럴랙스 윈도우를 배치하기만 하면 된다. 라이브러리에는 사무실, 주거 공간, 헬스장, 소매점 등 27가지 인테리어가 포함된 패럴랙스 윈도우 폴더가 추가됐다. 이와 함께, ‘애니메이션 포그 카드’를 통해 신에 사실감을 손쉽게 구현할 수 있다. 라이브러리 VFX 폴더에 포함된 17종의 새로운 애니메이션 포그 카드를 사용하면 성능에 미치는 영향을 최소화하면서도 드래그 앤 드롭으로 손쉽게 안개를 배치하고 연출할 수 있다. 안개는 신의 바람이나 카드별로 바람 속도, 방향에 따라 반응할 수 있도록 설정이 가능하다. 트윈모션 2025.2는 향상된 렌더링 기능으로 포토리얼한 트윈모션에서 좀 더 자유로운 스타일이 필요할 때 활용할 수 있도록, 해칭, 쿠와하라 필터링, 펜 등 회화 및 스케치 스타일 효과와 같이 더욱 유연하고 향상된 비주얼 퀄리티를 제공하기 위해 전체 ‘FX 포스트 프로세싱’ 시스템을 개편했다. 또한, 이제 .cube 형식의 자체 룩업 테이블(LUT)을 임포트할 수 있어, 특정 컬러 룩을 구현하고 여러 샷이나 프로젝트 간에 컬러 일관성을 유지하며 컬러 그레이딩 과정을 간소화할 수 있다. 정적인 신에서 움직임을 빠르게 시뮬레이션할 때 유용한 ‘스태틱 오브젝트에 선형 또는 방사형 모션 블러 적용’ 기능과 비디오나 시퀀스를 익스포트할 때 더 높은 퀄리티의 사실적인 모션 블러를 적용할 수 있는 옵션도 추가됐다. 트윈모션 2025.2에는 향상된 애니메이션으로 선택한 형태(평면, 원기둥, 구체)에 따라 오브젝트를 원래 위치에서 바깥쪽이나 안쪽으로 이동시켜 기술 프레젠테이션이나 극적인 연출에 활용할 수 있는 분해도 애니메이션 ‘익스플로더’가 추가됐다. 기존의 트랜슬레이터 및 로테이터 애니메이터에도 ‘스태거 오프셋’이 추가돼 오브젝트가 하늘에서 떨어지거나 지면에서 솟아오르는 효과 그리고 순차적으로 회전하는 것과 같이 신에 역동적인 연쇄 연출을 손쉽게 만들 수 있게 됐다. 또한, 애니메이터를 ‘시퀀스 툴’에서 트랙으로 사용할 수 있어, 애니메이션의 시작 시각 변경, 재생 시간 조절, 다른 애니메이션 요소와 동기화하는 것이 간편해졌으며, 애니메이션을 멈추고 정확한 순간을 선택해 촬영할 수 있도록 이미지 속성에 새로운 글로벌 ‘스태틱/리얼타임 애니메이션’ 재생 옵션이 추가됐다. 이번 버전은 촬영감독부터 시각화 전문가에 이르기까지 누구나 활용 가능한 버추얼 카메라(VCam)를 새롭게 지원한다. 트윈모션을 안드로이드 또는 iOS에서 언리얼 VCam 앱에 연결하면 휴대용 디바이스를 움직이는 것만으로 신에 버추얼 카메라를 배치할 수 있다. ‘샷 탐색’ 기능을 활용하면 신을 자유롭게 탐색하면서 카메라 배치, 각도, 노출, 초점, 배율 등의 설정을 1인칭 시점에서 실험해 볼 수 있으며, ‘디자인 리뷰’에서는 가상의 애셋을 실제로 걸어 다니면서 모든 각도에서 살펴볼 수 있다. 트윈모션 2025.2에서는 향상된 머티리얼 할당, 편집, 구성을 통해 머티리얼 도크에서 머티리얼을 폴더로 정리하고 이름으로 검색할 수 있으며, 머티리얼을 알파벳순으로 정렬할 수 있다. 또한 툴바에 ‘멀티드롭’ 툴 버튼이 추가되어 신에서 마우스 클릭 한 번으로 머티리얼을 빠르게 적용할 수 있어 반복적인 드래그 앤 드롭 작업이 필요 없어졌다. 머티리얼 속성 패널을 탭으로 구성해 가독성을 높이는 한편 주요 설정에 더 쉽게 접근할 수 있고, UV, 엑스레이, 양면과 같은 일부 속성을 서로 다른 유형의 여러 머티리얼을 선택해서 일괄 변경할 수도 있다. 이 탭 중 하나는 해당 머티리얼이 어떤 메시에 할당되어 있는지 확인하고 선택할 수 있는 새로운 기능을 제공한다. 이 외에도, 이번 버전에서는 트윈모션 뷰포트 카메라 위치 및 속성을 DCC 뷰포트 카메라와 동기화할 수 있으며, 컨피규레이션 일괄 익스포트, 클라우드 호스팅 콘텐츠 기능, 3D 잔디, 파노라마 세트, 알리아스(*.wire) 파일 테셀레이션 옵션 등 더욱 향상된 다양한 기능을 만나볼 수 있다.
작성일 : 2025-10-01
와콤, 휴대용 크리에이티브 패드 ‘무빙크패드 프로 14’ 출시
와콤이 향상된 성능과 휴대성을 갖춘 안드로이드 올인원 패드 라인업에 크리에이티브 전문가를 위한 모델 ‘와콤 무빙크패드 프로 14(MovinkPad Pro 14)’를 추가 공개했다. 무빙크패드 프로 14는 안드로이드 기반 올인원 패드 라인업인 무빙크패드 시리즈에 추가된 모델로 디지털 드로잉 현업과 크리에이티브 업계에 종사하는 전문 아티스트를 위한 휴대용 창작 기기다. 와콤의 디지털 펜 경험을 바탕으로 창작 전문가들이 모바일 기기를 통해 언제 어디서든 안정적인 창작 작업을 쉽고 편하게 이어갈 수 있도록 설계됐다. 무빙크패드 프로 14는 2880×1800 해상도의 14인치 OLED 디스플레이를 탑재 최대 120Hz 주사율을 지원한다. 또한, DCI-P3 및 sRGB 색역을 100% 지원해 풍부하고 선명한 색감을 구현한다. 여기에 와콤의 프리미엄 텍스처 글라스를 적용해 눈부심 방지, 반사 방지, 지문 방지 기능을 극대화했고, 다이렉트 본딩 기술로 펜과 화면의 단차를 최소화해 부드럽고 쾌적한 작업 경험을 제공한다. 함께 제공되는 와콤 프로 펜 3는 배터리가 없어 충전할 필요 없이 사용 가능한 디지털 펜으로 8192 단계의 필압과 60도 기울기 인식을 지원해, 보다 직관적이고 정밀한 필기 경험을 제공한다. 무빙크패드 프로 14는 먼저 출시된 무빙크패드 11 제품과 같은 안드로이드 태블릿 PC 기반의 포터블 패드로, 스케치 앱인 와콤 캔버스(Wacom Canvas)의 향상된 기능과 ‘클립스튜디오 페인트 데뷰 라이선스 1년권 및 EX 라이선스 3개월권’을 업그레이드 제공한다. 와콤 캔버스 앱의 ‘퀵 드로잉(Quick drawing)’ 기능은 잠금 모드 상태에서 펜을 화면에 살짝 탭 함으로써 곧바로 새 캔버스가 열려 창작자의 아이디어를 빠르게 스케치 및 기록할 수 있다. 무빙크패드 프로 14 출시와 함께 와콤 캔버스 앱은 새롭게 업그레이드돼, 추가된 펜 옵션과 멀티터치 확대 및 축소를 지원한다. 이미지 및 작업물 뷰어 앱인 ‘와콤 셸프(Wacom Shelf)’도 업그레이드돼 파일 관리 효율을 높였다.     무빙크패드 프로 14에는 사전 공개 기능을 체험할 수 있는 ‘와콤 랩(Wacom Lab)’이 새롭게 도입됐다. 특히, 인스턴트 펜 디스플레이 모드(Instant Pen Display Mode)를 통해 무빙크패드 프로 14를 PC나 맥(Mac)에 USB-C 케이블 또는 무선으로 연결해 일반 액정 태블릿처럼 사용할 수 있다. 이 기능은 어디서든 쓸 수 있는 올인원 기기임과 동시에 필요에 따라 작업자의 데스크톱 PC와 연결할 수 있는 옵션을 제공해 워크플로의 효율을 높일 수 있다. 무빙크패드 프로 14는 안드로이드 15 OS를 기반으로 스냅드래곤 8s Gen 3 SoC 옥타코어 CPU, 12GB RAM, 256GB 저장 공간이 내장돼 3D 모델링이나 애니메이션 제작 등의 고사양 작업도 원활하게 처리할 수 있다. 5.9mm의 두께와 699g 무게의 디자인에 10,000mAh 배터리를 갖춰 장시간 안정적인 창작 활동이 가능하다. 신제품은 기본 제공되는 프로 펜 3 외에도 라미, 스테들러, 닥터그립 등 다양한 문구 브랜드의 디지털 펜을 지원한다. 또한, 옵션 액세서리로 제공되는 자석식 커버를 부착해 화면을 안전하게 보호할 수 있다. 와콤 크리에이티브 익스피리언스 유닛의 코지 야노(Koji Yano) 수석 부사장은 “이미 출시한 무빙크패드 11을 통해 컴퓨터 없이도 자유롭게 창작할 수 있는 휴대용 크리에이티브 패드라는 와콤의 새로운 카테고리를 제시했다”며, “이번 무빙크패드 프로 14는 이를 한 단계 발전시켜, 창작 전문가들이 기대하는 디스플레이 품질과 펜의 정밀성, 그리고 유연한 워크플로를 제공한다. 이는 크리에이터들이 오롯이 창작에 몰입할 수 있도록 하겠다는 와콤의 의지를 반영한 것”이라고 전했다.
작성일 : 2025-10-01
어도비, 아이폰용 프리미어 모바일 앱 출시
어도비가 자사의 영상 편집 도구인 어도비 프리미어(Adobe Premiere)를 신규 아이폰 앱을 통해 모바일 환경에서 선보인다고 발표했다. 어도비 프리미어 모바일 앱은 초고속 멀티트랙 타임라인에서 정밀한 편집, 깨끗한 음성 녹음과 완벽한 타이밍의 AI 기반 음향 효과, 스튜디오급 오디오 제작이 가능하다. 독창적인 콘텐츠를 생성하고 수백만 개의 무료 멀티미디어 애셋을 활용할 수 있으며, 모바일에서 제작한 작업물을 프리미어 데스크톱으로 전송해 더 큰 화면에서 세부 조정도 가능하다. 새 모바일 앱은 영상 편집에 필요한 기본 기능을 무료로 제공하며, 추가 저장 공간이나 생성 크레딧이 필요한 경우 업그레이드 플랜(Upgrade Plan)을 선택하면 된다.     아이폰용 프리미어 앱으로 차세대 크리에이터는 정밀한 영상 편집의 강점을 누릴 수 있고, 숙련된 전문가는 이동 중에도 유연하게 편집할 수 있다. 이 신규 모바일 앱은 단편 영화, 뮤직비디오, 유튜브 및 틱톡 콘텐츠, 클라이언트 업무, 개인 프로젝트 등 다양한 콘텐츠 제작과 편집을 가속화한다. 크리에이터는 일상 브이로그를 촬영하고 편집할 수 있으며, 스트리머는 라이브 하이라이트 장면을 클립으로 만들어 공유할 수 있다. 이외에도 팟캐스터는 언제 어디서든 대화를 정리하고 스튜디오급 효과음을 추가할 수 있다. 어도비 프리미어 모바일 앱은 강력한 모바일 편집 툴을 제공하며, 크리에이터가 다양한 기기에서 원활하게 작업할 수 있도록 지원한다. 이동 중에도 편집 프로젝트를 시작하고, 데스크톱에서 프리미어 프로를 통해 정밀하게 편집을 마무리할 수 있는 유연성을 제공한다. 모바일 앱이 제공하는 편집 기능은 다음과 같다. 무제한 초고속 멀티 트랙 타임라인, 4K HDR 편집, 프레임 단위의 정밀 편집, 역동적인 애니메이션 캡션, 부드러운 속도 및 모션 효과, 즉각적인 배경 제거 등 모바일에서도 완전한 크리에이티브 콘텐츠 제어가 가능한 엔드 투 엔드 편집 툴 선명한 보이스오버를 위한 음성 향상 (Enhance Speech)과 완벽한 타이밍의 사운드 요소를 위한 사운드 효과 생성(Generative Sound Effects) 등 스튜디오급 사운드를 제공하는 AI 오디오 툴 AI 기반 스티커부터 매끄러운 배경 확장, 이미지를 비디오로 생성에 이르기까지 독특한 애셋을 어도비의 상업적으로 안전한 생성형 AI를 통해 생성 iOS에 최적화된 빠르고 반응성 높은 성능, 간편한 미디어 관리, 방해 요소와 워터마크 없는 환경에서 영감이 떠오르는 대로 편집 가능 수백만 개의 스티커, 이미지, 어도비 폰트, 로열티 없는 음악 트랙 등 방대한 무료 크리에이티브 애셋을 활용해 콘텐츠에 생동감 부여 틱톡, 유튜브 쇼츠, 인스타그램 등 주요 소셜 플랫폼에 한 번의 터치로 내보내기. 각 플랫폼에 맞게 영상 크기를 조정하고 주요 장면이 프레임을 벗어나지 않게 하는 기능 제공   아이폰용 프리미어 모바일 앱은 전 세계 앱스토어에서 이용 가능하다. 안드로이드용 프리미어 모바일 앱은 현재 개발 중이다. 어도비의 마이크 폴너(Mike Polner) 크리에이터 제품 마케팅 부문 부사장은 “크리에이터에게 전문가 수준의 크리에이티브 콘텐츠 제작 역량을 제공하게 돼 기쁘다”면서, “스튜디오급 오디오, 정교한 편집 툴과 뛰어난 비주얼을 갖춘 아이폰용 프리미어 앱으로 모바일에서도 손쉽게 콘텐츠를 제작하고 공유할 수 있고, 일상적인 순간을 언제 어디서든 완성도 높은 스토리로 바꿀 수 있다”고 말했다.
작성일 : 2025-10-01
HP Z2 미니 G1a 리뷰 : 초소형 워크스테이션의 AI·3D 실전 성능
워크스테이션은 콤팩트한 외형 속에 데스크톱급 성능을 담아낸 전문가용 시스템이다. 단순한 소형 PC와 달리, 3D·영상·AI·엔지니어링 등 고성능이 필요한 크리에이터와 전문 작업자를 위해 설계된 것이 특징이다. 이번 리뷰에서는 실제 소프트웨어 워크플로와 AI·LLM 테스트까지 다양한 관점에서 심층 평가를 진행했다.   ▲ HP Z2 미니 G1a   하드웨어 및 설치 환경 HP Z2 미니 G1a(HP Z2 Mini G1a)의 가장 큰 강점 중 하나는 강력한 하드웨어 스펙이다. AMD 라이젠 AI 맥스+ 프로 395(AMD Ryzen AI Max+ PRO 395) 프로세서(16코어 32스레드, 3.00GHz), 최대 128GB LPDDR5X 메모리, 8TB NVMe SSD, 그리고 16GB VRAM을 탑재한 라데온 8060S(Radeon 8060S) 통합 그래픽 등, 동급 소형 워크스테이션에서는 보기 힘든 구성을 갖췄다. 특히 메모리는 최대 128GB까지 확장 가능하며, 이 중 최대 96GB를 그래픽 자원에 독점 할당할 수 있다. 듀얼 NVMe 및 RAID 지원으로 대용량 데이터 처리와 안정성을 확보했으며, 50TOPS에 달하는 NPU 성능 덕분에 AI 추론 등 최신 워크로드도 소화할 수 있다. 테스트는 윈도우 11 프로 기반, 64GB RAM과 16GB 라데온 8060S, 듀얼 NVMe SSD가 장착된 구성으로 진행됐다.   ▲ HP Z2 미니 G1a의 하드웨어 스펙   전문 소프트웨어 워크플로 직접 HP Z2 미니 G1a를 사용해 본 첫 인상은 “미니 사이즈에서 이 정도 성능이라니?”였다. 크기는 작지만, 성능은 결코 작지 않았다. 시네마 4D(Cinema 4D)로 복잡한 3D 신을 제작하고, 지브러시(ZBrush)에서 대형 폴리곤 모델링과 서브툴 멀티 작업을 해 보니 작업 흐름이 부드럽고, 장시간 동작에도 다운이나 랙 없이 꾸준한 성능으로 작업할 수 있었다. 시네벤치(Cinebench), 시네마 4D, 지브러시, 애프터 이펙트(After Effects), AI 생성형 이미지·영상, LLM 실행 등 전 영역에서 성능 저하를 체가하기 어려웠다. 시네마 4D에서는 수십만~수백만 폴리곤에 달하는 대형 3D 신 파일을 불러오고, 뷰포트 내 실시간 조작이나 배치 렌더링, 애니메이션 키프레임 작업에서 CPU 기반 멀티스레드 성능이 큰 장점을 발휘했다. 시네벤치 2024 멀티코어 점수는 1832점으로, 애플의 M1 울트라보다 높은 수치를 달성해 전문 사용자에게 매력적인 대안이 될 것으로 보인다.   ▲ 시네마 4D에서 테스트   애프터 이펙트 환경에서는 GPU 가속 지원이 부족한 점에도 불구하고, 강력한 CPU 성능 덕분에 고해상도(4K) 다중 레이어 영상 합성, 이펙트, 복수 트랙 편집에서도 랙이나 끊김 없이 작업을 이어갈 수 있었다. 시네마 4D, 지브러시, 콤피UI(ComfyUI) 등과의 멀티태스킹 환경에서도 리소스 병목 없이 쾌적하게 여러 프로그램을 병행 실행하는 것이 가능했다.   ▲ 애프터 이펙트에서 테스트   아이언캐드 대형 어셈블리 테스트 엔지니어링 현장에서 요구되는 대형 어셈블리 작업을 검증하기 위해 동료와 함께 아이언캐드(IronCAD)로 2만여 개(2만 1800개)에 달하는 파트가 포함된 820MB 대용량 CAD 파일을 로딩해 테스트를 진행했다. 이 워크플로는 최근 산업·기계 설계 현장에서 자주 마주치는 극한 환경을 그대로 반영한 조건이었다. 테스트 결과, HP Z2 마니 G1a의 평균 FPS는 약 19로 측정됐다. 이는 노트북용 RTX2060 GPU가 내는 실제 CAD 작업 성능과 동등한 수준에 해당한다. 고용량 모델의 빠른 불러오기, 실시간 3D 뷰 조작, 개별 파트 속성 편집 작업에서 큰 병목이나 지연 없이 효율적인 사용 경험을 확인했다. 대형 파일임에도 불구하고 시스템 자원 부족이나 다운 없이 멀티태스킹 환경에서도 안정적으로 작업이 이어지는 점이 인상적이었다.   ▲ 아이언캐드에서 테스트   AI 및 LLM 활용 AI 작업이나 LLM 실행에서도 강점이 명확했다. 콤피UI에서 Wan2.2, Video-wan2_2_14B_t2v 같은 고사양 텍스트-비디오 생성 모델도 무리 없이 돌릴 수 있었고, LM 스튜디오(LM Studio)와 올라마(Ollama) 기반의 대형 LLM 역시 빠른 추론 속도를 보여줬다. NPU(50TOPS)의 연산 가속과 64GB RAM의 넉넉함 덕분에, AI 모델 로컬 실행/추론에서 항상 안정적인 환경이 보장된다는 느낌이다. 오픈소스 AI 이미지 생성이나 텍스트-비디오 워크플로도 CPU-메모리 조합만으로 병목 없이 부드럽게 동작했다. 쿠다(CUDA)를 지원하지 않는 환경의 한계로 일부 오픈소스 AI 툴은 실행에 제약이 있었으나, CPU와 NPU 조합만으로도 로컬 기반 AI 이미지 생성 및 텍스트-비디오 워크플로에서 동급 대비 빠르고 매끄러운 결과를 보였다.    ▲ 콤피UI에서 테스트   LLM 분야에서는 LM 스튜디오와 올라마를 이용해 7B~33B 규모의 다양한 대형 언어 모델을 구동했다. 64GB RAM과 50TOPS NPU의 지원 덕분에 GPT-3.5, 라마 2(Llama 2) 등 대용량 파라미터 기반의 모델도 실제 업무에서 실시간 질문-응답, 코드 자동완성, 문서 요약 등에 무리 없이 활용 가능했다.   ▲ LLM 테스트   통합 메모리 아키텍처 효과 Z2 미니 G1a의 최고 강점은 UMA(통합 메모리 아키텍처)에 있다. 이 기술은 시스템 메모리(RAM)의 상당 부분을 GPU 연산에 직접 할당해, 기존 분리형 GPU VRAM 성능의 한계를 극복한다. 실제로 탑재된 메모리(64GB~128GB 중 구매 옵션에 따라 선택)를 GPU에 최대 96GB까지 독점적으로 할당할 수 있으며, 복잡한 3D·그래픽 집약적 프로젝트 처리와 생성형 AI·LLM 등의 작업에서 병목 없이 고효율 워크플로를 경험할 수 있었다.   실사용·테스트를 위한 리뷰 환경 제품 리뷰 당시 64GB RAM 탑재 모델을 기준으로, 기본 설정에서는 16~32GB를 GPU에 할당해 일반 CAD·3D·AI 작업을 진행했다. 또한 고해상도 3D 렌더나 생성형 AI 영상 작업에서는 BIOS/소프트웨어에서 48~50GB까지 VRAM 할당을 수동 조정해 본 결과, 대형 프로젝트 파일에서 뷰포트 프레임 저하나 메모리 부족 경고 없이 안정적인 작업 환경을 제공했다. 반대로 GPU에 할당하는 메모리를 늘리면 고용량 데이터 병목이 해결되고, 3D 뷰포트 FPS나 AI 추론 속도 및 이미지 품질·정확도가 확실히 향상되는 것이 일관되게 확인되었다. 실제 기업 환경에서는 128GB 모델을 쓰면 최대 96GB까지 VRAM 할당이 가능하므로 GPU 메모리 병목이 무의미해지고, 기존 미니PC와는 비교할 수 없는 확장성과 작업 안전성을 확보할 수 있다.   아쉬운 점 첫째, 테스트용으로 받았던 장비에서는 HDMI 단자의 부재로 미니 DP로 모니터를 연결해야 했는데, 이는 테스트했던 데모 제품의 기본 옵션에 해당한다. 하지만 HP Z2 미니 G1a는 기업용/구매 시 고객 요구에 따라 HDMI 포트를 포함한 맞춤형 Flex I/O 슬롯 옵션 구성이 가능하다고 한다. 실제로 HP 공식 문서 및 판매 페이지에 따르면, 썬더볼트4(Thunderbolt4), USB-C, 미니 DP 외에도 HDMI를 Flex IO 슬롯에 추가할 수 있으므로, 다수의 모니터·TV·AV 장비로 연결해 사용하는 환경에서도 문제없이 세팅할 수 있다. 둘째, GPU가 AMD 라데온 기반이기 때문에 엔비디아 CUDA를 필요로 하는 GPU 가속 작업(예 : Redshift GPU 렌더러, 딥러닝 프레임워크)은 아예 테스트 자체가 불가능하다. AI, 3D, 영상 워크플로에서 CUDA 생태계를 사용하는 환경에서는 제품 선택 전 미리 확인이 필요하다. 셋째, 고부하 작업 시 팬 소음이 다소 발생할 수 있으므로 조용한 사무실 환경이라면 쿼이엇 모드 설정이 필요하다.   결론 및 추천 HP Z2 미니 G1a 워크스테이션은 한정된 공간에서 고성능이 필요한 크리에이티브 및 AI 전문가, 엔지니어, 디지털 아티스트에게 탁월한 선택지가 될 수 있다. 실제로 써보면, 공간 제약이 있는 환경에서도 3D 모델링, 영상 편집, 생성형 AI, LLM 추론 등 고사양 멀티태스킹을 안정적으로 병행할 수 있었고, 기업용 보안, ISV 인증, 최신 네트워크까지 갖췄다. 다양한 작업을 동시에 손쉽게 처리할 수 있다는 점에서 미니 데스크톱 중에서도 실전 현장에 ‘매우 쓸 만한’ 최상위 선택지라고 생각이 든다. 비록 CUDA 미지원 및 HDMI 포트 부재라는 한계가 있지만, CPU·메모리 중심의 워크플로에선 동급 최고 수준의 안정성과 성능을 보여준다. 최신 AI 및 LLM, 3D·영상·컴포지팅 등 멀티태스킹이 잦은 전문 분야라면 이 제품이 오랜 기간 든든한 실전 파트너가 될 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 배현수 부장 마루인터내셔널(맥슨 한국총판) 기술지원팀, AI 크리에이터, 모션그래픽 디자이너     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
[케이스 스터디] KAI의 언리얼 엔진 기반 차세대 시뮬레이션 에코시스템
비행 훈련부터 제품 개발·운영까지 아우르는 핵심 인프라를 목표로   최근 몇 년 사이 시뮬레이션 산업은 디지털 트윈, AI(인공지능), VR(가상현실)/AR(증강현실) 등 첨단 디지털 기술 중심으로 빠르게 재편되고 있다. KAI(한국항공우주산업)는 이러한 흐름에 발맞춰 언리얼 엔진을 도입함으로써 항공산업 전반에 걸친 디지털 혁신을 추진하고 있다. ■ 자료 제공 : 에픽게임즈   KAI는 KT-1 기본 훈련기, T-50 고등훈련기, 수리온 기동헬기, 송골매 무인기 등 다양한 항공우주 시스템을 자체적으로 설계 및 제작하며, 지난 40년간 항공산업 및 국방산업을 선도해 온 종합 항공우주 설루션 기업이다. 최근에는 소형무장헬기(LAH)와 차세대 전투기 KF-21 개발을 비롯해 위성과 발사체 총조립 등 우주 분야로도 사업을 확대하고 있다. KAI는 2024년 ‘언리얼 페스트 시애틀 2024(Unreal Fest Seattle 2024)’에 참가해 자사의 시뮬레이션 전략을 소개하는 세션을 진행했다. 이번 호에서는 이 발표 내용을 바탕으로 시뮬레이션 산업의 급변하는 흐름 속에서 KAI가 어떻게 대응하고 있는지, 언리얼 엔진을 중심으로 한 시뮬레이션 통합 전략과 실제 적용 사례, 그리고 향후 비전 등을 중심으로 KAI의 기술 혁신에 대해 살펴본다.   ▲ 이미지 출처 : ‘KAI의 언리얼 엔진 기반 차세대 시뮬레이션 에코시스템 | 언리얼 엔진’ 영상 캡처   시뮬레이션 산업의 변화와 KAI의 대응 최근 시뮬레이션 산업은 빠르게 발전하며 구조적인 변화를 겪고 있다. 클라우드 기반 시뮬레이션 도입으로 언제 어디서든 고성능 자원에 접근할 수 있게 되었고, 디지털 트윈, AI, 머신러닝 기술의 결합을 통해 시뮬레이션은 단순한 재현을 넘어 예측과 최적화를 수행할 수 있는 툴로 진화하고 있다. 또한 VR/AR/MR(혼합현실) 기술은 훈련의 몰입감과 현실감을 높여 실제 환경과 유사한 시뮬레이션을 가능하게 하고, 마이크로서비스 아키텍처를 기반으로 한 소프트웨어 설계는 유연성과 확장성을 높이고 있다. KAI는 이러한 디지털 전환에 적극 대응하기 위해 전통적인 레거시 시뮬레이션 시스템을 언리얼 엔진과 통합하고 있다. 핵심 전략은 세 가지이다. 첫째, 언리얼 엔진을 활용한 빠른 프로토타이핑으로 기술 검증과 적용 속도를 높이는 것이다. 둘째, 표준화된 인터페이스를 통해 기존 시스템과의 원활한 연동을 실현하는 것이다. 셋째, 지속 가능한 콘텐츠 개발을 위한 플랫폼 설계로 장기적인 생태계 구축을 추진하는 것이다. 이를 통해 KAI는 기존 자산의 가치를 극대화함과 동시에 급변하는 기술 환경에 유연하고 효율적으로 대응하고 있다.   언리얼 엔진이 변화하는 시뮬레이션 산업에 주는 영향 언리얼 엔진은 시뮬레이션 산업의 진화에 있어 중요한 역할을 하고 있다. 우선 고품질의 리얼타임 3D 그래픽을 통해 현실감 있는 몰입형 시뮬레이션 환경을 구현할 수 있어, 훈련과 테스트의 효율성을 높이고 있다. 또한 VR/AR/MR과의 통합 지원은 다양한 산업에서 실제 같은 체험 기반 학습을 가능하게 한다. 언리얼 엔진의 모듈형 아키텍처와 개방된 생태계는 기존 레거시 시스템과의 통합을 쉽게 하고, 새로운 기술이나 기능을 빠르게 적용할 수 있는 유연성을 제공한다. 특히 디지털 트윈, AI, 머신러닝 등 최신 기술과의 연계가 원활하여 복잡한 시스템의 설계, 유지보수, 운영 효율을 높일 수 있다. KAI와 같은 기업에게 언리얼 엔진은 단순한 툴을 넘어, 지속 가능한 시뮬레이션 콘텐츠를 개발하고 새로운 시뮬레이션 생태계를 구축하는 핵심 기술로 자리잡고 있다.   ▲ KAI의 시뮬레이터로 본 FA-50의 모습(이미지 출처 : KAI)   기존 시스템에 언리얼 엔진을 통합한 사례 KAI는 항공기 훈련 체계에 언리얼 엔진을 도입해 현실성과 효율을 갖춘 시뮬레이터를 개발하고 있다. 대표적으로 VR 시뮬레이터의 경우, 조종사가 풀 플라이트 시뮬레이터에 들어가기 전 VR 기기를 통해 절차와 조작 감각을 사전에 익힐 수 있도록 돕고 있다. 언리얼 엔진으로 실제 항공기와 동일한 가상 조종석을 구현해 이륙/착륙, 비상절차, 항전 장비 조작 등을 별도 교관 없이 반복 학습할 수 있도록 했다. 기존의 시뮬레이터는 실제 항공기 수준의 조작감과 훈련 효과를 제공하지만, 높은 구축 비용과 운영 비용, 전용 시설의 필요 등으로 대량 보급에 한계가 있었다. KAI는 이러한 문제를 보완하기 위해 VR 기술을 도입했다. 언리얼 엔진은 영상 발생 장치, 계기 패널, 입출력 장치 등을 대체한 것은 물론, VR HMD(헤드 마운트 디스플레이) 하나만으로 기존의 여러 장치를 필요로 하는 대형 시현 시스템의 효과를 구현할 수 있게 했다. 또한 KAI는 독자적인 역학 모델과 항전 시스템을 언리얼 엔진의 실시간 렌더링과 결합해 실제 조종과 유사한 수준의 훈련 환경을 제공하고 있다. GIS(지리 정보 시스템), DEM(수치 표고 모델) 등 초정밀지도 기반의 한반도 3D 지형을 재현해 조종사의 임무 지역 지형 학습까지 지원하고 있다. 정비 훈련 분야에서도 언리얼 엔진은 핵심 플랫폼으로 활용되고 있다. 2024년 I/ITSEC 전시회에서 공개된 FA-50 정비 훈련 시뮬레이터는 VR 환경에서 점검과 부품 교체를 실습할 수 있을 뿐만 아니라, 사용자가 직접 교육 과정을 만들 수 있도록 설계됐다. 이를 통해 기존 문서와 평면형 CBT(컴퓨터 기반 훈련), 반복 시나리오 기반의 실습 중심 교육의 한계를 극복할 대안을 제시했다. 또한 같은 행사에서 선보인 수리온 헬기 비행 시뮬레이터(VFT)는 디지털 트윈과 고해상도 시각화를 통해 실제 기체 성능과 지형 정보를 반영한 몰입형 훈련 환경을 제공했다.   ▲ FA-50 비행 시뮬레이션의 디스플레이 장면(이미지 출처 : KAI)   시뮬레이션·시스템 개발에서 언리얼 엔진의 기여도 언리얼 엔진 도입 이후 KAI의 시뮬레이션 제작 파이프라인에는 큰 변화가 있었다. 데이터스미스를 활용해 카티아 등 설계 도구의 3D 모델을 쉽게 불러올 수 있어, 실제 설계 기반의 가상 조종석과 기체 모델을 빠르게 구축하고 별도의 모델링 없이 제작 시간을 줄일 수 있었다. 또한 자체 개발한 비행역학 엔진과 항공전자 시뮬레이션 소프트웨어를 언리얼 엔진과 실시간으로 연동해, 백엔드 시스템과 시각화 프론트엔드를 효과적으로 통합함으로써 전반적인 생산성이 향상되었다. 특히 조종사가 시각과 청각 정보를 통해 상황을 판단하는 VR 시뮬레이터 개발에서는 언리얼 엔진의 렌더링, 사운드, 애니메이션 기능이 핵심 도구로 사용되었다. 물리 기반 렌더링(PBR)은 금속, 유리, 계기판 등 재질을 사실적으로 구현했으며, 파티클 시스템과 머티리얼 노드를 통해 연기, 공기 왜곡 등의 시각 효과도 유연하게 조정할 수 있었다. 사운드 역시 메타사운드를 통해 엔진 RPM이나 환경 변화에 따라 실시간으로 반응하며, 조종사에게 실제 비행과 유사한 감각을 제공했다. 또한 애니메이션 블루프린트를 활용해 조종간, 계기판, 비행 제어면 간 연동 애니메이션의 비주얼을 직관적으로 구현할 수 있었으며, 스카이 애트머스피어, 볼류메트릭 클라우드, 하이트 포그 등의 기능은 대기 표현과 공간 인식 훈련의 몰입감을 높였다. 지형 구현에서도 언리얼 엔진의 LWC(Large World Coordinates)를 통해 수천 km 단위의 지형에서도 고속 이동 시 정밀도를 유지할 수 있었고, 풀 소스 코드를 활용해 AI 훈련 체계에 맞는 좌표 변환, 시스템 연동, 정밀 지형 구조를 구현할 수 있었다. 이 과정에서 실제 지형 데이터, 항공 사진, 고도 정보를 언리얼 엔진에 통합했고, GIS, DEM 기반의 정밀 지형 정보를 효과적으로 활용해 복잡한 비행 경로, 저공 비행 훈련, 목표 탐색 등 고난도 시나리오도 현실감 있게 구현할 수 있었다. 그 결과 KAI는 초대형 지형 데이터, 초정밀 위치 기반 훈련, 외부 시스템과의 정밀한 좌표 연동을 모두 만족하는 차세대 항공기 시뮬레이터 플랫폼을 성공적으로 구축할 수 있었다. 이외에도 다양한 플러그인, 하드웨어 인터페이스, 형상 관리 툴 연동, 이제는 리얼리티스캔으로 변경된 리얼리티캡처, 마켓플레이스 등을 활용하여 프로젝트 확장성과 콘텐츠 제작 유연성이 높아졌다.   ▲ 애니메이션 블루프린트를 활용해 구현한 조종간(이미지 출처 : KAI)   대규모 전술 훈련을 위한 AI 에이전트를 언리얼 엔진에 도입 KAI는 차세대 전술 훈련 시뮬레이터 개발을 위해 강화학습 기반의 AI 에이전트를 실제 훈련 시나리오에 연동하는 작업을 진행 중이다. 특히, 복잡한 전장 환경에서는 다양한 무기 체계와 플랫폼이 동시에 운용되기 때문에, 이를 하나의 시뮬레이션 공간에서 유기적으로 연동하는 기술이 매우 중요하다. 기존 상용 시뮬레이터 설루션의 경우 외부 시스템 연동이나 커스터마이징에 제약이 많지만, 언리얼 엔진은 C++ 기반의 풀 소스 코드 접근이 가능해 이러한 한계를 극복할 수 있다. KAI는 이러한 개방성을 바탕으로 자체 개발한 AI 에이전트를 정밀하게 통합해, 복잡한 상호작용이 필요한 전술 훈련 시나리오에서도 실질적인 이점을 확보할 수 있었다. 이와 같은 통합은 단순히 AI를 활용하는 수준을 넘어, 인간 조종사와 AI가 동일한 시뮬레이션 환경에서 훈련하고 상호 작용할 수 있는 구조를 의미한다. 기존의 설루션으로는 구현하기 어려웠지만 KAI는 언리얼 엔진을 도입해 이를 실현할 수 있었다. 결과적으로 언리얼 엔진은 AI, 실시간 시뮬레이션, 데이터 피드백이 통합된 플랫폼을 제공하며, KAI의 차세대 전술 훈련체계 구현에 핵심 역할을 하고 있다.   ▲ 지형 데이터 통합으로 구현한 대규모 도시 지역 디지털 트윈(이미지 출처 : KAI)   향후 시뮬레이션 에코시스템의 방향과 KAI의 비전 향후 시뮬레이션 에코시스템은 개방성, 지속 가능성, 개인화를 중심으로 발전해 나갈 것이다. AI와 빅데이터를 기반으로 한 맞춤형 훈련 시스템, 클라우드 환경에서의 지리적 제약 없는 고성능 시뮬레이션 그리고 VR/AR, 웨어러블 기술 등을 활용한 몰입형 실시간 피드백 시스템이 표준이 되어갈 것으로 전망된다. 이러한 변화 속에서 KAI는 기술 통합형 플랫폼과 자체 시뮬레이션 에코시스템을 구축하며, 대한민국 시뮬레이션 산업의 지속 가능한 성장 기반을 마련할 예정이다. 언리얼 엔진을 단순한 개발 툴이 아닌 시뮬레이션 엔진으로 활용하며, 플랫폼을 중심으로 고퀄리티 콘텐츠를 빠르게 생산할 수 있는 시뮬레이션 콘텐츠 파이프라인을 개발 중이다. KAI의 비전은 국내를 넘어 글로벌 시뮬레이션 에코시스템과 연결되는 것이다. 언리얼 엔진의 개방성과 기술력을 바탕으로 산업 전반에 걸쳐 공유 가능한 시뮬레이션 플랫폼을 만들고, 이를 통해 다양한 산업, 기관, 개발자가 협력할 수 있는 건강하고 확장 가능한 에코시스템을 조성하는 것이 목표다. 이러한 방향성과 비전을 바탕으로, KAI는 시뮬레이션 기술을 단순한 훈련 도구를 넘어 제품 개발, 유지보수, 운영 효율 개선을 위한 핵심 인프라로 성장시키고자 한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-09-03
에픽게임즈, ‘언리얼 페스트 서울 2025’ 마쳐
에픽게임즈 코리아는 ‘언리얼 페스트 서울 2025’가 성공적으로 개최됐다고 밝혔다. 언리얼 페스트는 개발자와 크리에이터에게 언리얼 엔진 및 에픽게임즈의 에픽 에코시스템을 구성하는 제품에 대한 최신 기술과 제작 경험을 공유하기 위해 에픽게임즈에서 매년 진행하는 글로벌 행사이다. 8월 25일~26일 서울 삼성동 코엑스 그랜드볼룸에서 진행된 올해 ‘언리얼 페스트 2025 서울’에는 1800여 명이 현장을 찾아, 언리얼 엔진 및 에픽 에코시스템 제품들의 최신 기술을 확인하고 다양한 산업에서의 혁신적인 리얼타임 3D 인터랙티브 제작 경험을 공유했다. 온라인 중계 역시 전년 대비 전체 중계 세션이 50% 줄었음에도 불구하고 5000여 명의 시청자 수를 기록했다.     에픽게임즈 코리아 박성철 대표의 환영사와 함께 시작된 ‘언리얼 페스트 2025 서울’에서는 에픽게임즈 팀 스위니 대표가 키노트를 통해 업계의 주요 트렌드를 짚어 보고, 언리얼 엔진 개발자를 위한 새로운 기회와 모든 크리에이터를 위한 리얼타임 3D 오픈 에코시스템을 에픽게임즈가 어떻게 구축해 나가고 있는지에 대한 인사이트를 공유했다. 이어, 빌 클리포드 언리얼 엔진 총괄 부사장이 게임을 넘어 다양한 산업 분야에서 크리에이터들이 언리얼 엔진을 활용해 창의적·기술적 한계를 어떻게 뛰어넘고 있는지 그리고 에코시스템의 미래에 대해 소개했다. 마지막으로, 마커스 와스머 개발 담당 수석 부사장은 최근 언리얼 엔진의 업데이트 내용을 뒤돌아보고 향후의 로드맵을 공유하면서 키노트 발표를 마무리했다. 이후 ▲‘더 위쳐 4 언리얼 엔진 5 테크 데모’ 속 기술 들여다보기 ▲언리얼 엔진 5.6으로 모바일 게임 개발하기 ▲일본 사례로 보는 UE5 그래픽 심층 인사이트 ▲나이아가라로 인터랙티브한 파티클 효과 제작해 보기 등의 게임 트랙 세션과 ▲ UE 5.6과 함께 확 달라진 메타휴먼 : 핵심 업데이트 알아보기 ▲언리얼 엔진 5 애니메이션 리타기팅의 미래 등의 미디어 & 엔터테인먼트 트랙 세션, 그리고 ▲ 언리얼 엔진과 에픽 에코시스템을 통한 시뮬레이션 산업의 혁신과 같은 제조 및 시뮬레이션 트랙 세션 등 다양한 주제의 세션이 이틀에 걸쳐 진행됐다. 파트너사 세션도 진행됐다. 게임 트랙에서는 넥슨게임즈의 듀랑고 IP를 이용한 ‘프로젝트 DX’ 세션, 넷마블몬스터의 ‘몬길 : STAR DIVE’ 세션, 넥슨의 ‘낙원 : LAST PARADISE’ 세션, 스퀘어 에닉스의 라이팅 관련 세션 등 다양한 국내외 게임사들의 세션이 많은 관심을 얻었다. 또한, 애니메이션 ‘킹 오브 킹스’의 제작사 모팩스튜디오를 비롯해 메타로켓, Kong Studios, 사운드얼라이언스 등이 참여한 미디어 & 엔터테인먼트 트랙과 한국항공우주산업(KAI)과 비브스튜디오스, 현대자동차, 삼성중공업, 현대오토에버 등이 참여한 제조 및 시뮬레이션 트랙도 진행됐다.
작성일 : 2025-08-29
HP, 에픽게임즈 ‘언리얼 페스트 2025 서울’ 골드 스폰서로 참여
HP가 8월 25일부터 26일까지 이틀간 열린 에픽게임즈의 ‘언리얼 페스트 2025 서울’ 행사에 골드 스폰서로 참여했다며, 전시 부스를 운영하고 파트너사와 공동 토크 세션을 진행했다고 밝혔다. HP는 골드 스폰서로 참여해 에픽게임즈와의 파트너십을 공고히 하고 미디어 및 엔터테인먼트 분야에서의 리더십을 한층 강화했다고 전했다.  ‘언리얼 페스트’는 언리얼 엔진과 에픽 에코시스템의 최신 기술과 활용 사례를 공유하는 에픽게임즈의 대표적인 연례 행사로 올해는 게임, 미디어, 엔터테인먼트, 제조 및 시뮬레이션 등 다양한 산업별 트랙을 통해 총 38개의 세션으로 진행됐다. HP는 8월 26일 ‘기술 혁신으로 여는 창의적 스토리텔링의 미래’를 주제로 미국 애니메이션 엔터테인먼트 스튜디오 IEL(Immersive Enterprise Laboratories)과 공동 세션을 진행했다. 이 세션에는 IEL의 블레이크 박스터(Blake Baxter) CEO와 다니엘 우르바흐(Daniel Urbach) CCO가 참여해, HP와 엔비디아 기술 기반 AI 파이프라인을 활용한 제작 사례를 공유했다. 이들은 HP Z6 워크스테이션과 엔비디아 RTX 프로 6000 블랙웰을 이용해 빠른 반복 작업, 높은 시각적 완성도, 창작의 자유를 구현한 과정을 소개했다. 한편 HP는 Z by HP 워크스테이션 포트폴리오를 지속적으로 확장하며 미디어 및 엔터테인먼트 분야를 포함한 다양한 산업군에 최적화된 솔루션을 제공하고 있다. 이번 전시 부스에서도 ▲ HP Z6 G5 A 데스크톱 워크스테이션 ▲ HP Z2 타워 G1i ▲ HP ZBook X G1i ▲ Z 디스플레이 등 주요 제품군을 선보였다. 또한, 어도비(Adobe)와 공동 개발한 디지털 스캐닝 기기 ‘HP Z 캡티스(HP Z Captis)’도 함께 전시했다. 김대환 HP 코리아 대표는“언리얼 페스트는 글로벌 크리에이티브 산업의 최신 혁신을 보여주는 대표적인 행사”라며 “HP는 이번 후원을 통해 파트너사와 함께 창작자들에게 차세대 기술 기반 워크플로우를 제시하고, AI 중심의 워크스테이션 혁신을 통해 산업 전반의 창의적 혁신을 가속화하는 데 기여하고자 한다”고 전했다. HP는 최근 워크스테이션 사업 부문에서 AI 중심 혁신 전략을 강화하고 있다. 특히, 크리에이티브 산업의 고도화된 AI 워크플로우 수요에 맞춰, 대규모 데이터 처리 및 AI 기반 콘텐츠 제작에 최적화된 성능을 갖춘 제품 개발에 집중하고 있다. 이를 바탕으로 크리에이티브 산업 전반에 특화된 워크스테이션 포트폴리오를 지속적으로 확대하고 차세대 AI 워크스테이션 제품 혁신을 가속화하며 고객에게 차별화된 가치를 제공할 방침이다.  한편, HP는 스타트업을 대상으로 한 ‘HP 스타트업 챌린지’와 국내 대학생을 위한 ‘AI 연구개발 지원 사업’ 등을 운영하며 고성능 워크스테이션을 제공하고 있다. 이를 통해 유망 스타트업의 성장을 돕고, 학계 연구 인재들이 AI 및 데이터 사이언스 분야에서 역량을 발휘할 수 있도록 지원하는 등 미래 기술 생태계 조성에 힘쓰고 있다고 전했다.
작성일 : 2025-08-27
어도비, 파이어플라이 및 익스프레스에 구글 제미나이 2.5 플래시 이미지 모델 탑재 
어도비가 파이어플라이(Adobe Firefly) 및 어도비 익스프레스(Adobe Express)에서 구글 제미나이 2.5 플래시 이미지(Gemini 2.5 Flash Image) 모델을 지원한다고 발표했다. 어도비 파이어플라이와 익스프레스 통해 제공되는 제미나이 2.5 플래시 이미지 모델을 통해 사용자는 더 쉽게 뛰어난 콘텐츠를 제작하고 아이디어를 빠르게 실현할 수 있다.  앞으로 소셜 크리에이터는 파이어플라이에서 제미나이 2.5 플래시 이미지 모델을 활용해 일관된 스타일의 그래픽 시리즈를 제작하고, 이를 어도비 익스프레스로 가져와 애니메이션, 사이즈 조정, 프롬프트 기반 캡션 생성 및 소셜 채널 게시까지 한 번에 작업할 수 있다. 마케터와 기업 사용자는 어도비 익스프레스에서 제미나이 2.5 플래시 이미지 모델을 통해 기존 캠페인 애셋을 소셜 콘텐츠, 전단지, 프레젠테이션, 이메일 그래픽 등 다양한 포맷으로 손쉽게 제작하는 것은 물론, 배경 교체, 개체 삽입, 이미지 변형 등을 몇 분 만에 실행해 브랜드 가이드에 맞는 사실적인 결과물을 빠르게 얻는 것이 가능하다. 디자이너의 경우 파이어플라이에서 제품 콘셉트나 캐릭터 디자인 시안을 빠르게 만들고, 다양한 방향성을 탐색하며, 포토샵이나 일러스트레이터에서 정교한 편집을 이어갈 수도 있다.     어도비는 크리에이터들에게 폭 넓고 다양한 생성형 AI 모델을 제공하기 위해 어도비 파이어플라이와 어도비 익스프레스를 통해 이미지, 영상, 벡터, 오디오 전반에 걸쳐 상업적으로 안전한 파이어플라이 생성형 모델군을 제공함은 물론 구글, 오픈AI, 블랙 포레스트 랩스(Black Forest Labs), 런웨이(Runway), 피카(Pika), 이디오그램(Ideogram), 루마 AI(Luma AI), 문밸리(Moonvalley) 등 파트너사의 생성형 AI 모델까지 선택할 수 있도록 한다고 소개했다. 생성형 AI 모델은 각기 고유한 심미적인 스타일을 지니고 있다. 어도비는 워크플로나 플랫폼을 전환하지 않고도 작업 목적에 맞는 모델을 선택해 활용할 수 있는 유연성을 제공한다. 보다 정밀한 제어를 원하는 크리에이티브 전문가는 어도비 포토샵(Adobe Photoshop), 어도비 일러스트레이터(Adobe Illustrator), 어도비 프리미어(Adobe Premiere) 등 크리에이티브 클라우드(Creative Cloud) 앱을 통해 세밀하게 조정하거나 편집할 수 있다. 어도비는 자사의 제품 내에서 어떤 생성형 AI 모델을 선택하더라도, 어도비 앱에서 생성하거나 업로드한 콘텐츠는 생성형 AI 모델의 훈련에 사용되지 않는다고 전했다. 어도비 파이어플라이 생성형 AI 모델은 이를 항상 준수하며, 파트너십 계약 시에도 필수 조건으로 명시하고 있다. 또한 투명성을 강화하기 위해, 어도비 파이어플라이와 어도비 익스프레스에서 전적으로 AI로 생성된 모든 콘텐츠에는 콘텐츠 자격증명(Content Credentials)이 첨부된다. 한편, 제미나이 2.5 플래시 이미지 모델은 파이어플라이의 텍스트를 이미지로(Text to Image) 모듈, 파이어플라이 보드(Firefly Board, 베타) 및 어도비 익스프레스에서 바로 사용할 수 있다.
작성일 : 2025-08-27
언리얼 페스트 2025 서울 개막… UE6 통합 비전과 산업별 활용 전략 제시
에픽게임즈가 8월 25일 서울 코엑스에서 ‘언리얼 페스트 2025 서울’ 행사를 개막했다. 이번 행사는 게임·제조·미디어&엔터테인먼트 등 3개 산업 트랙과 38개 세션을 통해 언리얼 엔진의 최신 기술 및 크리에이터 생태계 전략을 공유하며, 서울을 아시아 개발 허브로 자리매김하게 하는 계기가 됐다. ▲ 에픽게임즈 팀 스위니 CEO ▲ 언리얼 페스트 2025 행사장 전경 기조연설에서 에픽게임즈 팀 스위니 CEO는 차세대 엔진의 청사진을 제시하며 “언리얼 엔진의 강력함과 UEFN(언리얼 에디터 포 포트나이트)의 직관성과 접근성이 결합될 때, 그것이 차세대 언리얼 엔진(UE6)의 힘이 될 것”이라고 언급했다. 또한 제작된 게임·콘텐츠를 플랫폼에 구애받지 않고 배포하며, 나아가 서로 다른 게임 간 상호운용성을 구현하는 것이 목표라고 밝혔다. UEFN 생태계는 출시 2년 만에 급성장했다. 에픽게임즈에 따르면 지금까지 26만 개 이상의 아일랜드가 제작됐으며, 누적 플레이 시간은 112억 시간을 넘어섰다. 이번 행사에서는 AI NPC 제작 도구, Verse 코드 어시스턴트, Scene Graph 베타 등 차세대 툴이 공개됐으며, LEGO·오징어게임·스타워즈 등 글로벌 IP도 포트나이트 크리에이티브에 순차적으로 제공될 예정이다. ▲ 에픽게임즈 코리아 박성철 대표 ▲ 언리얼 페스트 2025 행사장 전경 한편 EGS(에픽게임즈 스토어)의 정책 변화도 소개됐다. 에픽은 일정 매출 구간까지 수수료를 면제하고 이후 88:12 수익 배분 구조를 적용하는 새로운 정책을 예고했으며, 웹샵(Web Shops) 도입과 인앱 리워드(5%) 제공, iOS(EU) 및 Android 진출 계획, 모바일 퍼블리싱 기능 등을 준비 중이다. 지금까지 EGS는 개발자와 퍼블리셔에게 21억 달러 이상을 지급하며 글로벌 유통 플랫폼으로 성장했다. EOS(에픽 온라인 서비스)는 크로스플레이, 매치메이킹, 음성·텍스트 채팅, 업적 등 다양한 기능을 무료로 제공해왔으며, 올해 안에는 콘솔·PC·모바일을 아우르는 소셜 오버레이가 도입될 예정이다. 산업별 트랙에서는 ▲게임 분야(UE6 비전, UEFN·Verse 활용, 국내외 주요 게임사 사례 발표) ▲제조·시뮬레이션 분야(현대오토에버, 삼성중공업, KAI 등 실제 적용 사례) ▲미디어&엔터테인먼트 분야(디지털 휴먼, 애니메이션, 라이브 이벤트 사례) 등이 공유됐다. ▲ 언리얼 페스트 2025 미디어 라운드테이블에 참석한 팀 스위니 에픽게임즈 CEO(가운데)와 박성철 에픽게임즈 코리아 대표(오른쪽) 언리얼 페스트 2025 서울은 엔진·플랫폼·스토어·소셜을 아우르는 에픽 생태계 전략을 총체적으로 조망한 자리였다. UE6 비전, UEFN 확장, EGS 정책 변화, EOS 소셜 강화는 “창작 → 배포 → 수익화 → 커뮤니티”로 이어지는 창작 생태계 순환 구조를 이루는 핵심 축으로 제시됐다. 이번 행사는 내일까지 계속된다.
작성일 : 2025-08-25