• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "프로젝션"에 대한 통합 검색 내용이 57개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
DJI, 기업용 플래그십 드론 플랫폼 매트리스 400 출시
DJI가 새로운 기업용 플래그십 드론 플랫폼인 ‘DJI 매트리스 400(DJI Matrice 400)’을 출시한다. 이 제품은 최대 59분의 비행 시간, 6kg의 페이로드, 라이다(LiDAR) 및 mmWave 레이더 기반의 정밀 장애물 감지 시스템 등 전반적인 성능이 향상되었다. DJI O4 엔터프라이즈(Enterprise) 영상 전송 시스템과 공중 릴레이 기능도 탑재해 영상 전송의 안정성과 효율성이 강화되었으며, 수색·구조, 송전선 점검, 대규모 매핑, 엔지니어링 및 건설 등 다양한 산업 목적 및 현장에 최적화되도록 설계되었다.     매트리스 400은 페이로드 탑재 상태에서도 최대 59분의 비행, 53분의 호버링이 가능하다. IP55 등급의 방진·방수 성능으로 -20℃에서 50℃까지의 극한 환경에서도 안정적인 운용이 가능하다. 라이다, mm-Wave 레이더, 저조도 풀 컬러 어안 비전 센서를 통해 야간 산악 지형의 고압선 과 같은 소형 장애물까지 감지하며, 최대 25m/s의 고속 비행 중에도 안정적으로 장애물을 피할 수 있다. 비전 포지셔닝 시스템은 복귀 지점이 업데이트되지 않아도 안정적인 복귀를 가능하게 한다. 또한 매트리스 400은 새로운 스마트 감지(Smart Detection), 스마트 AR 프로젝션(Smart AR Projection) 등 다양한 지능형 기능을 통해 작업 효율을 높인다. 예를 들어, Power Line AR 기능은 장애물을 인식해 조종기 화면에 시각화하여 회피를 돕는다. DJI O4 엔터프라이즈 전송 시스템은 최대 40km 거리에서 고품질 영상 전송을 가능하게 하며, 내장형 영상 중계 모듈은 네트워크 연결을 방해하는 요소가 많은 환경에서도 운영 범위를 크게 확장할 수 있다.  매트리스 400은 4개의 외부 E-Port V2를 통해 최대 7개의 페이로드를 동시에 장착할 수 있으며, 최대 탑재 하중은 6kg이다. 단일 및 듀얼 하향 짐벌 간 전환이 자유롭고, 세 번째 짐벌 포트도 지원한다. DJI 및 타사 페이로드와 호환되며, Zenmuse H30 시리즈, L2, P1, S1, V1, Manifold 3 등 넓은 호환성을 제공한다. DJI는 “사용자 동의 없이 사진·영상이 DJI와 공유되지 않으며, 미국 내 사용자는 비행 로그와 DJI 서버를 동기화할 수 없다”면서 강화된 보안 기능도 설명했다. 로컬 데이터 모드(Local Data Mode)를 활용하면 앱의 네트워크 연결을 차단하여 민감 데이터 보호가 가능하다. DJI의 크리스티나 장(Christina Zhang) 기업 전략 담당 수석 이사는 “DJI는 오랜 기간 동안 엔터프라이즈 드론을 통해 안정성, 효율성 및 신뢰성의 새로운 기준을 제시해왔다. 전 세계 다양한 산업 분야의 전문가들은 수색 및 구조 임무, 상황 인식, 상업적 작업에 DJI 드론을 적극 활용하고 있다”면서, “DJI 매트리스 400은 거의 한 시간에 달하는 비행 시간과 사람과 자산의 안전을 보장하는 지능형 기능을 통해 드론 기술의 한계를 다시 한 번 넓혔가고 있다”라고 말했다.
작성일 : 2025-06-11
[케이스 스터디] 노트르담 대성당의 영광스러운 복원을 선보인 언리얼 엔진 5 라이팅
리얼타임 3D 기술을 도입하여 한층 발전된 프로젝션 매핑 구현   화재로 큰 피해를 입은 파리의 노트르담 대성당이 5년에 걸친 복원 끝에 재개관했다. 복원된 성당을 더욱 돋보이게 한 프로젝션 매핑 작업은 언리얼 엔진의 실시간 렌더링 기술을 활용해 역사적 건축물을 사실적이고 정교하게 되살린 혁신적인 사례로 주목받고 있다. ■ 자료 제공 : 에픽게임즈   ▲ 이미지 제공 : 코스모 AV    2019년 4월, 파리의 상징인 노트르담 대성당에서 끔찍한 화재가 발생했다. 건물 처마 밑에서 시작된 불길은 곧 첨탑과 목조 지붕 대부분을 집어삼키며 다음 날 아침까지 밤새 타올랐다. 이후 장대한 복원 프로젝트가 진행되었으며, 5년에 걸쳐 1200명 이상의 인원이 재건에 힘을 쏟았다. 채석장 작업자와 목수, 모르타르 제조자, 석공 등 숙련된 장인이 고용되어 12세기 건축 당시와 똑같은 재료와 기법으로 대성당을 재건했다.  2024년 12월, 잿더미에서 부활한 노트르담 대성당의 재개관식이 TV 시청 황금 시간대에 방송되었다. 프랑스 텔레비지옹(France Télévisions)은 복원된 대성당의 영광스러운 모습을 선보이기 위해 비디오 매핑 회사인 코스모 AV(Cosmo AV)에 의뢰했고, 코스모 AV는 프로젝션 매핑 전문가 앙투안 부르구앵(Antoine Bourgouin)에게 재개관식을 위한 멋진 건축 라이팅을 제작해 달라고 요청했다.   ▲ 이미지 제공 : 코스모 AV   언리얼 엔진을 사용한 프로젝션 매핑 지난 2010년, 앙투안 부르구앵은 거대한 트롱프뢰유를 보여줄 캔버스로 건물을 사용하는 데 처음 관심을 갖게 되었다. 트롱프뢰유는 ‘눈속임’이라는 뜻의 프랑스어로, 2차원 표면에 3차원 공간과 물체를 표현하는 극사실적인 착시 기법을 나타내는 미술 용어다. 이는 주로 회화에서 관람자가 그림 속의 사물이나 공간을 실제처럼 인식하도록 속이는 기법을 일컫는다. 초기에는 이러한 종류의 작업을 구현할 수 있는 툴이 시중에 없어, 건물의 윤곽과 규모에 맞는 비주얼을 제작하려면 직접 컴퓨터 프로그램을 개발해야 했다. 하지만 부르구앵은 비디오 프로젝터 컨트롤러와 같은 역할을 하는 소프트웨어인 모듈로 플레이어(Modulo Player)를 사용하여 벽이나 건물과 같은 표면에 영상을 투영하여 재생하고, 각 표면에 맞게 영상을 정밀하게 변형시키고 조정할 수 있도록 했다. 특히, 부르구앵은 이 과정에 리얼타임 기술을 도입하여 프로젝션 매핑 기술을 더욱 발전시키고 있다. 전통적인 비디오 매핑은 사전 녹화된 영상을 투영하는 방식이었지만, 부르구앵은 언리얼 엔진을 사용해 개발한 비주얼을 실시간으로 건물에 투영한다. 이러한 혁신적인 아이디어로 그는 플레이어의 스마트폰을 게임 패드처럼 사용하는 비디오 게임을 제작하겠다는 아이디어로 메가그랜트를 지원하게 되었다. 이러한 아이디어를 실현하고자 부르구앵은 코스모 AV의 CEO이자 인텐스시티(IntensCity)의 공동 설립자인 피에르 이브 툴로(Pierre-Yves Toulot)를 만났다.    ▲ 이미지 제공 : 코스모 AV   3D 모델에 라이팅 매핑 코스모 AV는 프랑스 국영 텔레비전 방송사인 프랑스 텔레비지옹으로부터 노트르담 대성당 재개관을 위한 프로젝션 매핑 비주얼 제작을 의뢰받았다. 그 요청 중 하나는 대성당의 외관을 돋보이게 할 아름다운 라이팅 연출을 제작하는 것이었다. 툴로와 부르구앵은 이전에도 비슷한 프로젝트에서 협업한 적이 있었는데, 특별하면서도  우아함이 필요한 작업에서는 뛰어난 전통 건축 라이팅 디자이너인 장 프랑수아 투샤(Jean-François Touchard)의 기술을 활용했다. 툴로가 노트르담 프로젝트에 부르구앵과 투샤를 합류시킨 것은 당연한 결정이었다. 먼저 부르구앵은 노트르담 대성당의 3D 스캔 모델을 언리얼 엔진으로 가져왔고, 이 과정은 FBX 파일을 임포트하는 것만큼이나 간단했다. 부르구앵은 “언리얼 엔진과 나나이트(Ninite) 기술 덕분에 이제는 임포트한 메시의 폴리곤 밀도에 더 이상 신경 쓰지 않아도 된다. 노트르담 모델은 400만 개의 트라이앵글로 구성된 메시 구조였지만, 현재 언리얼 엔진에서는 이 정도의 폴리곤 수를 아주 쉽게 처리할 수 있다”고 말했다. 나나이트는 언리얼 엔진 5의 가상화된 지오메트리 시스템으로, 성능에 미치는 영향을 최소화하면서 방대한 양의 폴리곤으로 구성된 디테일한 3D 모델을 제작할 수 있다. 이 시스템은 활용해 대성당의 매우 정밀한 메시를 렌더링하는 데 쓰였으며, 가장 작은 디테일까지 정확하게 구현할 수 있었다. 팀은 대성당의 모든 디테일을 강조하기 위해 3D 모델에 옴니 라이트, 스포트 라이트, 렉트 라이트 등 500개의 라이트를 배치했다. 이 라이트는 강도와 온도, 색상이 조화를 이루도록 하는 것이 중요했다. 부르구앵은 “조작해야 하는 라이트의 수량이 이 프로젝트에서 가장 큰 과제였다. 하지만 즉석에서 바로 만든 블루프린트를 사용하고 라이트 액터에 태그를 지정하여 다른 그룹을 나누는 방식으로 매우 원활하게 작업할 수 있었다”고 설명했다. 툴로는 아트 디렉터 역할을 했고, 장 프랑수아는 대성당의 디테일한 부분에 대한 라이팅을 실제로 구현하는 데 전문성을 발휘했다. 팀은 조각상마다 두세 개의 스포트 라이트를 배치하고 그림자를 세심하게 조작하여 조각상의 형태와 입체감을 강조했다. 또한, IES(Illuminating Engineering Society)의 라이트 프로파일을 사용해 3D 라이팅이 실제 라이트처럼 각 아치와 발코니, 기타 건축 요소의 디테일과 정확하게 일치하도록 했으며, 깊이를 강조하기 위해 라이트 온도를 조정했다. 라이팅 구성을 이미지로 렌더링한 다음 모듈로 플레이어 시스템과 연결된 30대의 고광도 파나소닉(Panasonic) 비디오 프로젝터를 사용하여 노트르담 대성당에 투영했다.   ▲ 이미지 제공 : 코스모 AV   메가라이트와 루멘 활용 노트르담 프로젝트에서 팀은 사전 녹화된 영상을 대성당에 투영할 예정이었지만, 리얼타임 기술을 사용하면서 라이팅 디자인에서 많은 이점을 얻을 수 있었다. 라이팅이 실제 건물에서 어떻게 보일지 테스트하기 위해 팀은 현장에서 언리얼 엔진으로 3D 모델을 바로 업데이트하여, 대성당에서 즉시 결과를 확인하고 필요에 따라 조정할 수 있었다. 부르구앵은 언리얼 엔진으로 작업을 완성할 수 있었던 주요 이유로 나나이트와 결합된 강력한 라이팅 시스템의 성능을 꼽았다. 부르구앵은 “라이트 수가 많은 하이 폴리곤 메시에서 직관적인 편집 방식(WYSIWYG)으로 원활하게 작업할 수 있었다. 이로써 기존의 3D 모델링 소프트웨어에서처럼 렌더링 결과를 상상할 필요가 없었다”고 말했다. 또한 최근 언리얼 엔진 5.5에 출시된 강력한 신규 기능인 메가라이트에 대해서도 높이 평가했다. 메가라이트는 아티스트가 신(scene)에 다이내믹 섀도를 드리우는 수백 개의 라이트를 추가할 수 있게 해주는 실험적인 도구다. 언리얼 엔진의 다이내믹 글로벌 일루미네이션 및 리플렉션 기능인 루멘과 함께 사용하면 매우 사실적인 라이팅을 구현할 수 있다. 부르구앵은 “메가라이트는 상당히 유용한 기능 중 하나였다. 실시간으로 그림자를 유지하면서 수백 개의 라이트로 작업할 수 있었다. 루멘을 보완하는 환상적인 기능”이라고 말했다.   되찾은 노트르담의 영광 툴로, 장 프랑수아와 함께 한 부르구앵의 라이팅 작업은 파리에서 가장 유명한 기념물 중 하나인 대성당의 재개관식에서 중요한 역할을 했다. 언리얼 엔진 덕분에 팀은 복원가들의 놀라운 작업을 빛내고 노트르담 대성당의 영광스러운 모습을 선보일 수 있었다. 부르구앵은 “파리의 노트르담 대성당은 프로젝션 매핑 작업을 하는 사람들이라면 누구나 꿈꾸는 건물 중 하나다. 이 작업에 기여할 수 있32 · 어서 정말 큰 영광이었다”라고 말했다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-05-02
CAD&Graphics 2025년 5월호 목차
  INFOWORLD   Editorial  17 로봇이 달리는 시대, 인간은 어디로 달려가는가?   Hot Window  18  캐드앤그래픽스 디지털 트윈 설문조사 분석 : 디지털 트윈에 대한 기대 속에 실질적 도입과 확산 위한 노력 필요   Case Study  24 노트르담 대성당의 영광스러운 복원을 선보인 언리얼 엔진 라이팅 리얼타임 3D 기술을 도입하여 한층 발전된 프로젝션 매핑 구현 27 미래 모빌리티를 위한 자율주행 시뮬레이터, 모라이 심 실시간 3D 엔진을 활용해 더욱 현실적인 시뮬레이션 구축   People & Company  30 AWS 황민선 파트너 세일즈 매니저, 에티버스 김준성 전무 AI와 산업 전문성 결합해 클라우드 기반 제조 혁신 도울 것   Focus  34 DN솔루션즈, 금속 3D 프린터 'DLX 시리즈'로 제조 혁신 선도한다 37 유니티, “게임을 넘어 다양한 산업으로, 3D 시각화와 AI 통해 혁신 지원” 40 델, ‘AI PC 시대’ 주도 선언… 통합 브랜드 제품 대거 출시   New Products  43 이달의 신제품   On Air 44 캐드앤그래픽스 CNG TV 지식방송 지상중계 공기업 BIM 적용 지침에 따른 설계·시공 프로세스 변화와 대응 전략 46 캐드앤그래픽스 CNG TV 지식방송 지상중계 디지털 공급망 관리로 산업 건설 프로젝트의 비효율 해소 47 캐드앤그래픽스 CNG TV 지식방송 지상중계 의료 AI를 활용한 가상현실 기반 임상 실습 교육 소개   Column 48 트렌드에서 얻은 것 No. 23 / 류용효 실용형 AI, 제조의 미래를 바꾸다   54 New Books    Directory  131 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA    Visualization  84 AI 크리에이터 시대 : 영상 제작의 새로운 패러다임 (2) / 최석영 AI 기반 크리에이티브 워크플로 혁신   AEC 56 새로워진 캐디안 2025 살펴보기 (6) / 최영석 유틸리티 기능 소개 Ⅳ 60 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 오픈마누스 AI 에이전트의 설치, 사용 및 구조 분석 68 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2026 (2) / 천벼리 오토캐드 전환 지원과 AI 기반 생산성   범용 CAD  71 오토캐드 2026의 새로운 기능과 개선사항 / 양승규 AI 기반 기능 및 성능이 향상된 오토캐드 2026   Reverse Engineering  78 시점 - 사물이나 현상을 바라보는 눈 (5) / 유우식 변화와 흐름의 관찰   Mechanical  91 산업 디지털 전환을 가속화하는 버추얼 트윈 (2) / 최윤정 카티아 VMU를 활용한 설계 검증 혁신 94 제품 개발 혁신을 가속화하는 크레오 파라메트릭 11.0 (12) / 박수민 도면 기호 생성하기   Analysis  100 앤시스 워크벤치를 활용한 해석 성공 사례 / 김혜영 앤시스 LS-DYNA의 리스타트 기능 및 활용 방법 104 최적화 문제를 통찰하기 위한 심센터 히즈 (3) / 이종학 수집 또는 측정된 외부 데이터의 시각화 및 데이터 분석 110 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (21) / 나인플러스IT 차세대 자동차 설계를 위한 DNS, LES, RANS 시뮬레이션 115 MBSE를 위한 아키텍처–1D 모델 연계의 중요성 및 적용 전략 (1) / 오재응 아키텍처 모델과 1D 모델의 전략적 연계   PLM  126 BPMN을 활용하여 제품 개발의 소통과 협업 극대화하기 (3) / 윤경렬, 가브리엘 데그라시 비즈니스 프로세스 모델링을 배워보자       캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기
작성일 : 2025-04-24
[포커스] 3D시스템즈, 제조산업을 위한 3D 프린팅 비전과 기술 소개
3D시스템즈코리아는 지난 9월 5일 ‘적층제조 테크 서밋’ 행사를 진행했다. ‘생산성 가속화를 위한 3D시스템즈의 진화’를 주제로 한 이번 행사에서 3D시스템즈코리아는 생산 제조 분야를 겨냥한 자사의 3D 프린터 신제품과 활용 사례를 소개하면서, 생산 기술로서 3D 프린팅의 가능성과 비전을 선보였다. ■ 정수진 편집장    3D 프린팅 기술로 제조 혁신 지원할 것 3D시스템즈코리아의 정원웅 대표이사는 “3D시스템즈는 40년 전 SLA(스테레오리소그래피) 기술의 특허를 출원했으며 3D 프린터를 처음으로 개발한 기업이다. 현재는 9개의 플랫폼과 130여 개의 소재를 개발하고 있으며, 하드웨어뿐 아니라 산업별 애플리케이션을 위한 소프트웨어 분야에 대한 투자도 꾸준히 진행하면서 적층제조 솔루션 공급업체로 차별화를 추진 중”이라고 소개했다. 3D시스템즈는 산업 분야와 의료 분야를 중심으로 3D 프린팅 기술을 개발/공급하고 있으면서, 인수합병을 통해 다양한 시장을 겨냥한 솔루션 공급에 나서고 있다. 정원웅 대표이사는 적층제조(AM)에 대한 비전으로 ▲필요한 시점에 부품을 생산 ▲복잡성 및 다양성의 극복 ▲공급망의 단순화 및 최적화 ▲인더스트리 4.0과의 결합 및 시너지 등을 꼽았다. 또한 정원웅 대표이사는 “대량생산, 복잡한 형상, 기존 프로세스의 고비용 등 과제를 해결하고자 적층제조를 고민하는 기업이 많다. 아직은 적층제조 기술이 도입 단계로 검증에 시간이 필요한 상황이지만, 많은 기업이 연구와 검증을 시작하고 있으며 성숙 단계로 나아가기 위한 움직임이 활발해 미래가 기대된다”면서, “3D시스템즈는 고객의 프로세스를 최적화하고 효율화하기 위한 혁신 역량을 제공할 것”이라고 전했다.   ▲ 3D시스템즈코리아 정원웅 대표이사   대형 부품의 적층제조를 위한 펠릿 압출 기술 3D시스템즈코리아는 이번 ‘적층제조 테크 서밋’에서 펠릿 압출, 금속, SLA 등 다양한 기술에 기반한 3D 프린터 신제품과 사례를 소개했다. 이번에 소개한 신제품은 모두 제조 현장에서 부품이나 제품을 생산하는 용도에 초점을 맞추었다. 펠릿 압출 방식의 3D 프린터인 ‘EXT 800 타이탄 펠릿(EXT 800 Titan Pellet)’은 3D시스템즈가 인수한 타이탄 로보틱스의 기술에 기반한 제품이다. 레진 파우더와 첨가제를 배합해 알갱이 형태로 가공한 펠릿(pellet) 소재를 사용하는 것이 특징인데, 펠릿 소재는 필라멘트 대비 비용이 낮고 더 큰 프린터 노즐로 사출하기 때문에 빠른 속도와 대형 출력물에 유리하다는 것이 3D시스템즈의 설명이다. EXT 타이탄 제품군은 대형 부품의 출력에 초점을 맞추었다. 강제 열 순환을 위한 챔버 시스템 등 열 관리 시스템을 갖춰 안정성을 높이고, 펠릿/필라멘트 압출/3축 가공 모듈을 탑재해 적층 가공과 절삭 가공을 한 대의 장비에서 진행할 수 있다. 신제품인 EXT 800 타이탄은 기존 제품 대비 빌드 용적을 800mm로 줄이고 펠릿 모듈만 장착해 가격을 낮추는 등 접근성을 높였다. 기존 제품군과 마찬가지로 ABS, PD, 탄소섬유 등 다양한 펠릿 소재를 사용할 수 있다.   ▲ 다양한 펠릿 소재   ▲ EXT 타이탄으로 출력한 열성형 몰드   금속 3D 프린팅의 생산성 강화 ‘DMP 플렉스 350 트리플(DMP Flex 350 Triple)’은 3D시스템즈의 금속 3D 프린터 제품군인 DMP 라인업에 새롭게 추가된 제품이다. 금속 3D 프린터는 적층 용적과 금속 소재를 녹이는 레이저의 수, 준비 시간, 소모품의 수, 공정 관리를 통한 불량률 감소 등이 생산성에 영향을 주는 주요한 요소이다. 3D시스템즈의 DMP 3D 프린터는 진공 챔버를 통해 재료의 적재 밀도를 높이고, 재료의 산화반응을 최소화하면서 적층 준비 시간 및 프린팅 운용 비용을 줄인다. 배기 시스템의 성능을 높이는 동시에 설치 공간의 구성을 고려해 분리 설치가 가능한 것도 특징이다. DMP 플렉스 350 트리플은 지난 2023년 폼넥스트(Formnext) 전시회에서 공개된 제품으로, 세 개의 레이저를 사용한다. 스티치 형상 없이 풀 사이즈의 적층 성형이 가능하고, 275mm와 350mm의 빌드 사이즈를 동시에 사용할 수 있다.  한편, 3D시스템즈는 DMP 금속 3D 프린터를 위한 옵션으로  ▲실시간 공정 모니터링 시스템 ▲금속 적층제조를 위한 3D엑스퍼트(3DXpert) 소프트웨어를 통한 모니터링 이미지 데이터의 3D 시각화 분석 ▲빌드 과정에서 플레이트의 온도를 일정하게 유지해 열처리 비용을 줄이고 생산성을 높이는 히티드 빌드 플레이트 ▲뭉친 금속 파우더를 사전에 분리해 필터의 수명을 늘리는 사이클론 프리 필터 ▲유압식 잠금 시스템인 오토매틱 도어 락킹 등을 소개했다.   ▲ DMP 금속 3D 프린터로 출력한 F1 배기 부품   SLA-DLP 결합한 신개념 3D 프린터 출시 예정 이번 행사에서는 3D시스템즈가 조만간 출시할 예정인 ‘PSLA 270’ 3D 프린터도 소개됐다. PSLA 270은 레이저 기반의 SLA 기술이 가진 정밀도와 프로젝션 기반 DLP(Digital Light Processing) 기술의 특징인 속도를 결합한 신개념의 제품이다. 레이저 대신 4K급 해상도의 듀얼 프로젝터를 사용하는 PSLA 270은 수백 개의 부품을 하루에 출력할 수 있도록 개발됐다. 재료를 빠르게 교체할 수 있고, 듀얼 레일 리코터를 채택해 안정적인 소재 공급과 수평 유지에 도움을 줄 수 있게 했다. 후면과 측면의 패널을 탈착하거나 도어와 터치 패널의 위치를 바꿀 수 있어 다양한 환경에 맞춰 설치가 가능하며, 세 면을 오픈할 수 있어서 로봇과 연계해 생산 자동화를 구현할 수 있게 했다. 3D시스템즈는 “성능과 생산성을 높인 PSLA 270은 지그/픽스처, 중/소량의 부품 생산, 유체 흐름 테스트, 의료 등 다양한 분야에 활용할 수 있으며, 고성능의 피겨 4 소재를 비롯해 향후 더욱 다양한 재료를 사용할 수 있도록 할 예정”이라고 소개했다.   ▲ PSLA 270의 작동방식     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-10-04
[온에어] AI 시대의 로봇 기술 트렌드와 발전 방향
캐드앤그래픽스 CNG TV 지식방송 지상 중계   지난 6월 17일 CNG TV는 ‘AI 시대의 로봇 기술 트렌드와 발전 방향’이란 주제로, 새로운 역사를 쓰고 있는 로봇 기술과 관련 트렌드, 그리고 발전 방향에 대해 살펴보는 시간을 마련했다. AI와 로봇 기술의 발전이 앞으로 우리 사회를 어떻게 변화시켜 나갈 것인지 주목된다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲ 디지털지식연구소 조형식 대표, 고영테크놀러지 고경철 전무(왼쪽부터)   디지털지식연구소 조형식 대표의 사회로 진행된 이번 CNG TV에는 고영테크놀러지 고경철 전무가 ‘지능형 로봇의 미래’라는 주제로 발표했다. 고경철 전무는 “업계와 학계에서 30여년간 로봇을 연구하고 개발해 온 경험을 갖고 있다”며, “지금은 인공지능(AI)을 기반으로 의료로봇 개발을 위한 자문을 맡고 있다”고 밝혔다.  고영테크놀러지는 현재 SMT(Surface Mount Technology, 표면실장기술) 제조 공정을 위한 로봇을 만들고 있고, 정밀한 인공 눈이라 할 수 있는 머신 비전 기술을 이용해서 세밀한 불량을 찾아내고 있다. 고경철 전무는 “고영테크놀러지는 SMT 검사 장비 시장에서 세계 1위의 점유율을 보이고 있다”며, “SMT 검사 장비는 컴퓨터 비전 기술을 이용해서 전자기 기판의 제조 공정에서 세밀한 분량을 찾아내는 장비로, 핵심은 요즘 화제가 되고 있는 AI 기반의 검사 알고리즘과 관련 검사를 정밀하게 제어하는 로봇 설계 기술”이라고 설명했다.  고영테크놀러지는 이러한 검사 장비 및 반도체 장비에서 나아가, 신사업으로 의료 로봇을 기반으로 한 뇌수술 로봇 개발에 새롭게 도전하고 있다. 수술 로봇은 한마디로 원격 제어 로봇이라고 볼 수 있는데, 고경철 전무는 “정해진 수술 계획을 의사가 사전에 계획해서 의사가 수술하던 것을 로봇이 하고 있다. 이 기술이 발전하고 좀 더 로봇에게 지능이 부여된다면 앞으로는 더 안전하고 정밀한 수술이 가능한 단계로 발전할 전망”이라고 밝혔다. 지난 2002년 설립된.고영테크놀러지는 특허 받은 이중 프로젝션 모아레 기술을 사용하여 최초의 3차원 납도포 검사(SPI) 시스템을 출시해 시장을 개척했다. 이후, 전자기기 산업의 3D 측정 기반 SPI 및 3차원 부품 장착 및 납땜 검사(AOI) 장비 분야의 글로벌 선도 기업으로 성장했다.   ▲ 로봇 기술 발전 과정에 대해 소개한 고영테크놀러지 고경철 전무   이외에도 True 3D 측정기반 검사 기술을 기반으로 PIN 자동검사솔루션(AOI), 3차원 투명체 검사장비(DPI), 반도체 패키징 검사장비(MEISTER 시리즈)를 개발하여 어려운 문제를 해결하기 위한 혁신적인 솔루션을 제공하고 있다. 한편 고경철 전무는 로봇 시장에서 중국의 부상을 큰 이슈로 보고 있다고 말했다. “양적으로 보면 중국의 로봇 기업 숫자가 우리나라의 100배 수준이고, 질적으로도 인공지능 분야에서 빠르게 발전하고 있어서 미국이 중국을 다양한 방법으로 견제하기 시작했다”고 밝혔다. 또한 “일본이나 중국이 자체적으로 갖고 있는 제조 기술력과 소프트웨어 기술력도 대단한데, 인공지능 기술은 이제 미국과 어깨를 나란히 할 정도가 됐다”며, “우리나라도 기술 개발에 많은 노력을 기울여야 할 때”라고 말했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-07-03
헥사곤, SIMTOS 2024에서 스마트 줌 기능 탑재한 신규 구조광 스캐너 소개
헥사곤 매뉴팩처링 인텔리전스(헥사곤 MI)가 4월 1일부터 5일까지 일산 킨텍스에서 열리는 ‘SIMTOS 2024(이하 심토스)’에 참가해 올해 3월에 출시한 신규 스마트 구조광 스캐너를 국내 최초로 선보인다고 밝혔다. 이번 전시회에서 공개될 스마트 구조광 스캐너 ‘스마트 스캔 VR800(SmartScan VR800)’은 자동화 스캔 셀에 최적화된 스캐너이다. 이 제품은 듀얼 스테레오 카메라와 기계식 광학 줌인 프로젝션 장치를 결합한 멀티카메라 설정을 지원한다. 이를 통해 렌즈 교체 없이 빠르게 스캔 영역 전환이 가능하며, 높은 정확도를 제공한다. VR800은 로봇 또는 코봇 기반의 자동화 검사 시스템에 통합되어 활용할 수 있으며, 자동차 제조를 포함한 금형, 캐스팅, 적층제조 등을 이용하는 제조 공정에서 적용 가능하다.     한편, 헥사곤은 심토스 방문객이 제조 공정 전반에 걸친 자사의 생산 소프트웨어 제품군을 경험할 수 있도록 정밀 부품 가공 및 품질 검사 프로세스를 전시할 예정이다. 프로세스는 CAM 프로그래밍, 종합 G 코드 검증, 머신 프로브 시스템, CT 데이터 분석 및 품질 검사로 이뤄지며, 헥사곤은 프로덕션 소프트웨어, 공작기계 프로브, CT 데이터 분석 및 품질 검사 솔루션을 선보인다. 부스에서는 솔루션 전문가들이 국내 중소형 제조기업과 대기업 모두를 대상으로 다양한 사양과 제품군에 대한 설명과 맞춤형 컨설팅을 제공할 예정이다. 헥사곤 매뉴팩처링 인텔리전스 코리아의 성브라이언 사장은 “로봇 도입이 가속화되는 글로벌 제조 현장의 디지털 전환에 발맞춰, 국내 기업도 빠르게 제조 현장을 재편하고 있다. 새로운 로봇 및 디지털 제조 기술을 한곳에서 살필 수 있는 심토스 현장에서 새로 출시한 헥사곤의 스캐너를 비롯해 자동화에 필요한 기술과 솔루션을 두루 경험하길 바란다”며, “이번 행사에서 여러 관계자와 만나, 각 현장에 꼭 필요한 최선의 디지털 혁신 전략과 솔루션을 찾아 효율적으로 실행할 수 있도록 최선을 다해 지원하겠다”고 말했다.
작성일 : 2024-03-26
[케이스 스터디] 건축 시각화 워크플로를 위한 리얼타임 기술과 BIM
몰입형 실시간 경험으로 사실적인 결과물 구현   최근 인터랙티브와 실시간 렌더링 기능의 이점으로 리얼타임 기술을 활용하는 AEC 전문가들이 증가하고 있다. 리얼타임 기술을 활용하면 각기 다른 CAD 설계 툴로 생성한 여러 개의 서로 다른 파일 유형을 가져온 후 해당 데이터를 리얼타임 엔진에서 사용할 수 있도록 빠르게 변환할 수 있다. 이번 호에서는 원활한 건축 시각화 워크플로 구축을 위한 리얼타임 기술과 BIM 툴에 대해 소개한다. ■ 자료제공 : 에픽게임즈   ▲ Zaha Hadid Architects, Line Creative(이미지 출처 : 에픽게임즈)    건축, 엔지니어링 및 건설(Architecture, Engineering & Construction, AEC) 전문가들은 오랫동안 건축 설계를 제작하기 위해 다양한 건축 소프트웨어 패키지를 사용해왔다. 점차 BIM 및 CAD 툴의 생태계가 활발히 조성되었고, 수년간 아키캐드(ARCHICAD), 레빗(Revit), 스케치업 프로(SketchUp Pro), 릭캐드(RIKCAD), 라이노(Rhino) 등이 건축 워크플로에서 주로 사용되는 툴로 자리잡았다. 지금은 점점 더 많은 AEC 전문가들이 인터랙티브 기능과 실시간 렌더링 기능 때문에 리얼타임 기술에 눈을 돌리고 있다. 이제 각기 다른 CAD 설계 툴로 생성한 여러 개의 서로 다른 파일 유형을 가져온 후 해당 데이터를 리얼타임 엔진에서 사용할 수 있도록 빠르게 변환할 수 있다. 이로써 건축가는 완전한 인터랙티브 기능과 몰입도라는 강점을 가진 워크플로에서 자신이 주로 사용하는 익숙한 설계 소프트웨어를 원활히 사용할 수 있게 되었다. 기존에 정립된 CAD 툴은 게임 엔진과 무리 없이 상호 작용하고 VR 경험 제작, 간편한 디자인 프레젠테이션, 디지털 트윈 구축 기능 등의 리얼타임 기능이 건축가의 워크플로를 현저하게 개선해 신기능도 손쉽게 사용할 수 있게 해준다.    데이터스미스  에픽게임즈는 AEC 분야에서 트윈모션, 언리얼 엔진과 같은 리얼타임 툴의 활용도가 매우 높아질 것을 예측하고, CAD와 BIM을 리얼타임 파일 형식으로 변환하는 작업을 품질, 속도, 정확성 면에서 개선하기 위해 노력을 기울였다. 그 결과 건축가가 선호하는 설계 툴과 강력한 리얼타임 렌더링을 하나의 워크플로에서 원활히 사용할 수 있게 되었다.  2018년 에픽게임즈는 BIM 및 CAD 데이터를 언리얼 엔진 형식으로 변환하는 데이터스미스를 출시했다. 데이터스미스는 레빗, 3ds Max, 스케치업, 솔리드웍스, 라이노 등 다양한 종류의 프로그램에서 가져온 신을 변환할 수 있도록 설계되었다.  사용자가 무엇을 익스포트할지 선택하면 데이터스미스는 인스턴스 보존과 같은 뛰어난 변환을 수행하는데, 무엇보다도 나중에 소프트웨어 프로그램에서 설계를 변경했을 때 언리얼 엔진에 다시 익스포트한 후 버튼 하나만 클릭하면 머티리얼이나 다른 속성을 재적용할 필요 없이 전체 변경 사항이 신에 적용된다. 일부 건축 소프트웨어 형식은 메타데이터를 임포트할 수도 있다. 가령 바닥 오브젝트의 경우 그 구조 머티리얼뿐만 아니라 물리 속성(예 : 강도, 열전달 계수)도 저장할 수 있다. 에픽게임즈는 계속해서 사용자 피드백에 따라 기존 컨버터를 개선하고, 신규 컨버터도 제작해 왔다.   VR 경험  BIM 및 CAD 데이터가 빠르게 리얼타임 엔진에 편입되면서 몰입형 경험을 만들 수 있는 새로운 기회가 생겨났다. 트윈모션과 언리얼 엔진은 가상현실 경험 기능을 포함하며, 이 기능 덕분에 인터랙티브 VR을 통한 협업형 검토가 가능해졌다. 유명한 건축회사 중 하나인 자하 하디드 아키텍츠(Zaha Hadid Architects)의 경우 언리얼 엔진을 디자인 파이프라인의 필수 요소로 포함시켰다. 그래서 첫 콘셉트 드로잉부터 최종 고객 승인까지 전 과정에서 인터랙티브 VR 워크스루를 생성하고 활용하는데, 이 워크플로가 클라이언트의 비전을 그 어느 때보다도 더 빠르고 의견 충돌 없이 시각화를 할 수 있기 때문이다.   ▲ ZHVR Group(이미지 출처 : Zaha Hadid Architects)   건축 스튜디오 KA 디자인웍스(KA DesignWorks) 역시 트윈모션과 HTC VIVE를 결합하여 소프트웨어의 VR 기능을 활용하고 있다. 그들은 로키산맥의 장관을 배경으로 흥미로운 건물을 재단장하는 최근 프로젝트에서 VR 기능 덕분에 2D 렌더에서는 미처 모르고 지나칠 수 있었던 부분을 발견해 설계 개선 사항을 적용할 수 있었다.   ▲ 이미지 출처 : KA DesignWorks    모든 것을 간단하게, 트윈모션  건축가들에게 트윈모션은 리얼타임 렌더링 솔루션의 역할을 맡는다. 트윈모션은 프레젠테이션에 초점을 맞추며 모든 것을 굉장히 간단히 만들도록 설계되었다. 예를 들어 영국의 왕립원예협회(Royal Horticultural Society)는 최근 트윈모션을 사용하여 154에이커(약 62만 3215제곱미터) 규모의 새로운 정원을 VR 워크스루로 제작하여, 실제 건축 공사에 착수하기도 전에 디자이너가 전체 프로젝트를 둘러볼 수 있는 기회를 마련했다.   ▲ 이미지 출처 : The University of Salford, THINKlab   트윈모션은 원클릭으로 바로 아키캐드, 레빗, 스케치업 프로, 릭캐드, 라이노와 동기화되는 기능을 제공하기 때문에 건축가는 CAD 또는 BIM 디자인에서 VR로 순식간에 이동할 수 있다. 네덜란드 소재의 디자인 시각화 업체인 플랜34(PLAN34)는 트윈모션을 사용하여 관계자 회의에서 도시 개발 디자인을 발표했는데, 리얼타임으로 프로젝트를 안내하여 갖가지 시점에서 디자인을 선보일 수 있었다.  플랜34에서는 고객이 직접 살펴볼 수 있도록 프레젠테이션을 제공할 때 트윈모션 프레젠터를 사용한다. 플랜34는 이 기능을 통해 고객과 관계자가 트윈모션을 설치하지 않고도 개별 프로젝트를 독립형 뷰어에서 볼 수 있도록 작은 실행 파일을 공유할 수 있다. 시각화와 간단한 인터랙션에 치중된 프로젝트에서 디자이너는 트윈모션으로 전보다 훨씬 짧은 시간에 공동으로 디자인하는 경험을 가질 수 있다.   ▲ 이미지 출처 : PLAN34   데이터 기반 3D 모델 전통적인 렌더러와 달리 언리얼 엔진은 프로그래밍 가능한 로직을 제공한다. 데이터는 오브젝트 메타데이터에서 오든 데이터베이스로 오든 언리얼 엔진으로 가져와 머티리얼, 애니메이션, 오브젝트 비저빌리티, 파라미터로 제어되는 모든 것에 변경 사항을 적용하도록 할 수 있다.  이 기능은 디지털 트윈 건물부터 전체 도시까지, 물리적 존재의 가상 버전을 사용하여 사물 인터넷(IoT) 데이터와 같은 요소를 분석 후 실제 구조를 모니터링하거나 제어하는 곳이라면 어디든지 다양한 인터랙티브 용도로 활용될 수 있다. 그 혁신적인 모범 사례가 바로 이머자(IMERZA)가 제작하여 3D 프린터로 출력한 미국 플로리다주의 탬파시 중심가 미니어처이다. 이 프로젝트에서는 프로젝션 매핑과 리얼타임 기술을 접목해 리얼타임 데이터를 시각화하여 부동산을 마케팅하고 도시 개발을 평가하는 특별한 방식을 고안해냈다.   ▲ 이미지 출처 : SPP & Imerza   교육 및 학습 옵션 CG아키텍트(CGarchitect)의 최근 설문 결과에 따르면 현재 렌더링 엔진을 테스트하고 있는 응답자의 43%가 언리얼 엔진으로 실험 중이고, 22%가 트윈모션을 시험 중이라고 한다. 손쉽게 활용할 수 있는 여러 학습 리소스가 있어 신규 사용자가 툴을 배우고 리얼타임 렌더링을 살펴보는데 유용하기 때문이다. 에픽게임즈에서는 온라인 러닝을 통해 트윈모션을 시작하고 사용하는 기초를 다루는 3부작 러닝 강좌를 제공하고 있다. 전체 개요에서는 유저 인터페이스와 툴, 그리고 아키캐드, 레빗, 스케치업, FBX 콘텐츠를 임포트하는 방법을 설명하고, 다음으로 머티리얼, 랜드스케이프, 주위 환경, 라이팅을 사용하여 트윈모션 프로젝트에 생동감을 더하는 법을 배울 수 있다. 마지막으로 툴을 통한 이미지, 영화, 건축 단계 애니메이션, VR 애플리케이션의 제작법에 대해 배운다. 언리얼 엔진 초보자는 언리얼 엔진에 레빗 모델을 익스포트하는 방법이나 툴세트 사용 시 건축 외관 제작과 관련하여 알아야 할 모든 것을 다루는 온라인 강좌를 비롯해 방대한 튜토리얼을 보면서 사용법을 익힐 수 있다.   ▲ 이미지 출처 : 51WORLD   시각화에 대한 전념 에픽게임즈는 끊임없는 연구와 설문 조사로 사용자에게 필요한 것을 파악해 가며 변환과 렌더링 프로세스라는 양면에 공을 들이고 있다. 언리얼 엔진은 이제 최상급 오프라인 렌더러에 비견되는 기능들(소프트 섀도와 레이 트레이스 리플렉션 등)을 제공한다. 변환 툴과 관련해서 데이터스미스는 지난 2년간 여러 번의 자체 업데이트를 거쳐 이제 20가지 이상의 CAD 소프트웨어 패키지와 연동되고 있다. 기존 오프라인 렌더러의 불안정한 변환 프로세스 때문에 불편해할 필요 없이 매끄럽게 변환되는 리얼타임 툴로 이전하면 시간도 더 절약되고 만족스러우며, 능률적인 워크플로를 이용할 수 있다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2021-01-29
[케이스 스터디] 카니발 AR 온라인 론칭쇼 만든 비브스튜디오
언리얼 엔진으로 AR 촬영 현장에 최적화된 제어 인터페이스 구현    현대자동차그룹 기아자동차는 온라인 론칭쇼 ‘카니발 온 AR(Carnival on AR)’을 통해 카니발 자동차의 새로운 모델을 공개했다. 글로벌 스토리텔링 기업인 비브스튜디오(Vive Studios)는 이 온라인 론칭쇼에 언리얼 엔진의 AR 기술을 접목해 실제 자동차와 같은 수준 높은 퀄리티를 선보였는데, 언리얼 엔진으로 AR 촬영 현장에 최적화된 제어 인터페이스를 구현하고, 실사 수준의 자동차를 시각화하면서 론칭쇼를 성공적으로 이끌었다. ■ 자료제공 : 에픽게임즈   ▲ 출처 : 4세대 카니발 AR 온라인 론칭쇼 메이킹 필름   비브스튜디오는 상상력과 기술의 한계에 도전하며 VR 휴먼 다큐멘터리 ‘너를 만났다’, 아이돌 그룹 아이즈원의 XR 콘서트 ‘ONEIRIC THEATER’와 같이 VR, AR, VFX 등 다양한 분야에서 각광받는 작품들을 제작해왔으며, 이번 자동차 AR 론칭쇼까지 성공적으로 마무리하며 호평을 받고 있다.  ‘카니발 온 AR’은 6년 만에 출시된 ‘카니발’ 시리즈의 최신 모델을 고객들에게 비대면으로 소개하는 프로젝트로, 현장에서 자동차를 직접 보고 만질 수 있는 기존의 오프라인 론칭쇼를 진행하기 어려운 현 상황을 반영해 온라인에서도 카니발의 특징과 장점들을 쉽고 흥미롭게 이해할 수 있는 간접 경험을 충분히 제공하도록 했다. 론칭쇼의 결과는 매우 성공적이었다. 전 세계 시청자들에게 실시간 스트리밍 서비스를 통해 공개되었는데, 국내 온라인 론칭쇼 사상 최고 접속률인 15만 5000회를 기록했으며 3300명에 달하는 최대 동시접속자 수를 기록했다. 또한 실시간 렌더링 기술을 활용한 AR 온라인 론칭쇼의 새로운 가능성을 업계에 제시했을 뿐 아니라, 실제와 증강현실의 구분이 어려울 정도로 높은 퀄리티를 고객들에게 선사하며 새로운 경험을 제공했다.  비브스튜디오의 성공적인 론칭쇼의 중심에는 언리얼 엔진이 있었다. 비브스튜디오가 4세대 카니발 AR 론칭쇼에서 언리얼 엔진을 어떻게 활용했는지 구체적으로 알아보자.     프로젝트 콘셉트 카니발 온 AR 프로젝트에서 비브스튜디오는 라이브 방송과 같은 생생함, 발표자와 자동차 사이의 인터랙션, 제품의 브랜드 철학을 모두 보여주기 위해 새로운 크리에이티브 솔루션을 만들었다. 공간과 사람, 정보와 경험 그리고 세대를 연결하는 ‘커넥팅 허브’라는 카니발의 철학을 론칭쇼 자체에도 담기 위해 론칭쇼가 펼쳐지는 스튜디오 공간에도 실제 자동차와 증강현실로 구현된 자동차, 가상현실 공간에서 등장하는 자동차라는 3개의 차원이 연결되는 콘셉트를 적용했다. 그리고 현실과 나란히 펼쳐지는 증강현실과 가상현실을 구현하기 위해 언리얼 엔진을 활용했다.     기술적 목표 비브스튜디오는 이번 이벤트를 준비하면서 세 가지 목표를 설정했다. 첫 번째, 시청자가 실제와 가상의 구분이 어렵다고 느낄 만큼의 실사 수준의 자동차를 시각화하는 것이었다. 두 번째, 시청자와 고객들이 AR과 가상현실을 통해 규모 있는 대형 이벤트로 받아들이게 하는 것이었다. 따라서 넓고 텅 빈 무대를 역동적으로 연출하기 위해 실제 자동차 1대를 제외한 모든 요소를 언리얼 엔진으로 실시간 렌더링했다. 실사 수준의 AR 자동차의 디테일에 집중하는 동시에 무대 위 가상 LED월 너머로 펼쳐지는 제3의 공간을 실시간으로 시각화해 더욱 확장된 무대를 보여주고자 했다.     세 번째 목표는 AR 촬영 현장에 최적화된 제어 인터페이스를 구현하는 것이었다. AR 촬영은 트래킹 장치, 실시간 합성 프로그램, PC 간 영상 동기화 등 일반 영상 촬영 현장에서 잘 사용되지 않는 여러 기술과 장비들이 어우러져 매우 복잡하고 큰 규모의 협업이 필요하며 현장에서는 장치 간 충돌이나 연출 변경, 발표자의 실수 등 예측하기 어려운 많은 변수들이 존재한다. 따라서 현장에서 발생하는 긴급한 이슈에 대한 빠른 대응이나 매끄러운 촬영 진행을 위해서는 전문적인 인터페이스와 제어 기능들이 필요했다. 때문에 제로 덴서티(Zero Density)나 픽스토프(Pixotope)와 같은 안정적인 기존 상용 솔루션 대신에 자유로운 기능 확장 및 빠른 현장 대응을 고려해 언리얼 엔진 기반의 자체 AR 솔루션인 V2Xr을 구현하기로 결정했다. 이 같은 도전은 언리얼 엔진의 실시간 연동 기능, 외부 영상과의 합성이 용이한 점과 함께 에픽게임즈에서 제공하는 다양한 플러그인이 있기에 가능했다.    AR 솔루션 V2Xr의 구성 비브스튜디오의 자체 AR 솔루션인 V2Xr은 시스템 전반의 제어와 운영을 담당하는 원격 제어 인터페이스인 라이브콤프와 AR이나 LED월을 위한 언리얼 엔진 기반의 시각화 프로그램인 XR 플레이어로 구성된다. 라이브콤프와 XR 플레이어는 네트워크 연결을 통해 매 순간 상태 및 명령을 주고받으면서 시각화 장면들을 제어하게 되는데, 특히 언리얼 엔진의 강력한 리얼타임 렌더링에 힘입은 XR 플레이어로 기술적 목표를 달성할 수 있었다.   XR 플레이어     라이브콤프의 제어 신호를 받아 시퀀서 헤드 위치를 변경하고 AR을 위한 영상 합성을 실행하는 등의 다양한 작업들이 XR 플레이어 안에서 이루어진다. XR 플레이어는 역할에 따라 AR 플레이어, SC 플레이어 두 가지 타입으로 나눌 수 있는데, AR 플레이어는 말 그대로 카메라 영상과 CG 영상을 실시간으로 합성해주는 역할을 하며, SC 플레이어는 LED월이나 프로젝션 월에 리얼타임 렌더링 그래픽이나 일반 영상을 실시간으로 출력하는 기능을 담당한다. 각 플레이어는 별도의 PC에서 독립적으로 실행되며, AR 카메라나 LED월의 개수에 따라 렌더링 PC를 추가할 수 있다.      AR 플레이어 AR 플레이어는 외부 트래킹 장치를 통해 카메라의 움직임 정보를 받아 CG에 반영한 후 실제 카메라 영상과 실시간으로 합성하는 기능을 제공한다. 이때 합성 방식이나 렌즈 왜곡을 보정하는 기능은 트래킹 장치의 통신 프로토콜 방식에 의해 결정되는데, V2Xr에서는 스타이프(Stype)의 통신 프로토콜과 범용 프로토콜인 FreeD 모두를 지원한다. 스타이프의 통신 프로토콜은 스타이프가 제공하는 언리얼 엔진 플러그인을 통해 합성과 렌즈 보정이 이루어지며, FreeD는 언리얼 엔진의 컴포셔를 기반으로 합성과 렌즈 보정을 진행하게 된다.   영상 합성 및 렌즈 왜곡 보정 트래킹 장치가 언리얼 엔진용 합성 플러그인을 제공하지 않거나 특수한 기능을 추가해야 하는 경우, FreeD 프로토콜을 통해 카메라 상태 정보를 수신해 직접 합성 기능을 구현할 수 있다. 물론 렌즈 왜곡 보정 기능도 꼭 필요하다. 이때 언리얼 엔진이 기본 제공하는 렌즈 디스토션 플러그인과 컴포셔는 이 같은 실시간 AR 합성 시 매우 유용하게 사용될 수 있다.   ▲ 캘리브레이션 데이터로 렌즈 왜곡을 보정   AR 합성 시 렌즈의 왜곡을 효과적으로 보정하는 과정은 매우 중요하지만 아주 어려운 작업이다. 특히, B4마운트 기반 방송용 렌즈의 경우 줌에 따라 화각의 차이가 매우 크며, 광각에서 상당한 렌즈 왜곡이 발생한다. 포커스 위치에 따라서도 왜곡의 양상이 달라지기 때문에 다수의 캘리브레이션 데이터를 만들고 영상을 합성할 때 적절한 보정 수치를 적용해 주어야 한다. 이를 위해 AR 플레이어에서는 렌즈 디스토션 플러그인을 통해 매 프레임 왜곡 보정 수치를 적용한 렌더 타깃을 생성하고, 컴포셔에서는 생성된 이미지를 기반으로 카메라 영상의 UV를 변형하는 방법으로 왜곡을 보정한다.     CG 색상 조정 AR 촬영 현장에서 주변 조건에 맞도록 CG의 색상 톤을 조정하는 기능은 매우 중요하다. 물리적인 조명의 연출 콘셉트나 상태에 따라 가장 적절한 색상 톤을 CG에 적용해야 이질감 없이 자연스러운 합성이 이루어지기 때문에, 상황별로 지정된 색상 톤 정보들을 읽어서 화이트 밸런스와 감마, 노출 등 언리얼 엔진이 기본 제공하는 포스트 프로세스의 항목들에 즉시 반영할 수 있는 기능을 구현했다. 이 기능으로 라이브콤프의 타임라인에 키 포인트를 생성하여 언리얼 엔진 콘텐츠에 색상 정보를 실시간으로 반영할 수 있게 되어 더욱 직관적으로 현장에서 색상 이슈에 대응할 수 있었다.     SC 플레이어 SC 플레이어는 대형 LED월이나 프로젝션 월에 직접 출력되는 그래픽을 연출하기 위해 사용된다. 일종의 인 카메라 촬영을 위한 플레이어로서, 외부에서 카메라 움직임을 받아 언리얼 엔진에서 실시간으로 렌더링하게 된다. 이번 기아자동차 AR 론칭쇼에서는 물리적인 LED월을 설치하지 않고 SC 플레이어의 영상을 AR 플레이어에서 받아 마치 가상의 대형 LED월이 현장에 있는 것처럼 AR로 시각화했다.     기본적으로 AR 플레이어와 SC 플레이어의 카메라가 상호 동기화되어 함께 움직일 때 시각적 공간감이 극대화되기 때문에 SC 플레이어에서도 외부 카메라의 트래킹 정보를 실시간으로 받아 CG에 반영할 수 있으며, 트래킹 데이터를 수신하는 여러 방식을 제공한다. AR 플레이어와 마찬가지로 장비 제조사의 플러그인을 사용하거나 FreeD 데이터를 직접 파싱하여 사용할 수 있다. 또는 AR 플레이어의 소켓 채널에서 UDP 패킷으로 카메라 위치, 각도, 화각 등의 데이터를 전송하고, SC 플레이어에서 이를 수신해 카메라를 동기화할 수 있다. 이런 UDP 방식의 소켓 통신은 TCP/IP 방식보다 대용량 데이터를 빠르게 전달하는데 유리하며, 언리얼 엔진의 Simple TCP UDP 소켓 클라이언트 플러그인을 통해 손쉽게 구현할 수 있다. 이를 통해 AR 플레이어의 카메라와 SC 플레이어의 카메라는 완전히 동기화되어 동일하게 움직이게 된다.   ▲ focal length, aperture, focus dist 등 실시간으로 전달받은 데이터를 카메라에 적용(위치, 각도는 제외)   ▲ Interpolation 함수로 위치 및 각도 데이터를 부드럽게 적용   가상 LED월 표현 SC 플레이어의 영상을 현실의 LED월에 직접 출력하는 경우에는 카메라의 촬영 영역과 실제 LED 형태가 반영된 절두체(Frustum) 영역을 적용하기 위해 아나모픽 왜곡을 적용한 후 출력해야 한다. 하지만 이번 론칭쇼에서는 SC 플레이어에서 출력된 영상을 AR 플레이어로 바로 전달해 가상 LED월 형태로 사용했다. 따라서 전달된 영상을 LED 형태대로 마스킹한 후 다른 AR 요소와 함께 외부 카메라 영상과 합성하는 방식으로 작업을 진행했는데, 이 같은 가상 LED월 방식은 실제 카메라의 움직임에 따라 AR 요소와 LED월에 표시되는 영상이 동시에 반응하므로 마치 LED월 너머에 있는 다른 공간을 들여다보는 듯한 연출이 가능하게 된다. 또한 라이트, 포그, 포스트 프로세스 설정 등이 서로 다른 두 공간을 동시에 하나의 공간에 표현할 수 있다.   ▲ 이번 론칭쇼에서는 SC 플레이어에서 출력된 영상을 AR 플레이어로 바로 전달해 가상 LED월 형태로 사용했다.   맺음말 비브스튜디오는 카니발 온 AR 론칭쇼를 준비하면서 언리얼 엔진 기반의 고품질 AR 그래픽을 보다 효과적으로 전달할 수 있는 여러 방법들에 대해 많은 고민을 했다. 특히, 원격 제어용 프로그램인 라이브콤프와 연계, 컴포셔 기반의 렌즈 왜곡 보정 및 합성, 현장에서의 즉각적인 색상 보정 등과 같이 운영 효율성을 개선하기 위한 기능에 집중했으며, 또한 가상 LED월 방식의 연출을 통해 보다 입체적인 공간 연출을 가능하게 했다. 짧은 준비 기간에도 불구하고 이러한 결과가 가능했던 이유는 언리얼 엔진이 제공하는 다양한 기능이나 플러그인을 적극적으로 활용하는 동시에 그 기반 위에 원하는 기능들을 덧붙여 빠르게 구현하고 테스트하는 과정을 반복할 수 있었기 때문이다.  이로써 비브스튜디오는 이번 론칭쇼를 통해 최고 수준의 기술 및 경험이 풍부한 컴퓨터 그래픽 디자이너와 AR/VR R&D 엔지니어와 함께 전 세계 고객을 대상으로 AR/VR 솔루션 서비스를 제공할 수 있었고, 이는 자사의 기술력을 한 단계 끌어올리는 계기가 되었다. 또한, 언리얼 엔진이 다양한 분야에서 활용되는 만큼 모든 산업 분야의 스트리밍 이벤트나 전시회를 대상으로 서비스를 제공하고 발전시킬 수 있는 엄청난 경험을 얻었으며, 이를 바탕으로 다양한 산업 분야에서 혁신을 이어 나갈 예정이다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-11-30
언리얼 엔진 4.24 출시, 비주얼 퀄리티 및 생산성 높여주는 다양한 기능 추가
에픽게임즈 코리아가 게임뿐 아니라 일반산업 분야를 위한 신규 기능이 대거 추가된 언리얼 엔진 4.24 버전이 업데이트됐다고 발표했다. 이번 언리얼 엔진 4.24는 ▲변경유지 랜드스케이프 편집  ▲물리 기반 스카이 애트머스피어 컴포넌트 ▲스크린 스페이스 글로벌 일루미네이션 ▲헤어와 퍼 렌더링 및 시뮬레이션 ▲실시간 레이 트레이싱 향상 등 비주얼 퀄리티와 생산성을 높여주는 신규 기능들이 다수 추가됐다.     변경 유지 랜드스케이프 편집 기능을 이용하면 언리얼 에디터에서 드넓은 지형을 더 편리하게 만들고 수정할 수 있다. 랜드스케이프에 여러 개의 하이트 맵을 추가하고 레이어 단위로 페인트할 수 있는 기능도 새롭게 제공된다. 또한, 랜드스케이프의 지면을 건물의 바닥에 자동으로 맞춰주는 브러시와 같이 블루프린트를 통해 특별한 커스텀 브러시를 만들어 볼 수 있다. 물리 기반 스카이 애트머스피어 컴포넌트는 AAA급 게임이나 건축 시각화 분야에 유용한 기능으로, 몇 번의 클릭으로 석양이나 스페이스 뷰 등 사실적인 리얼타임 야외 환경을 제작할 수 있다. 태양 위치 계산기(Sun Positioner)가 이 기능을 지원함에 따라 지상이나 공중 시점에서 바라본 대기를 렌더링할 수 있고, 하루의 시간을 다이내믹하게 바꿀 수 있다. 스크린 스페이스 글로벌 일루미네이션은 한 오브젝트에 반사되는 빛이 다른 오브젝트 색상에 영향을 주는 자연스러운 간접 라이팅 효과를 구현할 수 있다. 헤어와 퍼 렌더링 및 시뮬레이션 기능은 DCC 애플리케이션에서 제작한 그룸(Groom)을 활용하여 수천 개의 포토리얼한 머리카락을 실시간으로 시뮬레이션하고 렌더링할 수 있게 한다. 이를 통해, 보다 사실적인 휴먼 캐릭터와 털로 덮인 크리처를 제작할 수 있으며, 물리적으로 정확한 움직임과 함께 머리카락을 한 가닥씩 렌더링할 수 있다. 한편, 지난 4월, 4.22 업데이트부터 정식 지원되었던 ‘실시간 레이 트레이싱’은 이번 버전에도 최적화와 안정성을 더욱 향상하고 다양한 기능들이 추가됐다. 대규모 월드를 지원하는 최고 수준의 인스턴싱 지원, 픽셀 디노이징에 리플렉션 멀티 샘플 추가, VR과 분할 스크린을 위한 멀티뷰 지원 등이 포함된다. 이와 함께 ▲언리얼 스튜디오의 언리얼 엔진 통합 ▲비주얼 데이터프렙 ▲프로젝트 생성 워크플로 향상 ▲라이브 유니버설 신 디스크립션 스테이지 ▲nDisplay 셋업 향상 등 건축과 제조, 자동차, 영화, 방송 등 광범위한 일반산업 분야를 위한 여러 가지 신규 기능들뿐 아니라 다양한 툴과 샘플들이 업데이트되었다. 이번 4.24 버전부터 언리얼 스튜디오가 언리얼 엔진에 통합되어 언리얼 스튜디오의 모든 기능을 언리얼 엔진에서 무료로 제공한다. 특히, 언리얼 스튜디오의 주요 툴세트였던 데이터스미스를 통해 3ds Max, 스케치업 프로(SketchUp Pro), Cinema 4D 그리고 다양한 CAD 및 BIM 포맷에서 가져온 전체 신(Scene)을 원활하게 변환할 수 있고, 기본적인 스태틱 메시 편집, UV 프로젝션 등의 다양한 툴도 이용할 수 있다. 비주얼 데이터프렙은 프로그래머가 아니더라도 데이터 준비 워크플로를 쉽게 자동화할 수 있게 하는 기능으로, 간소화된 신규 비주얼 툴을 통해 필터 및 오퍼레이터 레시피를 저장한 후 다른 신이나 프로젝트에 재사용할 수 있다. 클래스와 이름, 메타데이터 태그나 크기와 같은 요소에 따라 LOD 제작, 라이트맵 UV 구성, 머티리얼 대체, 오브젝트 삭제 또는 병합 등 다양한 설정이 가능하다. 이와 함께 프로젝트 생성 워크플로 향상을 통해 새 프로젝트 용도에 맞는 산업별 템플릿을 선택하고, 플러그인과 환경설정을 자동으로 로딩해 주는 위저드 가이드를 통해 보다 빠르게 새 프로젝트를 만들고 시작할 수 있다. 제품 디자인용 HDRI 배경의 스튜디오 라이팅이나 건축 시각화를 위한 태양 및 하늘 환경 등이 예제로 제공된다. 라이브 유니버설 신 디스크립션 스테이지는 유니버설 신 디스크립션(USD) 스테이지를 라이브로 작업해 언리얼 엔진 내에서 더 직관적이고 효율적으로 USD 데이터를 활용할 수 있게 하는 기능이다. 예를 들어, 언리얼 에디터에 임포트된 USD 신이 있는 상태에서 DCC 패키지 애셋을 수정하면 동시에 에디터에서 업데이트된다. 그리고 nDisplay 셋업 향상을 통해 다수의 디바이스 또는 프로젝터에 표시되는 몰입적인 콘텐츠를 더 쉽게 제작할 수 있다. nDisplay가 표준 언리얼 엔진 워크플로와 일치하도록 다시 디자인하고 리팩터링했으며, 기존 프로젝트와의 기본 호환성을 지원하고, 네트워크에 연결된 PC에 완벽하게 복제한 입력과 동기화된 비주얼을 제공한다. 이외에도 언리얼 엔진 마켓플레이스를 통해 아폴로 11호 미션 AR 홀로렌즈 2 샘플이 제공되고, 퀵셀 메가스캔을 사용할 수 있게 되는 등 언리얼 엔진 개발자 커뮤니티를 위한 다양한 샘플과 애셋들이 업데이트됐다. 에픽게임즈 코리아 박성철 대표는 “이번 언리얼 엔진 4.24는 누구나 영화와 같은 퀄리티의 리얼타임 경험을 제작할 수 있도록 비주얼 퀄리티와 생산성을 더욱 높일 수 있는 기능들과 워크플로를 추가했다.”라면서, “게임뿐 아니라 다양한 일반산업을 위해 언리얼 스튜디오를 언리얼 엔진에 통합하여 무료로 제공하고, 많은 신규 기능 역시 지속적으로 추가하고 있으니 일반산업 분야 종사자분들께서도 언리얼 엔진을 활용해 혁신적인 프로젝트를 진행해보시기를 바란다."라고  말했다.
작성일 : 2019-12-11