• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "MES"에 대한 통합 검색 내용이 3,485개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
지멘스, 다분야 시뮬레이션의 통합 강화한 심센터 3D 2021 발표
지멘스 디지털 인더스트리 소프트웨어는 심센터 3D(Simcenter 3D) 시뮬레이션 소프트웨어의 최신 버전인 심센터 3D 2021을 출시했다.  심센터 3D 2021은 다양한 시뮬레이션 분야의 통합 및 공유를 위한 엔지니어링 플랫폼을 더욱 개선하였고, 이를 통해 사용자가 비용, 속도 및 혁신에 미치는 영향 측면에서 시뮬레이션의 이점을 최대한 활용할 수 있도록 지원한다. AI(인공지능) 기반 사용자 경험, 새로운 시뮬레이션 유형, 정확도 및 성능 향상 등이 개선된 심센터 3D 2021은 제품 개발 프로세스 초기에 설계안의 퍼포먼스를 파악하는 데 도움을 준다. 많은 분야에서 제품에 사용된 첨단 소재의 엔지니어링이 중요한 혁신 요소로 꼽히고 있으며, 이에 따라 새로운 소재가 빠르게 시장에 선보이고 있다. 제품의 균열(crack)은 첨단 소재에서 매우 중요한 고려 사항이지만 고급 재료의 미세한 균열은 유한요소법으로 모델링하기가 어렵다. 심센터 3D 2021는 온전한 대표체적요소(Representative Volume Element: RVE) 분리와 재료의 균열 또는 응집 영역의 2D 및 3D 자동 삽입 기능이 포함되었다. 이를 통해 매크로 및 마이크로 구조 모델은 이제 균열이 재료를 통해 완전히 전파되도록 전체 메시 분리(full MESh separation)를 허용한다.     심센터 3D 2021에는 압력 시뮬레이션 결과를 소리로 듣고 평가할 수 있는 청각화 후처리 도구(auralization post-processing tool)가 추가되었다. 이를 통해 음향 엔지니어는 차트나 그래프를 통한 시각적 평가 대신 다양한 진동 구성요소 또는 제품에서 발생하는 소음을 실제로 들을 수 있다.  시뮬레이션 기반 설계는 제품을 시장에 출시하는 데 걸리는 시간을 크게 줄일 수 있다. 이를 위해 심센터 3D 2021에서는 열 분석 기능을 금형 설계자와 설계 엔지니어를 위한 수직(vertical) 솔루션으로 확장했다. 새로운 NX 금형 냉각(NX Mold Cooling)은 심센터 3D의 기술을 사용하여 설계자가 금형을 설계할 때 NX에서 직접 사출금형 인서트의 열 성능을 빠르게 설정하고 시뮬레이션할 수 있게 한다. 이를 통해 전문 해석자의 피드백을 기다릴 필요 없이 사출 금형 설계자가 쉽고 빠르게 열 분석을 진행할 수 있다. 또한, 심센터 3D 2021는 과거 사용 패턴을 기반으로 다음에 사용할 가능성이 높은 명령을 보여 주는 다음 명령 예측(Predict Next Command) 기능을 제공해 스마트한 작업을 지원한다. 이외에도 케이블/호스의 수명 예측, 로터의 정렬 불량 해석, 적층제조를 위한 메싱, 전선/와이어 하네스의 빠른 설계, 리얼타임 애플리케이션을 위한 심센터 3D 모션(Simcenter 3D Motion) 모델 등의 기능이 향상 또는 추가되었다.
작성일 : 2021-01-18
[케이스 스터디] 언리얼 엔진으로 렌더링한 단편 영화 ‘미어캣’
헤어 & 퍼 시스템을 이용해 실사같은 장면 구현    ▲ '미어캣' 영상 캡처   다수의 수상 경력을 자랑하는 웨타 디지털(Weta Digital)은 헤어와 퍼 CG 분야의 혁신을 주도하고 있는 비주얼 이펙트 스튜디오이다. 킹콩과 정글북, 혹성탈출 시리즈 등 많은 대작 영화 제작에 참여해 수차례 오스카상을 받은 바 있다.  리얼타임 기술이 프리비즈부터 최종 픽셀까지 영화 제작 과정에서 점점 더 중요한 부분이 됨에 따라 웨타 디지털은 선형적 스토리텔링을 위해 리얼타임 툴을 사용하여 영화 품질의 헤어, 퍼 및 페더를 어느 정도의 수준까지 구현할 수 있을지 실험하고 있다. 그 결과, 언리얼 엔진만으로 렌더링한 단편 영화 미어캣(Meerkat)이 탄생했다. ■ 자료제공 : 에픽게임즈   ▲ '미어캣' 영상   웨타 디지털은 2019년 언리얼 엔진의 스트랜드 기반 헤어와 퍼(fur) 시스템이 첫 출시된 이래로 에픽게임즈와 긴밀히 협업하며, 시스템을 정의하고 개선하는 작업을 하고 있다. 팀의 경험과 지식 그리고 미어캣 제작 과정에서 얻은 인사이트는 언리얼 엔진 4.26의 리얼타임 시뮬레이션 및 렌더링 툴세트 정식 버전을 제작하는데 큰 도움이 되었다.  미어캣 프로젝트가 대단한 이유는 소수의 아티스트들이 상용 툴을 사용해 제작했기 때문이다. 미어캣은 재능 있는 스토리텔러와 디지털 아티스트가 모이면 어떤 수준의 작품을 만들어 낼 수 있는지를 보여준다.   ▲ '미어캣'의 제작 비하인드 영상   지난 4~5년 동안, 웨타 디지털은 몰입형 리얼타임 인터랙티브 공간을 연구하고 언리얼 엔진에서의 콘텐츠 제작을 실험했다. 웨타 디지털은 버추얼 프로덕션 연구에도 언리얼 엔진을 사용하고 있지만, 미어캣의 목표는 최신 표준 언리얼 엔진 툴로 선형적 콘텐츠를 얼마나 수월하게 제작할 수 있는지를 보는 것이었다.  처음에 미어캣은 주요 작품으로 만들려던 영상은 아니었다. 신을 작업하는 워크플로와 프로세스에 초점을 두면서, 어떤 수준까지 도달하는지 알아보려는 일종의 테스트 용도였다. 웨타 디지털은 다양하고 혁신적인 헤어와 그루밍 작업을 해왔으며, 전통적인 장편 영화에서 사용되는 헤어와 퍼 애셋을 개발했다. 웨타 스튜디오의 전용 파이프라인을 사용하지 않고 표준 언리얼 엔진 툴을 실험한 것과 더불어 리얼타임 워크플로에 초점을 맞췄다는 점이 이 프로젝트와 다른 프로젝트의 차이라고 할 수 있다. 제작팀은 퍼가 구현되어야 하는 캐릭터를 제작하면서 즉각적인 피드백으로 샷을 반복 작업할 수 있다는 것이 애니메이터에게 어떤 도움을 줄 수 있는지를 알아내고 싶었다.  팀은 2019년에 영화 ‘혹성탈출’의 두 캐릭터인 시저와 모리스로 첫 테스트를 시작했는데, 이들 캐릭터는 디지털 퍼로는 최상급의 퀄리티를 보여줬다. 하지만 팀은 복잡한 기존 애셋 대신 상용화된 소프트웨어로 처음부터 새로운 캐릭터를 제작하면서 파이프라인을 시험해보기로 했다.   ▲ 이미치 출처 : 언리얼 엔진 홈페이지, 웨타 디지털   캐릭터는 마야에서 모델링됐고, 캐릭터의 퍼 그루밍은 페레그린 랩스(Peregrine Labs)의 마야 플러그인인 Yeti로 만들었다. 그 후 그룸을 얼렘빅 파일로 익스포트하고 언리얼 엔진으로 임포트했다. 첫 테스트를 성공적으로 마치자 팀은 몰리라는 이름의 미어캣과 그 몰리를 위협하는 독수리가 등장하는 새로운 단편 영화 스토리를 만들기로 했다. 특별 프로젝트팀은 정확한 참고자료를 얻기 위해 웨타 디지털과 긴밀한 협력 관계에 있는 웰링턴 동물원을 방문해 미어캣을 실제로 관찰하기도 했다.  제작팀은 전통적 스토리보드로 스토리 아이디어를 전개한 후, ‘체스 피스 프리비즈/모션 스테이징’이라고 부르는 간단한 퀄리티 수준의 스케치 작업을 했다. 이는 애니메이션뿐 아니라 환경 작업에도 영향을 미쳤다. 굴 자체는 커스텀 모델이었지만 배경과 주변 바위는 언리얼 엔진에서 모두 무료로 사용할 수 있는 퀵셀 메가스캔으로 제작했다. 이러한 애셋은 환경을 조정하거나 특정 카메라 각도로 ‘드레싱’할 때를 대비해 언리얼 엔진에서 활성화되었다.  캐릭터를 만들고 캐릭터에 애니메이션을 구현하는 초기 단계에서는 반복작업이 가장 큰 요인이다. 웨타 디지털의 애니메이터는 마야와 언리얼 엔진, 양쪽에서 신을 열어 두고 마야에서 몰리에 애니메이션을 적용한 후 언리얼 엔진에서 리얼타임 렌더링 결과를 확인할 수 있었다. 이는 언리얼 엔진의 라이브 링크 기능 덕분에 가능했는데, 이 기능은 외부 소스의 애니메이션 데이터를 언리얼 엔진으로 스트리밍하고 사용할 수 있는 공통 인터페이스를 제공한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   제작팀은 라이팅, 머티리얼, 애니메이션과 관련하여 모든 각도에서 신을 확인할 수 있었다. 문제가 있거나 개선이 필요한 부분을 직접 볼 수 있고, 일반 영화 파이프라인의 추가 없이 빠르게 반복작업을 할 수 있었다. 이 프로젝트가 가능했던 이유 중 하나는 바로 라이브 링크이다. 마야에서 애니메이션 컨트롤을 조정하고 언리얼 엔진에서 어떤 모습인지 확인함으로써 매우 잘 통제된 방식으로 작업을 진행할 수 있었다. 애니메이터는 장면별 작업 외에도 몰리와 독수리의 올바른 퍼포먼스에 필요한 애니메이션 릭을 개발했다. 독수리 날개는 특히 복잡했는데, 정확히 몸 안으로 접혀야 했고 하늘을 날 때는 완전히 펼쳐진 모습도 보여줘야 했다. 제작팀은 독수리 스켈레탈 메시의 일부로 지오메트리 기반의 깃대를 정교하게 설정함으로써 깃가지를 스트랜드로 바인딩하여 독수리의 아름다운 페더를 만들 수 있게 했다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지   애니메이터가 페더에 콜리전 이슈 없이 리얼타임으로 동작하는 독수리를 만드는 것은 엄청나게 복잡한 작업이었다. 몰리는 40만 개의 스트랜드로 그루밍되었지만, 독수리는 370만 개 이상의 스트랜드로 그루밍되었다. 예전에는 아티스트가 게임 엔진에서 조류의 날개를 처리하려면 카드를 사용해야할 수도 있었지만, 언리얼 엔진 4.26의 새로운 헤어 렌더링 및 시뮬레이션 시스템을 통해 매우 정확하게 페더가 구현된 날개를 제작할 수 있게 되었다. 애니메이션 감독 루도빅 샤일로(Ludovic Chailloleau)가 만든 몰리의 턴테이블 워크 사이클은 대다수 팀원들에게 전환점이 되었다. 그들은 자신감있게 프로젝트에 착수했지만 프로젝트 성격상 끊임없이 새로운 헤어와 퍼 기술을 추진해야 했는데, 카베자스의 셰이더와 결합한 샤일로의 절묘한 애니메이션은 팀원들에게 인상적인 최종결과를 보여줌으로써 이 방식이 성공할 것이라는 확신을 주었다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지   언리얼 엔진의 셰이더는 지금까지 팀에서 사용하던 셰이더와 매우 비슷했기 때문에 제작팀이 원하던 수준의 리얼리즘을 구현할 수 있었다. 이 정도의 리얼리즘을 구현하려면 전반적인 콘셉트를 잘 이해하는 것이 무엇보다 중요하다. 가령 몰리는 건조하고 거친 사막 땅을 돌아다니면서 굴을 들락날락하기 때문에 캐릭터의 모습을 표현하려면 애니메이션을 보고, 컨텍스트를 살펴보고, 이를 염두에 두고 그루밍해야 한다. 그 결과 몰리의 발 주변에 털이 뭉치고 엉킨 부위가 추가되었다. 팀은 몰리가 흙먼지 속에서 움직이다 보면 이 작품의 사막 설정을 고려했을 때 몰리의 퍼가 더 건조하고 덜 기름질 것으로 봤기 때문이다. 이런 요인들을 그루밍에 포함하면 해당 환경 속 몰리를 더 현실적으로 표현하고 환경과의 연관성을 지을 수 있었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   몰리가 알 위에서 균형을 잡는 애니메이션과 라이팅은 쉽지 않았다. 앰비언트 오클루전에 라이트매스를 사용했고, 라이트매스 임포턴스 볼륨을 사용하여 간접광을 그려냈다. 여기에 직접광의 다이내믹 라이팅을 결합함으로써 원하는 퀄리티의 라이팅을 만들고, 땅에서부터 몰리에게 부드럽게 바운스되는 라이팅과 백라이트가 근사하게 구현되는 독수리 페더를 표현할 수 있었다. 웨타 디지털의 담당자는 본격적인 작업 전에 언리얼 엔진에서 물리적 현실부터 작업했는데, 포토메트릭 라이팅 퀄리티가 제대로인지, 태양이 10만 럭스 정도인지, 카메라 노출을 현실적으로 설정했는지 등을 확인하는 작업이다.  현실 조건을 일대일로 일치시킨 후에는 팀에서 ‘영화 조명(movie lighting)’이라고 하는 것을 도입한다. 예를 들어, 독수리가 공격할 때 몰리가 굴속에 숨으며 카메라를 쳐다보는 장면이 있는데, 작업자에게는 이 장면이 라이팅을 설정하기가 가장 힘든 장면이었다. 언리얼 엔진의 라이팅은 극도로 사실적이고 물리적으로 타당하게 구현되지만, 실제로는 몰리의 표정을 보기에 굴 속이 너무 어두울 것 같아 이 장면에선 이펙트에 약간의 트릭을 가미했다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   이런 ‘영화 조명’을 진짜처럼 보이게 만드는 기술은 웨타 디지털을 돋보이게 하는 기술이다. 미어캣에서는 붉은 간접 반사광과 미묘한 눈빛으로 미어캣의 생각과 반응을 나타낸다.  최종본을 제작하기 위해 제작팀에서는 언리얼 엔진의 3D 비선형 에디터인 시퀀서에 있는 애니메이션 기능을 활용했고, 마지막으로 무비 렌더 큐를 사용해 최종 프레임을 출력했다. 이 기능을 사용하면 누적된 안티 에일리어싱과 모션 블러를 통해 최대 퀄리티로 렌더링할 수 있지만, 리얼타임보다는 약간 느리다. 그럼에도 기존의 오프라인 렌더링보다는 비교도 안되게 빠르기 때문에 선형 출력에 이상적이다. 온라인용으로 제작된 영화라 1920x1080으로 마스터링했지만, 4K로도 테스트 샷을 출력했는데 그 결과는 정말 놀라웠다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   미어캣을 제작한 소규모 팀은 언리얼 엔진 4.26의 새로운 표준 툴을 제대로 활용하면 높은 퀄리티의 영상물을 제작할 수 있다는 것을 입증했다. 미어캣을 제작한 담당자들은 언리얼 엔진이 있다면 누구든지 자신의 집에서 멋진 크리처를 만들 수 있고, 창의력과 기술력, 예술성을 발휘할 수 있음을 보여줬다.      기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-12-30
[칼럼] 2021년 기술 트렌드와 디지털 인사이트
디지털 지식전문가 조형식의 지식마당   올해도 많은 기업이나 개인들이 2021년의 기술 트렌드와 전망에 대해서 다양한 의견을 제시하고 있다. 대표적인 것만 조사해 봐도 25가지가 넘는다. 이제는 너무나 많아서 혼란스러울 정도이다. 미래 예측 정보를 정리한 내용의 또 다른 정리가 필요한 것 같다. 대표적인 것으로는 가트너(Gartner)에서 매년 발표하는 기술전략 트렌드가 제일 유명할 수 있다. 우선 2021년 가트너의 9가지 기술 트렌드는 다음과 같다.  행동인터넷(Interner of Behaviors) 전체적 경험(Total experience) 개인정보보호 강화 컴퓨팅(Privacy-enhancing computation) 분산 클라우드(Distributed cloud) 어디서나 운영(Anywhere operations) 사이버 보안 메시(CyberSecurity MESh) 지능형 컴포저블 비즈니스(Intelligent composable business) AI 엔지니어링(AI engineering) 초자동화(Hyperautomation)   그림 1. Gartner Top Strategic Technology Trends 2021(출처 : Gartner)   지난 12년간의 발표를 보면, 주로 미디어에서 회자되는 트렌드 용어들을 정리하고 있다. 재미있는 점이라면 중복해서 사용하는 용어를 발견할 수 있다. 예를 들어서 클라우드 컴퓨팅은 2009년, 2010년, 2011년, 2012년에 등장한다. 이 시점부터 디지털 변환의 기반에 클라우드 컴퓨팅이 자리를 잡았던 것 같다. 최근인 2020년과 2021년에서는 분산 클라우드(Distributed cloud)라는 용어로 등장하고 있다.  그린 IT는 2008년, 2009년, 2010년에 나왔지만 아직도 진화하고 있다. 3D 프린팅은 2014년, 2015년, 2016년에 기술 전략으로 제시했고 최근 2020년과 2021년에 중복된 트렌드는 분산 클라우드와 초자동화(Hyperautomation)이다.  블록체인은 2017년, 2018년, 2019년에 주목을 받았으며 디지털 트윈도 2017년, 2018년, 2019년에 등재되었고 항공분야 뿐 아니라 기계 제조, 스마트 시티, 스마트 건설 등 거의 모든 분야에서 정착되고 있다. 최근에는 의학이나 사람의 신체에도 디지털 트윈을 도입한다는 소식이 있다.  최근 필자가 관심이 있는 양자 컴퓨팅(Quantum computing)은 2019년에 발표되고 최근까지 조용하지만 수많은 IT 기업들이 회사의 사활을 걸고 발전시키고 있다. 이 기술은 10년 내 컴퓨터 기술의 ‘게임체인저’가 될 것이다.  사물인터넷과 빅데이터는 2012년에 등재되었다, 사물인터넷(Internet of Thing)은 2012년, 2013년, 2014년에는 만물인터넷(Internet of Everything), 2015년에 출현한 행동인터넷(Internet of Behaviors)이 2021년에 다시 돌아왔다.  가상현실과 증강현실은 2017년에 올랐고 2018년, 2019년에는 몰입 경험으로 등재되었다. 미래에는 홀로그램 기술을 이용한 공간컴퓨팅(Spatial computing)과 함께 발전될 것으로 보인다.  필자는 평생 이러한 디지털 트렌드 기술을 그룹으로 모아서 디지털 지식 (Digital BoK)을 정리해 오고 있다. 최상위 분류도 수백 가지인데, 각 분류마다 수십 가지의 전문분야가 있고 각 분야에 수많은 키워드가 있다. <그림 2>는 2021년 인공지능 관련 키워드이다.   그림 2. 2021년 인공지능 관련 키워드(출처 :  International Conference on Learning Representations)   이것을 모두 준비한다는 것은 불가능하며, 점점 새로운 기술은 새로운 개념과 지식을 필요로 한다. 이제는 지식을 축적하는 것이 중요한 것이 아니라 각 세부지식을 시장이나 개인의 가치을 빠르게 창출하는 유연한 이노베이션이 중요하다.    필자는 개인적으로 2021년에 초개인화기술(Hyper personalization), 초자동화기술(Hyperautomation), AI based X(인공지능 기반기술), 디지털 의학(Digital medicine), 공간컴퓨팅(Spatial computing), 양자컴퓨터(Quantum computing) 등에 관심이 있다.  제일 중요한 부분은 제한된 시간과 자원으로 예측을 잘 하는 것이 최고이지만, 미래의 예측은 거의 불가능하다고 할 수 있다. 자기가 좋아하는 것의 우선 순위를 작성하고 집중하는 것이 최선의 전략이라고 할 수 있다. 이제는 정보의 홍수가 아니라 선택의 홍수 시대에 살고 있다.  여기에 워렌 버핏(Warren Buffett)의 5/25 법칙을 적용해 보는 것도 좋을 것이다. 우선 2021년 기술 트렌드 25가지를 적은 다음에 상위 5가지에 집중해 보는 것이다. 이 세상에는 반복되는 것과 반복되지 않는 것으로 양분되는데, 반복되는 것은 관리할 수 있고 반복되지 않는 것은 창의나 이노베이션이라고 한다. 그러나 2021년에는 이런 두 마리의 토끼를 잡아야 할 것이다.    조형식 항공 유체해석(CFD) 엔지니어로 출발하여 프로젝트 관리자 및 컨설턴트를 걸쳐서 디지털 지식 전문가로 활동하고 있다. 현재 디지털지식연구소 대표와 인더스트리 4.0, MES 강의, 캐드앤그래픽스 CNG 지식교육 방송 사회자 및 컬럼니스트로 활동하고 있다. 보잉, 삼성항공우주연구소, 한국항공(KAI), 지멘스에서 근무했다. 저서로는 ‘PLM 지식’, ‘서비스공학’, ‘스마트 엔지니어링’, ‘MES’, ‘인더스트리 4.0’ 등이 있다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-12-30
[칼럼] 디지털 트윈을 통한 프레스 금형 공정의 발전 가속화
2021년에는 부디 모든 환경이 개선되어 건강하고 행복한 경제활동을 할 수 있기를 고대한다.  오토폼코리아는 2020년 약 2.5% 성장을 하였다. 지난 2020년을 돌이켜 볼 때 목표 달성은 고사하고 하향 매출까지 우려했던 것을 생각하면 다행스럽고 감사한 마음도 드는 것이 사실이다.  오토폼은 2003년 한국지사 설립 이래 IMF 시기를 제외하고는 한국뿐만 아니라 전세계에서 견고한 성장을 해 온 바 있다. 이는 CAD 및 CAM에 이어 CAE도 프레스 금형 공정에서 필수적인 공정으로 확산된 데에 기인한다. 이와 같은 제조공정의 디지털화(digitalization)라는 발전 테마 외에도 2000년대 초반 가속화된 자동차 제조업 분야의 고속 성장 등과 더불어 2011년~2016년에 걸쳐 글로벌 4위까지 도약한 국내 금형업계의 두터운 성장 덕분이다. 그러나, 2017년 이후 국내 금형 산업은 저성장 및 정체를 면치 못하고 있다. 우선 외부적으로는 자동차 및 관련업계의 글로벌 저성장이 큰 원인으로 생각된다. 내부적으로는 그간의 꾸준한 성장 및 정부의 계속된 금형 산업 육성에도 불구하고 고부가가치 기술 분야 및 품질 측면에서 독일, 일본 등 선진국의 경쟁이 아직 만만치 않은 상황이다. 한편으로 국내 제조환경과 관련해서는 고령화 및 청년인력 유입 감소, 중국 및 동남아 국가와의 새로운 추가 경쟁 등이 최근의 업계 정체 및 후퇴의 배경으로 분석되고 있다.  이러한 분석 혹은 반성과 더불어 국내 금형 업계, 특히 프레스 분야는 새로운 경쟁력을 위한 전자 분야의 슬림화 및 감성화, 자동차 산업의 경량화, 친환경 안전기술 개발 등 새로운 테마에 맞추어 고난도 금형기술, 고부가가치 기술로의 변화 및 발전이 요구된다. 탄소복합재, 고장력 강판, 핫 프레스 포밍 등 다양한 관련 기술의 고도화 노력은 이미 진행 중에 있다. 이러한 고객사들의 변화 요구 등에 맞춰 프레스 금형 가공 시뮬레이션을 제공하는 오토폼에서는 프레스 금형 가공에 관련한 프로세스 개선을 통해 제작비용 절감 및 품질향상이라는 명확한 과제를 맡아 조력하고자 한다. 단순한 프레스 금형 성형 공정의 재현 및 결과 예측을 넘어, 전체 제작 공정을 유기적이고 빠르게 개선하고자 도우려고 한다. 이와 관련해 오토폼은 향후 발전 테마를 ‘디지털 트윈(digital twin)’이라고 명명하고, 다음과 같은 발전 테마를 제시하고 있다. 최근 들어 많은 기업들이 이미 디지털 트랜스포메이션(digital transformation)의 잠재력을 파악해 한정된 자원의 효율적인 운영을 통해 비용 절감 및 업무의 효율성을 향상시키고, 새로운 비즈니스 모델과 서비스를 창출하고자 디지털 트랜스포메이션을 통해 자사의 디지털 역량을 높이는 노력을 진행하고 있다. 하지만 이러한 디지털 트랜스포메이션은 단순히 신기술 적용만으로 이루어지는 것이 아니며, 디지털 기술을 활용해 기존과는 다른 접근 방식으로 사람의 경험을 바꾸는 것이 성공의 핵심이라고 할 수 있을 것이다. 자동차 산업을 선도하고 있는 몇몇 자동차 메이커들은 이미 수년 전부터 PLM(Product Lifecycle Management)과 MES(Manufacturing Execution Systems) 분야의 디지털 트랜스포메이션 프로젝트를 진행해 오고 있다. 하지만, 스탬핑 및 차체 조립(body-in-white) 분야의 디지털 트랜스포메이션은 이제 막 시작하는 단계이며, 아직도 가야 할 길이 먼 것이 사실이다. 스탬핑 분야만을 놓고 보았을 때, 그동안 전통적인 기업의 수직적 조직 구조에서 각 부서의 개개인은 본인이 수행해야 할 업무의 일정과 목표만 달성하면 되었으며, 이를 위해 각 부서 간 서로 다른 소프트웨어를 사용하거나 각자의 경험에 의존하여 설계 및 제작 개념을 완성해 왔다. 이러한 개별적인 접근 방법은 조직 간의 이해상충을 일으키고 부서 간의 정보와 제한적인 데이터 교환으로 인해 상당한 낭비 요소가 존재했던 것이 사실이다. 그동안 오토폼은 이러한 정보와 데이터의 단절을 극복하고 업무의 효율성을 극대화할 수 있도록 제품의 디자인부터 양산에 이르는 프레스 금형 개발 전 부문에 걸쳐 각 단계에서 엔지니어들이 활용할 수 있고, 모든 부서가 단일 플랫폼에서 하나의 프로세스 모델을 공유할 수 있도록 솔루션을 개발하고 적극적인 기술 지원을 해 왔다.  이는 궁극적으로 가상(digital world)과 현실(physical world)의 차이를 줄이고, 엔지니어의 의도가 반영된 디지털 데이터가 현실에서 그대로 구현될 수 있는, 즉 디지털 트윈을 효과적으로 구현할 수 있도록 하는 기본 토대를 제공하기 위해 지속적인 노력이었다.(그림 1)   그림 1. 오토폼 디지털 트윈을 토대로 한 박판 성형 프로세스의 디지털화   디지털 트윈은 동일한 플랫폼에 연결된 모든 조직의 협력과 상호 정보교환을 통해서 진행되어야 점진적으로 완성도를 높여갈 수 있다. 현실세계는 가상세계를 기준(master)으로 제작되고 완성되어야 한다. 즉, 성형 해석의 모든 디지털 정보가 실제 금형에서 그대로 적용되고 구현되어야 하며, 차이가 발생하는 부분에 대한 피드백이 원활히 이루어지는 프로세스를 구축해야만 디지털 트윈을 통한 효과를 극대화할 수 있다.  이러한 디지털 트윈의 구현은 완성도와 신뢰도가 높은 디지털 데이터를 요구한다. 이를 위해 오토폼은 오랜 기간 소프트웨어의 신뢰성 향상을 위해 많은 투자를 해 왔으며, 이미 고객들로부터 신뢰를 받고 있다. 오토폼은 올해부터 이러한 박판 성형 분야의 디지털 트윈을 더욱 확장시켜 스탬핑 부품의 생산과 차체 분야로 확대해 고객지원을 강화해 나아가고자 한다. 4차 산업혁명의 핵심 기술 요소 중 하나인 IoT와 센서 기술의 비약적인 발전과 프레스 기계의 발전은 가상과 현실 세계의 융합을 더욱더 가속화시키고 있으며, 성형해석기술을 통해 차체 조립까지 포함하는 디지털 프로세스 트윈(digital process twin)을 구현할 수 있게 되었다.  이를 통해 제품의 트라이아웃(tryout) 과정을 비롯해 스탬핑 부품의 생산과 조립과정에서도 가상세계를 기준으로 현실세계를 측정, 모니터링하고 필요시 자동으로 조정과 제어를 할 수 있는 디지털 프로세스 트윈의 완성을 지원해 나가고자 한다.(그림 2)   그림 2. 물리적 프로세스(physical process)의 디지털 트윈   오토폼엔지니어링코리아는 국내 사용자 확대를 위한 양적 성장을 목표로 노력해왔다. 국내 프레스 금형업체 중 50인 이상의 대부분의 사업장에서 오토폼을 통한 가상 트라이아웃을 수행하고, 이를 통해 금형 품질 개선 및 원가절감과 관련한 성과를 내고 있다. 오토폼코리아 및 자사 임직원들은 코로나19와 관련한 글로벌 경제 위축 및 새로운 경쟁 환경에서 대한민국 금형 발전의 새로운 발전 모멘텀을 마련하기 위한 질적인 성장을 새로운 목표로 하여 계속 노력할 것이다.   얀 옐로넥(Jan N. Jelonek) 오토폼엔지니어링코리아 지사장     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-12-30
슈나이더 일렉트릭, 대학(원)생 대상의 글로벌 아이디어 공모전 ‘고그린’ 개최
슈나이더 일렉트릭이 2021년 3월 7일까지 글로벌 공모전 ‘고그린 (Go Green 2021)’의 참가자를 모집한다. 고그린은 전 세계 엔지니어링 및 비즈니스 분야 대학생 및 대학원생 대상으로 대담한 아이디어 및 혁신적인 솔루션을 찾기 위해 마련됐다. 지난 2019년에는 165개 국가에서 총 2만 3명이 참여해 3천개가 넘는 다양한 아이디어를 제안했다. 올해는 엔지니어링 및 산업용 소프트웨어 기업인 ‘아비바(AVEVA)’와 협력해 ‘에너지 관리 분야에서 디지털 혁신의 경계를 넓힐 수 있는 주제’를 추가했다. 참가자들은 지속 가능한 삶을 구축하기 위한 ‘에너지 접근(Access to Energy)’, ‘미래형 빌딩·주택(HoMES of the Future)’, ‘미래형 공장(Plants of the Future)’, ‘미래형 에너지 그리드(Grids of the Future)’, ‘미래지향적 디자인/ 엔지니어링(De[coding] the Future)’ 등 총 5가지 카테고리 중 한가지 분야를 선택해 에너지 관리 제안서를 작성하면 된다. 지원팀은 국적과 전공을 불문하고, 학부 2년이상 및 대학원에 재학 혹은 휴학 중인 2명의 학생이 팀으로 구성되어야 한다. 각 팀에는 슈나이더 일렉트릭의 인재상인 다양성과 포용성(Diversity& Inclusion) 기준에 따라 최소 1명 이상의 여성을 반드시 포함해야 한다. 글로벌 공모전인만큼 신청부터 제작, 발표까지의 모든 과정은 영어로 진행된다.     1차 온라인 접수는 다음 달인 1월 22일까지이며, 그 중 선착순 50명에게 1만원 상당의 기프티콘을 증정하고, 온라인 Q&A 세션을 진행한다. 최종 제안서는 2021년 3월 7일까지 별도로 마련된 슈나이더 일렉트릭 글로벌 고그린 신청 페이지에 접속해 제출하면 된다. 슈나이더 일렉트릭 코리아 김경록 대표는 “슈나이더 일렉트릭은 지구를 지키는 지속가능한 비즈니스를 위한 다양한 비전을 제시하고 있다”며, “미래 인재들이 가진 대담한 아이디어를 지속 가능한 새로운 솔루션으로 발전시키고 이를 통해 에너지 분야의 많은 문제 해결을 할 수 있을 것이라고 믿는다. 앞으로도 슈나이더 일렉트릭은 다양한 아이디어를 창출하고 실현하며, 국가 경쟁력과 전 세계 에너지 효율을 높이는 방향에 대해 많이 고민하고 노력할 것”이라고 전했다.
작성일 : 2020-12-22
[포커스] 오토데스크, “인공지능과 함께 더 나은 설계를 만든다”
오토데스크코리아가 지난 11월 5일 ‘오토데스크 디자인 라이브’를 진행했다. 온라인으로 진행된 이번 이벤트에서는 사람과 인공지능이 협업 설계를 할 수 있는 제너레이티브 디자인(generative design)을 중심으로, 설계와 디자인의 새로운 가능성을 엿볼 수 있는 키노트와 함께 사용자가 직접 아이디어와 디자인에 참여할 수 있는 기회가 마련되었다. ■ 정수진 편집장   사람과 인공지능이 협업해 디자인의 가능성을 넓힌다 오토데스크가 내세우는 제너레이티브 디자인은 ‘더 나은 설계 결과를 만들기 위해 클라우드 컴퓨팅을 활용하는 인공지능의 한 형태’로 정리할 수 있다. 제너레이티브 디자인의 기본적인 개념은 사람이 설계 목표와 최소한의 설계 조건을 지정하면 설계 소프트웨어가 인공지능 알고리즘을 사용해 조건에 맞는 수백~수천 개의 설계안을 자동으로 만드는 것이다. 설계자는 소프트웨어가 제시한 설계안 가운데 가장 나은 것을 선택할 수 있다. 인공지능의 힘을 활용하면 사람이 만드는 것보다 더 빠른 시간에 많은 수의 설계안을 만들 수 있고, 사람이 생각하기 힘든 설계안이 나올 수도 있다. 그만큼 최적의 설계를 찾을 수 있는 가능성이 커지는 것이다. 코로나19의 글로벌 유행으로 사회 전반에서 비대면(언택트)이 강조되고, 제품을 개발하는 과정에서도 이전과 다른 방식의 협업이 진행되고 있다. 이런 환경에서 제너레이티브 디자인은 사람과 인공지능의 협업 설계를 가능케 하는 기술로 많은 관심을 받고 있다. 디자인 스튜디오 어뎁션의 정덕희 대표는 “이전에는 사람의 힘만으로 디자인하는 경우가 많았는데, 제너레이티브 디자인은 인공지능과 함께 디자인하는 시대를 열었다고 할 수 있다. 인공지능과 협업을 하면 이전보다 더 짧은 시간에 효율적으로 설계 작업을 할 수 있고, 디자이너나 엔지니어는 남는 시간을 더 가치 있는 일에 집중할 수 있는 것이 장점”이라고 설명했다. 오토데스크는 클라우드 설계 솔루션인 퓨전 360(Fusion 360)을 중심으로 제너레이티브 디자인 기술을 제공한다. 또한 제조와 디자인뿐 아니라 건축과 같이 다양한 분야로 제너레이티브 디자인 기술을 확장 적용하고 있다. 오토데스크코리아에서 제조 기술 영업을 맡고 있는 조진형 부장은 “건축 분야에서는 인공지능이 건축물과 실내 환경을 이루는 다양한 요소에 대해 검토하고, 이를 바탕으로 건축 설계 및 인테리어를 최적화하는데 유용하게 쓰일 수 있다”고 전했다.   더 나은 디자인에서 새로운 디자인까지 오토데스크 리서치의 마크 데이비스(Mark Davis) 산업 미래 연구 시니어 디렉터는 클라우드와 인공지능으로 최상의 디자인을 만들 수 있는 제너레이티브 디자인이 사람의 역량을 더욱 높일 수 있다면서, 이를 ‘디자인 초능력(design superpower)’이라고 표현했다. 제너레이티브 디자인은 더 나은 디자인뿐 아니라 새로운 방식의 디자인도 가능하게 한다. 오토데스크는 산업 디자이너인 필립 스탁(Philippe Starck)과 함께 새로운 의자를 설계하는데 제너레이티브 디자인을 활용했다. 이 과정에서 사출금형 공정에서 얻은 인사이트를 제너레이티브 디자인과 결합해, 최소한의 재료를 사용해 미니멀한 디자인의 의자를 만들 수 있었다. 제조 효율과 비용, 환경 영향까지 고려한 디자인이 가능했던 것이다.   ▲ 미니멀한 디자인과 함께 제조 효율과 환경 영향까지 고려한 필립 스탁의 의자 디자인   현대자동차그룹의 뉴 호라이즌스 스튜디오(New Horizons Studio)는 로봇과 전기차 기술을 기반으로 제작한 콘셉트카 엘리베이트(Elevate)를 CES 2019에서 선보였다. 엘리베이트 콘셉트카는 바퀴가 달린 네 개의 로봇 다리를 사용해 기존의 자동차가 접근하기 어려운 지형이나 상황에서 효과적으로 활용할 수 있도록 설계했다.  뉴 호라이즌스 스튜디오의 존 서(John Suh) 상무는 “자동차가 걸어다닐 수 있다면 어떨까라는 간단한 질문에서 시작해 다양한 아이디어와 콘셉트를 논의했다. 초기에 결정한 것은 다리와 바퀴의 디자인에 개성을 살려서 자동차 전체의 미적 요소에 녹아들게 하자는 것이었다”고 소개했다. 뉴 호라이즌스 스튜디오는 자동차가 다리를 접을 때 공간 낭비를 없애는 방법을 찾기 위해 포유류와 파충류의 보행 유형을 연구했다. 그리고 다양한 상황에서 쓰일 수 있도록 모듈러 플랫폼을 만들었다. 이런 콘셉트를 구현하기 위한 설계 과정은 복잡했고 높은 내구성을 가지면서도 가벼운 부품을 개발해야 했는데, 뉴 호라이즌스 스튜디오는 스케일 모델 제작을 위해 부품을 테스트하고 다양한 디자인 요소를 분석하는데 퓨전 360의 제너레이티브 디자인을 활용했다. 존 서 상무는 “퓨전 360은 CAD로 설계한 부품에 대한 자세한 요소를 종합적으로 분석할 수 있었다. 초기 디자인에서 제너레이티브 디자인의 분석 능력을 활용해 여러 방식으로 중량을 늘리지 않고 강도를 개선할 수 있었고, 양산에 대한 검토도 가능했다. 또한, 부품 제조를 위해 적층제조(additive manufacturing)로 스케일 모델을 제작하는 과정에도 퓨전 360을 활용했다”고 설명했다.   ▲ 현대자동차 뉴 호라이즌스 스튜디오가 디자인한 콘셉트카   제너레이티브 디자인을 활용하는 디자인 배틀 이번 ‘오토데스크 디자인 라이브’에서는 일반 사용자가 참여하는 디자인 스톰과 디자인 배틀 역시 진행되었다. 디자인 배틀은 프리랜서 메이커인 린 킴 씨와 UAMC의 김주원 대표, 한라대학교 기계자동차공학부에 재학 중인 유동현 씨 등 세 명이 본선에 올랐고, 퓨전 360의 제너레이티브 디자인을 사용해 의자를 디자인하는 미션을 수행했다. 세 명의 본선 참가자는 무게 100kg(1000N), 크기 1200&tiMES;690&tiMES;690mm, 안전율 2 이상이라는 조건 안에서 저마다 독창적인 아이디어를 설계로 구현했다. 디자인 배틀 본선 결과 6각형의 패턴을 이용해 경량화를 추구한 린 킴 씨의 의자 디자인이 우승을 차지했고, 나무의 형태를 응용한 김주원 씨의 유선형 의자는 에코프렌들리 디자인 특별상, 레이싱카의 시트에서 착안한 유동현 씨의 실내용 의자는 아웃오브더박스(Out-of-the box) 디자인 특별상을 수상했다.   ▲ 디자인 배틀 본선에서 선보인 의자 디자인     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-11-30
[케이스 스터디] 카니발 AR 온라인 론칭쇼 만든 비브스튜디오
언리얼 엔진으로 AR 촬영 현장에 최적화된 제어 인터페이스 구현    현대자동차그룹 기아자동차는 온라인 론칭쇼 ‘카니발 온 AR(Carnival on AR)’을 통해 카니발 자동차의 새로운 모델을 공개했다. 글로벌 스토리텔링 기업인 비브스튜디오(Vive Studios)는 이 온라인 론칭쇼에 언리얼 엔진의 AR 기술을 접목해 실제 자동차와 같은 수준 높은 퀄리티를 선보였는데, 언리얼 엔진으로 AR 촬영 현장에 최적화된 제어 인터페이스를 구현하고, 실사 수준의 자동차를 시각화하면서 론칭쇼를 성공적으로 이끌었다. ■ 자료제공 : 에픽게임즈   ▲ 출처 : 4세대 카니발 AR 온라인 론칭쇼 메이킹 필름   비브스튜디오는 상상력과 기술의 한계에 도전하며 VR 휴먼 다큐멘터리 ‘너를 만났다’, 아이돌 그룹 아이즈원의 XR 콘서트 ‘ONEIRIC THEATER’와 같이 VR, AR, VFX 등 다양한 분야에서 각광받는 작품들을 제작해왔으며, 이번 자동차 AR 론칭쇼까지 성공적으로 마무리하며 호평을 받고 있다.  ‘카니발 온 AR’은 6년 만에 출시된 ‘카니발’ 시리즈의 최신 모델을 고객들에게 비대면으로 소개하는 프로젝트로, 현장에서 자동차를 직접 보고 만질 수 있는 기존의 오프라인 론칭쇼를 진행하기 어려운 현 상황을 반영해 온라인에서도 카니발의 특징과 장점들을 쉽고 흥미롭게 이해할 수 있는 간접 경험을 충분히 제공하도록 했다. 론칭쇼의 결과는 매우 성공적이었다. 전 세계 시청자들에게 실시간 스트리밍 서비스를 통해 공개되었는데, 국내 온라인 론칭쇼 사상 최고 접속률인 15만 5000회를 기록했으며 3300명에 달하는 최대 동시접속자 수를 기록했다. 또한 실시간 렌더링 기술을 활용한 AR 온라인 론칭쇼의 새로운 가능성을 업계에 제시했을 뿐 아니라, 실제와 증강현실의 구분이 어려울 정도로 높은 퀄리티를 고객들에게 선사하며 새로운 경험을 제공했다.  비브스튜디오의 성공적인 론칭쇼의 중심에는 언리얼 엔진이 있었다. 비브스튜디오가 4세대 카니발 AR 론칭쇼에서 언리얼 엔진을 어떻게 활용했는지 구체적으로 알아보자.     프로젝트 콘셉트 카니발 온 AR 프로젝트에서 비브스튜디오는 라이브 방송과 같은 생생함, 발표자와 자동차 사이의 인터랙션, 제품의 브랜드 철학을 모두 보여주기 위해 새로운 크리에이티브 솔루션을 만들었다. 공간과 사람, 정보와 경험 그리고 세대를 연결하는 ‘커넥팅 허브’라는 카니발의 철학을 론칭쇼 자체에도 담기 위해 론칭쇼가 펼쳐지는 스튜디오 공간에도 실제 자동차와 증강현실로 구현된 자동차, 가상현실 공간에서 등장하는 자동차라는 3개의 차원이 연결되는 콘셉트를 적용했다. 그리고 현실과 나란히 펼쳐지는 증강현실과 가상현실을 구현하기 위해 언리얼 엔진을 활용했다.     기술적 목표 비브스튜디오는 이번 이벤트를 준비하면서 세 가지 목표를 설정했다. 첫 번째, 시청자가 실제와 가상의 구분이 어렵다고 느낄 만큼의 실사 수준의 자동차를 시각화하는 것이었다. 두 번째, 시청자와 고객들이 AR과 가상현실을 통해 규모 있는 대형 이벤트로 받아들이게 하는 것이었다. 따라서 넓고 텅 빈 무대를 역동적으로 연출하기 위해 실제 자동차 1대를 제외한 모든 요소를 언리얼 엔진으로 실시간 렌더링했다. 실사 수준의 AR 자동차의 디테일에 집중하는 동시에 무대 위 가상 LED월 너머로 펼쳐지는 제3의 공간을 실시간으로 시각화해 더욱 확장된 무대를 보여주고자 했다.     세 번째 목표는 AR 촬영 현장에 최적화된 제어 인터페이스를 구현하는 것이었다. AR 촬영은 트래킹 장치, 실시간 합성 프로그램, PC 간 영상 동기화 등 일반 영상 촬영 현장에서 잘 사용되지 않는 여러 기술과 장비들이 어우러져 매우 복잡하고 큰 규모의 협업이 필요하며 현장에서는 장치 간 충돌이나 연출 변경, 발표자의 실수 등 예측하기 어려운 많은 변수들이 존재한다. 따라서 현장에서 발생하는 긴급한 이슈에 대한 빠른 대응이나 매끄러운 촬영 진행을 위해서는 전문적인 인터페이스와 제어 기능들이 필요했다. 때문에 제로 덴서티(Zero Density)나 픽스토프(Pixotope)와 같은 안정적인 기존 상용 솔루션 대신에 자유로운 기능 확장 및 빠른 현장 대응을 고려해 언리얼 엔진 기반의 자체 AR 솔루션인 V2Xr을 구현하기로 결정했다. 이 같은 도전은 언리얼 엔진의 실시간 연동 기능, 외부 영상과의 합성이 용이한 점과 함께 에픽게임즈에서 제공하는 다양한 플러그인이 있기에 가능했다.    AR 솔루션 V2Xr의 구성 비브스튜디오의 자체 AR 솔루션인 V2Xr은 시스템 전반의 제어와 운영을 담당하는 원격 제어 인터페이스인 라이브콤프와 AR이나 LED월을 위한 언리얼 엔진 기반의 시각화 프로그램인 XR 플레이어로 구성된다. 라이브콤프와 XR 플레이어는 네트워크 연결을 통해 매 순간 상태 및 명령을 주고받으면서 시각화 장면들을 제어하게 되는데, 특히 언리얼 엔진의 강력한 리얼타임 렌더링에 힘입은 XR 플레이어로 기술적 목표를 달성할 수 있었다.   XR 플레이어     라이브콤프의 제어 신호를 받아 시퀀서 헤드 위치를 변경하고 AR을 위한 영상 합성을 실행하는 등의 다양한 작업들이 XR 플레이어 안에서 이루어진다. XR 플레이어는 역할에 따라 AR 플레이어, SC 플레이어 두 가지 타입으로 나눌 수 있는데, AR 플레이어는 말 그대로 카메라 영상과 CG 영상을 실시간으로 합성해주는 역할을 하며, SC 플레이어는 LED월이나 프로젝션 월에 리얼타임 렌더링 그래픽이나 일반 영상을 실시간으로 출력하는 기능을 담당한다. 각 플레이어는 별도의 PC에서 독립적으로 실행되며, AR 카메라나 LED월의 개수에 따라 렌더링 PC를 추가할 수 있다.      AR 플레이어 AR 플레이어는 외부 트래킹 장치를 통해 카메라의 움직임 정보를 받아 CG에 반영한 후 실제 카메라 영상과 실시간으로 합성하는 기능을 제공한다. 이때 합성 방식이나 렌즈 왜곡을 보정하는 기능은 트래킹 장치의 통신 프로토콜 방식에 의해 결정되는데, V2Xr에서는 스타이프(Stype)의 통신 프로토콜과 범용 프로토콜인 FreeD 모두를 지원한다. 스타이프의 통신 프로토콜은 스타이프가 제공하는 언리얼 엔진 플러그인을 통해 합성과 렌즈 보정이 이루어지며, FreeD는 언리얼 엔진의 컴포셔를 기반으로 합성과 렌즈 보정을 진행하게 된다.   영상 합성 및 렌즈 왜곡 보정 트래킹 장치가 언리얼 엔진용 합성 플러그인을 제공하지 않거나 특수한 기능을 추가해야 하는 경우, FreeD 프로토콜을 통해 카메라 상태 정보를 수신해 직접 합성 기능을 구현할 수 있다. 물론 렌즈 왜곡 보정 기능도 꼭 필요하다. 이때 언리얼 엔진이 기본 제공하는 렌즈 디스토션 플러그인과 컴포셔는 이 같은 실시간 AR 합성 시 매우 유용하게 사용될 수 있다.   ▲ 캘리브레이션 데이터로 렌즈 왜곡을 보정   AR 합성 시 렌즈의 왜곡을 효과적으로 보정하는 과정은 매우 중요하지만 아주 어려운 작업이다. 특히, B4마운트 기반 방송용 렌즈의 경우 줌에 따라 화각의 차이가 매우 크며, 광각에서 상당한 렌즈 왜곡이 발생한다. 포커스 위치에 따라서도 왜곡의 양상이 달라지기 때문에 다수의 캘리브레이션 데이터를 만들고 영상을 합성할 때 적절한 보정 수치를 적용해 주어야 한다. 이를 위해 AR 플레이어에서는 렌즈 디스토션 플러그인을 통해 매 프레임 왜곡 보정 수치를 적용한 렌더 타깃을 생성하고, 컴포셔에서는 생성된 이미지를 기반으로 카메라 영상의 UV를 변형하는 방법으로 왜곡을 보정한다.     CG 색상 조정 AR 촬영 현장에서 주변 조건에 맞도록 CG의 색상 톤을 조정하는 기능은 매우 중요하다. 물리적인 조명의 연출 콘셉트나 상태에 따라 가장 적절한 색상 톤을 CG에 적용해야 이질감 없이 자연스러운 합성이 이루어지기 때문에, 상황별로 지정된 색상 톤 정보들을 읽어서 화이트 밸런스와 감마, 노출 등 언리얼 엔진이 기본 제공하는 포스트 프로세스의 항목들에 즉시 반영할 수 있는 기능을 구현했다. 이 기능으로 라이브콤프의 타임라인에 키 포인트를 생성하여 언리얼 엔진 콘텐츠에 색상 정보를 실시간으로 반영할 수 있게 되어 더욱 직관적으로 현장에서 색상 이슈에 대응할 수 있었다.     SC 플레이어 SC 플레이어는 대형 LED월이나 프로젝션 월에 직접 출력되는 그래픽을 연출하기 위해 사용된다. 일종의 인 카메라 촬영을 위한 플레이어로서, 외부에서 카메라 움직임을 받아 언리얼 엔진에서 실시간으로 렌더링하게 된다. 이번 기아자동차 AR 론칭쇼에서는 물리적인 LED월을 설치하지 않고 SC 플레이어의 영상을 AR 플레이어에서 받아 마치 가상의 대형 LED월이 현장에 있는 것처럼 AR로 시각화했다.     기본적으로 AR 플레이어와 SC 플레이어의 카메라가 상호 동기화되어 함께 움직일 때 시각적 공간감이 극대화되기 때문에 SC 플레이어에서도 외부 카메라의 트래킹 정보를 실시간으로 받아 CG에 반영할 수 있으며, 트래킹 데이터를 수신하는 여러 방식을 제공한다. AR 플레이어와 마찬가지로 장비 제조사의 플러그인을 사용하거나 FreeD 데이터를 직접 파싱하여 사용할 수 있다. 또는 AR 플레이어의 소켓 채널에서 UDP 패킷으로 카메라 위치, 각도, 화각 등의 데이터를 전송하고, SC 플레이어에서 이를 수신해 카메라를 동기화할 수 있다. 이런 UDP 방식의 소켓 통신은 TCP/IP 방식보다 대용량 데이터를 빠르게 전달하는데 유리하며, 언리얼 엔진의 Simple TCP UDP 소켓 클라이언트 플러그인을 통해 손쉽게 구현할 수 있다. 이를 통해 AR 플레이어의 카메라와 SC 플레이어의 카메라는 완전히 동기화되어 동일하게 움직이게 된다.   ▲ focal length, aperture, focus dist 등 실시간으로 전달받은 데이터를 카메라에 적용(위치, 각도는 제외)   ▲ Interpolation 함수로 위치 및 각도 데이터를 부드럽게 적용   가상 LED월 표현 SC 플레이어의 영상을 현실의 LED월에 직접 출력하는 경우에는 카메라의 촬영 영역과 실제 LED 형태가 반영된 절두체(Frustum) 영역을 적용하기 위해 아나모픽 왜곡을 적용한 후 출력해야 한다. 하지만 이번 론칭쇼에서는 SC 플레이어에서 출력된 영상을 AR 플레이어로 바로 전달해 가상 LED월 형태로 사용했다. 따라서 전달된 영상을 LED 형태대로 마스킹한 후 다른 AR 요소와 함께 외부 카메라 영상과 합성하는 방식으로 작업을 진행했는데, 이 같은 가상 LED월 방식은 실제 카메라의 움직임에 따라 AR 요소와 LED월에 표시되는 영상이 동시에 반응하므로 마치 LED월 너머에 있는 다른 공간을 들여다보는 듯한 연출이 가능하게 된다. 또한 라이트, 포그, 포스트 프로세스 설정 등이 서로 다른 두 공간을 동시에 하나의 공간에 표현할 수 있다.   ▲ 이번 론칭쇼에서는 SC 플레이어에서 출력된 영상을 AR 플레이어로 바로 전달해 가상 LED월 형태로 사용했다.   맺음말 비브스튜디오는 카니발 온 AR 론칭쇼를 준비하면서 언리얼 엔진 기반의 고품질 AR 그래픽을 보다 효과적으로 전달할 수 있는 여러 방법들에 대해 많은 고민을 했다. 특히, 원격 제어용 프로그램인 라이브콤프와 연계, 컴포셔 기반의 렌즈 왜곡 보정 및 합성, 현장에서의 즉각적인 색상 보정 등과 같이 운영 효율성을 개선하기 위한 기능에 집중했으며, 또한 가상 LED월 방식의 연출을 통해 보다 입체적인 공간 연출을 가능하게 했다. 짧은 준비 기간에도 불구하고 이러한 결과가 가능했던 이유는 언리얼 엔진이 제공하는 다양한 기능이나 플러그인을 적극적으로 활용하는 동시에 그 기반 위에 원하는 기능들을 덧붙여 빠르게 구현하고 테스트하는 과정을 반복할 수 있었기 때문이다.  이로써 비브스튜디오는 이번 론칭쇼를 통해 최고 수준의 기술 및 경험이 풍부한 컴퓨터 그래픽 디자이너와 AR/VR R&D 엔지니어와 함께 전 세계 고객을 대상으로 AR/VR 솔루션 서비스를 제공할 수 있었고, 이는 자사의 기술력을 한 단계 끌어올리는 계기가 되었다. 또한, 언리얼 엔진이 다양한 분야에서 활용되는 만큼 모든 산업 분야의 스트리밍 이벤트나 전시회를 대상으로 서비스를 제공하고 발전시킬 수 있는 엄청난 경험을 얻었으며, 이를 바탕으로 다양한 산업 분야에서 혁신을 이어 나갈 예정이다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-11-30