• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "가상현실"에 대한 통합 검색 내용이 742개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
센서로 웨어러블 로봇 연구 새 시대 열다
서울대학교 공과대학은 기계공학부 박용래 교수팀이 다양하게 변형이 가능하고 움직임을 쉽게 감지할 수 있는 소프트 센서 기술을 개발했다고 밝혔다. 박용래 교수는 ”이 기술을 통해 로봇을 훨씬 더 직관적이고 쉽게 원격으로 조작할 수 있는 웨어러블 기술 개발이 가능할 것”이라고 말했다. 굵기 6mm, 길이 7cm인 센서 하나면 손목과 같은 관절에 부착해 신체 움직임만으로 로봇 또는 컴퓨터에 다양한 명령을 원격으로 전달하는 것이 가능하다.     최근 들어 증강현실(AR)과 가상현실(VR) 기술이 상용화되고 대중의 주목을 받음에 따라, 인간과 로봇(또는 기계) 사이의 정보 전달을 보다 효과적으로 수행하기 위한 인터페이스 개발이 활발히 이루어지고 있다. 로봇 조작을 위한 직관적인 정보 전달에 가장 많이 사용되는 방법이 움직임이다. 즉, 사람의 움직임을 매 순간 감지하고 이를 통해 로봇이 필요한 작업을 수행하도록 하는 것인데 기존에 개발된 센서들은 주로 단일 변형만을 감지하기 때문에 다중 작업을 위해서는 많은 수의 센서를 사용해야 하고 따라서 시스템이 복잡해질 수밖에 없었다. 하지만 하나의 센서로 다양한 종류의 움직임과 변형을 쉽게 알아낼 수 있다면 복잡한 작업도 로봇이 쉽게 이해하고 수행하는 게 가능해진다. 박용래 교수팀은 이와 같은 문제를 해결하고자 단일 센서만으로 인장, 굽힘, 압축과 같은 개별 변형 모드뿐만 아니라 두 개 이상의 모드가 동시에 결합된 변형까지도 감지가 가능한 다기능 소프트 센서를 개발했다. 따라서 이 기술을 이용하면 적은 수의 센서를 이용하면서도 많은 종류의 정보를 로봇에 전달하는 것이 가능하다. 또한 유연 재료로 만들어져 있기 때문에 사람의 몸에 부착되더라도 사람의 움직임을 방해하지 않으면서 다양한 변형을 쉽게 감지할 수 있고, 이는 웨어러블 인터페이스를 구현하는 데 큰 장점이 된다.   세 가지 다른 원리(광학 소자, 이온 용액, 전도성 직물)의 센서 요소들을 단일 센서 구조로 구현한 다기능 소프트 센서   이번 연구에서 개발된 센서는 쉽게 늘어나거나 휘어질 수 있는 실리콘 고무 재질로 만들어져 있는데 가는 막대 형태의 구조 내부에 속이 빈 미세한 관(microchannel)이 있고 이 관은 전기 전도성이 있는 투명한 이온 용액으로 채워져 있다. 그리고 센서 구조 외벽에는 얇은 전도성 직물이 부착돼 있다. 이때 센서를 늘이거나 휘거나 누르면 변형 종류에 따라서 이온 용액의 빛 투과도와 전기 전도도, 전도성 직물의 전기저항 변화를 측정할 수 있는데 이 신호들의 조합을 이용하면 다양한 종류의 변형을 동시에 감지하는 것이 가능하다. 이러한 세 가지 센싱 메커니즘이 유기적으로 구조를 공유하고 있기 때문에 구조적으로 매우 단순할 뿐만 아니라 제작 공정 또한 간단하다. 연구진은 이 센서를 이용해서 웨어러블 인터페이스도 제작했으며 이를 이용해서 로봇 팔, 드론과 같은 기기들을 원격으로 쉽게 조작 가능하다는 것을 보여주었다. 또한 이 센서가 소프트 로봇과 결합이 되면 로봇의 움직임까지도 정확하게 파악할 수 있음을 보여줬다. 이번 연구 결과는 세계적인 국제 학술지 ‘사이언스 로보틱스(Science Robotics)’에 2020년 12월 16일 자로 온라인에 게재됐다. 이번 연구는 과학기술정보통신부의 소프트로봇기술 선도연구센터사업 및 글로벌 박사양성사업의 지원을 받아 진행됐다.
작성일 : 2021-01-08
[회사소개서]다쏘시스템코리아 (2020)
  다쏘시스템 소개                                                                                                 1981년에 설립돼 프랑스에 본사를 두고 있는 다쏘시스템은 3D익스피리언스 기업이다. 140여 개국 22만 고객사와 협력하여 경험의 경제를 이끌어 가고 있는 다쏘시스템은 지속 가능한 혁신을 가능하게 하는 가상 세계를 비즈니스와 사람들에게 제공한다. 다쏘시스템의 솔루션은 제품의 디자인, 생산 및 서비스하는 방식을 변화시키며, 가상세계의 가능성을 확장하고, 사회적 혁신을 촉진한다. 다보스 포럼 선정 2018년 세계 100대 가장 지속가능한(The Most Sustainable) 기업 세계 1위, 2014년 포브스 선정 소프트웨어 부문 ‘가장 혁신적인 기업’ 세계 2위에 선정되는 등 혁신성과 지속 가능성을 세계적으로 인정받고 있다. 2017년 기준 다쏘시스템 전 세계 매출은 약 4.1조원, 매년 두자리수 성장세를 이어가고 있다. 다쏘시스템은 3D기술로 기업과 과학, 사회가 공존할 수 있는 세상을 만들 수 있다고 주장한다.  전통적 텃밭이던 자동차나 항공 등 제조 산업을 넘어 과감한 산업 다각화를 추진하고, 당장 수익과 거리가 먼 혁신적 프로젝트를 추진하는 것도 그 때문이다. 다쏘시스템은 인간의 자유로운 상상력을 담아 과학에 기반을 둔 다양한 프로젝트를 진행하고 있다. 이집트 기자 피라미드의 내외부를 3D로 구현해 연구 및 교육에 활용하는 ‘기자 3D’, 빙하를 이용해 아프리카 물부족 사태를 해결하는 ‘아이스드림’, 태양열 비행기 ‘솔라임펄스 2’, 심장질환 치료를 위한 인공심장모델을 만드는 ‘리빙하트’, 지속가능한 미래도시를 설계하는 ‘싱가포르 3D익스피리언스시티’ 등이 그 대표적 예다. 또한, 다쏘시스템은 ‘기자 3D’ 프로젝트에 이어 2012년에 파리의 역사(BC 52년 – 1889년)를 타임랩스 렌더링 형식의 3D로 구현하는 ‘파리 3D 사가’ 프로젝트를 실시했다. 이 프로젝트에서 취합된 노트르담 대성당의 정확하고 상세한 데이터는 화재로 소실된 프랑스 파리 노트르담 대성당 복원에 기여할 것으로 예상된다. 또한 다쏘시스템은 자사 3D익스피리언스 플랫폼을 비롯해 3D 로봇 시뮬레이션 모델링 및 3D 협업 프로젝트를 향후 5년간 지원할 예정이다. 다쏘시스템 솔루션은 이미 전 세계 과학자들에게도 널리 알려져 있다. 화학적 성질을 수학적 계산과 이론을 이용해 컴퓨터로 예측하는 프로그램을 개발하여 2013년 노벨화학상을 수상한 마르틴 카르플루스는 다쏘시스템의 3D익스피리언스 플랫폼을 활용해 연구활동을 했다. 2014년 노벨물리학상을 받은 아카사키 이사무도 이 제품을 활용해 ‘청색 발광다이오드’를 세상에 내놓았다. 다쏘시스템은 1929년 설립된 다쏘그룹에 속해 있는 기업이다. 다쏘그룹은 모기업인 다쏘 항공(Dassault Aviation)을 필두로 다쏘 팔콘 제트, 항공 관련 업체인 SABCA, Sogitec, 프랑스 일간지인 르피가로, 부동산, 미술품 경매, 샤또 다쏘 와이너리까지 다양한 산업군에서 비즈니스를 영위하는 명실 상부한 프랑스 대표기업이다. 다쏘 그룹 내에서도 다쏘시스템의 3D익스피리언스 플랫폼의 솔루션은 널리 사용된다. 다쏘항공은 다쏘시스템의 초기 고객으로 팔콘 제트 항공기 제작에 CAD 디자인 툴 ‘카티아(CATIA)를 사용했다. 1955년에 설립된 샤토 다쏘 와이너리는 최상품의 와인을 생산하기 위해 포도밭의 배수 정비, 불량품 최소화, 병충해 관리 등 와이너리 운영 및 관리에 다쏘시스템의 솔루션을 사용한다.     다쏘시스템 코리아                                                                                              1997년에 설립된 다쏘시스템 한국 법인은 서울 삼성동 아셈타워에 위치하며 260여명이 근무하고 있다. 삼성전자, POSCO, LG전자, 현대자동차, 두산인프라코어, 삼성디스플레이, STX, 현대중공업, SK하이닉스, KAI, 등 국내 11,000여 유수 혁신 기업들을 고객사로 지원한다. 2010년에 720여억원을 투자하여 대구 최초의 해외 기업 R&D 센터를 설립해 조선해양산업, 건축, 엔지니어링 및 건설 산업 그리고 에너지, 프로세스 및 유틸리티 산업을 지원하고 있으며, 대구 지역에 50여명의 청년 일자리를 창출하고 아낌없는 투자를 해오는 등 한국경제 발전과 기업 혁신에 기여한 성과를 인정받아 2010, 2012, 2014년 국무총리상을 수상했다. 2015년 9월에는 대한민국국무총리가 프랑스 본사를 방문하여 한국경제에 기여한 공로를 인정했다. 또한, 2017년 5월에 아시아 최초로 3D익스피리언스 랩을 개소하여 이노디자인, 서울시, 프랑스 테크 허브 등과 MOU를 맺고 국내 잠재력 있는 스타트업들을 발굴 및 육성하는 일에 앞장서고 있다. 2018년 10월에는 국내 산업의 비즈니스 혁신 및 산학협력에 대한 투자 공로를 인정받아 한국무역협회가 수여하는 ‘한국-프랑스 비즈니스 어워드’를 수상하기도 했다. 2019년 6월에 서울 삼성동 아셈타워에 전 세계 6번째로 3D 디자인, VR(가상현실), 시뮬레이션, 3D 프린팅 등 최첨단 3D 가상기술을 직접 체험할 수 있는 ‘3D익스피리언스 이그제큐티브 센터’를 개소했다.     3DEXPERIENCE 플랫폼 소개                                                                                다쏘시스템의 3D익스피리언스 플랫폼은 제품수명주기관리(PLM)부터 디지털 목업(DMU), 컴퓨터 지원설계(CAD)까지 아우르는 통합 시스템을 하나의 가상 플랫폼에서 제공한다. 디자이너부터 엔지니어, 마케팅 담당자, 세일즈 담당자 등 기업 내 모든 조직이 가치 창출 프로세스에서 차별화된 고객 경험을 만들 수 있도록 지원한다. 모든 이해관계자는 3D라는 공통 언어를 통해 별도의 데이터 변환을 거칠 필요 없이 하나의 연결된 소셜 엔터프라이즈 상에서 공통 데이터를 토대로 협업할 수 있다. 3D익스리피리언스 플랫폼은 온프레미스 방식 또는 퍼블릭/프라이빗 클라우드 환경에서 데스크톱, 태블릿 및 모바일 기기에서 구현된다. 자동차, 항공우주 및 국방, 건설,도시&국토, 홈&라이프스타일, 포장소비재, 비즈니스 서비스, 하이테크, 생명과학, 조선 해양, 에너지&소재 산업 등 11개 산업 분야에서 초기 제품 컨셉 개발부터 엔지니어링, 제조, 생산, 판매까지 아우르는 앤드투앤드 솔루션을 제공한다. 사용법이 쉬운 단일 인터페이스를 통해 양방향 협업환경에서 3D 모델링 앱, 소셜 및 협업 앱, 정보 지능 앱 그리고 시뮬레이션 앱을 제공한다. 고품질의 제품을 빠르게 납품하고 생산할 수 있도록 제품 생산 전 과정의 디지털화를 지원한다. 최근 제조업에서 도입하고 있는 스마트 매뉴팩처링은 단순 무인 자동화 기술이 아닌 효율적인 생산 계획을 통한 생산 최적화를 추구하는 기술이다. 3D익스피리언스 플랫폼 안에는 3D CAD 프로그램인 카티아, 또는 솔리드웍스와 시뮬레이션 프로그램인 시뮬리아, 델미아 등 12개의 강력한 브랜드 애플리케이션들로 구성되어 있다. 이 통합된 앱들은 11개의 주요 산업 고객들에게 85개 이상의 산업 특화된 솔루션 경험들을 제공한다. 다쏘시스템은 고객 니즈를 파악하고 반영해 3D익스피리언스 플랫폼에서 더욱 다양한 솔루션 및 서비스를 제공하기 위해 노력한다. 실제로 전체 매출의 20%에 육박하는 금액을 R&D 및 기업 인수에 투자한다. 적극적인 기술 관련된 투자 및 인수 활동을 통해 사업을 다각화하고 있다.     인더스트리 르네상스                                                                                           500년전, 생각을 전파하고 지식을 공유하는 르네상스 시대가 도래했다. 손으로 글씨를 옮겨 적던 시대에 지식을 학습하는 것은 일부의 특권이었다. 하지만 구텐베르크의 활판인쇄기술의 등장으로 르네상스 혁명은 촉발되었고, 대중들이 책과 지식을 접하게 되면서 세상의 변화를 가져오게 되었다. 디지털 시대에도 르네상스가 일어나고 있다. 21세기 인더스트리 르네상스의 새로운 ‘책’은 바로 ‘경험’이다. 인더스트리 르네상스는 현실과 가상세계의 결합을 통해 새로운 형태의 발명, 학습, 제조, 비즈니스 프로세스를 창출한다. 새로운 유형의 고객을 위한 새로운 솔루션과 새로운 범주의 혁신 기업이 만들어지며, 이는 단지 디지털화 및 자동화에만 국한되지 않는다. 인더스트리 르네상스 시대를 주도하는 게임체인저들은 지식과 노하우의 문화를 창출한다. 밸류 네트워크와 경험의 플랫폼을 바탕으로 새로운 경제가 조성되는 것이다. 인더스트리 르네상스 시대에서 가장 중요한 것은 인류애, 경험, 지속가능성이며 제품과 자연, 인간의 삶을 조화시키는 것이다. 경험을 원동력으로 삼는 것이 바로 21세기 인더스트리 르네상스의 핵심이다. 다쏘시스템은 3D익스피리언스 플랫폼을 통해 기업들에게 최고의 지식과 노하우를 갖춰 미래인력들을 구축하고, 새로운 경험을 창출하며, 혁신을 위한 플랫폼 비즈니스로 전환하도록 다양한 솔루션과 디지털 경험을 제공해 다양한 산업군의 기업들이 오늘날 인더스트리 르네상스 시대에서 성공할 수 있도록 지원한다. 단순 생산능력이 아닌 고객 경험이 중요해진 시대인 만큼, 제품의 가치 창출은 현실과 가상 세계를 결합하여 지속가능한 경험을 부여하는 것을 의미한다.     스마트시티 사업                                                                                                  다쏘시스템은 도시의 기하학적/지형학적 요소, 인구 통계, 교통 및 자원 데이터 등 도시의 모든 정보를 3D 가상 환경에 구현하여 현실의 도시문제를 시험 및 검증하게 해주고, 시민과 정부, 기업간 협업이 가능한 플랫폼을 제공한다. 다쏘시스템의 3D익스피리언스 플랫폼 상의 ‘3D익스피리언시티(3DEXPERIENCity)’라는 버추얼 트윈(디지털 트윈) 기술은 축적된 데이터를 기반으로 실제와 동일한 도시를 가상공간에 3D로 재현한다. 다쏘시스템에서 정의하는 ‘스마트시티’는 도시를 가상 환경에 동일하게 구축하여 교통, 공기흐름, 환경오염, 소음, 도로계획, 상하수도 시설, 인프라 구축 등을 실제로 미리 가상에서 테스트하여 설계하는 미래도시를 일컫는다. 3D익스피리언시티에는 도시의 건물, 사람, 도로, 교통정보, 지리, 풍향, 나무, 차량 등 모든 데이터가 담겨있다. 빅데이터, 사물인터넷, 머신 러닝, 인공지능 등 최첨단 기술을 활용해 가상 플랫폼 안에서 다양한 시뮬레이션 및 테스트를 진행하고 도시의 문제를 예측하고 분석하며, 최적의 방안을 도출할 수 있도록 도와준다. 다쏘시스템은 인간 친화적이고 지속가능한 도시를 만드는 데 앞장서고 있다. 정부, 공공기관, 기업뿐만 아니라 시민들도 함께 참여하여 앞으로 살아갈 도시를 직접 계획하고, 의견을 공유하며, 함께 만들어가는 미래도시를 만드는 것이 다쏘시스템의 미션이다. 다쏘시스템은 2015년부터 싱가포르 정부와 함께 지속가능한 미래도시 설계를 위한 ‘버추얼 싱가포르’ 프로젝트를 진행해왔다. 2018년 도시 디지털화를 완료하고, 현재는 지하철, 배수관, 케이블선 등을 포함한 지하 디지털화 프로젝트를 개발 중이다. 이 외에도 프랑스 서북부의 렌(Rennes) 시, 인도네시아 빠당빠리아만시, 중국 광저우시, 인도 자이푸르시 등 전세계 여러 도시에서 다쏘시스템의 3D익스피리언시티를 이미 사용 중이다.     3D익스피리언스 이그제큐티브 센터                                                                                  프랑스, 독일, 미국, 중국, 인도에 이어 6번째로 서울 삼성동 아셈타워에 개소한 다쏘시스템의 3D익스피리언스 이그제큐티브 센터는 3D 기술을 통해 가상 세계와 현실 세계 사이의 경계가 없어지는 새로운 산업의 변화를 경험할 수 있는 공간이다. 경험을 통해 인간 중심의 가치를 구현하는 인더스트리 르네상스 시대의 실질적인 디지털 혁신을 실현할 수 있는 서비스와 솔루션 경험을 고객에게 제공하고 디지털 언어를 자유자재로 활용하는 ‘디지털 네이티브’ 세대를 위한 3D 기반의 자유로운 창의성 교육의 장을 제공한다.  다쏘시스템은 국내 전문 교육기관과 정부 및 지자체 기관들과 협업해 장기적으로 다양한 교육 프로그램을 운영할 계획이다.   3D익스피리언스 이그제큐티브 센터에서는 고객 대상으로 혁신을 향한 플레이그라운드 투어, 워크숍, 클라우드 및 VR 체험 등을 제공한다. 특히 학생들과 미래 혁신가들을 대상으로 3D 트레이닝, 3D 프린팅, VR 체험을 비롯해 스타트업 세미나, 유저 커뮤니티 미팅, 메이커 커뮤니티 대회 등 다양한 경험 프로그램들을 시행한다. 3D익스피리언스 이그제큐티브 센터에서는 어린이용 3D 소프트웨어인 ‘솔리드웍스 앱스 포 키즈(SOLIDWORKS Apps for Kids)’를 소개하는 3D 메이커 교실을 개최하여 어린이들이 3D 가상세계 및 3D 창작과 친숙해지고 상상을 실현할 수 있는 경험을 제공한다. 본격적인 교육프로그램 활성화를 위해 서울 강남서초교육지원청 발명교육센터를 시작으로 지역별 발명교육센터와 협업해 초등학생 및 중학생 대상으로 방과후 커리큘럼을 구성하여 전국적으로 확대해 나갈 예정이다. 지역별 진로직업체험센터를 통해 중학생들에게 미래 직업 경험 프로그램을 실시하고, 초중고 학생 대상으로 3D 모델링에 대한 커뮤니티 교육 프로그램과 협업 콘테스트 프로그램을 진행한다. 장기적으로 메이커 커뮤니티를 구축해 다쏘시스템의 카티아 및 솔리드웍스 애플리케이션을 활용한 아이디어 개발, 창작, 시뮬레이션 등을 지원함으로써 인재 육성에 적극적으로 나설 계획이다.
작성일 : 2021-01-06
[포커스] 유나이트 서울 2020, 유니티의 주요 성과 및 유니티 엔진 로드맵 공개
유니티 코리아가 12월 1일부터 3일까지 온라인을 통해 개발자 콘퍼런스인 ‘유나이트 서울 2020’을 개최했다. 이번 콘퍼런스에서는 2020년 유니티의 주요 성과 발표와 함께 국내 개발자 대상의 지원 정책 및 2021년 유니티 엔진 로드맵에 대한 소개가 이어졌다. ■ 이예지 기자   이번 행사는 유니티 존 리치텔로(John Riccitiello) CEO와 유니티 브렛 비비(Brett Bibby) 최고 제품 책임자, 유니티 프로덕트 매니지먼트 앤드류 보웰(Andrew Bowell) 부사장, 유니티 코리아 김인숙 대표 등 유니티를 대표하는 인사들의 오프닝 노트 영상으로 시작됐다.    ▲ 유니티 존 리치텔로 CEO   오프닝 무대에서 존 리치텔로 CEO는 “게임 산업에서 한국은 4번째로 큰 시장으로, 세계 최고 수준의 e스포츠 생태계를 갖추고 있으며 한국의 개발자들은 멋진 게임을 만들어내고 있다”면서 “게임 외에도 한국의 크리에이터들은 다양한 산업 분야에 큰 영향을 끼치고 있으며 유니티는 한국의 기업들과 긴밀한 파트너십을 통해 개발자의 경험을 지속적으로 향상시키고 있다”고 전했다. 이어 그는 “전 세계적으로 게임을 비롯한 많은 분야에서 변화의 흐름이 일고 있으며 우리도 이제 막 그 흐름에 뛰어들었다”면서 “이번 행사를 통해 유니티가 준비한 유익한 정보와 영감을 얻길 바란다”고 전했다. 이어서 발표를 맡은 유니티 브렛 비비 최고 제품 책임자는 유니티의 생태계에 대해 소개했다. 그는 “효과적인 툴과 워크플로 지원으로 개발자들이 비전을 실현할 수 있도록 환경을 제공하는 유니티의 전반적인 제작 및 운영 솔루션의 핵심 원칙은 유연성과 확장성, 신뢰성과 안정성”이라고 강조했으며, “이러한 유니티의 원칙들이 콘셉트 수립부터 제작, 출시, 운영 및 상업화까지의 과정을 위한 주요한 가이드라인”이라고 설명했다.  이번 행사에서 2020년 유니티의 주요 성과에 대해 전한 유니티 코리아 김인숙 대표는 “이미 다양한 고객과 유니티 크리에이터들이 여러 산업군에서 리얼타임3D와 인터랙티브를 통해 미래를 대비하고 있다”며, “오늘 이 자리에서 조금 더 그 내용을 공유하고자 한다”고 말했다.    ▲ 유니티 코리아 김인숙 대표가 2020년 유니티의 주요 성과와 국내 유니티 개발자들을 위한 개발자 지원 프로그램에 대해 소개했다.    2020년 주요 성과 중, 게임 분야를 보면 다양한 성공작들이 유니티를 활용해 만들어졌다. 해외에서는 원신, 폴가이즈 등 새로운 게임이 등장해 전 세계 게이머들을 놀라게 했고 한국에서는 바람의 나라 연, 카트라이더 러쉬플러스 등이 좋은 성적을 거두었다. 게임 이외의 산업군에서도 점점 더 활발하게 유니티를 사용하고 있다.  예를 들어 디지털 셀럽 ‘수아(Sua)’는 현재 온라인에서 모델로 활발히 활동하고 있고, 뽀로로는 ‘바나나차차’에 이어 ‘뽀로로 티키타카’의 뮤직비디오까지 유니티로 스마트하게 구현되어 우리들의 마음을 흔들었다. 또한 ‘올 뉴 투싼’도 유니티로 스마트하게 구현되었으며, 스마트한 건설 현장을 만들어 가기 위해 두산인프라코어와도 업무 협약을 체결했다. 국내 유니티 개발자들을 위한 새로운 개발자 지원 프로그램에 대한 발표도 이어졌다. 김인숙 대표는 “유니티는 국내 개발사들이 활용할 수 있도록 유니티 기반 콘텐츠를 개발하는데 필요한 머티리얼을 제공하는 템플릿 프로젝트 ‘카야’를 진행 중으로, 빠른 시일 내 해당 프로젝트를 배포할 예정”이라고 밝혔으며, “또한 개발자들의 게임 개발을 적극적으로 지원하기 위해 국내 대표 앱 마켓인 ‘원스토어’와 파트너십을 맺고 10억원 규모의 펀딩을 통한 기술 지원 프로그램을 운영할 계획”이라고 전했다.  이와 함께 올해 글로벌 교육 콘텐츠 플랫폼인 ‘유니티 런 프리미엄(Unity Learn Premium)’의 전면 무료화, 유니티 초보자들을 위한 게임 공모전 ‘유니티 x 레고 마이크로게임 챌린지’ 개최 등에 이어 2021년에도 개발자들에 대한 교육 부문의 지원을 더욱 강화할 계획이라고 밝혔다.   산업 분야를 위한 다채로운 세션 진행 유나이트 서울 2020에서는 게임을 비롯해 다양한 산업 분야를 아우르는 50여개의 세션이 펼쳐졌다.  먼저 ‘시뮬레이션, 건설 장비를 넘어 건설 현장으로’라는 주제로 발표를 맡은 두산인프라코어 이제필 책임연구원은 굴착기와 트럭이 작업하는 공사 현장을 시뮬레이션을 통해 장비별 가동률과 공사 정보를 확인할 수 있는 도구를 유니티로 구현한 내용을 소개했다. 그는 “건설기계 제조사에서는 건설기계 개발 과정에 필요한 부품과 장비의 검증을 위해 CAE를 활용하고 있지만 최근에는 무인화 기술, 다른 장비와의 연결성, 생산성 향상에 대한 연구개발이 활발하게 진행되면서 기존의 CAE가 아닌 다른 방식으로 건설 장비와 건설 현장이 구현되고 있다”고 전했다.  이어 그는 “두산인프라코어는 건설 공사의 한 종류인 토공사의 일부를 유니티를 이용하여 시뮬레이션으로 구현했으며, 이를 통해 정해진 공사 물량을 특정 위치로 옮기는 공사의 계획을 수립할 때 굴착기와 트럭의 작업조 구성에 따라 공사 비용과 장비의 가동률이 달라지는 것을 시뮬레이션으로 확인할 수 있게 되었다”고 설명했다.   ▲ 두산인프라코어 이제필 책임연구원이 건설 공사의 한 종류인 토공사의 일부를 유니티를 이용하여 시뮬레이션으로 구현한 사례를 소개했다.   ‘유니티 리플렉트(Unity Reflect)로 알아보는 실시간 BIM을 통한 설계 및 시공의 격차 해소’라는 주제로 발표를 맡은 유니티 코리아 이종혁 AEC 세일즈 매니저는 설계 검토 및 조정 작업에 유니티 리플렉트를 사용할 경우 어떻게 협업이 수월해지고 의사 결정이 빨라지며 설계와 시공 간의 격차가 해소되는지에 대해 설명했다.  과거에는 AEC 업계 대부분이 대면 인터랙션, 물리적 모델, 2D 시각 자료에 의존했다. 이러한 커뮤니케이션 방식은 코로나 19가 업무 형태에 영향을 미치고 있는 현 상황에서 설계를 검토하고 관련 담당자 모두에게 올바른 콘텍스트를 제공하기 위한 회의를 진행하는데 큰 어려움이 있다.  이종혁 AEC 세일즈 매니저는 “이러한 상황에서 실시간 BIM을 사용하면 몰입감 높은 VR(가상현실)/AR(증강현실) 인터랙티브 경험을 통해 설계자와 소유주, 시공사가 물리적 장소에 상관없이 설계를 검토하고 시공 전에 설계 수정 작업을 반복해서 진행할 수 있다”면서 “유니티에서 제작한 유니티 리플렉트는 건축, 엔지니어링 및 건설 기업이 다양한 기기에서 고도로 커스터마이징된 실시간 3D 경험을 VR과 AR로 구현할 수 있도록 지원한다”고 전했다.   ▲ 유니티 코리아 이종혁 AEC 세일즈 매니저    이외에도 이번 콘퍼런스에서는 여러 산업 분야의 주요 기업들이 유니티 활용사례에 대해 발표했으며, 국내 유니티 개발자들이 관심을 가져왔던 유니티의 최신 기능과 솔루션이 소개됐다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-12-30
한국CDE학회, 언택트 시대의 아날로그와 디지털 융합 CDE 기술 주제로 동계학술대회 개최
  한국CDE학회는 지난 11월 25일부터 28일까지 제주국제컨벤션센터에서 '제26회 한국CDE학회 동계학술대회'를 진행했다. 한국CDE학회는 CDE(Computational Design and Engineering)와 관련한 학술과 기술을 발전시키고 보급, 응용해 국내 산업기술진흥에 공헌하기 위해 지난 1995년 설립됐다. CDE는 기계, 자동차, 조선, 항공, 건축‧건설, 의료, 국방, 컴퓨터, 디자인 등의 분야에서 CAD‧CAM‧CAE, PLM‧BIM, 디지털 트랜스포메이션, 디지털생산, 가상현실(VR)‧증강현실(AR), 인공지능(AI), 3D프린팅, 사물인터넷(IoT) 등 IT융합기술을 망라한 IT융합학회이다. '언택트 시대의 아날로그와 디지털 융합 CDE 기술'이라는 주제 아래 온-오프라인 혼합 형식으로 치뤄진 이번 학술대회에서는 스마트 공장, 디지털 트윈, 사이버물리시스템, BIM(빌딩정보관리 시스템), 딥러닝, 인공지능, 3D 프린팅, 증강현실 등 31개 세션에서 126편의 논문 및 74편의 포스터 논문이 발표되었다. 그리고 스마트 건설기술, 산업분야의 AR 적용, 자율주행 자동차, VR 영화 기술 등에 관한 튜토리얼 세션이 진행되었다. 기조연설에서는 한국산업기술평가관리원 김돈정 지식서비스, 엔지니어링 PD가 '지식서비스 R&D 소개 및 추진방향'에 대해, 한국조선해양 김태환 전무가 '한국조선해양 디지털 트랜스포메이션 추진사례'에 대해 소개했다. 김돈정 PD는 지식의 생산, 가공, 유통, 활용을 통해 부가가치를 창출하는 지식서비스 산업의 이해를 돕고, 시장·기술 동향 및 디지털 뉴딜과 연계한 지식서비스 기술 개발 방향을 짚었다. 김태환 전무는 4차 산업혁명의 핵심 키워드인 CPS(사이버-물리 시스템)를 중심으로 조선해양 분야의 디지털 트랜스포메이션 비전과 추진 전략 및 한국조선해양의 구현 사례를 소개했다.   ▲ 한국CDE학회 제17대 학회장에 선임된 영산대학교 명세현 교수   한편, 이번 학술대회 기간 중 진행된 한국CDE학회 총회에서 영산대학교 기계·자동차공학부 명세현 교수가 한국CDE학회 제17대 회장에 선임됐다.  2021년 3월부터 임기를 시작하는 명세현 신임 학회장은 “콜로퀴엄 세션의 활성화, 학회 발행 SCIE 등재 JCDE 저널의 상위 랭크 유지, 산‧학‧연 협동을 통한 기업회원 50% 증가가 목표이며, 코로나 시대에 온‧오프라인으로 소통하는 지속가능한 학회를 만들겠다”고 밝혔다.
작성일 : 2020-12-08
[포커스] 마이크로소프트, 3D 홀로그램과 혼합현실로 산업 현장의 생산성 높인다
한국마이크로소프트가 11월 2일 홀로렌즈 2(HoloLens 2)를 국내에 선보였다. 홀로렌즈 2는 전작과 비교해 2배 넓어진 시야각으로 몰입도를 높였고, 무게를 줄이고 디자인을 개선해 착용감이 3배 향상됐다. ■ 이예지 기자   웨어러블 홀로그래픽 컴퓨터인 ‘홀로렌즈(HoloLens)’는 스마트폰이나 PC 연결 없이 몰입감 있는 혼합현실(Mixed Reality, MR) 경험을 제공한다. 혼합현실은 현실 공간을 차단하는 가상현실(VR)이나 단순히 가상 정보를 현실 공간에 표시하는 증강현실(AR)을 넘어, 현실 공간에 가상 정보를 더해 상호작용이 가능하다. 홀로렌즈는 이러한 혼합현실을 3D 홀로그램으로 구현하고 이를 사용자의 손동작이나 음성으로 자유롭게 조작할 수 있게 해준다. 한국마이크로소프트 이지은 대표는 “우리가 지금 살고 있는 인텔리전트 엣지와 인텔리전트 클라우드 시대에 혼합현실과 인공지능을 더하고, 새로운 수준의 애플리케이션을 통합한다면 뉴 노멀 시대의 새로운 비즈니스 패러다임으로 변화할 것”이라며, “이동이 제한되고 대면 접촉이 어려운 시기인 만큼 홀로렌즈 2를 통해 원활한 업무와 교육을 지원하고, 생산성 향상에 기여할 수 있길 바란다”고 말했다.   ▲ 한국마이크로소프트 이지은 대표    편안하고 몰입도 높은 혼합현실 경험 제공 이번에 국내에 공개된 홀로렌즈 2는 기업용 디바이스로 출시됐으며, 전작과 비교해 시야각은 2배, 착용감은 3배 높여 대규모 건설 현장 관리, 현장 원격 점검 등 산업 현장의 생산성을 증가시킨다.  특히 홀로렌즈 2는 넓은 시야각과 심도 센서를 활용한 조작으로 뛰어난 몰입감을 선사한다. 또한 초경량 탄소섬유 소재로 제작해 무게를 줄이고 안면부에 치중돼 있던 무게중심을 뒤로 옮기면서 착용감도 한층 높였다. 홍채인식 기능도 추가해 빠르고 안전하게 기기를 사용할 수 있도록 하는 등 기업에서의 활용성이 강화됐다. 이외에도 AI가 내장된 ‘지능형 엣지 디바이스’로서, 클라우드 애저(Azure)를 통해 홀로그램으로 구현된 작업 내역을 팀원들에게 공유할 수 있으며, 이를 기반으로 대규모 프로젝트나 원거리 협업이 필요한 상황에서 사람들이 같은 정보를 함께 볼 수 있는 환경을 구축할 수 있다.    ▲ 마이크로소프트 홀로렌즈 2   ▲ 홀로렌즈 2 개선 영역   헬스케어, 나사 우주선 제작 등 다양한 산업군서 생산성 증대  홀로렌즈 2는 원격 지원으로 멀리 떨어져 있어도 협업이 가능하며 교육 및 과제 지침을 3D 홀로그램으로 제공함으로써 직원이 새로운 기술을 더 빨리 습득하게 돕는다. 또한 디지털 정보를 물리적 현실 위에 구현해 실제 모델 구축 전 제품 설계나 객실 배치를 시뮬레이션 해볼 수 있을 뿐만 아니라 작업 환경에서 얻은 인사이트를 바로 적용함으로써 운영 효율성도 개선할 수 있어 산업 현장에서의 활용이 증가하고 있다. 한국마이크로소프트 이건복 IoT & MR 사업부 팀장은 “실제로 벤틀리 시스템즈(Bentley Systems)는 대규모 인프라 프로젝트에 홀로렌즈 2를 도입했다”면서 “벤틀리 시스템즈는 홀로렌즈 2를 활용해 건축설계와 같은 모양의 4D 모델을 시각화해주는 애플리케이션 ‘싱크로XR’을 개발하여 시공 진행 상황, 잠재적 현장 위험 및 안전 요구사항에 관련된 통찰력을 기반으로 프로젝트를 관리하고 있다”고 설명했다. 뿐만 아니라 애저에 진행 상황과 관련된 최신 정보를 실시간 업데이트함으로써 모든 사람들이 동일한 정보를 공유 받을 수 있도록 하고 있다.   ▲ 벤틀리 시스템즈의 홀로렌즈 2 활용 사례    또한 방산기업 록히드 마틴(Lockheed Martin)은 2024년 달 착륙을 목표로 추진 중인 나사의 달 착륙 아르테미스 프로젝트 임무를 수행할 유인 우주선인 오리온(Orion) 조립에 홀로렌즈 2를 활용했다. 록히드 마틴은 2017년부터 지난 2년여 간 홀로렌즈를 통해 발생한 오류가 전무했으며, 작업에 투입되는 시간과 비용도 절감됐다고 보고했다.  이외에도 석유업체 쉐브론(Chevron)은 홀로렌즈와 다이나믹스 365 리모트 어시스트를 통해 대면 접촉을 없애고 버튼 하나로 매뉴얼, 도면 등 데이터를 공유하는 등 효율적인 비대면 협업 기반을 마련했다. 예를 들어 재택근무 중인 전문가의 컴퓨터 모니터를 통해 홀로렌즈를 착용 중인 현장 직원의 상황을 공유하면, 전문가가 직원에게 단계별 안내를 제공해 문제를 해결했다.  영국 임페리얼 칼리지 헬스케어 NHS 트러스트(Imperial College Healthcare NHS Trust in England)에서 코로나19 환자를 치료 중인 의료팀은 홀로렌즈 2, 리모트 어시스트, 팀즈 등을 통해 바이러스에 대한 잠재적 노출을 최소화하고 있다.  ▲ 홀로렌즈 2를 통해 우주선 열차폐를 점검 중인 기술자   한편 국내에서는 충북테크노파크가 가스안전 설비의 제어와 시뮬레이션을 위하여 홀로렌즈 기술을 활용한 가상모형 프로젝트에 적용하고 추후 실제 가스설비에 적용할 계획이다. 또한 산업용 AR 솔루션 기업 버넥트(Virnect)는 홀로렌즈 2를 기반으로 AR 차량 수리 애플리케이션을 개발해 고객의 디지털 전환을 지원하고 있다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-11-30
[케이스 스터디] 카니발 AR 온라인 론칭쇼 만든 비브스튜디오
언리얼 엔진으로 AR 촬영 현장에 최적화된 제어 인터페이스 구현    현대자동차그룹 기아자동차는 온라인 론칭쇼 ‘카니발 온 AR(Carnival on AR)’을 통해 카니발 자동차의 새로운 모델을 공개했다. 글로벌 스토리텔링 기업인 비브스튜디오(Vive Studios)는 이 온라인 론칭쇼에 언리얼 엔진의 AR 기술을 접목해 실제 자동차와 같은 수준 높은 퀄리티를 선보였는데, 언리얼 엔진으로 AR 촬영 현장에 최적화된 제어 인터페이스를 구현하고, 실사 수준의 자동차를 시각화하면서 론칭쇼를 성공적으로 이끌었다. ■ 자료제공 : 에픽게임즈   ▲ 출처 : 4세대 카니발 AR 온라인 론칭쇼 메이킹 필름   비브스튜디오는 상상력과 기술의 한계에 도전하며 VR 휴먼 다큐멘터리 ‘너를 만났다’, 아이돌 그룹 아이즈원의 XR 콘서트 ‘ONEIRIC THEATER’와 같이 VR, AR, VFX 등 다양한 분야에서 각광받는 작품들을 제작해왔으며, 이번 자동차 AR 론칭쇼까지 성공적으로 마무리하며 호평을 받고 있다.  ‘카니발 온 AR’은 6년 만에 출시된 ‘카니발’ 시리즈의 최신 모델을 고객들에게 비대면으로 소개하는 프로젝트로, 현장에서 자동차를 직접 보고 만질 수 있는 기존의 오프라인 론칭쇼를 진행하기 어려운 현 상황을 반영해 온라인에서도 카니발의 특징과 장점들을 쉽고 흥미롭게 이해할 수 있는 간접 경험을 충분히 제공하도록 했다. 론칭쇼의 결과는 매우 성공적이었다. 전 세계 시청자들에게 실시간 스트리밍 서비스를 통해 공개되었는데, 국내 온라인 론칭쇼 사상 최고 접속률인 15만 5000회를 기록했으며 3300명에 달하는 최대 동시접속자 수를 기록했다. 또한 실시간 렌더링 기술을 활용한 AR 온라인 론칭쇼의 새로운 가능성을 업계에 제시했을 뿐 아니라, 실제와 증강현실의 구분이 어려울 정도로 높은 퀄리티를 고객들에게 선사하며 새로운 경험을 제공했다.  비브스튜디오의 성공적인 론칭쇼의 중심에는 언리얼 엔진이 있었다. 비브스튜디오가 4세대 카니발 AR 론칭쇼에서 언리얼 엔진을 어떻게 활용했는지 구체적으로 알아보자.     프로젝트 콘셉트 카니발 온 AR 프로젝트에서 비브스튜디오는 라이브 방송과 같은 생생함, 발표자와 자동차 사이의 인터랙션, 제품의 브랜드 철학을 모두 보여주기 위해 새로운 크리에이티브 솔루션을 만들었다. 공간과 사람, 정보와 경험 그리고 세대를 연결하는 ‘커넥팅 허브’라는 카니발의 철학을 론칭쇼 자체에도 담기 위해 론칭쇼가 펼쳐지는 스튜디오 공간에도 실제 자동차와 증강현실로 구현된 자동차, 가상현실 공간에서 등장하는 자동차라는 3개의 차원이 연결되는 콘셉트를 적용했다. 그리고 현실과 나란히 펼쳐지는 증강현실과 가상현실을 구현하기 위해 언리얼 엔진을 활용했다.     기술적 목표 비브스튜디오는 이번 이벤트를 준비하면서 세 가지 목표를 설정했다. 첫 번째, 시청자가 실제와 가상의 구분이 어렵다고 느낄 만큼의 실사 수준의 자동차를 시각화하는 것이었다. 두 번째, 시청자와 고객들이 AR과 가상현실을 통해 규모 있는 대형 이벤트로 받아들이게 하는 것이었다. 따라서 넓고 텅 빈 무대를 역동적으로 연출하기 위해 실제 자동차 1대를 제외한 모든 요소를 언리얼 엔진으로 실시간 렌더링했다. 실사 수준의 AR 자동차의 디테일에 집중하는 동시에 무대 위 가상 LED월 너머로 펼쳐지는 제3의 공간을 실시간으로 시각화해 더욱 확장된 무대를 보여주고자 했다.     세 번째 목표는 AR 촬영 현장에 최적화된 제어 인터페이스를 구현하는 것이었다. AR 촬영은 트래킹 장치, 실시간 합성 프로그램, PC 간 영상 동기화 등 일반 영상 촬영 현장에서 잘 사용되지 않는 여러 기술과 장비들이 어우러져 매우 복잡하고 큰 규모의 협업이 필요하며 현장에서는 장치 간 충돌이나 연출 변경, 발표자의 실수 등 예측하기 어려운 많은 변수들이 존재한다. 따라서 현장에서 발생하는 긴급한 이슈에 대한 빠른 대응이나 매끄러운 촬영 진행을 위해서는 전문적인 인터페이스와 제어 기능들이 필요했다. 때문에 제로 덴서티(Zero Density)나 픽스토프(Pixotope)와 같은 안정적인 기존 상용 솔루션 대신에 자유로운 기능 확장 및 빠른 현장 대응을 고려해 언리얼 엔진 기반의 자체 AR 솔루션인 V2Xr을 구현하기로 결정했다. 이 같은 도전은 언리얼 엔진의 실시간 연동 기능, 외부 영상과의 합성이 용이한 점과 함께 에픽게임즈에서 제공하는 다양한 플러그인이 있기에 가능했다.    AR 솔루션 V2Xr의 구성 비브스튜디오의 자체 AR 솔루션인 V2Xr은 시스템 전반의 제어와 운영을 담당하는 원격 제어 인터페이스인 라이브콤프와 AR이나 LED월을 위한 언리얼 엔진 기반의 시각화 프로그램인 XR 플레이어로 구성된다. 라이브콤프와 XR 플레이어는 네트워크 연결을 통해 매 순간 상태 및 명령을 주고받으면서 시각화 장면들을 제어하게 되는데, 특히 언리얼 엔진의 강력한 리얼타임 렌더링에 힘입은 XR 플레이어로 기술적 목표를 달성할 수 있었다.   XR 플레이어     라이브콤프의 제어 신호를 받아 시퀀서 헤드 위치를 변경하고 AR을 위한 영상 합성을 실행하는 등의 다양한 작업들이 XR 플레이어 안에서 이루어진다. XR 플레이어는 역할에 따라 AR 플레이어, SC 플레이어 두 가지 타입으로 나눌 수 있는데, AR 플레이어는 말 그대로 카메라 영상과 CG 영상을 실시간으로 합성해주는 역할을 하며, SC 플레이어는 LED월이나 프로젝션 월에 리얼타임 렌더링 그래픽이나 일반 영상을 실시간으로 출력하는 기능을 담당한다. 각 플레이어는 별도의 PC에서 독립적으로 실행되며, AR 카메라나 LED월의 개수에 따라 렌더링 PC를 추가할 수 있다.      AR 플레이어 AR 플레이어는 외부 트래킹 장치를 통해 카메라의 움직임 정보를 받아 CG에 반영한 후 실제 카메라 영상과 실시간으로 합성하는 기능을 제공한다. 이때 합성 방식이나 렌즈 왜곡을 보정하는 기능은 트래킹 장치의 통신 프로토콜 방식에 의해 결정되는데, V2Xr에서는 스타이프(Stype)의 통신 프로토콜과 범용 프로토콜인 FreeD 모두를 지원한다. 스타이프의 통신 프로토콜은 스타이프가 제공하는 언리얼 엔진 플러그인을 통해 합성과 렌즈 보정이 이루어지며, FreeD는 언리얼 엔진의 컴포셔를 기반으로 합성과 렌즈 보정을 진행하게 된다.   영상 합성 및 렌즈 왜곡 보정 트래킹 장치가 언리얼 엔진용 합성 플러그인을 제공하지 않거나 특수한 기능을 추가해야 하는 경우, FreeD 프로토콜을 통해 카메라 상태 정보를 수신해 직접 합성 기능을 구현할 수 있다. 물론 렌즈 왜곡 보정 기능도 꼭 필요하다. 이때 언리얼 엔진이 기본 제공하는 렌즈 디스토션 플러그인과 컴포셔는 이 같은 실시간 AR 합성 시 매우 유용하게 사용될 수 있다.   ▲ 캘리브레이션 데이터로 렌즈 왜곡을 보정   AR 합성 시 렌즈의 왜곡을 효과적으로 보정하는 과정은 매우 중요하지만 아주 어려운 작업이다. 특히, B4마운트 기반 방송용 렌즈의 경우 줌에 따라 화각의 차이가 매우 크며, 광각에서 상당한 렌즈 왜곡이 발생한다. 포커스 위치에 따라서도 왜곡의 양상이 달라지기 때문에 다수의 캘리브레이션 데이터를 만들고 영상을 합성할 때 적절한 보정 수치를 적용해 주어야 한다. 이를 위해 AR 플레이어에서는 렌즈 디스토션 플러그인을 통해 매 프레임 왜곡 보정 수치를 적용한 렌더 타깃을 생성하고, 컴포셔에서는 생성된 이미지를 기반으로 카메라 영상의 UV를 변형하는 방법으로 왜곡을 보정한다.     CG 색상 조정 AR 촬영 현장에서 주변 조건에 맞도록 CG의 색상 톤을 조정하는 기능은 매우 중요하다. 물리적인 조명의 연출 콘셉트나 상태에 따라 가장 적절한 색상 톤을 CG에 적용해야 이질감 없이 자연스러운 합성이 이루어지기 때문에, 상황별로 지정된 색상 톤 정보들을 읽어서 화이트 밸런스와 감마, 노출 등 언리얼 엔진이 기본 제공하는 포스트 프로세스의 항목들에 즉시 반영할 수 있는 기능을 구현했다. 이 기능으로 라이브콤프의 타임라인에 키 포인트를 생성하여 언리얼 엔진 콘텐츠에 색상 정보를 실시간으로 반영할 수 있게 되어 더욱 직관적으로 현장에서 색상 이슈에 대응할 수 있었다.     SC 플레이어 SC 플레이어는 대형 LED월이나 프로젝션 월에 직접 출력되는 그래픽을 연출하기 위해 사용된다. 일종의 인 카메라 촬영을 위한 플레이어로서, 외부에서 카메라 움직임을 받아 언리얼 엔진에서 실시간으로 렌더링하게 된다. 이번 기아자동차 AR 론칭쇼에서는 물리적인 LED월을 설치하지 않고 SC 플레이어의 영상을 AR 플레이어에서 받아 마치 가상의 대형 LED월이 현장에 있는 것처럼 AR로 시각화했다.     기본적으로 AR 플레이어와 SC 플레이어의 카메라가 상호 동기화되어 함께 움직일 때 시각적 공간감이 극대화되기 때문에 SC 플레이어에서도 외부 카메라의 트래킹 정보를 실시간으로 받아 CG에 반영할 수 있으며, 트래킹 데이터를 수신하는 여러 방식을 제공한다. AR 플레이어와 마찬가지로 장비 제조사의 플러그인을 사용하거나 FreeD 데이터를 직접 파싱하여 사용할 수 있다. 또는 AR 플레이어의 소켓 채널에서 UDP 패킷으로 카메라 위치, 각도, 화각 등의 데이터를 전송하고, SC 플레이어에서 이를 수신해 카메라를 동기화할 수 있다. 이런 UDP 방식의 소켓 통신은 TCP/IP 방식보다 대용량 데이터를 빠르게 전달하는데 유리하며, 언리얼 엔진의 Simple TCP UDP 소켓 클라이언트 플러그인을 통해 손쉽게 구현할 수 있다. 이를 통해 AR 플레이어의 카메라와 SC 플레이어의 카메라는 완전히 동기화되어 동일하게 움직이게 된다.   ▲ focal length, aperture, focus dist 등 실시간으로 전달받은 데이터를 카메라에 적용(위치, 각도는 제외)   ▲ Interpolation 함수로 위치 및 각도 데이터를 부드럽게 적용   가상 LED월 표현 SC 플레이어의 영상을 현실의 LED월에 직접 출력하는 경우에는 카메라의 촬영 영역과 실제 LED 형태가 반영된 절두체(Frustum) 영역을 적용하기 위해 아나모픽 왜곡을 적용한 후 출력해야 한다. 하지만 이번 론칭쇼에서는 SC 플레이어에서 출력된 영상을 AR 플레이어로 바로 전달해 가상 LED월 형태로 사용했다. 따라서 전달된 영상을 LED 형태대로 마스킹한 후 다른 AR 요소와 함께 외부 카메라 영상과 합성하는 방식으로 작업을 진행했는데, 이 같은 가상 LED월 방식은 실제 카메라의 움직임에 따라 AR 요소와 LED월에 표시되는 영상이 동시에 반응하므로 마치 LED월 너머에 있는 다른 공간을 들여다보는 듯한 연출이 가능하게 된다. 또한 라이트, 포그, 포스트 프로세스 설정 등이 서로 다른 두 공간을 동시에 하나의 공간에 표현할 수 있다.   ▲ 이번 론칭쇼에서는 SC 플레이어에서 출력된 영상을 AR 플레이어로 바로 전달해 가상 LED월 형태로 사용했다.   맺음말 비브스튜디오는 카니발 온 AR 론칭쇼를 준비하면서 언리얼 엔진 기반의 고품질 AR 그래픽을 보다 효과적으로 전달할 수 있는 여러 방법들에 대해 많은 고민을 했다. 특히, 원격 제어용 프로그램인 라이브콤프와 연계, 컴포셔 기반의 렌즈 왜곡 보정 및 합성, 현장에서의 즉각적인 색상 보정 등과 같이 운영 효율성을 개선하기 위한 기능에 집중했으며, 또한 가상 LED월 방식의 연출을 통해 보다 입체적인 공간 연출을 가능하게 했다. 짧은 준비 기간에도 불구하고 이러한 결과가 가능했던 이유는 언리얼 엔진이 제공하는 다양한 기능이나 플러그인을 적극적으로 활용하는 동시에 그 기반 위에 원하는 기능들을 덧붙여 빠르게 구현하고 테스트하는 과정을 반복할 수 있었기 때문이다.  이로써 비브스튜디오는 이번 론칭쇼를 통해 최고 수준의 기술 및 경험이 풍부한 컴퓨터 그래픽 디자이너와 AR/VR R&D 엔지니어와 함께 전 세계 고객을 대상으로 AR/VR 솔루션 서비스를 제공할 수 있었고, 이는 자사의 기술력을 한 단계 끌어올리는 계기가 되었다. 또한, 언리얼 엔진이 다양한 분야에서 활용되는 만큼 모든 산업 분야의 스트리밍 이벤트나 전시회를 대상으로 서비스를 제공하고 발전시킬 수 있는 엄청난 경험을 얻었으며, 이를 바탕으로 다양한 산업 분야에서 혁신을 이어 나갈 예정이다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-11-30
AEC 산업의 VR/AR 기술 활용 현황 및 전망 
  VR(가상현실)과 AR(증강현실)은 콘텐츠 및 각종 서비스 산업에 혁신적 변화를 가져올 것으로 기대되는 혁신적 기술이다.  최근 머리에 착용하는 형태의 VR 기기인 HMD(Head Mounted Display)의 보급이 확대되면서 게임, 영상, 테마파크용 놀이기구 등의 VR 콘텐츠가 활발하게 소개되고 있다. 한편, 전세계를 강타한 코로나19의 영향으로 사회와 경제 전 분야에 걸쳐 비대면 디지털 전환이 가속화되면서 의료, 국방, 엔터테인먼트 산업을 넘어 AEC 산업까지 VR/AR 기술이 적용되고 있다. AEC 산업에서 VR/AR 기술은 작업의 효율을 높이고 시간과 비용을 절감하는데 도움을 줄 수 있다. 또한 건축물이 지어지기 전에 VR/AR 기술을 이용해 다양한 검토를 함으로써, 사전에 예측하기 어려운 많은 문제점을 해결하고 건설사업의 리스크를 줄일 수 있다. 이처럼 VR/AR 기술이 AEC 산업에서 활발하게 활용되고 있는 가운데, 이번 호에서는 ‘AEC 산업의 VR/AR 기술 활용 현황 및 전망’에 대해 소개한다.    BIM-XR 스마트 건설 기술을 적용한 어그먼티드 그라운즈 / 정재헌 건설산업의 새로운 변화 VR 기술 / 김태현 AEC 분야에서 실시간 3D를 이용한 VR/AR 환경 / 김범주 AEC 산업에 혁신적인 변화를 불러일으킨 VR/AR / 태성에스엔아이 VR 기반의 범죄예방환경설계 인증 개발 사례 / 최돈출   총 18 페이지   기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-11-30
[피플&컴퍼니] 메디컬아이피 박상준 대표
‘의료 혁신 기술’로 양질의 의료 서비스 제공에 기여할 터   AI(인공지능)과 3D 프린팅 등 첨단기술은 다양한 분야에 접목되면서 산업을 고도화시키기도 하고, 인간의 삶을 윤택하게도 만든다. 특히 의료 분야에 적용된 AI와 3D 프린팅 기술은 의료 데이터의 가치를 극대화하며 환자의 생명을 살리는 데에도 기여할 수 있다. 메디컬아이피는 이런 혁신적 의료 환경을 앞당기고자 노력하고 있는 기업이다. 의료진의 기술 향상에 활용될 수 있는 AI와 3D 프린팅 기반의 의료기술과 다양한 의료 플랫폼을 개발, 제공하는 메디컬아이피 박상준 대표를 만나 이 회사의 핵심 기술력과 경영철학에 대해 들어보았다. ■ 최경화 국장, 이성숙 기자      AI 의료영상 분석·분할부터 의료용 3D 프린팅까지 토털 솔루션 제공 메디컬아이피는 서울대학교병원의 공식 원내 1호 스타트업 기업으로, 지난 2015년에 설립되었다. 서울대병원 의료기기혁신센터 부센터장을 역임한 메디컬아이피 박상준 대표는 “서울대병원 내 스타트업 엑셀러레이팅을 담당하는 SNUH 벤처(SNIH-Ventures)가 의대 및 병원이 보유한 글로벌 수준의 의료 연구 성과가 실용화될 수 있도록 지원함에 따라 메디컬아이피의 사업이 본격화될 수 있었다”고 설립배경을 설명했다. 메디컬아이피의 대표 제품은 인체 내부 정보에 색을 입혀 3D로 신속하고 편리하게 시각화해주는 메딥프로(MEDIP PRO)이다. 이 제품은 CT, MRI 등 단층 촬영 영상을 인공지능 기술로 모델링하여 기존 흑백 영상만으로 확인하기 어려웠던 환자의 장기와 병변 등을 보다 직관적이고 정확하게 파악할 수 있도록 해준다. 또 머신러닝과 딥러닝 기술을 접목해 사람의 눈으로는 판별하기 어려운 장기의 경계 및 병변까지 구분할 수 있으며 의료진의 판독과 진료, 수술 계획 수립 등에 활용돼 의료 자원 사용의 효율성을 제고하고 기술 수준을 높이는데 기여한다. 박상준 대표는 “메딥프로는 지난해 기술 고도화에 따른 국내 MFDS(의료기기 2등급) 변경인증을 받았다. 11월 국내 기업 최초로 AI 의료영상 소프트웨어 분야에서 미국 FDA 승인을 획득했으며, 12월 말에는 유럽 CE 인증까지 완료하는 등 글로벌 수준의 기술력이 검증된 제품”이라고 설명했다. 이와 함께 메디컬아이피에서 보유한 아낫델(ANATDEL)은 메딥프로를 기반으로 하는 의료용 환자맞춤형 3D 프린팅 솔루션으로, 세그멘테이션(장기분할) 기술을 활용해 환자의 CT나 MRI 영상을 토대로 심장, 뇌, 척추, 귀, 신장에 이르기까지 신체 모든 장기를 물성 그대로 구현해 낸다. 의료진은 환자 진단 및 수술 계획 수립, 수술 시뮬레이션 등에 활용할 수 있으며 의대 학생들의 교육이나 의료 실습, 의료장비 테스트에도 쓰이는 등 활용도가 높다. 특히 기존에 활용되던 Cadaver(사체)를 대체할 수 있어서, 향후 의료 산업에서 활용이 증대될 것으로 예상된다. 박상준 대표는 “실제로 분당서울대병원 비뇨의학과에서는 아낫델 신장(Kidney) 모델을 임상에 110case 이상 적용했고, 수술 과정에 아낫델을 도입한 경우 100%의 수술 성공률을 기록했다”며 “수술 시간을 크게 단축함으로써 회복 속도 증가, 후유증 감소 등의 효과를 거두는 등 의료 현장에서의 높은 효용성을 지닌 제품”이라고 설명한다.   ▲ 메딥프로는 인공지능 기술을 적용해 CT, MRI 상을 3D로 시각화한다.   의료영상 분석 및 3D 프린팅 솔루션 워크플로 구축 메디컬아이피는 ‘의료 3D 토털 솔루션’을 확보한 기업이다. 이 회사는 CT, MRI 등 의료영상에 머신러닝 및 딥러닝 기술을 적용해 쉽고 빠르게 3D로 시각화해주는 인공지능 기술을 개발하고, 세그멘테이션(장기 분할) 기술과 의료영상 화질 개선 기술 등을 더해 의료영상 분석 영역에서 차별화된 3D 솔루션을 구축했다. 여기에 더해 3D 프린팅, 모바일, XR(eXtended Reality: 확장현실) 등으로 기술의 적용산업을 다변화함으로써 소프트웨어와 하드웨어를 아우르는 토털 솔루션을 확보할 수 있었다. “AI 의료영상 전처리 및 분할 기술의 경우 의료용 3D 프린팅을 위해 선행되어야 하는 필수적인 요소이기 때문에, 두 사업을 모두 영위하는 데에서 오는 장점이 크다”는 박상준 대표는 “메딥프로를 통해 CT, MRI 등의 DICOM 파일을 STL, OBJ, 3MF, VRML 등 다양한 3차원 파일 형식으로 추출할 수 있으며, 이를 통해 환자의 2차원 의료영상이 3D 프린팅 제품으로 제작될 수 있다”고 설명한다. 또한, “메디컬아이피에서 제공하는 3D 프린팅 솔루션은 자체 개발한 AI 소프트웨어를 통해 이루어지고 있기 때문에 제작시간 단축, 정확도 향상은 물론 의료용 3D 프린팅 결과물의 퀄리티를 극대화하고 있다”고 덧붙였다. 메디컬아이피의 기술력은 코로나19 팬데믹에서도 두각을 나타내고 있다. 이 회사는 지난 3월, 코로나19 특화 소프트웨어인 ‘MEDIP COVID19’을 개발하고 전세계에 무료 배포하였다. 이 소프트웨어는 메딥프로의 AI 의료영상 분석·분할 기술을 기반으로 코로나19 정량화에 필요한 부분을 발췌해 설계되었으며, 환자의 흉부 CT에서 1분 내 폐렴 병변을 자동으로 탐지/분할/정량화할 수 있는 소프트웨어이다. MEDIP COVID19의 차별점은 폐렴의 물리적인 중량(gram)과 폐 전체에서 차지하는 비율(%)을 자동으로 계산해준다는 점이다. 특히 코로나19 증상을 수치적으로 정량화해주기 때문에. 환자의 중증도를 보다 객관적이고 정확하게 파악할 수 있다. ‘MEDIP COVID19’는 9월 14일 기준으로 50여 개국 1200여개 기관에서 다운로드받았다. 또한, 메디컬아이피는 전세계 무료배포를 통한 사회적 가치 실현과 기술의 공공성을 인정받아 지난 5월 과학기술정보통신부에서 선정하는 ‘D.N.A(Data·Network·AI) 우수기업’으로 선정된 바 있다. “전 세계적으로 확진자와 의심환자 수가 기하급수적으로 증가하는 가운데 환자의 중증도를 판단하여 한정된 의료자원을 효율적으로 활용하는 것이 무엇보다도 중요한 만큼, 코로나19 감염 여부를 판별해주는 PCR과 중증도를 수치적으로 나타내는 MEDIP COVID19의 시너지를 기대하고 있다”는 박상준 대표는 “저개발국가 등 보다 넓은 의료 환경에서 해당 기술을 활용할 수 있도록 엑스레이(X-ray)를 활용한 코로나19 정량화 솔루션 또한 개발 중”이라고 덧붙여 소개한다. 메디컬아이피는 현재 아마존웹서비스(AWS)의 지원을 통해 ‘TiSepX COVID19’ 개발을 위한 X-ray 의료영상 딥러닝을 진행하고 있으며, 연내로 이 소프트웨어의 개발을 완료할 예정이다. 2015년 설립 이후 메디컬아이피는 3D 산업 및 4차 산업혁명에 부합하는 다양한 기술 영역들을 의료 분야에 접목해왔다. “단층촬영 영상을 3D로 구현해내는 원천기술을 중심으로 AI, 3D 프린팅, 모바일, XR 등 산업 트렌드에 맞는 최첨단 산업들과의 연결고리를 찾아 산업의 발전 방향에 부합하는 기술들을 개발하고 있다”는 박상준 대표는 “언뜻 보면 이러한 기술들이 모두 다른 여러 종류의 것들로 인식될 수 있지만, 의료라는 테마 안에서는 의료진들이 선택한 기술은 결국 환자에게 향해가는 하나의 pathway(통로)라고 생각한다”고 말한다.   ▲ 메딥 코비드19는 메딥프로의 AI 의료영상 분석 기술을 기반으로 코로나19의 증상을 정량화한다.   Empowering Medicine, Saving Lives 메디컬아이피의 메딥프로(MEDIP PRO)는 미국 FDA, 유럽 CE 인증을 통해 글로벌 표준에 부합하는 기술력을 검증받았다. 또 아낫델(ANATDEL)은 지난 5년간 약 1000명의 환자에게 적용되어 수술시간을 감소시키고, 수술 실패율을 낮추면서 국내외적으로 3D 프린팅 기술의 효과를 입증했다. 이를 기반으로 메디컬아이피는 앞으로 해외시장 진출을 더욱 가속화할 계획이다. 이와 함께 메디컬아이피는 제품 포트폴리오를 다각화하고 사업 경쟁력을 강화하고 있다. 이 회사는 메딥과 아낫델 외에도 웹·모바일 기반 의료용 커뮤니케이션 플랫폼 ‘모딥’과 ‘메디클립’, 협진 및 의학 교육에 최적화된 아나토미 테이블 ‘MDBOX‘ 등 다 양한 라인업을 구축했으며, 이를 고도화하는 동시에 새로운 의료 3D 솔루션을 지속적으로 의료 시장에 선보여 산업 내 입지를 공고히 할 계획이라고 한다. 이의 일환으로 메디컬아이피는 전신 CT ‘체성분’을 AI로 자동 분할해주는 딥캐치(DeepCatch)의 출시를 준비하고 있다. 딥캐치는 1분 내 의료영상에서 온몸의 피부, 뼈, 근육, 피하지방, 복부지방, 혈관, 척수 등 체성분을 분할하고 정량화하여 이환율 및 사망률과 관련이 있는 정확한 체지방 지표를 제공해 준다. “딥캐치는 BMI의 부족한 부분을 보완하고 근감소증 관리가 가능해지는 것은 물론, 수술 예후와 연관된 각종 체성분 수치들을 한 번의 클릭만으로 정확하게 산출해줌으로써 연구 및 제약 분야에서도 활발하게 사용될 수 있을 전망”이라고 박상준 대표는 설명한다. 한편 메디컬아이피는 제품 라인업 확장과 함께 VR 콘텐츠를 강화해 의학 교육에 3D 모델링 기술과 시너지를 낼 계획이다. VR 콘텐츠는 환자의 인체 내부를 가상현실 속에서 생생하게 체험할 수 있어 교육 과정에서 해부실습용 카데바(Cadaver)를 대체할 수 있으며, 수술 계획과 시뮬레이션 등에도 특화된 기술이다. 또 이 회사는 의료용 3D 프린팅 사업 또한 환자맞춤형 3D 프린팅 장기 모형의 제작 노하우를 바탕으로 의료진의 교육이나 의료기기 사용적합성 검증에 활용될 수 있는 3D 프린팅 시뮬레이터로 제품군을 넓히고 있다. 기술력을 인정받아 지난 8월 글로벌 1위 의료기기 기업인 메드트로닉(Medtronic)과 MOU를 체결하고 시뮬레이터 개발에 착수했으며, 올림푸스(Olympus), 바드(Bard) 등 다수의 글로벌 기업과 제품 개발을 협의 중이다. “메디컬아이피는 인공지능, 3D 프린팅, VR 등 첨단 기술을 의료영상과 접목하여 실제 의료 현장에서 환자의 생명을 살리는 데 쓰일 수 있도록 다양한 플랫폼 개발에 총력을 다 하고 있다”는 박상준 대표는 “앞으로도 ‘Empowering Medicine, Saving Lives’라는 회사의 설립 이념처럼 소중한 생명을 살리기 위해 끝없이 정진하여 의료 AI 분야의 글로벌 No.1 기업으로 성장하고자 한다”고 전했다.   ▲ 메티컬아이피의 제품 포트폴리오     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-09-29
마이크로소프트, "우주선부터 자동차까지 혼합현실로 만들고 수리한다"
마이크로소프트가 자사의 연례 콘퍼런스인 ‘이그나이트(Ignite) 2020’에서 미국 연방항공우주국(NASA)을 포함해 제조, 헬스케어 등 다양한 산업군에서 홀로렌즈 2(HoloLens 2)를 활용한 사례를 소개했다. 홀로렌즈 2는 마이크로소프트의 웨어러블 홀로그래픽 컴퓨터로, 스마트폰이나 PC에 연결할 필요 없이 혼합현실(MR) 경험을 제공한다. 혼합현실은 가상현실(VR)이나 증강현실(AR)과 달리, 현실 공간에 가상 정보를 더해 상호작용이 가능한 것이 특징이다. 2019년 공개된 홀로렌즈2는 전작보다 몰입감과 편의성이 크게 향상됐다. 오리온(Orion) 유인 우주선은 2024년을 목표로 추진 중인 NASA의 달 착륙 아르테미스 프로젝트(Artemis)에 투입될 예정이다. 이번 이그나이트에서는 록히드 마틴(Lockheed Martin)이 오리온 우주선의 조립에 홀로렌즈 2를 사용한 사례를 소개했다. 록히드 마틴은 2017년부터 지난 2년 여간 홀로렌즈를 통해 발생한 오류가 없었고, 작업에 투입되는 시간과 비용도 절감했다고 전했다.   ▲ NASA의 오리온 우주선 개발에 사용된 홀로렌즈 2   홀로렌즈는 부품이 어떻게 결합되는지에 대한 애니메이션부터 볼트 체결 토크 값을 위한 엔지니어링 도면까지 우주선 제작에 필요한 모든 내용을 시각화로 제공함으로써 작업 편의성을 높여준다. 또한 조립의 모든 단계를 음성으로 안내해 주고, 우주선 승무원 모듈에 설치될 4개의 좌석 부분에는 홀로그램 설명서를 겹쳐서 띄워준다. 종이 설명서나 태블릿 화면 등의 도움이 없어도 작업이 가능한 것이다. 록히드 마틴은 "특히 정확한 측정이 필요한 반복 수작업과 데이터 오버헤드(overhead)를 처리하는데 소요되는 시간이 홀로렌즈를 통해 약 90% 절감됐다"고 전했다. 예를 들어, 우주선이 지구 대기권에 재진입할 때 비행사들을 안전하게 보호하는 열 차폐 장치 조립 등의 중요한 작업은 30파운드(약 13.6kg) 무게의 설명서를 만들어야 할 정도로 복잡하다. 홀로렌즈를 이용하면 이러한 서류 작업을 위해 작업을 중단할 필요가 없기 때문에 전체 작업 시간을 크게 절감할 수 있다. 또한, 일반적으로 우주선 제작을 위해서는 5만 7000개 이상의 고정장치 위치를 정확히 파악해야 한다. 록히드 마틴은 홀로렌즈를 통해 8시간이 걸리던 작업을 45분 만에 마칠 수 있었으며, 고정 장치를 설치하는데 투입되는 노동 비용은 개당 약 38달러 절약했다.   ▲ 홀로렌즈 2로 자동차를 점검하는 메르세데스-벤츠 원격 전문가와 기술자   한편, 마이크로소프트는 "홀로렌즈 전용 애플리케이션인 다이나믹스 365 리모트 어시스트(Microsoft Dynamics 365 Remote Assist)를 통해 현장에 직접 가지 않고도 상황을 파악하고 문제를 해결할 수 있도록 지원하고, 업무 생산성과 비대면 협업 효율을 높이고 있다"고 전했다. 리모트 어시스트는 서로 다른 물리적 위치에 있는 사람들이 공유된 혼합현실 환경에서 함께 일할 수 있도록 한다. 특히 지금과 같이 팬데믹으로 대면 접촉이 어려운 상황에서는 안전하고 원만한 협업을 가능케 한다. 미국 메르세데스-벤츠(Mercedes-Benz USA)는 홀로렌즈 2를 사용해 대리점의 정비사들이 차량을 보다 빠르고 효율적으로 수리할 수 있도록 지원하고 있다. 메르세데스-벤츠는 리모트 어시스트를 통해 다양한 차종에 대한 지식을 가진 사내 원격전문가 네트워크를 활용함으로써 실시간으로 문제를 해결했다.
작성일 : 2020-09-25
롤스로이스, 미 공군 C-130J 엔진용 VR 정비 훈련 소프트웨어 출시
롤스로이스가 가상현실(VR)에서 C-130J AE2100 엔진 정비를 훈련할 수 있는 새로운 소프트웨어를 출시했다. 새로운 정비 훈련 시스템을 최초로 운영하는 곳은 미 뉴맥시코주 커틀랜드 미 공군기지에 위치한 제58정비단(MXG)으로, 현재 HC-130J와 MC-130J를 운용하고 있는 미 공군 제58특수작전비행단 산하 부대다.      새로 출시된 VR 시스템은 엔진 정비사들이 몰입형 가상현실 환경에서 정비기술을 배우고 연습할 수 있어 효율성을 높이고 비용을 절감할 수 있다. 특히 교관과 학생이 형상과 기능을 그대로 복제한 가상의 AE2100 엔진을 활용해 실습에 활용할 수 있다. 이는 정비사들이 실습을 직접 경험하는 환경을 조성하고, 반복적인 훈련을 통해 완벽한 정비기술을 습득할 수 있도록 해준다. 실제로 이러한 능동적인 학습은 지식습득능력을 획기적으로 향상시키는 것으로 나타났다. 제58정비단장인 JB 바켓(JB Baquet) 대령은 “우리는 교육방식을 변화시켜야 한다”고 설명하면서 “VR 정비 시스템은 훈련효율 개선과 학습곡선 단축, 그리고 기술수준을 높여 비행단의 전비태세를 개선시킬 것”이라고 말했다. 롤스로이스의 폴 크레이그(Paul Craig) 국방서비스부문 사장은 “롤스로이스는 국방관련 고객들에게 다양한 첨단 디지털서비스를 제공하고 있다”면서 “C-130J 엔진을 위한 새로운 정비교육 소프트웨어가 좋은 예”라고 말했다. 특히 그는 “이 새로운 가상현실 소프트웨어는 엔진 정비 작업자의 교육 및 이동비용을 절감하는 동시에 학습기술 습득과 유지에 큰 도움이 될 것”이라고 말했다.   ▲ C-130J 수송기에 탑재된 롤스로이스 AE2100 터보프롭 엔진   새로운 훈련시스템은 학생들의 참여도와 문제해결능력을 향상시키는 동시에 네트워크 학습을 통해 다수의 인원이 동시에 전 세계에서 교육할 수 있도록 해준다. 제58정비단의 생산책임관리자인 조 무스카엘라(Joe Muscarella) 상사는 “이 시스템을 통해 정비사는 가상에서 AE2100 엔진의 구성요소를 제거, 검사, 교체할 수 있어 실제 엔진 및 장비 손상과 부상 위험이 없다”고 말했다. 또한 그는 “정비사가 언제 어디서나 안전하게 교육과 연습할 수 있고, 업무에 지장을 주지 않고 실제와 같은 경험을 쌓을 수 있다”며, “엔진 작동, 성능매개변수와 구성요소의 제거와 설치 절차도 보다 잘 이해할 수 있게 도움을 준다”고 덧붙였다. 새로운 VR 시스템은 롤스로이스의 인디애나폴리스 지사에서 개발됐다. 이곳은 디지털 설계, 개발, 엔지니어링, 생산 및 지원 분야를 통합한 역량을 갖추고 있다.   ▲ AE2100 엔진
작성일 : 2020-09-22