• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "증강현실"에 대한 통합 검색 내용이 429개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
대한기계학회 가상제품개발연구회, "디지털 제조의 핵심인 VPD 기술의 연구 및 산업 적용 뒷받침할 것"
많은 제조산업에서 제품 개발 과정에 다양한 디지털 도구를 활용해 효율을 높이고 있다. 컴퓨터를 활용한 설계나 스타일링뿐 아니라 가상환경에서 설계를 평가하고, 시뮬레이션으로 검증하는 모습은 이제 새로운 것이 아니다. 나아가 생산 공정의 가상 검증이나 자동화, 디지털 데이터를 통합 관리하는 PLM 그리고 가상현실(VR)/증강현실(AR)을 접목한 디지털 스튜디오까지 제조 전반의 디지털화는 꾸준히 확산되고 있다. 이 가운데 가상제품개발(Virtual Product Development : VPD)은 설계 아이디어를 효율적으로 검증하고 개선해, 제품 개발의 전체 효율을 높이는데 기여할 수 있는 방법론으로 꾸준히 주목을 받고 있다. CAD와 CAE를 중심으로 논의되어 오던 가상제품개발은 제품 R&D 프로세스의 전반에 접목되는 디지털 프로토타이핑(digital prototyping) 기술을 한데 아우르는 개념으로 확장되는 추세이다. 이런 가운데 대한기계학회 는 가상제품개발연구회를 발족하고, 6월 10일 열린 춘계세미나를 통해 가상제품개발에 대한 다양한 흐름과 활용사례를 소개하고, 향후 방향을 짚어보는 자리를 마련했다.     가상제품개발의 주된 방향은 제품을 개발하는 과정에서 물리적인 프로토타입을 줄이거나 궁극적으로는 없애는 것이다. 이를 위해 프로토타입을 통한 실험 대신 CAE나 시뮬레이션을 활용하는 것이 대표적인 가상제품개발 프로세스로 꼽힌다. CAE/시뮬레이션이 중요한 이유는 제품 개발 단계의 초기에서 제품의 문제점을 발견할 수록 이를 해결하는데 드는 시간과 노력이 크게 줄고, 생산 시간/비용을 줄이면서 제품의 품질을 높일 수 있기 때문이다. 한편, 시뮬레이션의 역할과 범위가 달라지고 있다. 초기의 CAE는 상세설계가 끝난 후 이를 검증하는데 쓰였지만, CAE의 적용 시점이 점차 빨라지면서 앞으로는 개념설계를 하기 전에 시뮬레이션으로 개념설계를 최적화하고 이를 바탕으로 이후 제품 개발 단계를 수행하는 흐름이 확산될 전망이다. 이런 변화의 과정에서 형상(지오메트리) 기반의 3D CAE뿐 아니라 시스템 구조를 정의하는 1D CAE나 빅데이터 기반의 인공지능(AI) 등 다양한 기술이 더욱 활발히 쓰일 것으로 보인다.     가상제품개발연구회의 이번 학술대회에서는 LG전자 오세기 부사장, 현대자동차 김철웅 실장, 피도텍 최동훈 대표, 한양대 민승재 교수, KISTI 조금원 박사가 연사로 참여하였으며, 패널토론도 이어졌다.  LG전자와 현대자동차에서는 가상제품개발에 대한 제조 분야의 인식 변화와 실제 도입에 대한 내용을 소개했다. 또한, 가상제품개발을 위한 기술 연구 흐름이나 향후 발전 과정에서 해결해야 할 과제, 국가 정책 동향 등 다양한 내용이 소개되었다. 가상제품개발연구회의 회장인 건국대학교 강병식 겸임교수는 "제품 개발 프로세스에 디지털 기술을 접목해 효율을 높이는 것이 기존의 VPD 방법론이었다. 앞으로는 전체 개발 효율을 높일뿐 아니라 제품 개발 프로세스를 진화시킬 수 있는 방법론과 기술을 추구해야 할 것"이라고 짚었다. 또한, 가상제품개발연구회의 향후 활동 방향에 대해서는 "산업계에서 적용할 수 있는 가상제품개발 원천기술의 연구와 함께, 산업체-연구기관-학계-소프트웨어 업계 등을 연결해 가상제품개발 체계와 기술을 산업계에서 적용할 수 있도록 노력하겠다"고 전했다.  
작성일 : 2021-06-11
PTC, CAD에서 AR 작업지시서 만드는 뷰포리아 인스트럭트 발표
PTC는 자사의 엔터프라이즈 증강현실(AR) 제품군에 '뷰포리아 인스트럭트(Vuforia Instruct)'을 새롭게 선보인다고 발표했다. 상당수의 제조업체에서는 제품 검사를 위해 여전히 종이에 기록하는 수작업을 사용하고 있다. 이런 검사 프로세스는 오류가 많거나, 기록이 어렵거나, 비용이 많이 드는 등의 비효율 요소를 갖고 있으며, 제품의 품질과 사용 경험을 떨어뜨리는 원인이 되기도 한다. 뷰포리아 인스트럭트는 기업이 상황에 맞는 시각적인 지침과 실시간 검사 피드백을 제공함으로써, 종이 서식에 대한 의존도를 없애고 중요한 통찰력을 얻는데 도움이 된다는 점을 내세우고 있다.   ▲ 이미지 출처 : PTC 홈페이지 캡처   SaaS(서비스형 소프트웨어) 형태로 제공되는 뷰포리아 인스트럭트는 3D CAD 데이터를 활용하여 대화형 AR 작업지시서를 쉽게 생성하고 제공할 수 있다. "이를 통해 품질 및 현장 유지관리에 대한 검사 과정을 최적화하고, 제조업체에서 디지털 스레드의 가치를 현장 작업자까지 넓힐 수 있도록 돕는다"는 것이 PTC의 설명이다. PTC의 증강현실 제품 부문을 맡고 있는 마이클 캠벨 수석부사장은 "뷰포리아 인스트럭트는 기업이 이미 갖고 있는 3D CAD 데이터를 활용해서 정확히 작업해야 하는 위치로 작업자를 안내하고, 상황에 맞는 중요한 검사 절차에 대한 자세한 지침을 제공할 수도 있다"면서, "뷰포리아 인스트럭트를 사용하면 기업이 작업 지시서를 작성하고 일선 직원을 대상으로 확장하는 방식을 혁신할 수 있다. 이러한 혁신은 생산성을 높이고 품질을 개선하며 비용을 절감하려는 제조기업에게 중요한 요소"라고 설명했다.
작성일 : 2021-06-03
메타버스 시대, 산업을 혁신하는 시각화 기술 트렌드
  시각화(visualization) 기술은 제품이나 건물, 공간의 형태를 더 사실적으로 구현하고 본질을 잘 이해하기 위한 방향으로 꾸준히 발전하고 있다. 2D에서 3D로, 그리고 클라우드와 인공지능, VR/AR(가상현실/증강현실)까지 다양한 기술과 결합하면서, 더욱 사실적인 시각화를 빠르게 만들어내고 시각화 경험을 확장하는 방향으로 진행 중이다. 한편 가상의 공간과 실제 세계를 연결하고 한데 묶어내고자 하는 고민과 노력은 가상·증강현실, 디지털 트윈 등의 개념으로 구체화되고 있으며, 최근에는 메타버스(metaverse)가 많은 관심을 받고 있다. 이런 흐름은 가상-현실의 객체뿐 아니라 공간을 넘나드는 사람의 활동까지 다루는 것이 주요한 변화로 보인다. 메타버스를 구현하는 다양한 기술은 메타버스에 대한 논의가 본격화되기 전부터 꾸준히 발전하고 활용되어 왔는데, 이런 기술을 서로 엮고 효과적인 활용을 고민하는 것이 향후 과제가 될 것으로 보인다. 이번 호에서는 지난 4월 15~16일 진행된 ‘코리아 그래픽스 2021’에서 발표된 내용을 중심으로, 가상·증강현실부터 메타버스까지 이어지는 시각화 기술의 흐름과 함께 디지털 트윈 및 산업 분야에 적용 가능한 AR 등 기술 발전에 관해 짚어본다.   AR 3.0 시대의 유비쿼터스 가상현실, 디지털 트윈 그리고 메타버스 / 우운택 디지털 트윈을 위한 리얼타임 3D 플랫폼, 언리얼 엔진 / 진득호 제조·건축 분야 AR 적용과 메타버스 플랫폼 활용 / 조규성   총 15 페이지   자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2021-06-01
[케이스 스터디] 언리얼 엔진을 활용한 버추얼 프로덕션
차세대 자동차 공개한 BMW의 #NEXTGen     지난 한 해 동안 여행 및 대면 모임 제한으로 인해 무역 박람회부터 축제까지 대부분의 라이브 이벤트가 현장에서 진행되지 못하는 타격을 받았다. 주요 제품 출시를 계획 중이던 기업들 역시 예상치 못한 상황 때문에 수년에 걸쳐 준비해 온 오프라인 출시를 진행하지 못하며 큰 혼란을 겪었다.  이러한 상황에서 자동차 업계의 일부 선두주자들은 전부터 사용해오던 리얼타임 플랫폼 기반의 최첨단 버추얼 프로덕션 영화 제작 기법을 활용해 고객이 집에서 편하게 즐길 수 있는 매력적인 가상 행사라는 해결책을 찾았다. 이런 콘셉트로 기획된 것이 바로 BMW 그룹의 ‘#NEXTGen’이다.  독일의 자동차 대기업인 BMW 그룹은 각종 코로나19 거리두기에도 불구하고 혁신적 가상 행사를 통해 차세대 자동차를 수백만 명의 잠재 고객에게 선보일 수 있었다. ■ 자료제공 : 에픽게임즈   ▲ BMW #NEXTGen : Behind the Scenes  영상(엘라스티크 제공)   자동차 커뮤니케이션의 재구상 #NEXTGen은 BMW 그룹이 신기술과 신차 모델을 선보이는 동시에 차세대 모빌리티의 가능성을 모색하는 자리이다. #NEXTGen의 첫 행사는 2019년에 오프라인 행사로 개최됐지만, #NEXTGen 2020의 기획은 작년 3월 코로나19 대응 조치로 모든 기획을 재검토해야 했고, 2020년 행사 대부분을 디지털 프로덕션으로 재구상해야 했다.  BMW 그룹은 엘라스티크(Elastique)와 협업을 시작했다. 엘라스티크는 몰입형 인터랙티브 브랜드 경험을 전문으로 하는 디지털 디자인 대행사로, 다층적인 커뮤니케이션 콘셉트를 구현하기에 딱 맞는 스튜디오였다.  엘라스티크는 토크쇼 요소, 인플루언서 비디오, 인포테인먼트 포맷, 다큐멘터리 형식의 영상, 최첨단 프레젠테이션 등을 결합하는 아이디어에 집중했고, 이런 요소를 집결시켜 디지털 플랫폼으로 볼 수 있는 혁신적 스트리밍 경험을 제작하는 작업에 착수했다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지(엘라스티크 제공)   엘라스티크는 최대한의 유연성을 제공하기 위해 토크쇼와 같은 전통적 TV 스튜디오의 요소와 버추얼 프로덕션 LED CAVE(가상 환경 조성실, Cave Automatic VR Environment)을 결합했으며, 뮌헨에 위치한 전시회장이자 박물관 그리고 행사장인 BMW 벨트(BMW Welt)에서 작업을 진행했다.  이 하이브리드 셋업은 28일간의 프로덕션 일정 동안 원하는 대로 쉽게 조정이 가능했는데, 대체 행사를 빠르게 준비해야 했던 입장에서 이런 유연성은 매우 중요한 요소였다.    ▲ BMW #NEXTGen | Next Level Virtual Production 영상(엘라스티크 제공)   엘라스티크는 맞춤형으로 제작된 LED CAVE에서 초기 콘셉트와 각본부터 최종 프로덕션에 걸쳐 수백 개의 전혀 다른 버추얼 프로덕션 영상과 프레젠테이션을 상대적으로 짧은 시간에 완성해야 했다. 그중 일부 영상은 10분이나 되었고, 그 와중에 코로나19 거리두기도 준수해야 했다.  버추얼 프로덕션 스튜디오가 제공한 유연성 덕분에 제작팀은 다양한 포맷을 한 곳에서 제작하고 BMW 그룹의 비전을 완전히 새로운 방식으로 전달할 수 있었다. 제작팀은 LED 볼륨을 활용하여 배경을 원하는 대로 즉시 바꿀 수 있었다. 정보와 혁신적 사고의 환상적인 콜라주가 탄생한 것이다.   새로운 시각 언어 엘라스티크는 버추얼 프로덕션의 잠재력을 최대한 끌어내는 것에 집중했다. ‘클래식한’ 자동차를 선보일 새로운 시각적 접근법을 개발하고자 했고, 보다 즐겁고 창의적이면서 시청자가 쉽게 다가설 수 있도록 했다.  이를 위해 팀은 BMW 그룹 팀과 함께 일하며 정형화된 자동차 커뮤니케이션을 지양하고 시청자의 관심을 사로잡을 추상적 버추얼 월드를 설계했다. 음악부터 프레젠테이션의 내러티브까지 아우르는 모든 측면에서 이를 염두에 두고 진행했다. 기존 방식의 제품 프레젠테이션 대신에 완전히 새로운 자동차 디자인을 이끌어낸 사고 및 의사 결정에 토대가 되었던 하나의 경험을 선사하기로 한 것이다. 리얼타임 플랫폼 덕분에 제작팀은 창의성을 자유롭게 발휘하여 제품을 새로운 방식으로 선보이는 시각 언어를 제작할 수 있었다. 비전 자동차인 미니 비전 어바넛(MINI Vision Urbanaut)은 그런 면에서 거꾸로 설계되었다. 인테리어부터 시작해서 외관을 디자인하고 프레젠테이션도 같은 방식으로 하기로 결정했다. 언리얼에서 만든 프레젠테이션에 증강현실 레이어를 사용해 비전 자동차의 인테리어를 먼저 보여준 다음 외관 디자인을 공개할 수 있었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지(엘라스티크 제공)   이런 행사에서 버추얼 프로덕션 기술을 사용하면 기존 프로덕션을 사용할 때보다 얻는 장점이 훨씬 더 많다. 스타일, 환경, 초현실적 설정을 자유롭게 실험하면서도 모든 리플렉션이 반영된 자동차와 아름다운 인테리어 샷에 필요한 라이팅을 제공하는 LED 환경을 통합할 수 있고, 때로는 신(Scene)에 주인공들을 완전히 병합했다가 참관객들을 위해 무대에 다시 배치할 수 있었다.   자동차 디자인을 탐색하는 증강현실 엘라스티크는 언리얼 엔진을 인카메라 비주얼과 증강현실 요소에 모두 활용했다. 엔진은 신형 BMW iX의 공개 영상과 프레젠테이션뿐만 아니라 미니 비전 어바넛의 디자인을 심도 있게 살펴보는 AR 비주얼을 제작하는 데에도 사용됐다. 세트에서 신을 실시간으로 조정하고, 자동차 페인트에 리플렉션을 줄 버추얼 라이트박스를 움직이며, 완벽한 샷을 촬영할 수 있도록 완성된 신을 회전하는 등 언리얼을 활용한 프로덕션 경험은 이점이 많았다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지(엘라스티크 제공)   프로덕션 파트너사 NSYNK는 통합 버추얼 프로덕션 프레임워크를 개발하여 동일한 신을 LED 피드와 AR 레이어 양쪽에서 실행할 수 있게 만들었다. 세트에서의 창의성을 촉진하려면 일관되고 유연하면서 여러 카메라와 AR 그래픽을 활용하여 실시간 방송의 요구 조건까지 반영한 워크플로를 확립하는 것이 중요했다. 일부 신은 3개의 ARRI AMIRA 카메라를 동시에 투입해 촬영했는데, 카메라는 각각 자체 노드에 연결되어 카메라 감독이 결과를 미리 보고 실시간으로 편집할 수 있도록 AR 레이어를 4K로 렌더링했다. LED 피드는 선택한 카메라의 시점에 따라 전환됐으며, nDisplay 구성으로 언리얼 엔진을 실행하는 여러 서버 클러스터에서 렌더링됐다. 이 덕분에 실시간 프로덕션 워크플로에 매우 가까워졌다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지(엘라스티크 제공)   버추얼 프로덕션 분야에서 언리얼 엔진은 수년 동안 인기 리얼타임 플랫폼으로 뽑혀왔다. 제작자들은 언리얼 엔진은 제작자가 필요로 하는 걸 그대로 제공하며, 언리얼 엔진이 만들어내는 비주얼 퀄리티와 이미지의 생생함이 독보적이라고 말한다.  제작팀은 매력적인 비주얼뿐 아니라 엔진에 기본 탑재된 버추얼 프로덕션 기능의 깊이에도 놀라워했다. 특히 카메라의 초점에 완벽하게 맞춰 움직이는 동적이면서 정밀한 뎁스 오브 필드 룩과 함께 배경과는 독립적으로 프러스텀 내에서 밝기를 변경하는 기능도 대단하다고 말했다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지(엘라스티크 제공)   또한, 엘라스티크 측은 언리얼 엔진의 유연함 덕분에 비용 측면에서 굉장히 효과적인 프로덕션이 가능했다고 강조했다. 콘텐츠를 멀티 플랫폼으로 퍼블리싱할 수 있어서 만들었던 모든 배경과 자동차를 다음 프로젝트에도 재사용할 수 있다. 이처럼 기존 콘텐츠를 재사용할 수 있는 기회는 하나의 에셋을 다양한 용도에 효율적으로 사용할 수 있기 때문에 BMW 그룹에게 좋은 투자이기도 하다. BMW 그룹은 자동차의 디자인 및 개발 프로세스에도 언리얼 엔진을 사용하고 있는데, 디자인 프로세스에서 나온 매우 디테일한 모델을 인쇄물과 영상부터 실시간 프레젠테이션과 인터랙티브 애플리케이션에 이르기까지 전체 커뮤니케이션 파이프라인에서 활용할 수 있다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지(엘라스티크 제공)   영감을 주는 경험을 선사하는 버추얼 프로덕션 엘라스티크는 버추얼 프로덕션을 자동차 기업의 마케팅과 행사에 사용하는 것은 자동차회사들 역시 반길만한 것이며, 자동차 프레젠테이션의 분위기를 완전히 바꿔 놓을 수 있다고 전했다. 과거에는 자동차가 수많은 조명이 비추는 무대에서 천천히 주행하는 것이 과감한 라이브 이벤트였는데, 이제는 전 세계 시청자의 상상력을 자극하고 영감을 주는 경험으로 변한 것이다. 언리얼 엔진과 같은 리얼타임 제작 플랫폼은 다양한 유형의 콘텐츠를 각종 포맷과 모습으로 제작할 기회를 제공한다. 이제 자동차 제조업체는 고객에게 메시지를 전할 수단으로 완전히 새로운 창조적 세계를 탐험하고 이용할 수 있다. BMW 그룹은 새로운 커뮤니케이션 방식을 수용하며 대성공을 거뒀다. #NEXTGen 2020은 버추얼 프로덕션을 중심으로 혁신적인 최첨단 형식을 채택한 행사로, 수백에서 수천만 번의 SNS 노출, 수만 시간의 콘텐츠 소비, 수천 개의 새 기사를 이끌어내는 결과를 보여줬다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지(엘라스티크 제공)     기사 내용은 PDF로도 제공됩니다.
작성일 : 2021-06-01
애스턴마틴, 럭셔리 자동차를 매장 대신 VR로 만나는 데모 구현
엔비디아는 애스턴마틴(Aston Martin)이 럭셔리 SUV인 애스턴마틴 DBX의 확장현실(XR) 고객 경험을 제공하기 위해 엔비디아 RTX GPU를 활용한다고 밝혔다. 애스턴마틴은 레노버와 확장현실(XR) 헤드셋 제조업체인 바르요(Varjo)와 협력해 가상현실(VR)과 XR을 이용해 새로운 애스턴마틴 DBX 모델을 가상으로 살펴볼 수 있는 데모를 개발했다. 10만여개의 폴리곤으로 구성된 이 데모는 VR, 증강현실(AR) 및 MR을 아우르는 XR 환경에서 상세하고 사실적인 시각효과를 제공한다.     애스턴마틴 라곤다(Aston Martin Lagonda)의 부사장 겸 CMO(최고마케팅책임자)인 피트 프리드먼(Pete Freedman)은 "우리의 목표는 고객들이 마치 차량 한가운데에 있는 듯한 느낌이 들게끔 진정한 몰입감을 제공하는 것이다. 엔비디아 RTX A6000을 통해서 이러한 경험이 가능했다"고 설명했다. 일반적으로 소비자들은 애스턴마틴의 최신 모델을 살펴보기 위해 대리점을 방문하거나 모터쇼에 참석한다. 그동안 애스턴마틴 팀은 고객들을 직접 대면하여 디자인과 기능들을 설명했다. 하지만, 최근 근무환경이 원격으로 전환되면서 애스턴마틴은 보다 실질적인 업무 방식과 고객경험을 가상의 환경에서 전달할 수 있는 방안을 모색하게 됐다. 엔비디아 RTX A6000이 탑재된 레노버 씽크스테이션 P620으로 구현되는 가상환경에서 고객들은 픽셀 단위까지 표현된 애스턴마틴 DBX를 살펴볼 수 있다. 또한, XR 헤드셋을 통해 전 세계 어디에서나 가상으로 구현된 차량을 체험해볼 수 있으며, 핸들의 스티치 및 레터링, 가죽 및 크롬 액센트, 도색의 반사광과 같은 상세한 부분까지 확인할 수 있다. 데모 상의 실시간 리플렉션 및 조명은 바르요의 패스스루 혼합현실 기술을 통해 구현됐다. 엔비디아 옵티컬 플로우(NVIDIA Optical Flow)를 이용한 RGB 깊이 융합(RGB Depth Fusion)이 적용된 바르요 XR-3의 라이다(LiDAR)는 사용자가 마치 차량속에 들어와 있는 듯한 느낌을 주면서 가상의 차량을 현실세계와 자연스럽게 혼합한다.     엔비디아 RTX A6000은 암페어(Ampere) GPU 아키텍처를 기반으로 하며, 48GB의 프레임 버퍼를 제공한다. 따라서, 애스턴마틴 팀이 높은 충실도의 VR 및 AR 경험을 일관된 프레임 속도로 구현하도록 돕는다. 레노버 월드와이드 솔루션 포트폴리오 총괄인 마이크 리치(Mike Leach)는 "세부 정보를 입력하기 위해서는 고급 GPU가 필요하다. 사실적인 경험을 구축하려면 대용량 GPU 프레임 버퍼가 필요하며, 이것이 바로 엔비디아 RTX A6000이 제공하는 부분"이라고 말했다. 한편, 애스턴마틴은 내부 워크플로를 강화하기 위해 VR과 XR 기술 적용 범위를 확대할 방침이다. 애스턴마틴은 이를 통해 비용이 많이 드는 모델을 제작하는 대신 디자이너들이 가상 환경에서 작업을 진행하고, 반복작업을 신속하게 수행할 수 있을 것으로 기대하고 있다.
작성일 : 2021-05-21
현실 세계 기반의 메타버스 플랫폼 만드는 XR 프로젝트 진행된다
과학기술정보통신부와 한국전파진흥협회가 디지털 뉴딜 사업의 일환으로 추진하는 'XR 메타버스 프로젝트' 공모사업에 맥스트 컨소시엄이 선정되었다. 'XR 메타버스 프로젝트'는 현실 같은 가상공간을 만들어 증강현실로 현실 세계와 서비스가 연결된 메타버스 플랫폼을 구축하는 프로젝트이다. 이 프로젝트에 선정된 맥스트는 XR 메타버스 생태계 구축을 위해 2022년까지 총 80억 원을 지원받게 되며, 2023년에는 수행 평가 결과에 따라 국비를 추가로 지원받게 된다.     이번 프로젝트를 위해 구성된 콘소시엄은 맥스트가 주관사를 맡고 XR 분야의 전문 기술 기업들이 참여했다. ▲서비스 콘텐츠 개발 분야에는 위즈윅스튜디오, 스페이스엘비스, 렛시 ▲메타버스 플랫폼 개발 분야에는 맥스트, 알파서클 ▲AR글래스 개발 분야에는 레티널, 파노비젼 ▲품질 인증 및 시험 분야에는 구미전자정보기술원으로 구성되어 있다. 맥스트는 이 프로젝트를 통해 총 8가지의 XR 서비스를 제공할 계획이다. 구체적으로는 ▲관광 및 여행 정보를 제공하는 AR 도시정보 서비스 ▲청각 및 시각 사회적 약자를 위한 AR 공간안내 서비스 ▲매장별 맞춤형 정보를 서비스하는 AR 광고 서비스 ▲사용자 체험형 AR 전시 서비스 ▲지역 맞춤형 스토리텔링 체험인 AR 투어&리뷰 서비스 ▲이동형 AR 미션 게임 서비스 ▲AR 내비게이션 서비스 ▲가상현실과 증강현실 사용자가 동시에 참여하는 XR텔레프레즌스 서비스 등이다. XR 서비스의 사용자는 통합 애플리케이션 하나만 다운받으면 앱 인 앱(App-in-app) 방식으로 모든 서비스를 이용할 수 있게 될 전망이다. 서울 창덕궁과 북촌 한옥마을, 그리고 천안 독립기념관 3개 지역의 약 170만 제곱미터의 실내외 공간을 대상으로 서비스 실증이 추진된다. 맥스트는 이미 코엑스 일대의 60만 제곱미터의 실내외 공간을 AR 공간지도로 만드는 VPS 기술을 선보인 바 있으며, 이 기술을 바탕으로 XR 메타버스 플랫폼을 구축하게 된다. 또한 이번 사업에서는 국내 최고 수준의 AR 글래스를 제작하여 이를 사용자들이 직접 이용할 수 있도록 진행된다. 레티널이 보유한 핀미러 광학 기술을 적용하여 총 무게 100g 이하의 실용적인 AR 글래스를 상용화할 계획이다.     이번 사업은 개방형 오픈 플랫폼으로 만들어지는 게 중요한 특징이다. 누구나 3개 실증 지역에 대한 XR 공간지도 데이터를 활용하여 XR 콘텐츠를 제작할 수 있도록 'XR 콘텐츠 제작 스튜디오'가 제공된다. 또한 다른 지역에도 XR 공간지도를 제작할 수 있는 'XR 공간지도 제작 도구'도 공개될 예정이다. 이러한 크라우드 소싱(crowd sourcing) 방식의 XR 공간지도 제작은 메타버스 플랫폼의 확산을 돕고 새로운 수익 및 일자리 창출 효과가 있을 것으로 예상된다. 맥스트의 박재완 대표는 "이번 메타버스 프로젝트를 위해 콘텐츠-플랫폼-네트워크-디바이스의 CPND 모든 영역에서 국내 최고의 XR 기술력을 보유한 기업이 총출동하였다. 이번 사업을 계기로 메타버스 플랫폼을 만들어 서비스 대상 지역을 확대해 나갈 것이며, 크라우드 소싱 방식의 XR 공간지도 기술을 통해 더욱 빠른 XR 메타버스 생태계를 구축해 나가겠다"고 말했다.
작성일 : 2021-05-14
PTC-유비온, AR∙VR 기반 스마트 학습환경 함께 개발한다
PTC와 유비온은 AR∙VR 기반의 스마트 학습환경을 구현하기 위한 MOU를 체결했다고 밝혔다. 양사는 코로나19 팬데믹 상황에서 대면 학습으로 제공되던 양질의 교육을 비대면 환경에서도 지속하기 위해, 유비온의 온라인 학습 플랫폼에 PTC의 증강현실(AR) 기술을 적용한 교육 캠퍼스 설립을 계획하고 있다.  이번 협력을 통해 PTC와 유비온은 AR 및 사물인터넷(IoT) 분야에 대한 다양한 교육을 제공할 계획이다. 초중고 학생들에게는 학습 환경에 재미를 더하고, 대학생들의 경우 IoT 및 AR 기술 체험을 통해 다양한 직군의 업무 경험을 제공한다. 구직자들에게는 미리 현장을 체험하고 프로세스를 익힐 수 있는 환경을 마련해 주고, 현장 실무자들은 실제 비즈니스에 IoT 및 AR을 접목하는 기회를 얻을 수 있다. 유비온의 임재환 대표이사는 “온라인 실습환경은 얼마나 실제와 같은 경험을 제공하는지에 따라 학습자의 집중도가 달라진다. 그동안 교육 분야에서 3D실습 환경을 도입하기에는 물리적, 기술적 어려움이 있었지만, 이번 AR 분야의 선도 기업인 PTC와 협력을 통해 실재감 있는 환경을 구현할 수 있게 되었다. 학습자들의 몰입감과 학습 동기를 강화시킬 수 있는 환경체계를 만들어 나가겠다”라고 말했다. PTC코리아의 김상건 전무는 “교육을 제공하는 방식에도 빠른 변화가 일고 있다. 에듀테크 선도 기업 유비온과의 협력으로 미래 유망 인재들이 PTC의 기술을 자연스럽게 경험하고, 평생 교육에 참여하는 현업 종사자들이 IoT, AR로부터 다양한 비즈니스 개발의 기회를 찾을 수 있기를 기대한다”고 말했다. 유비온은 2000년 이러닝 전문 기업으로 설립하여 자격 교육, 학점은행 기반의 평생교육 및 고용노동부 직업훈련을 지속해 왔으며, 현재 에듀테크(EduTech) 관련 사업을 진행하고 있다. 지난 2020년 초에는 사상 첫 초중고 온라인 개학을 지원한 ‘EBS 온라인클래스’를 개발했다.
작성일 : 2021-05-13
[포커스] 엔비디아, GPU 컴퓨팅과 인공지능의 전방위 확산을 꿈꾼다
엔비디아는 그래픽 데이터 처리로 시작한 GPU 기술을 인공지능에 적극 활용하면서 더욱 넓은 영역으로 확장해 나가고 있다. 지난 달 열린 ‘GTC 2021’ 이벤트에서 엔비디아는 메타버스에서 데이터센터, 자율주행 자동차까지 하드웨어와 소프트웨어를 결합한 기술 스택을 전방위로 제공한다는 비전을 소개했다. ■ 정수진 편집장   엔비디아의 연례 기술 이벤트인 GTC는 ‘GPU 기술 콘퍼런스’의 줄임말이다. ‘그래픽 처리 유닛’이라는 이름에 걸맞지 않게 GPU는 높은 연산 능력을 바탕으로 그래픽뿐 아니라 다양한 영역으로 확장하고 있다. 엔비디아의 젠슨 황 CEO는 4월 12일 열린 ‘GTC 2021’의 기조연설에서 “엔비디아는 하드웨어, 소프트웨어, 애플리케이션 등 ‘풀 스택(full stack)’ 컴퓨팅 플랫폼을 꾸준히 발전시켜 왔다. 특히 소프트웨어 분야의 최적화를 가속화하면서 소프트웨어 기업으로 확장 중”이라고 소개했다. 이런 흐름을 반영해 올해 GTC 2021에서는 메타버스, 데이터센터, 인공지능, 모빌리티 등 다양한 분야에 걸쳐 엔비디아의 컴퓨팅 기술과 활용사례 등이 소개되었다.   실시간 협업과 시뮬레이션을 위한 메타버스 젠슨 황 CEO는 “컴퓨터가 학습을 하고, 소프트웨어가 소프트웨어를 개발하며, 클라우드에서 AI 서비스가 이뤄지는 시대이다. AI와 5G는 4차 산업혁명의 원동력이 되었고, 전세계 어느 곳이든 자동화 시스템과 로봇을 배포할 수 있게 했다. 다음 단계는 현실의 디지털 트윈인 가상세계, 바로 메타버스(metaverse)가 될 것”이라고 전망했다. 젠슨 황 CEO가 바라보는 메타버스는 ‘3D 공간을 공유하고 가상으로 확장된 물리 공간을 결합한 세계’이다. 이런 개념의 메타버스는 게임 분야를 중심으로 꾸준히 시도되고 있는데, 엔비디아는 메타버스를 다양한 분야에서 구현하기 위한 수단으로 ‘옴니버스(Omniverse)’를 소개했다. 작년에 엔비디아가 소개한 옴니버스는 3D 가상세계를 만들고 물리 공간을 확장하는 플랫폼이다. 이 가상세계에서 실시간으로 디자인 협업을 하거나 디지털 트윈을 만들어 시뮬레이션을 할 수 있다. 또한 VR(가상현실)/AR(증강현실)로 확장하는 것도 가능하다. 옴니버스는 픽사가 개발한 USD(Universal Scene Description)를 3D 데이터 포맷으로 사용해 실시간 협업을 구현했다. 설계나 시각화 소프트웨어를 위한 ‘옴니버스 커넥터’ 플러그인을 설치하고 공유 데이터를 관리하는 ‘뉴클레스(Nucleus)’ 서버와 연결하면, 각 소프트웨어에서 작업한 데이터가 자동으로 USD 포맷으로 변환되어 뉴클레스 서버로 전달되는 형태이다. 소프트웨어 사용자들은 옴니버스를 중심으로 실시간으로 서로의 작업 내용을 공유하고, 수정 사항을 반영할 수 있다. 여기에 엔비디아의 물리엔진인 피직스(PhysX)와 재료 정의 언어인 MDL(Material Definition Language)를 더해 입자, 유체, 재료 등의 시뮬레이션도 가능하다. 뉴클레스 서버는 데이터센터나 클라우드뿐 아니라 워크스테이션에도 설치가 가능하다. 그리고 옴니버스 커넥터는 현재 3ds 맥스, 마야, 섭스턴스 디자이너, 언리얼 엔진, 포토샵 등 시각화 소프트웨어를 중심으로 제공되고 있다. 여기에 아키캐드, 레빗, 온쉐이프, 스케치업, 솔리드웍스 등 설계 소프트웨어를 위한 옴니버스 커넥터 역시 제공 중이거나 예정되어 있다.  엔비디아는 옴니버스가 작년 12월 베타테스트를 시작해 지금까지 1만 7000건의 다운로드를 기록했다고 밝혔다. 또한 올 여름에는 옴니버스의 엔터프라이즈 라이선스를 출시해 제조, 건축, 미디어 등 다양한 시장 확대를 기대하고 있다. 엔비디아는 이번 GTC에서 옴니버스를 활용하고 있는 다양한 사례를 소개했다. BMW는 옴니버스로 디지털 트윈 공장을 시험하고 있다. BMW와 엔비디아는 레빗과 카티아 등의 소프트웨어를 활용해 자동차 공장 전체를 가상으로 만들고, 새 모델의 출시에 맞춰 생산 라인을 조정하는 과정을 옴니버스를 통해 가상 공장에서 진행하고 있다. 한편, 벤틀리 시스템즈는 자사의 인프라스트럭처 디지털 트윈 플랫폼인 아이트윈(iTwin)을 옴니버스와 통합해 실시간 시각화 및 디지털 트윈 시뮬레이션을 위한 그래픽 파이프라인을 강화했다.   ▲ 옴니버스로 구현한 BMW의 가상 공장   GPU 컴퓨팅의 가능성 극대화하는 데이터센터 엔비디아는 GPU 기반의 가속 컴퓨팅이 새로운 데이터센터를 요구한다고 보았다. AI와 딥러닝 기술을 활용한 서비스가 늘어나면서 많은 양의 데이터를 효과적으로 처리하는 기술과 데이터센터의 성능이 더욱 중요해지고 있다. 또한 컴퓨팅, 네트워크, 스토리지, 보안 등의 기능을 소프트웨어로 에뮬레이션하는 데이터센터 가상화도 이슈로 떠오른다. 젠슨 황 CEO는 효과적인 데이터 처리를 위한 ‘블루필드-3(BlueField-3)’ DPU(데이터 처리 유닛), 데이터센터용 CPU인 ‘그레이스(Grace)’ 등 새로운 프로세서를 소개했다. 가상화나 SDDC(소프트웨어 정의 데이터센터), 클라우드 등으로 컴퓨팅 아키텍처가 발전하고 인공지능의 활용이 확산되면서 데이터의 양이 크게 늘고 있다. CPU를 대신해 서버 간의 데이터 전달을 수행할 수 있는 DPU로서 엔비디아가 내세운 블루필드는 Arm 코어를 기반으로 한 SoC(시스템 온 칩)이다. 젠슨 황 CEO는 “AI가 확산되면서 새로운 소프트웨어 개발 방식을 위한 새로운 유형의 컴퓨터가 필요해진다”면서, “블루필드는 18개월마다 새로운 세대가 선보일 계획인데, 차세대 DPU인 블루필드-3는 400Gbps의 네트워크 속도와 새로운 수준의 보안 기능을 제공한다”고 소개했다. GPU 컴퓨팅은 많은 코어를 가진 GPU가 CPU의 연산 능력을 강화하는 것이 기본 개념인데, 기존 x86 아키텍처에서는 메모리와 GPU 사이에 데이터를 전송하는 속도가 느려서 병목이 생긴다. 그레이스 CPU는 이를 해결하기 위해 개발된 것으로, Arm 아키텍처를 기반으로 GPU와 DPU를 결합했다. NV링크(NVLink)를 지원해 메모리와 GPU 사이의 병목을 해소하고 대량의 데이터를 처리하는 효율을 높인다.   ▲ GPU와 DPU를 통합한 엔비디아 그레이스 CPU   더 강력한 인공지능을 더 쉽게 사용한다 지난 몇 년간 엔비디아는 AI를 위한 컴퓨팅 시스템과 소프트웨어를 폭넓게 지원한다는 전략을 꾸준히 유지하고 있다. 통합 컴퓨팅 시스템인 엔비디아 DGX와 관련해서, 이번 GTC 2021에서는 소형 데이터센터를 위한 DGX 스테이션(DGX Station)과 대규모의 AI 컴퓨팅을 위한 데이터센터 솔루션인 DGX 슈퍼팟(DGX SuperPOD)의 업그레이드가 소개됐다. 신제품인 DGX 스테이션 320G는 초당 8TB의 메모리 대역폭으로 A100 GPU 4개를 연결한다. 대형 AI 모델을 훈련시킬 수 있는 성능을 제공하면서 전력소비량은 1500W에 그친다. DGX 슈퍼팟은 새로운 80GB 엔비디아 A100 GPU와 90TB 메모리, 블루필드-2 DPU를 탑재하고, 초당 2.2EB(엑사바이트)의 대역폭을 제공한다. 엔비디아는 네이버가 인공지능 서비스인 클로바를 위한 한국어 인식 훈련에 DGX 슈퍼팟을 사용하고 있다고 소개하기도 했다. 또한, 엔비디아는 강력한 AI를 손쉽게 활용할 수 있게 돕는 애플리케이션을 소개하면서, 코딩 작업이 필요 없는 다양한 NGC(NVIDIA GPU Cloud) 사전학습 모델을 오픈소스로 제공한다고 전했다. 이번에 소개된 AI 애플리케이션에는 ▲사용자의 애플리케이션에 맞춰 사전학습 모델을 조정할 수 있는 타오(TAO) ▲음성인식과 번역을 위한 딥러닝 대화형 AI를 제공하는 자비스(Jarvis) ▲다양한 분야를 위한 추천 시스템 프레임워크 멀린(Merlin) ▲AI로 화상회의 경험을 향상시키는 맥신(Maxine) ▲대량 데이터 기반의 추론 서버를 위한 트라이톤(Triton) 등이 있다.   ▲ 엔비디아 DGX는 인공지능 활용을 위한 성능을 데이터센터에 제공한다.    자율주행 자동차를 위한 플랫폼 기술 또한, 엔비디아는 자율주행 자동차를 위한 AI 플랫폼인 ‘엔비디아 드라이브(NVIDIA DRIVE)’도 소개했다. 자율주행 자동차는 그 알고리즘이 정교해지면서 컴퓨팅에 대한 요구가 꾸준히 늘고 있으며, 동시에 기능 안전성과 사이버 보안 등에 대한 규정을 지키는 것도 중요하게 꼽힌다. 엔비디아 드라이브는 이런 흐름에 대응하기 위한 AI 기술을 지원하는데 중점을 둔다. 엔비디아의 8세대 하이페리온(Hyperion) 자동차 플랫폼은 센서와 중앙 컴퓨터 등의 하드웨어와 3D 실측 자료, 네트워킹 등의 소프트웨어를 포함한다. 핵심은 자율주행 자동차의 두뇌 역할을 할 프로세서이다. 젠슨 황 CEO는 “앞으로의 자동차는 중앙 컴퓨터 1대가 클러스터, 인포테인먼트, 승객과의 상호작용, 자율주행의 신뢰도를 위한 컨피던스 뷰(confidence view) 등의 기능을 모두 처리하게 될 것”이라면서, 프로세서의 중요성을 강조했다. 엔비디아는 2022년 오린(Orin), 2025년 아틀란(Atlan) 등 자율주행차 프로세서 로드맵을 소개했다. 오린은 볼보의 차세대 XC90 모델에 탑재될 예정이며, 아틀란은 새로운 Arm CPU와 차세대 GPU 아키텍처뿐 아니라 딥러닝과 컴퓨터 비전 가속기를 포함하게 된다. 이와 함께 젠슨 황 CEO는 “자동차 산업은 기술산업이 되고 있으며, 비즈니스 모델도 소프트웨어 중심으로 바뀔 것”이라고 전망하면서, 옴니버스 기반의 물리 시뮬레이션과 디지털 트윈을 엔비디아 드라이브에서 사용할 수 있다고 소개했다. 그리고 자율주행 자동차의 개발 공정 전반을 위해 디지털 트윈을 만들 수 있는 드라이브 Sim(Drive Sim)을 올 여름에 내놓을 것이라고 밝혔다.   ▲ 엔비디아의 차세대 자율주행 자동차 프로세서인 아틀란     기사 내용은 PDF로도 제공됩니다.
작성일 : 2021-05-03
[포커스] 3D 프린팅의 장점을 극대화하고 단점을 줄이는 새로운 모델링 방법
코리아 그래픽스 2021 주요 발표 정리 (11)   컴퓨터 그래픽스와 시각화 기술 흐름을 짚어보는 ‘코리아 그래픽스 2021’이 지난 4월 15일~16일 온라인으로 진행되었다. ‘메타버스 시대의 시각화 기술 트렌드’를 주제로 한 올해 행사에서는 최근 많은 관심을 모으고 있는 메타버스(metaverse)를 중심으로 하는 시각화 분야의 트렌드를 비롯해 제조·건축·미디어 등 산업분야에서 디지털 혁신을 이끌고 있는 디자인, VR/AR, 3D 프린팅 기술 개발과 활용 사례 등이 소개되었다. ■ 정수진 편집장   ▲ FAB365 구상권 대표는 조립이 필요 없는 3D 프린팅의 장점을 활용하면서 서포트 구조를 없앤 모델링 기법의 연구 내용을 소개했다.   FAB365의 구상권 대표는 ‘3D 프린팅에 최적화된 모델링 제작 기술’을 소개했다. 3D 프린팅 콘텐츠 판매 플랫폼인 FAB365는 분할된 부품을 조립하는 것이 아니라, 끼워서 고정하는 스냅핏(snap-fit)으로 한 번에 완성할 수 있는 3D 프린팅 모델을 제작해 서비스하고 있다. 구상권 대표는 “3D 프린팅은 조립이 필요 없고, 기존의 금형이나 머시닝 가공으로 만들기 어려운 형상을 쉽게 제작하는 장점이 있다. 반면 서포트 구조물을 제거해야 하는 과정에서 재료의 낭비가 생기거나 생산 속도가 낮은 것은 단점”이라면서, 서포트와 조립 과정이 필요 없는 3D 프린팅 디자인을 개발한 사례를 소개했다.     FAB365가 선택한 것은 비조립 경첩 구조를 넣어서 접을 수 있는 3D 프린팅 모델이었다. 소재의 물성을 이용해 열이나 전기 자극을 줄 때 형상이 바뀌는 4D 프린팅 기술에 착안해서, 플라스틱 소재의 탄성을 이용해 접을 수 있는 힌지 디자인을 연구했다.  FAB365의 디자인 제작 과정은 기본적인 형태를 제작해 프로포션을 검토하는 것으로 시작한다. 이후 분할되는 부분을 계획하고, 분할된 부품을 다시 3D 프린팅으로 테스트한다. 이 과정에서 문제가 없다면 힌지를 설계하고 움직이는 파트를 모델링한 후, 스냅핏 구조까지 모델링해서 3D 프린팅으로 테스트해 본다. 전체적인 구조를 점검하고 나서 세부 디테일을 디자인하고, 사용자의 출력 환경을 고려해 다양한 3D 프린터에서 테스트를 거친 모델 데이터를 공개하게 된다.     같이 보기 : 코리아 그래픽스 2021, 미래를 여는 메타버스와 시각화 기술의 흐름을 짚다   같이 보기 : 주요 발표 정리  뉴노멀 시대 디자인의 키워드는 혁신 가치와 경험  컴퓨터 그래픽스, 딥러닝과 만나다  현실과 디지털 세계가 융합되는 메타버스  디지털 트랜스포메이션의 중심에 선 리얼타임 렌더링 기술  산업 분야를 위한 증강현실 기술의 진화  제품 개발에서 마케팅까지 프로세스 바꾸는 실시간 시각화  3D 프린팅 기술이 디자인 경쟁력을 높인다  산업분야의 AR과 메타버스를 위한 플랫폼 개발  3D 스캔과 사진 데이터 결합해 정밀한 BIM 구현  콘텐츠, 서비스, 비즈니스까지 메타버스에서 융합  3D 프린팅의 장점을 극대화하고 단점을 줄이는 새로운 모델링 방법    
작성일 : 2021-04-30
[포커스] 콘텐츠, 서비스, 비즈니스까지 메타버스에서 융합
코리아 그래픽스 2021 주요 발표 정리 (10)   컴퓨터 그래픽스와 시각화 기술 흐름을 짚어보는 ‘코리아 그래픽스 2021’이 지난 4월 15일~16일 온라인으로 진행되었다. ‘메타버스 시대의 시각화 기술 트렌드’를 주제로 한 올해 행사에서는 최근 많은 관심을 모으고 있는 메타버스(metaverse)를 중심으로 하는 시각화 분야의 트렌드를 비롯해 제조·건축·미디어 등 산업분야에서 디지털 혁신을 이끌고 있는 디자인, VR/AR, 3D 프린팅 기술 개발과 활용 사례 등이 소개되었다. ■ 정수진 편집장   ▲ 자이언트스텝 신원호 본부장은 그래픽 기술과 리얼타임 엔진을 결합해 다양한 메타버스 콘텐츠가 나올 수 있을 것으로 전망했다.   자이언트스텝의 신원호 본부장은 ‘버추얼 스튜디오와 메타버스 콘텐츠’에 관한 내용을 발표했다. 자이언트스텝은 지난 2008년 설립한 광고 VFX 스튜디오로, 그간 다져 온 그래픽 기술력에 리얼타임 엔진 기술을 결합해 버추얼 콘서트 등 높은 완성도의 실감형 콘텐츠를 제작하고 있다.  자이언트스텝이 만든 리얼타임 XR 버추얼 스튜디오는 무대와 3D 모델을 제작한 후 AR 콘텐츠와 연결하고 실시간 합성하는 방식으로 만들어진다. 신원호 본부장은 “XR 콘텐츠를 기획하기 위해서는 출연자와 공연/고객의 콘셉트를 고려해 공간을 설계해야 한다. 특히 카메라 트래킹 데이터를 그래픽 데이터와 연결하는 과정이 중요하다”고 설명했다. 자이언트스텝은 미래의 뉴미디어 트렌드로 꼽히는 메타버스 콘텐츠에도 주목하고 있다. 메타버스 콘텐츠는 현실의 활동을 가상의 공간으로 옮겨 오거나, 가상의 존재와 가상의 공간을 연결하는 등 다양한 형태가 있을 수 있는데, 신원호 본부장은 “메타버스 콘텐츠는 가상 공간에서 체험할 수 있는 모든 콘텐츠를 아우른다. 무엇보다 중요한 것은 모든 콘텐츠, 서비스, 비즈니스를 연결하는 것”이라고 짚었다. 리얼타임 콘텐츠를 중심으로 다양한 산업으로 확장하고 있는 자이언트스텝은 산업의 경계가 무너지고 산업간 교집합이 입체적으로 만들어지는 새로운 콘텐츠 지형에서 더욱 많은 실시간 리얼타임 콘텐츠가 만들어질 것으로 전망하고 있다.   같이 보기 : 코리아 그래픽스 2021, 미래를 여는 메타버스와 시각화 기술의 흐름을 짚다   같이 보기 : 주요 발표 정리  뉴노멀 시대 디자인의 키워드는 혁신 가치와 경험  컴퓨터 그래픽스, 딥러닝과 만나다  현실과 디지털 세계가 융합되는 메타버스  디지털 트랜스포메이션의 중심에 선 리얼타임 렌더링 기술  산업 분야를 위한 증강현실 기술의 진화  제품 개발에서 마케팅까지 프로세스 바꾸는 실시간 시각화  3D 프린팅 기술이 디자인 경쟁력을 높인다  산업분야의 AR과 메타버스를 위한 플랫폼 개발  3D 스캔과 사진 데이터 결합해 정밀한 BIM 구현  콘텐츠, 서비스, 비즈니스까지 메타버스에서 융합  3D 프린팅의 장점을 극대화하고 단점을 줄이는 새로운 모델링 방법    
작성일 : 2021-04-30