• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "섭스턴스"에 대한 통합 검색 내용이 24개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
에픽게임즈, 더욱 사실적인 경험 제작을 지원하는 트윈모션 2023.2 출시
에픽게임즈 코리아는 다양한 신규 기능 및 기능 개선 사항이 추가된 ‘트윈모션 2023.2’를 출시했다고 발표했다. 트윈모션은 건축, 자동차 & 운송, 패션, 제품 디자인 등 다양한 분야를 위한 고퀄리티 시각화를 쉽고 빠르게 제작할 수 있는 리얼타임 몰입형 3D 시각화 솔루션으로, 직관적인 아이콘 기반의 쉬운 UI를 통해 전문가는 물론 초보자도 손쉽게 사용할 수 있다. 이번에 출시된 트윈모션 2023.2에는 ▲루멘 리얼타임 GI ▲애니메이션 파일 임포트(얼리 액세스) ▲Adobe Substance 3D 머티리얼 지원 ▲자동차 화이트 스튜디오 템플릿 ▲향상된 신 제작 등의 주요 기능 및 개선 사항과 함께 다양한 기능이 추가됐다.     먼저, 트윈모션 사용자들로부터 가장 많은 요청을 받았던 언리얼 엔진 5의 다이내믹 글로벌 일루미네이션 및 리플렉션 시스템인 ‘루멘’이 새롭게 추가됐다. 루멘은 시간에 따라 태양의 각도를 바꾸거나 외부 문을 여는 것처럼 직접광이나 지오메트리가 변할 때 간접광을 즉각적으로 조정할 수 있는 기능으로, 리얼타임 애플리케이션에 새로운 차원의 사실감을 제공하는 동시에 패스 트레이싱에 가까운 고퀄리티의 스틸 이미지와 영상을 짧은 시간 안에 렌더링할 수 있다. 애니메이션 파일 임포트 기능은 애니메이션 FBX, glTF, GLB 파일을 임포트하여 자신만의 애니메이션을 사용하거나 스케치팹의 애니메이션 파일도 활용할 수 있어 더욱 사실적인 경험을 제작할 수 있다. 얼리 액세스로 제공되는 이번 버전에서는 스태틱 메시 애니메이션과 스켈레탈 애니메이션을 모두 가져오고, 재생 횟수, 재생 시작 및 시작 지점과 종료 지점 등을 조절할 수 있다. 또한, 여러 애니메이션이 있는 스켈레탈 오브젝트의 경우, 재생할 애니메이션을 선택할 수도 있다. 어도비 섭스턴스 3D 머티리얼 지원은 어도비 섭스턴스의 3D 파라메트릭 머티리얼을 SBSAR 파일 포맷으로 임포트하여 트윈모션 라이브러리에 저장할 수 있는 새로운 기능이다. 이제 섭스턴스 디자이너에서 직접 만든 머티리얼 또는 이 포맷으로 제공되는 많은 머티리얼 라이브러리에서 가져온 머티리얼을 사용할 수 있다. 노출된 모든 파라미터는 트윈모션 프로퍼티 패널에서 편집할 수 있는데, 예를 들어 직물 조각의 스티치 컬러와 메인 컬러를 각각 변경하고 스티치 길이를 조정할 수 있으며, 텍스처는 수정하면 즉시 생성된다. 자동차 화이트 스튜디오 템플릿의 경우, 트윈모션이 자동차 시각화에 사용되는 사례가 폭발적으로 증가함에 따라 관련 프로젝트를 손쉽게 시작할 수 있도록 새로운 화이트 스튜디오 템플릿이 추가됐다. 미리 정의된 다양한 샷이 제공되며 기존 애셋을 제작한 모델로 교체하기만 하면 바로 사용할 수 있다. 화이트 스튜디오 템플릿은 트윈모션 2023.1.2 버전에서 도입된 새로운 홈 패널에서 확인할 수 있다. 향상된 신 제작에는 신을 더 빠르고 쉽게 제작할 수 있는 새로운 두 가지 기능을 제공한다. 먼저, 스케치팹, 퀵셀, 유저 라이브러리 및 트윈모션 라이브러리 애셋 대부분을 비롯해 훨씬 많은 애셋 유형을 페인팅 및 스캐터링할 수 있게 되어 신을 훨씬 더 빠르게 꾸밀 수 있다. 두 번째로는, 신을 편집하는 동안 실시간으로 미디어 카메라를 미리 볼 수 있는 기능으로, 이제 최종 미디어의 카메라 프레임에 없는 라이트나 그림자가 진 오브젝트를 배치하기 위해 미디어 탭 섬네일과 뷰포트를 계속 왔다갔다할 필요가 없어졌다. 이외에도, 다양한 라이팅 조건에서 눈이 반응하는 방식을 모방하여 그림자와 하이라이트의 디테일을 보존하는 로컬 노출을 지원하는데, 이는 동일한 뷰에 어두운 인테리어와 밝은 익스테리어가 모두 포함된 신처럼 까다로운 HDR 신에 특히 유용하다. 또한, 물 머티리얼에 대한 패스 트레이싱된 투명도, 사실적인 비와 눈이 내리는 신을 위한 향상된 날씨 파티클, 더 빠른 렌더링을 위해 최적화된 투명 유리 머티리얼 등 기존 기능들도 대폭 개선됐다. 트윈모션은 학생이나 교육자 또는 비상업적인 프로젝트에는 무료로 사용할 수 있으며, 지난 12개월 이내에 트윈모션을 구매한 사용자는 에픽게임즈 런처에서 트윈모션 2023.2 상업용 에디션을 무료 업그레이드할 수 있다.
작성일 : 2023-10-25
[케이스 스터디] 단편 영화 수상작 ‘더 보이스 인 더 할로우’
리얼타임 애니메이션으로 어둠의 공간을 구현   애니메이션을 제작하는 것은 매우 힘든 일이다. 하지만 훌륭한 작품을 만들기 위해 꼭 수백 명의 사람이 필요한 것은 아니다. ‘더 보이스 인 더 할로우(The Voice in the Hollow)’는 대형 스튜디오의 작품이 아니라 열정에서 시작한 프로젝트다. 이 작품을 만든 소규모 전문가 팀은 리얼타임 툴을 사용하여 빠르게 프로젝트를 진행했고, 작품을 이끄는 훌륭한 스토리 없이도 시선을 사로잡는 흥미로운 비주얼을 제작했다. ■ 자료 제공 : 에픽게임즈   ▲ ‘The Voice in the Hollow - Horror, Unreal Engine, Siggraph Jury Award Winner’ 영상   오래된 이야기의 새로운 해석 디렉터이자 VFX 슈퍼바이저인 미겔 오르테가(Miguel Ortega)와 작가이자 프로덕션 디자이너인 트란 마(Tran Ma)가 이전 프로젝트인 ‘더 닝요(The Ningyo)’를 제작할 당시, ‘모닝 캐번(Moaning Cavern)’이라는 이름의 북부 캘리포니아의 동굴 깊은 곳에서 신을 촬영하던 중 이들은 ‘더 보이스 인 더 할로우’에 관한 아이디어를 떠올렸다. 미겔은 “그 아래에서 촬영 당시 사람들이 말하기를 저 너머에는 해골이 많이 있으니 촬영하지 말라고 했다”고 전했다.  이 동굴에는 소녀가 도움을 요청하는 듯한 신음이 들렸다는 이야기가 전해져 내려온다는 말을 들은 미겔은 “과학적으로 보면 사실상 병을 불어 소리를 내는 것과 같다. 단지 병의 길이가 80m에 달하고 그 소리가 소녀의 목소리와 비슷할 뿐”이라고 말했다. 아마추어 구조대원 지망생들은 동굴의 깊이가 생각보다 깊지 않고 가끔 거기 추락한 사람이 있을 것 같다고 추정했다. 실제로 1900년대 초 동굴이 발굴되자 추락사한 것으로 추정되는 사람들의 해골 더미가 발견됐는데, 그 해골 더미의 가장 아래에 1만 년 된 소녀의 해골이 있었다. 이 사건이 카인과 아벨의 이야기를 아프리카에서 펼쳐지는 두 자매의 이야기로 재구성한 ‘보이스 인 더 할로우’에 영감을 주었다.   ▲ 카인과 아벨 이야기에 아프리카 정신을 더한 ‘The Voice in the Hollow’ 영상   미겔과 트란은 1960~70년대의 범죄 드라마와 거친 스파게티 웨스턴, 그라인드하우스 호러 영화에서 영감을 받아 당시 폭력적인 이탈리아 영화에서 자주 나오던 채도가 높은 컬러 팔레트를 사용했다. 미겔은 특히 영화의 결말이 아주 암울한 세르지오 코르부치(Sergio Corbucci)의 ‘위대한 침묵(The Great Silence)’에서 큰 영감을 받았다. 선명한 빨간색과 밝은 청록색에 라이팅을 적용하여 칙칙한 노란색, 갈색 세상과 대비되게 연출하는 부분에서는 이탈리아 촬영감독 마리오 바바(Mario Bava)의 색채 감각을 느낄 수 있다. 이 빨간색은 코아(Coa)와 알라(Ala) 두 자매를 구별하는 데에도 유용한데, 한 명은 눈에 띄는 빨간색 얼굴 분장을, 다른 한 명은 하얀색 얼굴 분장을 했기 때문이다.   ▲ 이미지 출처 : Half M.T Studios   리얼타임으로 캐릭터 디렉팅 제작 중인 콘텐츠에 참고가 될 만한 완벽한 전례는 없었다. 그래서 팀은 참고 자료를 통해 다소 새로운 방향으로 나아가기 시작했는데, 이것이 오히려 잘된 일이었다. 그들은 눈에 띄기를 바랐기 때문이다.  미겔은 “우리는 ‘라이온 킹’ 같은 분위기의 작품을 만들고 싶지는 않았다. 좀 더 환상적인 분위기를 원했다”라고 말했다.  그리고 미겔과 트란은 환상적인 분위기가 무엇인지 알고 있었다. 두 사람 모두 ‘수퍼맨 리턴즈’나 ‘미스트’, ‘스피드 레이서’, ‘트랜스포머’ 같은 VFX 블록버스터 작품 제작에 참여한 경험이 있기 때문이다. 또한, 소규모 프로젝트도 처음이 아니다. 미지의 생물에서 영감을 받은 단편 영화 ‘더 닝요’로 화젯거리가 된 적도 있었다.   ▲ 이미지 출처 : Half M.T Studios   하지만 ‘더 보이스 인 더 할로우’ 제작을 시작하자 운신의 폭이 제한되었다. 캐릭터와 비주얼의 지향점은 알고 있었지만, 어떻게 하면 이렇게 적은 인력으로 야심찬 영화를 애니메이션 형식으로 제작할 수 있을지가 숙제였다.  이러한 문제에 부딪힌 이들은 창의적인 답변을 수없이 내놓았는데, 예를 들어 영화의 캐릭터가 나무로 조각한 인형처럼 보이는 것은 우연이 아니다. 미겔은 “캐릭터를 나무 인형처럼 만들면 홍채의 굴절에 오류가 있다고 하는 사람은 없을 것이다. 하지만 그런 결정을 한 뒤에도 만족스러운 디자인에 이르기까지 여러 차례 반복 작업을 거쳐야 했다”고 전했다.  그리고 트란은 작업 중인 스컬프팅을 보여주는 것이 다소 불편하다고 했지만, 제작 이후 Gnomon이 진행한 여러 비하인드 신에서 그녀가 공개한 프로세스는 오히려 흥미로웠고 트란이 전문가임을 확인할 수 있었다.   ▲ 이미지 출처 : Half M.T Studios   실제로 영화의 캐릭터 모델은 지브러시(ZBrush)로 스컬프팅하고 섭스턴스 3D 페인터(Substance 3D Painter)로 텍스처를 입혔다. 트란은 일반적으로 사실적인 모델을 제작할 때는 페인트 스트로크를 숨겨야 하지만, 이번 캐릭터는 인형 같았기 때문에 캐릭터의 몸체에 일부러 브러시 스트로크를 드러나게 했다. 미겔과 트란은 코아와 알라의 의상에서도 둘 중 누가 더 뛰어난 사냥꾼인지 자연스럽게 보여주고 싶었다. 트란은 “코아의 옷을 잘 보면 동물 가죽이 전혀 없는데, 왜냐면 사냥에 능하지 못했기 때문이다. 반면, 알라의 디자인은 비대칭적이고 더 자유롭다. 그녀가 걸친 모든 옷감이 본인이 사냥한 동물의 가죽인 것을 알 수 있다”라고 말했다.   ▲ 이미지 출처 : Half M.T Studios   캐릭터를 다듬은 다음에는 언리얼 엔진에서 애니메이팅을 했다. 두 사람은 언리얼 엔진을 몇 주밖에 사용해 보지 않았다. 하지만 사용 경험이 적음에도 불구하고, 미겔과 트란은 언리얼 엔진 5의 뎁스 오브 필드 포커스 같은 기능을 코아와 알라의 미니어처 모습과 같은 중요한 시각적 단서를 강조하는 용도로 쓸 수 있다는 것을 알았다. 이를 통해 캐릭터에 담긴 독특한 미학적 요소를 잡아낼 수 있었을 뿐 아니라, 많은 시청자가 좋아하는 스톱 모션 같은 룩도 프로젝트에서 구현할 수 있었다.   ▲ 이미지 출처 : Half M.T Studios   아프리카 세계 만들기 구멍 주변의 불길한 지형은 Gaea에서 제작했다. 이를 통해 이 팀은 수동 프로시저럴 엘리먼트와 메가스캔 애셋을 블렌딩할 수 있었다. 구덩이 주변에 솟은 가시 기둥에도 심혈을 기울였는데, 이 구덩이는 루시퍼를 상징하는 극중 장치이자 코아가 어두운 운명을 향해 나아갈 때 도움을 준다.   ▲ 이미지 출처 : Half M.T Studios   ‘더 보이스 인 더 할로우’에서는 마을이 작품에서 중요한 역할을 하지는 않지만, 미겔과 트란은 더 유연한 장면을 연출하고자 완벽한 환경을 만들고 싶었다. 시간을 절약하기 위해 두 사람은 메가스캔 애셋 프리셋과 커스터마이징된 Mudbox 스컬프팅을 블렌딩하여 마을을 제작했고, 그때그때 적합한 툴을 사용했다. 미겔은 이 과정을 레고를 맞추는 것에 비유했다. “이는 메가스캔 애셋을 사용한다고 해서 꼭 메가스캔 애셋처럼 보일 필요는 없다는 것에 대한 증명”이라고 미겔은 덧붙였다. 처음 영화를 보면 알아채기 어려운 요소가 있다. 바로 마을과 기타 배경이 매우 자세하게 구현돼 있다는 점이다. 사전 제작된 애셋을 사용한다 해도 영화에는 커스텀 모델링을 거친 조각상과 구조물이 많이 들어간다. 영화에서는 거의 눈에 띄지 않지만, 전반적인 분위기를 조성하려면 없어서는 안 될 요소다. 미겔은 “내 수업을 들은 사람이라면 내가 입버릇처럼 하는 말을 알 것이다. 보는 것이 중요한 것이 아니다. 느껴야 한다”라고 말했는데, ‘더 보이스 인 더 할로우’를 보면 그 복잡성을 느낄 수 있다.    ▲ 이미지 출처 : Half M.T Studios(관련 영상)   스토리의 문화적 측면과 균형을 맞추기 위해 미겔과 트란은 작품을 어떻게 표현할지 폭넓게 생각해야 했다. 이들은 한 부족이나 출처만 참고하는 것에 그치지 않고 아프리카 전역의 디자인을 연구했으며, 덕분에 특정한 미학적 요소에 사로잡히지 않고 아프리카의 특색을 살릴 다양한 의상과 헤어 스타일, 보디 페인트를 고를 수 있었다. 또한, 미겔과 트란은 아프리카의 특정 집단을 모방하고 싶지 않았다. 대신 언리얼 엔진에서 마스크를 활용하여 손쉽게 다양한 베리언트를 만들 수 있는 방식으로 캐릭터를 디자인했다. 미겔은 “마스크를 만들면 그걸로 옷과 페인트 컬러를 바꿀 수 있다”고 말했다. 트란은 “다양한 베리언트를 얻기에 매우 유연한 시스템이었다. 언리얼에서 만들 수 있는 정말 멋진 머티리얼 시스템”이라고 덧붙였다.    ▲ 이미지 출처 : Half M.T Studios   미겔과 트란은 이렇게 영상의 미학을 정했다. 다음 난관은 본인들이 정한 혹독한 일정을 소화하는 것이었다. 이들은 소규모 전문 아티스트 팀이라 매일 작업을 했고, 수업을 가르칠 때만 쉬었다. 트란은 기존 파이프라인으로 프로젝트를 진행했다면 결코 완료하지 못했을 프로젝트였으며, 언리얼 엔진의 리얼타임 워크플로가 매우 생산적이라고 말했다.   목소리와 움직임에 깊이를 더하기 미겔과 트란은 아프리카 분위기의 세계에 시청자가 더 몰입할 수 있도록, 대본을 영어 대신 동아프리카에서 많이 쓰는 언어인 스와힐리어로 바꾸기로 했다. 하지만 캐스팅이 말처럼 쉽지는 않았는데, 로스앤젤레스에서 스와힐리어에 능통한 배우를 찾기 시작하면서 이 사실을 정말 뼈저리게 느꼈다. 미겔은 “수백 명이 접수했지만, 한 명도 스와힐리어를 하지 못했다”고 전했다. LA에 없다면 아프리카 연예 기획사를 찾으면 되겠다고 생각할 수 있지만, 그들은 실제로 그런 기획사를 찾지 못했다. 해결책을 찾던 두 사람은 결국 오디오북 번역가에게 음성 녹음을 부탁했고, 결과는 대성공이었다. 배우 세 명 모두 연기 경험이 전무했음에도 불구하고 훌륭한 목소리 연기를 펼쳤기 때문에 미겔과 트란은 깜짝 놀랄 수밖에 없었다. 이제 미겔과 트란은 이 세상에 유일한 스와힐리어 아프리카 호러 애니메이션을 만든 것은 물론 아프리카 출신 사람들과 함께 이 작품을 제작했다고 자신 있게 말할 수 있다. 하지만 여전히 문제가 있었다. 이 배우들이 다른 대륙에 있었던 것이다. 영화 촬영을 하려면 수천 킬로미터를 날아와야 했다. 그래서 미겔은 직접 모션 캡처 프로세스를 진행했고, 헤드 마운트된 아이폰과 MocapX로 페이셜 캡처 녹화 작업을 진행한 후, 나중에 마야(Maya)에서 보정했다. 반면, 알라와 코아의 보디 캡처 데이터는 프로듀서 Gnomon 캠퍼스의 전문 그린 스크린 스테이지에서 Xsens의 MVN Awinda 수트와 장갑을 이용해 얻었다. 처음에는 미겔이 직접 템포럴 캐릭터 애니메이션을 녹화했지만, 최종 애니메이션은 이전에 ‘더 닝요’에서 함께 작업했던 케이틀린 오코넬(Kaitlyn O'Connell)의 기술을 사용했다. 그 덕분에 더 정확하고 사실적인 움직임을 캡처할 수 있었고, 특히 소녀의 특징을 확실히 포착할 수 있었다.   ▲ 이미지 출처 : Half M.T Studios(관련 영상)   라이팅 과정 이번 작품은 언리얼 엔진 5로 라이팅과 렌더링을 처리하고, 라이트 블로커를 활용하여 환경 내 섀도의 위치를 조정했다. 미겔과 트란은 최종 결과를 더 잘 제어할 수 있도록 다른 접근 방식을 채택했다. 이들은 오프라인 렌더러와 컴포지터에서 렌더 패스를 생성했던 기존 워크플로에서 벗어나 엔진 내에서 리얼타임으로 원본 라이팅 이펙트와 패스를 렌더링하고 컴포짓했다. 이는 모든 것이 한곳에 있었기에 손쉽게 자유와 유연성을 누릴 수 있다는 장점이 있었다. 특히 루멘이 유용했는데, 다이내믹 글로벌 일루미네이션 라이팅 기능이 기존 오프라인 렌더러와 매우 유사하여 작업물 퀄리티가 더 좋아졌기 때문이다.   ▲ 이미지 출처 : Half M.T Studios(관련 영상)   리얼타임의 중요 포인트 프로젝트가 마무리된 후 트란은 리얼타임 애니메이션을 탐구한 이후에 예전 방식으로 돌아가기가 얼마나 어려운지 언급했다. 트란은 “리얼타임을 통해 시간을 정말 많이 절약할 수 있었다. 특히 스토리텔링 프로세스가 그랬다. 응답 시간, 퀄리티, 모든 것을 즉시 볼 수 있다는 점까지 모든 면에서 훨씬 빨라졌다”고 말했다.  장엄한 산맥과 함께 타이틀 샷만 촬영한다고 해도 예전 같으면 몇 주는 걸렸을 것이다. 하지만 언리얼 엔진 5에서는 며칠이면 충분했다. 적은 리소스로 더 많은 일을 하는 방법을 끊임없이 고민하는 미겔과 트란 같은 팀에게 이러한 즉시성이 동기부여가 된다. 미겔은 “다른 툴을 사용하면 영감이 찾아올 때까지 오랜 시간이 걸릴 수 있다. 하지만, 언리얼 엔진을 사용하면 훨씬 쉽게 그 지점에 도달할 수 있다. 때문에 우리는 계속 언리얼 엔진을 활용하게 될 것 같다”고 말했다.   ▲ 이미지 출처 : Half M.T Studios     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-10-04
[포커스] 엔비디아, GPU 컴퓨팅과 인공지능의 전방위 확산을 꿈꾼다
엔비디아는 그래픽 데이터 처리로 시작한 GPU 기술을 인공지능에 적극 활용하면서 더욱 넓은 영역으로 확장해 나가고 있다. 지난 달 열린 ‘GTC 2021’ 이벤트에서 엔비디아는 메타버스에서 데이터센터, 자율주행 자동차까지 하드웨어와 소프트웨어를 결합한 기술 스택을 전방위로 제공한다는 비전을 소개했다. ■ 정수진 편집장   엔비디아의 연례 기술 이벤트인 GTC는 ‘GPU 기술 콘퍼런스’의 줄임말이다. ‘그래픽 처리 유닛’이라는 이름에 걸맞지 않게 GPU는 높은 연산 능력을 바탕으로 그래픽뿐 아니라 다양한 영역으로 확장하고 있다. 엔비디아의 젠슨 황 CEO는 4월 12일 열린 ‘GTC 2021’의 기조연설에서 “엔비디아는 하드웨어, 소프트웨어, 애플리케이션 등 ‘풀 스택(full stack)’ 컴퓨팅 플랫폼을 꾸준히 발전시켜 왔다. 특히 소프트웨어 분야의 최적화를 가속화하면서 소프트웨어 기업으로 확장 중”이라고 소개했다. 이런 흐름을 반영해 올해 GTC 2021에서는 메타버스, 데이터센터, 인공지능, 모빌리티 등 다양한 분야에 걸쳐 엔비디아의 컴퓨팅 기술과 활용사례 등이 소개되었다.   실시간 협업과 시뮬레이션을 위한 메타버스 젠슨 황 CEO는 “컴퓨터가 학습을 하고, 소프트웨어가 소프트웨어를 개발하며, 클라우드에서 AI 서비스가 이뤄지는 시대이다. AI와 5G는 4차 산업혁명의 원동력이 되었고, 전세계 어느 곳이든 자동화 시스템과 로봇을 배포할 수 있게 했다. 다음 단계는 현실의 디지털 트윈인 가상세계, 바로 메타버스(metaverse)가 될 것”이라고 전망했다. 젠슨 황 CEO가 바라보는 메타버스는 ‘3D 공간을 공유하고 가상으로 확장된 물리 공간을 결합한 세계’이다. 이런 개념의 메타버스는 게임 분야를 중심으로 꾸준히 시도되고 있는데, 엔비디아는 메타버스를 다양한 분야에서 구현하기 위한 수단으로 ‘옴니버스(Omniverse)’를 소개했다. 작년에 엔비디아가 소개한 옴니버스는 3D 가상세계를 만들고 물리 공간을 확장하는 플랫폼이다. 이 가상세계에서 실시간으로 디자인 협업을 하거나 디지털 트윈을 만들어 시뮬레이션을 할 수 있다. 또한 VR(가상현실)/AR(증강현실)로 확장하는 것도 가능하다. 옴니버스는 픽사가 개발한 USD(Universal Scene Description)를 3D 데이터 포맷으로 사용해 실시간 협업을 구현했다. 설계나 시각화 소프트웨어를 위한 ‘옴니버스 커넥터’ 플러그인을 설치하고 공유 데이터를 관리하는 ‘뉴클레스(Nucleus)’ 서버와 연결하면, 각 소프트웨어에서 작업한 데이터가 자동으로 USD 포맷으로 변환되어 뉴클레스 서버로 전달되는 형태이다. 소프트웨어 사용자들은 옴니버스를 중심으로 실시간으로 서로의 작업 내용을 공유하고, 수정 사항을 반영할 수 있다. 여기에 엔비디아의 물리엔진인 피직스(PhysX)와 재료 정의 언어인 MDL(Material Definition Language)를 더해 입자, 유체, 재료 등의 시뮬레이션도 가능하다. 뉴클레스 서버는 데이터센터나 클라우드뿐 아니라 워크스테이션에도 설치가 가능하다. 그리고 옴니버스 커넥터는 현재 3ds 맥스, 마야, 섭스턴스 디자이너, 언리얼 엔진, 포토샵 등 시각화 소프트웨어를 중심으로 제공되고 있다. 여기에 아키캐드, 레빗, 온쉐이프, 스케치업, 솔리드웍스 등 설계 소프트웨어를 위한 옴니버스 커넥터 역시 제공 중이거나 예정되어 있다.  엔비디아는 옴니버스가 작년 12월 베타테스트를 시작해 지금까지 1만 7000건의 다운로드를 기록했다고 밝혔다. 또한 올 여름에는 옴니버스의 엔터프라이즈 라이선스를 출시해 제조, 건축, 미디어 등 다양한 시장 확대를 기대하고 있다. 엔비디아는 이번 GTC에서 옴니버스를 활용하고 있는 다양한 사례를 소개했다. BMW는 옴니버스로 디지털 트윈 공장을 시험하고 있다. BMW와 엔비디아는 레빗과 카티아 등의 소프트웨어를 활용해 자동차 공장 전체를 가상으로 만들고, 새 모델의 출시에 맞춰 생산 라인을 조정하는 과정을 옴니버스를 통해 가상 공장에서 진행하고 있다. 한편, 벤틀리 시스템즈는 자사의 인프라스트럭처 디지털 트윈 플랫폼인 아이트윈(iTwin)을 옴니버스와 통합해 실시간 시각화 및 디지털 트윈 시뮬레이션을 위한 그래픽 파이프라인을 강화했다.   ▲ 옴니버스로 구현한 BMW의 가상 공장   GPU 컴퓨팅의 가능성 극대화하는 데이터센터 엔비디아는 GPU 기반의 가속 컴퓨팅이 새로운 데이터센터를 요구한다고 보았다. AI와 딥러닝 기술을 활용한 서비스가 늘어나면서 많은 양의 데이터를 효과적으로 처리하는 기술과 데이터센터의 성능이 더욱 중요해지고 있다. 또한 컴퓨팅, 네트워크, 스토리지, 보안 등의 기능을 소프트웨어로 에뮬레이션하는 데이터센터 가상화도 이슈로 떠오른다. 젠슨 황 CEO는 효과적인 데이터 처리를 위한 ‘블루필드-3(BlueField-3)’ DPU(데이터 처리 유닛), 데이터센터용 CPU인 ‘그레이스(Grace)’ 등 새로운 프로세서를 소개했다. 가상화나 SDDC(소프트웨어 정의 데이터센터), 클라우드 등으로 컴퓨팅 아키텍처가 발전하고 인공지능의 활용이 확산되면서 데이터의 양이 크게 늘고 있다. CPU를 대신해 서버 간의 데이터 전달을 수행할 수 있는 DPU로서 엔비디아가 내세운 블루필드는 Arm 코어를 기반으로 한 SoC(시스템 온 칩)이다. 젠슨 황 CEO는 “AI가 확산되면서 새로운 소프트웨어 개발 방식을 위한 새로운 유형의 컴퓨터가 필요해진다”면서, “블루필드는 18개월마다 새로운 세대가 선보일 계획인데, 차세대 DPU인 블루필드-3는 400Gbps의 네트워크 속도와 새로운 수준의 보안 기능을 제공한다”고 소개했다. GPU 컴퓨팅은 많은 코어를 가진 GPU가 CPU의 연산 능력을 강화하는 것이 기본 개념인데, 기존 x86 아키텍처에서는 메모리와 GPU 사이에 데이터를 전송하는 속도가 느려서 병목이 생긴다. 그레이스 CPU는 이를 해결하기 위해 개발된 것으로, Arm 아키텍처를 기반으로 GPU와 DPU를 결합했다. NV링크(NVLink)를 지원해 메모리와 GPU 사이의 병목을 해소하고 대량의 데이터를 처리하는 효율을 높인다.   ▲ GPU와 DPU를 통합한 엔비디아 그레이스 CPU   더 강력한 인공지능을 더 쉽게 사용한다 지난 몇 년간 엔비디아는 AI를 위한 컴퓨팅 시스템과 소프트웨어를 폭넓게 지원한다는 전략을 꾸준히 유지하고 있다. 통합 컴퓨팅 시스템인 엔비디아 DGX와 관련해서, 이번 GTC 2021에서는 소형 데이터센터를 위한 DGX 스테이션(DGX Station)과 대규모의 AI 컴퓨팅을 위한 데이터센터 솔루션인 DGX 슈퍼팟(DGX SuperPOD)의 업그레이드가 소개됐다. 신제품인 DGX 스테이션 320G는 초당 8TB의 메모리 대역폭으로 A100 GPU 4개를 연결한다. 대형 AI 모델을 훈련시킬 수 있는 성능을 제공하면서 전력소비량은 1500W에 그친다. DGX 슈퍼팟은 새로운 80GB 엔비디아 A100 GPU와 90TB 메모리, 블루필드-2 DPU를 탑재하고, 초당 2.2EB(엑사바이트)의 대역폭을 제공한다. 엔비디아는 네이버가 인공지능 서비스인 클로바를 위한 한국어 인식 훈련에 DGX 슈퍼팟을 사용하고 있다고 소개하기도 했다. 또한, 엔비디아는 강력한 AI를 손쉽게 활용할 수 있게 돕는 애플리케이션을 소개하면서, 코딩 작업이 필요 없는 다양한 NGC(NVIDIA GPU Cloud) 사전학습 모델을 오픈소스로 제공한다고 전했다. 이번에 소개된 AI 애플리케이션에는 ▲사용자의 애플리케이션에 맞춰 사전학습 모델을 조정할 수 있는 타오(TAO) ▲음성인식과 번역을 위한 딥러닝 대화형 AI를 제공하는 자비스(Jarvis) ▲다양한 분야를 위한 추천 시스템 프레임워크 멀린(Merlin) ▲AI로 화상회의 경험을 향상시키는 맥신(Maxine) ▲대량 데이터 기반의 추론 서버를 위한 트라이톤(Triton) 등이 있다.   ▲ 엔비디아 DGX는 인공지능 활용을 위한 성능을 데이터센터에 제공한다.    자율주행 자동차를 위한 플랫폼 기술 또한, 엔비디아는 자율주행 자동차를 위한 AI 플랫폼인 ‘엔비디아 드라이브(NVIDIA DRIVE)’도 소개했다. 자율주행 자동차는 그 알고리즘이 정교해지면서 컴퓨팅에 대한 요구가 꾸준히 늘고 있으며, 동시에 기능 안전성과 사이버 보안 등에 대한 규정을 지키는 것도 중요하게 꼽힌다. 엔비디아 드라이브는 이런 흐름에 대응하기 위한 AI 기술을 지원하는데 중점을 둔다. 엔비디아의 8세대 하이페리온(Hyperion) 자동차 플랫폼은 센서와 중앙 컴퓨터 등의 하드웨어와 3D 실측 자료, 네트워킹 등의 소프트웨어를 포함한다. 핵심은 자율주행 자동차의 두뇌 역할을 할 프로세서이다. 젠슨 황 CEO는 “앞으로의 자동차는 중앙 컴퓨터 1대가 클러스터, 인포테인먼트, 승객과의 상호작용, 자율주행의 신뢰도를 위한 컨피던스 뷰(confidence view) 등의 기능을 모두 처리하게 될 것”이라면서, 프로세서의 중요성을 강조했다. 엔비디아는 2022년 오린(Orin), 2025년 아틀란(Atlan) 등 자율주행차 프로세서 로드맵을 소개했다. 오린은 볼보의 차세대 XC90 모델에 탑재될 예정이며, 아틀란은 새로운 Arm CPU와 차세대 GPU 아키텍처뿐 아니라 딥러닝과 컴퓨터 비전 가속기를 포함하게 된다. 이와 함께 젠슨 황 CEO는 “자동차 산업은 기술산업이 되고 있으며, 비즈니스 모델도 소프트웨어 중심으로 바뀔 것”이라고 전망하면서, 옴니버스 기반의 물리 시뮬레이션과 디지털 트윈을 엔비디아 드라이브에서 사용할 수 있다고 소개했다. 그리고 자율주행 자동차의 개발 공정 전반을 위해 디지털 트윈을 만들 수 있는 드라이브 Sim(Drive Sim)을 올 여름에 내놓을 것이라고 밝혔다.   ▲ 엔비디아의 차세대 자율주행 자동차 프로세서인 아틀란     기사 내용은 PDF로도 제공됩니다.
작성일 : 2021-05-03
엔비디아 옴니버스, 제조·건축 산업으로 메타버스의 확대 노린다
엔비디아가 디지털 트윈을 기반으로 하는 실시간 협업과 시뮬레이션 플랫폼을 다양한 산업분야에 제공할 계획을 밝혔다. 엔비디아의 젠슨 황 CEO는 4월 12일 열린 자사의 연례 기술 이벤트 'GTC 2021'의 기조연설에서 "AI와 5G는 4차 산업혁명의 원동력이 되었고, 전세계 어느 곳이든 자동화 시스템과 로봇을 배포할 수 있게 했다. 다음 단계는 현실의 디지털 트윈인 가상세계, 바로 메타버스(metaverse)가 될 것"이라고 전망했다. 젠슨 황 CEO가 바라보는 메타버스는 '3D 공간을 공유하고 가상으로 확장된 물리 공간을 결합한 세계'이다. 게임에서는 이런 개념의 메타버스가 이미 시도되고 있는데, 엔비디아는 메타버스를 다양한 분야에서 구현하기 위한 수단으로 '옴니버스(Omniverse)'를 소개했다.     작년 엔비디아가 소개한 옴니버스는 3D 가상세계를 만들고 물리 공간을 확장하는 플랫폼이다. 이 가상세계에서 실시간으로 디자인 협업을 하거나 디지털 트윈을 만들어 시뮬레이션을 할 수 있다. 또한 VR(가상현실)/AR(증강현실)로 확장하는 것도 가능하다. 옴니버스는 픽사가 개발한 USD(Universal Scene Description)를 3D 데이터 포맷으로 사용해 실시간 협업을 구현했다. 설계나 시각화 소프트웨어를 위한 '옴니버스 커넥터' 플러그인을 설치하고 공유 데이터를 관리하는 '뉴클레스(Nucleus)' 서버와 연결하면, 각 소프트웨어에서 작업한 데이터가 자동으로 USD 포맷으로 변환되어 뉴클레스 서버로 전달되는 형태이다. 소프트웨어 사용자들은 옴니버스를 중심으로 실시간으로 서로의 작업 내용을 공유하고, 수정 사항을 반영할 수 있다. 여기에 엔비디아의 물리엔진인 피직스(PhysX)와 재료 정의 언어인 MDL(Material Definition Language)를 더해 입자, 유체, 재료 등의 시뮬레이션도 가능하다. 뉴클레스 서버는 데이터센터나 클라우드뿐 아니라 워크스테이션에도 설치가 가능하다. 그리고 옴니버스 커넥터는 현재 3ds 맥스, 마야, 섭스턴스 디자이너, 언리얼 엔진, 포토샵 등 시각화 소프트웨어를 중심으로 제공되고 있다. 여기에 아키캐드, 레빗, 온쉐이프, 스케치업, 솔리드웍스 등 설계 소프트웨어를 위한 옴니버스 커넥터 역시 제공 중이거나 예정되어 있다.    ▲ 옴니버스로 구현한 BMW의 가상 공장   엔비디아는 이번 GTC에서 옴니버스를 활용하고 있는 다양한 사례를 소개했다. BMW는 옴니버스로 디지털 트윈 공장을 시험하고 있다. 레빗과 카티아 등의 소프트웨어를 활용해 자동차 공장 전체를 가상으로 만들고, 새 모델의 출시에 맞춰 생산 라인을 조정하는 과정을 옴니버스를 통해 가상 공장에서 진행하는 것이다. 기계설비뿐 아니라 엔비디아의 디지털 휴먼 시뮬레이션으로 작업자의 워크플로를 조정하고, 아이작(Issac) 로봇 플랫폼으로 지능형 로봇의 배치와 훈련을 가상 진행했다. 가상 공장의 생산 시스템을 설계하고 조정하는 전반적인 과정에서 엔지니어, 시설 관리자, 공정 전문가가 실시간 협업을 진행했다. 인프라스트럭처 설계/건설/운영 분야의 소프트웨어 업체인 벤틀리 시스템즈는 자사의 디지털 트윈 플랫폼인 아이트윈(iTwin)을 옴니버스와 통합해 실시간 시각화 및 디지털 트윈 시뮬레이션을 위한 그래픽 파이프라인을 강화했다. 아이트윈은 엔지니어링 인프라 자산의 디지털 트윈을 만들고 시각화나 분석을 할 수 있는 클라우드 플랫폼인데, 여기에 옴니버스를 결합함으로써 대규모의 인프라 시설에 대해 사실적인 조명이나 환경 효과가 추가된 엔지니어링 시각화가 가능해졌다.   ▲ 벤틀리 시스템즈는 인프라스트럭처 디지털 트윈과 옴니버스를 결합해 한층 향상된 시각화를 구현했다.   엔비디아는 옴니버스가 작년 12월 베타테스트를 시작해 지금까지 1만 7000건의 다운로드를 기록했다고 밝혔다. 또한 올 여름에는 옴니버스의 엔터프라이즈 라이선스를 출시해 제조, 건축, 미디어 등 다양한 시장 확대를 기대하고 있다.
작성일 : 2021-04-13
언리얼 온라인 러닝: 언리얼 엔진의 무료 온라인 학습 플랫폼
개발 및 공급: 에픽게임즈 주요 특징: 비디오 강좌를 통해 언리얼 엔진 학습 무료로 진행 가능, 게임뿐 아니라 건축·영화 등 다양한 산업 분야 강좌 포함   언리얼 온라인 러닝(Unreal Online Learning)은 언리얼 엔진 사용자들이 비디오 강좌를 통해 언리얼 엔진 학습을 진행할 수 있는 무료 온라인 학습 플랫폼이다. 언리얼 엔진 계정만 있으면 학생부터 현업 실무자까지 누구나 무료로 이용할 수 있으며, 사용자가 직접 자신의 분야 및 수준에 맞는 강좌를 선택하여 언제 어디서든 영상으로 학습이 가능하다. 게임뿐 아니라 건축, 영화 등 다양한 산업 분야와 관련된 강좌가 준비돼 있으며, 사용자는 강사/기능/분야 등으로 강좌를 분류해 원하는 내용의 학습을 진행할 수 있다. 각 강좌는 10~15분 정도의 짧은 단원으로 구성되어 있어 사용자의 일정에 맞춰 유연하게 수강할 수 있고, 강좌 완료율이 표시되어 손쉽게 진도를 확인하며 학습할 수 있다. 하트 아이콘을 클릭, 원하는 강좌를 즐겨찾기에 추가해 자신만의 학습 과정을 설계하는 것도 가능하다. 아직 언리얼 엔진이 익숙하지 않아 어떤 내용의 강좌를 들어야 할지 잘 모르는 초보자들은 에픽게임즈에서 제공하는 ‘학습 과정’을 이용하면 편리하다. 학습 과정은 ‘언리얼 엔진 시작하기’, ‘건축 시각화 전문가 되기’ 등과 같이 특정 주제의 콘텐츠를 모아 놓은 강좌 모음이다. 언리얼 온라인 러닝을 이용하기 위해서는 언리얼 엔진 홈페이지에 언리얼 엔진 계정으로 로그인한 후, ‘학습 & 지원’의 ‘온라인 러닝’ 탭을 통해 접속하면 된다. 에픽게임즈에서는 최근 건축 관련 종사자들에게 도움이 될 신규 건축 강좌들을 추가했는데, 신규 추가된 건축 강좌들에는 어떤 것들이 있는지 각 강좌의 주요 내용에 대해 소개한다.   언리얼 온라인 러닝 신규 건축 강좌 소개 VR 3D 맵 네비게이션 이 강좌에서는 VR 건축물 모델의 3D 맵과 모션 컨트롤러 기반의 네비게이션 시스템을 제작하는 방법에 대해 배운다. AEC 분야에서 쌓은 다년간의 실전 경험을 토대로 강사가 VR 건축물 모델의 3D 맵과 모션 컨트롤러 기반의 네비게이션 시스템을 제작하는데 필요한 교육을 진행한다. VR을 디자인 매개체로 삼아 건축 쇼케이스의 참석자를 깊이 몰입시키며, 일반적인 하드웨어 설정으로 최종 사용자가 사용하기 간편한 메커니즘을 개발하는 방법을 설명하며, 23개의 카테고리로 구분된 강좌에서는 단계별로 직접 시연하는 영상을 보여주며 설명을 진행한다.   ▲ 이미지 출처: 언리얼 온라인 러닝 ‘VR 3D 맵 네비게이션’ 강좌 캡처   3D 월드를 탑 모드와 프리뷰 모드, 두 가지 스타일로 탐색할 수 있는 스폰 가능한 인터랙티브 맵을 제작해본다. 애니메이션 애셋을 수정, 생성 후 AnimBP에 활용하여 3D 엘리먼트 제어에서 클라이언트에게 제공하기 위한 VR 프로젝트 패키징까지 완성하면 과정이 마무리된다. 강좌 중간에 단계별 3번의 퀴즈 타임을 통해 나의 상태를 점검하며 학습할 수 있다.   트윈모션 2020과 아키캐드 다이렉트 링크 사용하기 이 강좌에서는 트윈모션 2020을 시작하고, 아키캐드(ARCHICAD)에서 트윈모션으로 데이터를 원클릭 동기화하는 방법을 배운다. 트윈모션은 사용이 간편한 언리얼 엔진 내 리얼타임 시각화 툴로, 이 강좌에서는 트윈모션 20020에 입문해 건축 디자인을 멋지게 시각화하는 방법을 알려준다. 끝까지 듣고 나면 트윈모션과 아키캐드 다이렉트 링크 플러그인을 손쉽게 활용할 수 있고, 최고의 데이터 전송 기술로 한층 더 편리해진 두 애플리케이션 사이의 시각화 워크플로를 잘 이해할 수 있다. 강좌 과정은 아키캐드에서 트윈모션으로의 워크플로, 프로젝트 위치 및 원점 정의, 지형 및 랜드스케이프 디자인, FBX 워크플로 및 안투라지(entourage) 추가, 라이팅, 노트를 BCF로 내보내기, 프로젝트롤 이미지, 애니메이션, 인터랙티브 경험으로 내보내기로 나눠 진행된다.   ▲ 이미지 출처: 언리얼 온라인 러닝 ‘트윈모션 2020과 아키캐드 다이렉트 링크 사용하기’ 강좌 캡처   레빗에서 언리얼 엔진으로 기본 이 강좌는 레빗(Revit)에서 언리얼 엔진으로 모델을 익스포트하는 방법, 머티리얼 교체 방법, 다른 프로젝트로부터 엘리먼트를 이주하는 방법, 표면을 개선하는 방법, 신(scene)을 라이팅하는 방법, 실시간 다중 카메라 애니메이션을 생성하는 방법에 대해 알아본다. 언리얼 엔진에서 레빗 모델을 활용하고, 디자인의 실시간 다중 카메라 영상을 생성하는 방법을 단계별로 설명하는데, 레빗에서 익스포트하기, 데이터스미스 임포트 옵션, 파이썬(Python)을 활용한 머티리얼 교체, 다른 프로젝트에서 랜드스케이프와 안투라지 이주하기, 섭스턴스(Substance) 머티리얼을 활용한 표면 개선을 다룬다. 강좌 마지막에는 신에 라이팅을 사용하고 시퀀서에서 다중 카메라 애니메이션을 생성하여 거의 실시간으로 영상을 출력하는 방법을 설명한다.   ▲ 이미지 출처: 언리얼 온라인 러닝 ‘레빗에서 언리얼 엔진으로 기본’ 강좌 캡처     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-09-29
[핫윈도우] 유니티 HDRP를 활용한 고품질 건축 시각화
건축/건설 산업을 위한 3D 데이터의 활용 (2)   유니티(Unity)는 AEC 분야 전반의 디자이너, 엔지니어와 선두주자들이 제품 시각화와 인터랙티브 및 가상 환경 제작에 사용하는 범용 실시간 3D 플랫폼이다. 이 글에서는 유니티의 고해상도 렌더 파이프라인을 사용하여 렌더링한 인테리어와 건축 프로젝트를 소개한다. 이 글의 내용은 지난 6월 10일~11일 진행된 ‘코리아 그래픽스 2020’의 발표를 정리한 것이다.   그림 1. Unity HDRP로 구현한 유니티 런던 오피스의 내부   유니티 HDRP 유니티 버전 2018.1에는 스크립터블 렌더 파이프라인(Scriptable Render Pipeline, 이하 SRP)이라는 새로운 시스템이 도입되어 프로젝트에 맞는 렌더링 파이프라인을 만들 수 있게 되었다. SRP에는 URP(Universal Render Pipeline) 및 HDRP(High Definition Render Pipeline)라는 두 가지 파이프라인이 제공된다.  그 중 이 글에서 소개할 HDRP는 시각적으로 높은 수준의 그래픽을 제공하는 것이 목표이다. 주로 뛰어난 정확도의 영화, 애니메이션, 자동차 데모, 게임, 건축 애플리케이션 등 그래픽스 품질이 우선시되는 프로젝트를 제작하는데 사용되고 있다. HDRP는 물리 기반 조명과 머티리얼을 사용하며 포워드 및 디퍼드 렌더링 경로를 모두 지원한다. HDRP로 프로젝트를 진행할 경우 유니티 허브(Unity Hub)에서 새 프로젝트를 만들 때 제공하는 HDRP 템플릿(template)을 사용해서 시작하면 된다.(HDRP 매뉴얼 참조)   유니티 코리아 서울 오피스 첫 번째로 소개할 HDRP 프로젝트는 유니티 코리아의 서울 오피스이다. 2019년 7월 1일에 유니티 코리아 오피스가 이전하면서 인테리어 시공사에 스케치업 파일을 받아 진행하게 된 프로젝트이다. 유니티 서울 오피스는 인터랙티브 파일로 보다 생동감 있게 만나볼 수 있다. 체험해 보길 원한다면 유니티 스퀘어 웹사이트를 방문해서 다운로드받아 보길 바란다. HDRP는 PC, 엑스박스(Xbox), 플레이스테이션(PlayStation)을 비롯한 고사양 하드웨어를 대상으로 하기 때문에, 빌드 파일을 실행할 때는 좋은 사양의 컴퓨터로 진행하길 권장한다.  빌드 파일을 다운로드받게 되면 마우스와 키보드(W, A, S, D 키)를 이용하여 다양한 방 사이를 자유롭게 이동하면서 바닥 재료 변경, 그림 변경, TV 및 램프 켜기/끄기를 할 수 있다. 또 Esc 키를 누르게 되면 메인 UI가 뜨면서 사용자가 주간/야간 모드 전환할 수 있고 UI가 설명되어 있다.   그림 2. 빌드 파일을 다운로드한 후 UI 조작 방법: Esc 키를 누르면 UI가 뜬다.   코리아 오피스 프로젝트의 주요 초점은 실시간 애플리케이션 구현과 관련이 있었지만, 건축 시각화 산업에서 유니티를 사용할 때의 또 다른 장점은 동일한 장면에서 다양한 유형의 출력물을 얻을 수 있다는 것이다.  예를 들어, 유니티의 타임라인과 시네머신(Cinemachine) 기능으로 동영상도 만들 수 있다. 타임라인은 시퀀싱 툴로, 어도비 프리미어나 애프터이펙트에 들어가 있는 영상 편집 기능 윈도와 비슷하게 작동하고, 시네머신은 코딩 없이 누구나 쉽게 여러 카메라워크를 표현할 수 있게 해 주는 스마트 카메라 기능이다. 그래서 아티스트도 편리하게 눈으로 보면서 유니티에서 쉽게 영상을 만들 수 있게 해 준다. 유니티 코리아 유튜브 채널에서 코리아 오피스 영상을 확인할 수 있다.   그림 3. 유니티 HDRP로 구현한 유니티 코리아 오피스   프로젝트의 파이프라인을 간단히 설명하자면, 우선 받은 스케치업 모델을 3ds 맥스(3ds Max)로 가져와 폴리곤 및 UV 텍스처(texture)를 정리한다. 그리고 유니티로 가져와서 스테이징을 하는데, 주로 라이팅, 머티리얼 그리고 인터랙티브한 요소를 더하는 작업을 한다. 구현한 유니티 오피스의 크기는 약 300평 정도 되었고 프로젝트 기간은 약 한 달 정도 된다.   그림 4. 스케치업, 3ds 맥스, 유니티(왼쪽부터)   크기만큼 사용된 애셋(asset)도 많았는데 시간을 줄일 수 있었던 것은 앞서 진행한 유니티 런던 오피스 프로젝트 덕분이다. 유니티 오피스는 글로벌에서 같은 책상, 같은 의자 심지어 같은 TV 등 동일한 브랜딩을 가지고 있다. 그래서 런던 오피스에서 사용한 애셋들을 코리아 오피스에도 무리 없이 사용할 수 있어 시간을 많이 단축할 수 있었다. 한국 오피스에만 있는 특별한 애셋의 모델링은 3ds 맥스로, 텍스처 작업은 섭스턴스(Substance)를 사용하였다.    유니티 HDRP VR: ArchVizPro Interior Vol.07  유니티 애셋 스토어(Unity Asset Store)에 올라온 프로젝트 ArchVizPro 인테리어 Vol.7은 HDRP VR로도 구현되어 있어 소개하고자 한다. 이 프로젝트는 HDRP 외에 URP로도 만들어졌으며 아즈마 하우스에서 영감을 얻은 건축 시각화 프로젝트이다.  이 프로젝트로 만들어진 것은 완전한 내비게이션이 가능한 건물이며, 4개의 주요 객실로 구성된 내부 공간과 작은 뜰, 계단, 산책로로 구성된 실외 공간이 포함되었다. 처음부터 모든 디테일을 담아 200여 점의 가구와 소품, 커스텀 셰이더, 4K 텍스처, 멀티 플랫폼 어프로치 등을 갖추고 있어 PC, VR, 모바일에서 이 장면을 연출할 수 있다. 애셋 스토어에 올라와 있는 프로젝트인만큼 누구나 다운받을 수 있고, 모든 가구와 소품은 세밀도가 높아 다른 프로젝트에도 재사용할 수 있다.   VR 프로젝트에 HDRP를 사용하면 렌더 파이프라인의 모든 기능을 활용하여 상상 속 경험을 사실적으로 구현할 수 있다. HDRP은 기존의 가상 현실 환경과 차별화되는 극사실적이고 뛰어난 비주얼을 구현한다. HDRP의 모든 기능은 VR과 호환되고, 새로운 유니티 XR 플러그인 프레임워크에서 완벽히 지원된다.    그림 5 . 유니티 HDRP VR로 구현한 ArchViz   HDRP VR 프로젝트에서 사용할 수 있는 기능은 다음과 같다. 디퍼드 렌더링 및 포워드 렌더링 모든 광원 유형, 그림자, 데칼 및 볼류메트릭 효과 스크린 공간 효과 AO(Ambient Occlusion: 앰비언트 오클루전) SSR(Screen Space Reflection: 스크린 공간 반사) SSS(Subsurface Scattering: 피하 산란) 왜곡 및 굴절 포스트 프로세싱 컬러 보정, 안티앨리어싱, 뎁스오브필드(피사계심도) 등 비주얼 이펙트 그래프의 모든 VFX 현재 VR용 HDRP는 다음 플랫폼과 기기에서 사용 가능하다. 오큘러스 리프트(Oculus Rift) 및 리프트 S(오큘러스 XR 플러그인, 윈도우 10, 다이렉트X 11) Windows Mixed Reality(윈도우 XR 플러그인, 윈도우 10, 다이렉트X 11) 플레이스테이션 VR   사운즈 한남 프로젝트 마지막으로 소개할 프로젝트는 현재 진행하고 있는 유니티 인터널 프로젝트 사운즈 한남이다. 사운즈 한남은 한남동의 제일기획 건물과 순천향대학병원 사이에 위치한 복합공간인데, 이곳을 유니티 HDRP로 구현 중에 있다. 사운즈는 공간 자체가 특이하게 되어 있는데, 빌딩이 여러 블록으로 이루어져 있고 건물 안으로 들어가면 마을 같은 공간이 펼쳐진다.   그림 6. 유니티 HDRP로 구현 중에 있는 사운즈 한남(프로젝트 진행 중)   원래 사운즈 한남의 모델 데이터는 레빗으로 구성되어 있었고, 빌딩이 처음 만들어질 때의 데이터이다 보니 새롭게 모델링을 3ds 맥스로 가져와 다시 조정해야 했다. 처음 빌드 파일을 실행하게 되면 스킵 가능한 사운즈 한남 영상으로 시작된다. 그리고 전체 인터랙션을 설명하는 메인 UI가 뜨게 된다. 구성하고 있는 UI는 마우스와 키보드(W, A, S, D 키)로 내비게이션할 수 있어 사운즈 한남 전체 외부 공간을 돌아 다닐 수 있다. 그리고, 빌딩 안에 있는 스토어 인포메이션을 볼 수 있고 각각의 스토어에 어떻게 가는지 화살표로 표시가 안내된다. 또 테이블이나 의자의 색을 변경해 볼 수 있고, 스페이스 바를 누르면 밤 모드로 전환할 수 있다.    그림 7. 유니티 사운즈 한남 프로젝트 메인 UI    그림 8. 유니티 상에서 화살표로 안내되고 있는 스토어   사운즈 한남은 다채로운 그늘과 식물로 채워져 있어 유니티에서 구성할 때도 식물을 배치해 넣었는데,  좀 더 현실감 있게 셰이더로 바람의 영향을 받을 수 있게 하였다. 현재 진행 중인 것은 주로 반사값과 라이팅이다. 인테리어와 익스테리어가 함께 있는 공간이어서 라이팅을 구성하는데 신경 쓰고 있고, 전반적인 광원을 실제 값을 참고해서 조정하고 있다.  HDRP에서 조명은 Physical Light Unity(PLU)라는 시스템이 사용된다. 즉 광원 단위는 스토어에서 전구를 검색하거나 노출 측정기로 광원을 측정할 때 표시되는 값처럼 실제 측정 가능한 값을 기반으로 한다. 예를 들면 햇빛을 구성하는 광원은 햇빛 강도 측정에 활용되는 LUX로 표시되고, 다른 실제 광원은 루멘(Lumens)으로 강도를 측정하여 신에서 작은 광원 이미터에 대한 참조로 사용할 수 있다. 유니티 오피스와 마찬가지로 사운즈 한남 프로젝트가 끝났을 경우 실행 파일을 제공할 예정이다. 그리고 관련 프로젝트의 웨비나를 유니티 코리아 유튜브 채널에서 진행하게 될 예정이다.      그림 9. 유니티로 구현된 사운즈 한남 플라자    그림 10. 유니티로 구현된 사운즈 한남 Umart   HDRP 미팅 룸 튜토리얼 유니티 HDRP로 구현된 유니티 코리아의 미팅 룸 중 하나를 선택해 간단한 인테리어 라이팅으로 구현했다. 프로젝트 파일과 동영상이 함께 있으니 유니티로 건축 시각화를 해보고 싶은 분들은 블로그의 튜토리얼을 참고하면 좋을 것 같다.   그림 11. 유니티 HDRP 튜토리얼: 보라보라 미팅룸     ■ 아드리아나 라이언(Adriana Ryan) 유니티 테크놀로지스 한국 지사의 에반젤리스트이다. (블로그)       기사 내용은 PDF로도 볼 수 있습니다.
작성일 : 2020-09-01
엔비디아 RTX로 섭스턴스와 블렌더의 AI 기능 가속화
엔비디아가 최근 출시된 어도비의 섭스턴스 알케미스트(Substance Alchemist)와 오픈소스 3D 솔루션인 블렌더(Blender)에 엔비디아 RTX GPU(NVIDIA RTX GPU)를 통해 AI 디노이징(AI denoising)과 머티리얼 크리에이션(material creation)을 지원한다고 밝혔다.  어도비의 머티리얼 크리에이션 도구인 섭스턴스 알케미스트는 이미지 투 머티리얼(Image to Material) 기능에 AI 업그레이드를 적용했다. 이 기능을 통해 아티스트는 실제 세계의 표면 사진을 캡처해 콘텐츠 제작에 사용할 수 있는 3D용 텍스처를 제작할 수 있다. 이는 강력하고 빠르고 쉽게 사실적인 머티리얼을 제작할 수 있는 방법이다. 이미지 투 머티리얼은 엔비디아 RTX GPU로 가속화되어 사진 속 모양과 물체를 인식하는 AI 알고리즘을 실행한다. 이 기능은 기본 색상, 높이, 노멀(normal)을 포함한 고품질의 정확한 텍스처 맵을 생성하여, 아티스트들이 시간이 많이 소요되는 맵 조정(map refinement) 대신 창의성에 집중할 수 있도록 돕는다. 이를 통해 클릭 한 번으로 더욱 정확한 머티리얼을 얻을 수 있게 된다. 어도비의 바티스트 망토(Baptiste Manteau) 프로덕트 매니저는 “AI를 통해 이제 아티스트들은 단 한 장의 사진만으로도 몇 분만에 고품질의 디지털 머티리얼을 만들 수 있다. 이것은 섭스턴스 알케미스트가 물리적인 세계를 디지털 머티리얼 크리에이션 과정으로 가져오는 다음 단계인 셈”이다고 말했다. AI 기반의 이미지 투 머티리얼 기능은 비트맵 투 머티리얼(Bitmap to Material: B2M)을 대체해 사진을 알케미스트로 가져온다. AI 기능이 적용되지 않은 B2M은 이미지 속의 모양을 제대로 식별하지 못한 텍스처 맵을 생성해 아티스트들이 수동으로 수정, 조정 및 디라이팅(de-lighting)에 추가 시간을 할애해야 했다.    ▲ 비트맵 투 머티리얼과 AI 기반 이미지 투 머티리얼의 품질 비교   6월 초에 출시된 블렌더 2.83 버전은 뷰포트에서 디자인 작업을 하면서도 일부 렌더링 결과물에서 최종 이미지를 예측하는 AI 디노이징 프로세스를 사용할 수 있다. 사용자는 이로 인해 나올 결과물에 대해 확신을 가지고 새로운 아이디어를 모색하며 디자인 선택사항들을 신속히 반복 처리할 수 있다. 블렌더의 AI 디노이징 기능은 엔비디아 옵틱스 SDK(NVIDIA OptiX SDK)를 기반으로 RTX GPU의 AI를 통해 가속된다. 또한, 블렌더 사이클 2.81(Blender Cycles 2.81)에서 처음 소개되었던 RTX 가속 레이 트레이싱과 2.82 버전의 최종 프레임 렌더링의 향상된 속도를 기반으로 구동된다.  블렌더의 개발 관리자인 달라이 페린토(Dalai Felinto)는 “블렌더는 블렌더 사이클의 렌더링 성능을 향상시키기 위해 엔비디아와 긴밀히 협력해왔다. 엔비디아 RTX GPU를 통해 레이 트레이싱 성능을 최적화하기 위해 엔비디아 옵틱스를 통합시켜, 블렌더 사이클의 백엔드를 함께 새롭게 완성시켰다. 사용자들은 이제 시간을 절약하고 크리에이티브 작업을 더욱 자유롭게 할 수 있게 됐다”고 말했다. RTX 가속 레이 트레이싱과 뷰포트 상에서의 AI 디노이징 기능의 강력한 조합으로 인해 3D 제작에서도 상호작용이 가능하다. 아티스트들은 완벽한 샷 연출을 위해 새로운 아이디어 모색에 더욱 집중할 수 있다.     ▲ 블렌더에서 RTX GPU 기반의 레이트레이싱과 AI 디노이징을 활용할 수 있다.   최근 출시된 블렌더와 알케미스트는 가장 인기있는 크리에이티브 애플리케이션의 리스트에 올랐다. 이들 애플리케이션은 AI 기반 기능을 콘텐츠 크리에이션 워크플로에 결합한다. 이외에도 어도비 프리미어 프로(Adobe Premiere Pro)와 라이트룸(Lightroom), 오토데스크 VRED(Autodesk VRED), 블랙매직 디자인 다빈치 리졸브(Blackmagic Design DaVinci Resolve), 카오스 그룹 브이레이(Chaos Group V-Ray), 코렐드로우 그래픽 스위트(CorelDRAW Graphics Suite), 룩시온 키샷(Luxion Keyshot) 등의 크리에이티브 애플리케이션이 RTX를 기반으로 활용할 수 있는 AI 기능을 제공한다. 최신 버전의 애플리케이션을 최적화하려면 최신 엔비디아 스튜디오 드라이버(NVIDIA Studio Driver)나 쿼드로 ODE 드라이버(Quadro ODE Driver)를 사용할 수 있다. 지포스 익스피리언스(GeForce Experience)나 쿼드로 익스피리언스(Quadro Experience) 애플리케이션, 혹은 드라이버 다운로드 페이지를 통해 다운받을 수 있다.
작성일 : 2020-06-16
[케이스 스터디] 유니티 HDRP로 구현된 유니티 코리아 서울 오피스 프로젝트
건축, 인테리어 분야에서 유니티의 확장성과 성장 공개   유니티 코리아 서울 오피스 프로젝트(Unity Korea Seoul Office Project)는 유니티(Unity)의 고품질의 그래픽으로 구현한 프로젝트로 건축, 인테리어 분야에서 유니티의 확장성과 성장을 보여준다.    그림 1. 유니티로 구현된 유니티 코리아 서울 오피스 프로젝트   2019년 7월, 유니티의 서울 오피스가 강남N타워로 이전했다. 유니티는 오피스 이사에 앞서 새로운 기능인 HDRP를 선보이기 위해 인터널 데모(Demo)인 ‘유니티 코리아 오피스 프로젝트’를 진행했다.    그림 2. 핸드폰으로 찍은 유니티 코리아 오피스 휴게 공간(사진)   그림 3. 유니티 HDRP로 구현된 유니티 코리아 오피스 휴게 공간(그래픽)   2018년, 유니티는 새로운 스크립터블 렌더 파이프라인(Scriptable Render Pipeline, SRP)을 구축하였다. 스크립터블 렌더 파이프라인을 사용하면 대상 플랫폼에 맞게 렌더링 프로세스를 커스터마이즈하여 하드웨어 별로 성능을 최적화할 수 있다.  SRP는 두 가지로 나눌 수 있다.   HDRP  고해상도 렌더 파이프라인(HDRP)은 고사양 PC 및 콘솔을 대상으로 뛰어난 고해상도 비주얼을 구현한다. 컴퓨트 셰이더(Compute Shader) 또는 멀티코어 PC 및 콘솔과 같은 GPU 호환 기기에서 실행되는 AAA급 품질의 게임, 데모, 영상, 애니메이션 및 앱에 이상적이다. 포워드 및 디퍼드 렌더링 모두 지원하며 물리적 기반의 조명과 머티리얼을 사용한다.    universal RP universal RP는 휴대폰 및 태블릿과 같은 저사양 하드웨어와 XR과 같은 고사양 애플리케이션에서 높은 성능을 구현하는데 최적화되어 있다. 유니티 코리아 오피스 프로젝트는 이 중 HDRP를 사용하여 만든 고품질 그래픽 프로젝트이다.   파트너 기업 에이펀인터렉티브와 공동 진행   그림 4. 유니티 코리아 서울 오피스 프로젝트 일정   유니티 코리아 서울 오피스 프로젝트는 유니티 코리아와 에이펀 인터렉티브가 함께 작업한 프로젝트로, 약 2개월 간의 작업 끝에 완성되었다. HDRP는 나온지 얼마 안된 유니티 기능이기 때문에 에이펀인터렉티브도 새로운 기능을 습득하는 시간이 필요했지만, 그들의 쌓아온 경험을 바탕으로 금방 터득해서 기대 이상의 결과물을 낼 수 있었다.   그림 5. 스케치업, 3ds 맥스, 유니티(왼쪽부터)   유니티의 인테리어를 맡아준 스티븐리치 그룹(SLA)에서 파이널 스케치업(Final Sketchup) 파일을 제공해 주었다. 이 스케치업 모델을 3ds 맥스로 가져와 폴리건을 정리하고, 더 필요한 프랍들의 모델링은 3ds 맥스에서 작업하였다. 그리고 유니티로 가져와 라이팅, 유니티의 기능인 타임라인, 시네머신을 사용한 비디오 영상 작업 그리고 인터렉티브한 요소를 더해 프로젝트를 완성하였다.  오피스 인테리어가 완공한 시기에 맞춰서 프로젝트를 끝내야 했기 때문에 실제 인테리어는 볼 수 없어서, 스케치업 파일의 인테리어와 상상력으로 오피스의 분위기를 맞춰 나가야 했다. 다행히 유니티는 전세계 사무공간의 룩앤필(Look & Feel) 역시 브랜딩의 하나로 관리하고 있는데, 이전에 유니티로 구현되었던 영국의 런던 오피스가 좋은 참고자료가 되었다. 덕분에 실제 서울 오피스가 오픈을 했을 때, 유니티로 구현된 사무 공간을 큰 이질감없이 보여줄 수 있었다.   그림 6. 유니티로 구현된 유니티 코리아 서울 오피스, 캔틴(Canteen)   실제 유니티 서울 오피스를 방문해 준 분들은 사무 공간에 대해 좋게 봐주시는 분들이 많지만, 인테리어 디자인 측면에서 개성이 강한 카페나 예술 공간은 아니기 때문에 튀는 컬러나 시선을 끌 포인트가 없다는 점은 프로젝트 팀에겐 어려운 점이긴 했다. 모노톤과 특징적인 부분이 없는 공간이지만 여전히 심미적으로 표현되어야 했기 때문에 고민이 필요했다. 영상에서 표현된 벽면의 인테리어와 휴게 및 접견 공간의 가구들은 그런 고민들이 반영된 요소이다.   애셋   그림 7. 유니티로 구현된 유니티 런던 오피스   유니티 코리아 오피스 프로젝트에 앞서 Onerios라는 회사에서 Unity London Office 프로젝트를 진행하였다.   그림 8. Mike Geig의 London Office Scrollthrough   이 프로젝트를 기반으로 로컬에서 보다 빠르게 프로젝트를 진행할 수 있었다. 유니티 오피스는 글로벌적으로 같은 브랜딩을 가지고 있다.(같은 책상, 같은 의자, 같은 TV 등) 그래서 런던 오피스에서 사용한 애셋들을 코리아 오피스에도 무리 없이 같이 사용할 수 있어 시간을 많이 단축할 수 있었다. 한국 오피스에만 있는 특별한 애셋들의 모델링은 3ds 맥스로 머티리얼 작업은 섭스턴스(Substance)를 사용하였다. 혹시 유니티로 비슷한 프로젝트를 계획하고 있다면, 유니티의 애셋 스토어에도 많은 3D 애셋(머티리얼 포함)들이 있으니 사용해 보길 권장한다.   HDRP 조명   그림 9. HDRP Physicsl Light Units(PLU) 시스템   HDRP에서 조명은 Physical Light Units(PLU)라는 시스템이 사용된다. 즉 광원 단위는 스토어에서 전구를 검색하거나 노출 측정기로 광원을 측정할 때 표시되는 값처럼 실제 측정 가능한 값을 기반으로 한다. 그래서 실제 인테리어를 보지 않아도, 광원 값을 사용해 실제 오피스와 비슷한 분위기를 연출할 수 있었다. 방향 광원은 실제로 햇빛의 강도 측정에 활용되는 값이므로 LUX 측정기를 사용하여 쉽게 측정할 수 있다. 다른 실제 광원은 루멘(Lumens)으로 강도를 측정하여 신에서 작은 광원 이미터에 대한 참조로 사용할 수 있다.   그림 10. 유니티 리플렉션 프로브(Reflection Probe)   라이팅(Lighting)을 더욱 실제와 같게 하기 위해서는 반사 값도 중요하다. 프로젝트 초기 에이펀인터랙티브는 HDRP로 어떤 부분까지 실제와 같이 구현 가능할지에 대해 지속적으로 테스트를 하였고, 런던 오피스 프로젝트의 구성요소를 분석, 라이팅 컨트롤(Lighting Control)과 그에 따른 볼륨감 등의 요소를 체크하고 하는데 많은 시간을 할애하였다.  3D로 공간을 구현함에 있어 라이팅과 그에 따른 리플렉션(Reflection)은 정말 중요한 요소로 작용하는데, 유니티의 리플렉션 프로브로 완벽하게 컨트롤할 수 있었던 점은 큰 강점이다. 이 프로젝트에서는 리플렉션 프로브와 HDRP에서 새롭게 추가된 Planer Probe 등을 추가해 포토리얼리즘(Photorealistic)한 연출을 할 수 있었다.   머티리얼, 텍스처    그림 11   텍스처 제작은 섭스턴스 페인터(Substance Painter)를 사용했다. 유니티 안에 사용된 모델들은 3ds 맥스에서 제작된 low poly 모델들이다. 섭스턴스 페인터는 High Poly 모델의 디테일을 가져올 수 있게 하기 때문에 이 프로젝트에 사용하기 유용했다.  예를 들면, 하나의 애셋을 창출하는 방법을 주로 표준 과정을 거친다. 건축가들이 제공한 높은 폴리 3D 모델부터 시작해서 각 토폴로지를 평가해야 하고, High Poly 버전에서 시작해서 Low Poly 애셋을 구축해야 한다. Low Poly 모델이 만들어지면 3D 모델(High Poly 및 Low Poly)을 모두 실재로 가져와 텍스처 작업을 하고 PBR 소재를 달성한다.    그림 12. HDRP 도입으로 쉬워진 유리 머티리얼 제작   HDRP가 도입되고 나서부터 셰이더(Shader)를 따로 짜지 않고 HDRP의 릿(Lit) 셰이더만으로도 고품질의 머티리얼 표현이 가능하게 되었다. 예를 들면, HDRP가 도입되기 전까지는 유리 머티리얼 제작을 위해 많은 노력이 필요했다. 사실적인 유리 머티리얼을 만들 수 있도록 많은 연구와 셰이더 프로그래밍이 필요했고, 애셋 스토어에 의존하여 커스텀 셰이더를 사용하고 있었다. 머티리얼 인스펙터에서 제공되는 새로운 HDRP 릿셰이더 기능을 사용하면 품질이 우수하면서도 지정된 설정에 맞게 빛을 굴절시키는 유리를 만들 수 있다.   유니티 코리아 서울 오피스 실행 파일 유니티 코리아 서울 오피스 프로젝트는 인터랙티브 빌드 파일로 보다 생동감 있게 만나볼 수 있다.(인터랙티브 빌드 다운로드 파일은 온라인으로 신청할 수 있다.)   그림 13. ESC 키를 누르면 UI 조작 방법이 뜬다.   프로젝트를 실행하면 오피스 리셉션 데스크에서 시작하게 된다. 마우스와 키보드(W : 앞, A : 좌, S : 뒤, D : 우) 조작으로 PC 게임을 하는 것처럼 움직일 수 있다. 좌측 하단에 보면 아이콘들이 있는데, 조명을 켜보거나, TV를 키거나 할 수 있을 때 활성화가 된다. UI를 안보이게 하고 싶으면 H 키로 껐다 켤 수 있다.  마지막으로 이 프로젝트는 낮모드와 밤모드를 함께 비교해서 볼 수 있다. 밤모드에서는 창가에 가까이 갔을 경우 비가 내리는 효과를 확인해 볼 수 있다.   건축 분야에서의 유니티   그림 13. 애셋 스토어에 올라온 유니티 일본 오피스   유니티의 툴세트(Toolset)는 데이터세트와 BIM 데이터, 지오메트리 등을 불러와 VR, AR, 및 고퀄리티의 렌더링 등 다양한 애플리케이션을 실시간으로 제작할 수 있도록 하여 효율적인 작업을 가능하게 한다. 이렇게 제작된 콘텐츠는 건축물이 갖고 있는 공간감을 보다 사실적으로 표현하고 효과적인 커뮤니케이션을 가능하게 한다. VR로 구현된 경우라면, 콘텐츠 소비자들은 보다 더 현실적인 공간을 경험할 수 있게 된다.  또한 유니티 런던 오피스의 애셋을 서울 오피스에서도 사용할 수 있었던 것처럼, 한번 제작된 애셋은 유사한 프로젝트에 재사용할 수 있어서 효율적인 구현이 가능하다. 이러한 애셋들은 유니티 애셋 스토어에서 판매도 가능하다. 다양한 기업에서 게임 엔진 이상의 유니티의 다양한 가능성에 대해 공감하고 주목하고 있다. 유니티는 기업에서의 혁신적인 시도를 환영하며, 다양한 산업군의 니즈를 지원할 수 있도록 지속적으로 발전해 나가고 있다.   아드리아나 라이언(Adriana Ryan) 유니티 테크놀로지스 한국 지사에서 에반젤리스트로 일하고 있다.     기사 상세 내용은 PDF로 제공됩니다.
작성일 : 2020-01-31
제조, 건축 분야의 고품질 비주얼 콘텐츠 제작, 언리얼 스튜디오 4.22
개발 및 공급 : 에픽게임즈, www.epicgames.com 주요 특징 : 건축, 디자인 및 제조분야 사용자들의 생산성을 지속적으로 향상시켜 주는 툴과 서비스 포함, 언리얼 엔진의 실시간 워크플로를 통해 협업과 반복작업, 그리고 더 나은 의사결정 등 생산성 향상, 언리얼 에디터 제공, 데이터스미스(Datasmith) 포함, 언리얼 엔진의 기본 및 산업 분야 중심의 광범위한 비디오 교육 자료가 포함된 학습 콘텐츠와 알레고리드믹(Allegorithmic)의 섭스턴스 100개와 신속하게 경험을 제작할 수 있는 산업별 템플릿 포함   ▲ 언리얼 스튜디오(출처 : Zoan)   에픽게임즈는 2018년 3월 언리얼 엔진으로 엔터프라이즈(일반산업) 분야 워크플로를 가속화할 수 있는 툴과 서비스를 모은 언리얼 스튜디오의 오픈 베타 서비스를 시작했다. 이를 통해 건축, 제품 디자인 및 제조 분야의 사용자들에게 높은 퀄리티의 시각적 콘텐츠를 효율적으로 만들 수 있는 기회를 제공하고 있다. 언리얼 스튜디오는 웹사이트에서 오픈 베타에 가입할 수 있으며, 정식 버전 출시 전까지는 무료로 사용 가능하다. 언리얼 스튜디오를 통한 교육 및 상업용 결과물 모두 별도의 로열티 없이 이용할 수 있다. 언리얼 스튜디오는 건축, 디자인 및 제조분야 사용자들의 생산성을 지속적으로 향상시켜 주는 툴과 서비스가 포함되어 있다. 또한 언리얼 엔진의 실시간 워크플로를 통해 협업과 반복작업 그리고 더 나은 의사결정 등 생산성을 향상시켜주며, 사실적인 신과 몰입도 높은 AR/VR 체험을 제작할 수 있는 강력한 실시간 툴인 언리얼 에디터를 제공한다.  여기에 3ds Max를 포함해 20개 이상의 다양한 CAD 소스, 스케치업(SketchUp), 라이노 3D(Rhino 3D), 솔리드웍스(Solidworks) 등에서 제작한 데이터를 언리얼 엔진으로 매끄럽게 임포트해주는 툴셋인 데이터스미스(Datasmith)도 포함돼 있다. 언리얼 엔진의 기본 및 산업 분야 중심의 광범위한 비디오 교육 자료가 포함된 학습 콘텐츠와 일반적인 건축 및 디자인을 위한 알레고리드믹(Allegorithmic)의 섭스턴스 100개와 신속하게 경험을 제작할 수 있는 산업별 템플릿 역시 포함돼 있다. ▲ 출처 : 에픽게임즈  실시간 레이 트레이싱 언리얼 엔진 4.22는 마이크로소프트(Microsoft)의 DXR(다이렉트X 레이 트레이싱) 프레임워크를 활용하고, 엔비디아(Nvidia)의 RTX 그래픽 기술을 활용하여 실시간 레이 트레이싱을 제공하는 게임 엔진이다. 언리얼 엔진의 접근 방식은 실시간 레이 트레이싱을 사용한 리플렉션, 섀도, 반투명, 엠비언트 오클루전, 이미지 기반의 라이팅과 글로벌 일루미네이션을 사용하는 곳과 기존의 래스터라이즈를 사용하는 부분을 선택적으로 같이 사용할 수 있는 방식으로, 이를 통해 실시간으로 사실적인 렌더링 결과를 구현할 수 있다. CAD, 라이노, 레빗 등 관련 데이터스미스 개선 데이터스미스는 3ds 맥스(3ds Max), 라이노(Rhino), 레빗(Revit), CAD 소프트웨어 및 스케치업(Sketch-Up)과 같은 오프라인 렌더링 및 모델링, 설계 프로그램에서 만든 신과 애셋을 간편하게 언리얼 엔진으로 임포트하도록 설계된 툴 및 플러그인 모음이다. 이번 4.22 버전에서는 다음과 같이 여러 가지 개선사항이 포함되어 있다. ▲ 출처 : 에픽게임즈 라이노 파일을 위한 새로운 테셀레이션 메서드 데이터스미스 CAD 임포터에 제공되는 테셀레이션 세팅을 사용하여 언리얼 엔진에 생성되는 스태틱 메시 지오메트리의 충실도를 원본 라이노 표면에 맞게 커스터마이징할 수 있다. 추가로 콘텐츠 브라우저에서 개별 스태틱 메시 애셋을 리임포팅해서 다른 스태틱 메시 애셋에 사용된 테셀레이션 설정을 커스터마이징하거나, 다른 임포트 옵션을 설정할 수 있다. CAD 임포트를 위한 메시 스티칭 제어 데이터스미스의 CAD 임포터를 사용하면 테셀레이션 프로세스가 연결된 것처럼 보이지만 실제로는 별도의 오브젝트로 모델링된 파라메트릭 표면을 테셀레이션 프로세스에서 처리하는 방법을 제어할 수 있다. 레빗용 데이터스미스 개선 레빗용 데이터스미스 임포트 프로세스가 크게 개선되었으며, 주요 사항은 다음과 같다.  링크된 파일 임포트 지원  레빗의 타입 메타데이터가 데이터스미스 메타데이터에 포함  테셀레이션 개선  머티리얼 처리 개선  VRED 및 델타젠 베리언트 VRED 또는 델타젠(Deltagen)에서 신을 임포트할 때, 이제 데이터스미스는 베리언트 매니저를 설정하여 해당 원본 신의 베리언트 세트와 베리언트를 관리한다. 더 이상 레벨의 커스텀 블루프린트와 베리언트 관련 정보를 저장할 데이터 테이블을 만들지 않는 이 새로운 접근 방식은 보다 일관되고 사용하기 쉽다. 데이터스미스 glTF 임포트 이제 데이터스미스가 glTF 2.0 파일 포맷을 임포트할 수 있다. 언리얼 에디터는 내장된 임포터를 사용하여 glTF 포맷을 콘텐츠 브라우저로 직접 임포트하는 실험단계 기능도 제공한다. 하지만 데이터스미스 glTF 임포터를 사용하면, 개별 오브젝트가 아닌 전체 신 처리, 신 계층구조와 상대 트랜스폼 유지, 변경 유지 리임포트 프로세스 등 다른 파일 포맷에 제공하는 동일한 데이터스미스 워크플로의 장점을 그대로 활용할 수 있다. 데이터스미스 신 리임포트가 머티리얼 인스턴스의 변경 보존 데이터스미스가 임포트한 신에 대해 생성한 모든 머티리얼 인스턴스의 세팅을 변경하는 경우, 이제 그 변경사항을 오버라이드로 추적한다. ▲ 출처 : 유니버설 픽처스  영화와 비디오 프로덕션 툴 미디어와 엔터테인먼트 산업 전반에 걸쳐 점점 더 많은 영화 스튜디오들이 실시간 기술로 제작 파이프라인을 혁신하고 있으며, 방송국에서는 혼합 현실과 가상 세트로 시청자를 매료시키고 있다. 언리얼 엔진 4.22는 이 분야의 한계를 뛰어넘을 수 있는 다음과 같은 여러 가지 기능들을 개선하고 추가했다. 멀티 유저 편집 이제 여러 명의 아티스트와 개발자가 동일한 언리얼 엔진 프로젝트를 안정적이고 확실한 방법으로 동시 편집할 수 있다. 팀에 소속된 모두가 기다림 없이 업데이트를 실시간으로 받아볼 수 있다. 이로써 동시에 다수의 유저들이 액터와 시퀀서 애니메이션을 실시간으로 편집할 수 있게 되어, 병목현상을 없애고 세트장에 창의적인 영감을 불어넣을 수 있다. 실시간 합성 언리얼 엔진에 기본 탑재된 컴포지터인 컴포셔(Composure)에 새로운 유저 인터페이스를 추가하여 컴포셔를 더 쉽게 사용할 수 있으며, 아티스트들은 언리얼 에디터에서 실시간 합성 기능을 직접 사용할 수 있다. 퍼포먼스 캡처 및 실시간 렌더링과 더불어 실시간 합성은 영화 제작의 버추얼 프로덕션과 방송에 사용되는 버추얼 세트장에 필수적인 툴이다. 테이크 레코더(Take Recorder) 새로운 테이크 레코더 툴은 퍼포먼스 레코딩을 빠르게 반복 수정하고, 이전 테이크를 쉽게 검토할 수 있도록 신의 캐릭터에 연결된 모션 캡처에서 애니메이션을 쉽게 녹화하는 것은 물론, 실제 라이브 링크(Live Link) 데이터로 만들어 앞으로의 재생에 사용할 수도 있다. 액터를 서브시퀀스로 레코딩하고, 테이크의 메타데이터 별로 체계를 정리하면 복잡한 프로덕션을 더욱 쉽게 관리할 수 있다. 확장된 미디어 I/O 지원 언리얼 엔진은 HDMI 2.0 입력 AJA Kona 5 I/O 카드 등 AJA 카드 및 블랙매직 카드를 통해 높은 프레임률(50~60fps)로 렌더링되는 8 비트 및 10 비트의 4K UHD를 지원한다. 또한, 타임코드 지원을 개선하여 미디어 I/O 프로세스 전반에 걸쳐 타임코드를 유지 하며, 번인(BI, burn-in), 뷰포트 및 렌더링에 타임코드의 표시가 가능해졌다. ▲ 출처 : Weta Digital, 2n Design, Wolf & Rothstein  확장된 렌더링 출력 옵션 엔터테인먼트 또는 몰입형 콘텐츠를 만들 때 유용한 더 많은 출력 데이터 옵션들이 추가되었다. 렌더 레이어 언리얼 엔진에 기본 탑재된 컴포지팅 모듈인 컴포셔(Composure) 는 이제 전통적인 오프라인 렌더링 워크플로와 유사하게 오브젝트를 별도의 렌더 레이어로 쉽게 정리할 수 있는 유저 인터페이스를 제공한다. 요소를 개별적으로 또는 그룹으로 렌더할 수 있으며, 신의 특정 부분을 쉽게 분리하는데 사용되는 매트를 생성할 수 있다. 이 레이어들은 누크(Nuke) 또는 애프터 이펙트(After Effects)와 같은 컴포지팅 패키지에서 요소로 활용할 수 있으며, 선택적으로 필터와 보정 효과를 적용하여 최종 이미지를 향상시킬 수 있다. nDisplay 개선 언리얼 엔진의 단일 인스턴스에서 여러 디스플레이에 다른 뷰포트를 렌더링하는 새로운 기능은 몰입형 멀티 디스플레이 경험을 더욱 효율적으로 만들 수 있다. 이전 버전에서는 각 디스플레이마다 별도의 애플리케이션 인스턴스가 실행되었고, 이에 따라 메모리 및 CPU 사용량이 증가하여 목표하는 퍼포먼스 레벨을 유지하기 위해 다수의 PC를 종종 사용하곤 했다.  향상된 홀로렌즈 지원 언리얼 엔진은 이제 홀로그래픽 리모팅(holographic remoting)을 윈도우 혼합현실(Windows Mixed Reality) 플러그인을 통해 지원한다. 홀로그래픽 리모팅으로 언리얼 엔진을 윈도우 데스크톱 PC에서 실행하고, 렌더링된 결과를 홀로렌즈로 와이파이 연결을 통해 실시간 스트리밍할 수 있다.     기사 상세 내용은 PDF로 제공됩니다.
작성일 : 2019-05-07