• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
[포커스] 지멘스 DISW, “솔리드 엣지로 지능형 제품 설계를 실현한다”
[케이스 스터디] 해외 소장 문화재의 ‘디지털 귀향’ 프로젝트
[포커스] 모두솔루션, 지스타캐드 시장 확대 및 파트너십 강화 전략 소개
  • 전체
  • 기계
  • 건축
  • 그래픽
  • 기타
어도비, “AI로 프리미어 프로의 비디오 워크플로 향상시킨다”
어도비가 프리미어 프로(Adobe Premiere Pro)에서 영상 제작 및 제작 워크플로를 재구상할 생성형 AI 혁신을 공개했다. 이는 빠른 속도의 영상 제작을 위해 전문 편집자에게 필요한 새로운 창의적 가능성을 제공한다. 올해 프리미어 프로에 새롭게 도입될 새로운 생성형 AI 툴을 통해 사용자는 장면에서 개체를 추가 또는 제거하거나 기존 클립을 확장하는 등 전체 영상 편집을 간소화할 수 있다. 새로운 편집 워크플로는 이미지, 벡터, 디자인, 텍스트 효과를 포함한 파이어플라이(Firefly) 제품군에 추가될 새로운 비디오 모델에 의해 구동될 예정이다. 어도비는 이미징, 영상, 오디오 및 3D와 같이 어도비가 깊은 전문성을 갖고 있는 영역에서 파이어플라이 AI 모델을 지속적으로 개발하고 있으며, 이 모델들을 크리에이티브 클라우드(Creative Cloud)와 어도비 익스프레스(Adobe Express)에 통합할 예정이다. ‘생성형 확장(Generative Extend)’ 기능은 프레임을 매끄럽게 추가해 클립을 더 길게 만들 수 있어, 보다 쉽게 편집 시간을 맞추고 부드러운 전환을 추가할 수 있다. ‘개체 추가 및 제거(Object Addition & Removal)’ 기능은 간단하게 개체를 선택하고 추적한 후 교체하는 기능이다. ‘텍스트를 영상으로(Text to Video)’ 기능은 간단하게 프롬프트에 텍스트를 입력하거나 참조 이미지를 업로드해, 프리미어 프로에서 새로운 영상(footage)을 생성할 수 있다.    ▲ 프리미어 프로에 추가되는 개체 제거 기능   또한 어도비는 크리에이티브 클라우드의 파트너 및 플러그인 생태계를 바탕으로, 서드파티 생성형 AI 모델을 프리미어 프로와 같은 어도비 애플리케이션에 직접 가져오는 비전도 미리 공개했다. 어도비는 초기 탐색 단계에서 전문 영상 편집자가 향후 프리미어 프로에 통합된 오픈AI(Open AI) 및 런웨이(Runway)의 영상 생성 모델을 활용해 자신의 프로젝트에서 편집 가능한 B-롤을 생성하는 법을 제시했다. 또한 피카 랩스(Pika Labs)와 생성형 확장(Generative Extend) 툴을 함께 사용해 마지막 장면을 몇 초 더 늘리는 방법도 소개했다. 이 밖에도 어도비는 새로운 페이드 핸들(fade handles), 클립 배지(clip badges), 동적 파형(dynamic waveforms), AI 기반 카테고리 태깅(AI-based category tagging) 등 프리미어 프로의 AI 구동 오디오 워크플로를 곧 출시한다고 밝혔다. 여기에는 ▲클립 핸들을 드래그해 오디오 페이드 효과를 만듦으로써 빠른 맞춤형 오디오 전환 생성 ▲AI가 오디오 클립을 자동 태그하고 새로운 아이콘을 추가 ▲새로운 시각적 표시기를 통해 클립에 적용된 효과를 쉽게 확인하고 시퀀스에서 효과 매개 변수를 자동 실행 ▲클립의 트랙 높이 변경에 맞춰 파형 크기의 지능적 조정 ▲원치 않는 노이즈를 즉시 제거하거나 녹음 품질이 낮은 대화를 개선하는 AI 구동 음성 향상 등의 기능이 포함된다. 어도비는 어도비 파이어플라이와 다양한 서드파티 모델로 구동되는 새로운 생성형 AI 역량을 제공함으로써, 고객이 프리미어 프로에서 매일 사용하는 워크플로를 벗어나지 않고도 다양한 신규 역량을 활용할 수 있도록 지원할 것이라고 밝혔다. 어도비는 오는 5월 새로운 생성형 AI 영상 툴과 프리미어 프로의 새로운 오디오 워크플로를 출시할 계획이다. 어도비의 애슐리 스틸(Ashley Still) 크리에이티브 제품 그룹 수석 부사장은 “어도비는 크리에이터의 비전 실현을 위한 새로운 역량과 유연성을 제공하기 위해 영상 제작 및 제작 워크플로의 모든 단계를 재구상하고 있다”면서, “프리미어 프로의 핵심 워크플로에 생성형 AI 혁신을 도입함으로써 영상 편집자가 매일 겪는 실질적인 고충을 해결하는 동시에 자신의 작업에 더 집중할 수 있는 여유를 제공한다”고 전했다.
정수진 작성일 : 2024-04-16 조회수 : 189
에픽게임즈, 언리얼 엔진 초심자를 위한 무료 웨비나 진행
에픽게임즈 코리아는 언리얼 엔진 초심자들이 쉽게 배울 수 있는 온라인 세미나 ‘시작해요 언리얼 2024’의 무료 사전 등록을 시작한다고 밝혔다.  ‘시작해요 언리얼 2024’는 언리얼 엔진이 처음이거나 아직 익숙하게 다루지 못하는 초심자를 위한 튜토리얼 형식의 웨비나이다. 오는 5월 2일부터 5월 30일까지 한 달 동안 매주 목요일 오후 2시에 언리얼 엔진 코리아 유튜브 채널에서 진행된다. 이번 ‘시작해요 언리얼 2024’는 언리얼 엔진으로 애니메이션 및 이펙트 등의 다양한 인터랙티브 요소가 포함된 시네마틱 영상을 제작하는 것을 목표로, 시네마틱 영상 제작의 기본 개념과 워크플로 전반에 대한 강연이 진행된다. ▲1주 차에는 ‘레벨 제작하기’를 주제로, 언리얼 엔진 학습 방법에 대해 알아보고, 언리얼 엔진에서 레벨 구성하기, 퀵셀 메가스캔/마켓플레이스 애셋 활용하기에 대해 설명한다. ▲2주 차에는 '라이트 세팅 및 시퀀서 추가하기'를 통해 언리얼 엔진의 라이팅, 실내외 라이트 세팅하기, 시퀀서로 라이트 애니메이션하기에 대해 설명한다. ▲3주 차 '캐릭터 애니메이션 작업하기' 시간에는 엔진으로 애니메이션 클립 가져오기, 시퀀서에서 캐릭터 애니메이션 적용하기, 애디티브 트랙으로 애니메이션 수정하기에 대한 학습이 진행된다. ▲4주 차에는 '나이아가라와 블루프린트 활용하기'를 주제로, 블루프린트로 레벨에 애니메이션 추가하기, 캐릭터에 나이아가라 이펙트 추가하기, 시퀀서에서 이벤트 작동시키기에 대한 설명이 진행되며, 마지막 ▲5주 차에는 '영상 연출 및 렌더링하기'를 통해 카메라 추가하고 영상 연출하기, 마스터 시퀀서를 활용하여 컷 편집하기, 무비 렌더 큐로 영상 렌더링하기에 대해 배운다. 평소 언리얼 엔진에 관심이 있거나 시네마틱 영상에 스토리텔링을 구현하고 싶은 사람이라면 전공 여부와 무관하게 학생, 직장인 등 누구나 무료로 등록할 수 있다. 에픽게임즈는 “참가자들의 학습에 대한 이해도를 돕고자 매주 도전과제를 출제해 강좌 내용을 완전히 습득할 수 있도록 지원하며, 참가자들은 라이브 Q&A와 채팅을 통해 연사 및 커뮤니티와 실시간 소통할 수 있다”고 전했다.  
정수진 작성일 : 2024-04-04 조회수 : 532
[케이스 스터디] 최신 렌더링 기능의 사용 돕는 URP 3D 샘플
고품질 그래픽스의 효율적인 제작 및 스케일링 방법 제시   많은 스튜디오에서 유니티(Unity)와 URP(유니버설 렌더 파이프라인)를 사용해 다양한 플랫폼에서 실행되는 다양한 장르와 시각적 스타일의 게임을 제작해 왔다. 그럼에도 입문자는 물론 숙련된 사용자조차 레퍼런스 설정에 어려움을 겪기도 한다. 유니티는 정확도 높은 렌더링에 도움이 되는 HDRP 3D 샘플을 2021년 출시했으며, 2023년 11월에는 유나이트 2023 기조 연설에서 URP 3D 샘플의 출시를 발표했다. 다양한 아트 스타일, 렌더링 경로, 신(scene) 복잡도로 구성된 4가지 환경이 담긴 이 샘플을 통해 여러 플랫폼에서 고품질 그래픽스를 제작하고 스케일링하는 방법을 배울 수 있다.  유니티는 저사양 및 고사양 모바일, PC, 콘솔, VR에서 시각적 매력이 돋보이는 경험을 제공하여 URP를 제대로 학습하고 사용할 수 있도록 지원할 계획이다. ■ 자료 제공 : 유니티 코리아     유니티가 공개한 URP 3D 샘플은 타깃 하드웨어에 맞춰 효율적으로 게임을 제작하고, 최적화하고, 스케일링할 수 있도록 설계되었다. 포워드+ 렌더링, 데칼, 렌즈 플레어, PBR(물리 기반 렌더링) 머티리얼, 셰이더 그래프, 볼륨, 포스트 프로세싱 같은 최신 URP 기능을 사용하는 방법도 익힐 수 있다. 이 샘플을 사용하려면 유니티 2022 LTS가 필요하며, 유나이트에서 함께 발표된 차기 릴리스인 유니티 6에서 추가 지원이 제공될 예정이다. 유니티 6는 렌더 그래프, GPU 기반 드로어와 더불어 STP(공간 포스트 프로세싱)라는 크로스 플랫폼 시간적 업스케일러 등의 강력한 신규 URP 기능도 포함된다. 이 샘플은 유니티 허브(Unity Hub)에서 다운로드할 수 있다.   터미널     터미널 신은 PBR 머티리얼과 사실적인 조명이 특징인 SF 스타일의 건물을 배경으로 한다. 터미널에서는 나머지 세 개의 신으로 텔레포트할 수 있다. 정원, 우주선 콕핏, 오아시스 신은 서로 다른 아트 스타일로 URP 기능을 선보이도록 제작되었다. 터미널은 중립적인 배경과 조명 덕분에 룩 디벨롭먼트(look development)용으로 애셋을 배치하기 가장 좋은 신이다. 이 신은 셰이더 그래프로 제작된 다양한 커스텀 셰이더(물, 텔레포트 표지판)와 두 신 사이를 전환할 수 있는 텔레포트 등의 고급 효과가 적용되어 있다. 경사로를 따라 텔레포트 기기 위의 유니티 로고에 몇 초간 초점을 맞추면 세 개의 신으로 이동할 수 있다.(플레이 모드 필요)   정원     이 밤의 정원은 일본 쇼인즈쿠리에서 영감을 받아 제작된 스타일라이즈드 신이다. 스피드트리(SpeedTree)로 생성된 아름다운 초목, 유기적으로 연결된 인테리어, 굽이치는 개울, 신규 포워드+ 렌더 경로로 기존 광원 수 제한을 뛰어넘는 수많은 장식용 광원으로 이루어져 있다. 정원 신은 저사양 모바일 기기부터 고사양 플랫폼까지 스케일링할 수 있도록 최적화되어, URP의 역량을 효과적으로 선보이는 환경이다. 예를 들어 어떻게 셰이더 그래프의 커스텀 함수 노드로 셰이더를 최적화하고, 초목에 커스텀 반투명도를 적용하고, 광원 쿠키(light cookies)로 조명을 최적화하거나 그림자를 시뮬레이션했는지 알아볼 수 있다.   오아시스     오아시스는 컴퓨팅 성능을 갖춘 고사양 플랫폼에 맞는 고급 셰이더를 선보이기 위해 실사에 가깝게 제작된 환경이다. 데칼, 렌즈 플레어, PBR 머티리얼, 복잡한 커스텀 셰이더 그래프 셰이더가 모래, 물, 안개, 초목에 적용되었다. 플랫폼의 GPU 성능이 높으면 URP로 더 높은 수준의 비주얼을 구현할 수 있음을 보여 준다.   콕핏     우주선의 조종석에 탑승하여 두 진영 간의 치열한 전투에 참여하는 긴장감 넘치는 환경이다. 이 고도의 스타일라이즈드 환경에는 셰이더 그래프의 커스텀 조명 모델이 사용되며, 특히 메타 퀘스트 2(Meta Quest 2) 같은 고성능 VR 헤드셋의 요구 사항을 충족하도록 구현되었다.   URP 3D 샘플 시작하기     유니티 허브에서 Unity 2022.3.12f1을 설치한다. 새 프로젝트를 생성하고 ‘3D Sample Scenes(URP)’를 선택한다. 오른쪽 패널에서 ‘Download template’ 버튼을 클릭한 다음 ‘Create project’를 클릭한다. 프로젝트가 에디터에 로드된다.(첫 임포트 시 몇 분 정도 소요될 수 있음) 유니티를 처음 사용하는 경우, 유니티를 구독하면 URP의 모든 기능을 활용하고 게임 콘솔처럼 다양한 기기에 배포할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
정수진 작성일 : 2024-04-01 조회수 : 717
[케이스 스터디] 해외 소장 문화재의 ‘디지털 귀향’ 프로젝트
언리얼 엔진과 에픽 에코시스템으로 이뤄낸 문화유산 디지털 경험   문화유산은 우리의 과거를 이해하고, 현재와 미래의 역사와 정체성을 보존하고 전해질 수 있도록 하는 중요한 자산이다. 이러한 대한민국의 문화유산 중 약 23만 점은 합법 또는 부당하게 반출되어, 이를 아카이빙하여 관리하고 가능한 경우 국내에 환수하려는 다양한 노력들이 이어지고 있다. 이런 노력의 일환으로 대한민국 정부는 최근 디지털 기술과 장비들의 발전에 힘입어 복잡하고 어려운 물리적 환수를 대체할 수 있는 ‘디지털 공유’라는 개념을 생각해 냈다. ■ 자료 제공 : 에픽게임즈   ‘디지털 공유’의 개념은 해외 박물관에 소장되어 있는 한국 예술품의 디지털 원형 데이터를 매우 정밀하게 구축하고, 이를 기반으로 실물 예술품을 감상하는 것과 같이 디지털로 실감 나는 콘텐츠를 개발하고 한국과 현지에 동시에 전시해 그 가치를 함께 공유하는 것이다. 이 개념을 처음으로 구체화한 프로젝트가 바로 ‘클리블랜드미술관(CMA) 소장 한국문화재 디지털 귀향 프로젝트’이다.   TRIC 및 CMA 소장 한국문화재 디지털 귀향 프로젝트 소개 이 프로젝트를 수행한 TRIC(문화유산기술연구소)는 문화와 유산을 위한 디지털 기술 R&D와 그 활용 사업을 통해 새로운 가치를 창출하는 기업으로, 지난 10년 동안 인도네시아, 라오스, 튀르키예, 카자흐스탄, 일본, 이집트 등 전 세계의 주요 유산을 대상으로 디지털 아카이빙 및 콘텐츠를 개발해 모두가 누릴 수 있도록 서비스하고 있다. 최근에는 리얼타임 콘텐츠의 발전 덕분에 언리얼 엔진을 중심으로 파이프라인을 구축하며 클리블랜드 미술관의 프로젝트를 진행하고 있다.   ▲ TRIC가 진행한 다양한 프로젝트(이미지 출처 : 언리얼 엔진 홈페이지)   CMA 소장 한국문화재 디지털 귀향 프로젝트는 미국 클리블랜드 미술관이 소장하고 있는 한국 문화유산의 디지털 원형 데이터를 구축하고 디지털 실감 콘텐츠를 제작하여 올 3월부터 한미 양국에서 동시에 전시하는 국제 협력 프로젝트다. 총 3년에 걸쳐 진행되고 있는 이 프로젝트는 1차년도인 2022년에 클리블랜드 미술관이 소장하고 있는 한국 유물 대표 13점을 디지털 아카이빙했고, 2차년도인 2023년에는 13점의 유물 중 대규모 전시 연출에 가장 적합한 칠보산도를 선정해 몰입적인 실감 콘텐츠로 제작했다. 그리고 3차년도인 올해 3월에는 한미 양국에 그 결과물을 선보이는 공동전시를 개최했다.    ▲ CMA 소장 한국문화재 디지털 귀향 프로젝트 : 칠보산도(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진을 작업 파이프라인에 도입한 이유 예술품 데이터를 활용한 콘텐츠 구축 프로젝트는 디지털 버전의 예술품을 얼마나 실제와 동일하게 구현하는지 그 사실성이 가장 중요하다. 하지만 메시와 텍스처가 정밀할수록, 그리고 단일 예술품이 아닌 건축물을 구현할수록 데이터가 무거워지는 것은 필연적이기 때문에 기존에는 데이터 경량 및 최적화 작업에 많은 리소스를 투입했다. TRIC는 설립 초창기부터 다양한 미디어 기술을 통한 관람객과 예술 사이의 상호작용(인터랙션)을 중요하게 생각해 왔고, 물리적 센싱 기반의 콘텐츠나 VR 및 AR 등 실시간 인터랙티브 콘텐츠 개발을 주로 해 왔기 때문에 이러한 최적화 작업이 반드시 필요했다. 이 때문에 퀄리티를 그대로 보존하면서도 최소한의 작업으로 실시간 구동이 가능한 언리얼 엔진을 도입했다.   ▲ 언리얼 엔진으로 구현한 높은 정밀도의 디지털 유물(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진 5의 루멘과 나나이트를 활용하면 데이터의 디테일을 높은 비주얼 퀄리티로 구현할 수 있을 뿐만 아니라 리얼타임 제작에 필수였던 장시간의 최적화 작업에 대한 부담을 줄여 주었기 때문에, 적은 인원으로도 목표한 퀄리티의 결과물을 빠르게 도출할 수 있었다. 또한, 언리얼 엔진을 도입한 덕분에 기본 영상부터 복잡한 계산과 시뮬레이션을 요구하는 몰입형 다면 영상, 아나몰픽 영상 등 새로운 출력 방식의 콘텐츠 제작을 위한 작업 파이프라인까지 TRIC가 진행하고 있는 프로젝트 전반의 파이프라인을 단축할 수 있었다.   ▲ TRIC가 제작한 아나몰픽 영상(이미지 출처 : 언리얼 엔진 홈페이지)   최근에 진행한 프로젝트의 파이프라인 CMA 소장 한국문화재 디지털 귀향 프로젝트는 크게 13점의 유물을 스캔하여 디지털화하고, 칠보산도 실감 콘텐츠를 제작하는 2가지 작업으로 진행되었다. 이를 위해 스캔 작업에서는 리얼리티캡처를 전면적으로 활용하였고, 칠보산도 실감 콘텐츠 제작에서는 언리얼 엔진 중심의 파이프라인을 구축했다. 먼저 프로젝트 1차 연도에 진행한 디지털 데이터 구축 작업의 경우, 칠보산도를 포함하여 클리블랜드 박물관이 소장하고 있는 한국 유물 13점에 대한 초정밀 디지털 데이터를 구축했다. 일반적으로 정밀한 3D 스캔은 라이다 또는 구조광 스캐너 등의 전문 장비를 활용해 진행하는 경우가 많은데, 이번에는 유물이 해외에 있어 장비의 반입과 적절한 환경을 조성하기가 어렵다는 점 때문에 사진 측량 기반의 데이터를 생성하는 방식으로 제작했다. 그리고 이를 위해 TRIC가 예술품 데이터 구축 사업에서 대부분의 공간 및 오브젝트의 3D 데이터를 구축할 때 사용하는 리얼리티캡처를 사용했다. 유물마다 수천 장의 사진을 촬영한 후 리얼리티캡처로 메시를 생성했는데, 덕분에 높은 정밀도의 텍스처와 메시가 적용된 애셋을 구축할 수 있었다. 리얼리티캡처는 코로나19 팬데믹으로 독일 국경이 봉쇄된 상황에서 베를린의 건축사진가와 협업을 통해 샤를로텐부르크성 도자기 방 프로젝트를 성공적으로 마무리할 수 있게 해 주었던 핵심 툴이기도 하다.   ▲ 스캔된 13점의 실제 유물(위)과 디지털 버전(아래)(이미지 출처 : 언리얼 엔진 홈페이지)   프로젝트 2차 연도에 진행한 실감 콘텐츠 제작 작업에서는 길게 펼쳐진 병풍 속에 그려진 칠보산을 3면으로 구성된 몰입형 스크린으로 옮겨, 전통 회화의 느낌을 그대로 살리면서 입체적인 공간감을 더하고자 했다. 이를 위해 먼저 카메라 로데이터를 활용해 폭당 수천 장의 이미지를 연결하여 방대한 기가픽셀 데이터를 구축했다. 모든 요소들을 객체별, 색역별, 층별로 분리해 별도의 레이어로 제작하고, 여기에 언리얼 엔진을 활용해 3차원 공간에 재배치한 후 촬영하는 방식을 통해 평면의 전통 회화 유물인 칠보산도에 입체감과 역동감을 부여하여 3D 콘텐츠로 재탄생시켰다.   ▲ 2D 병풍화를 레이어화하여 언리얼 엔진에서 3D 공간에 재배치(이미지 출처 : 언리얼 엔진 홈페이지)   입체감 표현에 무엇보다 중요했던 것은 캐릭터의 윤곽선을 따라 붓 선의 느낌이 나도록 표현하는 것이었다. TRIC는 언리얼 엔진의 머티리얼 에디터를 통해 셰이더를 제작했고, 그 위에 종이 질감의 고퀄리티 텍스처를 메가스캔에서 다운로드 후 가공하여 캐릭터에 포스트 프로세싱 재질을 입혀주는 방식으로 제작했다. 그리고 역동감을 살리기 위해서 필요했던 포그는 언리얼 엔진의 나이아가라 플루이드로 제작했다. 덕분에 다른 오브젝트와 실시간으로 반응하는 시뮬레이션이 가능했고, 원하는 타이밍에 시퀀서를 통해 제어할 수 있었다. 또한, Open VDB를 활용했던 기존 방식보다 가볍고 필요한 수정을 즉시 작업할 수도 있었다. 이렇게 잘 만들어진 캐릭터와 이펙트를 3면으로 구성된 스크린으로 보여주기 위해 세 개의 카메라를 하나로 묶은 카메라 리그를 사용해 애니메이션을 효과적으로 한 번에 처리했고, 렌더링 역시 시퀀서에 배치된 세 개의 카메라를 동시에 렌더링할 수 있는 무비 렌더 큐로 개별 영상을 한 번에 출력했다.   ▲ 3개의 카메라로 동시에 렌더링하는 장면(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진과 에픽 에코시스템의 역할  칠보산도 실감 콘텐츠처럼 전통 회화 리소스를 활용한 콘텐츠에서는 동양 회화 특유의 심미적 감각과 화풍이 모든 요소와 장면에 일관적으로 유지되어야 하기 때문에, 모든 과정에서 정밀하게 컨트롤할 수 있는 제작 툴이 필요하다. 언리얼 엔진은 퍼포먼스의 제약 없이 콘텐츠 자체의 비주얼 퀄리티를 최대한 올리면서 나이아가라, 시퀀서 등으로 그 구성 애셋을 세밀하면서도 정확하게 컨트롤할 수 있는 환경을 제공했다. 또한, 언리얼 엔진 마켓플레이스와 메가스캔의 라이브러리에서 구름, 달, 안개, 바람, 비 등 다양한 자연 현상을 구현할 때 적합한 리소스를 빠르게 확보할 수 있었고, 리깅된 애니메이션 캐릭터를 전통 회화 스타일로 완전히 새롭게 입체화하는데 반드시 필요한 원화의 캐릭터 질감을 구현하는 데 적합한 고퀄리티의 셰이더, 텍스처 등도 제공하여 작업 시간을 줄일 수 있었다.   ▲ 전통 회화의 붓 선 셰이더 적용 여부 비교. 투명도 0.2(위), 투명도 0.8(아래)(이미지 출처 : 언리얼 엔진 홈페이지)   무엇보다 언리얼 엔진의 리얼타임 렌더링이 프로젝트에 반드시 필요한 핵심 기술이었다. 이번 프로젝트의 경우, 콘텐츠 제작 기간이 2개월도 주어지지 않아 시간이 촉박했다. 그에 반해 3개의 스크린이 사다리꼴 모양으로 배치된 몰입형 스크린에서 콘텐츠를 구현하기 위해 3개의 버추얼 카메라로 촬영하여 매우 높은 해상도로 렌더링해야 했다. 이런 경우 관람객의 위치 및 화각에 따라 몰입도가 확연히 달라지기 때문에, 다양한 변수에 대응하며 반복적이고 섬세한 조정이 필요했다. 특히, 한국과 미국이라는 지구 정 반대편에 있는 양국 전문가들이 참여하다 보니 실시간 컨퍼런스 콜을 통해 세부 의견을 주고받아야 하는 상황이었는데, 언리얼 엔진을 통해 실시간으로 확인하고 조정할 수 있었기 때문에 소통 시간을 줄일 수 있었다. 또한, 최종 결과물의 퀄리티도 이미 제작 과정에서 미리 확인할 수 있었기 때문에 커뮤니케이션의 오류나 재작업 리스크가 거의 없었다. 만약 전통적인 방식으로 제작했다면 회의만 하다 정해진 프로젝트 기간이 다 되거나, 겨우 합의에 이르렀다 해도 퀄리티는 물론 기간 내에 제작하는 것조차 불가능했을 것이다.   ▲ TRIC가 해외 전문가들과 컨퍼런스 콜을 진행하는 모습(이미지 출처 : 언리얼 엔진 홈페이지)   문화유산기술연구소의 향후 목표 및 나아갈 방향 단기적으로는 현재 수행하고 있는 CMA 소장 한국문화재 디지털 귀향 프로젝트와 이집트 문화유산 ODA(공적개발원조) 프로젝트를 성공적으로 마치는 것이 TRIC의 목표다. 장기적으로는 이러한 성과를 바탕으로 확보된 수많은 데이터와 리얼타임 콘텐츠를 연결하는 메타버스와 유사한 개념의 시대별 리얼타임 월드를 구축하는 것을 목표로 하고 있다. 이를 위해서 언리얼 엔진과 에픽 에코시스템을 더욱 적극적으로 활용해 역사적으로 보존할 가치가 높은 도시의 시대별 모습을 입체적으로 복원해 나갈 계획이다. 그 일환으로, 우선 8세기 서라벌 전체를 리얼타임 월드로 구축하는 프로젝트를 언리얼 엔진을 활용하여 진행하고 있다. 신라의 왕경인 서라벌의 지형, 식생 등이 복원된 환경에서 건축, 도로, 사람, 역사적 사건 및 사회 등의 방대한 데이터를 하나의 플랫폼에서 마주하고, 발굴 및 연구 결과를 업데이트할 수 있다. 뿐만 아니라 이를 체험하며 교류할 수 있는 하나의 콘텐츠로서, 실사 수준의 퀄리티로 영화나 다큐멘터리 속의 장면도 그 자리에서 바로 만들어 낼 수 있다.   ▲ 서라벌 리얼타임 월드(위)와 나나이트 트라이앵글 시각화(아래)(이미지 출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
정수진 작성일 : 2024-04-01 조회수 : 1065
유니티, 개발자 이벤트 ‘U Day Seoul’ 5월에 개최
유니티가 국내 개발자들을 대상으로 유니티의 최신 핵심 기술 및 로드맵, 활용 사례를 선보이는 ‘U Day Seoul’을 오는 5월 22일 판교 경기창조혁신센터에서 개최한다고 밝혔다. 이번 ‘U Day Seoul’은 5월 22일, 23일 양일간 유니티 코리아 공식 유튜브 채널을 통해 라이브 스트리밍되며, 사전 신청자는 무료로 참여 가능하다. 이번 행사는 총 20여 개의 기술 세션, 핸즈온 트레이닝 등의 다양한 프로그램으로 구성되어 있으며, 참가자들에게는 국내외 유니티 엔진 전문가들과 소통하고 최신 정보를 공유할 수 있는 기회가 제공된다.     주요 강연으로는 유니티의 김범주 APAC 애드버킷 리드가 소개하는 콘텐츠 제작을 간소화하는 신규 AI 플랫폼인 ‘유니티 뮤즈(Unity Muse)’에 관한 세션과 케이지로 다카하시(Keijiro Takahashi) 애드버킷이 소개하는 ‘런타임 사용을 위한 Unity UI Toolkit’, ‘산나비’로 ‘메이드 위드 유니티 코리아 어워드’에서 ‘베스트 스튜던트’ 부문에 선정된 바 있는 원더포션의 ‘인디 게임 개발기’ 등이 있다. 5월 23일에는 '유니티 센티스(Unity Sentis)' 및 DOTS(Data-Oriented Technology Stack), ECS(Entity Component System) 등 유니티 최신 기술을 활용해 게임 및 콘텐츠 개발을 배워볼 수 있는 ‘트레이닝 데이’도 별도의 신청을 통해 진행될 예정이다. 유니티 사용 중급 이상의 세션 난이도로 진행될 예정으로, 각 세션에는 김한얼 시니어 소프트웨어 엔지니어와 박우진 테크니컬 파트너 어드바이저, 오형규 유니티 테크니컬 트레이너가 참여해 강연 및 실습을 도울 예정이다. 유니티 코리아의 송민석 대표는 “유니티 국내 개발자들에게 유익한 정보를 제공하기 위해 다양한 강연을 마련했다”며, “이번 행사를 통해 소개된 새로운 기술과 활용 사례가 추후 개발자들의 개발 환경에서 더욱 유용하게 활용될 수 있도록 지속적으로 기여할 것”이라고 말했다.
정수진 작성일 : 2024-04-01 조회수 : 136
어도비, 파이어플라이에 새로운 ‘구조 참조’ 역량 도입
어도비가 어도비 파이어플라이(Adobe Firefly) 웹 애플리케이션의 ‘텍스트를 이미지로(Text to Image)’ 모듈에 구조 참조(Structure Reference) 역량을 도입하며, 한층 향상된 크리에이티브 제어를 지원한다고 발표했다. 파이어플라이의 새로운 구조 참조 역량은 파이어플라이 웹 애플리케이션에서 무료 및 유료 구독자 모두 사용 가능하다. 어도비 파이어플라이는 모든 기술 수준의 사용자가 탐색하고, 아이디어를 구상하며, 창의적인 비전을 실현할 수 있도록 지원한다. 출시 1주년을 맞이한 파이어플라이는 상업적으로 안전하게 사용할 수 있도록 설계된 크리에이티브 생성형 AI 모델군으로, 어도비에 따르면 지금까지 65억 개 이상의 이미지를 생성했다. 구조 참조는 기존 이미지의 구조를 새로 생성한 이미지에 쉽게 적용할 수 있도록 돕는다. 기존 이미지를 구조에 대한 참조 템플릿(structural reference template)으로 활용해 동일한 레이아웃의 여러 이미지 변형을 생성할 수 있어, 생각하는 것에 부합하는 결과물을 얻기 위해 완벽한 프롬프트를 작성해야 하는 시행착오 과정을 줄이는 것이 가능하다. 또한 스타일 참조 이미지를 가져와 프롬프트에 적용하는 파이어플라이의 기존 역량인 스타일 참조(Style Reference)와 구조 참조를 결합해, 사용자는 이미지의 구조와 스타일을 모두 참조하며 아이디어를 빠르게 구현할 수 있어 새로운 차원의 크리에이티브 제어가 가능하다.     파이어플라이로 구동되는 구조 참조는 텍스트를 이미지로 모듈의 다양한 상황에 적용될 수 있다. 예를 들어 기존 방의 사진이나 스케치를 업로드 후 ‘생성하기’ 버튼을 누르면 클릭 한 번으로 방의 전체적인 모습을 새롭게 디자인할 수 있으며, 그림을 사실적인 이미지로 구현하거나 반대로 이미지를 그림으로 표현하는 것도 가능하다. 뿐만 아니라 그림에 깊이, 질감, 조명, 색상 및 기타 요소를 추가해 생동감을 불어넣고, 흑백 이미지와 선 드로잉에 색을 입히고 구조는 동일하게 유지한 채 참조 이미지와 완전히 다른 새로운 피사체를 만들 수도 있다. 이처럼 구조 참조를 통해 크리에이터는 쉽게 작업을 수정하고, 마케터는 캠페인 전반에서 브랜드 가이드를 준수하는 다양한 이미지를 생성할 수 있으며, 디자이너는 완벽한 텍스트 프롬프트 없이도 이미지 레이아웃과 피사체의 구조 및 포즈를 간편하게 제작할 수 있다. 파이어플라이는 크리에이티브 워크플로에 직접 통합하게끔 설계돼, 아이디어 구상 및 실험에서 제작 단계까지 바로 이어질 수 있도록 지원한다. 지난 1년 간 어도비는 파이어플라이 역량을 어도비 포토샵(Photoshop), 익스프레스(Express), 일러스트레이터(Illustrator), 서브스턴스 3D(Substance 3D) 등 어도비 크리에이티브 클라우드(Adobe Creative Cloud) 애플리케이션에 네이티브로 통합하고 있다. 나아가 이미징, 벡터, 글꼴, 오디오, 영상, 3D 등 다양한 분야에서 높은 수준의 모델을 개발하며 어도비 제품의 워크플로를 향상시킨다는 계획이다.
정수진 작성일 : 2024-04-01 조회수 : 134
엔비디아, 3D 그래픽 만드는 생성형 AI 모델 ‘라떼3D’ 공개
엔비디아가 몇 초 만에 텍스트를 3D 그래픽으로 변환하는 생성형 AI 모델 라떼3D(Large-scale Amortized Text-To-Enhanced3D Synthesis : LATTE3D)를 공개했다. 가상 3D 프린터처럼 텍스트 프롬프트를 1초 안에 사물과 동물의 3D 그래픽으로 변환할 수 있는 라떼3D는 표준 렌더링 애플리케이션에 널리 사용되는 포맷으로 제작됐다. 비디오 게임, 광고 캠페인, 디자인 프로젝트 또는 로보틱스용 가상 훈련장 개발 등을 위한 가상 환경을 쉽게 구현할 수 있다. 라떼3D는 엔비디아 리서치 데모에 사용된 엔비디아 RTX A6000과 같은 단일 GPU에서 추론을 실행할 때 거의 즉각적으로 3D 형상을 생성할 수 있게 됐다. 크리에이터는 처음부터 디자인을 시작하거나 3D 애셋 라이브러리를 일일이 찾아보는 대신, 라떼3D를 사용해 머릿속에 아이디어가 떠오르는 즉시 세부적인 개체를 생성할 수 있다.     모델은 텍스트 프롬프트에 따라 몇 가지 다른 3D 모양 옵션을 생성해 크리에이터에게 선택권을 제공한다. 선택된 개체는 몇 분 내에 더 높은 품질로 최적화된다. 그런 다음 사용자는 해당 그래픽을 그래픽 소프트웨어 애플리케이션이나 엔비디아 옴니버스(Omniverse)와 같은 플랫폼으로 전송할 수 있다. 이를 통해 오픈USD(OpenUSD) 기반 3D 워크플로와 애플리케이션을 사용할 수 있다. 연구진은 동물과 일상 사물이라는 두 가지 특정 데이터세트에 대해 라떼3D를 훈련시키고, 개발자는 동일한 모델 아키텍처를 사용해 다른 데이터 유형에 대해 AI를 훈련시킬 수 있다. 예를 들어, 3D 식물 데이터세트를 훈련한 라떼3D 버전은 조경 디자이너가 고객과 브레인스토밍하면서 나무, 꽃 덤불, 다육식물로 정원 렌더링을 빠르게 작성하는데 도움을 줄 수 있다. 가정 내 사물에 대해 훈련된 모델은 집을 3D 시뮬레이션으로 채울 아이템을 생성할 수 있다. 이런 경우 개발자는 테스트하거나 실제 환경에 배치하기 전에 개인 비서 로봇을 훈련할 수 있다. 라떼3D의 훈련에는 엔비디아 A100 텐서 코어(Tensor Core) GPU가 사용됐다. 3D 그래픽 외에도 챗GPT(ChatGPT)를 통해 생성된 다양한 텍스트 프롬프트를 훈련했다. 이를 통해 사용자가 특정 3D 개체를 설명할 때 제시할 수 있는 다양한 문구를 처리하는 능력을 향상시켰다. 예를 들어, 다양한 개 종류를 묘사하는 프롬프트에서는 모두 개 모양을 생성하도록 학습시켰다. 토론토 AI 연구소에서 라떼3D를 개발한 엔비디아의 산자 피들러(Sanja Fidler) AI 리서치 담당 부사장은 “1년 전만 해도 AI 모델이 이 정도 품질의 3D 비주얼을 생성하는데 1시간이 걸렸지만, 이제는 10~12초 정도면 충분하다. 훨씬 더 빠른 속도로 결과를 생성할 수 있게 되면서 업계 전반의 크리에이터들이 거의 실시간으로 텍스트를 3D로 생성할 수 있게 됐다”고 말했다.
정수진 작성일 : 2024-03-25 조회수 : 618
엔비디아, “3D 콘텐츠도 생성형 AI로 만든다”
엔비디아가 비주얼 콘텐츠 제공업체를 위해 새로운 이미지 제어 기능인 3D 생성형 AI를 출시한다고 발표했다. 이는 비주얼 생성형 AI를 위한 멀티모달 아키텍처인 엔비디아 에디파이(NVIDIA Edify)에 기반하고 있다. 3D 애셋 생성은 에디파이가 개발자와 비주얼 콘텐츠 제공업체에 제공하는 최신 기능 중 하나로, 개발자가 AI 이미지 생성을 더욱 창의적으로 제어할 수 있도록 돕는다. 멀티미디어 콘텐츠 및 데이터 제공업체인 셔터스톡(Shutterstock)은 에디파이 아키텍처 기반으로 만들어진 API(애플리케이션 프로그래밍 인터페이스)에 대한 얼리 액세스를 제공한다. 에디파이 아키텍처는 크리에이터가 텍스트 프롬프트나 이미지를 사용해 가상 장면의 3D 오브젝트를 빠르게 생성할 수 있도록 한다. 비주얼 콘텐츠 크리에이터이자 마켓플레이스인 게티이미지(Getty Images)는 상업적으로 안전한 생성형 AI 서비스에 맞춤형 미세 조정 기능을 추가해 기업 고객이 각자의 브랜드 가이드라인과 스타일에 맞는 비주얼을 생성할 수 있도록 지원할 예정이다. 또한 이 서비스에는 고객이 생성된 이미지를 더욱 세밀하게 제어할 수 있는 새로운 기능이 추가된다. 엔비디아 GTC에서 발표된 추론용 마이크로서비스 모음인 엔비디아 NIM을 통해 개발자는 게티이미지와 셔터스톡에서 사전 훈련된 에디파이 모델을 API로 테스트해 볼 수 있다. 또한 엔비디아 DGX 클라우드에 구축된 AI 파운드리인 엔비디아 피카소(Picasso)를 통해 에디파이 아키텍처를 사용해 자체 생성형 AI 모델을 훈련하고 배포할 수 있다.     셔터스톡의 3D AI 서비스는 얼리 액세스로 제공된다. 이 서비스를 통해 크리에이터는 세트 드레싱(set dressing)과 아이디어 구상을 위해 가상 오브젝트를 생성할 수 있다. 이 기능을 사용하면 장면 프로토타입 제작에 필요한 시간을 줄일 수 있어, 아티스트는 캐릭터와 오브젝트 제작에 더 많은 시간을 할애할 수 있다. 크리에이티브 전문가는 이 도구를 사용해 텍스트 프롬프트나 참조 이미지에서 애셋을 빠르게 생성하고 인기 있는 3D 포맷 중에서 선택해 파일을 내보낼 수 있다. 에디파이 3D 기반 서비스에는 생성된 콘텐츠를 필터링하는 안전 장치도 내장되어 있다. 한편, 엔비디아는 에디파이의 확신을 위해 다양한 협력을 진행할 예정이라고 소개했다. 일례로, 엔비디아와 어도비(Adobe)는 에디파이를 기반으로 한 새로운 3D 생성 AI 기술을 수백만 명의 파이어플라이(Firefly)와 크리에이티브 클라우드(Creative Cloud) 크리에이터에게 제공하기 위해 협력하고 있다. HP와 셔터스톡은 디자이너에게 다양한 프로토타입 옵션을 제공하는 에디파이 3D를 사용해 사용자 맞춤형 3D 프린팅을 개선하기 위한 협업을 GTC에서 선보였다. 셔터스톡의 3D AI 생성기를 사용하면 콘셉트를 빠르게 반복해 디지털 애셋을 만들 수 있다. HP는 자동화된 워크플로를 통해 디지털 애셋을 3D 프린팅 가능한 모델로 변환할 수 있으며, HP 3D 프린터는 이러한 모델을 실제 프로토타입으로 변환시켜 제품 디자인에 영감을 불어넣는다. 또한 셔터스톡은 텍스트나 이미지 프롬프트에서 생성된 360 HDRi 환경을 사용해 경량의 3D 장면을 조명하는 에디파이 기반 도구를 구축하고 있다. 다쏘시스템은 3D 콘텐츠 제작을 위한 애플리케이션인 3D익사이트(3DEXCITE)를 통해 CGI 스튜디오 카타나(CGI studio Katana)와 함께 엔비디아 옴니버스(Omniverse)를 기반으로 한 워크플로에 셔터스톡의 생성 360 HDRi API를 통합하고 있다.
정수진 작성일 : 2024-03-20 조회수 : 615
어도비, 서브스턴스 3D 워크플로에 파이어플라이 생성형 AI 도입
어도비가 게임 개발자 컨퍼런스 2024(GDC)에서 어도비 서브스턴스 3D(Adobe Substance 3D)의 디자인 및 크리에이티브 워크플로에 새로운 어도비 파이어플라이(Adobe Firefly) 구동 생성형 AI 기능을 선보였다. 어도비는 서브스턴스 3D 에코시스템과 파이어플라이의 첫 통합을 통해 3D 텍스처링 및 배경 이미지 생성 등의 작업을 가속화하며, 산업 디자이너와 게임 개발자 및 시각특수효과(VFX) 전문가에게 새로운 수준의 창의성과 효율성을 지원할 계획이다. 이번 통합으로 서브스턴스 3D의 최신 버전에 두 가지 파이어플라이 구동 기능이 도입됐다. 먼저 서브스턴스 3D 샘플러(Substance 3D Sampler) 최신 버전에 도입된 ‘텍스트를 텍스처로(Text to Texture)’는 간단한 텍스트 프롬프트로 3D 개체 표면의 사실적이고 스타일화된 텍스처를 생성하는 기능이다. 텍스트를 텍스처로 기능을 사용하면 실재 프로토타입이나 스톡 이미지 또는 사진 촬영 없이도 반복적인 창작 과정을 획기적으로 개선할 수 있다.     또 서브스턴스 3D 스테이저(Substance 3D Stager)의 새로운 파이어플라이 구동 생성형 배경(Generative Background)은 텍스트 프롬프트로 정교한 배경 이미지를 생성하고, 지능적인 원근감 및 조명 효과를 더해 개체를 배경에 매끄럽게 합성하는 기능이다. 이 같은 새로운 기능은 크리에이티브 검토 과정을 대폭 단축해 전문가들의 디자인 워크플로 생산성을 높이고 더욱 매끄러운 작업환경을 제공하며, 작업 시간을 절약하도록 돕는다. 어도비의 세바스찬 드가이(Sebastien Deguy) 3D 및 몰입형 부문 부사장은 “어도비는 디자이너와 아티스트에게 최첨단 크리에이티브 툴을 제공할 수 있는 새롭고 혁신적인 방법을 모색해왔다”며, “파이어플라이의 생성형 AI 역량을 서브스턴스 3D에 통합함으로써 어도비는 창작 과정을 간소화할 뿐 아니라 전문가가 상상력을 발휘하고, 이를 보완하도록 설계된 새로운 생성형 워크플로를 통해 새로운 창작의 가능성을 개척하고 있다”고 말했다. 어도비 파이어플라이는 기본적으로 파이어플라이를 사용해 제작하거나 편집한 애셋에 콘텐츠 자격 증명(Content Credentials)을 첨부해, 창작 과정에 생성형 AI가 사용되었음을 표시한다. 콘텐츠 자격 증명은 디지털 ‘영양 성분 표시(nutrition label)’ 역할을 하는 검증 가능한 세부 정보이다. 애셋명, 제작일, 제작에 사용된 디지털 툴 등과 같은 편집 내용을 표시하며 디지털 콘텐츠의 투명성 제고를 돕는다. 콘텐츠 출처 및 진위를 위한 연합(C2PA)의 무료 오픈 소스 기술을 기반으로 한 해당 데이터는 콘텐츠가 사용, 게시 또는 저장되는 모든 곳에서 콘텐츠와 연결된 상태로 유지돼 속성(attribution)을 명확히 표시함으로써, 소비자가 디지털 콘텐츠에 대해 정보에 입각한 판단을 내릴 수 있도록 지원한다.
정수진 작성일 : 2024-03-19 조회수 : 517
엔비디아, 산업용 디지털 트윈 SW 위한 옴니버스 클라우드 API 발표
엔비디아가 엔비디아 옴니버스 클라우드(NVIDIA Omniverse Cloud)를 API로 제공한다고 발표했다. 엔비디아는 이를 통해 소프트웨어 제조업체의 전체 에코시스템에 걸쳐 산업용 디지털 트윈 애플리케이션과 워크플로 제작을 위한 플랫폼의 범위를 확장한다. 개별적으로 또는 함께 사용할 수 있는 새로운 옴니버스 클라우드 API는 5개로 ▲오픈USD(OpenUSD) 데이터의 레이 트레이싱 RTX 렌더링을 생성하는 USD 렌더(Render) ▲사용자가 오픈USD 데이터를 수정하고 상호 작용할 수 있는 USD 라이트(Write) ▲장면 쿼리와 인터랙티브 시나리오를 활성화하는 USD 쿼리(Query) ▲USD 변경 사항을 추적하고 업데이트를 제공하는 USD 노티파이(Notify) ▲사용자, 도구, 세상을 연결해 여러 장면에서 협업할 수 있도록 지원하는 옴니버스 채널 등이다. 개발자는 다섯 개의 새로운 옴니버스 클라우드 API를 사용해 핵심 옴니버스 기술을 직접 쉽게 통합할 수 있다. 여기에는 디지털 트윈을 위한 기존 설계와 자동화 소프트웨어 애플리케이션, 로봇이나 자율 주행 차량과 같은 자율 머신의 테스트와 검증을 위한 시뮬레이션 워크플로 등이 있다. 로봇, 자율 주행 차량, AI 기반 모니터링 시스템에 대한 수요가 증가함에 따라 개발자들은 엔드투엔드 워크플로를 가속화하고자 노력하고 있다. 센서 데이터는 인식부터 계획과 제어에 이르기까지 전체 스택의 자율성을 훈련하고 테스트와 검증을 하는 데 매우 중요한 부분이다. 옴니버스 클라우드 API는 포어텔릭스(Foretellix)의 포어티파이(Foretify) 플랫폼, 칼라(CARLA), 매스웍스(MathWorks) 등 시뮬레이션 툴과 애플리케이션으로 이루어진 개발자 에코시스템과, 포비아 헬라(FORVIA HELLA), 루미나(Luminar), 씨크(SICK AG), 소니 세미컨덕터 솔루션즈(Sony Semiconductor Solutions)와 같은 센서 솔루션 제공업체를 연결한다. 이를 통해 고충실도의 물리 기반 센서 시뮬레이션으로 풀 스택을 훈련과 테스트를 실현한다.     엔비디아는 글로벌 산업용 소프트웨어 업체 중 일부가 자사의 소프트웨어 포트폴리오에 옴니버스 클라우드 API를 도입하고 있다고 소개했다. 그 중에는 앤시스, 케이던스, 다쏘시스템의 3D익사이트(3DEXCITE), 헥사곤, 마이크로소프트, 로크웰 오토메이션, 지멘스, 트림블 등이 있다. 지멘스는 클라우드 기반 제품 수명주기 관리(PLM) 소프트웨어인 팀센터 X(Teamcenter X)와 지멘스 엑셀러레이터(Xcelerator) 플랫폼에 옴니버스 클라우드 API를 채택하고 있다. 엔비디아는 이 소프트웨어가 설계 데이터를 엔비디아 생성형 AI API에 연결한 다음, 옴니버스 RTX 렌더링을 애플리케이션 내에서 직접 사용할 수 있다고 설명했다. 앤시스도 옴니버스 클라우드 API를 채택했다. 자율 주행 차량용 앤시스 AV엑셀러레이트(Avxcelerate), 6G 시뮬레이션용 앤시스 퍼시브 EM(Perceive EM), 앤시스 플루언트(Fluent) 등의 엔비디아 가속 솔버에서 데이터 상호운용성과 RTX 시각화를 지원한다. 케이던스는 기업이 데이터 센터를 물리적으로 구축하기 전에 디지털 트윈에서 먼저 설계, 시뮬레이션, 최적화할 수 있도록 자사의 케이던스 리얼리티(Reality) 디지털 트윈 플랫폼에 옴니버스 클라우드 API를 도입하고 있다. 다쏘시스템은 콘텐츠 제작용 3D익사이트 애플리케이션에서 스토리텔링 제작을 강화하기 위해 옴니버스 클라우드 API와 셔터스톡(Shutterstock) 3D AI 서비스를 채택하고 있다. 트림블은 이 API를 활용해 트림블 모델 데이터와 함께 인터랙티브 엔비디아 옴니버스 RTX 뷰어를 사용할 계획이다. 헥사곤은 USD 상호운용성을 통해 자사의 현실 캡처 센서와 디지털 현실 플랫폼을 엔비디아 옴니버스 클라우드 API와 통합할 예정이다. 로크웰 오토메이션은 옴니버스 클라우드 API를 사용해 RTX 지원 시각화를 강화할 계획이다. 옴니버스 클라우드 API는 올해 말 마이크로소프트 애저(Microsoft Azure)에서 엔비디아 A10 GPU의 자체 호스팅 API 또는 엔비디아 OVX에 배포된 관리형 서비스로 제공될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “제조되는 모든 제품에는 디지털 트윈이 적용될 것이다. 옴니버스는 물리적으로 사실적인 디지털 트윈을 구축하고 운영하기 위한 운영체제이다. 옴니버스 와 생성형 AI는 50조 달러 규모의 중공업 시장을 디지털화하기 위한 기반 기술”이라고 전했다.
정수진 작성일 : 2024-03-19 조회수 : 488
총 게시글 2,478

ㆍ태그

캐드
CAD
CAE
시뮬레이션
CAM
PLM
BIM
3D 프린팅
적층제조
스마트 공장
디지털 트랜스포메이션