• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "인스턴스"에 대한 통합 검색 내용이 111개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[특별기고] 디지털 트윈 발전 전망
디지털 트윈과 산업용 메타버스 트렌드   데이터 기반 서비스 관점에서의 디지털 트윈의 역할은 실 체계에서 수집한 실제 데이터와 디지털 트윈 시뮬레이션으로 얻어진 가상 데이터의 융합을 통하여 실제 시스템 관련 문제 해결에 유용한 빅 데이터 생성이라 할 수 있다.  디지털 트윈 활용은 안정성에 부담이 적고 신속/가시적 성공사례 확보가 가능한 스마트시티, 스마트 팩토리, 스마트SOC(도로, 철도, 항만, 공항, 등) 등이 대상이지만 기술성숙도가 높아지고 안정성이 보장됨에 따라 자율주행, 의료/인공장기, 식물공장 등으로 확대될 전망이다.   ▲ 철도 네트워크의 디지털 트윈 구축하는 독일 디지털 철도(이미지 출처 : 엔비디아)   1. 디지털 전환과 디지털 트윈 디지털 전환(Digital Transformation: DX)은 비즈니스 전 과정에 ICT 기술을 도입하여 전사적 업무, 생산 기술, 제품 등을 디지털화 한 후 이를 기반으로 가상 실험이 가능한 디지털 환경을 구축하는 것이다.  디지털 전환의 궁극적 목적은 기업 이윤 극대화에 필요한 업부/생산 효율성 및 제품 부가 가치 증대를 위한 다양한 창의적 대안들을 가상 실험을 통해 평가한 후 그 결과를 비즈니스 전 과정에 활용하는 것이다. 예를 들어, 스마트 팩토리의 디지털 전환은 조달 시스템, 생산 시스템, 물류 시스템 등 스마트 팩토리 구성요소들의 자원 할당 및 운용에 대한 다양한 대안들을 가상 실험을 통해 평가할 수 있는 환경을 구축하여야 한다. 그렇다면, 비즈니스 전 과정을 가상 실험하기 위해서는 무엇이 필요할까?  가상 실험을 하기 위해서는 먼저 가상 실험 대상(예: 제조 공장)을 선정하고, 다음으로, 가상 실험 시나리오(예:새로운 제조 장비 도입)가 필요하며 시나리오를 수행할 모델(예: 제조 공정 시뮬레이션 모델)이 필요하다. 이러한 가상 실험을 위한 모델이 디지털 트윈이며 이런 이유로 많은 사람들이 디지털 트윈을 DX의 Key(Richard Marchall, 2017), DX의 Enablers(Reterto Saracco, 2019), DX의 Central(Vijay Ragjumathan, 2019), DX의 Steppingstone(Harry Forbes, 2020), DX의 Pillar(Fransesco Belloni, 2020)라고 지적하였다.   2. 디지털 트윈의 정의 디지털 트윈은 물리적 자산, 프로세스 및 시스템에 대한 복제본으로 정의[Wiki 사전]되며, 복제본이란 대상 체계의 운용 데이터, 지형/공간/형상 정보 및 동작/운용 법(규)칙을 컴퓨터 속에 디지털화 해 놓은 것을 의미한다. 예를 들면, 제조 공장의 디지털 트윈은 제조 공장의 운용 데이터, 제조 공장의 공간/형상 정보, 그리고 제조 장비 동작 및 공정 모델이 컴퓨터 속에 복제된 것이 될 것이다. 디지털 트윈과 대상 체계가 쌍둥이기 때문에 쌍둥이 중 누가 먼저 태어났느냐에 따라 디지털 트윈의 이름을 다르게 붙이기도 한다. 대상 체계가 존재하기 전에 만들어진 디지털 트윈을 디지털 트윈 프로토타입(Prototype) 그리고 대상 체계가 만들어진 후 복제된 디지털 트윈을 디지털 트윈 인스턴스(Instance)라고 부른다. 디지털 트윈 프로토타입은 대상 체계 설계 단계에서 활용되며 디지털 트윈 인스턴스는 대상 체계의 운용 분석에 활용되는 것이 일반적이다. 디지털 트윈 인스턴스(실 체계의 복제본)와 디지털 트윈 프로토타입(실 체계의 설계 모델)이 모두 존재할 수도 있지만 디지털 트윈 프로토타입 없이 디지털 트윈 인스턴스만 존재할 수도 있다. 디지털 트윈 프로토타입과 인스턴스가 모두 존재한다면 인스턴스는 프로토타입에 실 체계 운용 정보가 반영되어 진화(성장)된 트윈으로 볼 수 있다. 3. 디지털 트윈 구축 목적 디지털 트윈의 구축 목적은 대상 실 체계와 디지털 트윈을 연동 운용함으로써 실 체계 관련 이해 당사자에게 지혜 수준의 혁신적 서비스를 제공할 수 있는 핵심 도구/수단으로 활용하기 위함이다. 데이터 기반 서비스 관점에서의 디지털 트윈의 역할은 실 체계에서 수집한 실제 데이터와 디지털 트윈 시뮬레이션으로 얻어진 가상 데이터의 융합을 통하여 실제 시스템 관련 문제 해결에 유용한 빅 데이터 생성이라 할 수 있다. 융합 빅 데이터는 AI-통계/공학 분석도구들을 이용하여 실 세계의 구성요소인 자산, 사람, 운용 프로세스들의 다양한 결합에 대한 분석/예측 및 체계 운용 최적 대안(최적화)을 찾는데 활용될 수 있다. 아울러, 융합 빅 데이터는 실 세계를 가상 환경에서 현실감 있게 표출할 수 있는 다양한 장비/장치와 VR/AR/XR/메타버스 관련 ICT 기술과의 융합 인터페이스를 통해 오락, 관광, 교육 훈련, 체험 등에 활용될 수 있다.     디지털 트윈의 복제 대상은 실 체계의 운용 데이터, 공간/형상 정보 및 실 체계에 포함된 객체들의 행위 모델 등 3가지이다. 운용 데이터는 실 체계에 설치된 IoT 장비로부터 획득이 가능하다. 공간/형상 정보는 서비스 목적에 따라 GIS, BIM 혹은 3D CAD 중 한 가지 이상을 결합하여 사용한다. 객체 행위 모델은 다양한 시나리오를 가상 실험하기 위한 시뮬레이션 모델을 사용하지만 서비스 목적에 따라서는 운용 데이터를 학습한 데이터 모델을 사용할 수도 있다. 구성요소 중 일부만을 사용한 디지털 트윈은 나머지 구성요소를 사용하지 않음으로 인한 한계점에 봉착하게 된다. 예를 들면, 실 체계 운용 데이터 복제만으로 구성된 IoT 기반 디지털 트윈은 수집된 데이터를 분석할 수는 있지만, 실 체계를 시각화한 지형/공간 상에 데이터를 표출할 수 없을 뿐만 아니라 실 체계와는 다른 가상 데이터를 입력한 시뮬레이션을 수행할 수 없다. 마찬가지로, 지형/공간 정보 만으로 구성된 디지털 트윈은 실 체계에서 일어나는 지형/공간 정보의 변화를 실 시간으로 반영할 수 없으며 시뮬레이션을 통한 실 체계의 현상 분석 및 미래 예측이 불가능 하다.      디지털 트윈의 효율적인 활용을 위해서는 위의 세 가지 구성요소 모두를 개발 및 운용할 수 있는 통합 플랫폼이 바람직하지만 국내외적으로 표준화된 디지털 트윈 플랫폼은 존재하지 않는다. 디지털 트윈의 특성 상 3가지의 디지털 트윈 구성요소 각각을 개발하는 독립적인 플랫폼을 사용하여 구성요소를 개발한 후 이들을 연동하여 운용하는 것이 효율적이다.  구체적으로는, 먼저, 디지털 트윈 개발 목적에 맞게 운용 데이터를 수집하는 IoT 플랫폼, 지형/공간 정보를 구축하는 지형/공간정보 플랫폼 및 모델링 시뮬레이션 플랫폼들을 이용하여 각 구성요소를 개발한다. 다음으로, 개발된 세 가지 구성요소를 실행하는 플랫폼들을 연동 운용하는 PoP(Platform of Platforms) 구조를 사용할 수 있다. PoP 구조는 디지털트윈의 목적에 부합되는 모든 디지털트윈을 개발/운용할 수 있는 플랫폼으로써 신뢰성 및 경제성(개발 기간 및 비용) 면에서 효율적인 구조이다. PoP 구조를 사용할 경우 플랫폼들 사이의 연동을 위한 데이터 모델과 API의 국제적인 표준화가 요구되며 데이터 모델의 표준은 대상 시스템에 따라 달라질 수 있다.  디지털 트윈을 실제 시스템에 대한 문제 해결 목적으로 사용하기 위해서는 대상 시스템에 대한 다양한 질문의 답을 디지털 트윈을 통해서 얻을 수 있는 서비스가 제공되어야 한다. OR 이론의 창시자 중 한 명으로 경영 과학 이론가인 R.L.Ackoff 교수는 사람이 생각하는 내용을 데이터, 정보. 지식, 지혜 등 4가지로 분류하였다. 데이터는 단순한 심벌(숫자나 문자)을 말하지만 정보는 ‘who’, ‘what’, ‘where’, ‘when’을 답할 수 있고, 지식은 ‘how’를 답할 수 있고, 지혜는 ‘why’를 답할 수 있어야 한다고 정의하였다. 디지털 트윈의 서비스 수준을 Ackhoff 교수의 분류법에 매핑 시킨다면 정보 수준 서비스는 시스템 분석(현상, 기능 등), 지식 수준 서비스는 시스템 예측(행위, 성능 등) 그리고 지혜 수준 서비스는 시스템 최적화(운용 최적화 등) 및 진단(수명 진단 등)에 해당한다. 예를 들어, 교통 시스템에 대한 다양한 질문을 답하기 위해 교통 디지털 트윈을 만들었다고 하자. 정보 서비스의 예는 현재 교통 시스템의 현상을 분석하는 것으로 어느 위치의 현재 시간대에 단위 시간당 교차로 통과 차량 대수가 얼마인지에 대한 답을 하는 서비스이다. 지식 서비스의 예는 현재 출발지에서 목적지까지의 소요 시간이 얼마가 되는지를 예측하는 질문에 대한 답을 하는 서비스이다. 지혜 서비스의 예는 현재 출발지에서 목적지까지의 소요 시간이 최소가 되는 최적화된 경로가 어떤 것인지의 질문에 대한 답을 하는 서비스이다.    4. 디지털 트윈의 구성요소 디지털 트윈의 3 가지 구성요소 중 행위 모델은 목적에 따라 데이터 모델과 시뮬레이션 모델로 대별된다. 데이터 모델은 실 체계에서 수집된 데이터들 사이의 상관관계를 기계학습하여 얻어진 모델(예: 인공신경망)로서 지식 서비스를 위한 시스템 행위 예측에 한계점을 가지고 있다. 구체적으로, 데이터 모델은 학습된 데이터 영역에서는 미래 예측이 가능하지만 학습된 영역 밖의 데이터에 대한 예측은 불가능 하다. 뿐만 아니라 학습 시와 예측 시의 시스템 운용 조건이 달라질 경우에도 예측이 불가능하다. 앞서 예시한 교통 디지털 트윈으로 데이터 모델을 사용할 경우 학습 시 도로 상황(운행 시간, 사고 발생 유무 등)이 예측 시 도로 상황과 동일하지 않으면 소요 시간 예측의 정확도가 보장되지 않는다. 더욱이, 시스템 변수 사이의 상관 관계로 표현된 데이터 모델은 변수 사이의 인과 관계가 필요한 시스템의 최적화 및 고장 진단 등에는 활용할 수 없다. 이러한 데이터 모델의 서비스 한계를 극복하기 위해서는 시뮬레이션 모델을 사용할 수 있다. 시뮬레이션 모델은 구축은 대상 시스템에 대한 도메인 지식과 이를 표현하는 지배 법칙에 대한 수학적/논리적 표현 방법을 이해해야 하므로 데이터 모델에 비해 고 비용이 요구된다. 따라서, 디지털 트윈의 행위 모델은 대상 시스템의 서비스 목적과 수준에 따라 다르게 선택될 수 있다.    5. 디지털 트윈의 발전 전망  디지털 트윈의 향후 발전 전망은 문제 해결과 가상 체험 및 빅 데이터 분야로 대별할 수 있다. 문제 해결 분야에서 디지털 트윈의 대상은 분석, 예측, 최적화/진단 대상이 되는 모든 시스템 분야로서 산업(제조, 생산, 물류, 식물공장 등), 공공(교통, 환경, 금융 등), 의료(진단, 인공장기, 가상수술 등), 재난안전(안전점검, 피해분석, 대피훈련 등), 국방(군사훈련, 국방분석, 무기체계 획득 등)등을 포함한다.  현재 디지털 트윈 활용은 안정성에 부담이 적고 신속/가시적 성공사례 확보가 가능한 스마트시티, 스마트 팩토리, 스마트SOC(도로, 철도, 항만, 공항, 등) 등이 대상이지만 기술성숙도가 높아지고 안정성이 보장됨에 따라 자율주행, 의료/인공장기, 식물공장 등으로 확대될 전망이다.  가상 체험 분야는 디지털 트윈이 실 세계 혹은 가상 세계를 움직이는 다양한 시나리오를 정형화한 지배 법칙(모델)을 실행(시뮬레이션)하는 수단으로 활용될 전망이다. 이러한 지배법칙 실행은 실제 세계와 가상 세계의 구별 없는 가상 체험을 목표로 하는 메타버스의 서비스 콘텐츠를 제공한다. 따라서, 메타버스 발전을 위해서 메타버스의 서비스 컨텐츠를 제공하는 디지털 트윈 발전이 필수적으로 향후 메타버스와 디지털 트윈은 동시에 발전할 전망이다.  빅 데이터 분야에서는 디지털 트윈의 가상 실험을 통해 실 체계에서는 물리적/경제적 이유로 수집 불가능한 다양한 빅 데이터를 생성하는데 활용될 전망이다. 유의미한 빅 데이터 생성을 위해서는 실 체계에서 수집 가능한 데이터를 사용하여 디지털 트윈 모델의 검증이 선행된 후 실 체계에서 수집 불가능한 데이터 생성을 위한 가상 실험이 설계되어야 한다. 디지털 트윈을 사용한 빅 데이터 생성은 시스템 기능 검증, 예지 진단 및 기계학습 등과 같은 부가가치가 높은 데이터 생성에 집중되어 미래 데이터 구독 시장 활성화에 기여할 전망이다.   김탁곤 명예교수  KAIST 전기전자공학부  
작성일 : 2025-05-05
AMD, 오라클 클라우드 인프라스트럭처에 5세대 에픽 CPU 도입
AMD는 5세대 에픽(EPYC) 프로세서가 오라클 클라우드 인프라스트럭처(OCI) E6 컴퓨팅 스탠다드 플랫폼에 도입된다고 발표했다. 엔터프라이즈와 AI, 클라우드를 위한 서버용 CPU인 5세대 에픽 프로세서를 적용한 OCI E6 플랫폼은 OCI 자체 테스트 기준으로 이전 세대 E5 인스턴스 대비 최대 2배 향상된 비용 대비 성능을 제공한다. 새로운 OCI E6 플랫폼은 이전 세대인 E5의 성공에 이어 범용 및 컴퓨팅 집약적 워크로드를 위한 높은 성능과 비용 효율을 제공한다. 이를 통해 AMD 에픽 프로세서를 기반으로 하는 주요 클라우드 서비스에 1000개 이상의 새로운 컴퓨팅 인스턴스 선택권을 제공한다. OCI E6 스탠다드 베어메탈 인스턴스 및 가상 머신(VM)은 현재 미국 동부(애시번), 미국 서부(피닉스), 미국 중서부(시카고), 독일 중부(프랑크푸르트), 영국 남부(런던) 등 여러 지역에서 이용 가능하며, 향후 몇 달 내에 점진적으로 지역을 확대할 예정이다. AMD의 댄 맥나마라(Dan McNamara)서버 비즈니스 부문 수석 부사장 겸 총괄 책임자는 “클라우드 환경에 AMD 에픽 프로세서가 신속히 도입되는 것은 AMD의 혁신적이고 고성능 설루션이 파트너들에게 경쟁력 있는 클라우드 서비스를 제공하도록 돕고 있다는 것을 입증한다”면서, “OCI의 유연한 인프라와 5세대 에픽 프로세서의 강력한 성능이 결합해 고객들은 가장 중요한 워크로드를 가속화하면서도 클라우드 인프라를 최적화할 수 있다”고 말했다. 오라클 클라우드 인프라스트럭처의 도널드 루(Donald Lu) 컴퓨팅 부문 수석 부사장은 “OCI는 고객들에게 최고의 성능과 비용 효율성을 갖춘 클라우드 설루션을 제공하기 위해 노력하고 있다”면서, “OCI는 AMD 에픽 프로세서로 구동되는 새로운 OCI E6 컴퓨팅 스탠더드 플랫폼을 바탕으로 오늘날 가장 복잡한 워크로드의 요구 사항을 강력한 컴퓨팅 성능과 확장성, 효율성으로 채워 나가고 있다”고 덧붙였다.
작성일 : 2025-04-01
오라클, 엔비디아 AI 엔터프라이즈 제공으로 분산형 클라우드 기능 확장
오라클이 오라클 클라우드 인프라스트럭처(OCI)에서 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)를 제공한다고 밝혔다. 엔비디아 AI 엔터프라이즈는 데이터 과학을 가속화하고 운영 환경에서 사용 가능한 AI의 개발 및 배포를 간소화하는 엔비디아의 종단간(end-to-end) 클라우드 네이티브 소프트웨어 플랫폼이다. 엔비디아 AI 엔터프라이즈는 소버린 AI를 지원하고 기업 고객이 엔비디아의 가속화되고 안전하며 확장 가능한 플랫폼에 쉽게 액세스할 수 있도록 하기 위해 OCI의 분산형 클라우드 어디에서나 사용할 수 있으며, 기업 고객은 기존 오라클 유니버설 크레딧(Oracle Universal Credits)을 통해서도 사용할 수 있다. OCI는 마켓플레이스를 통해 사용 가능한 여타 엔비디아 AI 엔터프라이즈 오퍼링과 달리 OCI 콘솔(OCI Console)을 통한 네이티브 제공 방식으로 서비스 배포 시간이 단축되며, 직접 청구 및 고객 지원이 가능하다. 사용자는 생성형 AI 모델의 배포 간소화를 지원하는 최적화된 클라우드 네이티브 추론 마이크로서비스 모음인 엔비디아 NIM(NVIDIA NIM) 마이크로서비스를 비롯한 160개 이상의 훈련 및 추론용 AI 도구에 빠르고 간편하게 액세스할 수 있다. 또한 다양한 분산형 클라우드 배포 옵션에 걸쳐 종단간 트레이닝 및 추론 기능 모음을 애플리케이션 구축 및 데이터 관리를 지원하는 OCI 서비스와 결합할 수 있다. 오라클은 OCI 콘솔을 통해 엔비디아 AI 엔터프라이즈를 OCI 퍼블릭 리전을 비롯해, 정부 클라우드와 소버린 클라우드, OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), OCI 컴퓨트 클라우드앳커스터머(OCI Compute Cloud@Customer) OCI 로빙 엣지 디바이스(OCI Roving Edge Devices) 등의 오라클 서비스에 신속 간단히 배포할 수 있도록 지원한다. 고객은 OCI의 분산형 클라우드 전반에서 엔비디아 AI 엔터프라이즈를 사용해 엔터프라이즈 AI 스택의 개발, 배포, 운영 과정에 적용되는 보안, 주권, 규정, 규제 준수 요건을 충족할 수 있다. 엔비디아 AI 엔터프라이즈는 OCI 쿠버네티스 엔진(OCI Kubernetes Engine)을 사용하는 GPU 인스턴스 및 쿠버네티스 클러스터용 배포 이미지로 제공될 예정이다. OCI AI 블루프린트(OCI AI Blueprints)는 AI 배포 가속화를 지원하기 위해 직접 소프트웨어 스택 관련 결정을 내리거나 인프라를 수동으로 프로비저닝하지 않고도 빠르게 AI 워크로드를 실행할 수 있는 노코드 배포 레시피를 제공한다. 엔비디아 GPU, NIM 마이크로서비스, 사전 패키징된 통합 가시성 도구 등에 대한 명확한 하드웨어 권장 사항을 제공하는 OCI AI 블루프린트를 사용하면 확장 배포를 위한 GPU 온보딩 시간을 몇 주에서 단 몇 분으로 단축할 수 있다. 오라클의 카란 바타 OCI 담당 수석 부사장은 “오라클은 고객이 OCI에서 AI 설루션을 가장 신속하게 개발 및 배포할 수 있도록 지원한다”면서, “OCI 상의 엔비디아 AI 엔터프라이즈를 활용하면 최신 AI 인프라 및 소프트웨어 혁신의 이점을 누리는 동시에 분산형 클라우드가 제공하는 다양한 배포 옵션을 유연하게 활용할 수 있다. 고객은 운영, 위치, 보안에 대한 제어 능력을 강화함으로써 업계 최고의 AI 설루션을 활용해 소버린 AI를 가속화할 수 있다”고 말했다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 소프트웨어 제품 부사장은 “엔비디아 AI 엔터프라이즈는 개발자가 최신 AI 애플리케이션을 개발할 수 있는 구성 요소를 제공한다”면서, “오라클은 OCI 콘솔에 엔비디아 AI 엔터프라이즈를 통합함으로써 다양한 리전에서 생성형, 에이전틱, 물리적 AI의 개발과 배포를 가속화할 수 있는 원활한 환경을 제공할 것”이라고 말했다.
작성일 : 2025-03-27
엔비디아, AI와 그래픽 융합 가속화하는 데이터센터 GPU ‘RTX PRO 6000 블랙웰 서버 에디션’ 발표
엔비디아가 GTC 2025에서 ‘엔비디아 RTX PRO 6000 블랙웰 서버 에디션(NVIDIA RTX PRO 6000 Blackwell Server Edition)’을 발표했다. RTX PRO 6000 블랙웰 서버 에디션은 비주얼 컴퓨팅과 엔터프라이즈 AI를 위해 구축된 첫 번째 블랙웰 기반 데이터센터 GPU이다. 이는 모든 산업에서 높은 성능을 요구하는 AI, 그래픽 애플리케이션을 신속하게 처리할 수 있도록 설계됐다. 이전 세대인 에이다 러브레이스(Ada Lovelace) 아키텍처 기반 L40S GPU에 비해 RTX PRO 6000 블랙웰 서버 에디션 GPU는 다양한 엔터프라이즈 워크로드에서 성능이 크게 향상된다. 예를 들어, 에이전틱 AI(Agentic AI) 애플리케이션을 위한 대규모 언어 모델(LLM) 추론 처리량은 최대 5배 증가되고, 유전체 염기서열 분석은 약 7배로 가속화되며, 텍스트-비디오 생성은 3.3배, 렌더링 속도는 2배 이상 빨라진다. RTX PRO 6000 블랙웰 서버 에디션은 워크스테이션과 서버 GPU로 이뤄진 엔비디아 RTX PRO 블랙웰 시리즈에 속한다. 이번 엔비디아 GTC에서 발표된 RTX PRO 라인업은 여러 산업의 AI와 창의적인 워크로드를 지원하는 데스크톱, 랩톱, 데이터센터 GPU로 구성된다. 여러 분야의 기업들은 RTX PRO 6000 블랙웰 서버 에디션을 통해 데이터 분석, 엔지니어링 시뮬레이션, 생성형 AI, 비주얼 컴퓨팅과 같은 워크로드에서 높은 성능을 구현할 수 있다. 여기에는 건축, 자동차, 클라우드 서비스, 금융 서비스, 게임 개발, 의료, 제조, 미디어, 엔터테인먼트, 소매업 등의 산업이 포함된다. 콘텐츠 제작, 반도체 제조, 유전체 분석 기업들은 이미 컴퓨팅 집약적인 AI 지원 워크플로를 가속화하기 위해 RTX PRO 6000 블랙웰 서버 에디션의 기능을 활용하고 있다.     RTX PRO 6000 블랙웰 서버 에디션은 데이터센터 환경에서 연중무휴 24시간 운영할 수 있게 설계된 수동 냉각 장치 형태로, 강력한 RTX AI와 그래픽 기능을 제공한다. 96GB의 초고속 GDDR7 메모리와 멀티 인스턴스 GPU(MIG)를 갖춘 RTX PRO 6000은 최대 4개의 완전히 격리된 인스턴스로 분할될 수 있다. 각 인스턴스는 24GB의 메모리를 사용할 수 있어, AI 워크로드와 그래픽 워크로드를 동시에 실행할 수 있다. RTX PRO 6000은 엔비디아 컨피덴셜 컴퓨팅(Confidential Computing)을 통해 안전한 AI를 구현하는 범용 GPU이다. 이는 강력한 하드웨어 기반 보안으로 AI 모델과 민감한 데이터를 무단 접근으로부터 보호한다. 이에 따라 물리적으로 격리된 신뢰할 수 있는 실행 환경을 제공해 데이터를 사용하는 동안 전체 워크로드를 보호한다. 또한, RTX PRO 6000은 엔터프라이즈급 배포에서 효과적으로 사용될 수 있도록 고밀도 가속 컴퓨팅 플랫폼으로 구성돼 분산 추론 워크로드를 수행할 수 있다. 더불어 엔비디아 vGPU 소프트웨어를 통해 가상 워크스테이션을 제공하며, AI 개발과 고도의 그래픽 애플리케이션을 구동하는 데 사용될 수 있다. RTX PRO 6000 GPU는 광범위한 AI 모델에 걸쳐 강력한 추론 성능을 제공하며, 복잡한 가상 환경의 사실적인 실시간 레이 트레이싱을 가속화한다. 여기에는 5세대 텐서 코어(Tensor Core), 4세대 RT 코어, DLSS 4, 통합된 미디어 파이프라인, FP4 정밀도를 지원하는 2세대 트랜스포머 엔진(Transformer Engine) 등 최신 블랙웰 하드웨어와 소프트웨어 혁신이 포함된다. 기업들은 RTX PRO 6000 블랙웰 서버 에디션 GPU에서 엔비디아 옴니버스(Omniverse)와 엔비디아 AI 엔터프라이즈(AI Enterprise) 플랫폼을 대규모로 실행할 수 있다. 이를 통해 이미지와 비디오 생성, LLM 추론, 추천 시스템, 컴퓨터 비전, 디지털 트윈, 로보틱스 시뮬레이션 등의 에이전틱 AI, 물리 AI 애플리케이션 개발과 배포를 더욱 원활하게 진행할 수 있다. 엔비디아는 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 플랫폼이 5월부터 전 세계 파트너를 통해 출시될 예정이라고 소개했다. 클라우드 서비스 제공업체와 GPU 클라우드 제공업체 중에서는 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저, IBM 클라우드, 코어위브, 크루소, 람다, 네비우스, 벌처가 최초로 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 인스턴스를 제공할 계획이다. 시스코, 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버, 슈퍼마이크로는 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 서버를 제공할 예정이다. 이 외에도 어드밴텍, 애티나, 에이브레스, 애즈락랙, 에이수스, 컴팔, 폭스콘, 기가바이트, 인벤텍, MSI, 페가트론, 퀀타 클라우드 테크놀로지(QCT), 미텍 컴퓨팅, 네이션게이트, 위스트론, 위윈 등의 기업도 이 서버를 제공할 계획이다.
작성일 : 2025-03-21
멘딕스 10.18 : 소프트웨어 개발 라이프사이클에 로코드와 AI 결합
개발 및 공급 : 멘딕스 주요 특징 : 생성형 AI 인스턴스 생성 및 AI 애플리케이션 개발을 돕는 생성형 AI 리소스 팩 도입, 디지털 혁신을 지원하는 새로운 통합 툴 제공, 스마트 개발을 위한 생성형 AI 기반 서비스 세트 업데이트 등     지멘스의 자회사인 멘딕스는 멘딕스 10.18(Mendix 10.18) 버전을 공식 출시한다고 밝혔다. 최신 릴리스는 보다 쉽게 소프트웨어 개발에 활용할 수 있는 새로운 기능과 성능 업그레이드 및 AI 기반 개선사항 등을 포함하고 있다. 멘딕스 10.18은 로코드(low-code)와 AI 성능을 결합하여 기업에 다음과 같은 기능을 제공한다. 소프트웨어 개발 라이프사이클(SDLC : Software Development Lifecycle) 전반에 걸쳐 AI 기반 지원 기능 제공 온보딩 및 소프트웨어 개발 경험을 간소화하여, 보다 빠르고 뛰어난 생산성 제공 생성형 AI(GenAI) 출력 및 환경에 대한 접근성, 가시성, 거버넌스 개선 플랫폼에 내장된 마이아(Maia : Mendix Artificial Intelligence Assistance)에 대한 추가 업데이트를 통해 보다 스마트한 개발 작업과 보다 용이한 스마트 앱의 빌드 및 배포 지원 이번 업데이트는 세 가지 주요 영역에 대한 새로운 기능과 개선사항이 추가되면서, 지속적으로 혁신 비전을 실현하고자 하는 멘딕스의 의지를 나타낸다.    아이디어를 영향력 있는 설루션으로 전환할 수 있도록 AI 혁신 역량 강화 멘딕스10.18에 새롭게 개선된 생성형 AI 기능이 도입되면서, 기업들은 스마트 앱을 위한 유연성과 속도, 거버넌스를 비롯해 더욱 다채로운 사용자 경험과 스마트 애플리케이션을 보다 용이하게 제공할 수 있게 되었다. 또한, 멘딕스는 10.18 버전에서 제한적으로 제공되는 멘딕스 클라우드 생성형 AI 리소스 팩(Mendix Cloud GenAI Resource Pack)을 도입하여, 생성형 AI 기술을 실험하거나 사용자를 위한 지능형 애플리케이션을 개발하고자 하는 기업들의 진입 장벽을 낮췄다. 이 번들에는 다음과 같은 두 가지 팩이 포함되어 있다. 멘딕스 클라우드 모델 리소스 팩 : 사용자가 플랫폼 내에서 생성형 AI 인스턴스를 신속하게 생성하고, 자체 하이퍼스케일러 환경을 설정하는데 따르는 조직적 차원의 장애물을 제거할 수 있도록 지원 멘딕스 클라우드 지식 기반 리소스 팩 : 사용자가 멘딕스 플랫폼 내에서 회사 자체 데이터에 기반한 생성형 AI 모델을 바탕으로 상황인식 기능을 개선하고, 보다 정확한 응답을 제공할 수 있도록 지원 생성형 AI 리소스 팩은 사용자가 소비한 토큰(token) 모니터링을 통해 개별 앱이나 포트폴리오 전반에 걸쳐 일일, 주간, 월간 또는 지정된 기간별로 사용량을 추적함으로써, 생성형 AI 소비 규모에 대한 가시성을 제공한다. 이외에도, 멘딕스 10.18은 멘딕스 플랫폼 내에서 데이터 과학 및 애플리케이션 개발 협업을 촉진하는 새로운 프롬프트 관리 기능을 플랫폼 내에 도입했다. 새롭게 추가된 프롬프트 관리 기능은 실험 프로세스를 간소화하고 가속화할 수 있도록 설계되었다. 사용자는 프롬프트를 손쉽게 전환하여 유효성을 테스트하고, 가장 정확하고 관련성이 높은 원하는 결과를 도출할 수 있다. 또한, 트랜잭션당 토큰 사용량을 추정할 수 있어 기업이 특정 적용 사례의 비즈니스 가치 창출 여부를 판단하는 데 도움을 준다.   지능형 AI 기반 개발 지원으로 성공 가속화 멘딕스 10.18에는 로코드에 익숙하지 않은 기업이 디지털 혁신을 보다 효과적으로 수행할 수 있도록 콤파스(Compass)라는 새로운 통합 툴을 도입했다. 이 툴은 디지털 프로세스의 다양한 측면을 가이드하고, 멘딕스의 엔터프라이즈급 로코드 개발 플랫폼에 대한 전문가 온보딩을 제공한다. 또한, 스마트 개발을 위해 구축된 생성형 AI 기반 서비스 세트인 마이아에 대한 추가 업데이트도 지원된다. 멘딕스 개발자를 위한 가이드, 지원, 생성 기능을 제공하는 마이아는 다음과 같은 확장 기능이 추가되었다.  자연어 프롬프트를 사용하여 새로운 도메인 모델을 정의하거나, 기존 도메인 모델을 확장할 수 있도록 도메인 모델 생성 지원 멘딕스를 처음 접하는 개발자를 위해 마이아 챗(Maia Chat)에서 탐색 가능한 학습 자료 제공 페이지에 위젯 추가 프로세스를 간소화하고 가속화하는 UI 추천기(UI Recommender) 제공 이외에도, 멘딕스 10.18 버전에 추가된 새로운 개발자 환경 개선사항은 다음과 같다. 언어 감지 및 응답 기능을 통해 사용자가 자신의 모국어로 마이아 챗과 소통할 수 있도록 다국어 지원 강화 기본적으로 영어로 구현된 멘딕스 통합개발환경(Mendix IDE)에 대한 독일어, 일본어, 한국어, 중국어 버전 제공 멘딕스 애플리케이션의 보안 검토 프로세스를 간소화할 수 있도록 설계된 새로운 보안 개요(Security Overview) 지원 재설계된 피드백 모듈(App Insights Feedback Module)을 통해 사용자 통찰력으로 개발 방향을 가이드할 수 있도록 지원. 맞춤형 UX 스타일링으로 피드백 경험을 브랜드와 일치하도록 조정 가능   엔터프라이즈 소프트웨어 개발 라이프사이클 전반에 걸쳐 AI 모범사례에 대한 제어 및 가시성 강화 멘딕스는 소프트웨어 개발 라이프사이클 전반에 걸쳐 거버넌스와 가시성을 개선할 수 있도록 지원하는데 주력하고 있다. 멘딕스 10.18은 생성형 AI를 보다 스마트하고 안전하며 비용 효율적으로 구축하는데 중점을 두었다. 고객들은 새로운 멘딕스 클라우드 생성형 AI 리소스 팩을 이용해 보다 손쉽게 생성형 AI를 구축할 수 있다. 사용자는 플랫폼 내에서 제공되는 지식 기반 및 통합 정보검색 기반 생성(RAG : Retrieval-Augmented Generation) 기능을 통해 자체 데이터 기반의 생성형 AI 모델을 손쉽게 구현할 수 있다. 또한, 10.18은 생성형 AI 애플리케이션을 보호하기 위한 콘텐츠 필터 기능도 도입했다. 맞춤형 필터는 문제가 되는 콘텐츠를 감지하여 일관되고, 안전하게, 책임감 있는 AI 환경을 대규모로 촉진할 수 있는 툴을 기업에게 제공함으로써, 유해한 콘텐츠를 최소화하고 편향, 혐오, 욕설 등과 같은 민감한 주제를 해결할 수 있도록 지원한다. 이러한 기능은 일부 기업이 규제 및 콘텐츠 관리 문제로 인해 생성형 AI 사용을 꺼리고 있다는 업계의 우려가 확산하는 가운데 도입된 것이다. 이외에도, 멘딕스는 배포 자동화 툴인 파이프라인(Pipelines)에 AI와 새로운 JIRA를 통합하여 멘딕스 모범 사례와 애플리케이션 모델을 비교함으로써 애플리케이션의 품질을 보장하고, 개발자의 생산성을 높일 수 있도록 지원한다. 데이터스케일HR(datascalehr)의 엔지니어링 담당 책임자인 루크 자와즈키(Luke Zawadzki)는 “멘딕스는 새로운 기능이나 동작을 신속하게 프로토타이핑할 수 있도록 지원한다. 이러한 기능을 통해 프로세스 초기에 실제로 동작 가능한 기능을 테스트하고 문제를 발견하거나, 이를 조기에 조정할 수 있다”고 말했다. 데이터스케일HR은 멘딕스와 함께 AI 기반 급여 플랫폼을 제공하는 비즈니스 서비스 조직이다. 멘딕스의 한스 드 비저(Hans de Visser) 최고제품책임자(CPO)는 “10.18 버전은 생성형 AI와 비즈니스 모범사례가 끊임없이 진화하는 중요한 시기에 출시되었다. 우리는 플랫폼 전반에 걸쳐 고객에게 유의미한 생성형 AI 서비스를 제공하는데 중점을 두고 있다”면서, “이번에 제공되는 모든 업데이트는 AI 기능에 대한 접근성을 민주화하고, 사용자들이 성공에 필요한 툴을 갖추는데 직접적인 영향을 미치게 될 것이다. 멘딕스는 지속적으로 서비스 포트폴리오를 발전시킴으로써 애플리케이션 레벨에서 플랫폼 레벨로 거버넌스를 강화할 것”이라고 밝혔다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-03-06
AWS, 딥시크-R1 모델 제공 시작… “생성형 AI 활용 확장 지원”
아마존웹서비스(AWS)는 딥시크-R1(DeepSeek-R1) 모델을 아마존 베드록(Amazon Bedrock)과 아마존 세이지메이커 AI(Amazon SageMaker AI)에서 제공한다고 발표했다. AWS는 이를 통해 기업이 최신 생성형 AI 모델을 보다 효과적으로 활용할 수 있으며, 비용 절감과 성능 향상을 동시에 누릴 수 있다고 밝혔다. 딥시크(DeepSeek)는 2023년에 중국 항저우에서 설립된 인공지능(AI) 스타트업으로, AI 모델 개발 비용을 기존보다 크게 낮춘 것으로 평가되면서 최근 주목을 받고 있다. 이 회사는 2024년 12월 6710억 개의 파라미터를 가진 딥시크-V3를 출시한 이후, 2025년 1월 20일 딥시크-R1, 딥시크-R1-제로, 딥시크-R1-디스틸 모델을 공개했다. 또한, 1월 27일에는 비전 기반 야누스-프로 7B(Janus-Pro 7B) 모델을 추가했다. 딥시크에 따르면, 메모리 사용량을 줄이고 속도를 높인 이들 모델은 기존 AI 모델 대비 90~95%의 비용을 절감해 비용 효율을 제공하며, 강화 학습 기법을 적용해 높은 추론 능력을 갖췄다. AWS는 고객들이 딥시크-R1 모델을 다양한 방식으로 활용할 수 있도록 지원한다는 계획이다. 아마존 베드록에서는 API를 통해 사전 학습된 모델을 쉽게 통합할 수 있으며, 아마존 세이지메이커 AI를 통해 맞춤형 학습과 배포가 가능하다. 또한, AWS 트레이니움(AWS Trainium)과 AWS 인퍼런시아(AWS Inferentia)를 활용하면 딥시크-R1-디스틸 모델을 더욱 경제적으로 운영할 수 있다. AWS는 보안성과 확장성을 강화하기 위해 아마존 베드록 가드레일(Amazon Bedrock Guardrails)을 활용할 것을 권장하며, 이를 통해 생성형 AI 애플리케이션의 입력 및 출력 데이터를 모니터링하고 유해 콘텐츠를 필터링할 수 있다. 딥시크-R1 모델은 현재 AWS에서 네 가지 방식으로 배포할 수 있다. 아마존 베드록 마켓플레이스(Amazon Bedrock Marketplace)에서는 모델 카탈로그에서 딥시크-R1을 검색하여 손쉽게 배포할 수 있으며, 아마존 세이지메이커 점프스타트(Amazon SageMaker JumpStart)를 통해 머신러닝 허브에서 클릭 한 번으로 배포 및 활용이 가능하다. 또한, 아마존 베드록 커스텀 모델 임포트를 활용하면 딥시크-R1-디스틸 모델을 맞춤형 모델로 가져와 활용할 수 있으며, AWS EC2 Trn1 인스턴스(AWS EC2 Trn1 Instance)를 사용하면 딥시크-R1-디스틸 모델을 AWS 트레이니움 및 AWS 인퍼런시아 기반 인프라에서 최적의 성능과 비용 효율성을 제공하며 실행할 수 있다. AWS는 “딥시크-R1 모델을 통해 고객들이 AI 기술을 더욱 효과적으로 활용하고, 안전하고 책임감 있는 AI 환경을 조성할 수 있도록 적극 지원할 예정”이라고 전했다.
작성일 : 2025-02-03
AWS, 딥러닝 및 생성형 AI를 위한 트레이니움2 인스턴스 출시
아마존웹서비스(AWS)는 ‘AWS 리인벤트’ 행사에서 AWS 트레이니움2(AWS Trainium2) 칩 기반의 아마존 EC2(Amazon EC2) 인스턴스를 공식 출시했다고 발표했다. 또한, AWS는 대규모 언어 모델(LLM) 및 파운데이션 모델(FM)의 학습과 추론을 지원하는 트레이니움2 울트라서버(Trn2 UltraServers)와 차세대 트레이니움3(Trainium3) 칩도 함께 공개했다. Trn2 인스턴스는 16개의 트레이니움2 칩을 탑재하여 최대 20.8 페타플롭스(PF)의 연산 성능을 제공한다. 이는 수십억 개의 매개변수를 가진 LLM의 학습 및 배포에 적합하다. Trn2 인스턴스는 동일한 비용으로 기존 GPU 기반 EC2 P5e 및 P5en 인스턴스 대비 30~40% 더 나은 가격 대비 성능을 제공하며, 메모리 대역폭도 개선되어 비용 효율성이 높다는 것이 AWS의 설명이다. Trn2 울트라서버는 새로운 EC2 제품군으로, 초고속 뉴런링크(NeuronLink) 기술을 사용해 64개의 트레이니움2 칩을 연결하여 최대 83.2 피크 페타플롭스의 연산 성능을 제공한다. 이는 단일 Trn2 인스턴스 대비 연산, 메모리, 네트워킹 성능을 각각 4배로 확장해 대규모의 모델 학습과 배포를 가능하게 한다. Trn2 인스턴스는 현재 미국 동부(오하이오) AWS 리전에서 사용 가능하며, 추가 리전에서도 곧 제공될 예정이다. Trn2 울트라서버는 현재 프리뷰 상태로 제공되고 있다. 한편, AWS는 앤스로픽(Anthropic)과 협력해 수십만 개의 트레이니움2 칩을 포함하는 EC2 울트라클러스터(UltraClusters)를 구축하고 있다고 밝혔다. 이 프로젝트는 ‘프로젝트 레이니어(Project Rainier)’로 명명되었으며, 현재 세대의 최첨단 AI 모델 훈련에 사용된 엑사플롭스의 5배 이상의 성능을 갖출 것으로 기대된다. 이외에도 AWS는 차세대 AI 학습 칩인 트레이니움3를 공개했다. 트레이니움3는 트레이니움2 대비 최대 2배 성능과 40% 개선된 에너지 효율성을 제공하며, 이를 통해 고객은 더 큰 모델을 더 빠르게 구축하고 실시간 성능을 극대화할 수 있다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “트레이니움2는 AWS가 개발한 칩 중 가장 강력한 성능을 자랑하며, 대규모 및 최첨단 생성형 AI 워크로드를 지원하기 위해 설계되었다. 이 칩은 학습과 추론 모두에서 최고의 가격 대비 성능을 제공한다”면서, “매개변수가 수조 개에 달하는 모델이 등장하면서, 고객들에게 대규모 모델을 효율적으로 학습하고 운영할 수 있는 새로운 접근 방식이 필요해졌다. Trn2 울트라서버는 AWS에서 가장 빠른 학습 및 추론 성능을 제공하며, 모든 규모의 조직이 세계 최대 모델을 더 빠르고 비용 효율적으로 학습하고 배포할 수 있도록 돕는다”고 전했다.
작성일 : 2024-12-04
AWS, “AI 워크로드를 클라우드로 전환해 탄소 배출량 절감 가능”
아마존웹서비스(AWS)가 IT 워크로드를 온프레미스 인프라에서 AWS 클라우드 데이터센터로 이전하면 인공지능(AI) 활용에 따른 환경적 영향을 효과적으로 최소화할 수 있다는 새로운 연구 결과를 발표했다. AWS의 의뢰로 글로벌 IT 컨설팅 기업 엑센츄어(Accenture)에서 진행한 연구에 따르면, AWS의 글로벌 인프라에서 워크로드를 실행했을 때 온프레미스 대비 에너지 효율이 최대 4.1배 더 높은 것으로 나타났다. 특히 한국 기업들이 AWS상에서 AI 워크로드를 최적화할 경우 온프레미스 대비 탄소 배출을 최대 95%까지 줄일 수 있는 것으로 나타났다. 연구에 따르면 국내에서 컴퓨팅 부하가 높은 AI 워크로드를 AWS 데이터센터에서 실행할 경우, 에너지 효율이 더 높은 하드웨어 사용(22%)과 향상된 전력 및 냉각 시스템(50%)을 통해 온프레미스 대비 탄소 배출량을 72%까지 줄일 수 있다. 추가로 AWS에서 최적화하고 AI 전용 실리콘을 사용할 경우 AWS로 이전하고 최적화한 국내 기업은 AI 워크로드의 총 탄소 배출량을 최대 95%까지 감축할 수 있다. AWS가 에너지 효율을 혁신하는 대표적인 방법 중 하나는 자체 칩에 대한 투자다. AWS는 지난 2018년 자체 개발 맞춤형 범용 프로세서인 그래비톤(Graviton)을 첫 출시했다. 최신 프로세서인 그래비톤4의 성능은 기존 그래비톤보다 4배 향상되었으며, 동급의 아마존 EC2 인스턴스 대비 동일한 성능을 구현하는 데에 60% 더 적은 에너지를 사용하는 그래비톤3보다도 더 에너지 효율적이다. AWS는 생성형 AI 애플리케이션의 성능과 에너지 소비를 최적화하기 위해 AWS 트레이니움(AWS Trainium), AWS 인퍼런시아(AWS Inferentia)와 같은 AI 전용 실리콘을 개발하여 동급의 가속 컴퓨팅 인스턴스보다 높은 처리량을 달성했다. AWS 트레이니움은 생성형 AI 모델의 학습 시간을 몇 달에서 몇 시간으로 단축한다. 트레이니움2는 1세대 트레이니움에 비해 최대 4배 빠른 훈련 성능과 3배 더 많은 메모리 용량을 제공하는 동시에 에너지 효율(와트당 성능)을 최대 2배까지 개선하도록 설계되었다. 한편, AWS 인퍼런시아는 AWS 칩 중 가장 전력 효율이 높은 머신러닝 추론 칩이다. AWS 인퍼런시아2는 와트당 최대 50% 더 높은 성능을 제공하며, 동급 인스턴스 대비 최대 40%까지 비용을 절감할 수 있다.  이와 함께, AWS는 리소스 활용을 최적화하여 유휴 용량을 최소화하고 인프라의 효율성을 지속적으로 개선하고 있다고 전했다. AWS는 데이터센터 설계에서 대형 중앙 무정전전원공급장치(UPS)를 제거하는 대신 모든 랙에 통합되는 소형 배터리팩과 맞춤형 전원공급장치를 사용하여 전력 효율성을 개선하고 가용성을 높였다. 교류(AC)에서 직류(DC)로, 또는 그 반대로 전압을 변환할 때 발생하는 전력 손실을 줄이기 위해 중앙 UPS를 제거하고 랙 전원 공급 장치를 최적화하여 에너지 변환 손실을 약 35% 감소시켰다. AWS 데이터센터에서 서버 장비에 전력을 공급하는 것 다음으로 에너지 사용량이 많은 부분 중 하나는 냉각 시스템이다. 효율성을 높이기 위해 AWS는 장소와 시간에 따른 프리 쿨링(free air cooling) 등 다양한 냉각 기술을 활용하고 실시간 데이터를 통해 기상 조건에 적응한다. AWS의 최신 데이터센터 설계는 최적화된 공랭 솔루션과 엔비디아(NVIDIA)의 그레이스 블랙웰 슈퍼칩과 같은 가장 강력한 AI 칩셋을 위한 액체 냉각 기능을 통합한다. 유연한 다중 모드 냉각을 통해 기존 워크로드 혹은 AI 모델 등 실행하는 워크로드에 상관없이 성능과 효율성을 극대화할 수 있다. AWS는 SK텔레콤 등 자사의 고객들이 그래비톤의 탄소 절감 효과를 누리고 있다고 소개했다. AWS는 SK텔레콤의 차세대 AI 네트워크 관리 시스템인 탱고 솔루션 구축에 대규모 데이터 처리와 인공지능 및 머신러닝 워크로드에 최적화된 그래비톤 인스턴스를 제공함으로써, 온프레미스 대비 AWS 워크로드의 탄소배출량을 약 27% 감축하는데 기여했다. 또한, AWS는 자사의 클라우드 인프라가 스타트업, 기업, 헬스케어, 연구, 교육 기관 등 수만 곳의 한국 기업에게 신기술에 대한 접근성을 향상해 국내 비즈니스 생태계의 혁신과 성장을 지원하고 있다고 전했다. 종합에너지그룹 삼천리는 AWS를 활용해 대고객서비스 및 소비자 현장 지원 애플리케이션을 안정적으로 운영하고, 고객탄소발자국 툴(Customer Carbon Footprint Tool)을 통해 IT 운영에 따른 탄소 배출량을 상시 모니터링할 계획이다. AWS는 삼천리가 이번 클라우드 도입으로 향후 5년간 탄소배출량을 약 29.6% 감축할 것으로 기대하고 있다. AWS의 켄 헤이그(Ken Haig) 아시아 태평양 및 일본 에너지 및 환경 정책 총괄은 “전 세계 기업의 IT 지출 중 85%가 온프레미스에 집중된 상황에서, 한국 기업이 AWS상에서 AI 워크로드 최적화를 통해 탄소 배출량을 최대 95% 줄일 수 있다는 것은 지속가능성 측면에서 의미 있는 기회”라고 강조했다. 이어 “지속가능성의 혁신은 한국이 2050년까지 탄소 중립 목표를 달성하는데 중요한 역할을 할 것이며, 전력망에서 재생에너지 비중을 늘리려는 한국의 노력은 AI 워크로드의 탈탄소화를 앞당길 것”이라면서, “AWS는 데이터센터 설계 최적화부터 AI 전용 칩에 대한 투자까지 데이터센터 전반의 지속가능성을 위해 끊임없이 혁신하여 고객의 컴퓨팅 수요를 충족하기 위해 에너지 효율성을 지속적으로 높이고 있다”고 덧붙였다.
작성일 : 2024-09-04
에픽게임즈, ‘언리얼 페스트 2024 서울’ 전체 세션 내용 공개
에픽게임즈 코리아는 ‘언리얼 페스트 2024’의 트랙별 전체 세션 및 세션 상세 내용을 공개했다고 밝혔다. 언리얼 페스트는 에픽게임즈 임직원 및 외부 전문가들이 개발자 및 크리에이터들에게 언리얼 엔진 및 에픽게임즈의 에코시스템을 구성하는 제품들에 대한 최신 기술을 소개하고 혁신적인 리얼타임 3D 인터랙티브 제작 경험을 공유하는 자리다. 8월 28일~29일 서울 잠실의 롯데호텔 월드에서 개최되는 올해 언리얼 페스트는 ‘게임 : 프로그래밍’, ‘게임 : 아트 및 공통’, ‘영화 & TV, 애니메이션, 방송’ 그리고 ‘건축 및 기타’ 등 4개의 산업별 트랙에서 40여 개의 역대 최다 세션이 준비될 예정이다. 코로나 팬데믹 이후 처음으로 전 일정이 모두 오프라인으로 진행되며, 일부 세션은 온라인으로 동시 중계된다.     공개된 세션 내용을 살펴보면, 먼저 게임 트랙에서는 ▲출시와 함께 대량의 아이템 제작 방법과 차세대 콘솔에서 각 아이템을 표현하기 위한 베이킹 프로세스 및 머티리얼 활용법 등 ‘철권 8’의 캐릭터 커스터마이징 개발에 대해 살펴보는 ‘‘철권 8’ 출시와 동시에 12,000개 아이템 공개! 캐릭터 커스터마이징 아이템 제작과 차세대 콘솔 대응 방법’ 세션을 비롯해 ▲시프트업에서 올 상반기 글로벌 흥행에 성공한 ‘스텔라 블레이드’와 관련해 ‘‘스텔라 블레이드’ VFX : 차세대 FX를 위한 나이아가라’, ‘‘스텔라 블레이드’ 화려함과 성능의 조화 : 스타일리시 액션 게임의 전투 시스템, 비주얼, 그리고 최적화' 세션을 진행한다.  ▲크래프톤의 ‘inZOI’ 개발팀에서는 ‘‘inZOI’의 도시 제작과 캐릭터 페이셜 릭’ 세션을 통해 실시간으로 변화하는 ‘inZOI’의 환경에서 실내외 라이팅을 구현한 방법과 나나이트와 인스턴스 스태틱 메시를 사용하여 도시의 디테일을 보존하면서도 쾌적한 플레이가 가능하도록 최적화한 방법 그리고 ‘inZOI’ 개발에 메타휴먼을 활용한 방법 등에 대해 소개한다.  ▲하운드13은 ‘‘드래곤 소드’ : 데디케이티드 서버 최적화와 비용 절감 사례’ 세션을 통해 ‘드래곤 소드’의 안정적인 멀티 플레이를 위해 활용한 언리얼 데디케이티드 서버의 성능 및 네트워크 최적화 방법을 설명한다. 이와 함께 ▲‘나나이트의 여정’ ▲‘서브스트레이트 : 사실적인 재질 표현을 위한 차세대 머티리얼 시스템 알아보기’ ▲‘프로시저럴 콘텐츠 생성 프레임워크(PCG) : 바이옴 코어 플러그인으로 손쉽게 활용하고 최신 기능 이해하기’ ▲‘모션 매칭 : 자연스러운 애니메이션 손쉽게 구현하기’ ▲‘컨트롤 릭과 시퀀서를 활용한 효율적인 애니메이션 워크플로’ 등 언리얼 엔진 5를 대표하는 최신 기능 관련 세션들도 준비돼 있다. 영화 & TV, 애니메이션, 방송 트랙에서는 ▲BTS의 리더 RM의 뮤직비디오 제작 사례를 통해 버추얼 프로덕션의 혁신적인 제작 방식과 과정 등을 살펴보는 ‘RM ‘Come Back to Me’ 시네마틱 뮤직비디오로 살펴보는 버추얼 프로덕션의 혁신적인 콘텐츠 제작 방식’ 세션과 ▲언리얼 엔진의 버추얼 프로덕션 기능을 이용한 제22대 국회의원 선거 개표방송 ‘MBC 선택 2024’ 무대 제작과정에 대해 소개하는 ‘‘MBC 선택 2024’를 통해 알아보는 nDisplay를 활용한 애너모픽 콘텐츠 제작' 세션이 진행된다. 또한 ▲버추얼 아티스트 ‘아뽀키’, ‘오바’, ‘도주’, ‘르샤’의 라이브 방송 경험을 바탕으로 버추얼 캐릭터를 위한 라이브 방송 제작 과정을 소개하는 ‘버추얼 아티스트 ‘아뽀키’의 라이브 방송 시스템’ ▲‘플레이브’ WAY 4 LUV 뮤직비디오의 제작 과정을 룩뎁 아트를 중심으로 살펴보고, 지난 1년 동안의 블래스트 영상 제작 파이프라인의 주요 개선점에 대해 설명하는 ‘‘플레이브’의 WAY 4 LUV 뮤직비디오 제작기’ 등 버추얼 아티스트들에 대한 강연이 진행된다. 이와 함께 ▲언리얼 엔진 5 파이프라인으로 최소한의 인력으로 TV 애니메이션 시리즈 11부작을 제작한 과정을 소개하는 ‘언리얼 엔진 파이프라인이 처음인 회사를 위한 TV 애니메이션 시리즈 제작 과정’ ▲장편 애니메이션 ‘미스터 로봇’을 제작하면서 구축한 제작 파이프라인 및 제작 노하우를 공유하는 ‘‘미스터 로봇’ : 장편 애니메이션 제작 파이프라인과 제작 노하우’ 등 애니메이션 관련 세션들도 진행된다. 에픽게임즈에서는 ▲언리얼 엔진 5.4에 추가된 모션 디자인을 위한 새로운 툴세트인 모션 디자이너의 새롭고 흥미로운 세계를 소개하는 ‘언리얼 엔진 5.4 모션 디자이너’ ▲언리얼 엔진의 최신 업데이트와 시각화, 인카메라 VFX, 포스트 프로덕션 등 언리얼 엔진 5.5의 버추얼 프로덕션 로드맵을 미리 살펴보는 ‘영화&TV, 애니메이션, 방송을 위한 언리얼 엔진 로드맵’ 등의 세션을 준비했다. 건축 및 기타 트랙에서는 ▲트윈모션의 최신 기능을 활용해 건축, 자동차, 제품 디자인 등에서 포토리얼한 시각화를 빠르게 구성하는 방법에 대해 알아보는 ‘트윈모션으로 다양한 산업에서 손쉽게 포토리얼한 시각화 제작하기’ ▲언리얼 엔진 5의 리얼타임 기술을 사용하여 기존 오프라인 렌더러를 사용하던 건축 관련 콘텐츠 제작에서 탈피해 얻는 기술적 장점과 비용 절감 효과에 대해 살펴보는 ‘언리얼 엔진을 활용한 효율적인 건축 콘텐츠 제작 사례’ 세션이 진행된다. ▲언리얼 엔진을 활용한 광범위 도심 디지털 트윈 구현 방법에 대해 살펴보는 ‘언리얼 엔진을 활용한 광역 도심 디지털 트윈 구현과 활용’ ▲탄소중립을 달성하기 위한 혁신적인 건물 에너지 관리 시스템 구축 사례와 이에 활용된 언리얼 엔진의 디지털 트윈 기술에 대해 알아보는 ‘탄소중립을 향한 도전 : 언리얼 엔진 디지털 트윈’ 등 다양한 산업은 물론 일상생활에까지 확장되고 있는 디지털 트윈 관련 세션도 준비돼 있으며, ▲에픽의 에코시스템 제품군을 활용한 디지털 에셋 데이터의 제작과 근현대물 디지털 복원 관련 다양한 사례를 설명하는 ‘트윈모션, 리얼리티캡처를 활용한 근현대물 기록 보존과 활용 사례’와 ▲언리얼 엔진을 활용한 공장과 물류센터 통합관리 서비스와 사례를 살펴보는 ‘AI와 디지털 트윈을 활용한 공장과 물류센터 통합 관리 서비스’ 등의 세션도 진행된다. 이외에도 ▲언리얼 엔진 개발자들이 포트나이트 언리얼 에디터(UEFN)로 쉽게 전환할 수 있도록 그 유사점과 차이점에 대해 살펴보는 ‘언리얼 엔진 개발자를 위한 포트나이트 언리얼 에디터(UEFN)’ ▲직접 경험한 UEFN에서의 성공 사례를 중심으로 2024년부터 대두되고 있는 UGC 산업에 대한 분석과 함께 Watch-Play 크로스 미디어 전략을 공유하는 ‘UGC는 게임 산업의 미래가 될 것인가? UEFN 성공 사례를 중심으로’ ▲UEFN의 툴, 포트나이트 플랫폼 그리고 UGC 성공 사례에 대해 소개하는 ‘UEFN : UEFN 및 포트나이트 에코시스템 소개’ 등 에픽의 에코시스템 기술 중 하나인 포트나이트 언리얼 에디터에 대한 세션도 마련돼 있다.
작성일 : 2024-08-07
언리얼 엔진 5.4 : 비주얼 콘텐츠 제작의 퍼포먼스 . 품질 . 생산성 향상
개발 및 공급 : 에픽게임즈 주요 특징 : 캐릭터 애니메이션을 위한 툴세트 업데이트, 나나이트 연산 머티리얼을 통한 변수 레이트 셰이딩 도입, 렌더링 퍼포먼스 개선 및 셰이더 컴파일 최적화, 파생 데이터 캐시를 위한 클라우드 스토리지 시스템 지원, 분산 컴파일 솔루션인 언리얼 빌드 액셀러레이터 추가 등   ▲ 언리얼 엔진 5.4 기능 하이라이트 영상   언리얼 엔진 5.4가 정식 출시됐다. 이번 버전은 게임 개발자와 모든 산업 분야의 크리에이터를 위해 퍼포먼스, 비주얼 퀄리티, 생산성에 대한 신규 기능과 개선 사항을 제공하며, 에픽게임즈가 ‘포트나이트’ 챕터 5, ‘로켓 레이싱’, ‘포트나이트 페스티벌’, ‘LEGO 포트나이트’를 제작하고 출시하기 위해 내부적으로 사용한 툴세트를 선보였다.   애니메이션 캐릭터 리깅 및 애니메이션 제작 이번 버전에서는 언리얼 엔진의 기본 애니메이션 툴세트가 대폭 업데이트되었다. 더 이상 여러 외부 애플리케이션에서 번거롭게 작업할 필요 없이, 엔진에서 직접 캐릭터를 쉽고 빠르게 리깅하고 애니메이션을 제작할 수 있게 되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   신규 실험 단계 기능인 ‘모듈형 컨트롤 릭’을 활용하면 복잡하고 세분화된 그래프 대신 이해하기 쉬운 모듈형 파트로 애니메이션 릭을 제작할 수 있다. ‘자동 리타기팅’은 이족보행 캐릭터 애니메이션을 재사용할 때 뛰어난 결과물을 더 쉽게 얻을 수 있다. 또한, ‘스켈레탈 에디터’가 확장되고 새로운 디포머 기능 세트들이 추가되어 ‘디포머 그래프’를 더 손쉽게 이용할 수 있다. 애니메이션 제작 측면에서는 애니메이션 툴세트를 보다 직관적이고 강력하게 만드는 동시에 워크플로를 간소화하는 데 중점을 두었다. 새로운 실험단 계 기능인 ‘기즈모’, 개편된 ‘애님 디테일’, ‘컨스트레인트’ 시스템 업그레이드 및 향상, 애님 클립에 애니메이션을 추가하는 과정을 대폭 간소화시켜 주는 신규 기능인 ‘레이어드 컨트롤 릭’ 등을 제공한다. 뿐만 아니라 언리얼 엔진의 비선형 애니메이션 에디터인 ‘시퀀서’는 시퀀서 트리의 다양한 측면에서 가독성과 사용성이 대폭 향상되었다. 이번 버전에 도입된 다른 신규 기능 중에는 ‘키프레임 스크립트’ 방식도 추가되어, 커스텀 애니메이션 툴 제작의 가능성이 열리게 되었다.   애니메이션 게임플레이 이전 버전에서 실험 단계 기능으로 도입되었던 ‘모션 매칭’이 정식 버전이 되었다. 이 기능은 ‘포트나이트 배틀 로얄’에서 철저한 테스트를 거쳐 모바일부터 콘솔까지 모든 플랫폼에서 100개 이상의 캐릭터와 NPC에 적용되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   모션 매칭은 애니메이션 기능을 위한 확장 가능한 차세대 프레임워크이다. 런타임에서 애니메이션 클립을 선택하고 전환하기 위해 복잡한 로직을 사용하는 대신, 게임 내 캐릭터의 현재 모션 정보를 키로 사용하여 상대적으로 큰 규모의 캡처된 애니메이션 데이터베이스를 검색하는 방식을 활용한다. 또한, 이번 버전에서는 언리얼 엔진의 애니메이터 친화적인 툴세트를 강력하고 뛰어난 성능과 메모리 확장이 가능한 툴로 만드는 데 중점을 두었으며, 개발자가 내부에서 일어나는 작업을 파악할 수 있는 디버깅 툴세트를 추가했다. 게임플레이 측면에서도 ‘선택기’를 추가하여, 이제 게임 컨텍스트를 활용해 애니메이션을 선택할 수 있게 되었다. 이 시스템은 변수를 사용해 선택을 알리고, 이 선택에 따라 변수를 설정하여 게임플레이 로직에 다시 정보를 제공할 수 있다.   렌더링 나나이트 언리얼 엔진 5의 가상화된 마이크로폴리곤 지오메트리 시스템인 ‘나나이트(Ninite)’는 원본 메시를 변경하지 않고도 렌더링 시 균열이나 범프 같은 미세한 디테일을 추가할 수 있게 해주는 신규 실험 단계 기능 ‘테셀레이션’을 시작으로 지속적인 향상이 이루어지고 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   나나이트 연산 머티리얼을 통한 ‘변수 레이트 셰이딩(Variable Rate Shading : VRS)’의 도입으로 퍼포먼스가 대폭 향상되었으며, 랜드스케이프에 도로를 생성하는 것과 같은 작업에 유용한 ‘스플라인 메시 워크플로’도 지원된다. 또한, UV 보간을 비활성화하는 신규 옵션을 활용하면 버텍스 애니메이션 텍스처를 월드 포지션 오프셋 애니메이션에 사용할 수 있게 되어, 이제 ‘AnimToTexture’ 플러그인을 나나이트 지오메트리와 함께 사용할 수 있다.   템포럴 슈퍼 해상도 이번 버전에서 ‘템포럴 슈퍼 해상도(Temporal Super Resolution : TSR)’의 안정성과 성능이 향상되어, 타깃 플랫폼에 관계 없이 예측 가능한 결과물을 얻을 수 있게 되었다. 그 중 새로운 히스토리 리저렉션 휴리스틱과 픽셀 애니메이션을 사용하는 머티리얼에 플래그를 지정하는 기능 덕분에 고스팅 현상이 감소되었다. 또한, TSR의 비헤이비어(behavior)를 더 손쉽게 미세조정하고 디버깅할 수 있는 ‘신규 시각화 모드’를 추가했고, 타깃 퍼포먼스에 따라 제어할 수 있도록 엔진 퀄리티 설정에 다양한 신규 옵션도 추가됐다.   렌더링 퍼포먼스 에픽게임즈는 60Hz 경험을 목표로 하는 많은 개발자를 위해 언리얼 엔진 5.4의 렌더링 퍼포먼스 향상에 노력을 기울였다. 이를 통해 더 높은 수준의 병렬화를 지원하기 위한 시스템 리팩터링과 하드웨어 레이 트레이싱에 GPU 인스턴스 컬링이 추가되어, 이제 추가적인 프리미티브 유형과 최적화된 패스 트레이서의 이점을 활용할 수 있게 되었다. 또한, 셰이더 컴파일도 더욱 최적화되어 프로젝트 쿠킹 시간이 눈에 띄게 향상되었다.   무비 렌더 그래프   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   언리얼 엔진 5.4는 단방향 콘텐츠를 제작하는 크리에이터를 위해 무비 렌더 큐에 실험 단계 기능으로 주요 업데이트를 선보였다. ‘무비 렌더 그래프(Movie Render Graph : MRG)’로 불리는 이 신규 노드 기반 아키텍처를 통해 사용자는 단일 샷을 렌더링하는 그래프를 구성하거나, 대규모 아티스트 팀의 경우 복잡한 멀티샷 워크플로 전반에 걸쳐 확장하도록 설계할 수 있다. 그래프는 파이프라인 친화적이며 스튜디오는 파이썬 훅(Python Hook)으로 툴을 제작하고 자동화할 수 있다. MRG에는 ‘렌더 레이어’가 제공되어 전경과 배경 요소를 분리하는 등 포스트 컴포지팅을 위한 고퀄리티 요소를 손쉽게 생성할 수 있으며, 패스 트레이서와 디퍼드 렌더러를 모두 지원한다.   AI 및 머신러닝 신경망 엔진 언리얼 엔진 5.4에는 ‘신경망 엔진(NNE)’이 실험 단계 기능에서 베타 기능으로 업데이트되었다. NNE는 에디터와 런타임 애플리케이션을 모두 지원하며, 개발자는 사전 트레이닝된 신경망 모델을 로드하여 효율적으로 실행할 수 있다. 사용 예시로는 툴링, 애니메이션, 렌더링, 피직스 등이 있으며, 이들은 플랫폼 및 모델 지원별로 각기 다른 요구사항을 갖추고 있다. NNE는 필요에 따라 백엔드를 쉽게 교체할 수 있도록 공통 API를 제공하여 이러한 다양한 요구사항을 해결한다. 또한, 서드파티 개발자가 플러그인에서 NNE 인터페이스를 구현할 수 있도록 확장성 훅 역시 제공된다.   개발자 반복 작업 클라우드 및 로컬 파생 데이터 캐시 이번 출시를 통해 새롭게 선보이는 ‘언리얼 클라우드 DDC’는 언리얼 엔진 파생 데이터 캐시(DDC)를 위한 자체 호스팅 클라우드 스토리지 시스템이다. 여러 장소에 분산된 사용자와 팀을 위해 설계된 이 기능을 사용하면, 공용 네트워크 연결을 통해 언리얼 엔진 캐시 데이터를 효율적으로 공유할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   유지보수가 용이하고 안정적이며 접근성이 뛰어난 이 솔루션은 여러 지역에 걸쳐 언리얼 클라우드 DDC로 호스팅되는 엔드포인트 간에 데이터를 자동으로 복제하여, 사용자가 언제나 가장 가까운 엔드포인트에 접속할 수 있도록 지원한다. OIDC 로그인 및 인증으로 보호되는 이 시스템은 에픽게임즈의 AWS를 통해 실전 검증을 마쳤으며, 애저(Azure)에 대한 디플로이 가이드라인을 함께 제공한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   또한, 이번 버전에서는 새로운 ‘언리얼 Zen Storage’ 서버 아키텍처를 사용하여 로컬 DDC가 향상되었다. 이를 통해 데이터 컨디셔닝 퍼포먼스가 향상된 것은 물론, 에디터 로드 시간이 더욱 빨라졌다. 또한, 에디터에서 플레이(PIE) 워크플로가 제공되며 캐시 쓰기, 제거, 데이터 복제 방지를 더욱 효과적으로 제어할 수 있다.   멀티 프로세스 쿡 언리얼 엔진 5.3에 베타 기능으로 도입되었던 ‘멀티 프로세스 쿡’이 이제 정식 버전으로 제공된다. 이 기능을 통해 개발자는 콘텐츠를 내부 UE 포맷에서 플랫폼별 포맷으로 변환할 때 추가 CPU 및 메모리 리소스를 활용할 수 있어, 빌드 팜 서버 또는 로컬 워크스테이션에서 쿠킹된 결과물을 얻는 데 걸리는 시간을 크게 줄일 수 있다.   언리얼 빌드 액셀러레이터 이번 버전에서 새롭게 선보이는 ‘언리얼 빌드 액셀러레이터(Unreal Build Accelerator : UBA)’는 C++를 위한 확장 가능한 분산 컴파일 솔루션으로, 언리얼 빌드 툴 및/또는 언리얼 호드의 원격 실행(연산 작업) 시스템과 함께 빌드 컴파일 시간을 단축하는 데 사용된다. 현재 베타 기능인 UBA는 이번 버전에서 C++ 컴파일 작업을 위한 윈도우 OS를 지원하며, 네이티브 맥OS 및 리눅스 지원은 프로세스 유휴 감지 및 셰이더 컴파일과 함께 실험 단계로 제공된다.   미디어 및 엔터테인먼트 모션 그래픽 언리얼 엔진 5.4는 복잡한 2D 모션 그래픽 제작용 전문 툴로 구성된 새로운 ‘모션 디자인 모드’를 실험 단계 기능으로 선보였다. 주요 방송사의 프로덕션 테스트와 피드백을 바탕으로 개발된 이 기능은 모션 디자이너에게 향상된 사용자 경험과 지속적인 생산성을 제공하고자 설계되었으며, 3D 클로너, 이펙터, 모디파이어, 애니메이터 등을 포함한 포괄적인 툴세트를 제공한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   버추얼 프로덕션 버추얼 프로덕션을 도입하는 영화 제작자들은 이제 정식 버전으로 제공되는 언리얼 엔진의 버추얼 카메라 툴에서 이루어진 업데이트와 함께 기존 iOS 플랫폼은 물론 이제 안드로이드까지 지원되어 많은 혜택을 누릴 수 있게 되었다. 또한, 맥OS용 언리얼 엔진에서도 버추얼 카메라 워크플로가 완전히 지원된다. 이 모바일 애플리케이션은 ‘언리얼 VCam’이라는 새로운 이름으로 애플 앱 스토어 및 구글 플레이에서 다운로드할 수 있다. VR 스카우팅에서는 ‘XR 크리에이티브 프레임워크’를 활용하는 완전히 커스터마이징이 가능한 새로운 툴키트를 실험 단계 기능으로 선보였다. 이를 통해 오큘러스(Oculus)와 밸브 인덱스(Valve Index) 등의 OpenXR HMD를 지원하여 기존 버추얼 스카우팅 툴키트보다 대폭 향상된 사용자 경험을 제공한다.  ICVFX의 경우, 새로운 ‘뎁스 오브 필드’ 보정 기능을 통해 nDisplay로 렌더링된 디지털 콘텐츠의 DOF 감쇠량을 영화 카메라에 보이는 대로 정확히 제어할 수 있어, 더 나은 클로즈업 뷰티 샷을 얻을 수 있게 되었다. 또한, ‘멀티 프로세스 내부 프러스텀’을 추가하여 영화 카메라로 보이는 장면을 더 많은 GPU와 하드웨어 리소스로 분할 렌더링할 수 있으며, SMPTE 2110 지원에 대한 다양한 안정성 및 개선 사항을 추가했다.    리눅스 지원 리눅스를 사용하는 스튜디오도 해당 플랫폼에서 향상된 에디터 안정성을 경험할 수 있으며, 실험 단계로 제공되는 벌칸(Vulkan) 레이 트레이싱 지원을 통해 많은 이점을 누릴 수 있다.   의상 시뮬레이션 USD 임포터 패널 클로스 에디터에 새로운 USD 임포터가 추가되면서, ‘Marvelous Designer’ 또는 ‘CLO’에서 의상과 시뮬레이션 파라미터를 임포트하여 단 몇 분 만에 실시간으로 시뮬레이션을 구성할 수 있게 되었다. 자동 시뮬레이션 그래프 설정, 스키닝, 레벨 오브 디테일(LOD) 생성 기능과 함께 이 새로운 워크플로를 사용하면 관련 경험이 없는 사용자도 언리얼 엔진 캐릭터의 사실적인 의상을 제작할 수 있도록 지원한다.   그 외 개선 사항 언리얼 엔진 5.4의 신규 기능과 향상된 기능 관련한 전체 내용을 확인하려면 출시 노트를 참고하면 된다. 언리얼 엔진 5.4 출시 노트 : https://dev.epicgames.com/documentation/ko-kr/unreal-engine/unreal-engine-5.4-release-notes   비게임 분야를 위한 새로운 가격 모델 출시 에픽게임즈는 2023년 미국 뉴올리언스에서 열린 ‘언리얼 페스트’에서 2024년부터 일반 산업 분야를 위한 시트 기반의 엔터프라이즈 소프트웨어 가격 모델을 제공하겠다고 발표한 바 있다. 이번 언리얼 엔진 5.4 출시와 함께 에픽게임즈는 비게임 분야를 위한 새로운 시트 기반의 언리얼 구독 플랜을 출시했다. 가격 변경 사항은 언리얼 엔진 5.3 또는 그 이전 버전을 사용하는 신규 또는 기존 사용자에게는 적용되지 않으며, 5.4 버전 이상을 사용할 사용자에게만 적용된다. 각 시트는 언리얼 엔진 5.4 및 구독 기간 동안 출시되는 후속 버전과 함께 언리얼 엔진과 호환되는 창작 툴인 ‘트윈모션(Twinmotion)’과 ‘리얼리티캡처(RealityCapture)’까지 세 개 제품을 한 명의 사용자가 이용할 수 있도록 제공된다. 또한, 세 개의 제품을 모두 사용할 수 있는 30일 무료 체험판도 제공된다. 보다 더 자세한 내용은 언리얼 엔진 홈페이지에서 확인할 수 있다. 한편, 이번 언리얼 엔진 5.4 출시를 기점으로 트윈모션과 리얼리티캡처도 이제 학생, 교육자, 개인 사용자 그리고 회사의 연간 총매출이 100만 달러 미만인 경우 모두 무료로 사용할 수 있다. 에픽게임즈는 다양한 산업 분야의 팀들이 고퀄리티 3D 경험을 효율적으로 제작할 수 있도록 트윈모션과 리얼리티캡처를 구독 플랜에 포함하여 제공하며, 2025년 말까지 두 제품을 언리얼 엔진에 완전히 통합할 계획이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-06-03