• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "인스턴스"에 대한 통합 검색 내용이 118개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔-AWS, 제온 6 프로세서 기반 EC2 인스턴스 출시
인텔은 클라우드 환경에서 동급 인텔 프로세서 중 가장 높은 성능과 가장 빠른 메모리 대역폭을 제공하는 P-코어를 탑재한 인텔 제온 6 프로세서(Intel Xeon 6 processors with P-cores) 기반의 신규 EC2(Amazon Elastic Compute Cloud) R8i 및 R8I-플렉스 인스턴스를 아마존웹서비스(AWS)에서 출시한다고 밝혔다. 이번 새로운 인스턴스는 인텔과 AWS 간 수년간 협력을 바탕으로, 확장성, 비용 효율성 및 고성능 클라우드 인프라를 추구하는 고객에게 최신 실리콘 혁신과 밀접하게 통합된 소프트웨어 최적화를 제공한다. 기업의 실시간 데이터 처리, 인공지능(AI), 컴플라이언스 집약적인 워크로드 활용이 점점 늘어남에 따라, 유연한 고성능 클라우드 인프라에 대한 필요도가 더 높아졌다. 인텔은 제온 6 프로세서가 전문적인 가속기에 대한 의존도를 최소화하면서 유연한 다목적 컴퓨팅 플랫폼을 제공하며, 다양한 활용 사례에 대한 배포 및 관리를 간소화해준다고 설명했다.     새로운 제온 6 기반 인스턴스의 주요 특징은 ▲고집적도 컴퓨팅 ▲ 클라우드 상에서 가장 빠른 DDR5 지원 ▲ 내장형 AI 가속 ▲인텔 QAT(QuickAssist Technology) 등이다. 제온 6는 재설계된 코어 아키텍처와 향상된 파이프라인, 더 많은 코어 수를 통해 성능과 스레드 확장성을 향상시켰다. 이를 통해 AWS는 최대 96xlarge와 같은 대규모 인스턴스 크기를 제공해 고객이 워크로드에 필요한 컴퓨팅 자원을 더욱 높은 집적도로 활용할 수 있도록 지원한다. 신규 인스턴스는 DDR5 메모리 속도 최대 7200 MT/s를 지원하며 분석, 머신러닝(ML), 인메모리 데이터베이스에 적합한 고대역폭 메모리 및 낮은 지연 시간을 제공한다. 또한, 인텔 AMX(Intel Advanced Matrix Extensions)를 통합해 AI 추론 및 머신러닝 성능을 최대 2배 향상시키며, 외부 가속기 사용 필요성을 줄이고 배포를 간편하게 한다. 이외에도 하드웨어 가속화된 암호화 및 압축을 지원하여 CPU 리소스를 절감하고, 금융, 의료, 공공 애플리케이션 등 보안에 민감하거나 규제 대상인 워크로드 성능을 향상시킨다. 인텔은 프로세서 마이크로아키텍처와 펌웨어 튜닝부터 하이퍼바이저 튜닝, 가상화, 소프트웨어 프레임워크에 이르기까지 스택(stack)의 모든 계층을 아우르는 최적화를 진행했다. 고객들은 이러한 통합을 통해 AWS의 글로벌 인프라 전역에서 제온 6의 성능을 최대한 활용할 수 있다. 인텔은 이번 협력으로 AWS 및 더 광범위한 클라우드 생태계에서 핵심 기술 제공 기업으로서의 입지를 강화할 수 있을 것으로 기대하고 있다. 개발자, 데이터 사이언티스트, IT 리더들이 보다 빠르고 효율적으로 혁신하고, 규모를 확장하며, 서비스를 배포할 수 있도록 지원하겠다는 것이다. AWS의 니샨트 메타(Nishant Mehta) EC2 제품 관리 부사장은 “고객들은 가장 요구도가 높은 워크로드 속도에 맞춘 인프라가 필요하다”면서, “인텔과의 협력을 통해 새로운 아마존 EC2 R8i 및 R8i-플렉스 인스턴스는 전 세대 대비 메모리 대역폭은 2.5배 더 향상되었고 가격 대비 성능은 15% 더 우수하다. 이는 고객이 성능을 극대화하면서 비용을 절감할 수 있도록 지원하는 혁신”이라고 말했다. 인텔의 로낙 싱할(Ronak Singhal) 선임 펠로우는 “인텔 제온 6 프로세서로 구동되는 8세대 EC2 인스턴스 출시는 AWS와의 협업에서 중요한 이정표”라며, “인텔과 AWS는 AI 가속화, 메모리 성능 향상, 쉬운 배포를 통해 고객이 인사이트를 빠르게 얻고 강력한 투자수익률(ROI)을 달성할 수 있도록 지원하는 인프라를 함께 구축했다”고 밝혔다.
작성일 : 2025-08-22
오라클, AI 훈련 및 추론에 OCI 활용한 혁신 기업 사례 소개 
오라클은 전 세계 AI 혁신 기업이 AI 모델의 훈련 및 AI 추론과 애플리케이션 배포를 위해 오라클 클라우드 인프라스트럭처 AI 인프라스트럭처(OCI AI Infrastructure)와 OCI 슈퍼클러스터(OCI Supercluster)를 활용하고 있다고 밝혔다. “파이어웍스AI(Fireworks AI), 헤드라(Hedra), 누멘타(Numenta), 소니옥스(Soniox)를 비롯해 수백 개의 선도적인 AI 혁신 기업이 AI 워크로드 실행 위치에 대한 제어, 컴퓨트 인스턴스 선택권, 확장성, 고성능, 비용 효율성 등의 이유로 OCI를 선택하고 있다”는 것이 오라클의 설명이다. 산업 전반에서 AI 도입이 빠르게 확산됨에 따라, AI 기업들은 신속하고 경제적인 GPU 인스턴스 확장을 지원하는 안전하고 검증된 고가용성 클라우드 및 AI 인프라를 필요로 한다. AI 기업들은 OCI AI 인프라스트럭처를 통해 AI 훈련 및 추론, 디지털 트윈, 대규모 병렬 HPC 애플리케이션 등에 필요한 고성능 GPU 클러스터와 확장성 높은 컴퓨팅 파워에 접근할 수 있다.     파이어웍스 AI는 텍스트와 이미지, 오디오, 임베딩, 멀티모달 형식의 100개 이상의 최첨단 오픈 모델을 서비스하는 고성능 생성형 AI 애플리케이션 플랫폼으로, 개발자와 기업이 최적화된 생성형 AI 애플리케이션을 구축할 수 있도록 지원한다. 파이어웍스 AI는 엔비디아 호퍼(NVIDIA Hopper) GPU로 가속화된 OCI 컴퓨트(OCI Compute) 베어메탈 인스턴스와 AMD MI300X GPU를 탑재한 OCI 컴퓨트를 활용해 플랫폼에서 매일 2조 건 이상의 추론 토큰을 처리하고 글로벌 서비스 확장을 지원한다. 헤드라는 AI 기반 영상 생성전문 회사로, 사용자가 생생한 캐릭터 영상을 제작할 수 있도록 지원한다. 헤드라는 엔비디아 호퍼 GPU로 가속화된 OCI 컴퓨트 베어메탈 인스턴스에서 생성형 이미지, 영상, 오디오를 위한 멀티모달 기반 모델을 배포함으로써 GPU 비용 절감, 훈련 속도 향상, 모델 반복 시간 단축에 성공했다. 누멘타는 딥러닝 시스템의 성능과 효율성을 극대화하는 데 집중하는 AI 전문 기술회사다. 누멘타는 엔비디아 GPU로 가속화된 OCI 컴퓨트 베어메탈 인스턴스를 활용함으로써 고성능의 검증된 훈련 인스턴스에 접근할 수 있게 되었으며, 더 빨라진 훈련 속도 및 증가한 학습 사이클을 경험했다. 소니옥스는 오디오 및 음성 AI 분야 선도 회사로, 오디오, 음성, 언어 이해를 위한 기초 AI 모델을 개발하고 있다. 소니옥스는 OCI 상에서 다국어 음성 인식 AI 모델을 구동하며, 엔비디아 호퍼 GPU 기반 OCI 컴퓨트 베어메탈 인스턴스를 활용해 60개 언어의 음성을 실시간으로 정확하게 인식하고 이해할 수 있도록 학습했다. 오라클의 크리스 간돌포(Chris Gandolfo) OCI 및 AI 부문 수석 부사장은 “OCI는 다양한 규모의 훈련 및 추론 요구사항을 충족시켜 주며, AI 혁신 기업들이 선호하는 클라우드 플랫폼으로 빠르게 자리매김했다”면서, “OCI AI 인프라스트럭처는 초고속 네트워크, 최적화된 스토리지, 최첨단 GPU를 제공하여 AI 기업의 차세대 혁신을 돕는다”고 강조했다.
작성일 : 2025-07-17
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
언리얼 엔진 5.6 : 더욱 빠르고 스마트한 시각화 콘텐츠 제작 지원
개발 및 공급 : 에픽게임즈 주요 특징 : 60FPS의 고퀄리티 대규모 오픈 월드 제작 지원, 애니메이션 및 리깅 워크플로 향상, 엔진 내에서 메타휴먼의 직접 제작 지원, 워크플로 향상을 위한 UI/UX 간소화, 시네마틱 및 퍼포먼스 캡처 워크플로 향상 등   언리얼 엔진(Unreal Engine)의 최신 버전인 언리얼 엔진 5.6이 출시됐다. 이번 출시의 주요 목표 중 하나는 현세대 하드웨어에서 60FPS로 부드럽게 실행되는 초고퀄리티의 대규모 오픈 월드를 제작할 수 있도록 지원하는 것이다. 또한 애니메이션 및 리깅 워크플로를 궁극적으로 엔진 중심으로 발전시켜, 외부 DCC 툴을 오가는 번거로움을 줄였으며, 메타휴먼도 직접 엔진에서 완전히 제작할 수 있어 보다 간결하고 효율적인 창작이 가능해졌다. 이 외에도, 필수 툴에 더 빠르게 접근할 수 있고, 더 나은 애셋 정리를 위한 기능을 제공하며, 프로시저럴 및 버추얼 프로덕션 툴세트도 대폭 업데이트되어 더 빠른 제작을 지원하는 등 언리얼 엔진 5.6은 더 빠르고 스마트하게 작업할 수 있도록 다양한 향상된 기능을 제공한다.   ▲ 참고 이미지 : 언리얼 엔진 5.6 기능 하이라이트   강력한 고퀄리티의 60FPS 오픈 월드 언리얼 엔진 5.6은 현세대 콘솔, 고사양 PC, 최신 모바일 디바이스에서 60FPS의 일관되게 렌더링되는 게임을 개발하고 출시하는 데 필요한 최적화된 툴세트를 제공한다.   ▲ 이미지 출처 : ‘더 위쳐 4’ 언리얼 엔진 5 테크 데모(CD PROJEKT RED)   하드웨어 레이 트레이싱(HWRT) 시스템 향상으로 루멘 글로벌 일루미네이션의 성능이 한층 더 향상됐다. 주요 CPU 병목 현상을 제거하여 더 복잡한 신(scene)도 60FPS의 매끄러운 프레임 속도를 유지할 수 있다.   ▲ 이미지 출처 : ‘더 위쳐 4’ 언리얼 엔진 5 테크 데모(CD PROJEKT RED)   또한, 런타임 시 스태틱 콘텐츠를 스트리밍할 때 전반적인 언리얼 엔진의 성능도 향상됐다. 패스트 지오메트리 스트리밍 플러그인(실험 단계)을 사용하면 변하지 않는 대량의 스태틱 지오메트리를 더 많이 포함한 월드도 일정한 프레임 속도로 더 빠르게 로드할 수 있으며, 비동기 피직스 스테이트 생성 및 제거 등 콘텐츠 스트리밍의 향상된 기능을 통해 모든 프로젝트에서 이점을 함께 누릴 수 있다. 60FPS 환경과 최신 콘솔 및 데스크톱 플랫폼에 맞춰 최적화된 디바이스 프로파일도 업데이트돼, 이를 통해 목표로 하는 성능을 달성하고, 설정을 최소화하며, 플레이어에게 보다 매끄러운 고퀄리티의 게임을 제공할 수 있다.   ▲ 참고 이미지 : UE 5.6 패스트 지오메트리 스트리밍   가속화된 애니메이션 제작 이번 버전에서는 에디터 내 애니메이션 툴세트의 대규모 업데이트를 통해 더 빠르고 정확하며 제어가 가능한 애니메이션을 제작할 수 있도록 지원한다. 완전히 새롭게 재편된 모션 트레일을 사용하면 애니메이션을 시각적이고 직관적인 방식으로 편집할 수 있다. 이제 액터와 캐릭터 제어 기능이 통합되어 뷰포트에서 대상 애니메이션의 궤적과 간격을 직접 조정할 수 있으며, 점선(Dashed), 시간 기반(Timebased), 속도/분포(Heat/Speed) 모드 등 다양한 스타일을 선택할 수 있고 핀 고정, 오프셋, 스페이스 등의 기능을 통해 보다 정밀한 작업을 할 수 있다.   ▲ 참고 이미지 : UE 5.6 모션 트레일   트윈 툴도 새롭게 개편되어, 컨트롤 또는 선택한 키에 대한 애니메이션을 더 빠르고 세밀하게 조정할 수 있다. 또한 새로운 단축키가 추가되어 슬라이더를 간접적으로 조정할 수 있고, 다양한 슬라이더 유형 간 전환 및 오버슈트 모드로 전환할 수 있으며, 새로운 타임 오프셋 슬라이더의 추가로 더 정밀하게 애니메이션을 생성하고 편집할 수 있다.   ▲ 참고 이미지 : UE 5.6 트윈 툴   커브 에디터 툴바도 속도와 성능을 위해 새롭게 디자인했는데, 키프레임을 더 쉽게 조작할 수 있도록, 아이콘이 간소화되고 통합되었으며, 새로운 트윈 툴이 커브 에디터 인터페이스에 직접 탑재되어 더 빠르게 사용할 수 있다. 여기에 새로운 래티스 툴과 스마트 키 스냅 기능도 추가되어 더 많은 키프레임 데이터를 더 효과적으로 조정할 수 있게 됐다.   ▲ 참고 이미지 : UE 5.6 커브 에디터   최신 시퀀서 업데이트를 통해 타임라인을 더욱 정밀하게 제어할 수 있다. 새로운 시퀀서 내비게이션 툴을 사용하면 복잡한 계층구조를 탐색할 수 있으며, 실시간 오디오 스크러빙 기능으로 애니메이션, 대화, 이펙트를 정확하게 동기화할 수 있다. 또한 현지화된 오디오를 기반으로 스케일을 상대적으로 조정(실험 단계)할 수 있는 기능도 추가되어, 다양한 언어의 타이밍에 맞춰 시퀀스를 조정할 수 있다. 에디터 내에서 더 많은 리깅 워크플로를 지원하기 위해 새로운 실험 기능도 추가됐다. 스켈레탈 메시 에디터를 사용하면 에디터 내에서 직접 모프 타깃을 만들고 스컬프팅할 수 있다.(실험 단계) 이 기능은 언리얼 엔진의 기본 모델링 툴을 활용해, 기존 모프 타깃을 손쉽게 수정하고 PIE(에디터에서 실행 중인 상태) 중에도 블렌드 셰이프를 스컬프팅할 수 있다.   ▲ 참고 이미지 : UE 5.6 모프 셰이프 스컬프팅   또한, 컨트롤 릭 피직스(실험 단계)를 통해 디지털 애니메이션에 뛰어난 사실감을 더할 수 있다. 캐릭터 릭에 프로시저럴 피직스 모션을 손쉽게 추가하여 더욱 역동적인 애니메이션을 구현할 수 있으며, 이와 함께 캐릭터 릭 내에 새로운 래그돌 피직스가 실험 기능으로 추가되어 보다 자연스럽게 반응하는 애니메이션을 제작할 수 있다.   ▲ 이미지 출처 : ‘더 위쳐 4’ 언리얼 엔진 5 테크 데모(CD PROJEKT RED)   엔진 내에서 메타휴먼 제작 이제 메타휴먼 크리에이터가 언리얼 엔진에 완전히 통합되어 다양한 향상된 기능을 제공하며, 메타휴먼 애니메이터 역시 많은 향상된 기능을 제공한다. 메타휴먼 크리에이터에서 이제 얼굴과 마찬가지로 거의 무한대로 사실적인 체형을 생성할 수 있으며, 새로운 언리얼 엔진 의상 애셋을 통해 메타휴먼에 맞게 자동으로 크기가 조정되는 의상을 만들 수 있다. 또한 메타휴먼 데이터베이스에 페이스와 보디에 대한 실제 스캔 데이터가 대폭 추가되어 더 다양한 고퀄리티의 캐릭터를 제작할 수 있다.   ▲ 참고 이미지 : UE 5.6 메타휴먼   메타휴먼 애니메이터의 경우 이제 대부분의 웹캠, 스마트폰, 오디오에서 배우의 연기를 실시간으로 캡처할 수 있는 기능을 지원한다. 이제 메타휴먼을 어떤 엔진이나 크리에이티브 소프트웨어에서도 사용할 수 있도록 UE EULA에 새로운 라이선스 옵션이 추가됐다.(더 자세한 내용은 메타휴먼 웹사이트 참고) 또한 DCC용 신규 플러그인과 팹 마켓플레이스와의 통합 등 에코시스템도 더욱 확장된다. 메타휴먼의 새롭게 향상된 기능에 대해 자세한 내용은 메타휴먼 블로그에서 확인할 수 있다.   ▲ 참고 이미지 : UE 5.6 간소화된 UX/UI 경험   간소화된 UX/UI 경험 더 빠른 워크플로, 더 스마트한 콘텐츠 구성, 효율을 유지하는 데 필요한 툴과 설정에 더 빠르게 접근할 수 있도록 에디터가 업데이트됐다. 콘텐츠 브라우저를 새롭게 디자인해 애셋 정리와 탐색이 훨씬 쉬워졌으며, 섬네일 크기를 더 매끄럽게 조정할 수 있고, 가로 및 세로 방향 전환을 모두 원활하게 지원한다. 뷰포트 툴바의 섹션 메뉴와 퀵 액세스 컨트롤 기능이 개편되어 필수 툴을 더 빠르게 활용할 수 있다. 툴바는 이제 상황에 맞춰 동적으로 크기가 조정되며, 선택 및 모델링 모드를 위한 전용 제어 기능이 제공되고, 애셋 에디터 전반에 걸쳐 일관된 디자인을 제공한다.   ▲ 참고 이미지 : UE 5.6 향상된 개발자 반복 작업   향상된 개발자 반복 작업 이제 신속한 반복 작업을 위해 설계된 개발자 툴을 사용하면 워크플로를 가속화하고, 타깃 플랫폼 및 디바이스에 더 빠르게 콘텐츠를 제공할 수 있다. 프로젝트 런처 UI(베타)가 사용자 편의성과 효율성을 향상하기 위해 완전히 재설계되어 디바이스 실행 프로파일을 보다 빠르게 생성하고 관리할 수 있으며, 간소화된 인터페이스를 통해 빌드, 쿠킹, 디바이스 배포 구성을 빠르게 설정할 수 있다. 젠 스트리밍이 이제 베타로 전환됐다. 이 기능은 전체 패키지 빌드 및 배포 복사/설치와 같은 시간이 많이 소요되는 단계를 제거하고, 타깃 플랫폼에서 콘텐츠 반복작업 및 테스팅을 간소화하여 생산성을 높인다. 점진적 쿠킹(실험 단계)은 애셋 변경 사항을 분석하고 업데이트된 부분만 쿠킹해 시간을 단축시켜 주므로, 타깃 디바이스에서 더 빠르게 반복작업할 수 있다.   프로시저럴 툴을 통한 더 빠른 월드 제작 더욱 강력해진 PCG 프레임워크를 통해 효율적으로 월드를 제작하고 복잡한 신을 관리할 수 있으며, GPU 기반의 성능이 향상됐다. 노드 그래프 UX(베타)가 인라인 상수를 지원하도록 업데이트되어 요소를 생성, 드래그 앤 드롭, 조작하는 것이 간편해졌으며, 새로운 3D 뷰포트(베타)로 뷰포트에서 직접 포인트, 텍스처, 메시를 미리 볼 수 있다. 또한 노드 필터링 기능이 있는 맞춤형 그래프 템플릿이 추가되어 워크플로를 간소화하고 상황에 맞춰 더 빠르게 반복작업을 할 수 있다. GPU(베타) 성능이 크게 개선되어 특히 밀도가 높고 복잡한 신에서 인스턴스를 처리할 때 안정성이 크게 향상됐다. CPU 오버헤드를 줄인 덕분에 시스템은 런타임 시 GPU 기반 스폰을 더 부드럽고 효율적으로 처리할 수 있어, 인스턴스 작업 시 더욱 뛰어난 유연성과 정밀성을 제공한다. 전반적인 PCG 성능(베타)도 멀티스레딩 지원으로 향상됐다. 이로써 시스템은 작업을 여러 코어에 보다 효율적으로 분산시켜 더 빠른 처리와 원활한 상호작용을 제공하며, 특히 복잡하거나 대규모 환경에서 더 빠른 반응 속도를 경험할 수 있다. 마지막으로, PCG 바이옴 코어 v2(Biome Core v2) 플러그인을 사용하면 바이옴(실험 단계)을 더 빠르고 직관적으로 생성하고 업데이트할 수 있다. 바이옴별 블렌딩과 바이옴 레이어링과 같은 새로운 기능이 추가되어, 더욱 풍부하고 자연스러운 생물 환경을 보다 효율적으로 구축할 수 있다.   ▲ 이미지 출처 : ‘더 위쳐 4’ 언리얼 엔진 5 테크 데모(CD PROJEKT RED)   향상된 시네마틱 및 퍼포먼스 캡처 워크플로 새롭게 통합된 툴세트를 통해 간소화된 퍼포먼스 캡처 및 시네마틱 렌더링 등 제작 파이프라인 전반을 효과적으로 제어할 수 있게 됐다. 모캡 매니저(실험 단계)는 언리얼 에디터 내에서 퍼포먼스 캡처 데이터를 시각화하고 녹화하며 관리할 수 있는 새로운 통합 설루션이다. 애셋 관리, 모캡 스테이지 설정, 연기자/캐릭터 구성, 라이브 링크 데이터 미리보기 등 다양한 기능을 제공하여 팀의 제작 속도를 높여준다.   ▲ 참고 이미지 : 모캡 매니저   캡처 매니저(실험 단계)가 라이브 링크 허브와 통합되어, 모바일 디바이스, 비디오 파일, 스테레오 헤드 마운트 카메라(HMC)에서 메타휴먼 테이크를 가져와 정밀하게 처리할 수 있다. 이를 통해 언리얼 엔진 및 메타휴먼 에코시스템 전반에서 서드파티의 페이셜 캡처 시스템과 함께 다양한 페이셜 퍼포먼스 데이터를 손쉽게 관리하고 배포할 수 있다. 시네마틱 부문에서는 새로운 파이프라인 친화적인 시네마틱 어셈블리 툴세트(CAT, 실험 단계)가 출시됐다. 이 툴세트에는 전환 가능한 프로젝트 구성, 커스터마이징 가능한 네이밍 토큰, 재사용 가능한 시네마틱 템플릿 등 수많은 기능이 포함되어 있으며, 테이크 레코더 및 무비 렌더 큐와 같은 기존 통합 툴과 함께 작동하여 샷 관리 파이프라인을 처음부터 끝까지 효율적으로 관리할 수 있다. 마지막으로, 새로운 퀵 렌더(베타) 기능으로 렌더링 워크플로가 더욱 빨라진다. 무비 렌더 그래프에 정의된 설정을 사용하여 단 한 번의 클릭으로 뷰포트와 선택한 카메라에서 스틸 이미지와 시퀀스를 렌더링 및 저장할 수 있다. 이외에도 언리얼 엔진 5.6 출시 노트를 통해 신규 기능과 향상된 기능 관련한 전체 내용을 확인할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다. 
작성일 : 2025-07-01
에픽게임즈, 언리얼 엔진 5.6 출시
에픽게임즈는 다양한 툴세트와 기능을 새롭게 추가한 언리얼 엔진의 신규 업데이트 ‘언리얼 엔진 5.6’을 정식 출시했다고 발표했다. 이번 언리얼 엔진 5.6 업데이트는 ▲고퀄리티의 60FPS 오픈 월드 ▲더 빠른 애니메이션 제작 ▲언리얼 엔진에 통합된 메타휴먼 크리에이터 ▲간소화된 UX/UI 경험 ▲개발자 반복 작업 향상 ▲더 빠른 월드 제작을 위한 프로시저럴 툴 ▲향상된 시네마틱 및 퍼포먼스 캡처 워크플로 등에서 새로운 기능을 추가하고, 기존 기능을 향상시켰다. 언리얼 엔진 5.6은 고퀄리티의 60FPS 오픈 월드 구현을 위해 고사양 PC, 최신 콘솔, 모바일 디바이스에서 60FPS의 일관된 렌더링이 구현되는 게임을 개발하고 출시하는 데 필요한 최적화된 툴세트를 제공한다. 특히 ‘하드웨어 레이 트레이싱(HWRT)’ 시스템 개선으로 글로벌 일루미네이션 및 리플렉션 기술인 ‘루멘’의 성능이 향상되었으며, CPU 병목 현상을 제거해 더욱 복잡한 신(scene)도 60FPS의 프레임 속도를 유지할 수 있다. 또한, 새롭게 선보이는 기능인 ‘패스트 지오메트리 스트리밍 플러그인’을 통해 대량의 스태틱 지오메트리를 포함한 월드도 일정한 프레임 속도로 빠르게 로드할 수 있다. 비동기 피직스 스테이트 생성 및 제거 등 콘텐츠 스트리밍 기능 또한 향상되었다.     더 빠른 애니메이션 제작 부분에서는 보다 직관적이고 정확하게 제어 가능한 에디터 내 툴세트를 지원하기 위해 대대적인 업데이트가 이루어졌다. 완전히 재설계된 ‘모션 트레일’을 통해 액터와 캐릭터 제어 기능이 새롭게 통합되면서 뷰포트에서 애니메이션의 궤적과 간격을 직접 조정할 수 있다. 또한 ‘점선’, ‘시간 기반’, ‘속도/분포’ 모드 등 다양한 스타일과 ‘핀 고정’, ‘오프셋’, ‘스페이스’ 등의 기능을 통해 보다 정밀하게 애니메이션을 제어할 수 있다. ‘트윈 툴’도 새롭게 개편되어 컨트롤하거나 선택한 키에 대한 애니메이션을 더 빠르고 세밀하게 조정할 수 있게 되었으며, 새로운 단축키와 ‘오버슈트’, ‘타임 오프셋 슬라이더’ 등이 추가되어 사용자 편의성과 사용성 또한 향상되었다. 시퀀서 또한 업데이트되어 새로운 시퀀서 내비게이션 툴을 사용하면 복잡한 계층구조를 쉽게 탐색할 수 있으며, 실시간 오디오 스크러빙 기능으로 애니메이션, 대화, 이펙트 등을 정확하게 동기화하고 현지화된 오디오를 기반해 다양한 언어의 타이밍에 맞춰 시퀀스를 조정할 수 있다. 마지막으로, 실험 단계 기능으로 ‘스켈레탈 메시 에디터’ 내에서 모프 타깃을 만들고 스컬프팅할 수 있으며, ‘컨트롤 릭 피직스’를 통해 캐릭터 릭에 프로시저럴 피직스 모션을 손쉽게 추가하거나 ‘래그돌 피직스’ 기능으로 보다 사실감 있는 캐릭터 애니메이션을 구현할 수 있다. 메타휴먼 부분에서는 ‘메타휴먼 크리에이터’가 언리얼 엔진에 통합되며, ‘메타휴먼 애니메이터’도 더욱 향상된 기능을 제공한다. 특히 이번 업데이트를 통해 얼굴뿐만 아니라 체형도 거의 무한대로 생성 가능하며, 새로운 의상 애셋을 통해 메타휴먼에 자동으로 맞춰지는 완벽한 의상을 손쉽게 제작할 수 있다. 또한, 페이스와 보디에 대한 실제 스캔 데이터도 대폭 추가되어 더욱 다양한 고퀄리티의 캐릭터 제작이 가능해졌다. ‘메타휴먼 애니메이터’의 경우 이제 대부분의 웹캠, 스마트폰, 오디오에서 배우의 연기를 실시간으로 캡처할 수 있으며, DCC용 신규 플러그인과 ‘팹 마켓플레이스’와의 통합 등 에코시스템도 더욱 확장된다. 간소화된 UX/UI 경험 부분에서는 에디터 전반의 UX/UI가 새롭게 개편되어 더욱 직관적이고 빠른 워크플로를 지원한다. 새롭게 디자인된 콘텐츠 브라우저로 애셋 정리와 탐색이 훨씬 쉬워졌으며, 썸네일 크기의 조절과 가로 및 세로 방향 전환도 더욱 매끄럽게 조정할 수 있다. 또한, ‘뷰포트 툴바’의 섹션 메뉴와 ‘퀵 액세스 컨트롤’ 기능 개편으로 주요 툴에 더 빠르게 접근 가능하며, 상황에 맞춰 자동 조절되는 툴바, 선택 및 모델링 모드를 위한 전용 제어 기능 등 사용성 또한 향상되었다. 언리얼 엔진 5.6은 개발자의 효율적인 반복작업을 위해서 워크플로를 가속화하고, 타깃 플랫폼 및 디바이스에 더 빠르게 콘텐츠를 제공할 수 있는 다양한 툴을 추가했다. 새롭게 재설계된 ‘프로젝트 런처’ UI로 디바이스 실행 프로파일을 보다 빠르게 생성 및 관리할 수 있으며 빌드, 쿠킹, 디바이스 배포 구성 또한 빠르게 설정할 수 있다. ‘젠 스트리밍’을 베타로 전환해 전체 패키지 빌드 없이도 콘텐츠 테스트와 반복작업을 간소화해 생산성을 향상시켰다. 또한, 실험 단계의 ‘점진적 쿠킹’ 기능은 변경된 애셋만 분석 및 처리 가능해 반복 작업을 효율적으로 할 수 있다. 프로시저럴 툴 부분에서는 강력해진 PCG 프레임워크를 통해 복잡한 월드를 더욱 빠르고 효율적으로 제작할 수 있다. 인라인 상수를 지원하는 노드 그래프 UX와 새로운 3D 뷰포트를 통해 요소 생성 및 조작, 그리고 미리보기할 수 있으며, 노드 필터링 기능이 있는 맞춤형 그래프 템플릿으로 더 빠르게 반복작업을 할 수 있다. 특히 GPU 성능이 개선되어 복잡한 신에서도 인스턴스 처리가 안정적으로 이루어지고, CPU 오버헤드를 줄여 인스턴스 작업 시 강화된 유연성과 정밀성을 제공한다. PCG도 멀티스레딩 지원으로 전반적인 성능이 향상되며, 복잡한 대규모 환경에서도 더 빠른 처리와 반응 속도를 제공한다. 또한, ‘PCG 바이옴 코어 v2(Biome Core v2)’ 플러그인을 통해 바이옴을 더 빠르고 직관적으로 생성하고 업데이트할 수 있으며, 바이옴 별 ‘블렌딩’과 ‘바이옴 레이어링’ 기능으로 자연스러운 생물 환경을 보다 효율적으로 구축할 수 있다. 시네마틱 및 퍼포먼스 캡처 워크플로 부분에서는 새롭게 통합된 다양한 툴세트를 통해 제작 파이프라인 전반에 효율성을 더했다. 새로운 통합 설루션인 ‘모캡 매니저’로 언리얼 에디터 내에서 퍼포먼스 캡처 데이터를 시각화, 녹화 및 관리하고, 애셋 관리부터 모캡 스테이지 및 연기자/캐릭터 구성, 라이브 링크 데이터 미리보기 등 다양한 기능으로 제작의 효율을 높일 수 있다. ‘캡처 매니저’는 라이브 링크 허브와 통합되어 모바일 디바이스, 비디오 파일, 스테레오 헤드 마운트 카메라(HMC)에서 메타휴먼 테이크를 정밀하게 가져와 처리할 수 있어 서드파티 페이셜 캡처 시스템과의 호환성과 유연성이 강화되었다. 또한 새로운 파이프라인 친화적인 ‘시네마틱 어셈블리 툴세트(CAT)’가 추가되어 프로젝트 구성 전환, 시네마틱 템플릿 재사용 등 다양한 기능을 통해 샷 관리 파이프라인을 효율적으로 관리할 수 있다.
작성일 : 2025-06-04
AWS, AI 기반 마이그레이션 서비스 ‘AWS 트랜스폼’ 출시
아마존웹서비스(AWS)가 기업의 마이그레이션 및 현대화 프로젝트를 가속화하기 위한 AI 기반 서비스인 AWS 트랜스폼(AWS Transform)을 출시했다. AWS 트랜스폼은 지난 AWS 리인벤트 2024에서 아마존 Q 디벨로퍼(Amazon Q Developer)의 변환 기능 중 하나로 선공개된 AI 기반 설루션이다. 이 설루션은 기업의 VM웨어, 메인프레임, 닷넷 워크로드와 관련된 현대화 작업을 자동화하고 복잡한 마이그레이션 작업을 간소화하여, 기존 방식 대비 최대 4배 빠르게 프로젝트를 완료할 수 있도록 지원한다. 또한, 기반 모델, 대규모 언어 모델(LLM), 머신러닝, 그래프 신경망, 자동화 추론 등 AWS의 AI 기술 인프라를 활용하여 기존 인프라, 애플리케이션, 코드 현대화 과정에서의 복잡성과 부담을 줄여준다. 또한 전문적인 트랜스포메이션 어시스턴트 역할을 하는 채팅 기반의 경험을 제공하여 목표 설정, 프로젝트 컨텍스트 공유, 비즈니스 계획 및 비용 절감 평가, 트랜스포메이션 계획 검토 및 조정, 코드 및 인프라 제안 검토 및 승인 등을 지원한다. 뿐만 아니라 통합 웹 환경에서 여러 부서의 팀들이 함께 작업을 검토하고, 진행 상황을 추적하며, 프로젝트 전반에 걸쳐 협업할 수 있게 함으로써 가장 복잡한 레거시 애플리케이션에 대한 트랜스포메이션 계획을 제어할 수 있도록 지원한다. AWS는 닷넷을 위한 AWS 트랜스폼 에이전트가 윈도우에서 리눅스로 닷넷 프레임워크(.NET Framework) 애플리케이션 포팅(porting)을 가속화하여 운영 비용을 최대 40%까지 절감한다고 소개했다. 이러한 비용 절감은 윈도우 서버 라이선싱 비용, 버전 업그레이드, 유지보수 및 지원 종료 문제를 줄이는 동시에 분석, 계획 및 리팩토링 전반에 걸친 트랜스포메이션 비용을 절감함으로써 이루어진다. 닷넷 에이전트(.NET Agent)를 통해 자연어로 채팅하여 트랜스포메이션 목표와 프로젝트 컨텍스트를 공유할 수 있으며, AWS 트랜스폼이 종속성을 분석하고, 과거 현대화 여정의 영역별 전문 지식을 적용하여 맞춤형 현대화 계획을 개발할 수 있다. 또한 자율적으로 코드를 변환하고, 단위 테스트를 실행하고, 트랜스포메이션 요약을 생성하며, 리눅스 환경에서 실행 가능한 상태로의 준비 여부를 검증할 수 있다. AWS 트랜스폼은 닷넷 프레임워크 애플리케이션 코드를 리눅스 환경에서 실행 가능한 상태로 준비된 크로스 플랫폼 닷넷으로 변환하고, 사설 패키지를 포팅하고, 단위 테스트 실행을 자동화한다. 또한 설명 가능한 변환 결정을 제공함으로써 애플리케이션의 성능과 확장성을 향상시킨다. 이 새로운 에이전트는 통합된 웹 경험을 통해 일관된 결과로 수백 개의 애플리케이션을 병렬로 변환시켜 팀 간의 협업을 간소화하고 대규모 현대화 프로젝트를 효율적으로 처리할 수 있도록 지원한다. AWS에 따르면, 메인프레임을 위한 AWS 트랜스폼 에이전트를 통해 전체 현대화 프로세스를 간소화하여 위험과 복잡성을 줄이면서 일정을 최대 50%까지 단축할 수 있다. 채팅 인터페이스를 통해 높은 수준의 현대화 목표를 정의하고 작업 계획을 협의할 수 있다. 준비가 되면 AWS 트랜스폼은 코볼(COBOL)과 JCL(Job Control Language)로 작성된 메인프레임 애플리케이션과 CICS(Customer Information Control System) 트랜잭션 관리자, BMS(Basic Mapping Support) 화면, DB2 데이터베이스, VSAM(Virtual Storage Access Method) 데이터 파일에 의존하는 애플리케이션을 처리한다. 종속성과 누락된 파일을 신속하게 식별하는 고급 코드 분석의 이점을 통해 하위 프로젝트 지연을 줄일 수 있다. 그래프 신경망을 사용하여 모놀리식(monolithic) 애플리케이션을 관리 가능한 모듈로 분해함으로써 중요한 비즈니스 로직을 보존하면서 타기팅된 현대화 접근 방식을 가능하게 한다. 프로젝트 전반에 걸쳐 AWS 트랜스폼은 AI 어시스턴트 역할을 하며, 진행 상황에서 학습하고 생성된 기술 문서를 기반으로 프로그램에 대한 질문에 답변한다. 애플리케이션을 리팩토링(refactoring)할 때, 향상된 정확도를 위해 상태 머신(state machines)과 상태 전이 그래프(state transition graphs)를 활용하여 코볼, JCL 및 DB2를 자바(Java)와 포스트그레(Postgres)로 변환할 수 있다. 애플리케이션을 재구상할 때는 수백만 줄의 코드에서 추출된 포괄적인 기술 문서, 비즈니스 규칙, 논리적 흐름을 얻을 수 있다. AI 에이전트의 지능형 오케스트레이션을 통해 상세한 문서로 기관 지식을 보존하면서 클라우드에서 메인프레임 애플리케이션을 더 빠르고, 단순하고, 안전하게 현대화할 수 있다. VM웨어를 위한 AWS 트랜스폼 에이전트는 인프라를 최적화하고 운영 오버헤드를 줄이면서 증가하는 VM웨어 라이선스 비용을 피할 수 있다. 채팅 인터페이스는 온프레미스 VM웨어 환경에 커넥터를 추가하거나 타사 도구에서 자산 인벤토리를 업로드하도록 안내한다. 목표를 지정한 후, 에이전트는 애플리케이션 검색, 종속성 매핑, 마이그레이션 계획, 네트워크 변환, 서버 마이그레이션 및 EC2 인스턴스 최적화와 같은 작업을 자동화한다. 사용자는 휴먼인더루프(human-in-the-loop) 메커니즘을 통해 아티팩트를 검토, 승인 및 편집할 수 있다. 그래프 신경망을 사용하여 네트워크 트래픽과 통신 패턴을 분석하여 종속성을 식별하고 최적의 마이그레이션 이행 계획(migration wave planning)을 자동으로 생성할 수 있다. VPC, 서브넷, 보안 그룹 및 트랜짓 게이트웨이를 포함한 복잡한 네트워크 구성을 AWS 클라우드 환경에 상응하는 구성요소로 변환할 수 있다. 또한 격리된 VPC 및 유연한 허브앤스포크(Hub-and-Spoke) 구성과 같은 향상된 기능을 통해 네트워크 마이그레이션 문제를 해결할 수 있다. 이를 통해 일반적으로 2주가 소요되던 전통적인 네트워크 구성 작업을, VM웨어를 위한 AWS 트랜스폼을 사용하면 1시간 안에 완료할 수 있으며, 일반적으로 몇 주의 분석이 필요한 마이그레이션 이행 계획을 15분 안에 완료할 수 있게 되었다.
작성일 : 2025-05-20
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크, ‘DGX 스테이션’ 공개
엔비디아는 글로벌 시스템 제조업체들이 개인용 AI 슈퍼컴퓨터인 엔비디아 DGX 스파크(NVIDIA DGX Spark)와 DGX 스테이션(DGX Station) 시스템을 구축할 예정이라고 발표했다. 엔비디아는 DGX 스파크와 DGX 스테이션의 가용성이 확대되면서 전 세계 개발자, 데이터 과학자, 연구원이 높은 성능과 효율을 경험할 수 있게 될 것으로 기대하고 있다.  기업, 소프트웨어 제공업체, 정부 기관, 스타트업, 연구 기관 등에서은 데이터 크기, 독점 모델 프라이버시 또는 확장 속도에 영향을 주지 않으면서 데스크톱 폼 팩터에서 AI 서버의 성능과 기능을 제공할 수 있는 강력한 시스템을 필요로 한다. 자율적인 의사 결정과 작업 수행이 가능한 에이전틱 AI(Agentic AI) 시스템의 부상은 이러한 요구를 더욱 증폭시키고 있다. 엔비디아 그레이스 블랙웰(Grace Blackwell) 플랫폼을 기반으로 하는 DGX 스파크와 DGX 스테이션은 개발자들이 데스크톱에서 데이터센터에 이르기까지 모델의 프로토타이핑, 미세 조정, 추론 등을 실행할 수 있도록 지원한다.     DGX 스파크에는 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Superchip)과 5세대 텐서 코어(Tensor Core)가 탑재돼 있다. 이는 최대 1페타플롭(petaflop)의 AI 컴퓨팅 성능과 128GB의 통합 메모리를 제공하며, 엔비디아 DGX 클라우드(DGX Cloud)나 기타 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 내보낼 수 있다. 간소한 패키지로 강력한 성능과 기능을 제공하는 DGX 스파크는 개발자, 연구원, 데이터 과학자, 학생들이 생성형 AI의 한계를 뛰어넘고 산업 전반의 워크로드를 가속화할 수 있도록 지원한다. 까다로운 AI 워크로드를 위해 설계된 DGX 스테이션은 엔비디아 GB300 그레이스 블랙웰 울트라 데스크톱 슈퍼칩(Ultra Desktop Superchip)을 탑재해 최대 20페타플롭의 AI 성능과 784GB의 통합 시스템 메모리를 제공한다. 또한 이 시스템에는 고속 연결과 멀티스테이션 확장을 위해 최대 800Gb/s의 네트워킹 속도를 지원하는 엔비디아 커넥트X-8 슈퍼NIC(ConnectX-8 SuperNIC)도 탑재했다. DGX 스테이션은 고급 AI 모델을 로컬 데이터로 실행하는 단일 사용자용 데스크톱으로 활용할 수 있으며, 여러 사용자를 위한 온디맨드 중앙 집중식 컴퓨팅 노드로도 사용할 수 있다. 이 시스템은 엔비디아 멀티 인스턴스(Multi-Instance) GPU 기술을 지원해 최대 7개의 인스턴스로 분할할 수 있다. 각 인스턴스는 독립적인 고대역폭 메모리, 캐시, 컴퓨팅 코어를 갖춰 데이터 과학과 AI 개발 팀을 위한 개인 클라우드로 활용할 수 있다. 또한, DGX 스파크와 DGX 스테이션은 산업용 AI 팩토리를 구동하는 소프트웨어 아키텍처를 반영한다. 두 시스템 모두 최신 엔비디아 AI 소프트웨어 스택으로 사전 구성된 엔비디아 DGX 운영 체제를 사용하며, 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprints)에 대한 액세스를 제공한다. 개발자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama)와 같은 일반적인 도구를 사용해 DGX 스파크에서 프로토타이핑 생성, 미세 조정, 추론을 수행할 수 있다. 그리고 이를 DGX 클라우드나 가속화된 데이터센터 또는 클라우드 인프라에 원활하게 배포할 수 있다. DGX 스파크는 7월부터 에이서, 에이수스, 델 테크노로지스, 기가바이트, HP, 레노버, MSI를 비롯한 글로벌 채널 파트너를 통해 출시될 예정이며, 현재 예약이 진행 중이다. DGX 스테이션은 올해 말 에이수스, 델 테크놀로지스, 기가바이트, HP, MSI에서 출시될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “AI는 실리콘에서 소프트웨어에 이르기까지 컴퓨팅 스택의 모든 계층을 혁신했다. AI 혁신을 촉발한 DGX-1 시스템의 직계 후속인 DGX 스파크와 DGX 스테이션은 차세대 AI 연구와 개발을 지원하기 위해 처음부터 새롭게 설계됐다”고 말했다.
작성일 : 2025-05-19
[특별기고] 디지털 트윈 발전 전망
디지털 트윈과 산업용 메타버스 트렌드   데이터 기반 서비스 관점에서의 디지털 트윈의 역할은 실 체계에서 수집한 실제 데이터와 디지털 트윈 시뮬레이션으로 얻어진 가상 데이터의 융합을 통하여 실제 시스템 관련 문제 해결에 유용한 빅 데이터 생성이라 할 수 있다.  디지털 트윈 활용은 안정성에 부담이 적고 신속/가시적 성공사례 확보가 가능한 스마트시티, 스마트 팩토리, 스마트SOC(도로, 철도, 항만, 공항, 등) 등이 대상이지만 기술성숙도가 높아지고 안정성이 보장됨에 따라 자율주행, 의료/인공장기, 식물공장 등으로 확대될 전망이다.   ▲ 철도 네트워크의 디지털 트윈 구축하는 독일 디지털 철도(이미지 출처 : 엔비디아)   1. 디지털 전환과 디지털 트윈 디지털 전환(Digital Transformation: DX)은 비즈니스 전 과정에 ICT 기술을 도입하여 전사적 업무, 생산 기술, 제품 등을 디지털화 한 후 이를 기반으로 가상 실험이 가능한 디지털 환경을 구축하는 것이다.  디지털 전환의 궁극적 목적은 기업 이윤 극대화에 필요한 업부/생산 효율성 및 제품 부가 가치 증대를 위한 다양한 창의적 대안들을 가상 실험을 통해 평가한 후 그 결과를 비즈니스 전 과정에 활용하는 것이다. 예를 들어, 스마트 팩토리의 디지털 전환은 조달 시스템, 생산 시스템, 물류 시스템 등 스마트 팩토리 구성요소들의 자원 할당 및 운용에 대한 다양한 대안들을 가상 실험을 통해 평가할 수 있는 환경을 구축하여야 한다. 그렇다면, 비즈니스 전 과정을 가상 실험하기 위해서는 무엇이 필요할까?  가상 실험을 하기 위해서는 먼저 가상 실험 대상(예: 제조 공장)을 선정하고, 다음으로, 가상 실험 시나리오(예:새로운 제조 장비 도입)가 필요하며 시나리오를 수행할 모델(예: 제조 공정 시뮬레이션 모델)이 필요하다. 이러한 가상 실험을 위한 모델이 디지털 트윈이며 이런 이유로 많은 사람들이 디지털 트윈을 DX의 Key(Richard Marchall, 2017), DX의 Enablers(Reterto Saracco, 2019), DX의 Central(Vijay Ragjumathan, 2019), DX의 Steppingstone(Harry Forbes, 2020), DX의 Pillar(Fransesco Belloni, 2020)라고 지적하였다.   2. 디지털 트윈의 정의 디지털 트윈은 물리적 자산, 프로세스 및 시스템에 대한 복제본으로 정의[Wiki 사전]되며, 복제본이란 대상 체계의 운용 데이터, 지형/공간/형상 정보 및 동작/운용 법(규)칙을 컴퓨터 속에 디지털화 해 놓은 것을 의미한다. 예를 들면, 제조 공장의 디지털 트윈은 제조 공장의 운용 데이터, 제조 공장의 공간/형상 정보, 그리고 제조 장비 동작 및 공정 모델이 컴퓨터 속에 복제된 것이 될 것이다. 디지털 트윈과 대상 체계가 쌍둥이기 때문에 쌍둥이 중 누가 먼저 태어났느냐에 따라 디지털 트윈의 이름을 다르게 붙이기도 한다. 대상 체계가 존재하기 전에 만들어진 디지털 트윈을 디지털 트윈 프로토타입(Prototype) 그리고 대상 체계가 만들어진 후 복제된 디지털 트윈을 디지털 트윈 인스턴스(Instance)라고 부른다. 디지털 트윈 프로토타입은 대상 체계 설계 단계에서 활용되며 디지털 트윈 인스턴스는 대상 체계의 운용 분석에 활용되는 것이 일반적이다. 디지털 트윈 인스턴스(실 체계의 복제본)와 디지털 트윈 프로토타입(실 체계의 설계 모델)이 모두 존재할 수도 있지만 디지털 트윈 프로토타입 없이 디지털 트윈 인스턴스만 존재할 수도 있다. 디지털 트윈 프로토타입과 인스턴스가 모두 존재한다면 인스턴스는 프로토타입에 실 체계 운용 정보가 반영되어 진화(성장)된 트윈으로 볼 수 있다. 3. 디지털 트윈 구축 목적 디지털 트윈의 구축 목적은 대상 실 체계와 디지털 트윈을 연동 운용함으로써 실 체계 관련 이해 당사자에게 지혜 수준의 혁신적 서비스를 제공할 수 있는 핵심 도구/수단으로 활용하기 위함이다. 데이터 기반 서비스 관점에서의 디지털 트윈의 역할은 실 체계에서 수집한 실제 데이터와 디지털 트윈 시뮬레이션으로 얻어진 가상 데이터의 융합을 통하여 실제 시스템 관련 문제 해결에 유용한 빅 데이터 생성이라 할 수 있다. 융합 빅 데이터는 AI-통계/공학 분석도구들을 이용하여 실 세계의 구성요소인 자산, 사람, 운용 프로세스들의 다양한 결합에 대한 분석/예측 및 체계 운용 최적 대안(최적화)을 찾는데 활용될 수 있다. 아울러, 융합 빅 데이터는 실 세계를 가상 환경에서 현실감 있게 표출할 수 있는 다양한 장비/장치와 VR/AR/XR/메타버스 관련 ICT 기술과의 융합 인터페이스를 통해 오락, 관광, 교육 훈련, 체험 등에 활용될 수 있다.     디지털 트윈의 복제 대상은 실 체계의 운용 데이터, 공간/형상 정보 및 실 체계에 포함된 객체들의 행위 모델 등 3가지이다. 운용 데이터는 실 체계에 설치된 IoT 장비로부터 획득이 가능하다. 공간/형상 정보는 서비스 목적에 따라 GIS, BIM 혹은 3D CAD 중 한 가지 이상을 결합하여 사용한다. 객체 행위 모델은 다양한 시나리오를 가상 실험하기 위한 시뮬레이션 모델을 사용하지만 서비스 목적에 따라서는 운용 데이터를 학습한 데이터 모델을 사용할 수도 있다. 구성요소 중 일부만을 사용한 디지털 트윈은 나머지 구성요소를 사용하지 않음으로 인한 한계점에 봉착하게 된다. 예를 들면, 실 체계 운용 데이터 복제만으로 구성된 IoT 기반 디지털 트윈은 수집된 데이터를 분석할 수는 있지만, 실 체계를 시각화한 지형/공간 상에 데이터를 표출할 수 없을 뿐만 아니라 실 체계와는 다른 가상 데이터를 입력한 시뮬레이션을 수행할 수 없다. 마찬가지로, 지형/공간 정보 만으로 구성된 디지털 트윈은 실 체계에서 일어나는 지형/공간 정보의 변화를 실 시간으로 반영할 수 없으며 시뮬레이션을 통한 실 체계의 현상 분석 및 미래 예측이 불가능 하다.      디지털 트윈의 효율적인 활용을 위해서는 위의 세 가지 구성요소 모두를 개발 및 운용할 수 있는 통합 플랫폼이 바람직하지만 국내외적으로 표준화된 디지털 트윈 플랫폼은 존재하지 않는다. 디지털 트윈의 특성 상 3가지의 디지털 트윈 구성요소 각각을 개발하는 독립적인 플랫폼을 사용하여 구성요소를 개발한 후 이들을 연동하여 운용하는 것이 효율적이다.  구체적으로는, 먼저, 디지털 트윈 개발 목적에 맞게 운용 데이터를 수집하는 IoT 플랫폼, 지형/공간 정보를 구축하는 지형/공간정보 플랫폼 및 모델링 시뮬레이션 플랫폼들을 이용하여 각 구성요소를 개발한다. 다음으로, 개발된 세 가지 구성요소를 실행하는 플랫폼들을 연동 운용하는 PoP(Platform of Platforms) 구조를 사용할 수 있다. PoP 구조는 디지털트윈의 목적에 부합되는 모든 디지털트윈을 개발/운용할 수 있는 플랫폼으로써 신뢰성 및 경제성(개발 기간 및 비용) 면에서 효율적인 구조이다. PoP 구조를 사용할 경우 플랫폼들 사이의 연동을 위한 데이터 모델과 API의 국제적인 표준화가 요구되며 데이터 모델의 표준은 대상 시스템에 따라 달라질 수 있다.  디지털 트윈을 실제 시스템에 대한 문제 해결 목적으로 사용하기 위해서는 대상 시스템에 대한 다양한 질문의 답을 디지털 트윈을 통해서 얻을 수 있는 서비스가 제공되어야 한다. OR 이론의 창시자 중 한 명으로 경영 과학 이론가인 R.L.Ackoff 교수는 사람이 생각하는 내용을 데이터, 정보. 지식, 지혜 등 4가지로 분류하였다. 데이터는 단순한 심벌(숫자나 문자)을 말하지만 정보는 ‘who’, ‘what’, ‘where’, ‘when’을 답할 수 있고, 지식은 ‘how’를 답할 수 있고, 지혜는 ‘why’를 답할 수 있어야 한다고 정의하였다. 디지털 트윈의 서비스 수준을 Ackhoff 교수의 분류법에 매핑 시킨다면 정보 수준 서비스는 시스템 분석(현상, 기능 등), 지식 수준 서비스는 시스템 예측(행위, 성능 등) 그리고 지혜 수준 서비스는 시스템 최적화(운용 최적화 등) 및 진단(수명 진단 등)에 해당한다. 예를 들어, 교통 시스템에 대한 다양한 질문을 답하기 위해 교통 디지털 트윈을 만들었다고 하자. 정보 서비스의 예는 현재 교통 시스템의 현상을 분석하는 것으로 어느 위치의 현재 시간대에 단위 시간당 교차로 통과 차량 대수가 얼마인지에 대한 답을 하는 서비스이다. 지식 서비스의 예는 현재 출발지에서 목적지까지의 소요 시간이 얼마가 되는지를 예측하는 질문에 대한 답을 하는 서비스이다. 지혜 서비스의 예는 현재 출발지에서 목적지까지의 소요 시간이 최소가 되는 최적화된 경로가 어떤 것인지의 질문에 대한 답을 하는 서비스이다.    4. 디지털 트윈의 구성요소 디지털 트윈의 3 가지 구성요소 중 행위 모델은 목적에 따라 데이터 모델과 시뮬레이션 모델로 대별된다. 데이터 모델은 실 체계에서 수집된 데이터들 사이의 상관관계를 기계학습하여 얻어진 모델(예: 인공신경망)로서 지식 서비스를 위한 시스템 행위 예측에 한계점을 가지고 있다. 구체적으로, 데이터 모델은 학습된 데이터 영역에서는 미래 예측이 가능하지만 학습된 영역 밖의 데이터에 대한 예측은 불가능 하다. 뿐만 아니라 학습 시와 예측 시의 시스템 운용 조건이 달라질 경우에도 예측이 불가능하다. 앞서 예시한 교통 디지털 트윈으로 데이터 모델을 사용할 경우 학습 시 도로 상황(운행 시간, 사고 발생 유무 등)이 예측 시 도로 상황과 동일하지 않으면 소요 시간 예측의 정확도가 보장되지 않는다. 더욱이, 시스템 변수 사이의 상관 관계로 표현된 데이터 모델은 변수 사이의 인과 관계가 필요한 시스템의 최적화 및 고장 진단 등에는 활용할 수 없다. 이러한 데이터 모델의 서비스 한계를 극복하기 위해서는 시뮬레이션 모델을 사용할 수 있다. 시뮬레이션 모델은 구축은 대상 시스템에 대한 도메인 지식과 이를 표현하는 지배 법칙에 대한 수학적/논리적 표현 방법을 이해해야 하므로 데이터 모델에 비해 고 비용이 요구된다. 따라서, 디지털 트윈의 행위 모델은 대상 시스템의 서비스 목적과 수준에 따라 다르게 선택될 수 있다.    5. 디지털 트윈의 발전 전망  디지털 트윈의 향후 발전 전망은 문제 해결과 가상 체험 및 빅 데이터 분야로 대별할 수 있다. 문제 해결 분야에서 디지털 트윈의 대상은 분석, 예측, 최적화/진단 대상이 되는 모든 시스템 분야로서 산업(제조, 생산, 물류, 식물공장 등), 공공(교통, 환경, 금융 등), 의료(진단, 인공장기, 가상수술 등), 재난안전(안전점검, 피해분석, 대피훈련 등), 국방(군사훈련, 국방분석, 무기체계 획득 등)등을 포함한다.  현재 디지털 트윈 활용은 안정성에 부담이 적고 신속/가시적 성공사례 확보가 가능한 스마트시티, 스마트 팩토리, 스마트SOC(도로, 철도, 항만, 공항, 등) 등이 대상이지만 기술성숙도가 높아지고 안정성이 보장됨에 따라 자율주행, 의료/인공장기, 식물공장 등으로 확대될 전망이다.  가상 체험 분야는 디지털 트윈이 실 세계 혹은 가상 세계를 움직이는 다양한 시나리오를 정형화한 지배 법칙(모델)을 실행(시뮬레이션)하는 수단으로 활용될 전망이다. 이러한 지배법칙 실행은 실제 세계와 가상 세계의 구별 없는 가상 체험을 목표로 하는 메타버스의 서비스 콘텐츠를 제공한다. 따라서, 메타버스 발전을 위해서 메타버스의 서비스 컨텐츠를 제공하는 디지털 트윈 발전이 필수적으로 향후 메타버스와 디지털 트윈은 동시에 발전할 전망이다.  빅 데이터 분야에서는 디지털 트윈의 가상 실험을 통해 실 체계에서는 물리적/경제적 이유로 수집 불가능한 다양한 빅 데이터를 생성하는데 활용될 전망이다. 유의미한 빅 데이터 생성을 위해서는 실 체계에서 수집 가능한 데이터를 사용하여 디지털 트윈 모델의 검증이 선행된 후 실 체계에서 수집 불가능한 데이터 생성을 위한 가상 실험이 설계되어야 한다. 디지털 트윈을 사용한 빅 데이터 생성은 시스템 기능 검증, 예지 진단 및 기계학습 등과 같은 부가가치가 높은 데이터 생성에 집중되어 미래 데이터 구독 시장 활성화에 기여할 전망이다.   김탁곤 명예교수  KAIST 전기전자공학부  
작성일 : 2025-05-05
AMD, 오라클 클라우드 인프라스트럭처에 5세대 에픽 CPU 도입
AMD는 5세대 에픽(EPYC) 프로세서가 오라클 클라우드 인프라스트럭처(OCI) E6 컴퓨팅 스탠다드 플랫폼에 도입된다고 발표했다. 엔터프라이즈와 AI, 클라우드를 위한 서버용 CPU인 5세대 에픽 프로세서를 적용한 OCI E6 플랫폼은 OCI 자체 테스트 기준으로 이전 세대 E5 인스턴스 대비 최대 2배 향상된 비용 대비 성능을 제공한다. 새로운 OCI E6 플랫폼은 이전 세대인 E5의 성공에 이어 범용 및 컴퓨팅 집약적 워크로드를 위한 높은 성능과 비용 효율을 제공한다. 이를 통해 AMD 에픽 프로세서를 기반으로 하는 주요 클라우드 서비스에 1000개 이상의 새로운 컴퓨팅 인스턴스 선택권을 제공한다. OCI E6 스탠다드 베어메탈 인스턴스 및 가상 머신(VM)은 현재 미국 동부(애시번), 미국 서부(피닉스), 미국 중서부(시카고), 독일 중부(프랑크푸르트), 영국 남부(런던) 등 여러 지역에서 이용 가능하며, 향후 몇 달 내에 점진적으로 지역을 확대할 예정이다. AMD의 댄 맥나마라(Dan McNamara)서버 비즈니스 부문 수석 부사장 겸 총괄 책임자는 “클라우드 환경에 AMD 에픽 프로세서가 신속히 도입되는 것은 AMD의 혁신적이고 고성능 설루션이 파트너들에게 경쟁력 있는 클라우드 서비스를 제공하도록 돕고 있다는 것을 입증한다”면서, “OCI의 유연한 인프라와 5세대 에픽 프로세서의 강력한 성능이 결합해 고객들은 가장 중요한 워크로드를 가속화하면서도 클라우드 인프라를 최적화할 수 있다”고 말했다. 오라클 클라우드 인프라스트럭처의 도널드 루(Donald Lu) 컴퓨팅 부문 수석 부사장은 “OCI는 고객들에게 최고의 성능과 비용 효율성을 갖춘 클라우드 설루션을 제공하기 위해 노력하고 있다”면서, “OCI는 AMD 에픽 프로세서로 구동되는 새로운 OCI E6 컴퓨팅 스탠더드 플랫폼을 바탕으로 오늘날 가장 복잡한 워크로드의 요구 사항을 강력한 컴퓨팅 성능과 확장성, 효율성으로 채워 나가고 있다”고 덧붙였다.
작성일 : 2025-04-01
오라클, 엔비디아 AI 엔터프라이즈 제공으로 분산형 클라우드 기능 확장
오라클이 오라클 클라우드 인프라스트럭처(OCI)에서 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)를 제공한다고 밝혔다. 엔비디아 AI 엔터프라이즈는 데이터 과학을 가속화하고 운영 환경에서 사용 가능한 AI의 개발 및 배포를 간소화하는 엔비디아의 종단간(end-to-end) 클라우드 네이티브 소프트웨어 플랫폼이다. 엔비디아 AI 엔터프라이즈는 소버린 AI를 지원하고 기업 고객이 엔비디아의 가속화되고 안전하며 확장 가능한 플랫폼에 쉽게 액세스할 수 있도록 하기 위해 OCI의 분산형 클라우드 어디에서나 사용할 수 있으며, 기업 고객은 기존 오라클 유니버설 크레딧(Oracle Universal Credits)을 통해서도 사용할 수 있다. OCI는 마켓플레이스를 통해 사용 가능한 여타 엔비디아 AI 엔터프라이즈 오퍼링과 달리 OCI 콘솔(OCI Console)을 통한 네이티브 제공 방식으로 서비스 배포 시간이 단축되며, 직접 청구 및 고객 지원이 가능하다. 사용자는 생성형 AI 모델의 배포 간소화를 지원하는 최적화된 클라우드 네이티브 추론 마이크로서비스 모음인 엔비디아 NIM(NVIDIA NIM) 마이크로서비스를 비롯한 160개 이상의 훈련 및 추론용 AI 도구에 빠르고 간편하게 액세스할 수 있다. 또한 다양한 분산형 클라우드 배포 옵션에 걸쳐 종단간 트레이닝 및 추론 기능 모음을 애플리케이션 구축 및 데이터 관리를 지원하는 OCI 서비스와 결합할 수 있다. 오라클은 OCI 콘솔을 통해 엔비디아 AI 엔터프라이즈를 OCI 퍼블릭 리전을 비롯해, 정부 클라우드와 소버린 클라우드, OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), OCI 컴퓨트 클라우드앳커스터머(OCI Compute Cloud@Customer) OCI 로빙 엣지 디바이스(OCI Roving Edge Devices) 등의 오라클 서비스에 신속 간단히 배포할 수 있도록 지원한다. 고객은 OCI의 분산형 클라우드 전반에서 엔비디아 AI 엔터프라이즈를 사용해 엔터프라이즈 AI 스택의 개발, 배포, 운영 과정에 적용되는 보안, 주권, 규정, 규제 준수 요건을 충족할 수 있다. 엔비디아 AI 엔터프라이즈는 OCI 쿠버네티스 엔진(OCI Kubernetes Engine)을 사용하는 GPU 인스턴스 및 쿠버네티스 클러스터용 배포 이미지로 제공될 예정이다. OCI AI 블루프린트(OCI AI Blueprints)는 AI 배포 가속화를 지원하기 위해 직접 소프트웨어 스택 관련 결정을 내리거나 인프라를 수동으로 프로비저닝하지 않고도 빠르게 AI 워크로드를 실행할 수 있는 노코드 배포 레시피를 제공한다. 엔비디아 GPU, NIM 마이크로서비스, 사전 패키징된 통합 가시성 도구 등에 대한 명확한 하드웨어 권장 사항을 제공하는 OCI AI 블루프린트를 사용하면 확장 배포를 위한 GPU 온보딩 시간을 몇 주에서 단 몇 분으로 단축할 수 있다. 오라클의 카란 바타 OCI 담당 수석 부사장은 “오라클은 고객이 OCI에서 AI 설루션을 가장 신속하게 개발 및 배포할 수 있도록 지원한다”면서, “OCI 상의 엔비디아 AI 엔터프라이즈를 활용하면 최신 AI 인프라 및 소프트웨어 혁신의 이점을 누리는 동시에 분산형 클라우드가 제공하는 다양한 배포 옵션을 유연하게 활용할 수 있다. 고객은 운영, 위치, 보안에 대한 제어 능력을 강화함으로써 업계 최고의 AI 설루션을 활용해 소버린 AI를 가속화할 수 있다”고 말했다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 소프트웨어 제품 부사장은 “엔비디아 AI 엔터프라이즈는 개발자가 최신 AI 애플리케이션을 개발할 수 있는 구성 요소를 제공한다”면서, “오라클은 OCI 콘솔에 엔비디아 AI 엔터프라이즈를 통합함으로써 다양한 리전에서 생성형, 에이전틱, 물리적 AI의 개발과 배포를 가속화할 수 있는 원활한 환경을 제공할 것”이라고 말했다.
작성일 : 2025-03-27