• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "NIM"에 대한 통합 검색 내용이 585개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 3D 객체를 빠르게 만들기 위한 ‘AI 블루프린트’ 공개
엔비디아가 3D 객체 생성을 위한 ‘엔비디아 AI 블루프린트(NVIDIA AI Blueprint for 3D object generation)’를 공개했다. 이는 3D 아티스트가 간단한 텍스트 프롬프트만으로 최대 20개의 3D 객체를 생성해 특정 장면의 프로토타입을 만들 수 있도록 지원한다. 3D 아티스트는 끊임없는 프로토타이핑 작업 문제에 직면하고 있다. 전통적인 워크플로에서는 3D 장면 구현을 위해 저충실도 임시 애셋을 제작하고, 핵심 요소가 제자리에 배치될 때까지 수정을 반복해야 하기 때문이다. 그 후에야 시각적 요소를 세부적으로 다듬어 완성할 수 있다. 이렇게 프로토타이핑은 시간이 많이 소요되고 종종 불필요한 작업을 수반한다. 그 결과 아티스트는 창의적인 작업보다 지루한 모델링 작업에 더 많은 시간을 할애해야 한다. 생성형 AI는 장면 프로토타이핑을 위한 초안을 제안하거나 객체를 생성하는 등 중간 작업을 신속히 처리해 아티스트를 돕는다. 그러나 이러한 가속화된 워크플로를 구현하기 위해 여러 AI 모델을 연결하는 일은 기술적으로 복잡할 수 있다. 엔비디아 AI 블루프린트는 샘플 워크플로를 제공해 사용자가 복잡한 기술 단계를 건너뛰고 고급 생성형 AI 기술을 빠르게 활용할 수 있도록 지원한다. 또한 AI 블루프린트는 각 사용자의 요구에 맞게 조정될 수 있다.     엔비디아가 이번에 새로 공개한 AI 블루프린트는 3D 아티스트가 간단한 텍스트 프롬프트만으로 최대 20개의 3D 객체를 생성해 특정 장면의 프로토타입을 만들 수 있게 해주는 워크플로다. 또한 새로운 마이크로소프트 트렐리스(Microsoft TRELLIS) 엔비디아 NIM 마이크로서비스는 3D 객체 생성을 위한 AI 블루프린트 내에서 작동하며, 기존 모델보다 20% 빠른 속도로 고품질 3D 애셋을 생성한다. 아이디어의 탄생에서 시작하는 3D 프로젝트는 테마, 장소, 장식, 색상, 질감 등 시각적 세부 요소를 신중히 고려하는 과정을 거친다. 장면에 애셋을 배치한 후에도 개별 또는 전체 시각 요소를 여러 차례 검토하고 수정해야 한다. 3D 객체 생성을 위한 엔비디아 AI 블루프린트는 프로토타이핑 과정을 자동화하는 파이프라인을 제공한다. 사용자가 프롬프트로 예술적인 아이디어를 입력하면, 블루프린트에 내장된 대형 언어 모델(LLM)이 장면에 포함 가능한 20개의 객체를 제안한다. 이는 라마 3.1 8B(Llama 3.1 8B) 엔비디아 NIM 마이크로서비스로 가속화된다. 엔비디아 사나(SANA)는 고해상도 이미지를 빠르게 합성하는 텍스트-이미지 프레임워크로, 생성 가능한 객체를 보여주는 프리뷰를 생성한다. 각 객체는 재생성, 수정, 삭제가 가능해 아티스트의 자유로운 창작 활동을 지원한다. 이후 아티스트는 새로운 마이크로소프트 트렐리스 엔비디아 NIM 마이크로서비스를 통해 각 객체를 고품질 프리뷰에서 즉시 활용 가능한 3D 모델로 변환할 수 있다. 이 마이크로서비스는 최첨단 모델의 배포를 간소화하고 속도를 20% 향상시킨다. 또한 최대 20개의 3D 애셋 모음은 즉시 사용하거나 오픈 소스 3D 플랫폼 블렌더(Blender)에서 추가로 다듬을 수 있도록 준비된다. AI 블루프린트는 이를 자동으로 블렌더로 내보내며, 아티스트는 다른 인기 3D 애플리케이션으로도 애셋을 내보낼 수 있다. 아울러 라마 3.1 8B NIM 마이크로서비스로 구동되는 LLM은 장면에 포함할 객체의 아이디어와 프롬프트 제안을 생성할 수 있다. 따라서 프롬프트 경험이 많지 않은 아티스트도 창의적인 생산성을 높일 수 있다. 일반적으로 이러한 워크플로를 설정하려면 많은 시간과 기술적 지식이 필요하며, 적합한 파이프라인을 선택하기 위해 다양한 모델을 실험해야 한다. 엔비디아는 “AI 블루프린트는 검증된 워크플로를 사전에 선별해 패키징된 형태로 제공함으로써, 엔비디아 지포스 RTX(GeForce RTX)와 RTX PRO GPU에서의 배포를 단순화하고 시작 과정을 간소화한다”고 설명했다.
작성일 : 2025-09-04
데이터 분석 로코드 설루션을 배워보자 Ⅰ
로코드를 활용하여 엔지니어링 데이터 분석 극대화하기 (2)   지난 호에서는 로코드 분석 설루션이 필요한 이유에 대해 알아보았다. 또한 데이터 분석이 일반적으로 거치는 과정에 대해서도 살펴 보았는데, 이러한 과정에 파이썬(Python)과 같은 프로그래밍 언어가 활용되는 상황 또한 정리해 보았다. 이번 호에서는 로코드 분석 설루션인 KNIME(나임)에 대해 알아보고, 전력 판매량 예측에 대한 분석 과제를 따라하기 과정을 통해 완성해 보도록 하겠다.   ■ 연재순서 제1회 데이터 분석에 로코드 설루션이 필요한 이유 제2회 데이터 분석 로코드 설루션을 배워보자 Ⅰ 제3회 데이터 분석 로코드 설루션을 배워보자 Ⅱ 제4회 로코드를 활용하여 시뮬레이션 데이터 분석을 따라해 보자 제5회 데이터 분석 로코드 설루션을 클라우드로 확장해 보자   ■ 윤경렬 현대자동차 연구개발본부 책임연구원   ■ 김도희 잘레시아 DX 프로   지난 호에서 살펴본 일반적인 데이터 분석 과정은 다음과 같다.   요청 접수 → 데이터 확보 → 데이터 검토(칼럼/누락/이상치 확인) → 분석 전략 수립 → 데이터 정제 및 가공 → 분석 수행 및 시각화 → 결과 공유   이전에 강조한 바와 같이, 아무리 쉬운 코딩 언어라고 할지라도 데이터 분석을 요청받은 데이터 과학자(data scientist)가 이를 실제 업무에 적용하여 원하는 결과를 빠르고 정확하게 구현해내는 것은 어려운 일이다. 또한 코딩에 능숙한 데이터 과학자라고 해도 깃허브(Github) 및 인터넷 상에 공유된 소스코드를 다운받아 재활용 및 가공하여 사용하는 경우가 많은데, 이때 악성 코드 등에 대한 보안 이슈도 문제가 될 소지가 있다. 사실 데이터 과학자는 수학 및 통계적 지식을 활용하여 빠르게 정확하게 데이터 분석을 하고 싶은 것이고, 이를 위해 효율적인 툴을 사용하고자 한다. 우리는 이러한 현상을 극복해 나가고자 로코드 분석 설루션(low code analytics solution)을 대안으로 검토하였고, 이를 활용하여 데이터 분석을 수행해 나가는 과정을 따라가 보고자 한다. 지난 호에서 유관부서로부터 전력 판매량(electric power sales) 예측에 대한 분석 과제를 요청 받은 상태이고, 언제나처럼 기한은 촉박한 상황의 시민 데이터 과학자(citizen data scientist)로 가정하여 주어진 과제 목표를 달성하였다. 우리에게 주어진 데이터는 발전소 데이터, 기상 정보 데이터, 날짜 및 요일 데이터 등 세 가지로 이를 처리하기 위해 파이썬으로 코드를 작성한 사례를 공유하였고, 동일한 내용을 로코드 분석 설루션인 KNIME을 활용하여 처리한 사례도 공유하였다.   그림 1   이번 호에서는 KNIME에 대해 알아보고 전력 판매량 예측에 대한 분석과제를 따라하기 과정을 통해 완성해 보도록 하겠다. 우선 구글 제미나이(Google Gemini)에게 KNIME에 대한 역사와 특징에 대해 알려 달라고 해보자.(그림 2~4)   그림 2   그림 3   그림 4   가트너(Gatner)의 피어 인사이트(Peer insight) 리뷰를 확인해 보았는데, 평점(rating)이 상당히 높은 편이고 사용자의 반응도 높다는 것을 확인하였다. 또한 오픈소스 기반 소프트웨어로서 기업에서도 무료로 자유롭게 설치하여 사용할 수 있다는 측면에서(KNIME Analytics Platform) 로코드 분석 설루션으로 선택하기에 부족함이 없다는 것을 확인하였다.   그림 5   현재 KNIME은 데이터 사이언스를 위한 최적의 설루션을 위해 세 가지 서비스를 제공하고 있다. 이번 호에서는 KNIME Analytics Platform을 활용하여 전력 판매량 예측에 대한 분석 과제를 따라해보고자 한다.   그림 6     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-09-03
[ Physical AI × 세계 최초 기술(RCRA) ] AI·로봇 융합 제조·물류 'Next Standard'
■ AX & Robotics-Driven Manufacturing R&D  · Safety Congress with LG Leaders and Global Experts  ■   ● 장소 : LG사이언스파크 E9동 B1층 프런티어홀 (마곡중앙 8로 71) - 발산역 도보 5분, 마곡나루역 도보 7분, 김포공항역 택시 15분   ● 일시 : 9월 18일 (목) 12시  30분 참석등록 시작 (1:00세션 시작 ~ 4:30 종료)   ● 참가료 : 600 명 한정 무료   ● 참가 신청 링크 :  [참가 신청하기]   ● 참가 신청 URL : https://forms.gle/3ywdEZeSJa7sRM4G9   ● 아젠다 상세 :   ① [ Track Keynote ] 고장·충돌·사고를 넘어: System Thinking과 Digital Thread로 보는 로봇 공정의 숨은 리스크   -  경희대학교 임성수 교수   · 세션 상세:  많은 기업이 로봇·AI를 도입해 스마트팩토리의 생산성과 품질 향상을 기대하지만, 실제 운영에서는 고장·충돌·안전사고가 잦습니다. 이는 설계–생산–운영 전 과정의 데이터 단절과 의사결정 구조 분절에서 비롯됩니다. 본 세션에서는 System Thinking 과 Digital Thread를 통해 전사 차원의 리스크를 사전에 식별하고, 설계–생산–운영 데이터를 유기적으로 연결해 문제를 예방하는 구체적 접근법을 제시합니다.   · 연사 소개:  임성수 교수는 경희대 기계공학과 교수이자 대한기계학회 부회장으로, 로봇 안전 분야 권위자다. 산업용 로봇 ISO 국제표준 한국 대표 전문가이자 ISO 15066-3 프로젝트 리더를 맡아왔으며, 대통령 표창 (2024)과 산업부 장관 표창 등 다수의 수상 경력이 있다. 학계·산업계·정부를 아우르는 국제 표준화와 산업 발전의 가교 역할을 수행하고 있다.   ②  Collision-Free Human-Robot Collaboration – AI Safety Simulation and Global Compliance Cases   - 세이프틱스 김휘연 CSO   · 세션 상세: 로봇은 이제 일부 업종의 선택이 아니라 모든 제조 현장의 기본 인프라이며,  그 핵심은 안전성입니다. 안전 없는 자동화는 생산성·품질 모두를 보장할 수 없습니다. 본 세션에서는 Biomechanical Injury Threshold Model과 Digital Twin Safety Simulation을 활용해 자동화 설비의 실제 공정 안전성을 데이터로 분석하고 잠재 위험을 정량화하는 방법을 소개합니다. ISO 10218, ISO/TS 15066  등 국제 안전 규격 대응 사례를 통해 사고 예방을 넘어 리드타임 단축, 품질 보증, 글로벌 납품 승인 및 파트너십 강화로 이어지는 실제 경험을 공유하며, 로봇 안전성이 스마트팩토리의 Next Standard임을 제시합니다.   · 연사 소개 : 김휘연 CSO는 Safetics 전략총괄로, 공학 시뮬레이션 분야의 전문가다. 두산·한화·뉴로메카 등 국내 및 UR ·FANUC·KUKA 등 글로벌 기업과 협력해 왔고, 삼성·현대·GM·P&G 등 세계 유수 기업에 안전 솔루션을 적용한 경험이 있다. 인간-로봇 협업 (HRC) 분야에서 차세대 안전 기술을 선도하는 글로벌 전략가로 알려져 있다.   ③ 위험성 평가는 이제 ‘공정 설계 도구’다 – Front Loading Engineering과  MBSD로 여는 로봇 스마트 팩토리 품질/안전 혁신 - 세이프틱스 임정호 박사   · 세션 상세 : 기존 스마트팩토리 안전 평가는 설비 설치 후 뒤늦게 이뤄져 설계 변경·추가 비용, 일정 지연, 품질 저하로 이어지는 구조적 한계가 있었습니다. 본 세션에서는 이를 극복하기 위해 Front Loading Engineering 과 Model-Based Safety Design(MBSD)을 적용한 사례를 소개합니다. 설계 단계에서 선제적으로 위험성을 평가하고 안전 대책을 반영해 안전을 사후 점검이 아닌 설계의 일부로 통합한 접근법입니다. 이를 통해 설비 변경 비용 절감, 리드타임 단축, 안전·품질 동시 향상이라는 성과를 달성하며 , 위험성 평가가 스마트팩토리 경쟁력의 필수 설계 도구임을 보여드립니다.   · 연사 소개: 임정호 박사는 경희대 기계공학과 연구교수, 산업 자동화·물류 설비 기업과  KOTITI 시험연구원 경력을 바탕으로 수백 개 기업에 로봇 안전 컨설팅을 수행해 온 전문가이다. ISO 10218-2, ISO 13482 국제 표준 전문가로 산업 현장 요구를 깊이 이해하며, 한국로봇산업협회 전문위원과 산업부 소재부품기술개발사업 기획위원으로도 활동하고 있다.   ④ 지능형 로봇 기술혁신과 스마트물류의 확산 - LG CNS  손명운 팀장   · 세션 상세: 지능형 로봇 기술은 AI 수준에 따라  1세대 고정형 로봇에서 센서 기반 2세대, 학습형 3세대를 거쳐, 물리 환경과 상호작용하며 스스로 판단·학습하는 4세대 Physical AI 로봇으로 진화하고 있습니다 . 특히 휴머노이드 로봇은 범용지능을 갖추어 물류·제조 현장의 복잡한 부가가치 작업까지 수행할 수 있는 잠재력을 보여주고 있으며, Amazon과 BMW 등은 이미 현장 실증을 진행 중입니다. 이러한 변화의 핵심은 Robot Foundation Model(RFM)로,  방대한 시뮬레이션·원격제어 데이터 학습과 현장 파인튜닝을 통해 정교한 자율 동작을 구현합니다. Teleoperation 기반 원격작업으로 실시간 대응과 학습데이터 축적이 가능해 지속적 성능 향상이 이루어지며, 이는 단순 자동화를 넘어 완전 무인화 스마트물류센터로의 전환을 가속화합니다. 본 세션에서는 Physical AI와 휴머노이드가 제공하는 혁신과 이를 활용한 물류·제조 경쟁력 강화 방안을 제시합니다.   · 연사 소개: 손명운 팀장은 LG CNS에서 20년 이상 근무하며 북미 의료솔루션 개발과 C 사 자동유도차량 자동화 등 다수의 글로벌·국내 프로젝트를 수행해 온 디지털 혁신 전문가이다. 사용자 편의성 제고를 위한 여러 DX 과제부터 미국 유수의 회사들의 솔루션 사업, 자동화 설비 구축까지 폭넓은 현장 경험을 보유하고 있으며, AX, RX 기술을 활용한 물류자동화를 구현하고 차별화된 고객 가치를 개발하고 있다.    ● 참가 신청 링크 :  [참가 신청하기]   ● 참가 신청 URL :  https://forms.gle/3ywdEZeSJa7sRM4G9   ● 참가 신청 QR코드:    ● 장소 : LG사이언스파크  E9동 B1층 프런티어홀 (마곡중앙8로 71) - 발산역 도보 5분, 마곡나루역 도보 7분, 김포공항역 택시  15분   ● 일시 : 9월  18일 (목) 12시 30분 참석등록 시작 (1:00세션 시작 ~ 4:30 종료)   ● 참가료 : 600명 한정 무료   ● 문의  : Safetics   dblee0803@safetics.io 
작성일 : 2025-08-29
코리아 그래픽스 2025 컨퍼런스(9/11~12, 온라인) 초대합니다
코리아 그래픽스 컨퍼런스 내용이 보이지 않으면 여기를 클릭하세요!       코리아 그래픽스 2025 아젠다 AI로 혁신하는 3D 시각화와 산업의 미래 1일차(9월 11일) - 디지털 트윈 & 3D 시각화 1. [기조연설] 디자이너와 생성형 AI가 만드는 디자인-제조의 미래 / 한양대학교 현경훈 교수 2. 리얼타임을 통한 디지털 트랜스포메이션의 진화, 그리고 에픽게임즈의 에코시스템 / 에픽게임즈 코리아 권오찬 시니어 에반젤리스트 3. AI 워크스테이션을 통한 생산성 향상 방안 및 사례 / HP코리아 차성호 이사 4. AEC 산업을 위해 진화하는 공간지능 기술 / 에스엘즈 정재헌 대표 5. Unity Asset Manager로 혁신하는 CAD 데이터 관리와 실시간 협업 / 유니티코리아 김현민 Senior Solutions Engineer 6 CAD와 Unity의 만남: 새로운 비즈니스 수익 모델과 창의적 혁신 / 메가존클라우드 홍동희 Unity 유닛 Tech 그룹장 7. AI 이미지 인지기술 기반 3D 도면 생성  방안 및 적용 솔루션(CADian AI-CAD) 소개 / 캐디안 한명기 상무 8. 모빌리티 XR 사례와 AI 융합 기술의 미래 / 이노시뮬레이션 이지선 CTO 2일차(9월 12일) - AI 비주얼 트렌드 & 응용 1. [기조연설] AI 시대, 그래픽 디자인 방식의 패러다임 변화와 혁신 사례/ 서울미디어대학원대학교 유훈식 교수 2. 언리얼 엔진을 활용한 제조 SW 개발의 신속한 프로토타이핑 및 의사결정 / 현대자동차 신종호 책임 3. Image Gen.AI를 활용한 업무 생산성 향상 방안 / LG CNS 이희재 팀장 4. 이미지부터 3D까지: 크리에이터가 알려주는 생성형 AI 영상 제작 / 아이스케이프 조세희 대표 5. 크리에이터를 위한 AI 에이전트 활용과 바이브 코딩 / AI팩토리 김태영 대표 6. AI 툴로 구현하는 나만의 비주얼 세계: 실무 적용과 아트워크 융합 사례 / IUM SPACE 이윰 대표 7. [기조연설] XR과 인공지능의 만남: XR 콘텐츠의 무한한 가능성과 초연결 콘텐츠의 미래 / 고려대학교 박진호 교수
작성일 : 2025-08-22
HPE, 엔비디아와 협력해 에이전틱·피지컬 AI 혁신 가속화
HPE는 기업이 AI를 도입하고 개발 및 운영하는 과정을 폭넓게 지원하는 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)’ 포트폴리오의 주요 혁신 사항을 공개했다. HPE는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)와의 통합을 한층 강화하고, 최신 엔비디아 AI 모델 및 엔비디아 블루프린트(NVIDIA Blueprints)를 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)에 탑재함으로써 개발자들이 AI 애플리케이션을 보다 간편하게 구축하고 운영할 수 있도록 지원하게 되었다고 전했다. 또한 HPE는 엔비디아 블랙웰(NVIDIA Blackwell) 기반 가속 컴퓨팅을 탑재한 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) 서버를 출하할 예정이며, 이를 통해 생성형 AI, 에이전틱 AI 및 피지컬 AI 워크로드를 향상된 성능으로 지원할 수 있을 것으로 보고 있다. 엔비디아 블랙웰 아키텍처를 탑재한 HPE 프로라이언트 컴퓨트 서버는 두 종류의 엔비디아 RTX PRO 서버 구성을 포함한다. HPE 프로라이언트 DL385 Gen11 서버는 신규 2U RTX PRO 서버 폼팩터의 공랭식 서버로, 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 최대 2개까지 지원한다. 이 제품은 기업의 증가하는 AI 수요를 충족해야 하는 데이터센터 환경에 최적화된 설계를 지향한다. HPE 프로라이언트 컴퓨트 DL380a Gen12 서버는 4U 폼팩터 기반으로, 엔비디아 RTX PRO 6000 GPU를 최대 8개까지 지원하며 2025년 9월 출시될 예정이다.   특히 HPE 프로라이언트 컴퓨트 Gen12 서버는 HPE iLO(Integrated Lights Out) 7의 실리콘 RoT(Root of Trust) 및 시큐어 인클레이브(Secure Enclave) 기반으로 한 다층 보안 기능을 갖추고 있으며, 위조 및 변조 방지 보호와 양자 내성 펌웨어 서명(quantum-resistant firmware signing) 기능을 통해 한층 강화된 보안 환경을 제공한다.   ▲ HPE 프로라이언트 DL380a Gen12 서버   또한, HPE 컴퓨트 옵스 매니지먼트(HPE Compute Ops Management)으로 지원되는 중앙 집중형 클라우드 네이티브 방식의 라이프사이클 자동화 기능은 서버 관리에 소요되는 IT 업무 시간을 최대 75%까지 줄이고, 서버당 연간 평균 4.8시간의 다운타임 감소 효과를 제공한다. 대상 워크로드에는 생성형 및 에이전틱 AI을 비롯해 로보틱스 및 산업용 사례 등 피지컬 AI, 품질 관리(QC) 모니터링 및 자율주행과 같은 비주얼 컴퓨팅, 시뮬레이션, 3D 모델링, 디지털 트윈, 그리고 각종 엔터프라이즈 애플리케이션이 포함된다. 한편, HPE는 올해 말 출시 예정인 차세대 ‘HPE 프라이빗 클라우드 AI’를 발표했다. 이 설루션은 엔비디아 RTX PRO 6000 GPU를 탑재한 HPE 프로라이언트 컴퓨트 Gen12 서버를 지원하며, GPU 세대 간의 원활한 확장성, 폐쇠망(air-gapped) 관리 및 엔터프라이즈 멀티 테넌시(multi-tenancy) 기능 등을 제공할 예정이다. HPE와 엔비디아가 공동 개발한 엔터프라이즈 턴키 AI 팩토리 설루션인 HPE 프라이빗 클라우드 AI는 에이전틱 AI를 위한 최신 버전의 엔비디아 네모트론(NVIDIA Llama Nemotron) 모델, 피지컬 AI 및 로보틱스를 위한 코스모스 리즌(Cosmos Reason) VLM(vision language model), 엔비디아 블루프린트 VSS 2.4 (NVIDIA Blueprint for Video Search and Summarization)를 지원하여 대규모 영상 데이터에서 인사이트를 추출하는 영상 분석 AI 에이전트를 구축할 수 있다. 또한, HPE 프라이빗 클라우드 AI는 최신 AI 모델을 위한 엔비디아 NIM 마이크로서비스, 엔비디아 블루프린트를 빠르게 배포할 수 있도록 맞춤형 설계되어, 고객들은 HPE AI 에센셜(HPE AI Essentials)를 통해 이를 간편하게 활용할 수 있다. 이와 함께 HPE 프라이빗 클라우드 AI는 엔비디아 AI 가속화 컴퓨팅, 네트워킹, 소프트웨어와의 깊은 통합을 바탕으로, 기업들이 데이터 통제를 유지하면서도 AI의 가치를 보다 신속하게 활용할 수 있도록 지원한다. 이를 통해 고객은 급증하는 AI 추론 수요를 효과적으로 관리하고 AI 생산 속도를 가속화할 수 있다. HPE 셰리 윌리엄스(Cheri Williams) 프라이빗 클라우드 및 플렉스 설루션 부문 수석 부사장 겸 총괄은 “HPE는 AI 시대를 맞아 기업들이 성공을 이룰 수 있도록 필요한 툴과 기술을 제공하는 데 전념하고 있다”면서, “엔비디아와의 협업을 통해 기술 혁신의 경계를 지속적으로 넓혀가며, 생성형 AI, 에이전틱 AI, 피지컬AI의 가치 실현을 포함해 엔터프라이즈 환경의 복잡하고 다양한 요구를 충족하는 설루션을 제공하고 있다. HPE 프로라이언트 서버와 HPE 프라이빗 클라우드 AI의 확장된 역량을 결합함으로써, 기업들이 AI 혁신의 다음 단계를 더욱 신속하고 신뢰 있게 수용할 수 있도록 지원하고 있다”고 밝혔다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 AI 부사장은 “기업은 최신 AI 요구사항에 맞추기 위해 유연하고 효율적인 인프라가 필요하다”면서, “엔비디아 RTX PRO 6000 블랙웰 GPU를 탑재한 HPE 2U 프로라이언트 서버는 단일 통합형 기업용 플랫폼에서 거의 모든 워크로드를 가속화할 수 있도록 해줄 것”이라고 밝혔다.
작성일 : 2025-08-18
메타휴먼 5.6 : 디지털 휴먼의 제작 워크플로 향상 및 생태계 확장
개발 및 공급 : 에픽게임즈 주요 특징 : 언리얼 엔진 통합 및 워크플로 간소화, 새로운 파라메트릭 보디 시스템, 신규 언리얼 엔진 의상 애셋, 고퀄리티 실시간 애니메이션 및 오디오 기반 애니메이션 제작 향상, 다양한 DCC 툴을 위한 플러그인 및 스타터 키트 모음 등   혁신적인 디지털 휴먼 툴세트인 메타휴먼(MetaHuman)이 얼리 액세스를 종료하고, 다양한 기능을 갖춘 새 버전을 출시했다. 에픽게임즈는 메타휴먼 5.6 출시를 통해 주요 기능을 새롭게 제공하는 한편, 메타휴먼의 활용 범위를 넓혀주는 새로운 라이선스 옵션과 통합 기능을 도입했다. 이제 메타휴먼 크리에이터는 언리얼 엔진에 통합되어 향상된 퀄리티는 물론 얼굴, 체형, 의상을 더욱 다양하게 확장할 수 있는 새로운 제작 워크플로를 제공한다. 메타휴먼 애니메이터 역시 업데이트되어 거의 모든 카메라 또는 오디오로 실시간 애니메이션을 생성하는 기능이 추가됐다.   그림 1. 이미지 출처 : ‘메타휴먼 시즐릴 | 언리얼 페스트’ 영상 캡처   메타휴먼 크리에이터 언리얼 엔진에서 메타휴먼 제작 메타휴먼 크리에이터가 이제 언리얼 엔진에 통합되어 크리에이터로부터 많은 요청을 받았던 기능을 제공한다. 더 이상 인스턴스를 기다리거나 제한된 세션 시간을 신경 쓸 필요가 없으며, 익스포트 과정이 신속한 어셈블리 단계로 대체되어 반복 작업이 더 빠르고 쉬워졌다. 파이프라인을 관리해야 하는 스튜디오의 경우 메타휴먼 크리에이터(MetaHuman Creator), 메타휴먼 애니메이터(MetaHuman ANIMator), 메시 투 메타휴먼(Mesh to MetaHuman)이 이제 하나의 애플리케이션으로 통합되면서, 캐릭터 제작 워크플로가 간소화되고 로컬 애셋 관리가 한층 유연해지는 이점을 누릴 수 있게 됐다. 또한, 메타휴먼 크리에이터 툴의 풀 소스 코드 액세스가 제공되어 캐릭터 제작 파이프라인의 필요에 맞춰 툴을 확장하고 커스터마이징할 수 있으며, 자동 리깅과 텍스처 합성을 제공하는 클라우드 서비스를 통해 로컬 에디터 내 제작 워크플로가 향상된다.   그림 2. ‘Creator your MetaHumans’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   새로운 파라메트릭 보디 시스템 메타휴먼 크리에이터의 직관적인 페이스 제작 툴이 이제 보디 제작에도 확장됐다. 새로운 파라메트릭 보디 시스템은 광범위한 실제 스캔 데이터를 바탕으로 거의 무한대로 사실적인 체형을 생성할 수 있으며, 페이스 제작 때와 마찬가지로 스컬프팅하고 결합할 수 있다. 또한 키, 가슴, 허리, 다리 길이 등 다양한 신체 치수를 조정하거나 제한할 수 있어, 온라인 패션 쇼핑 등 다양한 용도에 맞춰 특정 비율의 메타휴먼을 제작할 수 있다.   그림 3. ‘MetaHuman body editing’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   새로운 언리얼 엔진 의상 애셋 실제 사람처럼 메타휴먼도 의상이 필요하다. 그 선택의 폭 역시 넓을수록 좋다. 이제 DCC 앱에서 사실적인 메시 기반 의상을 제작하고, 새로운 언리얼 엔진 의상 애셋을 사용하여 메타휴먼을 위한 전체 의상 세트를 생성할 수 있다. 이 기능은 액세서리를 포함한 다양한 의상을 통합된 의상 애셋으로 구성할 수 있다. 다양한 신체 사이즈와 체형에 가장 잘 맞는 의상 애셋을 미리 제작할 수 있으며, 이는 캐릭터의 체형에 따라 자동으로 크기가 조정되므로 모든 신체에 맞는 의상을 생성한다. 의상은 메타휴먼 형식으로 패키징하여 팹 마켓플레이스와 제3자 마켓플레이스에서 구매하거나 판매할 수 있기 때문에, 누구나 사용할 수 있는 기성 메타휴먼 의상의 폭이 더욱 넓어진다.   그림 4. ‘MetaHuman clothing’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   향상된 비주얼 퀄리티 메타휴먼은 최고의 퀄리티와 사실감을 구현할 수 있도록 지속적으로 발전하고 있다. 이를 위해 메타휴먼 데이터베이스의 실제 스캔 데이터가 확장되어, 더욱 다양한 캐릭터 메시 셰이프와 텍스처를 제공한다. 또한 스캔 데이터의 캡처 및 처리 기능도 향상되어 잡티와 같은 디테일까지 더욱 사실적으로 표현할 수 있다. 그 결과, 메타휴먼 크리에이터로 더욱 실감 나는 얼굴 텍스처를 구현하고 한층 다양한 캐릭터를 만들 수 있으며, 메시 투 메타휴먼을 사용하면 임포트한 메시나 캡처된 영상과 더욱 일치하는 메타휴먼을 만들 수 있다.   그림 5. 이미지 출처 : 언리얼 엔진 홈페이지   메타휴먼 애니메이터 웹캠과 스마트폰으로 제작하는 고퀄리티 실시간 애니메이션 메타휴먼 애니메이터를 사용하면 대부분의 웹캠과 다양한 스마트폰을 비롯한 모노 카메라로 배우의 연기를 캡처하고 언리얼 엔진에서 실시간으로 메타휴먼에 애니메이션을 적용할 수 있다. 기존에 지원되던 스테레오 HMC와 아이폰뿐만 아니라 이제 일부 안드로이드 스마트폰을 포함해 언리얼 엔진 라이브 링크와 연동되는 모든 카메라를 지원한다. 실시간 작업이 가능하기 때문에 라이브 공연이나 즉각적인 피드백이 필요한 촬영 현장에서도 메타휴먼은 배우와 완벽하게 동기화된다. 오프라인 작업 역시 프로젝트 요구 사항에 적합한 환경에서 계속 사용할 수 있다.   그림 6. ‘MetaHuman real-time aNIMation’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   향상된 오디오 기반 애니메이션 이제 오디오만으로 리얼타임 애니메이션을 생성할 수 있어, 라이브 연기를 더욱 손쉽게 구현할 수 있게 됐다. 또한 메타휴먼 애니메이터는 오디오 화자의 감정을 분석해 더욱 실감 나는 애니메이션을 생성할 수 있으며, 이를 수동으로 조정해 특정 상황에 맞게 공감할 수 있는 메타휴먼의 연기를 제작할 수 있다. 메타휴먼 애니메이터는 오디오 기반 연기에 실제와 같은 머리 움직임까지 구현하여 더욱 사실적인 결과물을 즉시 만들어 낸다. <그림 7>은 감정을 수동으로 조정할 수 있는 오디오 기반 애니메이션을 보여준다. 윗줄은 왼쪽부터 행복, 슬픔, 혐오를, 아랫줄은 왼쪽부터 화남, 놀람, 두려움을 나타낸다.   그림 7. ‘MetaHuman audio-driven aNIMation’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   어디에서든 활용할 수 있는 메타휴먼 메타휴먼을 언리얼 엔진뿐만 아니라 다른 엔진이나 크리에이티브 소프트웨어에서 사용할 수 있도록 언리얼 엔진 EULA에 새로운 라이선스 옵션이 추가돼, 이제 메타휴먼을 더 다양한 곳에서 만나볼 수 있다. 자세한 내용은 라이선스 페이지에서 확인할 수 있다. 확장된 메타휴먼 에코시스템에는 다른 디지털 콘텐츠 제작 툴의 플러그인 및 스타터 키트 모음이 추가되고 있으며, 여기에는 팹 마켓플레이스 통합도 포함된다.   마야용 메타휴먼 이번 메타휴먼 5.6 출시를 통해 3래터럴의 모든 파이프라인을 누구나 사용할 수 있게 됐다. 리깅 전문가는 마야(Maya)용 메타휴먼을 사용해 캐릭터의 표정을 세밀하게 조정하고 더욱 사실적으로 연출할 수 있다. 또한, 다른 메타휴먼 툴 및 워크플로와의 호환성은 그대로 유지하면서 동시에 마야의 메시 편집 툴세트와 스컬프팅 툴로 메타휴먼 메시를 직접 조작해, 메타휴먼 데이터베이스의 제한을 넘어 독특한 스타일라이즈드 캐릭터나 유사 인간형 캐릭터를 제작할 수 있다.   그림 8. ‘MetaHuman for Maya’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   그룸 아티스트는 이 플러그인으로 마야의 기존 XGen 시스템에서 생성한 메타휴먼 호환 그룸을 Alembic 파일로 익스포트할 수 있다.   후디니용 메타휴먼 후디니(Houdini)의 프로시저럴 툴세트를 활용해 메타휴먼을 위한 포니테일, 매듭, 둥근 올림머리, 땋은 머리, 도넛형 헤어와 같은 복잡한 헤어 스타일을 제작할 수 있다. 후디니용 메타휴먼 플러그인 및 스타터 키트로 후디니에서 메타휴먼 호환 그룸을 생성하고, Alembic 파일 포맷을 통해 언리얼 엔진으로 임포트해 메타휴먼에 손쉽게 적용할 수 있다.   그림 9. ‘MetaHuman for Houdini’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)   팹에서 만나는 메타휴먼 모든 디지털 콘텐츠 크리에이터가 디지털 애셋을 검색, 공유, 구매 그리고 판매할 수 있는 에픽의 오픈 마켓플레이스인 팹(Fab)과 제3자 마켓플레이스에서 메타휴먼과 의상, 그룸 등 메타휴먼 호환 액세서리를 구매하고 판매할 수 있다. 5.6 이상의 버전에서 생성된 모든 메타휴먼은 동일한 공통 표준을 준수하기 때문에 여러 캐릭터에 애니메이션, 의상, 그룸을 재사용하고 공유할 수 있다. 이로써 누구나 어디에서든 사용할 수 있는 메타휴먼과 메타휴먼 호환 액세서리의 종류와 범위가 대폭 확대될 것으로 예상되며, 이를 통해 메타휴먼을 프로젝트에 더욱 빠르고 손쉽게 사용할 수 있을 것으로 전망된다.   그림 10. ‘MetaHuman on Fab’ 영상 캡처(출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크’ 국내 예약 주문 시작
엔비디아가 차세대 개인용 AI 슈퍼컴퓨터 ‘엔비디아 DGX 스파크(NVIDIA DGX Spark)’의 국내 예약 주문을 시작한다고 밝혔다. DGX 스파크는 책상 위에 올려 놓을 수 있는 크기의 AI 슈퍼컴퓨터로 생성형 AI, 거대 언어 모델(LLM), 고속 추론 등 다양한 AI 워크플로를 로컬 환경에서 효율적으로 구현할 수 있도록 설계됐다. AI 개발이 고도화됨에 따라, 조직은 데이터 보안 강화와 지연 최소화, 배포 유연성 등을 고려해 로컬 환경에서 직접 AI 모델을 개발하고 실행할 수 있는 시스템을 요구하고 있다. DGX 스파크는 이러한 수요에 대응해 데스크톱 환경에서도 데이터 크기나 위치, 모델 규모에 제약 없이 민첩하고 효율적인 AI 개발이 가능하도록 지원한다.     DGX 스파크는 데스크톱 폼팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)을 탑재해 FP4 정밀도 기준, 최대 1페타플롭의 AI 성능을 제공한다. 또한, 고성능 엔비디아 커넥트-X(Connect-X) 네트워킹으로 두 대의 엔비디아 DGX 스파크 시스템을 연결해 최대 4,050억 개 파라미터의 AI 모델을 처리할 수 있다. DGX 스파크는 128GB 메모리를 탑재했으며, 엔비디아 AI 소프트웨어 스택이 사전 설치돼 있다. 이를 통해 딥시크, 메타, 구글 등에서 선보인 최대 2000억 개 파라미터의 최신 AI 모델도 로컬 환경에서 직접 프로토타이핑, 미세 조정, 추론할 수 있다. 또한, 사용자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama) 등 익숙한 개발 도구를 사용할 수 있으며, 이를 DGX 클라우드나 가속화된 데이터센터 환경으로 손쉽게 확장할 수 있다. 이와 함께 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprint)에 대한 액세스를 통해 AI 애플리케이션을 더욱 빠르게 개발하고 배포할 수 있도록 지원한다. 엔비디아는 “DGX 스파크는 올해 엔비디아 연례 개발자 콘퍼런스인 GTC와 컴퓨텍스(COMPUTEX)에서 공개된 이후 큰 관심을 받아왔으며, 이번 국내 예약 주문을 계기로 본격적인 보급이 기대된다”고 전했다. DGX 스파크의 국내 예약 주문은 엔비디아 공식 홈페이지를 통해 진행된다. 국내 주요 파트너사 중 원하는 업체를 선택해 예약할 수 있으며, 대량 구매도 가능하다. 공식 파트너사로는 에즈웰에이아이, 비엔아이엔씨, 디에스앤지, 아이크래프트, 리더스시스템즈, 메이머스트, MDS테크, 유클릭, 씨이랩, 제스프로가 있다.
작성일 : 2025-07-29
3D 애플리케이션 개발 플랫폼, 엔비디아 옴니버스(NVIDIA Omniverse)
 주요 디지털 트윈 소프트웨어   3D 애플리케이션 개발 플랫폼, 엔비디아 옴니버스(NVIDIA Omniverse) 개발 및 공급 : 엔비디아, www.nvidia.com   엔비디아 옴니버스(NVIDIA Omniverse)는 산업 디지털화와 물리 AI 시뮬레이션을 위한 3D 애플리케이션 개발 플랫폼이다. 오픈USD(OpenUSD)와 RTX 렌더링 기술을 3D 산업 디지털화 애플리케이션에 쉽게 통합할 수 있도록 서비스, API, SDK 등을 제공한다.  1. 제품 종류 (1) 옴니버스 엔터프라이즈(Omniverse Enterprise)  기업을 위한 협업과 시뮬레이션 플랫폼으로, 사용하기 쉬운 도구를 통해 고급 실시간 3D 애플리케이션을 구축하고 제품, 에셋, 시설을 고충실도로 시각화하고 시뮬레이션한다. (2) 엔비디아 아이작 심(NVIDIA Issac Sim) 로봇 개발과 시뮬레이션을 위한 플랫폼으로, 물리 기반 환경에서 로봇과 자율 머신을 테스트하고 검증하며 훈련할 수 있다.  이 외에도 산업, 엔터프라이즈, 크리에이터, 개발자들을 돕는 여러 옴니버스 솔루션들이 있다. 2. 주요 기능 (1) 옴니버스 엔터프라이즈 비파괴적 상호 운용성으로 데이터 전송 필요성을 줄인다. 맞춤형 워크플로우와 앱을 빠르게 개발하며, AI를 활용해 반복 작업을 자동화한다. (2) 엔비디아 아이작 심 AI 기반 로봇을 개발을 위한 가상 환경을 제공하며, 센서 시뮬레이션, 탐색, 조작, 딥 러닝 애플리케이션을 지원한다. 합성 데이터 생성, 도메인 무작위화, 강화 학습 기능도 포함된다. 3. 주요 이점 (1) 쉬운 맞춤화와 확장 옴니버스 SDK는 다양한 3D 개발에 활용되며, 로우코드나 노코드 샘플 앱, 수정이 용이한 확장 프로그램을 통해 새로운 도구와 워크플로우를 기초 단계부터 개발할 수 있다. (2) 3D 애플리케이션 확장 옴니버스 클라우드 API를 통해 오픈USD, RTX, 가속 컴퓨팅, 생성형 AI 기술로 기존 소프트웨어 도구와 애플리케이션을 강화할 수 있다. (3) 어디에나 배포 가능 RTX 지원 워크스테이션 또는 가상 워크스테이션에서 맞춤형 애플리케이션을 개발하고 배포하거나 옴니버스 클라우드에서 애플리케이션을 호스팅하고 스트리밍할 수 있다. 4. 도입 효과 (1) 산업 영상 제작사는 옴니버스로 사실적인 디지털 세트와 가상 환경을 구현해 몰입감 있는 영상 효과를 만들어낸다.  (2) 엔터프라이즈 다양한 지역과 소프트웨어 도구에서 협업해 실시간 공장 설계와 계획을 진행한다. 직원 능률과 공정 효율성을 높이는 새로운 워크플로우로 생산 속도와 고객 경험을 향상한다. (3) 크리에이터 옴니버스 머시니마(MachiNIMa) 애플리케이션으로 캐릭터와 소품 등에 애니메이션 클립을 적용한다. AI 기능을 기반으로 표정과 움직임을 더욱 생동감 있게 구현한다. (4) 개발자 옴니버스 클라우드 API와 SDK를 통해 고급 3D 애플리케이션 개발을 지원하며, 오픈USD 네이티브 앱과 확장 프로그램을 제작할 수 있다. 5. 주요 고객 (1) 지멘스(Siemens) 클라우드 기반 제품 수명주기 관리 소프트웨어인 팀센터 X(Teamcenter X)와 지멘스 엑셀러레이터(Xcelerator) 플랫폼에 옴니버스 클라우드 API를 채택했다. 옴니버스 API에 연결된 팀센터 X 소프트웨어는 설계 데이터를 엔비디아 생성형 AI API에 연결한 다음, 옴니버스 RTX 렌더링을 애플리케이션 내에서 직접 사용할 수 있다. (2) 폭스콘(Foxconn) 생산설비와 장비 레이아웃을 가상으로 통합하는 데 옴니버스를 채택했다. 이러한 가상 통합은 실제 운영에서 비용이 많이 드는 변경 사항을 크게 줄인다. 폭스콘은 내년 초 가동 예정인 멕시코 공장 구축에도 옴니버스를 채택했으며, 연간 30% 이상의 전략 사용량 감소를 기대하고 있다.   상세 내용은 <디지털 트윈 가이드>에서 확인할 수 있습니다. 상세 내용 보러가기
작성일 : 2025-06-29
엔비디아, “모델 양자화로 스테이블 디퓨전 성능 높였다”
엔비디아가 양자화를 통해 스테이블 디퓨전 3.5(Stable Diffusion 3.5) 모델의 성능을 향상시켰다고 발표했다. 생성형 AI는 사람들이 디지털 콘텐츠를 만들고, 상상하며, 상호작용하는 방식을 혁신적으로 바꾸고 있다. 그러나 지속적으로 AI 모델의 기능이 향상되고 복잡성이 증가면서 더 많은 VRAM이 요구되고 있다. 예를 들어 기본 스테이블 디퓨전 3.5 라지(Large) 모델은 18GB 이상의 VRAM을 사용하므로 고성능 시스템이 아니면 실행이 어렵다. 엔비디아는 이 모델에 양자화를 적용하면 중요하지 않은 레이어를 제거하거나 더 낮은 정밀도로도 실행할 수 있다고 설명했다. 엔비디아 지포스(GeForce) RTX 40 시리즈와 에이다 러브레이스(Ada Lovelace) 세대 엔비디아 RTX PRO GPU는 FP8 양자화를 지원해 이러한 경량화된 모델을 실행할 수 있다. 또한 최신 엔비디아 블랙웰(Blackwell) GPU는 FP4도 지원한다.     엔비디아는 스태빌리티 AI(Stability AI)와 협력해 최신 모델인 스테이블 디퓨전 3.5 라지를 FP8로 양자화해 VRAM 사용량을 40%까지 줄였다. 여기에 엔비디아 텐서RT(TensorRT) 소프트웨어 개발 키트(SDK)를 통한 최적화로 스테이블 디퓨전 3.5 라지와 미디엄 모델의 성능을 2배로 끌어올렸다. 또한, 텐서RT가 RTX AI PC 환경을 위해 새롭게 설계됐다. 높은 성능과 JIT(Just-In-Time), 온디바이스 엔진 구축 기능을 더하고 패키지 크기를 8배 줄여 1억 대 이상의 RTX AI PC에 AI를 원활하게 배포할 수 있게 됐다. RTX용 텐서RT는 이제 개발자를 위한 독립형 SDK로 제공된다. 엔비디아와 스태빌리티 AI는 인기 있는 AI 이미지 생성 모델 중 하나인 스테이블 디퓨전 3.5의 성능을 높이고 VRAM 요구 사항을 낮췄다. 엔비디아 텐서RT 가속과 양자화 기술을 통해, 사용자는 엔비디아 RTX GPU에서 이미지를 더 빠르고 효율적으로 생성하고 편집할 수 있다. 스테이블 디퓨전 3.5 라지의 VRAM 한계를 해결하기 위해 이 모델은 텐서RT를 활용해 FP8로 양자화됐다. 그 결과, VRAM 요구량이 40% 줄어 11GB면 충분해졌다. 즉, 단 한 대의 GPU가 아닌 다섯 대의 지포스 RTX 50 시리즈 GPU가 메모리에서 모델을 동시에 실행할 수 있게 됐다. 또한 스테이블 디퓨전 3.5 라지와 미디엄 모델은 텐서RT를 통해 최적화됐다. 텐서RT는 텐서 코어를 최대한 활용할 수 있도록 설계된 AI 백엔드로, 모델의 가중치와 모델 실행을 위한 명령 체계인 그래프를 RTX GPU에 맞게 최적화한다.  FP8 텐서RT는 스테이블 디퓨전 3.5 라지의 성능을 BF16 파이토치 대비 2.3배 향상시키면서 메모리 사용량은 40% 줄여준다. 스테이블 디퓨전 3.5 미디엄의 경우, BF16 텐서RT는 BF16 파이토치 대비 1.7배 더 빠르다. FP8 텐서RT를 적용한 결과, 스테이블 디퓨전 3.5 라지 모델은 BF16 파이토치(PyTorch)에서 실행했을 때보다 성능이 2.3배 향상됐고, 메모리 사용량은 40% 감소했다. 스테이블 디퓨전 3.5 미디엄 모델도 BF16 텐서RT를 통해 BF16 파이토치 대비 1.7배 더 높은 성능을 발휘했다. 최적화된 모델은 현재 스태빌리티 AI의 허깅페이스(Hugging Face) 페이지에서 이용할 수 있다. 또한 엔비디아와 스태빌리티 AI는 스테이블 디퓨전 3.5 모델을 엔비디아 NIM 마이크로서비스 형태로도 출시할 계획이다. 이를 통해 크리에이터와 개발자는 다양한 애플리케이션에서 보다 쉽게 모델을 접근하고 배포할 수 있게 된다. 이 NIM 마이크로서비스는 오는 7월 출시될 예정이다.
작성일 : 2025-06-18
어도비 익스프레스, 새로운 AI 기반 영상 편집 툴 추가
어도비가 어도비 익스프레스(Adobe Express)의 영상 편집 및 생성 기능을 강화한 새로운 역량을 발표했다.  어도비 익스프레스는 크리에이티브 전문가부터 직장인, 개인 사업자, 소규모 기업에 이르기까지 누구나 쉽게 콘텐츠를 제작하고 게시해 비즈니스를 성장시키며, 영향력 있는 커뮤니케이션을 할 수 있도록 지원한다. 어도비는 “이번 업데이트는 정적인 디자인과 이미지를 애니메이션으로 변환하고, 브랜드 가이드라인에 맞는 영상 푸티지를 빠르게 생성할 수 있도록 돕는다. 고객은 이를 통해 콘텐츠의 도달 범위와 영향력을 한층 확대할 수 있다”고 소개했다. 크리에이티브 전문가는 어도비 익스프레스를 통해 정적인 이미지를 영상으로 변환하고 이를 고객이나 동료에게 간단하게 전달하는 등 업무의 완성도를 높일 수 있다. 마케터, 영업 팀, 사내 커뮤니케이션 담당자 등 기업 사용자는 크리에이티브 팀이 제작한 템플릿을 바탕으로 브랜드 가이드라인에 맞는 콘텐츠를 제작하고, 이를 다양한 언어와 스타일로 현지화해 여러 시장에 맞게 대규모로 활용하고 있다. 개인 사업자와 소규모 비즈니스 팀은 콘텐츠를 간편하게 제작하고 소셜 채널에 게시할 수 있는 툴을 활용해 새로운 잠재 고객에게 도달하고, 비즈니스의 성장을 추구할 수 있다.     어도비 익스프레스가 새롭게 선보이는 영상 기능은 다양한 채널에 적합한 영상 콘텐츠를 쉽게 제작할 수 있도록 돕는다. 클립 메이커(Clip Maker)는 AI를 활용해 팟캐스트, 인터뷰, 데모 등 긴 영상에서 주요 장면을 찾아내고 캡션을 추가하며 클립을 재구성해, 다양한 채널에 최적화된 공유 가능한 클립으로 변환하는 기능이다. 파이어플라이 비디오 모델(Firefly Video Model)로 구동되는 비디오 생성(Generate Video)은 텍스트와 이미지 프롬프트를 활용해 상업적으로 안전한 사용자 지정 b-롤과 배경 푸티지를 생성한다. 음성 향상(Enhance Speech) 기능은 한 번의 탭으로 방해되는 배경 소음을 제거하여 깔끔한 전문가 수준의 음질을 제공한다. 비디오 셀프 녹화(Video Self-Record) 기능을 사용하면 어도비 익스프레스 내에서 직접 녹화하고 튜토리얼, 영상 팟캐스트, 릴스 등의 콘텐츠에 개인적인 감성을 더할 수 있다. 클립을 매끄러운 시퀀스로 편집하는 드롭 영역(Drop Zone), 클립을 쉽게 재배치하고 일괄 편집할 수 있도록 도와 영상 편집 속도를 높이는 장면 보기(Scene View) 기능도 새롭게 선보인다. 이 밖에 플랫폼으로 직접 내보내기 및 게시를 통해 공유 현황을 빠르게 추적할 수 있도록 비메오 애드온(Vimeo add-on)도 제공한다. 어도비 익스프레스의 새로운 다이내믹 애니메이션(Dynamic ANIMation)은 고급 물리 시뮬레이션을 활용해 흔들림과 바람 효과 같은 자연스럽고 경쾌한 모션을 더해준다.  어도비는 브랜드 가이드라인에 맞는 콘텐츠를 더욱 빠르고 쉽게 제작할 수 있도록 돕는 기능도 어도비 익스프레스에 새롭게 추가됐다고 소개했다. 비슷하게 생성(Generate Similar)은 어도비 익스프레스의 브랜드 가이드라인에 맞는 제작 역량을 확장해 고객이 브랜드 가이드라인에 맞는 단일 이미지를 일관된 스타일의 이미지 콜렉션으로 몇 초 만에 전환할 수 있도록 지원한다. 이 기능은 상업적으로 안전한 파이어플라이 모델로 구동된다. 콘텐츠를 전문가급으로 보정하고 원하는 스타일로 완성할 수 있도록 돕는 30가지 이상의 신규 필터도 어도비 익스프레스에서 바로 사용할 수 있다. 해당 필터는 포토샵의 고급 이미징 기술로 구동된다.   어도비에 따르면 어도비 익스프레스의 기업 고객 수는 2025년 4월 기준으로 전 분기 대비 50% 증가했으며, 어도비 익스프레스 프리미엄을 사용하는 학생 수는 전년 대비 85% 늘었다. 또한 내셔널 풋볼 리그(NFL), EA 스포츠, 레알 마드리드, 내셔널 위민스 사커 리그(NWSL), 챗GPT, 슬랙, 미로, 구글, 허브스팟 등으로 파트너십을 확대하며 수백만 명의 소비자 및 기업 사용자가 사용 중이며, 250개 이상의 애드온을 통해 확장된 역량도 제공하고 있다. 뿐만 아니라 최근에는 에이전트 AI를 통해 창의성과 생산성을 가속화하고, 콘텐츠 제작 과정을 보다 직관적이고 효율적으로 재정의하겠다는 비전도 공개했다. 어도비 익스프레스는 누구나 무료로 시작해 볼 수 있다. 또, 크리에이티브 클라우드 구독자는 웹과 모바일에서 추가 비용 없이 어도비 크리에이티브 클라우드와 함께 사용할 수 있다. 새롭게 선보이는 클립 메이커, 드롭 영역, 비디오 생성 및 비메오 애드온은 어도비 익스프레스 웹에서 이용할 수 있다. 장면 보기, 음성 향상, 다이내믹 애니메이션, 비슷하게 생성, 비디오 셀프 녹화 기능과 포토샵 구동 30가지 이상의 신규 이미지 필터는 어도비 익스프레스 웹 및 모바일에서 모두 사용 가능하다. 어도비의 고빈드 발라크리쉬난(Govind Balakrishnan) 어도비 익스프레스 수석 부사장 겸 총괄은 “입소문 타는 소셜 미디어 게시물부터 홍보에 도움되는 프레젠테이션, 새로운 잠재고객에게 도달하는 현지화 된 마케팅 캠페인까지 수많은 고객이 아이디어를 강력한 성과로 전환하기 위해 어도비 익스프레스를 선택하고 있다”면서, “새로운 AI 구동 영상 및 애니메이션 역량을 도입해 사용자가 브랜드를 더 돋보이게 할 수 있게 돼 기쁘다”고 말했다.
작성일 : 2025-06-09