• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "파운데이션 모델"에 대한 통합 검색 내용이 175개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[기업탐방] DX Accelerator 디엑셀, 지능형 공장 서비스로 제조업을 바꾸다
고객맞춤 제조 IT시스템 솔루션 코디네이션 전문기업 지능형 공장 서비스·DX Accelerator, 디엑셀   디지털 기술의 발전으로 글로벌 제조업계는 더 높은 효율성, 맞춤 생산, 그리고 지속 가능성 확대를 위한 혁신기술 개발에 대한 니즈를 키우고 있다. 이러한 트렌드에 맞춘 디지털 기술과 로보틱스를 활용한 제조 시스템이 구현되고 있으며, 개인화·맞춤화를 위한 기능과 프로세스의 진화 속도도 빨라지고 있다. 본지에서는 지능형 공장 서비스와 고객이 필요한 솔루션을 활용하여 기업의 시스템을 코디네이션 하는 ‘디엑셀(DXel, www.dxel.co.kr)을 만났다.   ▲ 디엑셀 김남웅 대표       고객이 필요로 하는 솔루션을 찾아주는 기업 2022년 4월 설립된 디엑셀은 회사명에서도 알 수 있듯 산업계의 디지털 전환을 돕는 ’Digital Transformation Accelerator‘ 기업이다. “당사는 고객이 필요한 솔루션을 코디네이션 하는 제조 시스템 전문기업”이라고 소개하는 김남웅 대표는 “당사 가장 큰 경쟁력은 20여 년간 다양한 산업별 제조 현장을 경험한 전문적인 노하우를 가지고 기업 맞춤 제조 서비스를 제공하고 있는 임직원”이라고 소개하며, 검증된 솔루션을 통해 고객의 업무 효율성을 높이고, 제조산업 시스템의 혁신을 이루고 있다고 부연했다. 2~3년 전의 제조 IT시스템은 생산량, 업무감시, 원가절감 등 관리직 위주로 구축되었다. 그러나 생산성 향상과 품질력 제고에 직접적으로 성과를 내기 위해서는 좀 더 직관적이고, 직원 참여가 가능한 시스템을 구축해야 한다. 이러한 환경 변화에 맞춰 디엑셀은 직원의 감시보다 직원의 참여를 확대할 수 있는 시스템, 제조 현장에 맞춘 MES와 UWB 기반의 실시간 제품 위치 추적시스템을 사업의 모토로 창업하게 되었다. “과거 제조 IT시스템이 ‘관리적 관점’에서 구축되었다면, 이제는 사람을 중심으로 사회적 가치까지 창출할 수 있는 역할로 확대되고 있다”라고 말하는 디엑셀 김남웅 대표는 “우리는 전 직원이 참여할 수 있는 ‘지속 가능한 실천적 제조 IT시스템’을 구축하고 있다”라고 소개한다. 제조산업에 특화된 스마트 플랫폼 서비스 제공 디엑셀은 제조산업에 특화된 스마트 플랫폼을 통해 제조 현장 시스템 개발, UI/UX 프로비저닝 및 대시보드를 구현하기 위한 다양한 레어어를 제공하고 있다. 이 회사 솔루션의 핵심적인 기능인 기준정보 구축과 환경정보 및 시스템을 컨트롤하는 파운데이션 레이어, 제조현장시스템인 공정 정보와 Lot 정보, BOM 정보 등 프로세스 전반을 관할하는 시스템인 프로세스 레이어가 있다. 이와 더불어 사용자 데이터 수집 및 편의성을 제공하는 UI/UX 오퍼레이션 레이어와 수집된 데이터를 각종 디바이스를 통해 사용자에게 제공하는 디스플레이 레이어를 통해 최적의 제조시스템을 제공하고 있다.  디엑셀 김남웅 대표는 “이러한 기술력을 토대로 스마트한 공장 운용을 위한 ‘디지털팩토리 서비스’, 협력사/딜러사 등의 파트너사들과의 ‘디지털 협업공장 공급망 벨류체인 서비스’, 그리고 초광대역통신(Ultra-Wideband, UWB) 기술을 활용한 ‘실시간 고정밀 측위 관리 서비스’ 등 3가지 영역에서 솔루션 코디네이션 서비스를 제공하고 있다”라고 부연했다.   (1) 디지털 팩토리 서비스 이중 디지털 팩토리는 다양한 설비 및 공장 내 장치와의 인터페이스를 통한 실시간 데이터 수집 및 모니터링을 적용하여 디지털 생산 공정 정보를 제공하고 있다. 휴먼 에러를 원천 차단하고, 품질 결과를 학습하여 피드백함으로써 선제 예방 품질 역량을 강화하고 있다. 또한 핵심 생산 및 유관 정보를 표준화하고 디지털화하여, 모든 제조 현장의 데이터 연계로 통합적인 디지털 관리를 실현하고 있다. 특히 생산 현장 정보의 디지털화와 실시간 가시성 확보로 경영 목표 관점의 새로운 영감을 제시하고 있으며, 데이터 분석 기반의 생산 및 품질을 위한 최적화된 제조 운영과 QCD 즉 품질, 원가, 납기의 가치를 극대화하여 최고의 생산 능력을 창출할 기회를 제공하고 있다. (2) 디지털 협업공장 공급망 벨류체인 서비스 디엑셀의 또 다른 서비스는 협력사와 제조 현장, 판매딜러 간의 공급망 디지털 협업공장을 구축하여 클라우드를 기반으로 고객사와 협력사, 그리고 판매딜러의 실시간 재고 데이터를 SaaS(서비스형 소프트웨어) 형태의 애플리케이션으로 제공하는 서비스이다. 이를 통해 고객의 주문을 받은 판매딜러는 제조 공장의 재고 수량 및 위치 데이터를, 제조 공장은 협력사의 재고 수량 및 위치 데이터를 실시간으로 확인할 수 있다. 이는 결과적으로, 불필요한 발주와 재고를 현저히 줄여 원가절감 및 협력사와의 상생을 도모할 수 있다. 이를 기반으로 디엑셀의 시스템은 고객사의 생산계획과 입고 검사, 공정관리를 지원하여 생산실적을 더욱 극대화해하고 있으며, 협력사에는 생산관리, 출하관리, 품질관리의 혁신을 이루어 나가고 있다.  (3) 실시간 고정밀 측위 관리 서비스 차세대 무선 통신 기술인 UWB의 정확한 위치감지 기술은 디지털 공장을 구축하는 데 많은 도움이 된다. 디엑셀의 스마트팩토리 고정밀 측위 관리 솔루션은 국제적인 첨단 UWB 기술을 바탕으로 제조현장의 제품, 부품 및 차량 등의 움직임을 센티미터 수준의 고정밀 측위 서비스로 제공한다. 0차원 존재 감지, 1차원 선형 궤적 측위 및 2차원 지역 평면 측위를 통합한 다차원 측위 모드를 채택하여 사람, 차량, 사물의 실시간 위치를 정확하게 파악할 수 있다. 이러한 기술은 궤적 추적, 작업 시간 통계, 면적 수, 전자 울타리 및 기타 서비스 기능과 결합하여 제조 운영의 효율성을 높이고 공장의 자재 관리 개선, 원가절감 및 공정 흐름 최적화를 제공한다. 김남웅 대표는 “위치 관리시스템과 결합된 저희 솔루션은 스마트팩토리의 관리 수준을 한 단계 높였다고 자부할 수 있다”라고 덧붙였다.  AI 제조 분야 앵커기업으로 부상 최근 디엑셀은 AI 자율제조 선도프로젝트의 일환으로 농기계 다품종 유연생산을 위한 AI 자율제조 국책과제의 공동연구기관으로 선정되어 참여하고 있다. 디엑셀의 실시간 고정밀 측위 관리 기술이 성공적인 AI 자율제조 실현에 필수적인 핵심기술임을 인정받았기 때문이다. “당사는 전라북도 농기계 산업 및 동종업계의 AI 자율제조 선도 표준모델을 구축하는데 무거운 책임감과 사명감을 느끼고 있다”라고 말하는 이 회사 김남웅 대표는 “디엑셀이 보유한 기술을 더욱 강화하고 발전시켜 AI 자율제조 분야의 앵커기업으로 성장하고자 한다”라고 프로젝트 참여에 대한 포부를 밝혔다. 사람이 기업 성장의 답 “아무리 기술이 뛰어나도 그 기술을 용도와 상황, 목적과 요구에 맞게 구현해 낼 사람이 없다면 그 기술은 가지고 있는 능력을 발휘할 수 없다”라고 말하는 디엑셀 김남웅 대표는 “앞서 소개한 바와 같이 우리의 가장 큰 장점은 고객이 요구하는 디지털 전환의 미션을 제대로 수행하기 위해 20년 넘게 많은 산업별 제조환경을 경험한 전문가들이 각자의 노하우를 기반으로 기업 맞춤 제조 서비스를 제공하며, 검증된 솔루션을 통해 업무 효율과 고객 서비스의 혁신을 높인다는 것”이라며, “특히 고객의 니즈를 먼저 파악하고, 선제적으로 솔루션을 제안할 수 있도록 임직원의 역량을 지속적으로 강화하고 있다”라고 부연했다. 이는 디엑셀이 인재 양성에 집중하고 우수한 경험을 가진 전문가를 끊임없이 발굴해 오는 이유기도 하다.  디지털과 인간이 상생하는 시스템을 만들다! 디엑셀은 제조물류산업의 다양한 고객을 만족시키기 위해 유연한 비즈니스 플랫폼을 선보이고 있다. 현재는 제조분야에서 전문역량을 발휘하고 있지만, 디지털 전환이 전 산업에서 일어나듯이 이 회사가 가진 지능형공장 서비스와 위치관리 기술 기반의 혁신 솔루션은 전 산업에 적용될 수 있다.  오늘보다 나은 내일을 꿈꾼다는 김남웅 대표는 “제조 현장에 특화된 디지털팩토리와 더불어 UWB 측위 기술을 기반으로 개발된 실내외 무선 위치 추적 장치, 이 두 개의 솔루션을 융합한 위치관리 기반 디지털팩토리 솔루션을 제공하여 시스템 인프라가 약한 중소기업, 관리의 단계를 높여야 하는 대기업들의 애로를 해결해 주는 것이 우리의 역할”이라며, “우리는 앞으로도 우리나라 산업의 디지털 역량 강화를 넘어 국가 기술 경쟁력 제고에 기여하고, 디지털과 인간이 상생하는 시스템, 새로운 기술이 인정받는 변화된 세상에서 저의 기술이 고객의 성공적인 비즈니스가 되도록 최선을 다하겠다”라고 덧붙였다.
작성일 : 2025-04-30
알리바바 클라우드, 최신 오픈소스 영상 생성 모델 공개
알리바바 클라우드가 새로운 오픈소스 영상 생성 모델인 ‘Wan2.1-FLF2V-14B’를 공개했다. 이번 모델은 시작 프레임과 종료 프레임을 입력값으로 활용해, 보다 정교하고 직관적인 영상 생성이 가능하도록 설계되었다. 이를 통해 숏폼 콘텐츠 제작자는 자신만의 AI 모델과 애플리케이션을 보다 효율적이고 경제적으로 개발할 수 있을 것으로 기대된다. Wan2.1-FLF2V-14B는 알리바바 클라우드의 파운데이션 모델 시리즈인 ‘Wan2.1’에 속하며, 텍스트와 이미지 입력을 기반으로 고품질의 이미지와 영상을 생성하는 데 최적화된 모델이다. 현재 이 모델은 오픈소스 플랫폼인 허깅페이스(Hugging Face), 깃허브(GitHub), 알리바바 클라우드의 오픈소스 커뮤니티 모델스코프(ModelScope)를 통해 누구나 자유롭게 활용할 수 있다. 이 모델은 사용자 명령어의 정밀한 실행은 물론, 첫 프레임과 마지막 프레임 사이의 시각적 일관성을 유지하며, 복잡한 동작을 자연스럽게 연결해 사실적인 영상 결과물을 제공한다. Wan 시리즈의 공식 웹사이트에서는 해당 모델을 활용해 720p 해상도의 5초 분량 영상을 무료로 생성 가능하다.     이번 모델의 핵심 기술은 ‘제어 조정 메커니즘(Control Adjustment Mechanism)’이다. 사용자가 제공한 시작 프레임과 종료 프레임을 제어 조건으로 활용함으로써, 두 장면 사이의 부드럽고 정밀한 전환을 가능하게 한다. 또한 시각 안정성을 확보하기 위해, 해당 메커니즘은 시작 프레임과 종료 프레임에 포함된 의미 정보를 생성 과정에 반영하는데, 이를 통해 프레임을 동적으로 변형하면서도 스타일과 콘텐츠, 구조적 일관성을 함께 유지할 수 있다. 알리바바 클라우드는 지난 2월에 Wan2.1 시리즈 내 4종의 AI 모델을 오픈소스로 공개한 바 있다. 해당 시리즈는 현재까지 허깅페이스와 모델스코프에서 누적 220만 건 이상의 다운로드를 기록했다. Wan2.1 시리즈는 중국어와 영어 기반 텍스트 효과를 모두 지원하는 영상 생성 AI 모델로, 복잡한 움직임과 픽셀 표현, 명령 수행 정확도 면에서 높은 성능을 보인다. 한편, 알리바바 클라우드는 2023년 8월 최초의 오픈형 대규모 언어모델 ‘큐원-7B(Qwen-7B)’를 공개했다. 큐원 시리즈는 허깅페이스의 오픈 LLM 리더보드에서 지속적으로 최상위권을 기록하며, 다양한 벤치마크에서 세계 주요 AI 모델과 대등한 성능을 입증한 바 있다. 지난 수년간 알리바바 클라우드는 200개 이상의 생성형 AI 모델을 오픈소스로 공개해 왔으며, 현재까지 허깅페이스를 기반으로 약 10만 개 이상의 파생 모델이 개발되었다.
작성일 : 2025-04-24
지멘스, “AI 기반 산업으로 전환 가속화”…하노버 메세 2025서 혁신 기술 및 파트너십 발표
한국지멘스는 지멘스그룹이 3월 31일부터 4월 4일 독일에서 열린 ‘2025 하노버 산업 박람회(하노버 메세)’에 참가해 산업 전반의 디지털 전환과 지속 가능한 미래를 가속화하는 혁신 기술을 선보이고, 강력한 에코시스템 파트너들과의 성공적인 협업 현황을 공유했다고 밝혔다. 지멘스는 이번 하노버 메세를 통해 공장의 두뇌 역할을 하는 가상 프로그램 로직 제어기(vPLC)를 아우디의 뵐링거 회페 공장에 도입한 사례를 소개했다. 이 공장에서는 기존처럼 기계나 로봇 근처에 하드웨어 기반 컨트롤러를 설치하는 대신 수 킬로미터 떨어진 데이터 센터에서 작동하는 가상 컨트롤러가 공장 전체의 생산을 제어함으로써 현장의 안전성을 강화하고, 생산 프로세스를 간소화하며, 제조 공정의 효율화를 이끌고 있다. 이와 관련해 지멘스는 독일기술검사협회(TÜV)로부터 vPLC에 대한 안전 인증을 획득했다. 지멘스는 개방형 디지털 비즈니스 플랫폼을 지향하는 ‘지멘스 엑셀러레이터(Siemens Xcelerator)’를 통해 파트너가 보유한 최첨단 기술을 산업 생태계에 원활하게 통합시킨다는 전략을 추진하고 있다. 지멘스의 핵심 역량과 글로벌 파트너 에코시스템이 결합된 지멘스 엑셀러레이터로 첨단 기술의 확장과 차세대 산업 혁신을 주도하는 핵심 동력을 만들겠다는 것이다.     이번 하노버 메세에서 지멘스와 액센츄어는 전 세계 7000여명의 전문가로 구성된 ‘액센츄어 지멘스 비즈니스 그룹’을 출범한다고 발표했다. 이 조직은 지멘스 엑셀러레이터 포트폴리오의 산업용 AI 및 소프트웨어, 자동화 기술과 액센츄어의 데이터 및 AI 역량을 결합한 설루션을 공동 개발하고 판매할 예정이다. 또한, 지멘스는 하노버 메세에서 엔비디아와의 파트너십을 통한 산업용 메타버스 기술을 시연하면서, 지멘스 엑셀러레이터와 엔비디아 옴니버스(Omniverse)를 통합한 ‘팀센터 디지털 리얼리티 뷰어(Teamcenter Digital Reality Viewer)’를 처음 공개했다. 시각화 및 시뮬레이션 기능이 향상된 팀센터 디지털 리얼리티 뷰어는 극사실적인 몰입형 디지털 트윈을 구현하여 사용자에게 설계 및 운영 워크플로에 대한 중요한 인사이트를 제공한다. 이 밖에도 양사는 지멘스의 산업용 소프트웨어 및 자동화 포트폴리오와 엔비디아의 AI 및 가속 컴퓨팅 기술을 결합해 산업 전반의 효율 및 생산성을 높이고자 한다.  지멘스는 마이크로소프트와 함께 '산업용 파운데이션 모델(IFM)'을 개발했다. 마이크로소프트 애저(Azure) 플랫폼을 기반으로 산업 특화 데이터를 활용하는 이 모델은 AI에게 엔지니어링 언어를 학습시킴으로써, 3D 모델과 2D 도면은 물론 산업에 특화된 복잡한 데이터와 기술 사양을 처리하고 맥락화할 수 있다. 지멘스는 IFM이 인간과 기계의 협업을 한 단계 끌어올려 산업 현장의 AI 설루션 도입을 앞당기고, 숙련 인력 부족 문제를 해소하며, 가치 사슬 전반에 걸쳐 생산성과 효율성, 품질을 향상시킬 것으로 기대하고 있다. 또한, 지멘스와 마이크로소프트는 지멘스의 실시간 데이터 수집 툴인 인더스트리얼 엣지(Industrial Edge)와 마이크로소프트 애저의 클라우드 플랫폼을 통합하는 산업 운영 효율화를 위한 파트너십을 강화하고 있다. 지멘스와 아마존웹서비스(AWS)는 지속 가능한 스마트 인프라를 발전시키기 위한 전략적 파트너십을 발표했다. 양사는 하노버 메세에서 지멘스의 디지털 빌딩 플랫폼 ‘빌딩 X(Building X)’와 아마존 노바(Amazon Nova), 아마존 베드록(Amazon Bedrock) 등 AWS의 클라우드 서비스 및 AI 역량을 결합한 성과를 선보였다. 이를 통해 효율성 증대, 비용 절감, 프로세스 자동화와 함께 에너지 소비 및 탄소 배출 데이터에 대한 실시간 인사이트를 기반으로 에너지 절감 효과까지 거둘 수 있음을 보여줬다. 지멘스그룹의 롤랜드 부시(Dr. Roland Busch) 회장 및 최고경영자는 하노버 메세의 개막 연설에서 전 세계의 중대한 산업 변화를 이끌 핵심 기술로 ‘산업용 AI’를 꼽았다. 롤랜드 부시 회장은 “올해 하노버 메세는 산업계가 역동적인 기술 및 시장 환경 변화에 직면해 있는 대변혁의 시기임을 보여준다. 지멘스는 산업용 AI, 포괄적인 디지털 트윈, 소프트웨어 정의 자동화(SDA) 분야를 선도하는 기업으로서 고객이 경쟁력과 회복 탄력성, 지속 가능성을 높이고 변화를 이끌어 나갈 수 있도록 지원한다”고 전했다. 이어 롤랜드 부시 회장은 “지멘스는 산업 현장에 대한 전문성과 깊은 이해, 충분한 데이터를 보유하고 있으며, 이러한 지멘스의 역량과 AI를 결합함으로써 엄청난 시너지 효과를 낼 것”이라고 전망했다.
작성일 : 2025-04-07
엔비디아, 개인용 AI 컴퓨터 ‘DGX 스파크’ 및 ‘DGX 스테이션’ 발표
엔비디아가 자사의 연례 콘퍼런스인 GTC에서 엔비디아 그레이스 블랙웰(NVIDIA Grace Blackwell) 플랫폼을 기반으로 한 엔비디아 DGX 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크(DGX Spark)’와 ‘DGX 스테이션(DGX Station)’을 발표했다. DGX 스파크와 DGX 스테이션은 블랙웰 울트라(Blackwell Ultra) 플랫폼을 기반으로 한 고성능 그레이스 블랙웰 데스크톱 슈퍼컴퓨터이다. 이들 제품은 AI 개발자, 연구자, 데이터 과학자, 학생이 데스크톱에서 대규모 모델을 프로토타입 제작, 미세 조정, 추론할 수 있도록 지원한다. 사용자는 이러한 모델을 로컬에서 실행하거나 엔비디아 DGX 클라우드(DGX Cloud), 기타 가속 클라우드, 데이터센터 인프라에 배포할 수 있다. DGX 스파크와 DGX 스테이션은 기존에 데이터센터에서만 사용할 수 있었던 그레이스 블랙웰 아키텍처의 성능을 데스크톱으로 가져온다. DGX 스파크와 DGX 스테이션을 개발하는 글로벌 시스템 빌더로는 에이수스, 델 테크놀로지스, HP, 레노버 등이 있다.     DGX 스파크는 작은 크기의 AI 슈퍼컴퓨터로, 수백만 명의 연구자, 데이터 과학자, 로봇 개발자, 학생에게 높은 성능과 다양한 기능을 제공한다. 이를 통해 생성형 AI와 물리 AI의 한계를 뛰어넘을 수 있도록 지원한다. DGX 스파크의 핵심은 데스크톱 폼 팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)이다. GB10은 5세대 텐서 코어(Tensor Core)와 FP4를 지원하는 엔비디아 블랙웰 GPU를 탑재해 초당 최대 1000조 회의 연산을 수행할 수 있다. 또한, 엔비디아 코스모스 추론(Cosmos Reason) 월드 파운데이션 모델과 엔비디아 GR00T N1 로봇 파운데이션 모델 비롯한 최신 AI 추론 모델을 통해 미세 조정과 추론을 수행할 수 있다. GB10 슈퍼칩은 엔비디아 NV링크(NVLink)-C2C 상호 연결 기술을 사용해 5세대 PCIe 대비 5배 높은 대역폭을 지원하는 CPU+GPU 코히어런트 메모리 모델을 구현한다. 이를 통해 GPU와 CPU 간 데이터에 액세스해 메모리 집약형 AI 개발자 워크로드 성능을 최적화할 수 있다. DGX 스파크 사용자는 엔비디아의 풀스택 AI 플랫폼을 사용해 코드를 거의 변경하지 않고도 모델을 데스크톱에서 DGX 클라우드 또는 기타 가속화된 클라우드나 데이터센터 인프라로 원활하게 이동할 수 있다. 이를 통해 그 어느 때보다도 쉽게 워크플로의 프로토타이핑, 미세 조정, 반복 작업을 수행할 수 있다. DGX 스테이션은 데스크톱에 AI 개발을 위한 데이터센터 수준의 성능을 구현한다. 이는 엔비디아 GB300 그레이스 블랙웰 울트라 데스크톱 슈퍼칩이 탑재된 첫 번째 데스크톱 시스템으로, 대규모 훈련과 추론 워크로드 가속화를 위한 784GB의 코히어런트 메모리 공간을 갖추고 있다. GB300 데스크톱 슈퍼칩은 최신 세대 텐서 코어와 FP4 정밀도를 갖춘 엔비디아 블랙웰 울트라 GPU를 탑재하고 있다. 또한 NV링크-C2C를 통해 고성능 엔비디아 그레이스 CPU에 연결돼 빠른 시스템 통신과 높은 성능을 지원한다. 또한, DGX 스테이션은 하이퍼스케일 AI 컴퓨팅 워크로드를 강화하도록 최적화된 엔비디아 커넥트X(ConnectX)-8 슈퍼NIC(SuperNIC)를 갖추고 있다. 초당 최대 800기가비트(Gb/s)의 네트워킹을 지원하는 커넥트X-8 슈퍼NIC는 빠르고 효율적인 네트워크 연결을 제공한다. 이를 통해 보다 큰 워크로드에서도 다수의 DGX 스테이션을 고속 연결하고, AI 워크로드를 위한 네트워크 가속 데이터 전송을 구현한다. 엔비디아는 “이러한 최첨단 DGX 스테이션 기능과 엔비디아 쿠다(CUDA)-X AI 플랫폼을 결합하면 탁월한 데스크톱 AI 개발 성능을 확보할 수 있다”고 설명했다. 또한 사용자는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼을 사용해 엔비디아 NIM 마이크로서비스에 액세스할 수 있다. 이를 통해 엔터프라이즈 지원이 포함된 고도로 최적화되고 배포하기 쉬운 추론 마이크로서비스를 사용할 수 있다. 엔비디아에 따르면 DGX 스파크 시스템의 사전 예약은 3월 19일 시작하며, DGX 스테이션은 올해 하반기에 에이수스, BOXX, 델, HP, 람다 랩스, 슈퍼마이크로와 같은 제조 파트너를 통해 출시될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “AI는 컴퓨팅 스택의 모든 계층을 변화시키고 있다. AI 네이티브 개발자와 AI 네이티브 애플리케이션을 위해 설계된 새로운 유형의 컴퓨터가 등장하는 것은 필연적인 일이다. 새로운 DGX 개인용 AI 컴퓨터를 통해 AI가 클라우드 서비스부터 데스크톱, 에지 애플리케이션까지 확장될 것”이라고 말했다.
작성일 : 2025-03-19
AWS, 아시아·태평양 및 EU 지역에 차세대 파운데이션 모델 출시
아마존웹서비스(AWS)는 광범위한 작업에서 최첨단 인텔리전스와 가격 대비 성능을 제공하는 차세대 파운데이션 모델(FM)인 아마존 노바(Amazon Nova)를 아시아·태평양 및 유럽연합(EU) 지역에 출시했다고 밝혔다. AWS 고객들은 서울, 도쿄, 뭄바이, 싱가포르, 시드니, 스톡홀름, 프랑크푸르트, 아일랜드, 파리 리전을 통해 교차 리전 추론(Cross-Region Inference)을 이용하여 이러한 모델을 사용할 수 있다. 교차 리전 추론은 고객이 요청을 보낸 소스 리전을 우선적으로 활용하면서 여러 리전에 걸쳐 아마존 노바에 대한 요청을 자동으로 라우팅할 수 있도록 지원한다. AWS는 이를 통해 지연 시간을 최소화하고, 추가 라우팅 비용 없이 소스 리전 기준으로만 요금이 부과되어 비용 효율을 높일 수 있다고 설명했다. 아마존 노바 마이크로(Amazon Nova Micro)는 텍스트 전용 모델로, 낮은 지연 시간의 응답을 저렴한 비용으로 제공한다. 아마존 노바 라이트(Amazon Nova Lite)는 이미지, 비디오, 텍스트 입력을 처리하여 텍스트 출력을 생성하는 저렴한 멀티모달 모델이다. 아마존 노바 프로(Amazon Nova Pro)는 광범위한 작업에 대해 정확성, 속도, 비용의 최적의 조합을 제공하는 고성능 멀티모달 모델이다. 이들 모델은 200개 이상의 언어를 지원하며, 텍스트 및 영상 미세 조정을 지원한다. 또한, 아마존 베드록(Amazon Bedrock)의 다양한 기능, 예를 들어 아마존 베드록 날리지 베이스(Amazon Bedrock Knowledge Bases)를 활용하여 조직의 자체 데이터 및 애플리케이션과 쉽게 통합할 수 있도록 지원한다. 모든 아마존 노바 모델은 빠르고 비용 효율적이며 고객의 시스템 및 데이터와 쉽게 사용할 수 있도록 설계됐다. 아마존 노바 마이크로, 아마존 노바 라이트, 아마존 노바 프로는 아마존 베드록의 각 인텔리전스 등급의 최고 성능을 보이는 모델과 비교해 최소 75% 더 저렴하다. 또한 아마존 베드록의 각 인텔리전스 등급에서 가장 빠른 모델이다. 모든 아마존 노바 모델은 주요 AI 기업과 아마존의 고성능 FM을 단일 API를 통해 사용할 수 있게 해주는 완전 관리형 서비스인 아마존 베드록과 통합돼 있다. 고객들은 아마존 베드록을 사용하여 아마존 노바 모델과 다른 FM들을 쉽게 실험하고 평가하여 애플리케이션에 가장 적합한 모델을 결정할 수 있다. 또한 이들 모델은 맞춤형 파인튜닝을 지원하여, 고객들이 정확도를 높이기 위해 레이블이 지정된 자체 데이터의 예시들을 모델에 지정할 수 있다. 아마존 노바 모델은 고객의 자체 데이터(텍스트, 이미지, 비디오 포함)에서 핵심 요소를 학습하고, 그 후 아마존 베드록이 맞춤형 응답을 제공할 수 있는 개인 파인튜닝 모델을 훈련시킨다. 파인튜닝뿐만 아니라, 더 큰 고성능 '교사 모델(teacher model)'에서 더 작고 효율적인 모델로 특정 지식을 전달할 수 있는 증류(distillation)도 지원한다. 이를 통해 모델의 정확도를 유지하면서도 실행 속도를 높이고 비용을 절감할 수 있다. AWS는 “아마존 노바 모델이 아마존 베드록 날리지 베이스와 통합돼 있으며, 조직의 자체 데이터에 기반하여 응답의 정확도를 보장할 수 있는 RAG에서 높은 성능을 보인다”고 설명했다. 또한, 아마존 노바 모델은 다단계 작업을 실행하기 위해 여러 API를 통해 조직의 자체 시스템 및 데이터와 상호 작용해야 하는 에이전트 애플리케이션에서 쉽고 효과적으로 사용할 수 있도록 최적화됐다. 한편, AWS는 아마존 노바 모델이 통합된 안전 조치와 보호 장치로 구축됐다고 소개했다. AWS는 아마존 노바를 위한 AWS AI 서비스 카드(AWS AI Service Card)를 출시해 사용 사례, 제한 사항, 책임 있는 AI 사례에 대한 투명한 정보를 제공한다. 아마존의 로힛 프라사드(Rohit Prasad) 인공 일반 지능(AGI) 수석부사장은 “아마존 내부적으로 약 1000개의 생성형 AI 애플리케이션이 개발 진행 중이며, 애플리케이션 개발자가 여전히 고민하고 있는 문제들을 전반적으로 파악하고 있다”면서, “새로운 아마존 노바 모델은 내부 및 외부 개발자들의 이러한 과제 해결을 돕고, 지연 시간, 비용 효율성, 맞춤화, 검색 증강 생성(RAG), 에이전트 기능에서 의미 있는 진전을 이루면서 강력한 인텔리전스와 콘텐츠 생성을 제공하고자 한다”고 말했다.
작성일 : 2025-03-07
알리바바 클라우드, AI 기반 비디오 생성 모델 ‘Wan2.1’ 오픈소스로 공개
알리바바 클라우드가 오픈소스 커뮤니티 활성화를 위한 조치의 일환으로 AI 기반 영상 생성 모델을 오픈소스로 무료 공개한다고 발표했다. 알리바바 클라우드는 비디오 파운데이션 모델 ‘Tongyi Wanxiang(통이 완샹)’의 최신 버전인 Wan2.1 시리즈 중 140억(14B) 및 13억(1.3B) 매개변수 모델 4종을 오픈소스로 공개하며, AI 기술의 개방성과 확장성을 더욱 강화해 나갈 계획이다. 이번에 공개된 모델은 T2V-14B, T2V-1.3B, I2V-14B-720P, I2V-14B-480P 등 4종으로, 텍스트 및 이미지 입력을 기반으로 고품질 이미지와 영상을 생성하도록 설계됐다. 이들 모델은 알리바바 클라우드의 AI 모델 커뮤니티인 ‘모델스코프(ModelScope)’와 협업형 AI 플랫폼 ‘허깅페이스(Hugging Face)’에서 다운로드 가능하며, 전 세계 학계 연구자 및 기업이 자유롭게 활용할 수 있도록 공개됐다. 올해 초 공개된 Wan2.1 시리즈는 중국어와 영어에서 텍스트 효과를 지원하는 최초의 AI 영상 생성 모델로 복잡한 움직임을 정밀하게 처리하고, 픽셀 품질을 향상시키며, 물리적 원칙을 준수하며, 명령 실행 정확도를 최적화하는 등 사실적인 영상 생성 능력에서 강점을 발휘한다. 알리바바 클라우드는 “이런 명령 수행 정밀도에 힘입어 Wan2.1은 영상 생성 모델의 종합 벤치마크인 Vbench 리더보드에서 1위를 기록했다. 또한, 허깅페이스의 VBench 리더보드 상위 5개 모델 중 유일한 오픈소스 영상 생성 모델로 자리매김하며 글로벌 AI 커뮤니티에서 그 기술력을 입증하고 있다”고 전했다. VBench에 따르면, Wan2.1 시리즈는 종합 점수 86.22%를 기록하며, 움직임의 자연스러움, 공간적 관계, 색상 표현, 다중 객체 상호작용 등 핵심 평가 항목에서 높은 성능을 입증했다.     영상 생성 AI 모델을 훈련하려면 대량의 컴퓨팅 자원과 고품질 학습 데이터가 필수이다. 이러한 모델을 오픈소스로 개방하면 AI 활용의 장벽을 낮출 수 있으며, 기업들은 보다 효율적이고 경제적인 방식으로 자사 비즈니스에 최적화된 고품질 영상 콘텐츠를 제작할 수 있다. T2V-14B 모델은 복잡한 동작이 포함된 고품질 영상 생성에 최적화되어 있으며, T2V-1.3B 모델은 생성 품질과 연산 효율성의 균형을 맞춰 연구 및 2차 개발 작업을 진행하는 다양한 개발자에게 적합한 설루션을 제공한다. 예를 들어, T2V-1.3B 모델은 일반적인 개인용 노트북에서도 480p 해상도의 5초 길이 영상을 약 4분 만에 생성할 수 있어, 연구자 및 개발자들이 보다 쉽고 효율적으로 이를 활용할 수 있도록 지원한다. 또한, I2V-14B-720P 및 I2V-14B-480P 모델은 텍스트 기반 영상 생성뿐만 아니라 이미지 기반 영상 생성 기능까지 지원한다. 사용자는 한 장의 이미지와 간단한 텍스트 설명만 입력하면 역동적인 영상 콘텐츠를 손쉽게 제작할 수 있으며, 플랫폼은 특정 크기에 제한 없이, 다양한 해상도의 이미지를 정상적으로 입력받아 처리할 수 있도록 설계됐다.
작성일 : 2025-02-28
엔비디아, 더 강력하고 지능적인 AI 구축을 돕는 ‘스케일링 법칙’ 소개
엔비디아가 더 강력하고 지능적인 AI 구축을 지원하는 ‘스케일링 법칙’을 소개했다. 엔비디아는 이 법칙이 훈련 데이터, 모델 파라미터 또는 컴퓨팅 리소스 크기가 증가함에 따라 AI 시스템 성능이 향상되는 방식을 설명한다고 밝혔다. AI 분야에서 오랫동안 정의된 아이디어 중 하나는 컴퓨팅, 훈련 데이터, 파라미터가 더 많을수록 더 나은 AI 모델이 만들어진다는 것이다. 하지만 이후 AI에는 컴퓨팅 리소스를 다양한 방식으로 적용하는 것이 모델 성능에 어떻게 영향을 미치는지 설명하는 세 가지 법칙이 대두됐다. 이는 사전 훈련 스케일링(pretraining scaling), 사후 훈련 스케일링(post-training scaling), 긴 사고(long thinking)라고도 불리는 테스트 타임 스케일링(test-time scaling)이다. 이들 법칙은 점점 더 복잡해지는 다양한 AI 사용 사례에서 추가 컴퓨팅을 사용하는 기술을 통해 AI 분야가 어떻게 발전해왔는지를 보여준다. 최근 추론 시 더 많은 컴퓨팅을 적용해 정확도를 향상시키는 테스트 타임 스케일링이 부상하면서 AI 추론 모델의 발전을 가능하게 했다. 이 모델은 작업을 해결하는 데 필요한 단계를 설명하면서 복잡한 문제를 해결하기 위해 여러 추론 패스를 수행하는 새로운 종류의 대규모 언어 모델(LLM)이다. 테스트 타임 스케일링은 AI 추론을 지원하기 위해 많은 양의 컴퓨팅 리소스를 필요로 하며, 이는 가속 컴퓨팅에 대한 수요를 더욱 증가시킬 것이다.     사전 훈련 스케일링은 AI 개발의 기본 법칙이다. 이는 훈련 데이터 세트 크기, 모델 파라미터 수, 컴퓨팅 리소스를 늘림으로써 개발자가 모델 지능과 정확도의 예측 가능한 향상을 기대할 수 있음을 입증했다. 한 연구 논문에서 설명한 사전 훈련 스케일링 법칙에 따르면, 규모가 큰 모델에 더 많은 데이터가 공급되면 모델의 전반적인 성능이 향상된다. 이를 실현하려면 개발자는 컴퓨팅을 확장해야 하며, 이 거대한 훈련 워크로드를 실행하기 위해서는 강력한 가속 컴퓨팅 리소스가 필요하다. 사후 훈련 기법은 조직이 원하는 사용 사례에 맞춰 모델의 특이성과 관련성을 더욱 향상시킬 수 있다. 사전 훈련이 AI 모델을 학교에 보내 파운데이션 기술을 배우게 하는 것이라면, 사후 훈련은 목표한 업무에 적용할 수 있는 기술을 갖추도록 모델을 향상시키는 과정이다. 예를 들어, LLM은 감정 분석이나 번역과 같은 작업을 수행하거나 의료, 법률과 같은 특정 분야의 전문 용어를 이해하도록 사후 훈련될 수 있다. 긴 사고라고도 하는 테스트 타임 스케일링은 추론 중에 발생한다. 사용자 프롬프트에 대한 단답형 답변을 빠르게 생성하는 기존 AI 모델과 달리, 이 기술을 사용하는 모델은 추론 중에 추가적인 계산 작업을 할당한다. 이를 통해 여러 가지 잠재적 답변을 추론한 후 최적의 답변에 도달할 수 있도록 한다. 테스트 타임 컴퓨팅의 부상으로 AI는 복잡한 개방형 사용자 쿼리에 대해 합리적이고 유용하며 보다 정확한 답변을 제공하는 능력을 갖추게 됐다. 이러한 기능은 자율 에이전틱 AI와 피지컬 AI(Physical AI) 애플리케이션에서 기대되는 세밀하고 다단계의 추론 작업에 매우 중요하다. 또한, 산업 전반에서 사용자에게 업무 속도를 높일 수 있는 고성능 비서를 제공해 효율성과 생산성을 향상시킬 수 있다. 의료 분야에서는 모델이 테스트 타임 스케일링을 사용해 방대한 양의 데이터를 분석하고 질병이 어떻게 진행될지 추론할 수 있다. 뿐만 아니라, 약물 분자의 화학 구조를 기반으로 새로운 치료법이 불러올 수 있는 잠재적인 합병증을 예측할 수 있다. 소매와 공급망 물류 분야에서는 긴 사고가 단기적인 운영 과제와 장기적인 전략 목표를 해결하는 데 필요한 복잡한 의사 결정을 도와줄 수 있다. 추론 기법은 여러 시나리오를 동시에 예측하고 평가해 기업이 위험을 줄이고 확장성 문제를 해결하는 데 도움이 된다. 이를 통해 보다 정확한 수요 예측, 간소화된 공급망 이동 경로, 조직의 지속 가능성 이니셔티브에 부합하는 소싱 결정을 가능하게 한다. 나아가 글로벌 기업에서는 이 기술을 세부적인 사업 계획 작성, 소프트웨어 디버깅을 위한 복잡한 코드 생성, 배송 트럭과 창고 로봇, 로보택시의 이동 경로 최적화 등에 적용할 수 있다. AI 추론 모델은 빠르게 진화하고 있다. 최근 몇 주 동안 OpenAI(오픈AI) o1-미니(o1-mini)와 o3-미니(o3-mini), 딥시크(DeepSeek) R1, 구글 딥마인드(Google DeepMind) 제미나이 2.0 플래시 씽킹(Gemini 2.0 Flash Thinking)이 소개됐으며, 곧 새로운 모델이 추가로 출시될 예정이다. 이러한 모델은 추론 중에 사고하고, 복잡한 질문에 대한 정답을 생성하기 위해 훨씬 더 많은 컴퓨팅이 필요하다. 따라서 기업은 복잡한 문제 해결, 코딩, 다단계 계획을 지원할 수 있는 차세대 AI 추론 도구를 제공하기 위해 가속 컴퓨팅 리소스를 확장해야 한다.
작성일 : 2025-02-14
엔비디아, 블랙웰 지포스 RTX 50 시리즈 출시
엔비디아가 게이머, 크리에이터, 개발자를 위한 최첨단 소비자용 GPU인 지포스 RTX 50 시리즈 데스크톱과 노트북 GPU(GeForce RTX 50 Series Desktop and Laptop GPU)를 공개했다. 엔비디아 블랙웰(NVIDIA Blackwell) 아키텍처, 5세대 텐서 코어(Tensor Core), 4세대 RT 코어(RT Core)를 기반으로 하는 지포스 RTX 50 시리즈는 뉴럴 셰이더, 디지털 휴먼 기술, 지오메트리, 조명을 포함한 AI 기반 렌더링의 혁신을 제공한다. 엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 “PC 게이머, 개발자, 크리에이터를 위한 AI 엔진인 블랙웰이 등장했다. AI 기반의 뉴럴 렌더링과 광선 추적을 융합한 블랙웰은 25년 전 프로그래머블 셰이딩을 도입한 이래 가장 중요한 컴퓨터 그래픽 혁신”이라고 말했다. 현재까지 출시된 지포스 RTX GPU 중 가장 빠른 지포스 RTX 5090 GPU는 920억 개의 트랜지스터를 탑재하고 있으며, 초당 3,352조 이상의 AI 연산(TOPS) 처리 능력을 제공한다. 블랙웰 아키텍처 혁신과 DLSS 4 덕분에 지포스 RTX 5090 GPU는 지포스 RTX 4090 GPU보다 최대 2배 더 우수한 성능을 발휘한다. 지포스 블랙웰은 데스크톱 모델의 모든 기능을 갖춘 노트북에 탑재된다. 이는 탁월한 그래픽 기능과 놀라운 효율성을 포함해 휴대용 컴퓨팅에 상당한 업그레이드를 제공한다. 엔비디아 맥스-Q(Max-Q) 기술의 블랙웰 세대는 배터리 수명을 최대 40%까지 연장하며, 전력이나 성능을 희생하지 않고 세련된 디자인을 유지하는 얇고 가벼운 노트북을 포함한다. 최대 8배의 성능을 향상시키는 엔비디아 DLSS 4 DLSS 4는 렌더링된 프레임당 최대 3개의 프레임을 생성하기 위해 AI를 사용해 프레임 속도를 높이는 멀티 프레임 생성(Multi Frame Generation)을 선보인다. 이 기술은 DLSS 기술 제품군과 함께 작동해 엔비디아 리플렉스(Reflex) 기술로 응답성을 유지하면서 기존 렌더링보다 최대 8배의 성능 향상을 제공한다. 또한 DLSS 4는 그래픽 업계 최초로 트랜스포머 모델 아키텍처를 실시간으로 적용한다. 트랜스포머 기반의 DLSS 레이 리컨스트럭션(Ray Reconstruction)과 슈퍼 레졸루션(Super Resolution) 모델은 2배 더 많은 파라미터와 4배 더 많은 연산을 사용한다. 이를 통해 게임 장면에서 더 큰 안정성, 감소된 고스팅, 더 높은 디테일, 향상된 안티 앨리어싱(anti-aliasing)을 제공한다. DLSS 4는 75개 이상의 게임과 애플리케이션에서 지포스 RTX 50 시리즈 GPU를 통해 지원될 예정이다. 엔비디아 리플렉스 2는 디스플레이로 보내기 직전에 최신 마우스 입력을 기반으로 렌더링된 프레임을 업데이트해 게임의 지연 시간을 줄이는 혁신적인 기술인 프레임 워프(Frame Warp)를 도입한다. 리플렉스 2는 지연 시간을 최대 75%까지 줄일 수 있다. 이를 통해 게이머는 멀티플레이어 게임에서 경쟁 우위를 점할 수 있고 싱글 플레이어 타이틀의 반응성도 향상된다. 블랙웰, 셰이더에 AI 도입 25년 전, 엔비디아는 지포스 3와 프로그래밍 가능한 셰이더를 출시했다. 이 셰이더는 픽셀 셰이딩, 컴퓨트 셰이딩, 실시간 레이 트레이싱에 이르기까지 20년 동안 그래픽 혁신의 발판을 마련했다. 엔비디아는 지포스 RTX 50 시리즈 GPU와 함께 RTX 뉴럴 셰이더(Neural Shader)를 출시한다. 이 셰이더는 작은 AI 네트워크를 프로그래밍 가능한 셰이더에 도입해 실시간 게임에서 영화 수준의 소재, 조명 등을 구현한다. 게임 캐릭터 렌더링은 실시간 그래픽에서 가장 어려운 작업 중 하나다. 사람들이 디지털 휴먼에서 아주 작은 오류나 부작용을 쉽게 발견해내기 때문이다. RTX 뉴럴 페이스(Neural Face)는 단순한 래스터화된 얼굴과 3D 포즈 데이터를 입력으로 받아서, 생성형 AI를 사용해 실시간으로 일시적으로 안정적이고 고품질의 디지털 페이스를 렌더링한다. RTX 뉴럴 페이스는 레이 트레이싱된 머리카락과 피부용으로 새롭게 개발된 RTX 기술로 보완된다. 장면에서 레이 트레이싱 삼각형을 최대 100배까지 늘려주는 새로운 RTX 메가 지오메트리(Mega Geometry)와 함께, 이러한 발전은 게임 캐릭터와 환경의 사실성을 크게 향상시킬 것이다. 뉴럴 렌더링의 힘, DLSS 4, 그리고 새로운 DLSS 트랜스포머 모델은 엔비디아의 획기적인 신기술 데모인 조라(Zorah)를 통해 지포스 RTX 50 시리즈 GPU에서 선보인다. 자율 게임 캐릭터 지포스 RTX 50 시리즈 GPU는 업계 최고의 AI 톱스(TOPS)를 통해 게임 렌더링과 병행해 자율 게임 캐릭터를 구동한다. 엔비디아는 게임 캐릭터가 인간 플레이어처럼 인지하고, 계획하고, 행동할 수 있도록 하는 새로운 엔비디아 에이스(ACE) 기술 제품군을 소개한다. 에이스 기반 자율 캐릭터는 크래프톤(KRAFTON)의 PUBG: 배틀그라운드(PUBG: BATTLEGROUNDS)와 곧 출시될 생활 시뮬레이션 게임인 인조이(InZOI), 그리고 위메이드 넥스트(Wemade Next)의 미르5(MIR5)에 통합되고 있다. PUBG에서는 엔비디아 에이스로 구동되는 동료들이 생존을 위해 휴먼 플레이어와 역동적으로 협력하면서 전략적 행동을 계획하고 실행한다. 인조이에는 삶의 목표와 게임 내 이벤트에 따라 행동을 자율적으로 조정하는 스마트 조이(Smart Zoi) 캐릭터가 등장한다. 미르5에서는 거대 언어 모델(large language model, LLM) 기반 레이드 보스가 플레이어의 행동에 따라 전술을 조정해 더욱 역동적이고 도전적인 만남을 만들어 낸다. RTX AI PC용 AI 파운데이션 모델 엔비디아는 블랙 포레스트 랩스(Black Forest Labs), 메타(Meta), 미스트랄(Mistral), 스태빌리티 AI(Stability AI)와 같은 최고의 모델 개발자들이 만든 NIM 마이크로서비스와 RTX AI PC용 AI 블루프린트(Blueprint) 파이프라인을 출시할 예정이다. 이는 RTX 애호가와 개발자들이 엔비디아 NIM 마이크로서비스를 사용해 AI 에이전트와 어시스턴트를 구축하는 방법을 소개하기 위함이다. 사용 사례는 LLM, 비전 언어 모델, 이미지 생성, 음성, 검색 증강 생성(retrieval-augmented generation, RAG)을 위한 임베딩 모델, PDF 추출, 컴퓨터 비전 등 다양한 분야에 걸쳐 있다. NIM 마이크로서비스에는 PC에서 AI를 실행하는 데 필요한 모든 구성 요소가 포함돼 있으며, 모든 엔비디아 GPU에 배포할 수 있도록 최적화돼 있다. 엔비디아는 애호가들과 개발자들이 NIM을 사용해 AI 에이전트와 어시스턴트를 구축할 수 있는 방법을 보여주기 위해 프로젝트 R2X(Project R2X)를 미리 공개했다. 프로젝트 R2X는 사용자의 손끝에 정보를 제공하고, 데스크톱 앱과 화상 회의 통화를 지원하고, 문서를 읽고 요약하는 등의 기능을 수행할 수 있는 비전 지원 PC 아바타다. 크리에이터를 위한 AI 기반 도구 지포스 RTX 50 시리즈 GPU는 크리에이티브 워크플로우를 강화한다. RTX 50 시리즈 GPU는 FP4 정밀도를 지원하는 최초의 소비자용 GPU이다. 이는 플럭스(FLUX)와 같은 모델의 AI 이미지 생성 성능을 2배 향상시키고, 이전 세대 하드웨어에 비해 더 작은 메모리 공간에서 생성형 AI 모델을 로컬로 실행할 수 있도록 한다. 엔비디아 브로드캐스트(Broadcast) 앱은 라이브 스트리머를 위한 두 가지 AI 기반 베타 기능을 제공한다: 마이크 오디오를 업그레이드하는 스튜디오 보이스(Studio Voice)와 세련된 스트리밍을 위해 얼굴을 다시 비추는 버추얼 키 라이트(Virtual Key Light)이다. 스트림랩스(Streamlabs)는 엔비디아 에이스와 인월드 AI(Inworld AI)를 기반으로 하는 인텔리전트 스트리밍 어시스턴트(Intelligent Streaming Assistant)를 소개한다. 이 기능은 라이브 스트리밍을 향상시키기 위해 공동 진행자, 프로듀서, 기술 보조자의 역할을 한다. 이용 정보 데스크톱 사용자의 경우, 3,352개의 AI 톱스의 지포스 RTX 5090 GPU와 1,801개의 AI 톱스의 지포스 RTX 5080 GPU가 오는 1월 30일에 각각 $1,999와 $999에 출시될 예정이다. 1,406개의 AI 톱스의 지포스 RTX 5070 Ti GPU와 988개의 AI 톱스의 지포스 RTX 5070 GPU는 2월부터 각각 $749와 $549에 판매될 예정이다. 지포스 RTX 5090, RTX 5080, RTX 5070 GPU의 엔비디아 파운더스 에디션(Founders Edition)는 nvidia.com과 전 세계 일부 소매점에서 직접 구매할 수 있다. 에이수스(ASUS), 컬러풀(Colorful), 게인워드(Gainward), 갤럭시(GALAX), 기가바이트(GIGABYTE), 이노3D(INNO3D), KFA2, MSI, 팔릿(Palit), PNY, 조탁(ZOTAC) 등 최고의 애드인 카드 제공업체와 팔콘 노스웨스트(Falcon Northwest), 인피니아크(Infiniarc), 메인기어(MAINGEAR), 미프콤(Mifcom), 오리진 PC(ORIGIN PC), PC 스페셜리스트(PC Specialist), 스캔 컴퓨터스(Scan Computers) 등 데스크탑 제조업체에서 기본 클럭 모델과 공장 오버클럭 모델을 구입할 수 있다.
작성일 : 2025-01-27
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개   CES 2025에서 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)이 AI와 컴퓨팅 기술의 미래를 조망했다.  젠슨 황은 1월 8일 90분간 이어진 연설에서 게이밍, 자율 주행차, 로보틱스, 그리고 에이전틱 AI(agentic AI)의 발전에 기여할 엔비디아의 최신 기술과 제품들을 공개했다. 라스베이거스 미켈롭 울트라 아레나에 6천 명이 넘는 관중이 운집한 가운데, 젠슨 황은 “AI가 놀라운 속도로 진보하고 있다”면서, AI의 발전 과정을 세 단계로 나눠 설명했다. “AI는 처음에 이미지와 단어, 소리를 이해하는 '인식형 AI(Perception AI)'에서 시작됐다. 이후 텍스트, 이미지, 소리를 생성하는 '생성형 AI(Generative AI)'가 등장했다. 그리고 이제 우리는 처리, 추론, 계획, 행동까지 가능한 물리적 AI(Physical AI) 시대에 접어들고 있다.” 젠슨 황은 이 변혁의 중심에 엔비디아 GPU와 플랫폼이 자리 잡고 있다고 강조하며, 엔비디아가 게이밍, 로보틱스, 자율 주행차 등 다양한 산업에서 혁신을 선도할 것이라고 전했다. 이번 기조연설에서는 엔비디아의 신제품과 기술이 공개됐다. 젠슨 황은 이를 통해 AI와 컴퓨팅 기술이 어떻게 미래를 재정의할지 상세히 설명했다. 엔비디아 코스모스(Cosmos) 플랫폼은 로봇과 자율 주행차, 비전 AI를 위해 새롭게 개발된 모델과 영상 데이터 프로세싱 파이프라인을 통해 물리적 AI를 발전시킬 것이다. 새로 출시될 엔비디아 블랙웰(Blackwell) 기반 지포스(GeForce) RTX 50 시리즈 GPU는 놀랍도록 사실적인 비주얼과 전례 없는 성능을 제공한다.  이번 CES에 소개된 RTX PC용 AI 기초 모델에는 디지털 휴먼(digital human)과 팟캐스트, 이미지, 동영상 제작을 도울 엔비디아 NIM 마이크로서비스와 AI 블루프린트가 포함된다. 엔비디아 프로젝트 디지츠(Project DIGITS)는 주머니에 들어가는 소형 크기의 패키지로 개발자의 데스크톱에 엔비디아 그레이스 블랙웰(Grace Blackwell)의 강력한 성능을 제공한다. 엔비디아는 토요타와 협업하면서 엔비디아 드라이브OS(DriveOS) 기반의 엔비디아 드리아브 AGX 차내 컴퓨터로 안전한 차세대 차량 개발에 힘쓰고 있다.   젠슨 황은 30년에 걸친 엔비디아의 여정을 돌아보는 것으로 키노트를 시작했다. 1999년, 엔비디아는 프로그래머블 GPU(programmable GPU)를 개발했다. 그로부터 지금까지 현대적 AI가 컴퓨팅의 작동 방식을 근본적으로 바꿔놨다. “당시 GPU의 테크놀로지 스택 레이어 하나하나가 고작 12년만에 놀라운 혁신을 경험했다.”   지포스 RTX 50 시리즈의 그래픽 혁명 젠슨 황은 “지포스는 AI가 대중에게 다가가는 계기였고, 이제 AI는 지포스의 본진이 되고 있다”고 말했다. 이 같은 평가와 함께 젠슨 황은 지금껏 개발된 제품 중 가장 강력한 지포스 RTX GPU인 엔비디아 지포스 RTX 5090 GPU 를 소개했다. 지포스 RTX 5090은 920억 개의 트랜지스터를 탑재하고 초당 3,352조 개(TOPS)의 연산을 제공한다.  젠슨 황은 “바로 이것이 우리가 처음 선보이는 블랙웰 아키텍처의 지포스 RTX 50 시리즈”라며 소개를 시작했다. 젠슨 황은 검게 처리된 GPU를 높이 들어 보이며, 이 제품이 첨단 AI를 활용해 혁신적인 그래픽을 구현하는 방법을 설명했다. 그는 “이 GPU는 문자 그대로 야수라 할 만하다. 지포스 RTX 5090의 기계적 디자인조차 기적에 가깝다”며, 해당 그래픽 카드에 냉각 팬 두 개가 장착돼 있다고 언급했다.  이번 기조연설에서는 지포스 RTX 5090 시리즈를 변형한 제품들의 출시 소식도 알렸다. 지포스 RTX 5090과 지포스 RTX 5080 데스크톱 GPU가 오는 1월 30일에 공개된다. 지포스 RTX 5070 Ti와 지포스 RTX 5070 데스크톱은 오는 2월부터 만나볼 수 있다. 랩톱 GPU는 올 3월 출시 예정이다.  DLSS 4 는 DLSS 테크놀로지를 활용한 제품군 일체와 함께 작동하는 멀티 프레임 생성(Multi Frame Generation)을 도입해 성능을 최대 8배까지 끌어올린다. 또한 엔비디아는 PC의 레이턴시(latency)를 75%까지 줄여주는 엔비디아 리플렉스(Reflex) 2 도 공개했다.  최신 DLSS의 경우, 우리가 계산하는 프레임마다 세 개의 프레임을 추가로 생성할 수 있다. 젠슨 황은 “그 결과 AI가 담당하는 계산이 크게 줄어들기 때문에 렌더링 성능이 크게 향상된다”고 말했다. RTX 뉴럴 셰 이더(RTX Neural Shaders)는 소형 신경망을 사용해 실시간 게이밍의 텍스처와 머티리얼, 빛을 개선한다. RTX 뉴럴 페이스(RTX Neural Faces)와 RTX 헤어(RTX Hair)는 생성형 AI로 얼굴과 머리카락의 실시간 렌더링을 개선해 더없이 사실적인 디지털 캐릭터를 만들어낸다. RTX 메가 지오메트리(RTX Mega Geometry)는 레이 트레이싱된 트라이앵글(triangle)의 개수를 100배까지 늘려 디테일을 강화한다.    코스모스로 진보하는 물리적 AI 젠슨 황은 그래픽의 발전상과 더불어 엔비디아 코스모스 월드 파운데이션 모델(world foundation model) 플랫폼을 소개하며, 이것이 로보틱스와 산업 AI를 크게 혁신할 것이라고 내다봤다.  그는 AI의 차세대 개척지는 물리적 AI가 될 것이라면서 이 순간을 대규모 언어 모델이 생성형 AI의 혁신에 미쳤던 거대한 영향에 비유하고 “챗GPT(ChatGPT) 같은 혁신의 순간이 로보틱스 분야 전반에 다가온 셈”이라고 설명했다.  젠슨 황은 거대 언어 모델(large language model)과 마찬가지로 월드 파운데이션 모델 또한 로봇과 AV 개발 촉진에 중요한 역할을 하지만, 이를 자체적으로 훈련할 수 있는 전문 지식과 자원을 모든 개발자가 갖추고 있는 것은 아니라고 진단했다.  엔비디아 코스모스는 생성형 모델과 토크나이저(tokenizer), 영상 프로세싱 파이프라인을 통합해 AV와 로봇 등의 물리적 AI 시스템을 강화한다.  엔비디아 코스모스의 목표는 AI 모델에 예측과 멀티버스 시뮬레이션 기능을 지원해 발생 가능한 모든 미래를 시뮬레이션하고 최적의 행위를 선택할 수 있도록 하는 것이다.   젠슨 황의 설명에 따르면 코스모스 모델은 텍스트나 이미지, 비디오 프롬프트를 수집해 가상 월드를 동영상 형태로 생성한다. 그는 “코스모스의 생성 작업은 실제 환경과 빛, 대상 영속성(object permanence) 등 AV와 로보틱스라는 고유한 활용 사례에 필요한 조건들을 최우선으로 고려한다”고 말했다. 1X와 애자일 로봇(Agile Robots), 어질리티(Agility), 피규어 AI(Figure AI), 포어텔릭스(Foretellix), 푸리에(Fourier), 갤봇(Galbot), 힐봇(Hillbot), 인트봇(IntBot), 뉴라 로보틱스(Neura Robotics), 스킬드 AI(Skild AI), 버추얼 인시전(Virtual Incision), 와비(Waabi), 샤오펑(XPENG) 등 로보틱스와 자동차 분야의 선도적인 기업들과 차량 공유 업체 우버(Uber)가 코스모스를 최초 도입했다.  또한 현대자동차 그룹은 엔비디아 AI와 옴니버스(Omniverse) 를 기반으로 더 안전하고 스마트한 차량을 개발하고, 제조를 강화하며, 최첨단 로보틱스의 활용성을 높인다. 코스모스는 오픈 라이선스로 깃허브(GitHub)에서 이용할 수 있다.    AI 기초 모델로 개발자 지원 엔비디아는 로보틱스와 자율 주행차 외에도 AI 기초 모델을 통해 개발자와 크리에이터를 지원한다.  젠슨 황은 디지털 휴먼과 콘텐츠 제작, 생산성과 개발성을 극대화하는 RTX PC용 AI 파운데이션 모델을 소개했다.  그는 “모든 클라우드에서 엔비디아 GPU를 사용할 수 있기 때문에 이 AI 기초 모델들 또한 모든 클라우드에서 실행이 가능하다. 모든 OEM에서 사용이 가능하므로 이 모델들을 가져다 여러분의 소프트웨어 패키지에 통합하고, AI 에이전트를 생성하며, 고객이 소프트웨어 실행을 원하는 어디에나 배포할 수 있다”고 전했다.  이 기초 모델들은 엔비디아 NIM 마이크로서비스로 제공되며, 신형 지포스 RTX 50 시리즈 GPU로 가속된다. 신형 지포스 RTX 50은 모델의 신속 실행에 필요한 기능을 갖추고 있으며, FP4 컴퓨팅 지원을 추가해 AI 추론을 2배까지 향상시킨다. 또한 생성형 AI 모델이 전 세대 하드웨어에 비해 더 적은 메모리 공간에서 로컬로 실행되도록 지원한다.   젠슨 황은 이처럼 새로운 툴이 크리에이터에게 어떤 잠재력을 갖는지 짚었다. 그는 “우리는 우리의 생태계가 활용할 수 있는 다양한 블루프린트를 만들고 있다. 이 모든 게 오픈 소스로 제공되므로 여러분이 블루프린트를 가져다 직접 수정해 사용할 수 있다”고 말했다.  엔비디아는 업계 최고의 PC 제조업체와 시스템 개발자들이 지포스 RTX 50 시리즈 GPU를 탑재하고 NIM을 지원하는 RTX AI PC를 내놓을 예정이다. 젠슨 황은 “AI PC들이 여러분 가까이로 찾아갈 예정”이라고 말했다. 엔비디아는 이처럼 개인 컴퓨팅에 AI 기능을 더하는 툴들을 제공하는 한편, 안전과 인텔리전스가 가장 중요하게 손꼽히는 자율 주행차 산업에서도 AI 기반 솔루션을 발전시키고 있다.   자율 주행 차량의 혁신 젠슨 황 CEO는 엔비디아 AGX 토르(Thor) 시스템 온 칩(SoC)을 기반으로 구축된 엔비디아 드라이브 하이페리온 AV(Hyperion AV) 플랫폼의 출시를 알렸다. 이 플랫폼은 생성형 AI 모델용으로 고안돼 기능 안전성과 자율 주행 기능을 강화한다.  젠슨 황은 “자율 주행차의 혁명이 찾아왔다. 자율 주행차 제작에는 로봇을 만들 때와 마찬가지로 세 대의 컴퓨터가 필요하다. AI 모델 훈련을 위한 엔비디아 DGX, 시험 주행과 합성 데이터 생성을 위한 옴니버스, 차내 슈퍼컴퓨터인 드라이브 AGX가 필요하다”고 말했다.  드라이브 하이페리온은 최초의 엔드-투-엔드(end-to-end) AV 플랫폼으로, 첨단 SoC와 센서, 차세대 차량용 안전 시스템, 센서 제품군과 액티브 세이프티(active safety)와 레벨 2 자율 주행 스택을 통합했다. 이 플랫폼은 메르세데츠 벤츠(Mercedes-Benz)와 JLR, 볼보자동차(Volvo Cars) 등 자동차 안전성 분야를 선도하는 기업들에 채택됐다.  젠슨 황은 자율 주행차의 발전에서 합성 데이터가 중요한 역할을 수행한다고 강조했다. 합성 데이터는 실세계 데이터에 한계가 존재하는 상황에서 자율 주행차 제조 단계에서의 훈련에 필수적이라고 설명했다.  엔비디아 옴니버스 AI 모델과 코스모스를 기반으로 한 이 같은 접근 방식은 “훈련 데이터의 양을 어마어마하게 늘리는 합성 주행 시나리오를 생성”한다.  엔비디아와 코스모스를 사용하는 엔비디아의 AI 데이터 공장은 “수백 개의 주행을 수십억 마일에 달하는 유효 주행으로 확장”함으로써 안전하고 진일보한 자율 주행에 필요한 데이터세트를 획기적으로 늘릴 수 있다.  젠슨 황은 “자율 주행차 훈련에 쓰일 방대한 데이터를 보유하게 될 것”이라고 덧붙였다.  세계 최대 자동차 제조사인 토요타는 안전 인증을 획득한 엔비디아 드라이브OS 운영 체제와 엔비디아 드라이브 AGX 오린(Orin)을 기반으로 차세대 차량을 생산할 것이라고 밝혔다.  젠슨 황은 “컴퓨터 그래픽이 놀라운 속도로 혁신을 이룩했듯 향후 몇 년 동안 AV 발전 속도 또한 엄청나게 빨라질 것으로 예상된다. 이 차량들은 기능 안전성과 진일보한 주행 지원 능력을 제공할 전망”이라고 말했다.    에이전트 AI와 디지털 제조 엔비디아와 협력사들은 효율적인 조사와 영상 검색, 요약을 통해 대용량 영상과 이미지를 분석할 수 있는 PDF 투 팟캐스트(PDF-to-podcast) 등 에이전틱 AI용 AI 블루프린트들을 출시했다. 이를 통해 개발자들이 어디서나 AI 에이전트를 구축, 테스트, 실행할 수 있도록 지원해왔다.  개발자는 AI 블루프린트를 활용해 맞춤형 에이전트를 배포하고 엔터프라이즈 워크플로우를 자동화할 수 있다. 이 새로운 범주의 협력사 블루프린트는 엔비디아 NIM 마이크로서비스나 엔비디아 네모(NeMo) 등의 엔비디아 AI 엔터프라이즈 소프트웨어와 크루AI(CrewAI), 데일리(Daily), 랭체인(LangChain), 라마인덱스(LlamaIndex), 웨이츠 앤 바이어시스(Weights & Biases) 등 선도적인 제공자들의 플랫폼을 통합한다.  이와 더불어 젠슨 황은 라마 네모트론(Llama Nemotron)도 새롭게 발표했다.  개발자는 엔비디아 NIM 마이크로서비스를 활용해 고객 지원과 사기 탐지, 공급망 최적화 작업용 AI 에이전트를 구축할 수 있다.  엔비디아 NIM 마이크로서비스로 제공되는 이 모델들은 가속 시스템 일체에서 AI 에이전트를 가속한다. 엔비디아 NIM 마이크로서비스는 영상 콘텐츠 관리를 간소화해 미디어 업계의 효율성과 시청자 참여도를 높인다. 엔비디아의 신기술은 디지털 분야의 애플리케이션을 넘어 AI가 로보틱스로 물리적 세계를 혁신할 길을 열어주고 있다. 그는 “지금까지 말씀드린 지원 테크놀로지 일체를 바탕으로 우리는 향후 몇 년 동안 로보틱스 전반에서 엄청난 속도의 혁신과 놀라운 변화들을 만들어내게 될 것”이라고 말했다. 제조 분야의 합성 모션 생성을 위한 엔비디아 아이작(Isaac) GR00T 블루프린트는 기하급수적으로 많은 합성 모션 데이터를 생성해 모방 학습을 통한 휴머노이드 훈련에 도움을 줄 것이다. 젠슨 황은 엔비디아 옴니버스로 수백 만 개의 휴머노이드 훈련용 합성 모션을 생성해 로봇을 효율적으로 훈련시키는 것이 중요하다고 강조했다. 메가 블루프린트는 엑센츄어(Accenture)와 키온(KION) 같은 선진 업체들이 창고 자동화를 위해 채택한 로봇들의 대규모 시뮬레이션을 지원한다.  이러한 AI 툴을 바탕으로 엔비디아의 새로운 혁신, 일명 프로젝트 디지츠로 불리는 개인용 AI 슈퍼컴퓨터가 등장했다.                                                                                             엔비디아 프로젝트 디지츠 공개 젠슨 황은 개인 사용자와 개발자 모두에게 엔비디아 그레이스 블랙웰을 쥐여주게 될 엔비디아 프로젝트 디지츠 를 공개했다. 그는 “한 가지 더 보여드리고 싶은 게 있다. 약 10년 전에 시작된 이 놀라운 프로젝트가 아니었다면 이 같은 일은 절대로 불가능했을 것이다. 이는 우리 회사 내부에서 프로젝트 디지츠라 불리던 작업이다. 딥 러닝 GPU 인텔리전스 트레이닝 시스템(deep learning GPU intelligence training system)의 약어다”라며 소개를 시작했다. 그는 2016년 최초의 엔비디아 DGX 시스템이 오픈AI(OpenAI)에 제공되던 당시를 그리며 엔비디아의 AI 슈퍼컴퓨팅 개발을 향한 여정이 남긴 유산을 되새겼다. 그는 “그 덕분에 AI 컴퓨팅의 혁명이 가능했다는 건 분명한 사실”이라고 말했다. 새로 발표된 프로젝트 디지츠는 엔비디아의 슈퍼컴퓨팅 개발 미션을 더욱 발전시켰다. 젠슨 황은 “모든 소프트웨어 엔지니어, 모든 엔지니어, 모든 크리에이티브 아티스트, 오늘날 컴퓨터를 도구로 사용하는 모든 이들에게 AI 슈퍼컴퓨터가 필요해질 것”이라고 전했다. 젠슨 황은 10기가 그레이스 블랙웰 슈퍼칩으로 구동되는 프로젝트 디지츠가 엔비디아의 가장 작지만 가장 강력한 AI 슈퍼컴퓨터라고 밝혔다. 젠슨 황은 “이것이 엔비디아의 최신 AI 슈퍼컴퓨터”라고 설명하며 프로젝트 디지츠를 선보였다. 그는 “이 제품은 엔비디아 AI 스택 전체를 구동한다. 엔비디아 소프트웨어 일체가 여기서 실행된다. DGX 클라우드 또한 마찬가지”라고 말했다.    소형이지만 강력한 프로젝트 디지츠는 오는 5월 출시를 앞두고 있다.    미래를 이끄는 엔비디아의 비전 젠슨 황은 연설을 마무리하며, 엔비디아가 30년간 혁신을 거듭해온 과정을 돌아보고,  “1999년 프로그래머블 GPU를 개발한 이후, 우리는 현대 AI가 컴퓨팅을 근본적으로 변화시키는 과정을 지켜봤다”고 말했다. CES 2025에서 공개된 엔비디아의 혁신들은 AI 기술이 산업 전반에 걸쳐 새로운 가능성을 열어줄 것을 보여줬다. 젠슨 황의 말처럼, AI는 이미 우리의 일상 속 깊숙이 자리 잡았으며, 엔비디아는 그 중심에서 미래를 선도하고 있다.  
작성일 : 2025-01-11
엔비디아 코스모스, 자율주행차 위한 컴퓨터 설루션 강화
엔비디아가 CES 2025서 세 가지 컴퓨터 설루션을 위한 엔비디아 코스모스(NVIDIA Cosmos)를 발표했다. 코스모스는 생성형 월드 파운데이션 모델(World Foundation Model, WFM)과 고급 토크나이저(tokenizer), 가드레일, 가속화를 거친 영상 프로세싱 파이프라인으로 구성된 플랫폼이며, AV와 로봇 등의 물리 AI 시스템 개발을 촉진하고자 구축됐다. 자율주행차(AV)의 개발에는 세 가지 컴퓨터가 필요하다. 데이터센터에서 AI 기반 스택을 훈련하기 위한 엔비디아 DGX 시스템, 시뮬레이션과 합성 데이터 생성을 위해 엔비디아 OVX 시스템에서 구동하는 엔비디아 옴니버스(Omniverse), 안전을 위해 실시간 센서 데이터를 처리하는 차내 컴퓨터인 엔비디아 AGX가 각각 있어야 한다. 이러한 목적으로 특별히 만들어진 풀 스택 시스템은 개발 주기의 지속을 가능하게 하면서, 성능과 안전성의 개선 속도를 높일 수 있다.     세 가지 컴퓨터 설루션에 코스모스가 추가되면서 개발자들은 사람이 운전한 수천 킬로미터의 주행 거리를 수십억 킬로에 달하는 가상 주행 거리로 변환해 훈련 데이터의 품질을 높이는 일종의 데이터 플라이휠(flywheel)을 갖게 됐다. 코스모스 WFM은 허깅 페이스(Hugging Face)와 엔비디아 NGC 카탈로그에서 오픈 모델 라이선스로 사용할 수 있다. 코스모스 모델은 곧 최적화된 엔비디아 NIM 마이크로서비스로 제공될 계획이다. 엔비디아의 산자 피들러(Sanja Fidler) AI 리서치 부문 부사장은 “AV 데이터의 공장이라 할 만한 이 플라이휠은 차량 데이터 수집과 4D의 정확한 재구성, 그리고 AI를 활용해 훈련과 폐순환(closed-loop) 평가에 적합한 장면과 다양한 교통 상황을 생성한다. 엔비디아 옴니버스 플랫폼과 코스모스에 AI 모델을 보조적으로 사용하면 합성 주행 시나리오를 생성해 훈련용 데이터를 크게 증폭시킬 수 있다”고 말했다. 엔비디아의 놈 마크스(Norm Marks) 자동차 부문 부사장은 “물리 AI 모델의 개발은 예로부터 자원 집약적이고 비용이 많이 들었으며, 개발자가 실세계 데이터세트를 확보하고 필터링한 뒤 훈련에 맞춰 큐레이팅과 준비를 거쳐야 했다. 코스모스는 이 과정을 생성형 AI로 가속해 자율주행차와 로보틱스의 AI 모델을 더욱 빠르고 정확하게 개발하게 해 준다”고 전했다.
작성일 : 2025-01-10