• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "DGX"에 대한 통합 검색 내용이 189개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 신형 벤츠 CLA에 레벨 2 운전자 보조 소프트웨어 탑재
엔비디아가 CES 2026에서 향상된 레벨 2 포인트-투-포인트(point-to-point) 운전자 보조 기능을 탑재한 엔비디아 드라이브 AV(NVIDIA DRIVE AV) 소프트웨어를 메르세데스-벤츠(Mercedes-Benz)에 탑재한다고 밝혔다. 엔비디아는 오랜 파트너십을 이어온 메르세데스-벤츠를 시작으로, 올해 말까지 드라이브 AV 소프트웨어를 미국 도로에 선보일 예정이다. 메르세데스-벤츠의 신형 CLA는 벤츠의 첫 MB.OS 플랫폼 적용 차량이다. 이는 엔비디아의 풀스택 드라이브 AV 소프트웨어, AI 인프라 및 가속 컴퓨팅으로 구동되는 첨단 운전자 보조(ADAS) 기능을 선보일 예정이다. 이러한 설계로 향후 업그레이드와 신규 기능이 무선 업데이트(OTA)가 가능해지며, 이는 공장 출고 시점부터 메르세데스-벤츠 스토어를 통해 제공될 예정인 ‘MB. 드라이브 어시스트 프로(MB.DRIVE ASSIST PRO)’의 기능 개선에도 적용된다.      엔비디아 드라이브AV는 핵심 주행을 위한 AI 엔드-투-엔드 스택과 함께, 엔비디아 할로스(Halos) 안전 시스템을 기반으로 중복장치(redundancy)와 안전 가드레일(guardrail)을 추가하는 병렬적 전통적 안전 스택을 사용한다. 그 결과 차량은 방대한 양의 실제 및 합성 주행 데이터를 학습하게 되며, 인간과 유사한 의사결정 능력을 바탕으로, 운전자가 복잡한 환경과 조건에서도 안전하게 주행할 수 있도록 돕는다. 소비자들에게는 차량이 안전하고 안심할 수 있는 주행을 지원하는 중복장치와 페일 세이프(fail-safe, 안전장치) 점검 기능이 갖춰져 있다는 점에서 더 큰 신뢰와 안심을 줄 수 있다. 할로스는 차량이 정의된 안전 매개변수 내에서 작동하도록 보장한다. 이 통합 아키텍처는 확장된 기능을 갖춘 고급 레벨 2 자율 주행 능력을 가능하게 한다. 여기에는 복잡한 도시 환경에서의 지점 간 도시 내비게이션, 사전 충돌 회피 기능을 포함한 고급 능동 안전 시스템, 좁은 공간에서의 자동 주차 등이 포함된다. 또한 시스템과 운전자 간의 협력적 조향도 지원한다. 엔비디아 딥러닝 모델은 차세대 AI 보조 도시 주행 시스템을 구동한다. 이 모델들은 교통 상황을 종합적으로 해석하여 차량이 혼잡하거나 낯선 지역에서도 차선 선택, 방향 전환, 경로 추종을 통해 지능적으로 주행하도록 지원한다. 그리고 도로 이용자를 인지하고 충돌 방지를 위해 양보하거나 경미한 충돌 방지, 정지 등 선제적 대응이 가능해진다. 또한 운전자가 원하는 목적지까지 안전하게 주행하도록 지원할 수 있다. 한편, 엔비디아와 메르세데스-벤츠는 엔비디아 옴니버스(Omniverse) 라이브러리를 활용한 디지털 우선(digital-first) 접근 방식을 통해 자동차 제조 분야를 혁신하고 있다. 공장과 조립 라인의 디지털 트윈을 통해 엔지니어는 가상 환경에서 운영 전반을 설계, 계획, 그리고 최적화해 가동 중단 시간을 줄이고 반복 작업 주기를 줄일 수 있다. 옴니버스와 엔비디아 코스모스(Cosmos) 플랫폼은 개발자가 지능형 주행 소프트웨어를 실제 환경에 배포하기 전에 시뮬레이션 환경에서 철저히 테스트하고 검증하도록 지원한다. 엔비디아 기반의 지능형 주행 시스템은 클라우드-투-카(cloud-to-car) 개발 과정을 통해 실제 주행 데이터를 수십억 마일의 시뮬레이션 주행 데이터로 변환한다. 이러한 개선 속도를 가속화하는 기술로는 ▲엔비디아 DGX 시스템의 대규모 GPU 컴퓨팅을 활용한 드라이브 AV 기초 모델 훈련 인프라 ▲물리적으로 정확한 테스트와 시나리오 생성을 가능하게 하는 엔비디아 옴니버스와 코스모스 시뮬레이션 환경 ▲인지, 센서 융합, 의사 결정 과정을 실시간으로 처리하는 엔비디아 드라이브 AGX(DRIVE AGX) 가속 컴퓨팅 및 안전하고 고도화된 자율주행 경험을 위한 컴퓨팅과 센서 아키텍처를 제공하는 드라이브 하이페리온(DRIVE Hyperion) 등이 있다. 엔비디아의 알리 카니(Ali Kani) 자동차 부문 부사장은 “자동차 산업이 피지컬 AI를 도입하면서 엔비디아는 데이터와 소프트웨어를 통해 모든 차량을 프로그래밍 가능하고, 업데이트 가능하며, 지속적으로 개선하도록 만드는 지능의 백본이다. 메르세데스-벤츠와 신형 CLA를 시작으로, 안전, 디자인, 엔지니어링과 AI 기반 주행 분야에서의 성과는 모든 차량을 살아 움직이고 학습하는 기계로 탈바꿈시킬 것”이라고 말했다.
작성일 : 2026-01-07
레노버, 엔비디아 그레이스 블랙웰 슈퍼칩 탑재한 AI 워크스테이션 ‘씽크스테이션 PGX’ 출시
한국레노버가 엔비디아 GB10 그레이스 블랙웰 슈퍼칩을 탑재한 컴팩트한 AI 워크스테이션 ‘씽크스테이션 PGX(ThinkStation PGX)’를 출시했다. 새롭게 선보인 씽크스테이션 PGX는 AI 연구자, 개발자, 데이터 과학자, 엔지니어 등을 위한 전문 AI 워크스테이션이다. 최대 1페타플롭(1000 TOPS) AI 연산 성능을 제공하며 최대 2000억 개 파라미터를 가진 대규모 생성형 AI 모델을 처리할 수 있다. 128GB 통합 시스템 메모리를 탑재해 사용자는 최신 추론 AI 모델을 실험하고, 미세 조정 및 추론 작업을 원활하게 수행할 수 있다. 두 대의 시스템을 연결하면 최대 4050억 개 파라미터를 가진 더 큰 AI 모델까지 처리 가능하다. 1.13리터의 사이즈와 최소 1.2kg의 무게로 공간 활용성을 높였다.     씽크스테이션 PGX는 엔비디아 DGX OS와 엔비디아 AI 소프트웨어 스택은 물론, 파이토치(PyTorch), 주피터(Jupyter) 등 개발자에게 익숙한 도구와 프레임워크가 사전 구성되어 있다. 이를 통해 개발자는 데스크톱 환경에서 대규모 AI 모델을 즉시 프로토타이핑하고, 미세 조정 및 추론 과정을 거쳐 데이터센터나 클라우드로 손쉽게 배포할 수 있다. 생성형 AI 모델의 규모와 복잡성이 급격히 증가함에 따라 로컬 환경에서의 개발은 점점 더 많은 제약에 직면하고 있다. 대규모 모델의 프로토타이핑, 튜닝, 추론에는 방대한 GPU 메모리와 연산 성능이 요구된다. 씽크스테이션 PGX는 이러한 한계를 극복하고 AI 애플리케이션 프로토타이핑을 위한 강력하면서도 경제적인 플랫폼을 제공한다. 이에 따라 개발자는 AI 온프레미스 클러스터나 클라우드 컴퓨팅 환경의 리소스를 한층 효율적으로 활용할 수 있다. 또한 씽크스테이션 PGX 사용자는 엔비디아 AI 플랫폼 소프트웨어 아키텍처를 기반으로 코드를 거의 수정하지 않고도 데스크톱 환경에서 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 이전 가능하다. 이를 통해 프로토타이핑, 미세 조정, 반복 등 개발 작업을 손쉽게 수행할 수 있다. 한국레노버의 신규식 대표는 “생성형 AI 시대를 맞아 기업과 연구기관의 AI 개발 역량이 핵심 경쟁력으로 부상하고 있다”며, “고성능이면서도 컴팩트한 씽크스테이션 PGX는 전문가들이 클라우드 인프라의 복잡성과 비용 부담 없이 확장 가능한 AI 기능을 구현할 수 있는 최적의 설루션”이라고 말했다. 이어 “레노버는 워크스테이션 포트폴리오를 지속적으로 확장해 전문가들이 생성형 AI 혁신을 가속화하고 채택할 수 있도록 적극 지원할 것”이라고 덧붙였다.
작성일 : 2025-10-27
델, 책상 위의 AI 시스템 ‘델 프로 맥스 위드 GB10’ 출시
델 테크놀로지스가 네트워크 연결 없이 데스크 환경에서 최대 2000억개 매개변수의 LLM(대규모 언어 모델)을 지원하는 AI 시스템 ‘델 프로 맥스 위드 GB10(Dell Pro Max with GB10)’을 출시한다고 밝혔다.  최근 생성형 AI의 패러다임이 인간의 개입 없이 여러 AI가 협력하고 자율적으로 의사결정을 내리는 ‘에이전틱 AI’로 전환되고 있다. AI 성능 향상을 위한 매개변수 증가와 멀티모달 AI 모델 개발이 가속화됨에 따라, AI 워크로드를 안전하고 비용 효율적으로 빠르게 처리할 수 있는 로컬 컴퓨팅 환경의 중요성이 커지고 있다. 새롭게 발표된 델 프로 맥스 위드 GB10은 엔비디아 GB10 그레이스 블랙웰(NVIDIA GB10 Grace Blackwell) 슈퍼칩을 탑재해 AI 개발을 위한 고성능을 제공한다. 최대 2000억개 매개변수의 LLM을 로컬 환경에서 직접 프로토타이핑, 미세조정, 추론까지 할 수 있다는 것이 특징이다. GB10 슈퍼칩은 20코어의 고성능 Arm 아키텍처를 탑재한 그레이스 CPU와 블랙웰 GPU를 결합해 최대 1페타플롭(1초당 1000조번 연산 처리)의 AI 연산 성능을 제공한다.     이 제품은 128GB LPDDR5x 통합 시스템 메모리를 제공하며, 2TB 및 4TB NVMe SSD 옵션을 선택할 수 있어 방대한 데이터 처리와 복잡한 AI 워크로드를 원활히 운영할 수 있다. 또한, TPM 2.0 보안과 안전한 샌드박스 환경 구축을 통해 중요한 기업 데이터를 안전하게 보호할 수 있다.  우분투 리눅스 기반의 엔비디아 DGX OS 및 AI 소프트웨어 스택을 탑재해 AI 개발자가 데스크톱과 데이터센터 환경을 자유롭게 넘나들며 워크로드를 구현할 수 있는 것 또한 특징이다. 초저지연 네트워킹을 지원하는 엔비디아 커넥트X-7(ConnectX-7)으로 델 프로 맥스 위드 GB10 두 대를 연결하면 최대 4000억 개 매개변수 모델도 원활히 처리 가능하다. 또한 ‘엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)’를 기반으로 데스크 환경에서의 프로토타입 제작부터 데이터 센터 배포까지 원활하게 확장할 수 있다. 엔비디아 쿠다(NVIDIA CUDA), 엔비디아 AI 워크벤치(NVIDIA AI Workbench) 및 주피터랩(JupyterLab)과 독커(Docker) 등이 기본 탑재되어 별도의 설치 과정 없이 개봉 즉시 AI 모델 개발과 테스트를 시작할 수 있다. 델은 델 프로 맥스 위드 GB10가 강력한 성능을 기반으로 AI 시대의 다양한 사용자에게 새로운 가능성을 제시한다고 전했다.. 대학 등 연구기관에서는 ‘라마 3.3 70B(Llama 3.3 70B)’와 같은 대규모 언어 모델을 해당 제품에서 직접 실행해 연구 속도를 획기적으로 높일 수 있다. 스타트업 등 중소규모 기업은 추론, 미세 조정, 프로토타이핑 등 AI 개발의 전 과정을 로컬 환경에서 수행하며 복잡한 인프라 구축 없이도 혁신을 빠르게 이어갈 수 있다. 헬스케어나 금융 서비스와 같이 민감한 데이터를 다루는 업계에서는 데이터를 외부로 반출하지 않고 고급 AI 모델을 안전하게 학습 및 운용하여 데이터 보안을 실현하고 리스크를 줄일 수 있다. 크리에이터와 개발자들은 엔터프라이즈급 컴퓨팅 파워를 활용해 외부 인프라 구축 등의 추가 비용 없이, 자신만의 작업 공간에서 비전 모델을 미세 조정하고, AI 기반 콘텐츠를 제작하는 창의적인 프로젝트를 손쉽게 구현할 수 있다. 델 프로 맥스 위드 GB10은 공기 흐름을 최적화한 섀시 디자인을 적용해 장시간 사용 시에도 온도와 소음을 효과적으로 제어하며 안정적인 성능을 유지한다. 델 프로 맥스 위드 GB10은 10월 16일에 출시될 예정이며, 최대 3년간의 델 지원 서비스(Dell Service & Support)가 제공된다. 한국 델 테크놀로지스 김경진 총괄사장은 “온프레미스 환경에서 AI를 구현하는 수요가 증가하는 가운데, 델 프로 맥스 위드 GB10은 엔비디아 GB10 슈퍼칩 기반의 강력한 성능으로 개인용 데스크 환경에서 AI 프로젝트를 실행할 수 있는 획기적인 설루션”이라면서, “델 테크놀로지스는 델 프로 맥스 라인업에 최신 AI 기술을 발빠르게 적용해 제품 포트폴리오를 지속적으로 확장하고 있고, 많은 기업이 보안이나 비용 등의 제약 없이 로컬에서 AI 혁신을 구현하도록 지원하고 있다”고 말했다.
작성일 : 2025-10-14
엔비디아, 오픈AI와 10GW 규모 시스템 구축 위해 협력
엔비디아가 오픈AI(OpenAI)와 전략적 파트너십을 체결했다고 밝혔다. 양사는 이번 파트너십의 일환으로 오픈AI의 차세대 AI 인프라 구축을 위해 최소 10GW(기가와트) 규모의 엔비디아 시스템을 도입한다는 의향서를 발표했다. 이번 협력으로 오픈AI는 차세대 모델을 훈련하고, 운영하며, 슈퍼인텔리전스 배포를 위한 기반을 마련하게 된다. 엔비디아는 데이터센터와 전력 용량 확보를 포함한 이번 구축을 지원하기 위해, 신규 시스템이 도입됨에 따라 오픈AI에 최대 1000억 달러를 투자할 계획이다. 첫 번째 단계는 엔비디아 베라 루빈(Vera Rubin) 플랫폼을 통해 2026년 하반기 가동을 목표로 하고 있다. 엔비디아와 오픈AI는 향후 몇 주 안에 이번 전략적 파트너십의 새로운 단계에 대한 세부 사항을 확정할 예정이다. 오픈AI는 “현재 주간 활성 사용자 수가 7억 명을 넘어섰으며, 글로벌 기업, 중소기업, 개발자 전반에서 강력한 활용도를 보이고 있다. 이번 파트너십은 오픈AI가 인류 전체에 이익이 되는 범용 인공지능(AGI) 구축이라는 사명을 추진하는 데 기여할 것”이라고 소개했다. 오픈AI는 AI 팩토리 성장 계획을 위해 전략적 컴퓨팅, 네트워킹 파트너로서 엔비디아와 협력할 예정이다. 양사는 오픈AI의 모델과 인프라 소프트웨어와 엔비디아의 하드웨어와 소프트웨어에 대한 로드맵을 공동 최적화해 나갈 것이다. 이번 파트너십은 오픈AI와 엔비디아가 이미 마이크로소프트, 오라클, 소프트뱅크, 스타게이트 등 파트너사를 비롯한 여러 협력사와 추진 중인 작업을 보완한다. 이를 통해 양사는 세계 최고 수준의 AI 인프라 구축을 위해 한층 더 속도를 낼 계획이다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “엔비디아와 오픈AI는 지난 10년간 최초의 DGX 슈퍼컴퓨터부터 챗GPT(ChatGPT)의 혁신에 이르기까지 서로를 함께 견인해왔다. 이번 투자와 인프라 파트너십은 차세대 인텔리전스 시대를 이끌 10GW 규모의 인프라 구축이라는 다음 도약을 의미한다”고 말했다. 오픈AI의 샘 알트만(Sam Altman) CEO는 “모든 것은 컴퓨팅에서 시작된다. 컴퓨팅 인프라가 미래 경제의 기반이 될 것이며, 우리는 엔비디아와 함께 구축 중인 인프라를 활용해 새로운 AI 혁신을 창출하고, 이를 사람과 기업이 대규모로 활용할 수 있도록 할 것”이라고 말했다.
작성일 : 2025-09-25
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크’ 국내 예약 주문 시작
엔비디아가 차세대 개인용 AI 슈퍼컴퓨터 ‘엔비디아 DGX 스파크(NVIDIA DGX Spark)’의 국내 예약 주문을 시작한다고 밝혔다. DGX 스파크는 책상 위에 올려 놓을 수 있는 크기의 AI 슈퍼컴퓨터로 생성형 AI, 거대 언어 모델(LLM), 고속 추론 등 다양한 AI 워크플로를 로컬 환경에서 효율적으로 구현할 수 있도록 설계됐다. AI 개발이 고도화됨에 따라, 조직은 데이터 보안 강화와 지연 최소화, 배포 유연성 등을 고려해 로컬 환경에서 직접 AI 모델을 개발하고 실행할 수 있는 시스템을 요구하고 있다. DGX 스파크는 이러한 수요에 대응해 데스크톱 환경에서도 데이터 크기나 위치, 모델 규모에 제약 없이 민첩하고 효율적인 AI 개발이 가능하도록 지원한다.     DGX 스파크는 데스크톱 폼팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)을 탑재해 FP4 정밀도 기준, 최대 1페타플롭의 AI 성능을 제공한다. 또한, 고성능 엔비디아 커넥트-X(Connect-X) 네트워킹으로 두 대의 엔비디아 DGX 스파크 시스템을 연결해 최대 4,050억 개 파라미터의 AI 모델을 처리할 수 있다. DGX 스파크는 128GB 메모리를 탑재했으며, 엔비디아 AI 소프트웨어 스택이 사전 설치돼 있다. 이를 통해 딥시크, 메타, 구글 등에서 선보인 최대 2000억 개 파라미터의 최신 AI 모델도 로컬 환경에서 직접 프로토타이핑, 미세 조정, 추론할 수 있다. 또한, 사용자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama) 등 익숙한 개발 도구를 사용할 수 있으며, 이를 DGX 클라우드나 가속화된 데이터센터 환경으로 손쉽게 확장할 수 있다. 이와 함께 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprint)에 대한 액세스를 통해 AI 애플리케이션을 더욱 빠르게 개발하고 배포할 수 있도록 지원한다. 엔비디아는 “DGX 스파크는 올해 엔비디아 연례 개발자 콘퍼런스인 GTC와 컴퓨텍스(COMPUTEX)에서 공개된 이후 큰 관심을 받아왔으며, 이번 국내 예약 주문을 계기로 본격적인 보급이 기대된다”고 전했다. DGX 스파크의 국내 예약 주문은 엔비디아 공식 홈페이지를 통해 진행된다. 국내 주요 파트너사 중 원하는 업체를 선택해 예약할 수 있으며, 대량 구매도 가능하다. 공식 파트너사로는 에즈웰에이아이, 비엔아이엔씨, 디에스앤지, 아이크래프트, 리더스시스템즈, 메이머스트, MDS테크, 유클릭, 씨이랩, 제스프로가 있다.
작성일 : 2025-07-29
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
인텔코리아, AI 기술 전략 소개 및 국내 기업과 협력 확대 발표
인텔은 국내 협력사들과 함께 자사의 AI 기술 동향과 최신 전략, 협력 사례를 공유하는 ‘2025 인텔 AI 서밋 서울’을 개최했다고 밝혔다. 인텔 AI 서밋은 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고 산업 전반에 걸친 AI의 잠재력과 미래 발전 방향을 함께 모색하기 위한 자리다. 레노버, 네이버클라우드, SK하이닉스, 델, 마이크로소프트, 삼성SDS, 슈퍼마이크로, 시스코, HPE, LG이노텍, LG전자 등 국내외 주요 협력사와 KAIST, 중소벤처기업부, 창업진흥원 등 학계와 공공 부문에서도 관련 전문가들이 참석하여 AI 기술 동향과 산업 간 협력 방안을 논의하고 네트워킹하는 자리가 이어졌다. 이번 행사는 인텔코리아 배태원 사장의 환영사와 한스 촹(Hans Chuang) 인텔 세일즈 마케팅 그룹의 아시아 태평양 및 일본 총괄의 인사말로 시작되었다. 촹 총괄은 “AI 기술이 빠르게 진화하고 활용 사례도 점점 복잡해지면서, 기업들은 성능과 비용 효율성을 동시에 충족하는 보다 개방적이고 다양한 설루션을 필요로 한다”고 전했다. 또한, “인텔은 폭넓은 호환성, 다양한 소프트웨어 옵션, 고유의 아키텍처, 뛰어난 성능을 제공함으로써 AI가 데이터센터, 클라우드, 네트워크 에지 및 PC에 이르는 전체 컴퓨팅 연속체에서 최적의 성능을 발휘하도록 지원하고 있다”면서, 인텔의 개방형 프로그래밍 모델은 단일 벤더의 하드웨어나 GPU에서만 동작하는 폐쇄형 프로그래밍 모델에 비해 비용과 유연성 측면에서 실질적 비즈니스 우위를 제공한다고 강조했다.     이어진 파트너 세션에서 레노버 아시아태평양지역 인프라 솔루션 그룹 수미르 바티아(Sumir Bhatia) 사장은 ‘모두를 위한 스마트한 AI’를 주제로 기업들의 AI 가속화에 따른 높은 전력 수요로 지속가능성이 주요 과제로 떠올랐음을 강조하며, 이를 해결하기 위한 레노버의 최신 냉각 기술과 AI 추론 최적화 설루션을 소개했다.  또한 SK하이닉스의 정우석 부사장은 ‘메모리 중심 AI 컴퓨팅 시대의 새로운 기회’ 발표를 통해 AI 컴퓨팅 시대를 맞아 부각되고 있는 메모리 기술의 중요성을 강조하며, 커스텀 메모리 기술의 시장 기회가 증가하고 있다고 밝혔다. 또한 인텔과 데이터센터용 설루션의 다양한 영역에서 긴밀히 협력 중임을 덧붙였다. 전략적 파트너 세션의 발표자로 나선 네이버클라우드의 김유원 대표는 AI 생태계에 대한 발표를 통해 “네이버클라우드는 인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔으며, 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 협력의 범위와 깊이가 꾸준히 확장되고 있다”며, “향후에도 네이버클라우드는 인텔과 함께 글로벌 시장을 타깃으로 다양한 AI 기반 클라우드 서비스를 공동 개발하며, 기술 혁신과 해외 진출이라는 두 축에서 협력을 확대해 나갈 것”이라고 말했다. 오후 세션에서는 ‘AI & 데이터센터’와 ‘AI PC & 에지 AI’로 나뉘어 업계의 최신 정보 및 인사이트, 사례 발표가 이어졌다. 데이터센터 세션에서 삼성 SDS는 가우디 3 기반 LLM 추론 성능 분석 사례를 공유했고, AI PC 부문에서는 LG이노텍이 인텔 AI 설루션 기반 스마트 공장 사례를, 전북특별자치교육청이 AI PC를 활용한 수업 혁신 사례를 공유하는 등 교육, 게임, 리테일, 제조 등 다양한 분야의 적용 사례를 공유했다. 인텔은 하반기에도 국내 AI 생태계 발전을 위한 협력을 더욱 확대해 나갈 예정이다. 인텔은 행사 당일 포스코DX와 인텔 제온 프로세서의 AI 가속 기능 및 오픈비노 기술을 활용해 AI 서비스 비용 효율을 높이고, AI 에이전트 생태계 구축에 협력하기 위한 상호양해각서를 체결했다고 밝혔다. 한편 kt cloud와 인텔 가우디(Gaudi) AI 가속기를 kt cloud AI Foundry에 도입하는 것을 검토하고 AI 추론 개발에 특화된 비용 효율적인 GPUaaS 상품 출시를 검토하며, 다양한 산업군의 클라우드 수요에 대응할 수 있는 상품 포트폴리오 고도화 및 기술 협력을 위한 상호양해각서를 지난 6월 30일 체결했다.
작성일 : 2025-07-02
PINOKIO : 스마트 제조의 실현 위한 물류 디지털 트윈 설루션
개발 및 공급 : 이노쏘비 주요 특징 : 제조 물류 전반에 걸친 시뮬레이터/디지털 트윈/AI 에이전시의 통합 플랫폼, 설계~운영 과정의 최적화 지원, 다양한 제조 운영 시스템과 실시간 연동으로 대용량 데이터를 수집 및 처리, LLM/sLLM을 활용해 직관적인 데이터 분석 및 의사결정 지원 등 사용 환경(OS) : 윈도우 10/11(64비트) 시스템 권장 사양 : 인텔 i5 10세대 이상 또는 AMD 라이젠 5 이상 CPU, 최소 16GB RAM(32GB 권장), 엔비디아 RTX 4060 이상 GPU(AI 기능 사용 시 필요), 30GB 이상 여유 저장공간   최근 제조 기업들은 디지털 트윈 기반의 스마트 공장 도입과 더불어 급속한 디지털 전환(DX)을 위해 노력하고 있다. 불과 몇 해전만 하더라도 그 실체와 사례에 대해 의문이 있었지만, 다양한 도입 사례와 성과가 공개되면서 이제는 DX에서 나아가 AI 기술 도입과 AI로의 전환(AX : AI Transformation)을 활발히 검토하고 있고, 적극적인 도입 의사를 밝히고 있다. ‘PINOKIO(피노키오)’는 최신 기술 흐름을 반영해 탄생한 차세대 물류 디지털 트윈 설루션으로, 기존 상용 시스템의 한계를 극복하고 제조 산업의 스마트화를 가속화하는데 최적화된 해답을 제시한다. 기술 대전환의 시대를 맞아 기존의 전통적인 DX 설루션 기업들은 3D 모델링 및 시뮬레이션 등 낮은 단계의 디지털 트윈 기술을 기반으로 DX 설루션으로 개선 및 확장하고 있다. 이와 달리, PINOKIO는 초기부터 현장의 대용량 데이터 기반 실시간 물류 모니터링 및 실시간 시뮬레이션을 제공하는 디지털 트윈 기반의 운영 시스템을 목적으로 출발하였다. 그 결과 SK 하이닉스, LG전자 등 대량의 혼류 생산 제조 현장에서 디지털 트윈의 정합성과 예측의 정확도 등을 검증받았고 도입 효과를 증명했다. 이를 바탕으로 최근에는 기존 상용 설루션보다 높은 성능의 시뮬레이터까지 라인업하여 다양한 요구를 충족시킬 수 있게 되었다. 기존 상용 물류 시뮬레이션 설루션은 대부분 20~30년 전 개발된 구조를 가지고 있어, 최신 IT/OT 시스템과의 연동과 AI 기술을 적용하기 어렵다. 이로 인해 대용량 데이터 처리에 한계가 있으며, 사용자 API(애플리케이션 프로그래밍 인터페이스) 미제공으로 커스터마이징과 타 시스템 연계, 현장 실시간 운영에 필요한 유연성과 확장성에서도 제약이 있다. PINOKIO는 이러한 기존 설루션의 문제점을 개선해 제조 물류 관련 다양한 AI 모델을 지원하며, 기존 설루션 대비 높은 모델링 속도를 구현할 수 있다. 그리고 멀티 스레드, GPU 기반의 고속 시뮬레이션 연산 기능과 2차전지, AMR(자율이동로봇), OHT(오버헤드 트랜스퍼), 자동창고 등 다양한 제조 환경에 맞는 특화 라이브러리를 제공한다. 특히, 생산 현장에서 발생하는 실시간 빅데이터를 효과적으로 처리하고, 대화형 어시스턴트(assistant) 방식의 직관적인 사용자 인터페이스(UI)를 통해 사용자 편의성을 높였다. 또한, 사용자 API를 통한 고도화된 커스터마이징이 가능하며, MES(제조 실행 시스템), 센서, PLC(프로그래머블 로직 컨트롤러), IoT(사물인터넷) 등 다양한 운영 시스템과의 실시간 연동 기능도 갖췄다. 나아가, 전력 사용량 분석과 탄소세 예측 기능까지 탑재돼 지속 가능한 제조 환경 구축을 위한 의사결정도 지원한다. PINOKIO는 AI 기반 제조 혁신의 길을 여는 실질적인 도구로, 앞으로 제조업계의 디지털 전환을 선도할 핵심 설루션으로 자리매김할 전망이다.   주요 기능 소개 PINOKIO는 시뮬레이터, 디지털 트윈, AI 에이전시(agancy)를 통합한 차세대 DES(이산 이벤트 시뮬레이션) 기반 플랫폼으로, 제조 물류 전반에 걸친 통합 설루션을 제공한다. PINOKIO는 세 가지 핵심 모듈로 구성된다. 첫 번째는 ‘Pino SIM’으로, 공정 흐름 설계부터 시뮬레이션, 분석까지 수행하는 시뮬레이터다. Pino SIM은 도면 편집과 레이아웃 설계를 위한 Pino Editor를 내장하고 있어, 단순한 시뮬레이션을 넘어 제조 기준정보 입력, 물류 시나리오 구성, 시뮬레이션 실행 및 시각화 분석까지 다양한 기능을 제공한다. 이를 통해 설계 초기 단계부터 실제 운영에 이르기까지 전 과정의 최적화를 효과적으로 지원한다. 두 번째는 실시간 디지털 트윈 모듈인 ‘Pino DT’다. MES, IoT, PLC, 센서 등 다양한 제조 운영 시스템과의 실시간 연동을 통해 대용량 데이터를 실시간으로 수집하고 처리하며, 이를 바탕으로 실시간 모니터링은 물론 미래 상황 예측, 예지 보전 기반의 시뮬레이션이 가능하다. 이는 생산 현장의 가시성과 민첩성을 높이는 데 기여한다. 세 번째는 인공지능 기반의 ‘Pino AI’다. LLM(대규모 언어 모델)과 sLLM(전문 도메인 특화 언어 모델)을 활용한 대화형 UI를 통해 사용자가 직관적으로 데이터를 분석하고 의사결정에 활용할 수 있다. 또한 목적에 따라 강화학습, 파라미터 최적화 등 다양한 AI 기법을 적용할 수 있어 생산성과 품질 향상을 동시에 도모할 수 있다. PINOKIO는 엔비디아 옴니버스(NVIDIA Omniverse)와 같은 고급 시각화 플랫폼과 연동 가능하며, 파이썬(Python) 개발 환경 확장도 지원함으로써 사용자 맞춤형 라이브러리 개발이 가능하다. 이를 통해 제조 기업은 사전 공정 및 물류 최적화는 물론 실시간 생산 모니터링, 미래 예측, AI 기반 정확도 향상 등 다양한 지능형 서비스를 구현할 수 있다. 제조업의 디지털 전환이 본격화되는 시대에 PINOKIO는 스마트 공장을 넘어 AI 전환을 실현하는 핵심 파트너로 부상하고 있다.   PINOKIO의 특징 PINOKIO는 고도화된 시뮬레이션 엔진과 AI 통합 기능을 바탕으로 대규모 데이터 처리 및 실시간 예측 분석을 지원하며 스마트 제조 시대의 경쟁력을 강화하고 있다. PINOKIO는 이벤트 처리 기법 최적화 및 단순화된 시뮬레이션 엔진 설계로 빠른 연산 속도를 제공한다. 특히, 초당 60프레임(FPS) 기준으로 500만 개 수준의 대규모 3D 데이터를 안정적으로 처리할 수 있으며, 선택적 컴파일 방식(C# 기반 네이티브 코드)을 활용한 별도 계산 도구를 통해 집약적인 연산 작업도 고속으로 수행할 수 있다. 디지털 트윈 구축에서도 PINOKIO는 강력한 성능을 발휘한다. MES, ACS, MCS 등 다양한 제조 운영 시스템과 연동과 IoT, 센서, PLC 등 생산 현장에서 수집되는 대용량 데이터를 실시간으로 처리한다. 이를 통해 실시간 모니터링과 동시에 백그라운드 시뮬레이션을 수행하고, 타임 호라이즌(Time Horizon) 방식의 미래 예측 기술을 통해 병목, 이상 징후 탐지 및 알람 기능도 제공된다. 또한, AI를 활용하기 위한 정상/이상 데이터 제공과 파라미터 최적화 및 시나리오별 분석 기능이 포함되어 있으며, LLM과 sLLM, 챗GPT(ChatGPT), 메타 라마(Meta LLaMA) 등 다양한 AI 모델을 통합한 AI 에이전시 기능을 통해 대화형 데이터 분석, 자동 의사결정 지원, 데이터 해석 및 운영 최적화를 구현한다. 시뮬레이션 설계 및 모델링 측면에서도 사용자 편의성이 강화됐다. Pino Editor를 활용해 레이아웃 도면을 직관적으로 확인 및 편집할 수 있으며, 제조 기준 정보 입력 및 템플릿 매칭 기능을 통해 모델링 작업 시간을 획기적으로 단축시킨다. 또한, 2차전지 및 반도체 공정에 특화된 전용 라이브러리도 제공되며, 고객 맞춤형 커스터마이징 시뮬레이터를 통해 사용자의 목적에 따라 분석 및 최적화가 가능한 유연한 개발 환경을 지원한다. 이처럼 PINOKIO는 고속 시뮬레이션, 실시간 예측, AI 기반 의사결정, 그리고 유연한 모델링 기능을 종합적으로 제공하며, 제조업의 지능화·자동화를 실현하는 설루션이다.   그림 1. PINOKIO UI 화면 – 반도체 FAB   사전 레이아웃 및 물류 검토를 위한 설루션 : Pino SIM 디지털 트윈 구축 시 미래 예측을 위한 시뮬레이터 역할과 기존 상용 설루션과 같이 공장 신축 또는 생산 라인 변경 등 제조 현장의 변화가 요구된다. 이런 상황에서 Pino SIM은 사전에 최적의 물류 계획과 레이아웃 구성을 지원하고 공정의 효율성과 안정성을 미리 확보할 수 있는 디지털 전환 핵심 도구이자 가상 공장 구현 설루션이다. Pino SIM은 제조 기준 정보(제품, 공정, 레이아웃, 물류 흐름, 작업 순서, 스케줄링 등)를 기반으로 공정을 시뮬레이션하며, 그 결과를 차트, 그래프 등 다양한 시각화 도구를 통해 분석할 수 있다. 이를 통해 레이아웃 검증 및 최적화, 생산성 향상 등 공장 운용 전반의 효율화를 실현할 수 있다. 특히, OHT, AMR 등 신 산업군을 위한 특화 라이브러리를 제공하며, 이송 설비 구현을 위한 이동, 충돌 방지, 회피 제어를 위한 OCS, ACS 기능도 탑재되어 있다. 이를 통해 코드 작성 오류를 줄이고 디버깅 시간을 줄일 수 있으며, 보다 쉽고 효율적으로 시뮬레이션 모델을 구축할 수 있다. 또한, 자동창고 모델링에 필요한 Stocker(Crane, Rack, Rail)를 그룹화 형태로 제공하여 빠른 모델링이 가능하다. 환경과 에너지 측면에서도 전력 사용량 및 탄소 배출량(탄소세) 분석 기능을 통해 지속 가능한 생산 전략 수립에 도움을 주며, 제조업의 친환경화와 ESG 경영 대응에도 기여할 수 있다. 이처럼 Pino SIM은 공장 설계 단계에서의 의사결정 품질을 높이고, 새로운 제조 환경에 유연하게 대응할 수 있는 설루션이다.   그림 2. 라이브러리 제공 – Stocker   그림 3. 개발(코딩) 없이 기능 구현   그림 4. 시뮬레이션 결과 리포트 예제   디지털 트윈 설루션 : Pino DT 제조 현장에서 물류는 제품의 사이클 타임을 결정하는 요소 중에 하나이다. 물류 정체가 발생할 경우 제품의 사이클 타임이 길어지거나 라인이 정지되는 등 심각한 손실이 발생할 수 있다. 이러한 문제를 해결하기 위해 시뮬레이션을 통한 최적화된 운영 방식을 시스템에 적용하려는 노력이 이어져왔다. 기존의 물류 설루션은 현장에서 발생하는 대용량의 데이터를 시뮬레이션에 반영하여 실시간으로 의사결정하는 과정에서 다양한 제약으로 인해 어려움이 있었다. 또한, 현장 작업자의 개입과 같은 인간적 오류는 시스템이 예측할 수 없는 데이터를 발생시키기 때문에 생산 계획 단계에서의 사전 분석 및 검증만으로는 시뮬레이션 정합성을 높이는데 한계가 있다. Pino DT는 최적화된 자체 개발 시뮬레이션과 모니터링 엔진을 탑재하여 이를 해결하였다. 시뮬레이션의 이벤트 횟수를 최적화하여 최소한의 이벤트로 시뮬레이션이 가능하도록 설계했다. 또한 계산 속도에 이점이 있는 C, C++ 언어로 물류 경로를 최적화하는 알고리즘을 구현하여 기존 설루션 대비 약 2만평 규모의 공장에서 약 70배의 향상된 성능을 검증하였다.   그림 5. Pino DT의 UI 화면   대용량 데이터 처리 및 실시간 모니터링 Pino DT는 시뮬레이션에 최적화된 알고리즘을 사용함으로써 대용량 데이터 처리가 가능하고, 현장 데이터를 실시간으로 시뮬레이션에 반영할 수 있다. 기존 물류 시뮬레이션 설루션에 비해 60~700배 뛰어난 가속 성능을 제공하는 시뮬레이션 도구이다. 제조 현장과 동일한 상황을 시뮬레이션하기 위해 현장과 연동 후 데이터를 가공하여 디지털 트윈 모델로 표현하여 가시화하고, 사용자가 설정한 시간 주기마다 미래를 예측하는 시뮬레이션(proactive simulation)을 백그라운드로 수행한다. 이는 제품의 공정 시간보다 짧은 시간 안에 결과를 확인할 수 있고, AI를 통해 보다 정확한 의사결정을 내릴 수 있도록 지원한다.   그림 6. Pino DT의 모니터링 화면   디지털 트윈 실시간 시뮬레이션 : 미래 예측 실시간 현장 상황을 반영하여 미래를 예측하는 시뮬레이션(proactive simulation)은 제품의 택트 타임(tact time)보다 짧은 시간 내에 결과를 도출해내지 못하면 현장에서 선제 대응하지 못하는 결과를 초래할 수 있다. 모니터링 엔진으로부터 라인 상황에 대한 데이터를 수집하고, 현재로부터 예측하고자 하는 시간 동안 발생하는 이상상황에 대해 피드백을 준다. 예를 들어 조립 라인의 경우에는 부품이 5분 뒤에 부족하다는 알람을 작업자에게 즉시 전달하여 선제적 대응을 가능케 함으로써, 라인 정지 등 비상 상황을 사전에 방지할 수 있다. PINOKIO 디지털 트윈 시뮬레이션은 이러한 역할이 가능하도록 가속화한 고속 시뮬레이션 엔진을 보유하고 있다.   그림 7. 현장 FAB(왼쪽)과 PINOKIO에서 생성된 디지털 트윈(오른쪽)   제조 물류 현장에 특화된 AI 플랫폼 : Pino AI AI를 이용한 설루션을 만들기 위해서는 다양한 상황에 대한 데이터가 필요하다. 하지만 제조 현장의 특성 상 여러 상황에 대한 데이터를 획득하기 어렵다. PINOKIO에서는 현장에서 획득하기 어려운 데이터를 시뮬레이션을 통해 데이터를 확보할 수 있다. 즉, Pino DT 모델이 AI를 위한 데이터를 생성하고, 이를 AI가 최적 값을 도출하여 시뮬레이션에 반영한다. Pino DT에서 획득한 데이터를 파이썬, C, 자바(JAVA) 등 다양한 언어로 구현한 로직을 적용할 수 있도록 개발 환경을 제공하고 있다. 이를 통해 예측 정확도 향상, 데이터 기반 의사 결정, Scheduling, Routing, Dispatching 등 목적에 따라 AI 활용이 가능하다. 또한 LLM, sLLM, 챗GPT(ChatGPT), 메타 라마(Meta Llama) 등과 결합한 대화형 UI를 통해 사용자가 직관적으로 데이터를 분석하고 의사결정에 활용할 수 있다.   그림 8. 대화형 UI 및 결과 리포트   그림 9. Pino DT와 AI 모델 활용 원리   Pino DT와 현장 데이터 인터페이스 디지털 트윈에 가장 중요한 요소는 현장과의 연결이다. 대부분의 물류 전문 설루션이 현장과의 연결을 위한 인터페이스를 지원하지만, 많은 양의 데이터를 처리하면서 실시간으로 시뮬레이션하는데 어려움이 있다. Pino DT는 대용량 데이터 처리와 시뮬레이션 가속 성능이 뛰어나 실시간 모니터링 시스템까지 가능하다. <그림 10>은 현장에 있는 MES와 Pino DT가 인터페이스되는 과정이다. 현장에 있는 PLC가 MES에 데이터를 전달하고, MES는 그 데이터를 데이터베이스에 저장한다. 이를 Pino DT에서 외부 통신(IP)을 통해 데이터베이스에 접근하여 데이터를 시뮬레이션에 반영한다. 이 과정에서 현장 데이터의 상태가 중요하다. 불필요한 데이터가 있거나 로스 또는 시간 순서가 맞지 않은 경우가 대부분이다. Pino DT에서는 현장 데이터를 올바르게 정제하는 작업을 거쳐 현장과 동일한 디지털 트윈 모델을 만든다.   그림 10. 현장 데이터 인터페이스 과정   PINOKIO의 기대 효과 PINOKIO는 현장 운영 데이터를 실시간으로 디지털 트윈과 연동함으로써 모니터링이 가능하며, 전체 공장을 PC, 웹, 모바일 등 다양한 형태로 여러 사용자와 함께 직관적으로 확인하면서 공유하고 협업할 수 있다. 또한 현장과 연결된 디지털 트윈 모델을 이용하여, 미래에 발생 가능한 문제점을 예지(predictive)하고, 이러한 문제점을 사전에 해결하기 위한 선제대응(proactive) 의사결정을 가능하게 한다. 이 때 디지털 트윈을 이용한 사전예지는 온라인 시뮬레이션 기술에 기반하고, 선제대응은 AI 기술에 기반한다고 볼 수 있다. 디지털 트윈 기반 사전예지의 시간적 범위(time horizon)는 현장의 특성에 따라서 0.1시간~10시간으로 달라질 수 있으며, 문제점의 종류는 주로 생산 손실(loss), 부품의 혼류 비율 불균형, 설비 고장예지 및 물류 정체 등을 포함한다. 문제점이 예지되면 이를 해결하기 위한 즉각적인 의사결정 AI 기술을 활용하여 최적 운영을 달성함으로써 생산성, 경제성, 안정성 및 경쟁력 향상 효과가 있다.   맺음말 생산 계획 단계에서 Pino SIM을 통해 레이아웃 검증과 물류를 최적화하고, Pino SIM 모델 데이터를 생산 운영 단계에서 PINOKIO와 연계하여 현장 데이터 기반 실시간 모니터링과 미래 상황 예측 및 선제 대응함으로써 현실적이고 실제 활용 가능한 스마트한 디지털 트윈을 구축할 수 있다. 다음 호부터는 Pino SIM, Pino DT, Pino AI 등 각 제품별 소개 및 적용 사례를 소개하고자 한다.   그림 11. 디지털 트윈을 위한 플랜트 시뮬레이션과 PINOKIO     ■ 기사 내용은 PDF로도 제공됩니다. 
작성일 : 2025-07-01
엔비디아, 앤시스·DCAI와 협력해 유체역학용 양자 알고리즘 개발 가속화
엔비디아가 ‘엔비디아 GTC 파리’ 행사에서 앤시스 및 덴마크 AI 혁신 센터(DCAI)와 협력해 유체역학용 양자 알고리즘 개발 가속화에 나섰다고 발표했다. AI 슈퍼컴퓨팅은 새로운 양자 애플리케이션의 개발을 가속화하며 항공우주, 자동차, 제조업 등 핵심 산업에서 획기적인 발전을 이끌고 있다. 이러한 가능성을 보여주는 사례로, 앤시스는 DCAI에서 운영하는 슈퍼컴퓨터 ‘게피온(Gefion)’에서 실행되는 엔비디아 쿠다-Q(NVIDIA CUDA-Q) 양자 컴퓨팅 플랫폼을 활용해 유체역학 응용을 위한 양자 알고리즘을 발전시키고 있다고 발표했다. 덴마크 최초의 AI 슈퍼컴퓨터인 게피온은 엔비디아 DGX SuperPOD과 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹으로 상호 연결돼 있다. 앤시스는 오픈 소스인 엔비디아 쿠다-Q 소프트웨어 플랫폼을 활용해, 이 슈퍼컴퓨터의 성능을 기반으로 유체역학에 적용 가능한 양자 알고리즘의 GPU 가속 시뮬레이션을 수행했다. 쿠다-Q는 GPU 가속 라이브러리를 활용해, 게피온이 ‘양자 격자 볼츠만 방법(Quantum Lattice Boltzmann Method)’이라 불리는 알고리즘 계열의 복잡한 시뮬레이션을 실행할 수 있게 한다. 앤시스는 이 알고리즘이 39큐비트 양자 컴퓨터에서 어떻게 작동할지 시뮬레이션함으로써, 유체역학 응용에 미칠 영향을 빠르고 비용 효율적으로 탐색할 수 있었다.     엔비디아의 양자와 쿠다-X(CUDA-X) 부문 수석 이사인 팀 코스타(Tim Costa)는 “미래의 실용적인 양자 응용 분야를 발견하려면, 연구자들이 현재 그에 걸맞은 대규모 시뮬레이션을 실행할 수 있어야 한다. 엔비디아는 앤시스, DCAI와 같은 협력 파트너들에게 양자 컴퓨팅의 영향력을 확장할 수 있도록 슈퍼컴퓨팅 플랫폼을 제공하고 있다”고 말했다. 앤시스의 프리스 바네르지(Prith Banerjee) 최고기술책임자는 “쿠다-Q의 GPU 가속 시뮬레이션을 통해 우리는 양자 응용이 실제로 영향을 발휘하기 시작하는 영역에서 이를 연구할 수 있었다. 우리는 엔비디아 그리고 DCAI와의 협력을 통해 전산유체역학(CFD)과 같은 공학 분야에서 양자 컴퓨팅의 역할을 확장해 나가고 있다”고 말했다. DCAI의 나디아 칼스텐(Nadia Carlsten) CEO는 “우리는 쿠다-Q를 통해 게피온을 사용하는 연구자들이 양자-클래식 하이브리드 컴퓨팅을 실현할 수 있는 가능성을 직접 목격하고 있다. 엔비디아, 앤시스와의 파트너십 덕분에 양자 기술과 AI 슈퍼컴퓨팅 간의 융합을 이끌어낼 수 있었다”고 말했다.
작성일 : 2025-06-12
엔비디아, 스웨덴에 차세대 AI 인프라 구축 및 AI 기술 센터 설립
엔비디아가 스웨디시 비즈니스 컨소시엄(Swedish business consortium)과 함께 스웨덴 내 차세대 AI 인프라 구축을 위한 공동 계획을 발표했다. 엔비디아는 이번 프로젝트에 자사의 가속 컴퓨팅, 네트워킹, 소프트웨어를 통해 AI 시대를 맞이한 스웨덴 산업 전반의 혁신을 지원할 예정이다. 이번 프로젝트에는 스웨덴의 대표 기업인 아스트라제네카, 에릭슨, 사브, SEB가 참여하며, 발렌베리 인베스트먼트와의 파트너십을 통한 합작 회사가 운영할 예정이다. 이 합작 회사는 참여 기업들에 보안성과 주권성을 보장하는 컴퓨팅 자원을 제공할 계획이다. 첫 번째 구축 단계로는 엔비디아의 최신 세대 그레이스 블랙웰(Grace Blackwell) GB300 시스템을 탑재한 두 대의 엔비디아 DGX SuperPOD이 포함된다. 이 시스템은 도메인별 AI 모델 훈련, 추론 AI(Reasoning AI)를 포함한 대규모 추론 등 고성능 연산이 요구되는 AI 워크로드를 처리하는 데 사용될 예정이다. 엔비디아와 스웨디시 비즈니스 컨소시엄은 산업 전반의 AI 역량을 강화하고, 지식 공유를 촉진함으로써 스웨덴 내 새로운 AI 혁신을 주도하고자 한다. 이를 지원하기 위해 엔비디아는 스웨덴에 최초의 AI 기술 센터(AI Technology Center)를 설립해 업계 파트너들과 함께 세계 최고 수준의 AI 연구를 발전시킬 계획이다. 아울러 AI 인재 양성을 위해 자사 전문가와의 교류와 딥 러닝 인스티튜트(Deep Learning Institute)의 실무 교육을 제공할 예정이다. 아스트라제네카는 이 시스템을 활용해 파운데이션 모델 훈련, 멀티모달 추론, 독자적인 데이터 처리 역량 등을 적용해 차세대 AI 기반 신약 개발을 선도할 계획이다. 에릭슨은 데이터 과학 전문 지식을 활용해 최첨단 AI 모델을 개발, 배포함으로써 성능과 효율성을 개선하고 고객 경험을 향상시킬 예정이다. 사브는 자사의 제품과 플랫폼을 첨단 AI 애플리케이션과 결합해 차세대 방위 역량 개발을 획기적으로 가속화할 예정이다. 또한, SEB는 AI를 생산성 향상, 새로운 고객 서비스 제공, 은행의 미래 경쟁력 확보를 위한 핵심 요소로 보고 있다.     발렌베리 인베스트먼트의 마르쿠스 발렌베리(Marcus Wallenberg) 회장은 “최첨단 AI 인프라에 대한 투자는 스웨덴 산업 전반에 걸쳐 AI의 개발과 도입을 가속화하는 중요한 단계이다. 우리는 이 이니셔티브가 숙련도를 높이고, 새로운 협업을 촉진하며, 광범위한 국가 AI 생태계를 강화함으로써 가치 있는 파급 효과를 가져올 것이라 기대하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “전기가 산업 시대를 이끌고, 인터넷이 디지털 시대에 불을 붙인 것처럼, AI는 차세대 산업 혁명의 엔진이다. 발렌베리 인베스트먼트와 스웨덴 산업 리더들의 비전 있는 이니셔티브를 통해 스웨덴은 자국 최초의 AI 인프라를 구축하고 있다. 이는 과학, 산업, 사회 전반의 혁신을 위한 기반을 마련하고, 스웨덴이 AI 시대를 선도하는 국가로 자리매김하는 데 있어 중요한 이정표가 될 것”이라고 말했다.
작성일 : 2025-05-29