• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "DGX"에 대한 통합 검색 내용이 185개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크’ 국내 예약 주문 시작
엔비디아가 차세대 개인용 AI 슈퍼컴퓨터 ‘엔비디아 DGX 스파크(NVIDIA DGX Spark)’의 국내 예약 주문을 시작한다고 밝혔다. DGX 스파크는 책상 위에 올려 놓을 수 있는 크기의 AI 슈퍼컴퓨터로 생성형 AI, 거대 언어 모델(LLM), 고속 추론 등 다양한 AI 워크플로를 로컬 환경에서 효율적으로 구현할 수 있도록 설계됐다. AI 개발이 고도화됨에 따라, 조직은 데이터 보안 강화와 지연 최소화, 배포 유연성 등을 고려해 로컬 환경에서 직접 AI 모델을 개발하고 실행할 수 있는 시스템을 요구하고 있다. DGX 스파크는 이러한 수요에 대응해 데스크톱 환경에서도 데이터 크기나 위치, 모델 규모에 제약 없이 민첩하고 효율적인 AI 개발이 가능하도록 지원한다.     DGX 스파크는 데스크톱 폼팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)을 탑재해 FP4 정밀도 기준, 최대 1페타플롭의 AI 성능을 제공한다. 또한, 고성능 엔비디아 커넥트-X(Connect-X) 네트워킹으로 두 대의 엔비디아 DGX 스파크 시스템을 연결해 최대 4,050억 개 파라미터의 AI 모델을 처리할 수 있다. DGX 스파크는 128GB 메모리를 탑재했으며, 엔비디아 AI 소프트웨어 스택이 사전 설치돼 있다. 이를 통해 딥시크, 메타, 구글 등에서 선보인 최대 2000억 개 파라미터의 최신 AI 모델도 로컬 환경에서 직접 프로토타이핑, 미세 조정, 추론할 수 있다. 또한, 사용자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama) 등 익숙한 개발 도구를 사용할 수 있으며, 이를 DGX 클라우드나 가속화된 데이터센터 환경으로 손쉽게 확장할 수 있다. 이와 함께 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprint)에 대한 액세스를 통해 AI 애플리케이션을 더욱 빠르게 개발하고 배포할 수 있도록 지원한다. 엔비디아는 “DGX 스파크는 올해 엔비디아 연례 개발자 콘퍼런스인 GTC와 컴퓨텍스(COMPUTEX)에서 공개된 이후 큰 관심을 받아왔으며, 이번 국내 예약 주문을 계기로 본격적인 보급이 기대된다”고 전했다. DGX 스파크의 국내 예약 주문은 엔비디아 공식 홈페이지를 통해 진행된다. 국내 주요 파트너사 중 원하는 업체를 선택해 예약할 수 있으며, 대량 구매도 가능하다. 공식 파트너사로는 에즈웰에이아이, 비엔아이엔씨, 디에스앤지, 아이크래프트, 리더스시스템즈, 메이머스트, MDS테크, 유클릭, 씨이랩, 제스프로가 있다.
작성일 : 2025-07-29
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
인텔코리아, AI 기술 전략 소개 및 국내 기업과 협력 확대 발표
인텔은 국내 협력사들과 함께 자사의 AI 기술 동향과 최신 전략, 협력 사례를 공유하는 ‘2025 인텔 AI 서밋 서울’을 개최했다고 밝혔다. 인텔 AI 서밋은 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고 산업 전반에 걸친 AI의 잠재력과 미래 발전 방향을 함께 모색하기 위한 자리다. 레노버, 네이버클라우드, SK하이닉스, 델, 마이크로소프트, 삼성SDS, 슈퍼마이크로, 시스코, HPE, LG이노텍, LG전자 등 국내외 주요 협력사와 KAIST, 중소벤처기업부, 창업진흥원 등 학계와 공공 부문에서도 관련 전문가들이 참석하여 AI 기술 동향과 산업 간 협력 방안을 논의하고 네트워킹하는 자리가 이어졌다. 이번 행사는 인텔코리아 배태원 사장의 환영사와 한스 촹(Hans Chuang) 인텔 세일즈 마케팅 그룹의 아시아 태평양 및 일본 총괄의 인사말로 시작되었다. 촹 총괄은 “AI 기술이 빠르게 진화하고 활용 사례도 점점 복잡해지면서, 기업들은 성능과 비용 효율성을 동시에 충족하는 보다 개방적이고 다양한 설루션을 필요로 한다”고 전했다. 또한, “인텔은 폭넓은 호환성, 다양한 소프트웨어 옵션, 고유의 아키텍처, 뛰어난 성능을 제공함으로써 AI가 데이터센터, 클라우드, 네트워크 에지 및 PC에 이르는 전체 컴퓨팅 연속체에서 최적의 성능을 발휘하도록 지원하고 있다”면서, 인텔의 개방형 프로그래밍 모델은 단일 벤더의 하드웨어나 GPU에서만 동작하는 폐쇄형 프로그래밍 모델에 비해 비용과 유연성 측면에서 실질적 비즈니스 우위를 제공한다고 강조했다.     이어진 파트너 세션에서 레노버 아시아태평양지역 인프라 솔루션 그룹 수미르 바티아(Sumir Bhatia) 사장은 ‘모두를 위한 스마트한 AI’를 주제로 기업들의 AI 가속화에 따른 높은 전력 수요로 지속가능성이 주요 과제로 떠올랐음을 강조하며, 이를 해결하기 위한 레노버의 최신 냉각 기술과 AI 추론 최적화 설루션을 소개했다.  또한 SK하이닉스의 정우석 부사장은 ‘메모리 중심 AI 컴퓨팅 시대의 새로운 기회’ 발표를 통해 AI 컴퓨팅 시대를 맞아 부각되고 있는 메모리 기술의 중요성을 강조하며, 커스텀 메모리 기술의 시장 기회가 증가하고 있다고 밝혔다. 또한 인텔과 데이터센터용 설루션의 다양한 영역에서 긴밀히 협력 중임을 덧붙였다. 전략적 파트너 세션의 발표자로 나선 네이버클라우드의 김유원 대표는 AI 생태계에 대한 발표를 통해 “네이버클라우드는 인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔으며, 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 협력의 범위와 깊이가 꾸준히 확장되고 있다”며, “향후에도 네이버클라우드는 인텔과 함께 글로벌 시장을 타깃으로 다양한 AI 기반 클라우드 서비스를 공동 개발하며, 기술 혁신과 해외 진출이라는 두 축에서 협력을 확대해 나갈 것”이라고 말했다. 오후 세션에서는 ‘AI & 데이터센터’와 ‘AI PC & 에지 AI’로 나뉘어 업계의 최신 정보 및 인사이트, 사례 발표가 이어졌다. 데이터센터 세션에서 삼성 SDS는 가우디 3 기반 LLM 추론 성능 분석 사례를 공유했고, AI PC 부문에서는 LG이노텍이 인텔 AI 설루션 기반 스마트 공장 사례를, 전북특별자치교육청이 AI PC를 활용한 수업 혁신 사례를 공유하는 등 교육, 게임, 리테일, 제조 등 다양한 분야의 적용 사례를 공유했다. 인텔은 하반기에도 국내 AI 생태계 발전을 위한 협력을 더욱 확대해 나갈 예정이다. 인텔은 행사 당일 포스코DX와 인텔 제온 프로세서의 AI 가속 기능 및 오픈비노 기술을 활용해 AI 서비스 비용 효율을 높이고, AI 에이전트 생태계 구축에 협력하기 위한 상호양해각서를 체결했다고 밝혔다. 한편 kt cloud와 인텔 가우디(Gaudi) AI 가속기를 kt cloud AI Foundry에 도입하는 것을 검토하고 AI 추론 개발에 특화된 비용 효율적인 GPUaaS 상품 출시를 검토하며, 다양한 산업군의 클라우드 수요에 대응할 수 있는 상품 포트폴리오 고도화 및 기술 협력을 위한 상호양해각서를 지난 6월 30일 체결했다.
작성일 : 2025-07-02
PINOKIO : 스마트 제조의 실현 위한 물류 디지털 트윈 설루션
개발 및 공급 : 이노쏘비 주요 특징 : 제조 물류 전반에 걸친 시뮬레이터/디지털 트윈/AI 에이전시의 통합 플랫폼, 설계~운영 과정의 최적화 지원, 다양한 제조 운영 시스템과 실시간 연동으로 대용량 데이터를 수집 및 처리, LLM/sLLM을 활용해 직관적인 데이터 분석 및 의사결정 지원 등 사용 환경(OS) : 윈도우 10/11(64비트) 시스템 권장 사양 : 인텔 i5 10세대 이상 또는 AMD 라이젠 5 이상 CPU, 최소 16GB RAM(32GB 권장), 엔비디아 RTX 4060 이상 GPU(AI 기능 사용 시 필요), 30GB 이상 여유 저장공간   최근 제조 기업들은 디지털 트윈 기반의 스마트 공장 도입과 더불어 급속한 디지털 전환(DX)을 위해 노력하고 있다. 불과 몇 해전만 하더라도 그 실체와 사례에 대해 의문이 있었지만, 다양한 도입 사례와 성과가 공개되면서 이제는 DX에서 나아가 AI 기술 도입과 AI로의 전환(AX : AI Transformation)을 활발히 검토하고 있고, 적극적인 도입 의사를 밝히고 있다. ‘PINOKIO(피노키오)’는 최신 기술 흐름을 반영해 탄생한 차세대 물류 디지털 트윈 설루션으로, 기존 상용 시스템의 한계를 극복하고 제조 산업의 스마트화를 가속화하는데 최적화된 해답을 제시한다. 기술 대전환의 시대를 맞아 기존의 전통적인 DX 설루션 기업들은 3D 모델링 및 시뮬레이션 등 낮은 단계의 디지털 트윈 기술을 기반으로 DX 설루션으로 개선 및 확장하고 있다. 이와 달리, PINOKIO는 초기부터 현장의 대용량 데이터 기반 실시간 물류 모니터링 및 실시간 시뮬레이션을 제공하는 디지털 트윈 기반의 운영 시스템을 목적으로 출발하였다. 그 결과 SK 하이닉스, LG전자 등 대량의 혼류 생산 제조 현장에서 디지털 트윈의 정합성과 예측의 정확도 등을 검증받았고 도입 효과를 증명했다. 이를 바탕으로 최근에는 기존 상용 설루션보다 높은 성능의 시뮬레이터까지 라인업하여 다양한 요구를 충족시킬 수 있게 되었다. 기존 상용 물류 시뮬레이션 설루션은 대부분 20~30년 전 개발된 구조를 가지고 있어, 최신 IT/OT 시스템과의 연동과 AI 기술을 적용하기 어렵다. 이로 인해 대용량 데이터 처리에 한계가 있으며, 사용자 API(애플리케이션 프로그래밍 인터페이스) 미제공으로 커스터마이징과 타 시스템 연계, 현장 실시간 운영에 필요한 유연성과 확장성에서도 제약이 있다. PINOKIO는 이러한 기존 설루션의 문제점을 개선해 제조 물류 관련 다양한 AI 모델을 지원하며, 기존 설루션 대비 높은 모델링 속도를 구현할 수 있다. 그리고 멀티 스레드, GPU 기반의 고속 시뮬레이션 연산 기능과 2차전지, AMR(자율이동로봇), OHT(오버헤드 트랜스퍼), 자동창고 등 다양한 제조 환경에 맞는 특화 라이브러리를 제공한다. 특히, 생산 현장에서 발생하는 실시간 빅데이터를 효과적으로 처리하고, 대화형 어시스턴트(assistant) 방식의 직관적인 사용자 인터페이스(UI)를 통해 사용자 편의성을 높였다. 또한, 사용자 API를 통한 고도화된 커스터마이징이 가능하며, MES(제조 실행 시스템), 센서, PLC(프로그래머블 로직 컨트롤러), IoT(사물인터넷) 등 다양한 운영 시스템과의 실시간 연동 기능도 갖췄다. 나아가, 전력 사용량 분석과 탄소세 예측 기능까지 탑재돼 지속 가능한 제조 환경 구축을 위한 의사결정도 지원한다. PINOKIO는 AI 기반 제조 혁신의 길을 여는 실질적인 도구로, 앞으로 제조업계의 디지털 전환을 선도할 핵심 설루션으로 자리매김할 전망이다.   주요 기능 소개 PINOKIO는 시뮬레이터, 디지털 트윈, AI 에이전시(agancy)를 통합한 차세대 DES(이산 이벤트 시뮬레이션) 기반 플랫폼으로, 제조 물류 전반에 걸친 통합 설루션을 제공한다. PINOKIO는 세 가지 핵심 모듈로 구성된다. 첫 번째는 ‘Pino SIM’으로, 공정 흐름 설계부터 시뮬레이션, 분석까지 수행하는 시뮬레이터다. Pino SIM은 도면 편집과 레이아웃 설계를 위한 Pino Editor를 내장하고 있어, 단순한 시뮬레이션을 넘어 제조 기준정보 입력, 물류 시나리오 구성, 시뮬레이션 실행 및 시각화 분석까지 다양한 기능을 제공한다. 이를 통해 설계 초기 단계부터 실제 운영에 이르기까지 전 과정의 최적화를 효과적으로 지원한다. 두 번째는 실시간 디지털 트윈 모듈인 ‘Pino DT’다. MES, IoT, PLC, 센서 등 다양한 제조 운영 시스템과의 실시간 연동을 통해 대용량 데이터를 실시간으로 수집하고 처리하며, 이를 바탕으로 실시간 모니터링은 물론 미래 상황 예측, 예지 보전 기반의 시뮬레이션이 가능하다. 이는 생산 현장의 가시성과 민첩성을 높이는 데 기여한다. 세 번째는 인공지능 기반의 ‘Pino AI’다. LLM(대규모 언어 모델)과 sLLM(전문 도메인 특화 언어 모델)을 활용한 대화형 UI를 통해 사용자가 직관적으로 데이터를 분석하고 의사결정에 활용할 수 있다. 또한 목적에 따라 강화학습, 파라미터 최적화 등 다양한 AI 기법을 적용할 수 있어 생산성과 품질 향상을 동시에 도모할 수 있다. PINOKIO는 엔비디아 옴니버스(NVIDIA Omniverse)와 같은 고급 시각화 플랫폼과 연동 가능하며, 파이썬(Python) 개발 환경 확장도 지원함으로써 사용자 맞춤형 라이브러리 개발이 가능하다. 이를 통해 제조 기업은 사전 공정 및 물류 최적화는 물론 실시간 생산 모니터링, 미래 예측, AI 기반 정확도 향상 등 다양한 지능형 서비스를 구현할 수 있다. 제조업의 디지털 전환이 본격화되는 시대에 PINOKIO는 스마트 공장을 넘어 AI 전환을 실현하는 핵심 파트너로 부상하고 있다.   PINOKIO의 특징 PINOKIO는 고도화된 시뮬레이션 엔진과 AI 통합 기능을 바탕으로 대규모 데이터 처리 및 실시간 예측 분석을 지원하며 스마트 제조 시대의 경쟁력을 강화하고 있다. PINOKIO는 이벤트 처리 기법 최적화 및 단순화된 시뮬레이션 엔진 설계로 빠른 연산 속도를 제공한다. 특히, 초당 60프레임(FPS) 기준으로 500만 개 수준의 대규모 3D 데이터를 안정적으로 처리할 수 있으며, 선택적 컴파일 방식(C# 기반 네이티브 코드)을 활용한 별도 계산 도구를 통해 집약적인 연산 작업도 고속으로 수행할 수 있다. 디지털 트윈 구축에서도 PINOKIO는 강력한 성능을 발휘한다. MES, ACS, MCS 등 다양한 제조 운영 시스템과 연동과 IoT, 센서, PLC 등 생산 현장에서 수집되는 대용량 데이터를 실시간으로 처리한다. 이를 통해 실시간 모니터링과 동시에 백그라운드 시뮬레이션을 수행하고, 타임 호라이즌(Time Horizon) 방식의 미래 예측 기술을 통해 병목, 이상 징후 탐지 및 알람 기능도 제공된다. 또한, AI를 활용하기 위한 정상/이상 데이터 제공과 파라미터 최적화 및 시나리오별 분석 기능이 포함되어 있으며, LLM과 sLLM, 챗GPT(ChatGPT), 메타 라마(Meta LLaMA) 등 다양한 AI 모델을 통합한 AI 에이전시 기능을 통해 대화형 데이터 분석, 자동 의사결정 지원, 데이터 해석 및 운영 최적화를 구현한다. 시뮬레이션 설계 및 모델링 측면에서도 사용자 편의성이 강화됐다. Pino Editor를 활용해 레이아웃 도면을 직관적으로 확인 및 편집할 수 있으며, 제조 기준 정보 입력 및 템플릿 매칭 기능을 통해 모델링 작업 시간을 획기적으로 단축시킨다. 또한, 2차전지 및 반도체 공정에 특화된 전용 라이브러리도 제공되며, 고객 맞춤형 커스터마이징 시뮬레이터를 통해 사용자의 목적에 따라 분석 및 최적화가 가능한 유연한 개발 환경을 지원한다. 이처럼 PINOKIO는 고속 시뮬레이션, 실시간 예측, AI 기반 의사결정, 그리고 유연한 모델링 기능을 종합적으로 제공하며, 제조업의 지능화·자동화를 실현하는 설루션이다.   그림 1. PINOKIO UI 화면 – 반도체 FAB   사전 레이아웃 및 물류 검토를 위한 설루션 : Pino SIM 디지털 트윈 구축 시 미래 예측을 위한 시뮬레이터 역할과 기존 상용 설루션과 같이 공장 신축 또는 생산 라인 변경 등 제조 현장의 변화가 요구된다. 이런 상황에서 Pino SIM은 사전에 최적의 물류 계획과 레이아웃 구성을 지원하고 공정의 효율성과 안정성을 미리 확보할 수 있는 디지털 전환 핵심 도구이자 가상 공장 구현 설루션이다. Pino SIM은 제조 기준 정보(제품, 공정, 레이아웃, 물류 흐름, 작업 순서, 스케줄링 등)를 기반으로 공정을 시뮬레이션하며, 그 결과를 차트, 그래프 등 다양한 시각화 도구를 통해 분석할 수 있다. 이를 통해 레이아웃 검증 및 최적화, 생산성 향상 등 공장 운용 전반의 효율화를 실현할 수 있다. 특히, OHT, AMR 등 신 산업군을 위한 특화 라이브러리를 제공하며, 이송 설비 구현을 위한 이동, 충돌 방지, 회피 제어를 위한 OCS, ACS 기능도 탑재되어 있다. 이를 통해 코드 작성 오류를 줄이고 디버깅 시간을 줄일 수 있으며, 보다 쉽고 효율적으로 시뮬레이션 모델을 구축할 수 있다. 또한, 자동창고 모델링에 필요한 Stocker(Crane, Rack, Rail)를 그룹화 형태로 제공하여 빠른 모델링이 가능하다. 환경과 에너지 측면에서도 전력 사용량 및 탄소 배출량(탄소세) 분석 기능을 통해 지속 가능한 생산 전략 수립에 도움을 주며, 제조업의 친환경화와 ESG 경영 대응에도 기여할 수 있다. 이처럼 Pino SIM은 공장 설계 단계에서의 의사결정 품질을 높이고, 새로운 제조 환경에 유연하게 대응할 수 있는 설루션이다.   그림 2. 라이브러리 제공 – Stocker   그림 3. 개발(코딩) 없이 기능 구현   그림 4. 시뮬레이션 결과 리포트 예제   디지털 트윈 설루션 : Pino DT 제조 현장에서 물류는 제품의 사이클 타임을 결정하는 요소 중에 하나이다. 물류 정체가 발생할 경우 제품의 사이클 타임이 길어지거나 라인이 정지되는 등 심각한 손실이 발생할 수 있다. 이러한 문제를 해결하기 위해 시뮬레이션을 통한 최적화된 운영 방식을 시스템에 적용하려는 노력이 이어져왔다. 기존의 물류 설루션은 현장에서 발생하는 대용량의 데이터를 시뮬레이션에 반영하여 실시간으로 의사결정하는 과정에서 다양한 제약으로 인해 어려움이 있었다. 또한, 현장 작업자의 개입과 같은 인간적 오류는 시스템이 예측할 수 없는 데이터를 발생시키기 때문에 생산 계획 단계에서의 사전 분석 및 검증만으로는 시뮬레이션 정합성을 높이는데 한계가 있다. Pino DT는 최적화된 자체 개발 시뮬레이션과 모니터링 엔진을 탑재하여 이를 해결하였다. 시뮬레이션의 이벤트 횟수를 최적화하여 최소한의 이벤트로 시뮬레이션이 가능하도록 설계했다. 또한 계산 속도에 이점이 있는 C, C++ 언어로 물류 경로를 최적화하는 알고리즘을 구현하여 기존 설루션 대비 약 2만평 규모의 공장에서 약 70배의 향상된 성능을 검증하였다.   그림 5. Pino DT의 UI 화면   대용량 데이터 처리 및 실시간 모니터링 Pino DT는 시뮬레이션에 최적화된 알고리즘을 사용함으로써 대용량 데이터 처리가 가능하고, 현장 데이터를 실시간으로 시뮬레이션에 반영할 수 있다. 기존 물류 시뮬레이션 설루션에 비해 60~700배 뛰어난 가속 성능을 제공하는 시뮬레이션 도구이다. 제조 현장과 동일한 상황을 시뮬레이션하기 위해 현장과 연동 후 데이터를 가공하여 디지털 트윈 모델로 표현하여 가시화하고, 사용자가 설정한 시간 주기마다 미래를 예측하는 시뮬레이션(proactive simulation)을 백그라운드로 수행한다. 이는 제품의 공정 시간보다 짧은 시간 안에 결과를 확인할 수 있고, AI를 통해 보다 정확한 의사결정을 내릴 수 있도록 지원한다.   그림 6. Pino DT의 모니터링 화면   디지털 트윈 실시간 시뮬레이션 : 미래 예측 실시간 현장 상황을 반영하여 미래를 예측하는 시뮬레이션(proactive simulation)은 제품의 택트 타임(tact time)보다 짧은 시간 내에 결과를 도출해내지 못하면 현장에서 선제 대응하지 못하는 결과를 초래할 수 있다. 모니터링 엔진으로부터 라인 상황에 대한 데이터를 수집하고, 현재로부터 예측하고자 하는 시간 동안 발생하는 이상상황에 대해 피드백을 준다. 예를 들어 조립 라인의 경우에는 부품이 5분 뒤에 부족하다는 알람을 작업자에게 즉시 전달하여 선제적 대응을 가능케 함으로써, 라인 정지 등 비상 상황을 사전에 방지할 수 있다. PINOKIO 디지털 트윈 시뮬레이션은 이러한 역할이 가능하도록 가속화한 고속 시뮬레이션 엔진을 보유하고 있다.   그림 7. 현장 FAB(왼쪽)과 PINOKIO에서 생성된 디지털 트윈(오른쪽)   제조 물류 현장에 특화된 AI 플랫폼 : Pino AI AI를 이용한 설루션을 만들기 위해서는 다양한 상황에 대한 데이터가 필요하다. 하지만 제조 현장의 특성 상 여러 상황에 대한 데이터를 획득하기 어렵다. PINOKIO에서는 현장에서 획득하기 어려운 데이터를 시뮬레이션을 통해 데이터를 확보할 수 있다. 즉, Pino DT 모델이 AI를 위한 데이터를 생성하고, 이를 AI가 최적 값을 도출하여 시뮬레이션에 반영한다. Pino DT에서 획득한 데이터를 파이썬, C, 자바(JAVA) 등 다양한 언어로 구현한 로직을 적용할 수 있도록 개발 환경을 제공하고 있다. 이를 통해 예측 정확도 향상, 데이터 기반 의사 결정, Scheduling, Routing, Dispatching 등 목적에 따라 AI 활용이 가능하다. 또한 LLM, sLLM, 챗GPT(ChatGPT), 메타 라마(Meta Llama) 등과 결합한 대화형 UI를 통해 사용자가 직관적으로 데이터를 분석하고 의사결정에 활용할 수 있다.   그림 8. 대화형 UI 및 결과 리포트   그림 9. Pino DT와 AI 모델 활용 원리   Pino DT와 현장 데이터 인터페이스 디지털 트윈에 가장 중요한 요소는 현장과의 연결이다. 대부분의 물류 전문 설루션이 현장과의 연결을 위한 인터페이스를 지원하지만, 많은 양의 데이터를 처리하면서 실시간으로 시뮬레이션하는데 어려움이 있다. Pino DT는 대용량 데이터 처리와 시뮬레이션 가속 성능이 뛰어나 실시간 모니터링 시스템까지 가능하다. <그림 10>은 현장에 있는 MES와 Pino DT가 인터페이스되는 과정이다. 현장에 있는 PLC가 MES에 데이터를 전달하고, MES는 그 데이터를 데이터베이스에 저장한다. 이를 Pino DT에서 외부 통신(IP)을 통해 데이터베이스에 접근하여 데이터를 시뮬레이션에 반영한다. 이 과정에서 현장 데이터의 상태가 중요하다. 불필요한 데이터가 있거나 로스 또는 시간 순서가 맞지 않은 경우가 대부분이다. Pino DT에서는 현장 데이터를 올바르게 정제하는 작업을 거쳐 현장과 동일한 디지털 트윈 모델을 만든다.   그림 10. 현장 데이터 인터페이스 과정   PINOKIO의 기대 효과 PINOKIO는 현장 운영 데이터를 실시간으로 디지털 트윈과 연동함으로써 모니터링이 가능하며, 전체 공장을 PC, 웹, 모바일 등 다양한 형태로 여러 사용자와 함께 직관적으로 확인하면서 공유하고 협업할 수 있다. 또한 현장과 연결된 디지털 트윈 모델을 이용하여, 미래에 발생 가능한 문제점을 예지(predictive)하고, 이러한 문제점을 사전에 해결하기 위한 선제대응(proactive) 의사결정을 가능하게 한다. 이 때 디지털 트윈을 이용한 사전예지는 온라인 시뮬레이션 기술에 기반하고, 선제대응은 AI 기술에 기반한다고 볼 수 있다. 디지털 트윈 기반 사전예지의 시간적 범위(time horizon)는 현장의 특성에 따라서 0.1시간~10시간으로 달라질 수 있으며, 문제점의 종류는 주로 생산 손실(loss), 부품의 혼류 비율 불균형, 설비 고장예지 및 물류 정체 등을 포함한다. 문제점이 예지되면 이를 해결하기 위한 즉각적인 의사결정 AI 기술을 활용하여 최적 운영을 달성함으로써 생산성, 경제성, 안정성 및 경쟁력 향상 효과가 있다.   맺음말 생산 계획 단계에서 Pino SIM을 통해 레이아웃 검증과 물류를 최적화하고, Pino SIM 모델 데이터를 생산 운영 단계에서 PINOKIO와 연계하여 현장 데이터 기반 실시간 모니터링과 미래 상황 예측 및 선제 대응함으로써 현실적이고 실제 활용 가능한 스마트한 디지털 트윈을 구축할 수 있다. 다음 호부터는 Pino SIM, Pino DT, Pino AI 등 각 제품별 소개 및 적용 사례를 소개하고자 한다.   그림 11. 디지털 트윈을 위한 플랜트 시뮬레이션과 PINOKIO     ■ 기사 내용은 PDF로도 제공됩니다. 
작성일 : 2025-07-01
엔비디아, 앤시스·DCAI와 협력해 유체역학용 양자 알고리즘 개발 가속화
엔비디아가 ‘엔비디아 GTC 파리’ 행사에서 앤시스 및 덴마크 AI 혁신 센터(DCAI)와 협력해 유체역학용 양자 알고리즘 개발 가속화에 나섰다고 발표했다. AI 슈퍼컴퓨팅은 새로운 양자 애플리케이션의 개발을 가속화하며 항공우주, 자동차, 제조업 등 핵심 산업에서 획기적인 발전을 이끌고 있다. 이러한 가능성을 보여주는 사례로, 앤시스는 DCAI에서 운영하는 슈퍼컴퓨터 ‘게피온(Gefion)’에서 실행되는 엔비디아 쿠다-Q(NVIDIA CUDA-Q) 양자 컴퓨팅 플랫폼을 활용해 유체역학 응용을 위한 양자 알고리즘을 발전시키고 있다고 발표했다. 덴마크 최초의 AI 슈퍼컴퓨터인 게피온은 엔비디아 DGX SuperPOD과 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹으로 상호 연결돼 있다. 앤시스는 오픈 소스인 엔비디아 쿠다-Q 소프트웨어 플랫폼을 활용해, 이 슈퍼컴퓨터의 성능을 기반으로 유체역학에 적용 가능한 양자 알고리즘의 GPU 가속 시뮬레이션을 수행했다. 쿠다-Q는 GPU 가속 라이브러리를 활용해, 게피온이 ‘양자 격자 볼츠만 방법(Quantum Lattice Boltzmann Method)’이라 불리는 알고리즘 계열의 복잡한 시뮬레이션을 실행할 수 있게 한다. 앤시스는 이 알고리즘이 39큐비트 양자 컴퓨터에서 어떻게 작동할지 시뮬레이션함으로써, 유체역학 응용에 미칠 영향을 빠르고 비용 효율적으로 탐색할 수 있었다.     엔비디아의 양자와 쿠다-X(CUDA-X) 부문 수석 이사인 팀 코스타(Tim Costa)는 “미래의 실용적인 양자 응용 분야를 발견하려면, 연구자들이 현재 그에 걸맞은 대규모 시뮬레이션을 실행할 수 있어야 한다. 엔비디아는 앤시스, DCAI와 같은 협력 파트너들에게 양자 컴퓨팅의 영향력을 확장할 수 있도록 슈퍼컴퓨팅 플랫폼을 제공하고 있다”고 말했다. 앤시스의 프리스 바네르지(Prith Banerjee) 최고기술책임자는 “쿠다-Q의 GPU 가속 시뮬레이션을 통해 우리는 양자 응용이 실제로 영향을 발휘하기 시작하는 영역에서 이를 연구할 수 있었다. 우리는 엔비디아 그리고 DCAI와의 협력을 통해 전산유체역학(CFD)과 같은 공학 분야에서 양자 컴퓨팅의 역할을 확장해 나가고 있다”고 말했다. DCAI의 나디아 칼스텐(Nadia Carlsten) CEO는 “우리는 쿠다-Q를 통해 게피온을 사용하는 연구자들이 양자-클래식 하이브리드 컴퓨팅을 실현할 수 있는 가능성을 직접 목격하고 있다. 엔비디아, 앤시스와의 파트너십 덕분에 양자 기술과 AI 슈퍼컴퓨팅 간의 융합을 이끌어낼 수 있었다”고 말했다.
작성일 : 2025-06-12
엔비디아, 스웨덴에 차세대 AI 인프라 구축 및 AI 기술 센터 설립
엔비디아가 스웨디시 비즈니스 컨소시엄(Swedish business consortium)과 함께 스웨덴 내 차세대 AI 인프라 구축을 위한 공동 계획을 발표했다. 엔비디아는 이번 프로젝트에 자사의 가속 컴퓨팅, 네트워킹, 소프트웨어를 통해 AI 시대를 맞이한 스웨덴 산업 전반의 혁신을 지원할 예정이다. 이번 프로젝트에는 스웨덴의 대표 기업인 아스트라제네카, 에릭슨, 사브, SEB가 참여하며, 발렌베리 인베스트먼트와의 파트너십을 통한 합작 회사가 운영할 예정이다. 이 합작 회사는 참여 기업들에 보안성과 주권성을 보장하는 컴퓨팅 자원을 제공할 계획이다. 첫 번째 구축 단계로는 엔비디아의 최신 세대 그레이스 블랙웰(Grace Blackwell) GB300 시스템을 탑재한 두 대의 엔비디아 DGX SuperPOD이 포함된다. 이 시스템은 도메인별 AI 모델 훈련, 추론 AI(Reasoning AI)를 포함한 대규모 추론 등 고성능 연산이 요구되는 AI 워크로드를 처리하는 데 사용될 예정이다. 엔비디아와 스웨디시 비즈니스 컨소시엄은 산업 전반의 AI 역량을 강화하고, 지식 공유를 촉진함으로써 스웨덴 내 새로운 AI 혁신을 주도하고자 한다. 이를 지원하기 위해 엔비디아는 스웨덴에 최초의 AI 기술 센터(AI Technology Center)를 설립해 업계 파트너들과 함께 세계 최고 수준의 AI 연구를 발전시킬 계획이다. 아울러 AI 인재 양성을 위해 자사 전문가와의 교류와 딥 러닝 인스티튜트(Deep Learning Institute)의 실무 교육을 제공할 예정이다. 아스트라제네카는 이 시스템을 활용해 파운데이션 모델 훈련, 멀티모달 추론, 독자적인 데이터 처리 역량 등을 적용해 차세대 AI 기반 신약 개발을 선도할 계획이다. 에릭슨은 데이터 과학 전문 지식을 활용해 최첨단 AI 모델을 개발, 배포함으로써 성능과 효율성을 개선하고 고객 경험을 향상시킬 예정이다. 사브는 자사의 제품과 플랫폼을 첨단 AI 애플리케이션과 결합해 차세대 방위 역량 개발을 획기적으로 가속화할 예정이다. 또한, SEB는 AI를 생산성 향상, 새로운 고객 서비스 제공, 은행의 미래 경쟁력 확보를 위한 핵심 요소로 보고 있다.     발렌베리 인베스트먼트의 마르쿠스 발렌베리(Marcus Wallenberg) 회장은 “최첨단 AI 인프라에 대한 투자는 스웨덴 산업 전반에 걸쳐 AI의 개발과 도입을 가속화하는 중요한 단계이다. 우리는 이 이니셔티브가 숙련도를 높이고, 새로운 협업을 촉진하며, 광범위한 국가 AI 생태계를 강화함으로써 가치 있는 파급 효과를 가져올 것이라 기대하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “전기가 산업 시대를 이끌고, 인터넷이 디지털 시대에 불을 붙인 것처럼, AI는 차세대 산업 혁명의 엔진이다. 발렌베리 인베스트먼트와 스웨덴 산업 리더들의 비전 있는 이니셔티브를 통해 스웨덴은 자국 최초의 AI 인프라를 구축하고 있다. 이는 과학, 산업, 사회 전반의 혁신을 위한 기반을 마련하고, 스웨덴이 AI 시대를 선도하는 국가로 자리매김하는 데 있어 중요한 이정표가 될 것”이라고 말했다.
작성일 : 2025-05-29
IBM, AI 데이터 폭증 시대 대응을 위한 지능형 스토리지 전략 발표
IBM이 인공지능(AI) 시대의 급격한 데이터 증가에 대응하기 위한 새로운 스토리지 전략을 발표했다고 5월 27일 기자간담회를 통해 밝혔다. 이번 IBM 전략은 기업의 AI 인프라 고도화와 비용 효율성 극대화, 데이터 이동 및 처리 최적화를 핵심으로 하는 지능형 데이터 플랫폼 구축에 초점을 맞추고 있다. ▲ IBM 스토리지 전략 발표 기자간담회 모습 IBM은 기존의 단순한 데이터 저장 시스템을 넘어서, AI 중심의 비즈니스 환경에 특화된 지능형 데이터 플랫폼을 제시했다. 특히 IBM 퓨전(Fusion)과 CAS(Content Aware Storage) 기술을 통해 데이터 분석 효율성과 통합성을 강화하며, 기업의 디지털 전환과 AI 도입을 가속화하는 것이 핵심 목표다. IBM 스토리지 샘 워너(Sam Werner) 부사장은 "AI 시대에는 데이터를 단순히 저장하는 공간을 넘어, 지능형 데이터 플랫폼이 되어야 한다"고 강조했다. 그는 "IBM 퓨전과 CAS 기술 등을 통해 데이터 분석 효율 및 통합을 강화하며, 기업의 디지털 전환과 AI 도입 가속화를 적극 지원하고 있다"고 설명했다. ▲ IBM 스토리지 샘 워너(Sam Werner)  부사장 IBM의 AI 최적화 스토리지 솔루션은 이미 국내 다양한 분야의 기업들에서 성과를 보이고 있다. AI 스타트업 파일러는 IBM SSS5300과 DGX B200을 도입해 AI 개발 환경을 최적화했으며, 서울시복지재단은 IBM 플래시시스템 기반 인프라로 데이터 처리 구조를 개선하고 장애 대응성을 크게 강화했다. 교육 분야에서는 한국전통문화대학교가 전통문화 콘텐츠 공유 시스템을 구축해 안정적인 디지털 기반을 확보했고, 지오영그룹의 케어캠프는 IBM 플래시시스템 7300 기반 랜섬웨어 대응 인프라를 구축해 사이버 보안을 대폭 강화하는 성과를 거뒀다. 한국IBM 스토리지 비즈니스 총괄 박대성 상무는 "단순한 스토리지 제품 판매를 넘어서, AI 시대를 위한 지능형 데이터 인프라를 통해 국내 기업의 디지털 전환과 AI 도입을 종합적으로 지원하고 있다"고 밝혔다. 이를 통해 기업들은 데이터 분석 효율성을 높이고 운영 비용을 절감하는 동시에 보안을 강화할 수 있을 것으로 기대된다고 덧붙였다. ▲ 한국IBM 스토리지 비즈니스 총괄 박대성 상무 한편, IBM의 이번 전략 발표는 급속히 확산되는 AI 기술과 이에 따른 데이터 폭증 현상에 대응하기 위한 선제적 움직임으로 평가되며, 국내 기업들의 AI 인프라 구축과 디지털 혁신에 새로운 전환점을 제공할 것으로 전망된다.
작성일 : 2025-05-27
인텔, GPU 가속 AI 성능 높인 제온 6 프로세서 신제품 출시
인텔은 최첨단 그래픽 처리 장치(GPU) 기반 AI 시스템을 처리하기 위해 설계한 프로세서 3종을 인텔 제온 6(Intel Xeon 6) 시리즈에 추가해 출시한다고 발표했다. 새롭게 공개한 제품은 P-코어 기반 제품으로 PCT(Priority Core Turbo) 기술과 인텔 SST-TF(Intel Speed Select Technology-Turbo Frequency) 기능을 결합해, AI 워크로드에 필요한 CPU 코어 주파수를 상황에 맞춰 극대화함으로써 GPU 성능을 한층 끌어올린다. PCT 기술은 인텔 SST-TF 기능과 결합돼 AI 시스템 성능을 끌어올린다. PCT는 고우선순위 코어(HP 코어)에 터보 주파수를 동적으로 우선 할당해 더 높은 속도로 동작하도록 하며, 저우선순위 코어(LP 코어)는 기본 주파수로 작동해 CPU 자원을 효율적으로 분산한다. 이 기능은 순차적 또는 직렬 처리가 요구되는 AI 워크로드에 특히 효과적이며, GPU에 데이터를 더 빠르게 공급하고 전체 시스템 효율을 높이는 데 기여한다.     인텔은 제온 6 P-코어 프로세서가 모든 AI 시스템에 업계 최고 수준의 성능을 제공한다고 전했다. 이 프로세서는 CPU당 최대 128개의 P-코어를 탑재해, 복잡한 AI 작업도 균형 있게 처리할 수 있도록 워크로드를 효율적으로 분산한다. 메모리 속도가 최대 30% 향상되었으며, MRDIMM 및 CXL을 통해 높은 수준의 메모리 대역폭을 지원한다. 인텔 제온 6는 이전 세대 대비 최대 20% 더 많은 PCIe 레인을 제공해, I/O 집약적 워크로드에서 한층 더 빠른 데이터 전송을 지원하며, 신뢰성, 가용성, 유지보수 기능을 바탕으로 비즈니스 중단을 최소화하고 최상의 시스템 가동 시간을 제공한다. 그리고 인텔 첨단 벡터 확장(AMX)은 반정밀도 부동소수점(FP16) 연산을 지원해 AI 워크로드에서 효율적인 데이터 전처리와 주요 CPU 작업 수행을 가능하게 한다. 인텔은 기업들이 인공지능(AI) 수요 증가에 대응해 인프라를 고도화함에 따라, 고성능 P-코어를 탑재한 인텔 제온 6 프로세서가 성능과 에너지 효율을 모두 갖춘 최적의 설루션을 제공한다고 전했다. “다양한 데이터센터 및 네트워크 환경을 폭넓게 지원하며, AI에 최적화된 CPU 설루션 분야에서 인텔의 리더십을 한층 강화하고 있다”는 것이 인텔의 설명이다. 한편, 인텔은 이번에 공개된 제품군 가운데 제온 6776P가 엔비디아의 최신 AI 가속 시스템인 DGX B300의 호스트 CPU로 채택되었다고 발표했다. DGX B300에 탑재된 제온 6776P는 대규모 모델 및 데이터셋 운용에 필요한 메모리 용량과 대역폭을 제공하며, AI 가속화 시스템을 관리, 조율 및 지원하는데 중요한 역할을 한다. 인텔의 데이터센터 및 AI 그룹 임시 총괄인 카린 엡시츠 시갈(Karin Eibschitz Segal) 부사장(CVP)은 “새롭게 추가한 제온 라인업은 인텔 제온 6가 지닌 독보적 성능을 입증하며, 차세대 GPU 가속 AI 시스템에 가장 최적화된 CPU”라면서, “인텔은 엔비디아와의 협업을 강화해 업계 최고 수준의 AI 시스템을 제공하고, 산업 전반에서 AI 도입을 가속화할 수 있도록 지원할 것”이라고 전했다.
작성일 : 2025-05-23
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크, ‘DGX 스테이션’ 공개
엔비디아는 글로벌 시스템 제조업체들이 개인용 AI 슈퍼컴퓨터인 엔비디아 DGX 스파크(NVIDIA DGX Spark)와 DGX 스테이션(DGX Station) 시스템을 구축할 예정이라고 발표했다. 엔비디아는 DGX 스파크와 DGX 스테이션의 가용성이 확대되면서 전 세계 개발자, 데이터 과학자, 연구원이 높은 성능과 효율을 경험할 수 있게 될 것으로 기대하고 있다.  기업, 소프트웨어 제공업체, 정부 기관, 스타트업, 연구 기관 등에서은 데이터 크기, 독점 모델 프라이버시 또는 확장 속도에 영향을 주지 않으면서 데스크톱 폼 팩터에서 AI 서버의 성능과 기능을 제공할 수 있는 강력한 시스템을 필요로 한다. 자율적인 의사 결정과 작업 수행이 가능한 에이전틱 AI(Agentic AI) 시스템의 부상은 이러한 요구를 더욱 증폭시키고 있다. 엔비디아 그레이스 블랙웰(Grace Blackwell) 플랫폼을 기반으로 하는 DGX 스파크와 DGX 스테이션은 개발자들이 데스크톱에서 데이터센터에 이르기까지 모델의 프로토타이핑, 미세 조정, 추론 등을 실행할 수 있도록 지원한다.     DGX 스파크에는 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Superchip)과 5세대 텐서 코어(Tensor Core)가 탑재돼 있다. 이는 최대 1페타플롭(petaflop)의 AI 컴퓨팅 성능과 128GB의 통합 메모리를 제공하며, 엔비디아 DGX 클라우드(DGX Cloud)나 기타 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 내보낼 수 있다. 간소한 패키지로 강력한 성능과 기능을 제공하는 DGX 스파크는 개발자, 연구원, 데이터 과학자, 학생들이 생성형 AI의 한계를 뛰어넘고 산업 전반의 워크로드를 가속화할 수 있도록 지원한다. 까다로운 AI 워크로드를 위해 설계된 DGX 스테이션은 엔비디아 GB300 그레이스 블랙웰 울트라 데스크톱 슈퍼칩(Ultra Desktop Superchip)을 탑재해 최대 20페타플롭의 AI 성능과 784GB의 통합 시스템 메모리를 제공한다. 또한 이 시스템에는 고속 연결과 멀티스테이션 확장을 위해 최대 800Gb/s의 네트워킹 속도를 지원하는 엔비디아 커넥트X-8 슈퍼NIC(ConnectX-8 SuperNIC)도 탑재했다. DGX 스테이션은 고급 AI 모델을 로컬 데이터로 실행하는 단일 사용자용 데스크톱으로 활용할 수 있으며, 여러 사용자를 위한 온디맨드 중앙 집중식 컴퓨팅 노드로도 사용할 수 있다. 이 시스템은 엔비디아 멀티 인스턴스(Multi-Instance) GPU 기술을 지원해 최대 7개의 인스턴스로 분할할 수 있다. 각 인스턴스는 독립적인 고대역폭 메모리, 캐시, 컴퓨팅 코어를 갖춰 데이터 과학과 AI 개발 팀을 위한 개인 클라우드로 활용할 수 있다. 또한, DGX 스파크와 DGX 스테이션은 산업용 AI 팩토리를 구동하는 소프트웨어 아키텍처를 반영한다. 두 시스템 모두 최신 엔비디아 AI 소프트웨어 스택으로 사전 구성된 엔비디아 DGX 운영 체제를 사용하며, 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprints)에 대한 액세스를 제공한다. 개발자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama)와 같은 일반적인 도구를 사용해 DGX 스파크에서 프로토타이핑 생성, 미세 조정, 추론을 수행할 수 있다. 그리고 이를 DGX 클라우드나 가속화된 데이터센터 또는 클라우드 인프라에 원활하게 배포할 수 있다. DGX 스파크는 7월부터 에이서, 에이수스, 델 테크노로지스, 기가바이트, HP, 레노버, MSI를 비롯한 글로벌 채널 파트너를 통해 출시될 예정이며, 현재 예약이 진행 중이다. DGX 스테이션은 올해 말 에이수스, 델 테크놀로지스, 기가바이트, HP, MSI에서 출시될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “AI는 실리콘에서 소프트웨어에 이르기까지 컴퓨팅 스택의 모든 계층을 혁신했다. AI 혁신을 촉발한 DGX-1 시스템의 직계 후속인 DGX 스파크와 DGX 스테이션은 차세대 AI 연구와 개발을 지원하기 위해 처음부터 새롭게 설계됐다”고 말했다.
작성일 : 2025-05-19
엔비디아, 오라클 클라우드 인프라에 블랙웰 GPU 지원
엔비디아가 오라클에 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 지원해 에이전틱 AI와 추론 모델의 혁신을 가속화하고 있다고 밝혔다. 오라클은 자사 데이터센터에 수랭식 엔비디아 GB200 NVL72 랙을 최초로 도입하고 최적화했다. 현재 수천 개의 엔비디아 블랙웰 GPU가 엔비디아 DGX 클라우드(DGX Cloud)와 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure : OCI)를 통해 고객이 사용할 수 있도록 배치되고 있다. 이는 차세대 추론 모델과 AI 에이전트 개발과 실행을 지원한다. 오라클이 도입한 GB200에는 고속 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand)와 엔비디아 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워킹이 포함된다. 이를 통해 확장 가능하고 저지연 성능을 구현하며, 엔비디아와 OCI 소프트웨어와 데이터베이스 통합의 풀스택을 지원한다. OCI는 엔비디아 GB200 NVL72 시스템을 최초로 도입한 기업 중 하나이다. OCI는 세계 최대 규모의 블랙웰 클러스터를 구축하려는 계획을 갖고 있다. OCI 슈퍼클러스터(Supercluster)는 10만 개 이상의 엔비디아 블랙웰 GPU로 확장해 전 세계적으로 급증하는 추론 토큰과 가속 컴퓨팅 수요를 충족할 예정이다. 지난 몇 주 사이 오픈AI(OpenAI)를 비롯한 여러 기업에서 새로운 추론 모델을 출시하면서 AI 혁신은 빠른 속도로 계속되고 있다.     엔비디아는 “OCI의 사례는 엔비디아 그레이스(Grace) 블랙웰 시스템이 전 세계적으로 본격 가동되기 시작한 최신 사례이다. 이는 클라우드 데이터센터를 대규모 인텔리전스를 제조하는 AI 팩토리로 탈바꿈시키고 있다”고 설명했다. 이러한 새로운 AI 팩토리는 36개의 엔비디아 그레이스 CPU와 72개의 엔비디아 블랙웰 GPU를 결합한 랙 스케일 시스템인 엔비디아 GB200 NVL72 플랫폼을 활용한다. 이를 통해 고급 AI 추론 모델 기반의 에이전틱 AI를 위한 고성능과 에너지 효율을 제공한다. OCI는 모든 규모의 고객에게 블랙웰을 제공할 수 있는 유연한 배포 옵션을 지원한다. 여기에는 공공, 정부, 소버린 클라우드는 물론 OCI 전용 리전(Dedicated Region)과 OCI 알로이(Alloy)를 통한 고객 소유의 데이터센터까지 포함된다. 한편 새로운 GB200 NVL72 랙은 엔비디아 DGX 클라우드에서 사용할 수 있는 첫 번째 시스템이다. 엔비디아 DGX 클라우드는 OCI와 같은 주요 클라우드에서 AI 워크로드를 개발하고 배포하기 위해 소프트웨어, 서비스, 기술 지원을 제공하는 최적화된 플랫폼이다. 엔비디아는 추론 모델 훈련, 자율주행차 개발, 칩 설계와 제조 가속화, AI 도구 개발 등 다양한 프로젝트에 이 랙을 사용할 예정이다. GB200 NVL72 랙은 현재 DGX 클라우드와 OCI에서 사용할 수 있다.
작성일 : 2025-04-30