• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "DGX 스파크"에 대한 통합 검색 내용이 169개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
레노버, 엔비디아 그레이스 블랙웰 슈퍼칩 탑재한 AI 워크스테이션 ‘씽크스테이션 PGX’ 출시
한국레노버가 엔비디아 GB10 그레이스 블랙웰 슈퍼칩을 탑재한 컴팩트한 AI 워크스테이션 ‘씽크스테이션 PGX(ThinkStation PGX)’를 출시했다. 새롭게 선보인 씽크스테이션 PGX는 AI 연구자, 개발자, 데이터 과학자, 엔지니어 등을 위한 전문 AI 워크스테이션이다. 최대 1페타플롭(1000 TOPS) AI 연산 성능을 제공하며 최대 2000억 개 파라미터를 가진 대규모 생성형 AI 모델을 처리할 수 있다. 128GB 통합 시스템 메모리를 탑재해 사용자는 최신 추론 AI 모델을 실험하고, 미세 조정 및 추론 작업을 원활하게 수행할 수 있다. 두 대의 시스템을 연결하면 최대 4050억 개 파라미터를 가진 더 큰 AI 모델까지 처리 가능하다. 1.13리터의 사이즈와 최소 1.2kg의 무게로 공간 활용성을 높였다.     씽크스테이션 PGX는 엔비디아 DGX OS와 엔비디아 AI 소프트웨어 스택은 물론, 파이토치(PyTorch), 주피터(Jupyter) 등 개발자에게 익숙한 도구와 프레임워크가 사전 구성되어 있다. 이를 통해 개발자는 데스크톱 환경에서 대규모 AI 모델을 즉시 프로토타이핑하고, 미세 조정 및 추론 과정을 거쳐 데이터센터나 클라우드로 손쉽게 배포할 수 있다. 생성형 AI 모델의 규모와 복잡성이 급격히 증가함에 따라 로컬 환경에서의 개발은 점점 더 많은 제약에 직면하고 있다. 대규모 모델의 프로토타이핑, 튜닝, 추론에는 방대한 GPU 메모리와 연산 성능이 요구된다. 씽크스테이션 PGX는 이러한 한계를 극복하고 AI 애플리케이션 프로토타이핑을 위한 강력하면서도 경제적인 플랫폼을 제공한다. 이에 따라 개발자는 AI 온프레미스 클러스터나 클라우드 컴퓨팅 환경의 리소스를 한층 효율적으로 활용할 수 있다. 또한 씽크스테이션 PGX 사용자는 엔비디아 AI 플랫폼 소프트웨어 아키텍처를 기반으로 코드를 거의 수정하지 않고도 데스크톱 환경에서 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 이전 가능하다. 이를 통해 프로토타이핑, 미세 조정, 반복 등 개발 작업을 손쉽게 수행할 수 있다. 한국레노버의 신규식 대표는 “생성형 AI 시대를 맞아 기업과 연구기관의 AI 개발 역량이 핵심 경쟁력으로 부상하고 있다”며, “고성능이면서도 컴팩트한 씽크스테이션 PGX는 전문가들이 클라우드 인프라의 복잡성과 비용 부담 없이 확장 가능한 AI 기능을 구현할 수 있는 최적의 설루션”이라고 말했다. 이어 “레노버는 워크스테이션 포트폴리오를 지속적으로 확장해 전문가들이 생성형 AI 혁신을 가속화하고 채택할 수 있도록 적극 지원할 것”이라고 덧붙였다.
작성일 : 2025-10-27
델, 책상 위의 AI 시스템 ‘델 프로 맥스 위드 GB10’ 출시
델 테크놀로지스가 네트워크 연결 없이 데스크 환경에서 최대 2000억개 매개변수의 LLM(대규모 언어 모델)을 지원하는 AI 시스템 ‘델 프로 맥스 위드 GB10(Dell Pro Max with GB10)’을 출시한다고 밝혔다.  최근 생성형 AI의 패러다임이 인간의 개입 없이 여러 AI가 협력하고 자율적으로 의사결정을 내리는 ‘에이전틱 AI’로 전환되고 있다. AI 성능 향상을 위한 매개변수 증가와 멀티모달 AI 모델 개발이 가속화됨에 따라, AI 워크로드를 안전하고 비용 효율적으로 빠르게 처리할 수 있는 로컬 컴퓨팅 환경의 중요성이 커지고 있다. 새롭게 발표된 델 프로 맥스 위드 GB10은 엔비디아 GB10 그레이스 블랙웰(NVIDIA GB10 Grace Blackwell) 슈퍼칩을 탑재해 AI 개발을 위한 고성능을 제공한다. 최대 2000억개 매개변수의 LLM을 로컬 환경에서 직접 프로토타이핑, 미세조정, 추론까지 할 수 있다는 것이 특징이다. GB10 슈퍼칩은 20코어의 고성능 Arm 아키텍처를 탑재한 그레이스 CPU와 블랙웰 GPU를 결합해 최대 1페타플롭(1초당 1000조번 연산 처리)의 AI 연산 성능을 제공한다.     이 제품은 128GB LPDDR5x 통합 시스템 메모리를 제공하며, 2TB 및 4TB NVMe SSD 옵션을 선택할 수 있어 방대한 데이터 처리와 복잡한 AI 워크로드를 원활히 운영할 수 있다. 또한, TPM 2.0 보안과 안전한 샌드박스 환경 구축을 통해 중요한 기업 데이터를 안전하게 보호할 수 있다.  우분투 리눅스 기반의 엔비디아 DGX OS 및 AI 소프트웨어 스택을 탑재해 AI 개발자가 데스크톱과 데이터센터 환경을 자유롭게 넘나들며 워크로드를 구현할 수 있는 것 또한 특징이다. 초저지연 네트워킹을 지원하는 엔비디아 커넥트X-7(ConnectX-7)으로 델 프로 맥스 위드 GB10 두 대를 연결하면 최대 4000억 개 매개변수 모델도 원활히 처리 가능하다. 또한 ‘엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)’를 기반으로 데스크 환경에서의 프로토타입 제작부터 데이터 센터 배포까지 원활하게 확장할 수 있다. 엔비디아 쿠다(NVIDIA CUDA), 엔비디아 AI 워크벤치(NVIDIA AI Workbench) 및 주피터랩(JupyterLab)과 독커(Docker) 등이 기본 탑재되어 별도의 설치 과정 없이 개봉 즉시 AI 모델 개발과 테스트를 시작할 수 있다. 델은 델 프로 맥스 위드 GB10가 강력한 성능을 기반으로 AI 시대의 다양한 사용자에게 새로운 가능성을 제시한다고 전했다.. 대학 등 연구기관에서는 ‘라마 3.3 70B(Llama 3.3 70B)’와 같은 대규모 언어 모델을 해당 제품에서 직접 실행해 연구 속도를 획기적으로 높일 수 있다. 스타트업 등 중소규모 기업은 추론, 미세 조정, 프로토타이핑 등 AI 개발의 전 과정을 로컬 환경에서 수행하며 복잡한 인프라 구축 없이도 혁신을 빠르게 이어갈 수 있다. 헬스케어나 금융 서비스와 같이 민감한 데이터를 다루는 업계에서는 데이터를 외부로 반출하지 않고 고급 AI 모델을 안전하게 학습 및 운용하여 데이터 보안을 실현하고 리스크를 줄일 수 있다. 크리에이터와 개발자들은 엔터프라이즈급 컴퓨팅 파워를 활용해 외부 인프라 구축 등의 추가 비용 없이, 자신만의 작업 공간에서 비전 모델을 미세 조정하고, AI 기반 콘텐츠를 제작하는 창의적인 프로젝트를 손쉽게 구현할 수 있다. 델 프로 맥스 위드 GB10은 공기 흐름을 최적화한 섀시 디자인을 적용해 장시간 사용 시에도 온도와 소음을 효과적으로 제어하며 안정적인 성능을 유지한다. 델 프로 맥스 위드 GB10은 10월 16일에 출시될 예정이며, 최대 3년간의 델 지원 서비스(Dell Service & Support)가 제공된다. 한국 델 테크놀로지스 김경진 총괄사장은 “온프레미스 환경에서 AI를 구현하는 수요가 증가하는 가운데, 델 프로 맥스 위드 GB10은 엔비디아 GB10 슈퍼칩 기반의 강력한 성능으로 개인용 데스크 환경에서 AI 프로젝트를 실행할 수 있는 획기적인 설루션”이라면서, “델 테크놀로지스는 델 프로 맥스 라인업에 최신 AI 기술을 발빠르게 적용해 제품 포트폴리오를 지속적으로 확장하고 있고, 많은 기업이 보안이나 비용 등의 제약 없이 로컬에서 AI 혁신을 구현하도록 지원하고 있다”고 말했다.
작성일 : 2025-10-14
엔비디아, 오픈AI와 10GW 규모 시스템 구축 위해 협력
엔비디아가 오픈AI(OpenAI)와 전략적 파트너십을 체결했다고 밝혔다. 양사는 이번 파트너십의 일환으로 오픈AI의 차세대 AI 인프라 구축을 위해 최소 10GW(기가와트) 규모의 엔비디아 시스템을 도입한다는 의향서를 발표했다. 이번 협력으로 오픈AI는 차세대 모델을 훈련하고, 운영하며, 슈퍼인텔리전스 배포를 위한 기반을 마련하게 된다. 엔비디아는 데이터센터와 전력 용량 확보를 포함한 이번 구축을 지원하기 위해, 신규 시스템이 도입됨에 따라 오픈AI에 최대 1000억 달러를 투자할 계획이다. 첫 번째 단계는 엔비디아 베라 루빈(Vera Rubin) 플랫폼을 통해 2026년 하반기 가동을 목표로 하고 있다. 엔비디아와 오픈AI는 향후 몇 주 안에 이번 전략적 파트너십의 새로운 단계에 대한 세부 사항을 확정할 예정이다. 오픈AI는 “현재 주간 활성 사용자 수가 7억 명을 넘어섰으며, 글로벌 기업, 중소기업, 개발자 전반에서 강력한 활용도를 보이고 있다. 이번 파트너십은 오픈AI가 인류 전체에 이익이 되는 범용 인공지능(AGI) 구축이라는 사명을 추진하는 데 기여할 것”이라고 소개했다. 오픈AI는 AI 팩토리 성장 계획을 위해 전략적 컴퓨팅, 네트워킹 파트너로서 엔비디아와 협력할 예정이다. 양사는 오픈AI의 모델과 인프라 소프트웨어와 엔비디아의 하드웨어와 소프트웨어에 대한 로드맵을 공동 최적화해 나갈 것이다. 이번 파트너십은 오픈AI와 엔비디아가 이미 마이크로소프트, 오라클, 소프트뱅크, 스타게이트 등 파트너사를 비롯한 여러 협력사와 추진 중인 작업을 보완한다. 이를 통해 양사는 세계 최고 수준의 AI 인프라 구축을 위해 한층 더 속도를 낼 계획이다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “엔비디아와 오픈AI는 지난 10년간 최초의 DGX 슈퍼컴퓨터부터 챗GPT(ChatGPT)의 혁신에 이르기까지 서로를 함께 견인해왔다. 이번 투자와 인프라 파트너십은 차세대 인텔리전스 시대를 이끌 10GW 규모의 인프라 구축이라는 다음 도약을 의미한다”고 말했다. 오픈AI의 샘 알트만(Sam Altman) CEO는 “모든 것은 컴퓨팅에서 시작된다. 컴퓨팅 인프라가 미래 경제의 기반이 될 것이며, 우리는 엔비디아와 함께 구축 중인 인프라를 활용해 새로운 AI 혁신을 창출하고, 이를 사람과 기업이 대규모로 활용할 수 있도록 할 것”이라고 말했다.
작성일 : 2025-09-25
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크’ 국내 예약 주문 시작
엔비디아가 차세대 개인용 AI 슈퍼컴퓨터 ‘엔비디아 DGX 스파크(NVIDIA DGX Spark)’의 국내 예약 주문을 시작한다고 밝혔다. DGX 스파크는 책상 위에 올려 놓을 수 있는 크기의 AI 슈퍼컴퓨터로 생성형 AI, 거대 언어 모델(LLM), 고속 추론 등 다양한 AI 워크플로를 로컬 환경에서 효율적으로 구현할 수 있도록 설계됐다. AI 개발이 고도화됨에 따라, 조직은 데이터 보안 강화와 지연 최소화, 배포 유연성 등을 고려해 로컬 환경에서 직접 AI 모델을 개발하고 실행할 수 있는 시스템을 요구하고 있다. DGX 스파크는 이러한 수요에 대응해 데스크톱 환경에서도 데이터 크기나 위치, 모델 규모에 제약 없이 민첩하고 효율적인 AI 개발이 가능하도록 지원한다.     DGX 스파크는 데스크톱 폼팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)을 탑재해 FP4 정밀도 기준, 최대 1페타플롭의 AI 성능을 제공한다. 또한, 고성능 엔비디아 커넥트-X(Connect-X) 네트워킹으로 두 대의 엔비디아 DGX 스파크 시스템을 연결해 최대 4,050억 개 파라미터의 AI 모델을 처리할 수 있다. DGX 스파크는 128GB 메모리를 탑재했으며, 엔비디아 AI 소프트웨어 스택이 사전 설치돼 있다. 이를 통해 딥시크, 메타, 구글 등에서 선보인 최대 2000억 개 파라미터의 최신 AI 모델도 로컬 환경에서 직접 프로토타이핑, 미세 조정, 추론할 수 있다. 또한, 사용자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama) 등 익숙한 개발 도구를 사용할 수 있으며, 이를 DGX 클라우드나 가속화된 데이터센터 환경으로 손쉽게 확장할 수 있다. 이와 함께 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprint)에 대한 액세스를 통해 AI 애플리케이션을 더욱 빠르게 개발하고 배포할 수 있도록 지원한다. 엔비디아는 “DGX 스파크는 올해 엔비디아 연례 개발자 콘퍼런스인 GTC와 컴퓨텍스(COMPUTEX)에서 공개된 이후 큰 관심을 받아왔으며, 이번 국내 예약 주문을 계기로 본격적인 보급이 기대된다”고 전했다. DGX 스파크의 국내 예약 주문은 엔비디아 공식 홈페이지를 통해 진행된다. 국내 주요 파트너사 중 원하는 업체를 선택해 예약할 수 있으며, 대량 구매도 가능하다. 공식 파트너사로는 에즈웰에이아이, 비엔아이엔씨, 디에스앤지, 아이크래프트, 리더스시스템즈, 메이머스트, MDS테크, 유클릭, 씨이랩, 제스프로가 있다.
작성일 : 2025-07-29
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
엔비디아, 앤시스·DCAI와 협력해 유체역학용 양자 알고리즘 개발 가속화
엔비디아가 ‘엔비디아 GTC 파리’ 행사에서 앤시스 및 덴마크 AI 혁신 센터(DCAI)와 협력해 유체역학용 양자 알고리즘 개발 가속화에 나섰다고 발표했다. AI 슈퍼컴퓨팅은 새로운 양자 애플리케이션의 개발을 가속화하며 항공우주, 자동차, 제조업 등 핵심 산업에서 획기적인 발전을 이끌고 있다. 이러한 가능성을 보여주는 사례로, 앤시스는 DCAI에서 운영하는 슈퍼컴퓨터 ‘게피온(Gefion)’에서 실행되는 엔비디아 쿠다-Q(NVIDIA CUDA-Q) 양자 컴퓨팅 플랫폼을 활용해 유체역학 응용을 위한 양자 알고리즘을 발전시키고 있다고 발표했다. 덴마크 최초의 AI 슈퍼컴퓨터인 게피온은 엔비디아 DGX SuperPOD과 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹으로 상호 연결돼 있다. 앤시스는 오픈 소스인 엔비디아 쿠다-Q 소프트웨어 플랫폼을 활용해, 이 슈퍼컴퓨터의 성능을 기반으로 유체역학에 적용 가능한 양자 알고리즘의 GPU 가속 시뮬레이션을 수행했다. 쿠다-Q는 GPU 가속 라이브러리를 활용해, 게피온이 ‘양자 격자 볼츠만 방법(Quantum Lattice Boltzmann Method)’이라 불리는 알고리즘 계열의 복잡한 시뮬레이션을 실행할 수 있게 한다. 앤시스는 이 알고리즘이 39큐비트 양자 컴퓨터에서 어떻게 작동할지 시뮬레이션함으로써, 유체역학 응용에 미칠 영향을 빠르고 비용 효율적으로 탐색할 수 있었다.     엔비디아의 양자와 쿠다-X(CUDA-X) 부문 수석 이사인 팀 코스타(Tim Costa)는 “미래의 실용적인 양자 응용 분야를 발견하려면, 연구자들이 현재 그에 걸맞은 대규모 시뮬레이션을 실행할 수 있어야 한다. 엔비디아는 앤시스, DCAI와 같은 협력 파트너들에게 양자 컴퓨팅의 영향력을 확장할 수 있도록 슈퍼컴퓨팅 플랫폼을 제공하고 있다”고 말했다. 앤시스의 프리스 바네르지(Prith Banerjee) 최고기술책임자는 “쿠다-Q의 GPU 가속 시뮬레이션을 통해 우리는 양자 응용이 실제로 영향을 발휘하기 시작하는 영역에서 이를 연구할 수 있었다. 우리는 엔비디아 그리고 DCAI와의 협력을 통해 전산유체역학(CFD)과 같은 공학 분야에서 양자 컴퓨팅의 역할을 확장해 나가고 있다”고 말했다. DCAI의 나디아 칼스텐(Nadia Carlsten) CEO는 “우리는 쿠다-Q를 통해 게피온을 사용하는 연구자들이 양자-클래식 하이브리드 컴퓨팅을 실현할 수 있는 가능성을 직접 목격하고 있다. 엔비디아, 앤시스와의 파트너십 덕분에 양자 기술과 AI 슈퍼컴퓨팅 간의 융합을 이끌어낼 수 있었다”고 말했다.
작성일 : 2025-06-12
엔비디아, 스웨덴에 차세대 AI 인프라 구축 및 AI 기술 센터 설립
엔비디아가 스웨디시 비즈니스 컨소시엄(Swedish business consortium)과 함께 스웨덴 내 차세대 AI 인프라 구축을 위한 공동 계획을 발표했다. 엔비디아는 이번 프로젝트에 자사의 가속 컴퓨팅, 네트워킹, 소프트웨어를 통해 AI 시대를 맞이한 스웨덴 산업 전반의 혁신을 지원할 예정이다. 이번 프로젝트에는 스웨덴의 대표 기업인 아스트라제네카, 에릭슨, 사브, SEB가 참여하며, 발렌베리 인베스트먼트와의 파트너십을 통한 합작 회사가 운영할 예정이다. 이 합작 회사는 참여 기업들에 보안성과 주권성을 보장하는 컴퓨팅 자원을 제공할 계획이다. 첫 번째 구축 단계로는 엔비디아의 최신 세대 그레이스 블랙웰(Grace Blackwell) GB300 시스템을 탑재한 두 대의 엔비디아 DGX SuperPOD이 포함된다. 이 시스템은 도메인별 AI 모델 훈련, 추론 AI(Reasoning AI)를 포함한 대규모 추론 등 고성능 연산이 요구되는 AI 워크로드를 처리하는 데 사용될 예정이다. 엔비디아와 스웨디시 비즈니스 컨소시엄은 산업 전반의 AI 역량을 강화하고, 지식 공유를 촉진함으로써 스웨덴 내 새로운 AI 혁신을 주도하고자 한다. 이를 지원하기 위해 엔비디아는 스웨덴에 최초의 AI 기술 센터(AI Technology Center)를 설립해 업계 파트너들과 함께 세계 최고 수준의 AI 연구를 발전시킬 계획이다. 아울러 AI 인재 양성을 위해 자사 전문가와의 교류와 딥 러닝 인스티튜트(Deep Learning Institute)의 실무 교육을 제공할 예정이다. 아스트라제네카는 이 시스템을 활용해 파운데이션 모델 훈련, 멀티모달 추론, 독자적인 데이터 처리 역량 등을 적용해 차세대 AI 기반 신약 개발을 선도할 계획이다. 에릭슨은 데이터 과학 전문 지식을 활용해 최첨단 AI 모델을 개발, 배포함으로써 성능과 효율성을 개선하고 고객 경험을 향상시킬 예정이다. 사브는 자사의 제품과 플랫폼을 첨단 AI 애플리케이션과 결합해 차세대 방위 역량 개발을 획기적으로 가속화할 예정이다. 또한, SEB는 AI를 생산성 향상, 새로운 고객 서비스 제공, 은행의 미래 경쟁력 확보를 위한 핵심 요소로 보고 있다.     발렌베리 인베스트먼트의 마르쿠스 발렌베리(Marcus Wallenberg) 회장은 “최첨단 AI 인프라에 대한 투자는 스웨덴 산업 전반에 걸쳐 AI의 개발과 도입을 가속화하는 중요한 단계이다. 우리는 이 이니셔티브가 숙련도를 높이고, 새로운 협업을 촉진하며, 광범위한 국가 AI 생태계를 강화함으로써 가치 있는 파급 효과를 가져올 것이라 기대하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “전기가 산업 시대를 이끌고, 인터넷이 디지털 시대에 불을 붙인 것처럼, AI는 차세대 산업 혁명의 엔진이다. 발렌베리 인베스트먼트와 스웨덴 산업 리더들의 비전 있는 이니셔티브를 통해 스웨덴은 자국 최초의 AI 인프라를 구축하고 있다. 이는 과학, 산업, 사회 전반의 혁신을 위한 기반을 마련하고, 스웨덴이 AI 시대를 선도하는 국가로 자리매김하는 데 있어 중요한 이정표가 될 것”이라고 말했다.
작성일 : 2025-05-29
IBM, AI 데이터 폭증 시대 대응을 위한 지능형 스토리지 전략 발표
IBM이 인공지능(AI) 시대의 급격한 데이터 증가에 대응하기 위한 새로운 스토리지 전략을 발표했다고 5월 27일 기자간담회를 통해 밝혔다. 이번 IBM 전략은 기업의 AI 인프라 고도화와 비용 효율성 극대화, 데이터 이동 및 처리 최적화를 핵심으로 하는 지능형 데이터 플랫폼 구축에 초점을 맞추고 있다. ▲ IBM 스토리지 전략 발표 기자간담회 모습 IBM은 기존의 단순한 데이터 저장 시스템을 넘어서, AI 중심의 비즈니스 환경에 특화된 지능형 데이터 플랫폼을 제시했다. 특히 IBM 퓨전(Fusion)과 CAS(Content Aware Storage) 기술을 통해 데이터 분석 효율성과 통합성을 강화하며, 기업의 디지털 전환과 AI 도입을 가속화하는 것이 핵심 목표다. IBM 스토리지 샘 워너(Sam Werner) 부사장은 "AI 시대에는 데이터를 단순히 저장하는 공간을 넘어, 지능형 데이터 플랫폼이 되어야 한다"고 강조했다. 그는 "IBM 퓨전과 CAS 기술 등을 통해 데이터 분석 효율 및 통합을 강화하며, 기업의 디지털 전환과 AI 도입 가속화를 적극 지원하고 있다"고 설명했다. ▲ IBM 스토리지 샘 워너(Sam Werner)  부사장 IBM의 AI 최적화 스토리지 솔루션은 이미 국내 다양한 분야의 기업들에서 성과를 보이고 있다. AI 스타트업 파일러는 IBM SSS5300과 DGX B200을 도입해 AI 개발 환경을 최적화했으며, 서울시복지재단은 IBM 플래시시스템 기반 인프라로 데이터 처리 구조를 개선하고 장애 대응성을 크게 강화했다. 교육 분야에서는 한국전통문화대학교가 전통문화 콘텐츠 공유 시스템을 구축해 안정적인 디지털 기반을 확보했고, 지오영그룹의 케어캠프는 IBM 플래시시스템 7300 기반 랜섬웨어 대응 인프라를 구축해 사이버 보안을 대폭 강화하는 성과를 거뒀다. 한국IBM 스토리지 비즈니스 총괄 박대성 상무는 "단순한 스토리지 제품 판매를 넘어서, AI 시대를 위한 지능형 데이터 인프라를 통해 국내 기업의 디지털 전환과 AI 도입을 종합적으로 지원하고 있다"고 밝혔다. 이를 통해 기업들은 데이터 분석 효율성을 높이고 운영 비용을 절감하는 동시에 보안을 강화할 수 있을 것으로 기대된다고 덧붙였다. ▲ 한국IBM 스토리지 비즈니스 총괄 박대성 상무 한편, IBM의 이번 전략 발표는 급속히 확산되는 AI 기술과 이에 따른 데이터 폭증 현상에 대응하기 위한 선제적 움직임으로 평가되며, 국내 기업들의 AI 인프라 구축과 디지털 혁신에 새로운 전환점을 제공할 것으로 전망된다.
작성일 : 2025-05-27
인텔, GPU 가속 AI 성능 높인 제온 6 프로세서 신제품 출시
인텔은 최첨단 그래픽 처리 장치(GPU) 기반 AI 시스템을 처리하기 위해 설계한 프로세서 3종을 인텔 제온 6(Intel Xeon 6) 시리즈에 추가해 출시한다고 발표했다. 새롭게 공개한 제품은 P-코어 기반 제품으로 PCT(Priority Core Turbo) 기술과 인텔 SST-TF(Intel Speed Select Technology-Turbo Frequency) 기능을 결합해, AI 워크로드에 필요한 CPU 코어 주파수를 상황에 맞춰 극대화함으로써 GPU 성능을 한층 끌어올린다. PCT 기술은 인텔 SST-TF 기능과 결합돼 AI 시스템 성능을 끌어올린다. PCT는 고우선순위 코어(HP 코어)에 터보 주파수를 동적으로 우선 할당해 더 높은 속도로 동작하도록 하며, 저우선순위 코어(LP 코어)는 기본 주파수로 작동해 CPU 자원을 효율적으로 분산한다. 이 기능은 순차적 또는 직렬 처리가 요구되는 AI 워크로드에 특히 효과적이며, GPU에 데이터를 더 빠르게 공급하고 전체 시스템 효율을 높이는 데 기여한다.     인텔은 제온 6 P-코어 프로세서가 모든 AI 시스템에 업계 최고 수준의 성능을 제공한다고 전했다. 이 프로세서는 CPU당 최대 128개의 P-코어를 탑재해, 복잡한 AI 작업도 균형 있게 처리할 수 있도록 워크로드를 효율적으로 분산한다. 메모리 속도가 최대 30% 향상되었으며, MRDIMM 및 CXL을 통해 높은 수준의 메모리 대역폭을 지원한다. 인텔 제온 6는 이전 세대 대비 최대 20% 더 많은 PCIe 레인을 제공해, I/O 집약적 워크로드에서 한층 더 빠른 데이터 전송을 지원하며, 신뢰성, 가용성, 유지보수 기능을 바탕으로 비즈니스 중단을 최소화하고 최상의 시스템 가동 시간을 제공한다. 그리고 인텔 첨단 벡터 확장(AMX)은 반정밀도 부동소수점(FP16) 연산을 지원해 AI 워크로드에서 효율적인 데이터 전처리와 주요 CPU 작업 수행을 가능하게 한다. 인텔은 기업들이 인공지능(AI) 수요 증가에 대응해 인프라를 고도화함에 따라, 고성능 P-코어를 탑재한 인텔 제온 6 프로세서가 성능과 에너지 효율을 모두 갖춘 최적의 설루션을 제공한다고 전했다. “다양한 데이터센터 및 네트워크 환경을 폭넓게 지원하며, AI에 최적화된 CPU 설루션 분야에서 인텔의 리더십을 한층 강화하고 있다”는 것이 인텔의 설명이다. 한편, 인텔은 이번에 공개된 제품군 가운데 제온 6776P가 엔비디아의 최신 AI 가속 시스템인 DGX B300의 호스트 CPU로 채택되었다고 발표했다. DGX B300에 탑재된 제온 6776P는 대규모 모델 및 데이터셋 운용에 필요한 메모리 용량과 대역폭을 제공하며, AI 가속화 시스템을 관리, 조율 및 지원하는데 중요한 역할을 한다. 인텔의 데이터센터 및 AI 그룹 임시 총괄인 카린 엡시츠 시갈(Karin Eibschitz Segal) 부사장(CVP)은 “새롭게 추가한 제온 라인업은 인텔 제온 6가 지닌 독보적 성능을 입증하며, 차세대 GPU 가속 AI 시스템에 가장 최적화된 CPU”라면서, “인텔은 엔비디아와의 협업을 강화해 업계 최고 수준의 AI 시스템을 제공하고, 산업 전반에서 AI 도입을 가속화할 수 있도록 지원할 것”이라고 전했다.
작성일 : 2025-05-23
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크, ‘DGX 스테이션’ 공개
엔비디아는 글로벌 시스템 제조업체들이 개인용 AI 슈퍼컴퓨터인 엔비디아 DGX 스파크(NVIDIA DGX Spark)와 DGX 스테이션(DGX Station) 시스템을 구축할 예정이라고 발표했다. 엔비디아는 DGX 스파크와 DGX 스테이션의 가용성이 확대되면서 전 세계 개발자, 데이터 과학자, 연구원이 높은 성능과 효율을 경험할 수 있게 될 것으로 기대하고 있다.  기업, 소프트웨어 제공업체, 정부 기관, 스타트업, 연구 기관 등에서은 데이터 크기, 독점 모델 프라이버시 또는 확장 속도에 영향을 주지 않으면서 데스크톱 폼 팩터에서 AI 서버의 성능과 기능을 제공할 수 있는 강력한 시스템을 필요로 한다. 자율적인 의사 결정과 작업 수행이 가능한 에이전틱 AI(Agentic AI) 시스템의 부상은 이러한 요구를 더욱 증폭시키고 있다. 엔비디아 그레이스 블랙웰(Grace Blackwell) 플랫폼을 기반으로 하는 DGX 스파크와 DGX 스테이션은 개발자들이 데스크톱에서 데이터센터에 이르기까지 모델의 프로토타이핑, 미세 조정, 추론 등을 실행할 수 있도록 지원한다.     DGX 스파크에는 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Superchip)과 5세대 텐서 코어(Tensor Core)가 탑재돼 있다. 이는 최대 1페타플롭(petaflop)의 AI 컴퓨팅 성능과 128GB의 통합 메모리를 제공하며, 엔비디아 DGX 클라우드(DGX Cloud)나 기타 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 내보낼 수 있다. 간소한 패키지로 강력한 성능과 기능을 제공하는 DGX 스파크는 개발자, 연구원, 데이터 과학자, 학생들이 생성형 AI의 한계를 뛰어넘고 산업 전반의 워크로드를 가속화할 수 있도록 지원한다. 까다로운 AI 워크로드를 위해 설계된 DGX 스테이션은 엔비디아 GB300 그레이스 블랙웰 울트라 데스크톱 슈퍼칩(Ultra Desktop Superchip)을 탑재해 최대 20페타플롭의 AI 성능과 784GB의 통합 시스템 메모리를 제공한다. 또한 이 시스템에는 고속 연결과 멀티스테이션 확장을 위해 최대 800Gb/s의 네트워킹 속도를 지원하는 엔비디아 커넥트X-8 슈퍼NIC(ConnectX-8 SuperNIC)도 탑재했다. DGX 스테이션은 고급 AI 모델을 로컬 데이터로 실행하는 단일 사용자용 데스크톱으로 활용할 수 있으며, 여러 사용자를 위한 온디맨드 중앙 집중식 컴퓨팅 노드로도 사용할 수 있다. 이 시스템은 엔비디아 멀티 인스턴스(Multi-Instance) GPU 기술을 지원해 최대 7개의 인스턴스로 분할할 수 있다. 각 인스턴스는 독립적인 고대역폭 메모리, 캐시, 컴퓨팅 코어를 갖춰 데이터 과학과 AI 개발 팀을 위한 개인 클라우드로 활용할 수 있다. 또한, DGX 스파크와 DGX 스테이션은 산업용 AI 팩토리를 구동하는 소프트웨어 아키텍처를 반영한다. 두 시스템 모두 최신 엔비디아 AI 소프트웨어 스택으로 사전 구성된 엔비디아 DGX 운영 체제를 사용하며, 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprints)에 대한 액세스를 제공한다. 개발자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama)와 같은 일반적인 도구를 사용해 DGX 스파크에서 프로토타이핑 생성, 미세 조정, 추론을 수행할 수 있다. 그리고 이를 DGX 클라우드나 가속화된 데이터센터 또는 클라우드 인프라에 원활하게 배포할 수 있다. DGX 스파크는 7월부터 에이서, 에이수스, 델 테크노로지스, 기가바이트, HP, 레노버, MSI를 비롯한 글로벌 채널 파트너를 통해 출시될 예정이며, 현재 예약이 진행 중이다. DGX 스테이션은 올해 말 에이수스, 델 테크놀로지스, 기가바이트, HP, MSI에서 출시될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “AI는 실리콘에서 소프트웨어에 이르기까지 컴퓨팅 스택의 모든 계층을 혁신했다. AI 혁신을 촉발한 DGX-1 시스템의 직계 후속인 DGX 스파크와 DGX 스테이션은 차세대 AI 연구와 개발을 지원하기 위해 처음부터 새롭게 설계됐다”고 말했다.
작성일 : 2025-05-19