• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "슈퍼컴퓨터"에 대한 통합 검색 내용이 177개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, “차세대 AI 성장 위한 인텔리전스 구축 나선다”
엔비디아가 AI 팩토리에서 인텔리전스를 생산하는 기반을 구축해 미국을 포함한 전 세계의 차세대 성장을 이끌겠다는 포부를 밝혔다. 모든 기업과 국가는 성장과 경제적 기회 창출을 원하지만, 이를 위해서는 사실상 무한한 인텔리전스가 필요하다. 엔비디아는 이러한 상황에서 에코시스템 파트너와 협력해 추론 기술, AI 모델, 컴퓨팅 인프라를 발전시켜 AI 팩토리를 통해 인텔리전스를 생산하겠다고 전했다. 엔비디아는 미국 내에서 AI 슈퍼컴퓨터를 제조할 것이라고 발표했는데, 향후 4년 내에 파트너들과 협력해 미국에서 최대 5000억 달러 규모의 AI 인프라를 생산할 계획이다. 엔비디아는 미국 AI 팩토리를 위한 AI 슈퍼컴퓨터 구축이 수십만 명에게 기회를 제공하고, 향후 수십 년 동안 수조 달러의 성장을 견인할 것으로 기대하고 있다. 이러한 AI 슈퍼컴퓨터의 핵심인 엔비디아 블랙웰(Blackwell) 컴퓨팅 엔진 중 일부는 이미 미국 애리조나에 있는 TSMC 공장에서 생산되고 있다.     또한 엔비디아는 차세대 AI 모델 훈련과 대규모 애플리케이션 실행을 위한 엔비디아 블랙웰 GB200 NVL72 랙 스케일 시스템이 코어위브(CoreWeave)를 통해 제공된다고 발표했다. 코어위브는 현재 수천 개의 엔비디아 그레이스(Grace) 블랙웰 프로세서를 통해 차세대 AI를 훈련하고 배포할 수 있다. 한편, 엔비디아는 보다 효율적이고 지능적인 모델을 만들기 위해 하드웨어 혁신을 넘어 AI 소프트웨어 분야도 강화한다는 전략을 소개했다. 이러한 발전의 최신 사례는 엔비디아 라마 네모트론 울트라(Llama Nemotron Ultra) 모델이다. 이 모델은 최근 아티피셜 애널리시스(Artificial Analysis)에서 과학적이고 복잡한 코딩 작업을 위한 정확한 오픈소스 추론 모델로 인정받았다. 또한 이는 현재 세계 최고 수준의 추론 모델 중 하나로 평가받고 있다.
작성일 : 2025-04-17
엔비디아, 개인용 AI 컴퓨터 ‘DGX 스파크’ 및 ‘DGX 스테이션’ 발표
엔비디아가 자사의 연례 콘퍼런스인 GTC에서 엔비디아 그레이스 블랙웰(NVIDIA Grace Blackwell) 플랫폼을 기반으로 한 엔비디아 DGX 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크(DGX Spark)’와 ‘DGX 스테이션(DGX Station)’을 발표했다. DGX 스파크와 DGX 스테이션은 블랙웰 울트라(Blackwell Ultra) 플랫폼을 기반으로 한 고성능 그레이스 블랙웰 데스크톱 슈퍼컴퓨터이다. 이들 제품은 AI 개발자, 연구자, 데이터 과학자, 학생이 데스크톱에서 대규모 모델을 프로토타입 제작, 미세 조정, 추론할 수 있도록 지원한다. 사용자는 이러한 모델을 로컬에서 실행하거나 엔비디아 DGX 클라우드(DGX Cloud), 기타 가속 클라우드, 데이터센터 인프라에 배포할 수 있다. DGX 스파크와 DGX 스테이션은 기존에 데이터센터에서만 사용할 수 있었던 그레이스 블랙웰 아키텍처의 성능을 데스크톱으로 가져온다. DGX 스파크와 DGX 스테이션을 개발하는 글로벌 시스템 빌더로는 에이수스, 델 테크놀로지스, HP, 레노버 등이 있다.     DGX 스파크는 작은 크기의 AI 슈퍼컴퓨터로, 수백만 명의 연구자, 데이터 과학자, 로봇 개발자, 학생에게 높은 성능과 다양한 기능을 제공한다. 이를 통해 생성형 AI와 물리 AI의 한계를 뛰어넘을 수 있도록 지원한다. DGX 스파크의 핵심은 데스크톱 폼 팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)이다. GB10은 5세대 텐서 코어(Tensor Core)와 FP4를 지원하는 엔비디아 블랙웰 GPU를 탑재해 초당 최대 1000조 회의 연산을 수행할 수 있다. 또한, 엔비디아 코스모스 추론(Cosmos Reason) 월드 파운데이션 모델과 엔비디아 GR00T N1 로봇 파운데이션 모델 비롯한 최신 AI 추론 모델을 통해 미세 조정과 추론을 수행할 수 있다. GB10 슈퍼칩은 엔비디아 NV링크(NVLink)-C2C 상호 연결 기술을 사용해 5세대 PCIe 대비 5배 높은 대역폭을 지원하는 CPU+GPU 코히어런트 메모리 모델을 구현한다. 이를 통해 GPU와 CPU 간 데이터에 액세스해 메모리 집약형 AI 개발자 워크로드 성능을 최적화할 수 있다. DGX 스파크 사용자는 엔비디아의 풀스택 AI 플랫폼을 사용해 코드를 거의 변경하지 않고도 모델을 데스크톱에서 DGX 클라우드 또는 기타 가속화된 클라우드나 데이터센터 인프라로 원활하게 이동할 수 있다. 이를 통해 그 어느 때보다도 쉽게 워크플로의 프로토타이핑, 미세 조정, 반복 작업을 수행할 수 있다. DGX 스테이션은 데스크톱에 AI 개발을 위한 데이터센터 수준의 성능을 구현한다. 이는 엔비디아 GB300 그레이스 블랙웰 울트라 데스크톱 슈퍼칩이 탑재된 첫 번째 데스크톱 시스템으로, 대규모 훈련과 추론 워크로드 가속화를 위한 784GB의 코히어런트 메모리 공간을 갖추고 있다. GB300 데스크톱 슈퍼칩은 최신 세대 텐서 코어와 FP4 정밀도를 갖춘 엔비디아 블랙웰 울트라 GPU를 탑재하고 있다. 또한 NV링크-C2C를 통해 고성능 엔비디아 그레이스 CPU에 연결돼 빠른 시스템 통신과 높은 성능을 지원한다. 또한, DGX 스테이션은 하이퍼스케일 AI 컴퓨팅 워크로드를 강화하도록 최적화된 엔비디아 커넥트X(ConnectX)-8 슈퍼NIC(SuperNIC)를 갖추고 있다. 초당 최대 800기가비트(Gb/s)의 네트워킹을 지원하는 커넥트X-8 슈퍼NIC는 빠르고 효율적인 네트워크 연결을 제공한다. 이를 통해 보다 큰 워크로드에서도 다수의 DGX 스테이션을 고속 연결하고, AI 워크로드를 위한 네트워크 가속 데이터 전송을 구현한다. 엔비디아는 “이러한 최첨단 DGX 스테이션 기능과 엔비디아 쿠다(CUDA)-X AI 플랫폼을 결합하면 탁월한 데스크톱 AI 개발 성능을 확보할 수 있다”고 설명했다. 또한 사용자는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼을 사용해 엔비디아 NIM 마이크로서비스에 액세스할 수 있다. 이를 통해 엔터프라이즈 지원이 포함된 고도로 최적화되고 배포하기 쉬운 추론 마이크로서비스를 사용할 수 있다. 엔비디아에 따르면 DGX 스파크 시스템의 사전 예약은 3월 19일 시작하며, DGX 스테이션은 올해 하반기에 에이수스, BOXX, 델, HP, 람다 랩스, 슈퍼마이크로와 같은 제조 파트너를 통해 출시될 예정이다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “AI는 컴퓨팅 스택의 모든 계층을 변화시키고 있다. AI 네이티브 개발자와 AI 네이티브 애플리케이션을 위해 설계된 새로운 유형의 컴퓨터가 등장하는 것은 필연적인 일이다. 새로운 DGX 개인용 AI 컴퓨터를 통해 AI가 클라우드 서비스부터 데스크톱, 에지 애플리케이션까지 확장될 것”이라고 말했다.
작성일 : 2025-03-19
HPE, 엔비디아 블랙웰 기반 첫 번째 시스템 GB200 NVL72 공식 출하
HPE는 엔비디아 블랙웰(NVIDIA Blackwell) 기반 첫 번째 설루션인 엔비디아 GB200 NVL72의 출하를 발표했다. 이 랙 스케일 시스템은 서비스 제공기업(SP)과 대기업이 첨단 DLC 설루션을 통해 효율성과 성능을 최적화하며, 복잡한 대규모 인공지능(AI) 클러스터를 빠르게 구축할 수 있도록 설계되었다. HPE가 새롭게 출하한 엔비디아 GB200 NVL72는 생성형 AI, 과학적 발견 및 기타 컴퓨팅 집약적인 워크로드를 위한 다양한 고성능 컴퓨팅 및 슈퍼컴퓨팅 시스템 중 하나이다. HPE 기반 엔비디아 GB200 NVL72시스템은 고속 엔비디아 NV링크(NVIDIA NVLink)을 통해 상호 연결된 72개의 엔비디아 블랙웰 GPU 및 36개의 엔비디아 그레이스(NVIDIA Grace) CPU를 탑재했다. 최대 13.5 TB의 HBM3e 메모리 및 초당 576TB 대역폭을 지원하며, HPE의 DLC 기술을 적용했다. 엔비디아 GB200 NVL72는 하나의 메모리 공간에서 1조 개 이상의 파라미터로 구성된 초대규모 AI 모델을 처리할 수 있도록 설계된 그래픽 처리장치(GPU) 기술과 공유 메모리(shared-memory) 및 저지연 아키텍처를 갖추고 있다. 또한, 이는 엔비디아의 중앙처리장치(CPU), GPU, 컴퓨트 및 스위치 트레이, 네트워킹, 소프트웨어를 통합하여, 엔비디아 소프트웨어 애플리케이션과 함께 생성형 AI(GenAI) 모델 학습 및 추론과 같은 병렬화 가능한 워크로드를 처리할 수 있는 고성능을 제공한다. 전력 요구사항 및 데이터센터 집적도의 증가에 따라, HPE는 50년 간 쌓아온 수냉 전문 지식을 바탕으로 고객이 복잡한 수냉 환경에 대해 신속한 구축과 광범위한 인프라 지원 시스템을 제공할 수 있도록 지원하고 있다. 이러한 경험을 바탕으로 HPE는 세계에서 가장 에너지 효율적인 슈퍼컴퓨터를 선정하는 그린500(Green500) 리스트의 상위 15개 슈퍼컴퓨터 중 8대를 제공할 수 있었다. HPE는 또한 DLC 기술 분야에서 선도적인 기업으로 인정받으며, 세계에서 가장 빠른 슈퍼컴퓨터 상위 10개 중 7대를 구축한 바 있다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 설루션 부문 수석 부사장 겸 총괄은 “AI 서비스 제공기업과 대기업 모델 개발자는 확장성, 최상의 성능, 빠른 구축 속도를 제공해야 한다는 압박을 받고 있다”며, “DLC를 통해 세계 3대 최고속 시스템을 구축한 HPE는 업계 최고의 서비스 전문성으로 고객에게 토큰 당 학습 비용을 낮추고 동급 최고의 성능을 제공한다”고 전했다. 엔비디아의 밥 페트(Bob Pette) 엔터프라이즈 플랫폼 부문 부사장은 “엔지니어, 과학자, 연구원은 증가하는 전력과 컴퓨팅 요구사항을 따라잡기 위해 최첨단 수냉 기술이 필요하다”며, “HPE와 엔비디아 간의 지속적인 협업을 바탕으로, HPE의 첫 번째 엔비디아 GB200 NVL72 출하는 서비스 제공기업과 대기업이 대규모 AI 클러스터를 효율적으로 구축하고 배포하며 확장할 수 있도록 도울 것”이라고 소개했다. 한편, HPE는 전문가 현장 지원, 맞춤형 서비스 및 지속 가능성 서비스 등 역량을 바탕으로 대규모 맞춤형 AI 클러스터를 지원하며, 글로벌 규모에서 AI 설루션을 제공한다고 소개했다. HPC 및 AI 맞춤형 지원 서비스는 고객의 요구사항에 맞게 최적화되어 있다. 여러 수준의 서비스 수준 계약(SLA)을 제공하는 HPE는 전담 원격 엔지니어를 통한 적극적인 지원으로 사고 관리 기능을 강화하고, 신속한 설치와 빠른 가치 실현 시간을 지원한다. 
작성일 : 2025-02-20
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개
엔비디아 젠슨 황, CES 2025서 ‘놀라운 속도’로 진보하는 AI 소개   CES 2025에서 엔비디아 창립자 겸 CEO 젠슨 황(Jensen Huang)이 AI와 컴퓨팅 기술의 미래를 조망했다.  젠슨 황은 1월 8일 90분간 이어진 연설에서 게이밍, 자율 주행차, 로보틱스, 그리고 에이전틱 AI(agentic AI)의 발전에 기여할 엔비디아의 최신 기술과 제품들을 공개했다. 라스베이거스 미켈롭 울트라 아레나에 6천 명이 넘는 관중이 운집한 가운데, 젠슨 황은 “AI가 놀라운 속도로 진보하고 있다”면서, AI의 발전 과정을 세 단계로 나눠 설명했다. “AI는 처음에 이미지와 단어, 소리를 이해하는 '인식형 AI(Perception AI)'에서 시작됐다. 이후 텍스트, 이미지, 소리를 생성하는 '생성형 AI(Generative AI)'가 등장했다. 그리고 이제 우리는 처리, 추론, 계획, 행동까지 가능한 물리적 AI(Physical AI) 시대에 접어들고 있다.” 젠슨 황은 이 변혁의 중심에 엔비디아 GPU와 플랫폼이 자리 잡고 있다고 강조하며, 엔비디아가 게이밍, 로보틱스, 자율 주행차 등 다양한 산업에서 혁신을 선도할 것이라고 전했다. 이번 기조연설에서는 엔비디아의 신제품과 기술이 공개됐다. 젠슨 황은 이를 통해 AI와 컴퓨팅 기술이 어떻게 미래를 재정의할지 상세히 설명했다. 엔비디아 코스모스(Cosmos) 플랫폼은 로봇과 자율 주행차, 비전 AI를 위해 새롭게 개발된 모델과 영상 데이터 프로세싱 파이프라인을 통해 물리적 AI를 발전시킬 것이다. 새로 출시될 엔비디아 블랙웰(Blackwell) 기반 지포스(GeForce) RTX 50 시리즈 GPU는 놀랍도록 사실적인 비주얼과 전례 없는 성능을 제공한다.  이번 CES에 소개된 RTX PC용 AI 기초 모델에는 디지털 휴먼(digital human)과 팟캐스트, 이미지, 동영상 제작을 도울 엔비디아 NIM 마이크로서비스와 AI 블루프린트가 포함된다. 엔비디아 프로젝트 디지츠(Project DIGITS)는 주머니에 들어가는 소형 크기의 패키지로 개발자의 데스크톱에 엔비디아 그레이스 블랙웰(Grace Blackwell)의 강력한 성능을 제공한다. 엔비디아는 토요타와 협업하면서 엔비디아 드라이브OS(DriveOS) 기반의 엔비디아 드리아브 AGX 차내 컴퓨터로 안전한 차세대 차량 개발에 힘쓰고 있다.   젠슨 황은 30년에 걸친 엔비디아의 여정을 돌아보는 것으로 키노트를 시작했다. 1999년, 엔비디아는 프로그래머블 GPU(programmable GPU)를 개발했다. 그로부터 지금까지 현대적 AI가 컴퓨팅의 작동 방식을 근본적으로 바꿔놨다. “당시 GPU의 테크놀로지 스택 레이어 하나하나가 고작 12년만에 놀라운 혁신을 경험했다.”   지포스 RTX 50 시리즈의 그래픽 혁명 젠슨 황은 “지포스는 AI가 대중에게 다가가는 계기였고, 이제 AI는 지포스의 본진이 되고 있다”고 말했다. 이 같은 평가와 함께 젠슨 황은 지금껏 개발된 제품 중 가장 강력한 지포스 RTX GPU인 엔비디아 지포스 RTX 5090 GPU 를 소개했다. 지포스 RTX 5090은 920억 개의 트랜지스터를 탑재하고 초당 3,352조 개(TOPS)의 연산을 제공한다.  젠슨 황은 “바로 이것이 우리가 처음 선보이는 블랙웰 아키텍처의 지포스 RTX 50 시리즈”라며 소개를 시작했다. 젠슨 황은 검게 처리된 GPU를 높이 들어 보이며, 이 제품이 첨단 AI를 활용해 혁신적인 그래픽을 구현하는 방법을 설명했다. 그는 “이 GPU는 문자 그대로 야수라 할 만하다. 지포스 RTX 5090의 기계적 디자인조차 기적에 가깝다”며, 해당 그래픽 카드에 냉각 팬 두 개가 장착돼 있다고 언급했다.  이번 기조연설에서는 지포스 RTX 5090 시리즈를 변형한 제품들의 출시 소식도 알렸다. 지포스 RTX 5090과 지포스 RTX 5080 데스크톱 GPU가 오는 1월 30일에 공개된다. 지포스 RTX 5070 Ti와 지포스 RTX 5070 데스크톱은 오는 2월부터 만나볼 수 있다. 랩톱 GPU는 올 3월 출시 예정이다.  DLSS 4 는 DLSS 테크놀로지를 활용한 제품군 일체와 함께 작동하는 멀티 프레임 생성(Multi Frame Generation)을 도입해 성능을 최대 8배까지 끌어올린다. 또한 엔비디아는 PC의 레이턴시(latency)를 75%까지 줄여주는 엔비디아 리플렉스(Reflex) 2 도 공개했다.  최신 DLSS의 경우, 우리가 계산하는 프레임마다 세 개의 프레임을 추가로 생성할 수 있다. 젠슨 황은 “그 결과 AI가 담당하는 계산이 크게 줄어들기 때문에 렌더링 성능이 크게 향상된다”고 말했다. RTX 뉴럴 셰 이더(RTX Neural Shaders)는 소형 신경망을 사용해 실시간 게이밍의 텍스처와 머티리얼, 빛을 개선한다. RTX 뉴럴 페이스(RTX Neural Faces)와 RTX 헤어(RTX Hair)는 생성형 AI로 얼굴과 머리카락의 실시간 렌더링을 개선해 더없이 사실적인 디지털 캐릭터를 만들어낸다. RTX 메가 지오메트리(RTX Mega Geometry)는 레이 트레이싱된 트라이앵글(triangle)의 개수를 100배까지 늘려 디테일을 강화한다.    코스모스로 진보하는 물리적 AI 젠슨 황은 그래픽의 발전상과 더불어 엔비디아 코스모스 월드 파운데이션 모델(world foundation model) 플랫폼을 소개하며, 이것이 로보틱스와 산업 AI를 크게 혁신할 것이라고 내다봤다.  그는 AI의 차세대 개척지는 물리적 AI가 될 것이라면서 이 순간을 대규모 언어 모델이 생성형 AI의 혁신에 미쳤던 거대한 영향에 비유하고 “챗GPT(ChatGPT) 같은 혁신의 순간이 로보틱스 분야 전반에 다가온 셈”이라고 설명했다.  젠슨 황은 거대 언어 모델(large language model)과 마찬가지로 월드 파운데이션 모델 또한 로봇과 AV 개발 촉진에 중요한 역할을 하지만, 이를 자체적으로 훈련할 수 있는 전문 지식과 자원을 모든 개발자가 갖추고 있는 것은 아니라고 진단했다.  엔비디아 코스모스는 생성형 모델과 토크나이저(tokenizer), 영상 프로세싱 파이프라인을 통합해 AV와 로봇 등의 물리적 AI 시스템을 강화한다.  엔비디아 코스모스의 목표는 AI 모델에 예측과 멀티버스 시뮬레이션 기능을 지원해 발생 가능한 모든 미래를 시뮬레이션하고 최적의 행위를 선택할 수 있도록 하는 것이다.   젠슨 황의 설명에 따르면 코스모스 모델은 텍스트나 이미지, 비디오 프롬프트를 수집해 가상 월드를 동영상 형태로 생성한다. 그는 “코스모스의 생성 작업은 실제 환경과 빛, 대상 영속성(object permanence) 등 AV와 로보틱스라는 고유한 활용 사례에 필요한 조건들을 최우선으로 고려한다”고 말했다. 1X와 애자일 로봇(Agile Robots), 어질리티(Agility), 피규어 AI(Figure AI), 포어텔릭스(Foretellix), 푸리에(Fourier), 갤봇(Galbot), 힐봇(Hillbot), 인트봇(IntBot), 뉴라 로보틱스(Neura Robotics), 스킬드 AI(Skild AI), 버추얼 인시전(Virtual Incision), 와비(Waabi), 샤오펑(XPENG) 등 로보틱스와 자동차 분야의 선도적인 기업들과 차량 공유 업체 우버(Uber)가 코스모스를 최초 도입했다.  또한 현대자동차 그룹은 엔비디아 AI와 옴니버스(Omniverse) 를 기반으로 더 안전하고 스마트한 차량을 개발하고, 제조를 강화하며, 최첨단 로보틱스의 활용성을 높인다. 코스모스는 오픈 라이선스로 깃허브(GitHub)에서 이용할 수 있다.    AI 기초 모델로 개발자 지원 엔비디아는 로보틱스와 자율 주행차 외에도 AI 기초 모델을 통해 개발자와 크리에이터를 지원한다.  젠슨 황은 디지털 휴먼과 콘텐츠 제작, 생산성과 개발성을 극대화하는 RTX PC용 AI 파운데이션 모델을 소개했다.  그는 “모든 클라우드에서 엔비디아 GPU를 사용할 수 있기 때문에 이 AI 기초 모델들 또한 모든 클라우드에서 실행이 가능하다. 모든 OEM에서 사용이 가능하므로 이 모델들을 가져다 여러분의 소프트웨어 패키지에 통합하고, AI 에이전트를 생성하며, 고객이 소프트웨어 실행을 원하는 어디에나 배포할 수 있다”고 전했다.  이 기초 모델들은 엔비디아 NIM 마이크로서비스로 제공되며, 신형 지포스 RTX 50 시리즈 GPU로 가속된다. 신형 지포스 RTX 50은 모델의 신속 실행에 필요한 기능을 갖추고 있으며, FP4 컴퓨팅 지원을 추가해 AI 추론을 2배까지 향상시킨다. 또한 생성형 AI 모델이 전 세대 하드웨어에 비해 더 적은 메모리 공간에서 로컬로 실행되도록 지원한다.   젠슨 황은 이처럼 새로운 툴이 크리에이터에게 어떤 잠재력을 갖는지 짚었다. 그는 “우리는 우리의 생태계가 활용할 수 있는 다양한 블루프린트를 만들고 있다. 이 모든 게 오픈 소스로 제공되므로 여러분이 블루프린트를 가져다 직접 수정해 사용할 수 있다”고 말했다.  엔비디아는 업계 최고의 PC 제조업체와 시스템 개발자들이 지포스 RTX 50 시리즈 GPU를 탑재하고 NIM을 지원하는 RTX AI PC를 내놓을 예정이다. 젠슨 황은 “AI PC들이 여러분 가까이로 찾아갈 예정”이라고 말했다. 엔비디아는 이처럼 개인 컴퓨팅에 AI 기능을 더하는 툴들을 제공하는 한편, 안전과 인텔리전스가 가장 중요하게 손꼽히는 자율 주행차 산업에서도 AI 기반 솔루션을 발전시키고 있다.   자율 주행 차량의 혁신 젠슨 황 CEO는 엔비디아 AGX 토르(Thor) 시스템 온 칩(SoC)을 기반으로 구축된 엔비디아 드라이브 하이페리온 AV(Hyperion AV) 플랫폼의 출시를 알렸다. 이 플랫폼은 생성형 AI 모델용으로 고안돼 기능 안전성과 자율 주행 기능을 강화한다.  젠슨 황은 “자율 주행차의 혁명이 찾아왔다. 자율 주행차 제작에는 로봇을 만들 때와 마찬가지로 세 대의 컴퓨터가 필요하다. AI 모델 훈련을 위한 엔비디아 DGX, 시험 주행과 합성 데이터 생성을 위한 옴니버스, 차내 슈퍼컴퓨터인 드라이브 AGX가 필요하다”고 말했다.  드라이브 하이페리온은 최초의 엔드-투-엔드(end-to-end) AV 플랫폼으로, 첨단 SoC와 센서, 차세대 차량용 안전 시스템, 센서 제품군과 액티브 세이프티(active safety)와 레벨 2 자율 주행 스택을 통합했다. 이 플랫폼은 메르세데츠 벤츠(Mercedes-Benz)와 JLR, 볼보자동차(Volvo Cars) 등 자동차 안전성 분야를 선도하는 기업들에 채택됐다.  젠슨 황은 자율 주행차의 발전에서 합성 데이터가 중요한 역할을 수행한다고 강조했다. 합성 데이터는 실세계 데이터에 한계가 존재하는 상황에서 자율 주행차 제조 단계에서의 훈련에 필수적이라고 설명했다.  엔비디아 옴니버스 AI 모델과 코스모스를 기반으로 한 이 같은 접근 방식은 “훈련 데이터의 양을 어마어마하게 늘리는 합성 주행 시나리오를 생성”한다.  엔비디아와 코스모스를 사용하는 엔비디아의 AI 데이터 공장은 “수백 개의 주행을 수십억 마일에 달하는 유효 주행으로 확장”함으로써 안전하고 진일보한 자율 주행에 필요한 데이터세트를 획기적으로 늘릴 수 있다.  젠슨 황은 “자율 주행차 훈련에 쓰일 방대한 데이터를 보유하게 될 것”이라고 덧붙였다.  세계 최대 자동차 제조사인 토요타는 안전 인증을 획득한 엔비디아 드라이브OS 운영 체제와 엔비디아 드라이브 AGX 오린(Orin)을 기반으로 차세대 차량을 생산할 것이라고 밝혔다.  젠슨 황은 “컴퓨터 그래픽이 놀라운 속도로 혁신을 이룩했듯 향후 몇 년 동안 AV 발전 속도 또한 엄청나게 빨라질 것으로 예상된다. 이 차량들은 기능 안전성과 진일보한 주행 지원 능력을 제공할 전망”이라고 말했다.    에이전트 AI와 디지털 제조 엔비디아와 협력사들은 효율적인 조사와 영상 검색, 요약을 통해 대용량 영상과 이미지를 분석할 수 있는 PDF 투 팟캐스트(PDF-to-podcast) 등 에이전틱 AI용 AI 블루프린트들을 출시했다. 이를 통해 개발자들이 어디서나 AI 에이전트를 구축, 테스트, 실행할 수 있도록 지원해왔다.  개발자는 AI 블루프린트를 활용해 맞춤형 에이전트를 배포하고 엔터프라이즈 워크플로우를 자동화할 수 있다. 이 새로운 범주의 협력사 블루프린트는 엔비디아 NIM 마이크로서비스나 엔비디아 네모(NeMo) 등의 엔비디아 AI 엔터프라이즈 소프트웨어와 크루AI(CrewAI), 데일리(Daily), 랭체인(LangChain), 라마인덱스(LlamaIndex), 웨이츠 앤 바이어시스(Weights & Biases) 등 선도적인 제공자들의 플랫폼을 통합한다.  이와 더불어 젠슨 황은 라마 네모트론(Llama Nemotron)도 새롭게 발표했다.  개발자는 엔비디아 NIM 마이크로서비스를 활용해 고객 지원과 사기 탐지, 공급망 최적화 작업용 AI 에이전트를 구축할 수 있다.  엔비디아 NIM 마이크로서비스로 제공되는 이 모델들은 가속 시스템 일체에서 AI 에이전트를 가속한다. 엔비디아 NIM 마이크로서비스는 영상 콘텐츠 관리를 간소화해 미디어 업계의 효율성과 시청자 참여도를 높인다. 엔비디아의 신기술은 디지털 분야의 애플리케이션을 넘어 AI가 로보틱스로 물리적 세계를 혁신할 길을 열어주고 있다. 그는 “지금까지 말씀드린 지원 테크놀로지 일체를 바탕으로 우리는 향후 몇 년 동안 로보틱스 전반에서 엄청난 속도의 혁신과 놀라운 변화들을 만들어내게 될 것”이라고 말했다. 제조 분야의 합성 모션 생성을 위한 엔비디아 아이작(Isaac) GR00T 블루프린트는 기하급수적으로 많은 합성 모션 데이터를 생성해 모방 학습을 통한 휴머노이드 훈련에 도움을 줄 것이다. 젠슨 황은 엔비디아 옴니버스로 수백 만 개의 휴머노이드 훈련용 합성 모션을 생성해 로봇을 효율적으로 훈련시키는 것이 중요하다고 강조했다. 메가 블루프린트는 엑센츄어(Accenture)와 키온(KION) 같은 선진 업체들이 창고 자동화를 위해 채택한 로봇들의 대규모 시뮬레이션을 지원한다.  이러한 AI 툴을 바탕으로 엔비디아의 새로운 혁신, 일명 프로젝트 디지츠로 불리는 개인용 AI 슈퍼컴퓨터가 등장했다.                                                                                             엔비디아 프로젝트 디지츠 공개 젠슨 황은 개인 사용자와 개발자 모두에게 엔비디아 그레이스 블랙웰을 쥐여주게 될 엔비디아 프로젝트 디지츠 를 공개했다. 그는 “한 가지 더 보여드리고 싶은 게 있다. 약 10년 전에 시작된 이 놀라운 프로젝트가 아니었다면 이 같은 일은 절대로 불가능했을 것이다. 이는 우리 회사 내부에서 프로젝트 디지츠라 불리던 작업이다. 딥 러닝 GPU 인텔리전스 트레이닝 시스템(deep learning GPU intelligence training system)의 약어다”라며 소개를 시작했다. 그는 2016년 최초의 엔비디아 DGX 시스템이 오픈AI(OpenAI)에 제공되던 당시를 그리며 엔비디아의 AI 슈퍼컴퓨팅 개발을 향한 여정이 남긴 유산을 되새겼다. 그는 “그 덕분에 AI 컴퓨팅의 혁명이 가능했다는 건 분명한 사실”이라고 말했다. 새로 발표된 프로젝트 디지츠는 엔비디아의 슈퍼컴퓨팅 개발 미션을 더욱 발전시켰다. 젠슨 황은 “모든 소프트웨어 엔지니어, 모든 엔지니어, 모든 크리에이티브 아티스트, 오늘날 컴퓨터를 도구로 사용하는 모든 이들에게 AI 슈퍼컴퓨터가 필요해질 것”이라고 전했다. 젠슨 황은 10기가 그레이스 블랙웰 슈퍼칩으로 구동되는 프로젝트 디지츠가 엔비디아의 가장 작지만 가장 강력한 AI 슈퍼컴퓨터라고 밝혔다. 젠슨 황은 “이것이 엔비디아의 최신 AI 슈퍼컴퓨터”라고 설명하며 프로젝트 디지츠를 선보였다. 그는 “이 제품은 엔비디아 AI 스택 전체를 구동한다. 엔비디아 소프트웨어 일체가 여기서 실행된다. DGX 클라우드 또한 마찬가지”라고 말했다.    소형이지만 강력한 프로젝트 디지츠는 오는 5월 출시를 앞두고 있다.    미래를 이끄는 엔비디아의 비전 젠슨 황은 연설을 마무리하며, 엔비디아가 30년간 혁신을 거듭해온 과정을 돌아보고,  “1999년 프로그래머블 GPU를 개발한 이후, 우리는 현대 AI가 컴퓨팅을 근본적으로 변화시키는 과정을 지켜봤다”고 말했다. CES 2025에서 공개된 엔비디아의 혁신들은 AI 기술이 산업 전반에 걸쳐 새로운 가능성을 열어줄 것을 보여줬다. 젠슨 황의 말처럼, AI는 이미 우리의 일상 속 깊숙이 자리 잡았으며, 엔비디아는 그 중심에서 미래를 선도하고 있다.  
작성일 : 2025-01-11
엔비디아, 생성형 AI의 활용 범위 넓히는 슈퍼컴퓨터 ‘젯슨 오린 나노 슈퍼’ 출시
엔비디아가 소형 생성형 AI 슈퍼컴퓨터 신제품인 ‘젯슨 오린 나노 슈퍼 개발자 키트(Jetson Orin Nano Super Developer Kit)’를 공개했다. 엔비디아는 소프트웨어 업그레이드를 통해 이전 모델에 비해 성능을 높이고 가격은 낮췄다고 밝혔다. 손바닥만한 크기의 새로운 엔비디아 젯슨 오린 나노 슈퍼 개발자 키트는 상업용 AI 개발자부터 취미로 AI를 다루는 사람, 학생에 이르기까지 다양한 사람들에게 생성형 AI 기능과 성능을 제공한다. 가격은 기존의 499달러에서 249달러로 인하됐다. 이 제품은 이전 모델에 비해 생성형 AI 추론 성능이 1.7배 향상됐고, 성능은 67 INT8 TOPS로 70% 증가했으며, 메모리 대역폭은 102GB/s로 50% 증가했다. 젯슨 오린 나노 슈퍼는 검색 증강 생성(RAG) 기반의 대규모 언어 모델(LLM) 챗봇 생성, 시각적 AI 에이전트(AI agent) 구축, AI 기반 로봇 배포 등에 적합한 설루션을 제공한다. 젯슨 오린 나노 슈퍼는 생성형 AI, 로보틱스, 컴퓨터 비전 기술 개발에 관심이 있는 사람들에게 적합하다. AI 세계가 작업별 모델에서 파운데이션 모델로 이동함에 따라 아이디어를 현실로 전환할 수 있는 접근 가능한 플랫폼도 제공한다. 젯슨 오린 나노 슈퍼의 향상된 성능은 모든 인기 있는 생성형 AI 모델과 트랜스포머 기반 컴퓨터 비전을 위한 이점을 제공한다.     개발자 키트는 젯슨 오린 나노 8GB 시스템 온 모듈(SoM)과 레퍼런스 캐리어 보드로 구성돼 에지 AI 애플리케이션 프로토타입에 적합한 플랫폼을 제공한다. 이 SoM은 텐서 코어가 포함된 엔비디아 암페어(Ampere) 아키텍처 GPU와 6코어 Arm CPU를 갖추고 있어, 여러 개의 동시 AI 애플리케이션 파이프라인과 고성능 추론을 용이하게 한다. 또한, 최대 4개의 카메라를 지원할 수 있으며 이전 버전보다 더 높은 해상도와 프레임 속도를 제공한다. 젯슨은 로보틱스를 위한 엔비디아 아이작(Isaac), 비전 AI를 위한 엔비디아 메트로폴리스(Metropolis), 센서 처리를 위한 엔비디아 홀로스캔(Holoscan)을 비롯한 엔비디아 AI 소프트웨어를 실행한다. 합성 데이터 생성을 위한 엔비디아 옴니버스 리플리케이터(Omniverse Replicator)와 NGC 카탈로그에서 사전 훈련된 AI 모델을 미세 조정하기 위한 엔비디아 타오 툴킷(TAO Toolkit)을 사용하면 개발 시간을 단축할 수 있다. 한편, 엔비디아는 새로운 젯슨 오린 나노 슈퍼에 제공되는 소프트웨어 업데이트가 이미 젯슨 오린 나노 개발자 키트를 보유하고 있는 사용자의 생성형 AI 성능도 향상시킨다고 밝혔다. 1.7배의 생성형 AI 성능을 향상시키는 소프트웨어 업데이트는 젯슨 오린 NX와 오린 나노 시리즈 시스템 모듈에서도 사용할 수 있다. 기존 젯슨 오린 나노 개발자 키트 소유자는 지금 바로 젯팩 SDK(JetPack SDK)를 업그레이드해 향상된 성능을 활용할 수 있다. 엔비디아는 “젯슨 생태계 파트너는 추가적인 AI와 시스템 소프트웨어, 개발자 도구, 맞춤형 소프트웨어 개발을 제공한다. 또한, 카메라와 기타 센서, 캐리어 보드, 제품 설루션을 위한 설계 서비스도 지원 가능하다”고 덧붙였다.
작성일 : 2024-12-19
HPE, 100% 팬리스 직접 수냉 방식 시스템 아키텍처 공개
HPE는 ‘AI 데이(AI Day)’ 행사에서 대규모 AI 배포 시 에너지 및 비용 효율성을 극대화할 수 있는 100% 팬리스 직접 수냉 방식(Fanless DLC)의 시스템 아키텍처를 발표했다.  차세대 가속기의 효율성이 향상되고 있지만, AI 채택의 증가로 전력 소비는 계속해서 늘어나 기존의 냉각 기술의 한계를 초과하고 있다. 이에 따라, 대규모 AI 워크로드를 운영하는 조직들은 더 효율적인 냉각 기술을 필요로 하고 있다. HPE는 “차세대 AI 시스템을 냉각하는 최적의 방법은 HPE의 업계 선도적인 DLC를 활용하는 것”이라면서, “이 냉각 기술 덕분에 HPE의 시스템은 세계에서 가장 에너지 효율적인 슈퍼컴퓨터를 선정하는 그린500(Green500) 리스트의 상위 10대 슈퍼컴퓨터 중 7대를 제공했다”고 전했다. HPE가 발표한 팬리스 DLC 시스템 아키텍처는 네 가지의 핵심 요소를 기반으로 설계되었다. 여기에는 ▲GPU, CPU, 풀 서버 블레이드, 로컬 스토리지, 네트워크 패브릭, 랙/캐비닛, 팟/클러스터, 냉각분배장치(CDU)을 포함하는 8가지 요소 냉각 설계 ▲복잡한 컴퓨팅 및 냉각 시스템의 성공적인 배포를 지원하기 위한 철저한 테스트, 모니터링 소프트웨어, 현장 서비스를 포함한 고집적도 및 고성능 시스템 설계 ▲저비용 및 저전력 연결을 통합하여 대규모 확장을 지원하는 통합 네트워크 패브릭 설계 ▲가속기 선택의 유연성을 제공하는 개방형 시스템 설계 등이 포함된다. HPE에 따르면, 100% 팬리스 DLC 아키텍처는 하이브리드 직접 수냉 방식만 사용할 때보다 서버 블레이드당 냉각 전력 소비를 37% 절감하는 이점을 제공한다. 이를 통해 전력 비용, 탄소 배출량, 데이터센터의 팬 소음을 줄일 수 있으며, 이 아키텍처를 사용하는 시스템은 서버 캐비닛의 집적도를 높여, 바닥 면적을 절반으로 줄일 수 있다는 것이 HPE의 설명이다. HPE의 노하우를 바탕으로 설계된 100% 팬리스 DLC 아키텍처는 이미 대규모 생성형 AI를 구축하는 조직들이 누리고 있는 비용 및 에너지 효율성의 이점을 더 많은 조직들이 누릴 수 있도록 한다. HPE의 안토니오 네리(Antonio Neri) 회장 겸 CEO는 “조직들이 생성형 AI의 가능성을 받아들이는 동시에, 지속가능성 목표를 달성하고, 증가하는 전력 수요에 대응하며 운영 비용을 절감해야 한다. 이번에 공개한 아키텍처는 오로지 수냉 방식을 적용해, 시중의 대체 솔루션보다 에너지 및 비용 절감 측면에서 큰 이점을 제공한다. 실제로, 해당 DLC 아키텍처는 기존 공랭식 시스템에 비해 냉각 전력 소비를 90%까지 절감할 수 있다. HPE는 세계 최대 규모의 수냉식 IT 환경을 구축한 노하우와 수십 년간의 시장 리더십을 바탕으로 AI 수요를 지속적으로 확보할 수 있는 유리한 위치를 점하고 있다”고 말했다.
작성일 : 2024-10-29
엔비디아, H200 GPU로 AI 개발 강화 위한 일본 ABCI 3.0 슈퍼컴퓨터 지원
엔비디아는 일본 산업기술총합연구소(AIST)의 ABCI 3.0 슈퍼컴퓨터에 수천 개의 엔비디아 H200 텐서 코어(Tensor Core) GPU가 통합된다고 밝혔다. 또한, 휴렛팩커드 엔터프라이즈(HPE)의 크레이(Cray) XD 시스템은 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand) 네트워킹을 채택해 높은 성능과 확장성을 제공할 예정이다. ABCI 3.0은 AI 연구 개발을 발전시키기 위해 설계된 일본의 대규모 개방형 AI 컴퓨팅 인프라의 최신 버전이다. AIST와 그 사업 자회사인 AIST 솔루션스, 시스템 통합업체인 HPE가 구축 및 운영하며, 도쿄 인근 카시와에 위치한 일본 AIST 운영 시설에 설치될 예정이다.   ABCI 3.0 프로젝트는 경제 안전 기금을 통해 컴퓨팅 자원을 강화하기 위한 일본 경제산업성의 지원에 따른 것으로, METI의 10억 달러 규모 이니셔티브의 일환이다. 엔비디아는 “2023년 젠슨 황(Jensen Huang) CEO가 기시다 후미오 일본 총리를 비롯한 정재계 인사를 만나 AI의 미래를 논의한 이후 꾸준히 연구와 교육 분야에서 METI와 긴밀히 협력하고 있다”고 소개했다. 젠슨 황 CEO는 특히 생성형 AI, 로보틱스, 양자 컴퓨팅 분야의 연구 협력, AI 스타트업 투자, AI에 대한 제품 지원, 훈련, 교육을 제공하기로 약속했다.     초고밀도 데이터 센터와 에너지 효율적인 설계를 갖춘 ABCI는 AI와 빅데이터 애플리케이션 개발을 위한 강력한 인프라를 제공한다. 이 시스템은 올해 말까지 가동돼 최첨단 AI 연구와 개발 자원을 제공할 계획이다. 이 시설은 6 AI 엑사플롭(exaflops)의 컴퓨팅 용량과 410 배정밀도 페타플롭(petaflops)의 용량을 제공하며, 각 노드는 퀀텀-2 인피니밴드 플랫폼을 통해 200GB/s의 양분(bisectional) 대역폭으로 연결된다. 엔비디아 기술은 이 이니셔티브의 중심에서 수백 개의 노드에 각각 8개의 NV링크(NVLink) 연결 H200 GPU를 장착해 높은 컴퓨팅 성능과 효율성을 제공한다. 엔비디아 H200은 초당 4.8테라바이트(TB/s)의 속도로 140기가바이트(GB) 이상의 HBM3e 메모리를 제공하는 GPU이다. H200의 더 크고 빠른 메모리는 생성형 AI와 대규모 언어 모델(LLM)을 가속화하는 동시에 더 나은 에너지 효율과 낮은 총소유비용으로 HPC 워크로드를 위한 과학 컴퓨팅을 발전시킨다. 엔비디아 H200 GPU는 LLM 토큰 생성과 같은 AI 워크로드에 대해 ABCI의 이전 세대 아키텍처보다 에너지 효율이 15배 더 높다. 네트워킹 장치가 데이터에 대한 연산을 수행해 CPU의 작업을 분산(offloading)시키는 인-네트워크 컴퓨팅(In-Network Computing)과 고급 엔비디아 퀀텀-2 인피니밴드의 통합은 집약적인 AI 워크로드와 방대한 데이터 세트를 처리하는 데 필수적인 고효율, 고속, 저지연 통신을 지원한다. AIST의 다나카 요시오(Yoshio Tanaka) 이사는 “2018년 8월 우리는 세계 최초의 대규모 개방형 AI 컴퓨팅 인프라인 ABCI를 출범했다. 지난 몇 년간 ABCI를 관리해 온 경험을 바탕으로 이제 ABCI 3.0으로 업그레이드하게 됐다. 엔비디아와 HPE와의 협력을 통해 ABCI 3.0이 일본 생성형 AI 연구 개발 역량을 더욱 발전시킬 컴퓨팅 인프라로 발전하는 것이 목표”라고 말했다. AIST 솔루션스의 오가와 히로타카(Hirotaka Ogawa) 생산 겸 ABCI 운영 책임자는 “생성형 AI가 글로벌 변화를 촉진할 준비를 하고 있는 지금, 일본 내에서 연구 개발 역량을 빠르게 배양하는 것이 매우 중요하다. 엔비디아와 HPE의 협력을 통한 ABCI의 대대적인 업그레이드는 일본 산업과 학계에서 ABCI의 리더십을 강화해 일본이 AI 개발 분야에서 글로벌 경쟁력을 갖추는 미래 혁신의 기반이 될 것으로 확신한다”고 말했다.
작성일 : 2024-07-15
HPE, 미국 아르곤 국립 연구소에 엑사스케일 슈퍼컴퓨터 제공
HPE는 미국에서 열린 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에서 미국 에너지부 산하 아르곤 국립 연구소에 인텔과 협력해 엑사스케일 슈퍼컴퓨터인 ‘오로라(Aurora)’를 공급했다고 발표했다. 오로라는 시스템의 87%만 가동한 상태에서 1.012 엑사플롭(exaflop)에 도달하면서, ‘TOP500’ 슈퍼컴퓨터 차트에서 전 세계 두 번째로 빠른 슈퍼컴퓨터로 등재되었다. 오로라는 HPE가 두 번째로 제작한 엑사스케일 시스템일 뿐만 아니라 대규모의 인공지능 지원(AI-capable) 시스템이다. HPC 및 AI 워크로드 처리 성능을 측정하는 HPL 혼합 정밀도(Mixed-Precision : MxP) 벤치마크에서 전체 시스템의 89%만을 가동한 상태에서 10.6 엑사플롭을 달성했다. 엑사스케일 컴퓨팅 시스템은 초당 10의 18제곱 번의 작업을 처리할 수 있으며, 이러한 대규모 컴퓨팅 역량을 통해 인류가 당면한 어려운 문제를 해결해 나갈 수 있다. 오로라는 엑사스케일의 규모와 범위를 지원할 수 있도록 설계된 HPE 크레이 EX 슈퍼컴퓨터(HPE Cray EX supercomputer)로 구축됐다. 또한, 오로라는 단일 시스템으로는 개방형 이더넷 기반 슈퍼컴퓨팅 인터커넥트 솔루션인 HPE 슬링샷(HPE Slingshot)이 최대 규모로 배포된 시스템이기도 하다. 이러한 패브릭 시스템은 오로라의 컴퓨팅 노드 엔드포인트 7만 5000개, 2400개의 스토리지 및 서비스 네트워크 엔드포인트를 5600개의 스위치와 연결한다. 이를 통해 오로라의 컴퓨팅 블레이드 1만 624개, 인텔 제온 CPU 맥스 시리즈 프로세서(Intel Xeon CPU Max Series Processor) 2만 1248개 및 인텔 데이터 센터의 GPU 6만 3744개 유닛 전반에 걸쳐 고속 네트워킹을 지원함으로써 성능을 향상시킨다.     초기 설계 단계부터 AI 지원 시스템으로 개발된 오로라를 기반으로 연구원들은 생성형 AI 모델을 구동함으로써 과학 발전을 더욱 가속할 수 있게 되었다. 일례로 과학자들은 인간 두뇌 속 800억 개의 뉴런에 대해 더 깊이 연구하기 위한 브레인 매핑(brain mapping : 뇌 지도화) 연구, 딥러닝을 활용한 고에너지 입자 물리학, 머신 러닝 기술을 통한 신약 설계 및 개발 등 오로라를 활용해 초기 AI 기반 연구를 진행한 바 있다. 오로라 엑사스케일 슈퍼컴퓨터는 HPE, 인텔, 미국 에너지부, 아르곤 국립 연구소간 파트너십의 결과로, 혁신 엔지니어링 기술로 과학 기술 발전에 이바지하기 위해 공동 투자 및 협력을 진행했다. 오로라 초기 과학 프로그램(Aurora Early Science Program)을 통해 입증된 바와 같이 민관 부문의 파트너십은 과학 기술 진보를 위해서 필수이다. 나아가, 연구원들은 오로라 시스템의 최적화 및 스트레스 테스트(stress-test) 과정의 일환으로 이미 다양한 프로그래밍 모델, 언어 및 애플리케이션을 시스템에서 성공적으로 실행했다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 솔루션 담당 수석 부사장 겸 총괄은 “오로라는 세계가 당면한 가장 어려운 문제들을 해결하고 획기적인 과학 기술을 발견하기 위한 대규모 컴퓨팅 역량을 제공할 수 있으며, 이러한 오로라를 통해 엑사스케일 컴퓨팅에 또 하나의 이정표를 만들어갈 수 있게 되었다”면서, “HPE는 미국 에너지부, 아르곤 국립 연구소, 그리고 인텔과의 견고한 파트너십을 통해 이러한 대규모 수준의 시스템을 현실화할 수 있게 된 점을 자랑스럽게 여기며, 이러한 성과는 혁신적인 공동 엔지니어링, 다양한 부서들의 협력 그리고 무엇보다 과학 발전과 인류를 위해 최첨단 기술을 발전시키겠다는 핵심 가치를 공유함으로써 달성할 수 있었다”고 말했다.
작성일 : 2024-05-23
HPE, 크레이 슈퍼컴퓨터로 씨유박스의 영상인식 AI 개발 지원
HPE는 인공지능(AI) 얼굴 및 영상인식 전문기업인 씨유박스(CUBOX)가 HPE 크레이 XD 슈퍼컴퓨터(HPE Cray XD Supercomputer)를 활용하여 기존 영상인식 솔루션을 훈련시키기 위한 생성형 AI 모델을 개발하고 있다고 발표했다. 씨유박스는 해당 시스템을 통해 새로운 영상 처리 기술 개발에 중점을 두고 혁신을 더욱 강화할 계획이다. 얼굴인식 기술 기반 보안 분야의 국내 기업인 씨유박스는 인천국제공항 내 자동 출입국 심사대 및 주요 정부 기관에 얼굴인식 단말기를 공급하고 있다. 씨유박스는 이번 HPE 크레이 XD 슈퍼컴퓨터의 도입을 통해 생성형 AI 모델 훈련을 최적화한다는 계획이다. 기존 공공시장(B2G)에서 더 나아가 금융 부문 AI 솔루션에 중점을 두고 B2B 시장으로 영역을 더욱 확대하고 있는 씨유박스는 다양한 B2C 서비스를 구축하는데 있어 생성형 AI 역할의 중요성을 인식하고, B2C AI 서비스 모델에 대한 투자도 이어가고 있다.  씨유박스의 시스템은 HPE 크레이 XD6500 슈퍼컴퓨터를 사용하여 구축되었다. 이 시스템은 이론상 최대 8.136 페타플롭스(petaFLOPs)의 성능을 제공하며, 전 세계 슈퍼컴퓨터 순위인 TOP500 목록에서 156위를 차지했다. HPE 크레이 XD 슈퍼컴퓨터의 향상된 컴퓨팅 성능과 첨단 기능은 씨유박스가 영상, 텍스트, 음성 및 비디오 처리의 기반이 되는 대규모 언어모델(LLM) 및 대규모 멀티모달모델(LMM)과 같은 대규모 AI 기술을 지원하는 기술 로드맵을 수립하는데 핵심 역할을 했다는 것이 HPE의 설명이다. 씨유박스의 남운성 대표는 “씨유박스는 영상인식 기술의 발전을 주도하고, AI 기반 솔루션으로 인간 상호작용을 새롭게 정의하며 보안을 발전시키는 미래를 만들어가고 있다. 새로운 인프라를 기반으로 생성형 AI 서비스를 구축하여 사업을 확장하고, 의료 서비스, 로봇 시스템 및 디지털 트윈과 같은 새로운 비즈니스에 영상 인식 솔루션을 적용하고 있다”고 전했다. 한국HPE의 김영채 대표이사는 “AI, 모델링, 시뮬레이션 등의 작업은 강력한 스케일링과 대규모 성능이 필요하다. 슈퍼컴퓨터는 이러한 컴퓨팅 및 데이터 집약적인 워크로드를 효율적으로 지원할 수 있는 이상적인 플랫폼을 제공한다. 세계에서 가장 강력한 슈퍼컴퓨터 중 하나를 구동하여 씨유박스를 지원하고, 정부 기관 및 다양한 조직의 혁신을 촉진하는 영상인식 솔루션을 발전시키는데 기여할 수 있게 되어 영광스럽게 생각한다”고 말했다.
작성일 : 2024-04-30
CFD 시스템 설계 및 분석 가속화를 위한 밀레니엄 M1
성공적인 유동 해석을 위한 케이던스의 CFD 기술 (8)   전산 유체 역학(CFD) 시뮬레이션은 긴 설계 주기를 단축하고 비용이 많이 드는 실험 횟수를 줄이기 위해 널리 사용되어 왔다. 하지만 기존 CFD 솔버 기술과 컴퓨팅 리소스의 정확도와 속도 제한으로 인해 CFD 분석의 잠재력이 제한되었다. 이러한 문제로 인해 일반적으로 CFD 사용자는 효율적인 가상 엔지니어링을 수행하지 못했다. 턴키 CFD 솔루션인 케이던스 밀레니엄 M1(Millennium M1) CFD 슈퍼컴퓨터는 대형 와류 시뮬레이션(LES)을 위한 케이던스 피델리티(Fidelity) LES 솔버와 같은 그래픽 처리 장치(GPU) 상주 CFD 솔버와 확장 가능한 고성능 컴퓨팅(HPC) 하드웨어의 조합으로 이러한 장애물을 극복하여 전례 없는 성능을 발휘한다. 고품질 합성 데이터의 신속한 생성을 통해 제너레이티브 AI(generative AI)는 정확도 저하 없이 최적의 시스템 설계 솔루션을 빠르게 식별할 수 있다.   ■ 자료 제공 : 나인플러스IT, www.vifs.co.kr   밀레니엄 M1은 처리 시간을 며칠에서 몇 시간으로 단축하여 항공우주, 자동차, 발전 및 터보 기계 애플리케이션에서 LES의 실제 적용 범위를 확장한다.   그림 1. 케이던스 밀레니엄 M1 CFD 슈퍼컴퓨터   밀레니엄 M1의 주요 효과 밀레니엄 M1은 설계 시간 및 컴퓨팅 리소스 절약 효과를 가져다줄 수 있다.   GPU 가속  고성능의 GPU 상주 CFD 솔버가 최저 전력 소비로 빠른 시간 내에 결과를 제공한다.   턴키 솔루션 바로 사용할 수 있는 단일 CFD 슈퍼컴퓨팅 솔루션을 위해 피델리티 CFD 소프트웨어와 HPC 하드웨어를 결합한다.   최적화된 성능 확장 가능한 HPC 아키텍처와 최신 GPU 상주 솔버가 최적의 시스템 성능을 위해 튜닝되었다.   뛰어난 확장성  빠른 처리 시간을 위해 애플리케이션에 따라 스택형 컴퓨팅 노드를 확장할 수 있다.   표 1. 밀레니엄 M1은 자동차, 항공우주 및 터보 기계 애플리케이션을 위한 당일 시뮬레이션 처리 시간을 제공한다.   밀레니엄 M1의 특징 밀레니엄 M1은 CFD 슈퍼컴퓨팅을 위한 통합 하드웨어 및 소프트웨어 플랫폼이다.   GPU 가속 GPU 가속화는 항공우주, 자동차, 터보 기계 및 기타 여러 산업에 막대한 영향을 미치며 고충실도 CFD를 혁신하고 있다. CFD에 GPU 컴퓨팅을 활용하면 엔지니어링 효율성을 높일 수 있다. 주어진 컴퓨팅 투자에 대해 피델리티 LES 솔버는 CPU 대비 최대 10배의 처리량 증가를 제공한다. 고정된 시뮬레이션 처리량의 경우, CPU 컴퓨팅 대비 GPU 컴퓨팅의 에너지 요구량 감소는 약 17배이다.   그림 2. 합동 타격 미사일(JSM) 기체용 밀레니엄 M1의 피델리티 LES 확장성 확장성 밀레니엄 M1은 외부 공기역학 및 항공 음향에서 연소 및 다중 물리학에 이르기까지 애플리케이션 전반에 걸쳐 거의 선형에 가까운 확장을 제공한다. 이 제품은 두 개의 GPU 노드에서 14시간 이내에 착륙 구성의 실제 항공기를 정확하게 시뮬레이션하는 등, 빠른 시간 내에 결과를 얻을 수 있는 대규모 LES 시뮬레이션을 지원한다.   고충실도 LES 밀레니엄 M1의 피델리티 LES 솔버는 고급 수치 방법과 모델을 결합하여 GPU 가속을 통해 비용 효율적이고 높은 처리량의 시뮬레이션을 제공한다. 고유한 솔버 이산화가 최신 서브 그리드 스케일 및 벽 모델링과 결합되어 그리드 해상도에 높은 견고성을 제공하는 LES 기능을 제공한다.   그림 3. 다양한 메시 크기에 대한 샌디아 플레임 D 실험과 Fidelity CharLES 결과 비교     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01