• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "GPU"에 대한 통합 검색 내용이 1,710개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 모바일 워크스테이션 위한 RTX 500/RTX 1000 에이다 제너레이션 GPU 발표
엔비디아가 새로운 RTX 500과 RTX 1000 에이다 제너레이션(Ada Generation) 노트북 GPU가 모바일 워크스테이션에 제공될 예정이라고 밝혔다. 이로써 엔비디아는 RTX 2000, 3000, 3500, 4000, 5000 에이다 제너레이션 노트북 GPU를 포함한 엔비디아 에이다 러브레이스(Lovelace) 아키텍처 기반 라인업을 확장하게 됐다. 생성형 AI와 하이브리드 업무 환경이 새로운 표준이 되고 있다. 이에 따라 콘텐츠 제작자, 연구원, 엔지니어 등 많은 전문가들이 이동 중에도 어려운 작업을 처리할 수 있도록 강력한 AI(인공지능) 가속 노트북이 요구되고 있다. AI는 전문적인 디자인, 콘텐츠 제작 워크플로, 일상적인 생산성 애플리케이션 전반에서 효율성을 높이기 위해 도입되고 있으며, 이에 따라 강력한 로컬 AI 가속과 충분한 처리 능력을 갖춘 시스템의 중요성이 더욱 강조되고 있다.     RTX 500과 RTX 1000 GPU를 비롯한 에이다 제너레이션 GPU가 탑재된 차세대 모바일 워크스테이션에는 CPU의 구성 요소인 신경망처리장치(NPU)가 포함된다. 또한 AI 처리용 텐서 코어(Tensor Core)가 탑재된 엔비디아 RTX GPU도 장착된다. NPU는 간단한 AI 작업을 처리하는 데 도움을 주며, GPU는 더 고난도의 일상적인 AI 워크플로를 위해 최대 682 TOPS의 AI 성능을 추가로 제공한다. GPU가 제공하는 높은 수준의 AI 가속은 다양한 AI 기반 작업을 처리하는 데 유용하다. 예를 들어, 고품질 AI 효과를 지원하는 화상 회의, AI 업스케일링이 적용된 비디오 스트리밍, 생성형 AI와 콘텐츠 제작 애플리케이션을 통한 신속한 업무 처리 등이 있다. 엔비디아는 “새로운 RTX 500 GPU는 CPU만 사용하는 구성에 비해 스테이블 디퓨전(Stable Diffusion)과 같은 모델에서 최대 14배의 AI 생성 성능, 최대 3배의 AI 사진 편집 속도, 최대 10배의 3D 렌더링 그래픽 성능을 제공한다. 이는 기존과 새로운 워크플로에서 생산성을 크게 높일 수 있다”고 전했다. RTX 500과 RTX 1000 GPU는 콤팩트한 디자인으로 어디서든 노트북 사용자의 AI 워크플로를 향상시킨다. 비디오 편집자는 AI로 배경 노이즈 제거와 같은 작업을 간소화할 수 있다. 그래픽 디자이너는 AI 업스케일링으로 흐릿한 이미지에 생동감을 불어넣을 수 있다. 전문가들은 이동 중에도 고품질의 화상 회의와 스트리밍 환경을 위해 AI를 활용한 작업이 가능하다. 엔비디아의 에이다 러브레이스 아키텍처를 기반으로 하는 RTX 500과 RTX 1000 GPU에 탑재된 3세대 RT 코어는 이전 세대 대비 최대 2배 향상된 레이 트레이싱(ray tracing) 성능으로 고품질의 사실적인 렌더링을 지원한다. 4세대 텐서 코어를 탑재해 이전 세대 대비 최대 2배의 처리량으로 딥러닝 훈련, 추론, AI 기반 크리에이티브 워크로드 등을 가속화하며, 에이다 제너레이션 쿠다(CUDA) 코어는 이전 세대 대비 최대 30% 향상된 FP32 처리량으로 그래픽과 컴퓨팅 워크로드 성능을 높인다. RTX 500 GPU에는 4GB, RTX 1000 GPU에는 6GB의 전용 GPU 메모리가 탑재됐다. 이를 통해 사용자는 까다로운 3D와 AI 기반 애플리케이션을 실행하며 대규모 프로젝트, 데이터 세트 그리고 멀티 앱 워크플로를 처리할 수 있다. 이외에도 RTX 500 및 RTX 1000 GPU는 AI 기반으로 그래픽을 개선하고 고품질 프레임을 추가로 생성해 성능을 높이는 DLSS 3 및 AV1을 지원해 H.264보다 최대 40% 더 효율적인 8세대 엔비디아 인코더(NVENC) 등을 지원한다.
작성일 : 2024-02-28
인텔, “새로운 HPC 클러스터로 AI 처리 능력 2배 향상”
인텔은 델 테크놀로지스, 엔비디아, 오하이오 슈퍼컴퓨터 센터(OSC)와 협업한 결과로 최첨단 고성능 컴퓨팅(HPC) 클러스터인 카디널(Cardinal)을 공개했다. 카디널은 연구, 교육 및 산업 혁신, 특히 인공지능(AI) 분야에서 증가하는 지역 내 HPC 리소스 수요를 충족하기 위해 설계되었다. AI와 머신러닝은 과학, 공학, 바이오 의학 분야에서 복잡한 연구 문제를 해결하기 위해 필수로 활용되고 있다. 이러한 기술의 효능이 지속적으로 입증되면서 농업 과학, 건축학, 사회학과 같은 학문 분야에서도 활용도 늘어나고 있다. 카디널 클러스터는 증가하는 AI 워크로드의 수요를 충족할 수 있는 하드웨어를 갖추고 있다. 인텔은 이 새로운 클러스터가 “2016년에 출시된 오웬스 클러스터(Owens Cluster)를 대체할 시스템보다 기능과 용량 모든 면에서 더 대규모의 업그레이드가 될 것”이라고 밝혔다.     카디널 클러스터는 메모리 사용량이 많은 HPC 및 AI 워크로드를 효율적으로 관리하는 동시에 프로그래밍 기능, 이식성(portability) 및 에코시스템 채택을 촉진하는 기반이 되는 델 파워엣지(Dell PowerEdge) 서버와 고대역폭 메모리(HBM)를 갖춘 인텔 제온 CPU 맥스 시리즈(Intel Xeon CPU Max Series)를 활용한 이기종 시스템이다. 이 시스템은 총 3만 9312 개의 CPU 코어를 제공하는 756개 맥스 시리즈(Max Series) CPU 9470 프로세서와 128 기가바이트(GB) HBM2e 및 노드 당 512 GB의 DDR5 메모리를 탑재했다. 단일 소프트웨어 스택과 x86 기반 기존 프로그래밍 모델을 갖춘 이 클러스터는 광범위한 사용 케이스를 처리하고 쉽게 도입 및 배포할 수 있도록 지원하면서 OSC의 처리 능력을 두 배 이상 향상시킬 수 있다. 또한, 이 시스템은 32개의 노드로 104개의 코어, 1테라바이트(TB)의 메모리, 4개의 NV링크(NVLink) 연결로 상호 연결된 94GB HBM2e 메모리를 갖춘 엔비디아 호퍼 아키텍처 기반 H100 텐서 코어(H100 Tensor Core) GPU 4개를 탑재했다. 초당 400기가비트(Gbps)의 네트워킹 성능과 짧은 지연 시간을 제공하는 엔비디아 퀀텀-2(Nvidia Quantum-2) 인피니밴드(InfiniBand)로 대규모 AI 기반 과학 애플리케이션을 위한 500페타플롭(petaflop)의 최고 AI 성능(희소성 포함 FP8 텐서 코어)을 제공하며, 16개의 노드에 104개의 코어, 128GB HBM2e 및 2TB DDR5 메모리를 탑재해 대규모 대칭형 멀티프로세싱(SMP) 스타일 작업을 처리할 수 있다. 인텔의 데이터 센터 AI 솔루션 제품군을 총괄하는 오기 브르기치(Ogi Brkic) 부사장은 “인텔 제온 CPU 맥스 시리즈는 널리 채택된 AI 프레임워크와 라이브러리를 활용하여 HPC 및 AI 워크로드를 개발하고 구현하는 데 최적의 선택지”라면서, “이 시스템의 고유한 이기종성을 통해 OSC의 엔지니어, 연구원 및 과학자들이 이 시스템이 제공하는 두 배 이상 메모리 대역폭 성능을 최대한 활용할 수 있도록 지원할 것”이라고 전했다.
작성일 : 2024-02-23
엔비디아, 구글과 협력해 AI 모델 ‘젬마’ 최적화
  엔비디아가 구글과 협력해 모든 엔비디아 AI 플랫폼에서 AI 모델 ‘젬마(Gemma)’를 위한 최적화를 진행해, 비용을 절감하고 도메인별 용도에 따라 작업 속도를 높였다고 밝혔다. 젬마는 구글의 새로운 경량 오픈 언어 모델로, 20억(2B) 개 파라미터와 70억(7B) 개 파라미터 크기로 제공된다. 젬마는 구글의 멀티모달 모델인 제미나이(Gemini) 개발에 사용된 동일한 연구와 기술을 기반으로 구축됐다. 엔비디아는 구글과 협력해 엔비디아 텐서RT-LLM(TensorRT-LLM)으로 젬마의 성능을 가속화했다. 텐서RT-LLM은 데이터센터, 클라우드 혹은 엔비디아 RTX GPU가 탑재된 PC에서 대규모 언어 모델(LLM) 추론을 최적화하는 오픈 소스 라이브러리이다. 이를 통해 개발자는 전 세계 고성능 AI PC에 탑재된 1억 개 이상의 엔비디아 RTX GPU를 활용할 수 있다. 개발자들은 클라우드 상의 엔비디아 GPU에서도 젬마를 실행할 수 있다. 여기에는 H100 텐서 코어(H100 Tensor Core) GPU를 기반으로 하는 구글 클라우드 A3인스턴스(A3 instances)가 포함되며, 초당 4.8테라바이트의 141GB HBM3e 메모리를 갖춘 엔비디아 H200 텐서 코어 GPU도 합류할 예정이다. 구글은 올해 안에 이를 배포할 예정이라고 전했다. 엔비디아는 네모 프레임워크(NeMo Framework)가 적용된 엔비디아 AI 엔터프라이즈(AI Enterprise)와 텐서RT-LLM을 비롯한 광범위한 도구를 갖추고 있다. 엔터프라이즈 개발자는 이들을 추가로 활용해 젬마를 미세 조정하고 최적화된 모델을 프로덕션 애플리케이션에 배포할 수 있다. 한편, 엔비디아는 자사의 기술 데모인 챗 위드 RTX(Chat with RTX)에 곧 젬마가 추가로 지원될 예정이라고 전했다. 챗 위드 RTX는 검색 증강 생성(Retrieval-augmented generation : RAG)과 텐서RT-LLM 소프트웨어를 사용해 로컬 RTX 기반의 윈도우 PC에서 사용자에게 생성형 AI 기능을 제공하는 기술이다. 사용자는 챗 위드 RTX를 통해 PC의 로컬 파일을 LLM에 쉽게 연결하고, 자신의 데이터로 챗봇을 개인화할 수 있다. 챗 위드 RTX는 로컬에서 모델이 실행되므로 결과가 빠르게 제공되며 사용자 데이터가 디바이스에 유지된다. 클라우드 기반 LLM 서비스에 대신 챗 위드 RTX를 사용하면 민감한 데이터를 제3자와 공유하거나 인터넷에 연결할 필요 없이 로컬 PC에서 처리할 수 있다.
작성일 : 2024-02-23
델, “업무에 AI 활용하기 위해 워크스테이션 도입 고려하는 기업 증가”
한국 델 테크놀로지스는 한국IDG와 발간한 ‘업무용 PC 및 워크스테이션 사용 현황 조사’ 보고서에서 올해 AI 관련 IT 투자 계획을 갖고 있는 기업이나 공공기관 중에 워크스테이션을 최초로 도입하겠다는 곳이 약 63%로 나타났다고 밝혔다. 이번 조사는 AI 등 고부하 워크로드가 늘어나는 추세에 따라 워크스테이션의 도입 현황과 향후 전망을 파악하기 위해 실시됐으며, 2023년 11월 2주간 기업의 IT 담당자과 일반 사무직 및 제조·연구 개발 엔지니어 등 전문 직무 사용자 2725명을 대상으로 진행됐다. 조사에 따르면 AI 워크로드를 처리하기 위해 워크스테이션을 도입할 기업 및 공공기관들이 크게 늘어날 것으로 보인다. 현재 일반 업무용 PC만 사용하고 있으나 추후 AI 관련 업무를 위해 IT 기기 및 인프라 도입을 계획하고 있는 기업 및 공공기관의 63%가 워크스테이션 도입을 고려하고 있다고 밝혔다. 한편, 작년에 AI 관련 업무에 워크스테이션을 사용한 기업 및 공공기관은 10% 이하에 머물렀지만, 올해는 그 비율이 48.9%로 증가할 것으로 나타났다. 기업 규모 측면에서는 이미 워크스테이션을 사용하는 스타트업 중 AI 관련 업무에 워크스테이션 추가 도입을 계획하고 있다는 응답이 74.1%였다. 일반 업무용 PC만 사용하는 스타트업도 AI 관련 업무를 위해 워크스테이션을 새로 도입하려고 한다는 응답이 69.2%로, 대기업(66.7%)이나 중견기업(58.3%)보다 높게 나타났다. 대규모 IT 인프라를 활용하기 어려운 스타트업들이 AI 워크로드를 로컬에서 수행할 수 있는 워크스테이션에 높은 관심을 보이는 것으로 해석할 수 있다.  어떤 AI 워크로드에 워크스테이션을 본격적으로 활용할 계획인지 기업 및 공공기관의 IT 담당자들을 대상으로 조사한 결과, AI 모델 트레이닝(45.6%), 시뮬레이션 및 테스트(45.6%), 학습 데이터 준비 및 가공(25.0%) 순으로 나타났다. 이는 지난해 AI 모델 트레이닝(4.3%)과 시뮬레이션 및 테스트(2.9%)에 워크스테이션을 주로 활용했다는 수치와 차이가 나는 결과다.     또한, 이번 조사에 따르면 제조·연구개발 엔지니어(67.3%), IT 개발자(58.4%) 등 전문 직무 응답자의 과반수 이상이 추후 데이터 집약적인 업무를 처리하기 위해 워크스테이션 제품을 사용할 의향이 있다고 답했다. 현재 워크스테이션의 최대 활용 분야 역시 엔지니어링 영역에서 많이 사용하는 프로그램인 CAD/CAM(24.7%) 및 소프트웨어 개발(17.6%)인 만큼 고성능 CPU 및 GPU가 요구되는 분야에서 워크스테이션을 선호하는 것으로 나타났다.   한편 55.5%의 일반 사무직 응답자 또한 추후 업무를 위해 워크스테이션을 도입할 의사를 밝혔다. 최근 일반적인 업무 환경에서 다루는 워크로드의 규모가 전반적으로 증가한 것이 영향을 미친 것으로 보인다. 예컨대 일반 PC 사용자들이 다수의 오피스 소프트웨어를 사용하는 동시에 팀즈나 줌 등의 화상회의 프로그램까지 함께 사용하는 경우가 많아, 더 많은 컴퓨팅 파워가 필요해졌기 때문으로 풀이된다.  워크스테이션은 전문적인 업무를 처리할 수 있도록 설계돼 높은 성능과 안정성이 필수다. 현재 워크스테이션을 사용하는 응답자들은 워크스테이션의 CPU 및 GPU 성능(85.3%)과 스토리지 및 메모리(56.0%)를 고려해 도입했다고 답했으며, 시스템 안정성(39.7%)이 그 뒤를 이었다. 현재 일반 업무용 PC를 사용하고 있는 답변자들 또한 워크스테이션에 관심을 가지는 이유로 고성능(44.1%)을 꼽았고, 필요에 따라 성능을 편리하게 확장할 수 있는 유연성(33.7%)도 비교적 큰 비중을 차지해 고성능 시스템에 대한 수요가 지속될 것으로 보인다.  한국 델 테크놀로지스의 김경진 총괄사장은 “AI와 같은 고부하 워크로드의 증가로 새로운 변화가 빠르게 진행될수록, 국내 기업의 고성능 PC에 대한 수요는 계속 증가할 것이라는 점을 이번 조사를 통해 확인했다. 워크스테이션은 AI 혁신을 가속할 수 있는 최적화된 도구이자 비용 효율적인 대안”이라며, “델 테크놀로지스의 워크스테이션 제품군은 고성능과 안정성뿐 아니라 확장성과 보안 역량을 갖춘 제품군으로, 델 테크놀로지스는 기업들이 워크스테이션을 통해 비즈니스 가치를 극대화할 수 있도록 전략과 고객 지원 체계를 더욱 강화해 나갈 것”이라고 전했다.
작성일 : 2024-02-15
엔비디아, RTX 기반 원도우 AI PC에 맞춤형 챗봇 제공
엔비디아가 사용자만의 콘텐츠로 챗봇을 개인화할 수 있는 ‘챗 위드 RTX(Chat With RXT)’를 윈도우 PC에서 제공한다고 밝혔다. 챗 위드 RTX는 사용자가 자신만의 콘텐츠로 챗봇을 개인화할 수 있는 기술 데모이다. 최소 8GB의 비디오 랜덤 액세스 메모리 또는 VRAM을 갖춘 로컬 엔비디아 지포스 RTX 30(GeForce RTX 30) 시리즈 GPU 이상으로 가속되며, 현재 무료로 다운로드가 가능하다. 챗 위드 RTX는 검색 증강생성(RAG), 엔비디아 텐서RT-LLM(TensorRT-LLM) 소프트웨어, 엔비디아 RTX 가속화 등을 사용해 로컬 지포스 기반 윈도우 PC에 생성형 AI 기능을 제공한다. 사용자는 PC의 로컬 파일을 데이터셋으로 미스트랄(Mistral)이나 라마 2(Llama 2)와 같은 오픈소스 LLM(대규모 언어 모델)에 빠르고 쉽게 연결해 상황에 맞는 빠른 답변을 얻을 수 있다.     사용자들은 메모나 저장해둔 콘텐츠를 검색하는 대신 간단한 검색어를 입력해 챗봇을 이용할 수 있다. 예를 들어 “라스베가스에 있을 때 내 친구가 추천한 레스토랑이 어디야?”라고 질문하면, 챗 위드 RTX가 사용자가 지정한 로컬 파일을 스캔해 상황에 맞는 답변을 제공한다. 이 도구는 *.txt, *.pdf, *.doc/*.docx, *.xml 등 다양한 파일 형식을 지원한다. 애플리케이션에서 해당 형식의 파일들을 포함한 폴더를 가리키면, 이 파일들은 몇 초 만에 라이브러리에 로드된다. 사용자는 유튜브 동영상 혹은 재생 목록의 정보도 포함할 수 있다. 챗 위드 RTX에 동영상 URL을 추가하면 사용자는 해당 정보를 챗봇에 통합해 상황에 맞는 질문을 할 수 있다. 예를 들어, 좋아하는 인플루언서 동영상의 콘텐츠를 기반으로 여행 추천을 요청하거나, 우수한 교육 자료를 기반으로 빠른 튜토리얼과 사용법을 안내를 받을 수 있다. 챗 위드 RTX는 윈도우 RTX PC와 워크스테이션에서 로컬로 실행되므로 결과가 빠르게 제공되고, 사용자의 데이터는 디바이스에 그대로 유지된다. 또한, 클라우드 기반 LLM 서비스 대신 챗 위드 RTX를 사용하면 민감한 데이터를 제3자와 공유하거나 인터넷에 연결하지 않고도 처리할 수 있다. 챗 위드 RTX는 최소 8GB의 VRAM이 탑재된 지포스 RTX 30 시리즈 이상의 GPU와 윈도우 10, 11 그리고 최신 엔비디아 GPU 드라이버에서 사용 가능하다.
작성일 : 2024-02-14
엔비디아, 차세대 AI 디자인과 시각화를 위한 RTX 2000 에이다 제너레이션 GPU 출시
엔비디아가 차세대 AI 가속화 시대를 위한 엔비디아 RTX 2000 에이다 제너레이션 GPU(NVIDIA RTX 2000 Ada Generation GPU)를 출시했다고 밝혔다. 현재 산업 전반에 걸쳐 변화를 주도하고 있는 생성형 AI의 이점을 활용하기 위해 기업들은 워크플로를 작동시킬 수 있는 적절한 하드웨어를 선택해야 한다. 엔비디아 RTX 2000 에이다 제너레이션은 최신 AI, 그래픽, 컴퓨팅 기술을 컴팩트 워크스테이션에 적용해 전문가용 워크플로에서 이전 세대 RTX A2000 12GB 대비 최대 1.5배의 성능을 제공한다. 새로운 GPU는 정교한 3D 환경 제작부터 복잡한 설계 검토의 간소화, 산업 디자인에 이르기까지 다양한 기능을 처리할 수 있다. 향상된 기능은 전문가들이 성능의 저하 없이 더 많은 것을 실현할 수 있도록 지원하며 AI로 가속화된 미래를 위한 기반을 제공한다. AI 기반 도구, 멀티 디스플레이 설정, 고해상도 콘텐츠 등과 같은 최신 멀티 애플리케이션 워크플로에는 GPU 메모리에 대한 요구가 상당히 높다. 전문가들은 RTX 2000 에이다 제너레이션의 16GB 메모리를 통해 최신 기술과 도구를 활용해 데이터를 더욱 빠르고 효과적으로 작업할 수 있다. 엔비디아 RTX 기술로 구동되는 새로운 GPU는 엔비디아 DLSS를 통해 그래픽에 높은 사실감을 부여한다. 이를 통해, 이전보다 3배 이상 빠른 초고화질의 실사에 가까운 레이 트레이싱 이미지를 제공할 수 있다. 또한, RTX 2000 에이다 제너레이션은 제품 디자인과 엔지니어링 설계 검토와 같은 엔터프라이즈 가상 현실 워크플로에 몰입감 높은 경험을 제공한다.     성능과 활용성에 AI 기능까지 결합된 RTX 2000 에이다 제너레이션은 다양한 산업 분야의 전문가들이 효율성을 달성할 수 있도록 지원한다. 건축가와 도시 설계사는 시각화 워크플로와 구조 분석을 가속화해 설계 정밀도를 높일 수 있다. 산업용 PC를 사용하는 제품 디자이너와 엔지니어는 빠르고 사실적인 렌더링과 AI 기반 생성 디자인을 통해 제품 디자인의 반복 작업을 수행할 수 있다. 콘텐츠 크리에이터는 고해상도 동영상과 이미지를 원활하게 편집하고, AI를 활용한 사실적인 시각 효과를 연출해 콘텐츠 제작에 도움을 받을 수 있다. 아울러 중요한 임베디드 애플리케이션과 에지 컴퓨팅에서 RTX 2000 에이다 제너레이션은 의료 기기의 실시간 데이터 처리를 지원한다. 또한, 예측 유지보수를 통해 제조 공정을 최적화하거나 유통  환경에서 AI 기반 인텔리전스를 구현할 수 있다. 엔비디아 RTX 2000 에이다 제너레이션은 엔비디아 에이다 러브레이스(Lovelace) GPU 아키텍처의 최신 기술을 탑재하고 있다. 여기에는 ▲최대 1.7배 빠른 레이 트레이싱 성능으로 충실하고 사실적인 렌더링이 가능한 3세대 RT 코어 ▲이전 세대 대비 최대 1.8배의 AI 처리량, 구조화된 희소성, FP8 정밀도로 AI 가속 도구와 애플리케이션에 더 높은 추론 성능을 제공하는 4세대 텐서 코어 ▲이전 세대 대비 최대 1.5배의 FP32 처리량으로 그래픽과 컴퓨팅 워크로드의 성능이 향상된  쿠다(CUDA) 코어 ▲이전 세대와 동일한 70W의 전력으로 전문가용 그래픽, 렌더링, AI, 컴퓨팅 워크로드 전반에서 최대 2배의 성능 향상 ▲이전 세대 대비 가상 현실 워크플로 성능 최대 3배 향상 ▲더 큰 규모의 프로젝트를 처리할 수 있는 16GB의 GPU 메모리 및 오류 수정 코드 메모리 ▲AI 기반 그래픽을 개선하고 고품질 프레임을 추가로 생성해 성능을 높이는 DLSS 3 ▲AV1을 지원하며 H.264보다 효율을 40% 높인 8세대 엔비디아 인코더(NVENC) 등이 있다. 한편, 엔비디아는 RTX 엔터프라이즈 드라이버의 최신 업데이트에 그래픽 워크플로를 개선하는 다양한 기능과 함께 RTX 2000 에이다 지원을 포함한다고 밝혔다. 여기에는 ▲AI 기반의 표준 다이나믹 레인지(SDR)에서 하이 다이나믹 레인지(HDR)로 톤 매핑을 지원하는 비디오 트루HDR(Video TrueHDR) ▲엔비디아 GPU에서 최신 대규모 언어 모델(LLM)에 대한 추론 성능을 최적화하고 가속화하는 오픈소스 라이브러리인 텐서RT-LLM(TensorRT-LLM) ▲비트 심도 확장 기술과 새로운 저지연 B프레임을 통한 비디오 품질 개선과 비디오 코덱의 코딩 효율 향상 ▲더 빠른 작업 완료를 위해 실행 간접 확장 엔비디아 API를 사용해 CPU에서 GPU로 작업을 오프로드하는 기능 ▲데스크톱의 엔비디아 제어판(NV Control Panel)에서 GPU 일련 번호를 표시하는 기능 등이 있다. RTX 2000 에이다 제너레이션의 성능을 앞서 활용하고 있는 기업으로는 솔리드웍스(SOLIDWORKS) 애플리케이션을 보유한 다쏘시스템, 롭 월커스 디자인 앤 엔지니어링(Rob Wolkers Design and Engineering), WSP 등이 있다. 다쏘시스템이 2월 11일~14일 미국 댈러스에서 진행한 ‘3D익스피리언스 월드’에서는 엔비디아 RTX 2000 에이다로 구동되는 다쏘시스템 솔리드웍스 애플리케이션의 실시간 데모가 진행되기도 했다. 다쏘시스템 솔리드웍스 그래픽 애플리케이션 연구개발 책임자인 올리비에 제그던(Olivier Zegdoun)은 “고효율 차세대 아키텍처, 저전력 소비, 대용량 프레임 버퍼를 갖춘 새로운 엔비디아 RTX 2000 에이다는 솔리드웍스 사용자에게 큰 도움이 될 것이다. 이 제품은 디자이너와 엔지니어가 더 큰 데이터세트에서도 완전한 모델 충실도로 혁신적인 제품 경험을 빠르게 개발할 수 있도록 뛰어난 성능을 제공한다”고 말했다.  엔비디아 RTX 2000 에이다는 현재 애로우 일렉트로닉스(Arrow Electronics), 잉그램 마이크로(Ingram Micro), 리드텍(Leadtek), PNY, 료요 엘렉트로(Ryoyo Electro), TD시넥스(TD SYNNEX) 등 글로벌 유통 파트너를 통해 구매할 수 있다. 오는 4월부터는 델 테크놀로지스, HP, 레노버 등에서도 구매 가능하다.
작성일 : 2024-02-14
기업의 80%, 2026년까지 구독 기반 서비스 활용 신규 디지털 인프라 설계 및 운영 예측
에퀴닉스(Equinix)는 2월 1일 연례 글로벌 상호연결 지수(GXI) 2024를 발표하고 2026년까지 약 80%의 신규 기업 디지털 인프라 투자가 구독 기반 모델을 통해 운영될 것이라고 예측했다. GXI 2024 리포트에 따르면 IT 의사 결정권자들은 지속적으로 증가하는 AI, 5G, 엣지 컴퓨팅 등 고밀도 데이터 기술 수요를 충족하기 위해 점점 더 서버, 라우터, 스토리지 어레이 등 물리적 장비 구매에서 벗어나 유연한 구독 기반 모델을 선호하고 있다고 예측한다. 최근 이루어지는 자본 지출(CAPEX)에서 운영 비용(OPEX)로의 전환은 멀티클라우드 도입으로 인해 시작되었으나, 현재는 모든 인프라 및 엣지에 표준으로 거듭났다. 이를 통해 기업은 어디에서든 인프라를 설계 시 높은 민첩성을 확보하고 가장 효율적인 기술에 접근할 수 있다. 스티브 매든(Steve Madden) Equinix 디지털 전환 & 세그먼트 부문 부사장은 “불필요한 IT 하드웨어 장비를 구매하던 기존의 조달 프로세스는 점점 더 기업 경쟁력에 단점으로 작용하고 있다”며 “특히 GPU 기술과 같이 하드웨어 혁신 속도는 증가하고 있으며 가격 대 성능 비율 및 인프라 효율성에 더욱 압력을 가하고 있다. 전 세계적으로 기업이 디지털 전환을 통해 동적인 변화에 더 잘 적응하면서 더욱 민첩성을 향상해야 한다. 기업은 구독 모델을 통해 이미 시행 중인 신규 기술을 지속적으로 개선해 나가면서 쉽게 도입할 수 있다.” GXI 2024의 주요 예측 및 동향 디지털 경제 확장 지속: 글로벌 상호연결 대역폭은 2026년까지 34%의 연평균 성장률(CAGR)을 기록해 초당 33,578테라비트(Tbps)에 달할 것으로 예상된다. 아태지역은 전 세계 글로벌 상호연결 대역폭의 28%를 차지하며, 2026년까지 35%의 연평균 성장률을 바탕으로 9,283 Tbps를 기록할 것으로 예상한다. 생태계 성장 가속: 기업들은 두 배 많은 위치에서 30% 많은 비즈니스 파트너와 연결하고 있다. 엣지 비즈니스 촉진하는 디지털 인접성: 엣지 인프라는 가장 높은 성장률을 기록했으며, 2026년까지 코어 비즈니스 대비 두 배 이상 빠른 속도로 확장할 것으로 예상된다.   장혜덕 Equinix 한국 대표는 “아태지역에서 가장 빠르게 성장하는 서비스 공급자는 바로 하이퍼스케일 공급자다. 이러한 현상은 Equinix가 2024년 1분기에 국내 첫 번째 xScale 시설을 가동하고 하이퍼스케일 사업을 확장하는데 매우 큰 기회를 제공할 것으로 예상한다. 최근 출시한 Equinix Fabric Cloud Router도 국내 기업이 여러 클라우드 간 응용 프로그램을 쉽고 효율적으로 연결할 수 있도록 지원하며 멀티클라우드 도입을 가속화할 것"이라고 밝혔다.    
작성일 : 2024-02-12
엔비디아-시스코, “데이터센터용 AI 인프라 솔루션 제공 계획”
  엔비디아와 시스코는 양사간 협력을 통해 데이터센터용 AI 인프라 솔루션을 제공할 계획이라고 밝혔다. 이 솔루션은 간편한 배포와 관리를 통해 AI 시대에서 기업들이 성공하기 위해 요구되는 대규모 컴퓨팅 성능을 지원하는 것이 목적이다.   엔비디아는 GPU로 시작해 현재는 AI 분야에서 강력한 기술을 갖추고 있으며, 시스코는 이더넷 네트워킹 분야에서 전문성과 파트너 생태계를 갖추고 있다. 두 기업은 협력을 강화해 보안성이 뛰어난 이더넷 기반 인프라로 고객의 원활한 AI 전환을 지원하겠다는 비전과 다짐을 공유했다. 엔비디아는 시스코와 함께 지난 몇 년 동안 웹엑스(Webex) 협업 장치와 데이터센터 컴퓨팅 환경 전반에 걸쳐 광범위한 통합 제품 솔루션을 제공했다. 이 솔루션은 유연한 업무 공간, AI 기반 회의, 가상 데스크톱 인프라를 갖춘 하이브리드 업무 환경을 구현한다. 양사는 앞으로 데이터 센터 분야에서 파트너십을 더욱 강화한다고 밝혔다. 이를 통해 기업에게 확장 가능하고 자동화된 AI 클러스터 관리, 자동화된 문제 해결, 높은 수준의 고객 경험 등을 제공할 계획이다.  양사는 엔비디아의 최신 텐서코어 GPU를 시스코 M7세대 통합 컴퓨팅 시스템(UCS) 랙, 블레이드 서버에서 사용할 수 있게 지원한다. 여기에는 시스코 UCS X-시리즈와 UCS X-시리즈 다이렉트가 포함된다. 이를 통해 데이터센터와 에지에서 광범위한 AI와 데이터 집약적 워크로드를 위한 최적의 성능을 발휘한다. 또한, 보다 안전하고 안정적이며 우수한 프로덕션 AI를 위한 소프트웨어 프레임워크, 사전 훈련된 모델과 개발 툴을 포함하는 엔비디아 AI 엔터프라이즈(AI Enterprise)가 시스코 글로벌 채널을 통해 제공된다. 한편, AI 클러스터의 간편한 배포와 관리를 위해 시스코 검증 설계(Cisco Validated Designs, CVD) 기반의 레퍼런스 아키텍처가 제공된다. 이는 가상화, 컨테이너화된 환경 등 다양한 사용 사례에서 규모와 관계없이 이용할 수 있고, 컨버지드와 하이퍼 컨버지드 옵션 모두 지원된다. 엔비디아 AI 엔터프라이즈를 활용해 생성형 AI 추론을 수행하는 플렉스포드(FlexPod)와 플래시스택(FlashStack)용 CVD는 2024년 2월 중 공개될 예정이며, 향후 더 많은 CVD가 제공될 예정이다. 이외에도 엔비디아와 시스코는 ▲AI 인프라 관리와 운영을 간소화하는 온프레미스 및 클라우드 기반 관리 ▲클라우드나 온프레미스 네트워크에서 발생하는 문제에 대해 AI 기반 인사이트와 자동화된 문제 해결 제공 ▲AI 기능을 통해 도메인 전반의 실시간 원격측정 컨텍스트화 및 디지털 경험을 개선하기 위한 가시성 확보 ▲AI와 자동화의 도입을 위한 지원과 안내를 받을 수 있는 글로벌 파트너 생태계 등을 제공한다. 시스코의 척 로빈스(Chuck Robbins) CEO는 “AI는 우리가 일하고 생활하는 방식을 근본적으로 바꾸고 있다. 역사적으로 볼 때 이 정도 규모의 변화는 기업이 인프라를 재고하고 재설계해야 한다는 것을 보여준다. 엔비디아와 파트너십을 강화함으로써 기업들은 대규모 AI 솔루션을 구축, 배포, 관리, 보호하는 데 필요한 기술과 전문성을 갖추게 될 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “모든 기업이 생성형 AI로 비즈니스를 혁신하기 위해 경쟁하고 있다. 우리는 시스코와의 긴밀한 협력을 통해 기업들이 역사상 가장 강력한 기술인 AI의 혜택을 누리는 데 필요한 인프라를 그 어느 때보다 쉽게 확보하도록 지원하고 있다:고 전했다.
작성일 : 2024-02-07
케이던스, GPU 컴퓨팅과 CFD 솔버 결합한 다중물리 턴키 솔루션 발표
케이던스 디자인 시스템즈는 디지털 트윈의 다중물리(멀티피직스) 시스템 설계 및 분석을 가속화할 수 있는 ‘케이던스 밀레니엄 엔터프라이즈 다중물리 플랫폼(Cadence Millennium Enterprise Multiphysics Platform)’을 발표했다. 1세대 플랫폼인 케이던스 밀레니엄 M1(Cadence Millennium M1)은 하드웨어 및 소프트웨어 솔루션을 결합해 고성능 CFD(전산유체역학) 시뮬레이션을 가속화한다. GPU를 탑재한 HPC 하드웨어와 최적화된 GPU 가속화(Acceleration) 및 생성형 AI를 활용할 수 있는 케이던스 고성능 피델리티 CFD(Cadence high-fidelity CFD) 소프트웨어가 턴키로 포함된 것이 특징이다. 밀레니엄 M1은 통합 클러스터로 융합하여, 복잡한 기계 시스템을 시뮬레이션할 때 빠른 TAT(Turnaround Time)과 거의 선형에 가까운 확장성을 고객에게 제공하는 것이 목표이다. 자동차, 항공우주 및 방위산업, 에너지 및 터보기계 등 산업에서는 성능과 효율면에서 새로운 차원의 기계 시스템을 설계하는 것이 핵심적인 우선 과제가 되었다. 자동차 설계자들은 성능을 최적화하고 온실가스를 줄이기 위해 연비 개선, 항력 및 소음 감소, 전기 자동차 주행 거리 연장에 집중하고 있다. 또한 A&D 및 터보기계 설계 엔지니어들에게는 효율 향상, 탄소 배출량 감소, 유지보수 빈도를 줄이는 것이 중요하다. 이런 목표를 달성하기 위해서는 다중물리 시뮬레이션 기술의 발전이 필수적이다. 속도, 정확성, 용량 및 계산 속도를 가속화하는 것은 디지털 트윈 시뮬레이션에 필수 요소로서, 프로토타입을 개발하고 테스트하기에 앞서 의도한 대로 작동할 수 있다는 확신을 줄 수 있는 설계 혁신의 원동력이 된다.   ▲ 이미지 출처 : 케이던스 웹사이트   GPU 내장 CFD 솔버와 전용 GPU 하드웨어를 결합한 케이던스 밀레니엄 플랫폼은 최대 1000개의 CPU 코어로 GPU당 슈퍼컴퓨터급의 처리량을 제공한다. 동급 CPU 대비 향상된 에너지 효율로 몇 주가 걸리던 처리 시간을 몇 시간으로 단축할 수 있게 지원한다.  케이던스 피델리티 CFD 솔버는 복잡한 시뮬레이션 문제를 해결할 수 있으며 높은 정확도를 제공한다. 밀레니엄 플랫폼은 확장형 아키텍처와 유연성을 갖춘 피델리티 솔버를 통해 여러 GPU 노드에서 선형에 가까운 확장성을 제공한다. 또한, 생성형 AI를 접목한 디지털 트윈은 고품질의 다중물리 데이터를 빠르게 생성하고, 생성형 AI가 최적의 시스템 설계 솔루션의 디지털 트윈 시각화를 안정적으로 생성할 수 있다. 케이던스는 밀레니엄 플랫폼이 주요 공급업체의 GPU를 바탕으로 클라우드 환경에서 8개 이상의 GPU를 구성하거나 온프레미스 환경에서 최소 32개 GPU를 구성할 수 있으며, 고객이 원하는 구성 방식을 적용할 수 있는 유연하고 확장성 높은 솔루션을 제공한다고 소개했다. 케이던스의 밴 구(Ben Gu) 다중물리 시스템 분석 R&D 부사장은 “케이던스는 35년의 역사를 통해 매우 어려운 컴퓨팅 분야에서 정확성을 유지하면서 동시에 계산 속도를 향상시키는데 주력해 왔다. 알고리즘 처리량은 여전히 핵심 우선순위이며 이제 우리는 생성형 AI를 활용하여 방대한 양의 설계 및 시뮬레이션 데이터에서 정보를 추출하고 있다”면서, “밀레니엄 플랫폼은 디지털 트윈 및 AI 애플리케이션의 가속화와 확장성을 제공하는 거대한 도약이며, CFD는 성능과 효율이 향상되면서 아주 유용하게 활용될 준비를 마쳤기 때문에 밀레니엄 M1의 뛰어난 성능은 빠른 제품을 출시를 해야 하는 산업계에 혁신을 가져올 것”이라고 전했다.
작성일 : 2024-02-05
앤시스 스페오스를 활용한 라이트 가이드 설계와 해석
앤시스 워크벤치를 활용한 해석 성공사례   이번 호에서는 국제 조명 위원회(CIE)의 CIE 171:2006 테스트를 거쳐 광학 모델링 소프트웨어로서 정확성을 인증받은 앤시스 스페오스(Ansys Speos)를 활용하여, 최근 자동차 램프에 많이 적용되고 있는 라이트 가이드(light guide)의 설계 방법 및 해석 방법에 대하여 소개하고자 한다.   ■ 최낙정 태성에스엔이 SBU팀 매니저로 광학 프로그램에 대한 기술 지원을 담당하고 있다. 홈페이지 | www.tsne.co.kr   앤시스 스페오스 소개 앤시스 스페오스(Ansys Speos)는 자동차, 전자 제품, 조명, 레이저 및 머신 비전, 항공 우주, 생물 의학 연구 분야의 글로벌 기업이 사용하는 광학 시스템 최적화 및 검증을 위한 전문 해석 솔루션이다. 광학 부품의 정밀한 해석을 위해 인간의 시각 능력을 반영하여 해석 및 다양한 분석 기능을 제공하며, 광 성능 분석에 기본이 되는 광도, 조도, 휘도 분석 이외에도 색상, 재료, 질감, 눈부심 효과 등이 고려된 가시성 분석이 가능하다.   ▲ 앤시스 스페오스를 통해 해석된 자동차 점등 이미지   또한, OPD(Optical Part Desing) 기능을 활용하여 라이트 가이드, 프리폼 렌즈(freeform lens) 등 다양한 형태의 렌즈를 손쉽게 설계하고, GPU를 사용한 시뮬레이션이 가능하기 때문에 설계부터 해석까지 시간과 비용을 절감할 수 있다.   ▲ 앤시스 스페오스에서 제공하는 다양한 OPD 기능   라이트 가이드란 라이트 가이드(light guide)는 기본적으로 사용자가 원하는 목표 지점까지 광손실을 최소화하여 빛을 보내기 위한 광학 구조물이다. 램버시안 분포로 나오는 빛을 믹싱(mixing)하여 균일하게 만들어 주는 역할을 하기도 하고, 사용자의 목적에 따라 프리즘 옵틱을 적용하여 광원부를 노출시키지 않고 사용자가 원하는 빔 패턴을 만들 수 있어 심미성과 성능을 모두 확보해야 할 때 많이 사용되고 있다.   ▲ 자동차 DRL(Daytime Running Lamp)에 적용된 라이트 가이드   라이트 가이드의 설계 과정 앤시스 스페오스를 활용하면 라이트 가이드를 손쉽게 설계할 수 있다. 기본적으로 라이트 가이드를 생성하기 위해서는 형상 프로파일(profile)과 가이드 커브(guide curve)를 정의해야 한다. 해당 인자를 통해서 원하는 형상으로 라이트 가이드의 베이스를 만들어 줄 수 있다. 라이트 가이드의 베이스를 만들었다면, 빔 패턴을 사용자의 목적에 맞게 만들기 위해서 프리즘 옵틱을 설계해야 한다. 프리즘 옵틱의 설계의 경우 설계 인자가 약 10개 정도 되어 사용자가 원하는 빔 패턴을 만드는데 용이하게 활용할 수 있다. 또한, 효율을 향상시키거나 LED 적용 개수에 따라 라이트 가이드의 입사부 형상에 변화를 주기도 한다. 라이트 가이드의 초기 설계가 완료되었다면, 각 부품에 대한 물성치와 광원, 센서에 대한 정의를 완료한 후 시뮬레이션을 통해 원하는 수준의 광학 성능이 나왔는지 초기 성능 분석을 진행한다. 초기 성능 분석을 통해 만족하지 못한 성능을 보완해주기 위해 스페오스 내에 있는 최적화 도구를 활용하여 최적화 타깃(target) 값을 정의하고 설계 주요 파라미터들을 선정하여 각 파라미터에 대한 최적화를 진행한다. 최적화 완료 후 다시 한 번 시뮬레이션을 진행하여 원하는 수준의 배광 성능이 나왔는지, 점등 필링은 괜찮은지 등을 확인하고 최종적으로 라이트 가이드에 대한 설계를 완료한다.   ▲ 앤시스 스페오스를 활용한 라이트 가이드 설계 단계   ■ 상세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-02-02