• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "가상머신"에 대한 통합 검색 내용이 76개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
엔비디아, 주요 클라우드 기업과 AI 관련 협력 강화 계획 소개
엔비디아는 GTC 행사에서 디지털 트윈과 인공지능 등 다양한 영역에서 업계 주요 기업과의 파트너십 내용을 소개했다. 이 가운데 AWS, 마이크로소프트, 구글 클라우드, 오라클 등과는 클라우드 상에서 AI 활용을 확대하는 것을 중심으로 협력을 강화할 계획이다.   AWS : 차세대 GPU 플랫폼 및 AI 인프라 제공 엔비디아는 차세대 GPU 플랫폼인 블랙웰(NVIDIA Blackwell)이 AWS에 제공된다고 발표했다. AWS는 5세대 엔비디아 NV링크로 상호 연결된 72개의 블랙웰 GPU와 36개의 그레이스 CPU로 구성된 GB200 NVL72를 갖춘 엔비디아 블랙웰 플랫폼을 제공할 예정이다. 엔비디아는 엔비디아 블랙웰이 AWS상에서 상당한 양의 컴퓨터 리소스를 필요로 하는 수조 개의 파라미터의 언어 모델의 추론 작업을 크게 향상시킬 것으로 전망하고 있다. 엔비디아와 AWS는 양사의 기술을 지속적으로 통합해 나가는 파트너십을 강화할 계획이다. 여기에는 차세대 엔비디아 블랙웰 플랫폼과 AI 소프트웨어를 비롯해 AWS의 니트로 시스템(Nitro System)과 AWS KMS(키 관리 서비스)의 고급 보안, 엘라스틱 패브릭 어댑터(EFA) 페타비트 규모의 네트워킹, 아마존 EC2(엘라스틱 컴퓨트 클라우드) 울트라클러스터 하이퍼스케일 클러스터링 등이 있다. 양사는 이런 기술을 함께 사용함으로써 아마존 EC2에서 이전 세대 엔비디아 GPU보다 더 빠르고, 저렴한 비용으로 대규모로 수조 개의 파라미터 거대 언어 모델(LLM)에 대한 실시간 추론을 구축, 실행할 수 있을 것으로 보고 있다. AWS는 엔비디아 H100 기반 EC2 P5 인스턴스의 성공을 기반으로, 대규모로 생성형 AI 훈련과 추론을 가속화하는 EC2 울트라클러스터에 배치된 새로운 B100 GPU를 탑재한 EC2 인스턴스를 제공할 계획이다. 또한 AWS에서 공동으로 만들어진 AI 플랫폼인 엔비디아 DGX 클라우드에서도 GB200을 사용할 수 있다.    마이크로소프트 : 생성형 AI 및 디지털 트윈 기술을 클라우드에서 통합 엔비디아는 GTC에서 마이크로소프트 애저(Azure), 애저 AI 서비스, 마이크로소프트 패브릭(Fabric), 마이크로소프트 365에 최신 엔비디아 생성형 AI와 옴니버스(Omniverse) 기술을 통합한다고 밝혔다. 엔비디아 옴니버스 클라우드 API(Omniverse Cloud API)는 올해 말 마이크로소프트 애저에서 먼저 제공되며, 개발자들은 기존 소프트웨어 애플리케이션에서 향상된 데이터 상호운용성, 협업, 물리 기반 시각화를 이용할 수 있도록 지원할 예정이다. 엔비디아 GPU와 엔비디아 트리톤 추론 서버(Triton Inference Server)는 마이크로소프트 365용 마이크로소프트 코파일럿에서 AI 추론 예측을 지원한다.  또한, 마이크로소프트는 엔비디아 그레이스 블랙웰 GB200과 고급 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand) 네트워킹의 성능을 애저에 도입할 예정이다. 이외에도 마이크로소프트는 엔비디아 H100 NVL 플랫폼에 기반한 애저 NC H100 v5 VM(가상머신)의 정식 출시를 발표했다. 미드레인지 훈련과 추론을 위해 설계된 NC 시리즈 VM은 이는 고객들에게 1개에서 2개의 엔비디아 H100 94GB PCIe 텐서 코어(Tensor Core) GPU로 구성된 두 등급의 VM을 제공하며, 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원한다.   구글 클라우드 : 생성형 AI 앱의 구축과 관리 지원 엔비디아는 구글 클라우드와의 파트너십을 강화해 머신러닝(ML) 커뮤니티가 생성형 AI 애플리케이션을 쉽게 구축, 확장, 관리할 수 있도록 지원할 예정이다. 구글은 자사 제품과 개발자에게 AI 혁신을 지속적으로 제공하기 위해 새로운 엔비디아 그레이스 블랙웰(Grace Blackwell) AI 컴퓨팅 플랫폼을 도입하고, 구글 클라우드에 엔비디아 DGX 클라우드(DGX Cloud) 서비스를 적용한다고 발표했다. 아울러 엔비디아 H100 기반 DGX 클라우드 플랫폼은 이제 구글 클라우드에서 정식으로 사용할 수 있다. 구글은 최근 개방형 모델인 젬마(Gemma) 제품군 최적화를 위한 협력을 기반으로, 엔비디아 NIM 추론 마이크로서비스도 도입한다고 밝혔다. 이를 통해 구글은 개발자들이 선호하는 툴과 프레임워크를 사용해 훈련하고 배포할 수 있는 개방적이고 유연한 플랫폼을 제공할 계획이다. 또한, 양사는 엔비디아 GPU와 엔비디아 H100 그리고 L4 텐서 코어(L4Tensor Core) GPU 기반의 버텍스 AI(Vertex AI) 인스턴스에서 JAX를 지원한다고 발표했다.   오라클 : 데이터 관리용 가속 컴퓨팅과 생성형 AI 솔루션 제공 엔비디아는 자사의 풀스택 AI 플랫폼과 오라클 엔터프라이즈 AI를 결합해 운영, 위치, 보안에 대한 제어력을 강화한 AI 솔루션을 제공한다. 오라클 엔터프라이즈 AI는 OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud)에 배포 가능하다. 양사의 통합 솔루션은 퍼블릭 클라우드 또는 특정 위치의 고객 데이터센터에 유연한 운영 제어를 통해 배포할 수 있다. 오라클은 어디서나 로컬로 AI와 전체 클라우드 서비스를 제공할 수 있는 역량을 내세우면서, 배포 유형에 관계없이 일관적인 서비스와 가격을 통해 계획, 이동성, 관리를 간소화한다고 강조했다. 오라클 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 비롯한 다양한 엔비디아 스택을 활용한다. 또한, 새로 발표된 엔비디아 NIM 추론 마이크로서비스는 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버(Triton Inference Server)와 같은 엔비디아 추론 소프트웨어를 기반으로 구축된다.
작성일 : 2024-03-21
[케이스 스터디] 현대엔지니어링, 클라우드의 가상화 기술로 플랜트 설계 인프라 혁신
종합 엔지니어링 기업인 현대엔지니어링은 플랜트 설계의 시간과 비용을 줄일 수 있는 방안을 고민했고, 해결책으로 클라우드 기반의 애플리케이션 가상화 및 가상 데스크톱 인프라 기술을 선택했다. 다양한 설계 프로젝트의 복잡한 환경에 맞춰 최적화된 IT 인프라를 빠르게 구축하고 관리 효율을 높임으로써, 전반적인 시간 및 비용 효과를 추구할 수 있게 됐다. ■ 정수진 편집장   다양한 프로젝트에 따른 설계 환경의 복잡성 증가 창립 50주년을 맞은 현대엔지니어링은 화공 플랜트와 전력/에너지 플랜트 설계 및 건설을 중심으로 건축/항만 인프라와 자산관리, 친환경 에너지 등 폭넓은 비즈니스를 전개하고 있다. 2023년에는 국내 건축 프로젝트 및 해외 대형 프로젝트 실적 증가에 힘입어 국토교통부의 시공능력평가에서 4위에 오르기도 했다. 현대엔지니어링 IT지원팀의 이다영 매니저는 “발주처의 요구나 프로젝트의 성격에 따라 다양한 CAD 소프트웨어를 사용하고 있다”고 소개했다. 피드(FEED)라고 불리는 기본설계 프로젝트의 경우 3D CAD만으로 빠르게 진행하기도 하고, 설계/시공/구매/조달이 포함되는 EPC 프로젝트에서는 2D와 3D CAD를 함께 사용한다는 것이다.   ▲ 아마존 앱스트림 2.0에서 구동하는 스마트 3D   3D 설계 인프라 개선 위해 클라우드 도입 현대엔지니어링은 특히 사용 빈도가 높은 3D 설계를 위해 클라우드 인프라와 서비스를 도입했다. 주된 목적은 설계 인프라의 구축 기간을 줄이는 것이었다. 워크스테이션으로 설계를 진행하는 기존의 환경에서는 CAD 소프트웨어를 구동하기에 적절한 시스템 사양을 결정하는 것부터 시스템 구매와 시스템/서비스의 안정화까지 짧지 않은 시간이 걸린다. 현대엔지니어링은 이 부분을 클라우드 기반의 가상화 기술로 해결할 수 있을 것으로 보았다. 또한 코로나19의 대유행으로 재택근무 및 원격근무가 늘어나는 환경의 변화에 대응해야 한다는 인식이 늘어난 것도 클라우드를 고려하게 된 배경이 되었다고 한다. 현대엔지니어링은 AWS의 클라우드 컴퓨팅 인프라인 EC2, 애플리케이션 가상화 서비스인 앱스트림 2.0(Amazon AppStream 2.0), VDI(가상 데스크톱 인프라) 서비스인 아마존 워크스페이스(Amazon WorkSpaces)를 도입했다.  이다영 매니저는 “AWS는 VDI, 앱 가상화, 클라우드 그래픽 등 다양한 서비스를 제공하며, 전 세계의 리전(region)을 통해 해외 현장에서도 활용할 수 있을 것으로 보았다”면서, “국내외 엔지니어링 분야에서 레퍼런스가 나오면서 진입장벽이 낮아졌다고 판단해, POC를 통해 지난 2021년부터 클라우드를 도입하게 되었다”고 소개했다.   설계 인프라 구축 시간 줄이고 효율과 유연성은 향상 클라우드 기반 플랜트 설계 인프라의 주된 강점은 시간과 비용이다. 이다영 매니저는 “설계를 위한 IT 인프라의 구축에 걸리는 시간이 5~6개월에서 1개월로 줄었다”면서, 향후에는 코드 자동화 기술을 적용해 이 기간을 2~3주까지 줄일 수 있을 것이라고 전했다. 시간 절감은 비용 절감으로 이어진다. 피드 사업에서 클라우드로 IT 인프라 비용을 줄이고, 이를 통해 전체 프로젝트의 비용 절감도 가능하다. 또한, 워크스테이션을 장기간 사용하면 성능이 저하될 수 있는데, 가상머신을 초기화하면 이런 문제를 해결하고 퍼포먼스의 일관성을 유지할 수 있다. 가상머신의 사양을 최적화해 설계 업무의 효율을 높이게 된 것도 이점이다. 물리적인 서버와 워크스테이션은 한 번 구축하면 업그레이드나 증설이 어려워서 처음부터 높은 사양으로 도입했다. 반면, 가상머신은 최적화된 사양으로 도입한 후에도 확장이 손쉽기 때문에 설계 인프라를 유연하게 운영할 수 있게 됐다. 이다영 매니저는 “클라우드 가상머신은 설계 소프트웨어마다 요구하는 사양에 맞춰 활용이 가능하다. 예를 들어 헥사곤의 스마트 3D는 앱스트림 2.0의 그래픽 성능을 활용하고, 상대적으로 낮은 사양에서도 설계를 할 수 있는 아비바 PDMS는 GPU가 없는 VDI를 구성하는 식이다. 이렇게 필요 없는 리소스를 정리하면서 가상머신의 사양을 최적화할 수 있다”고 설명했다.   ▲ 아마존 워크스페이스에서 구동하는 PDMS   성능·비용 효과에 집중하며 클라우드 도입의 장벽 제거 현대엔지니어링은 5가지의 사양으로 클라우드 가상머신을 테스트했고, 그 결과를 바탕으로 사내 설계 환경에 맞춰 가상머신 사양을 정형화한 후 확산한다는 전략을 추진하고 있다. 2021년 정식 오픈 이후에는 베트남과 러시아 등 2개 프로젝트에 클라우드를 도입했다. 이다영 매니저는 “피드 사업에서 클라우드의 효과를 체감한다면 향후 EPC 사업으로 전환하더라도 클라우드 사용에 대한 거부감을 줄일 수 있을 것”이라고 전했다. 현대엔지니어링의 클라우드 인프라 도입이 순탄한 것만은 아니었다고 한다. 가장 큰 장벽은 클라우드의 보안에 대한 우려였다. 이에 대해 현대엔지니어링은 사내망으로 구축해 보안 문제를 해소하고, AWS의 보안 솔루션을 통해 모니터링할 수 있도록 했다. 또한 사용자 권한 제어와 파일 다운로드 제한 등의 장치도 마련했다. 이다영 매니저는 “기존의 프로세스를 바꾸어야 한다는 부담도 있었는데, 이 부분은 클라우드의 성능과 비용 효과를 중심으로 사내 구성원들을 설득했다”고 전했다. 설계 소프트웨어 인프라 관리 측면에서는 빠른 구축과 관리 포인트 감소라는 이점을, 설계 담당자 측면에서는 고성능의 PC가 없어도 쉽게 접속해 사용할 수 있다는 장점을 사내 구성원들이 이해하면서 클라우드 도입이 진전을 보일 수 있었다고 한다.   클라우드 인프라 확대 추진할 계획 현대엔지니어링은 피드백 수렴과 안정화를 거쳐 향후 대규모 프로젝트에 클라우드를 도입할 예정이다. 그리고, 2024년에는 해외 현장에서 AWS의 해외 리전을 활용해 클라우드 인프라를 구축할 계획이다. IT 요구사항이 까다로운 대규모의 해외 프로젝트에 클라우드를 적용할 예정이며, 인도에 오픈 예정인 설계센터에도 클라우드를 도입할 계획이라고 한다. 또한, 현재 적용 중인 3D CAD 외에 2D 설계를 위한 클라우드도 테스트 중으로, 2023년 말 오픈 예정이다.   ▲ 현대엔지니어링 이다영 매니저는 “클라우드는 설계 실무와 인프라 관리 측면에서 시간과 비용 등 이점을 제공한다”고 설명했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-12-04
오라클, AI 인프라 및 범용 컴퓨팅을 위한 클라우드 인스턴스 확대
오라클은 오라클 클라우드 인프라스트럭처 컴퓨트(OCI Compute)에 추가될 엔비디아 H100 텐서 코어(NVIDIA H100 Tensor Core) GPU, 엔비디아 L40S GPU, 암페어 암페어원(Ampere AmpereOne) CPU 기반 신규 인스턴스를 발표했다. 신규 OCI 컴퓨트 인스턴스는 AI 모델의 학습, 미세 조정, 추론에서부터 클라우드 전용 애플리케이션 및 비디오 트랜스코딩 애플리케이션의 실행에 이르는 다양한 워크로드를 더욱 간단히 실행할 수 있도록 설계되었고, 가성비 또한 향상되었다. 엔비디아 H100 GPU 기반 OCI 컴퓨트 베어메탈 인스턴스(OCI Compute Bare Metal Instances Powered by NVIDIA H100 GPUs)는 자연어 처리 및 추천 시스템용 모델과 같은 대규모 AI 모델의 학습 시간을 단축시킨다. 엔비디아 H100 텐서 코어 GPU 인스턴스를 사용하는 기업은 이전 세대 엔비디아 A100 텐서 코어 GPU 대비 AI 추론 사용 사례에서 최대 30배 성능 향상, AI 모델 학습에서 4배 성능 향상을 경험했다. AI 모델 학습과 같은 고강도 컴퓨팅 워크로드를 실행하는 고객의 경우 OCI 슈퍼클러스터(OCI Supercluster)의 고성능 초저지연 클러스터 네트워크를 통해 수만 개의 엔비디아 H100 GPU를 상호 연결할 수 있다. 이 인스턴스는 올해 말 오라클 클라우드 런던 리전 및 오라클 클라우드 시카고 리전에서 정식 출시되며, 이후 다른 리전에서도 지원될 예정이다. 엔비디아 L40S GPU 기반 OCI 컴퓨트 베어메탈 인스턴스(OCI Compute Bare Metal Instances Powered by NVIDIA L40S GPUs)는 AI 추론 또는 중소형 AI 모델 학습 등의 워크로드 실행을 위한 대체 옵션을 제공한다. 오라클의 테스트 결과 이 인스턴스는 이전 세대 엔비디아 A100 GPU 대비 생성형 AI 워크로드의 경우 최대 20%, AI 모델 미세 조정의 경우 최대 70%의 성능 향상을 기록했다. 정식 출시는 2024년으로 예정되어 있다. 암페어 암페어원 CPU 기반 OCI 컴퓨트 A2 인스턴스(OCI Compute A2 Instances Powered by Ampere AmpereOne CPUs)는 웹 서버 실행, 비디오 트랜스코딩, CPU 기반 AI 추론 요청 서비스 등 다양한 범용 클라우드 워크로드를 위한 가성비 및 높은 프로세서 코어 수(베어메탈 구성 320 코어, 유연한 VM 구성 최대 156 코어)를 제공한다. 이 인스턴스는 높은 코어 수를 기반으로 향상된 성능, 가상머신 밀도, 확장성을 제공함으로써 고객사가 컴퓨팅 워크로드를 보다 효율적으로 관리하고 데이터센터 설치 공간 및 전력 소비를 줄일 수 있도록 지원한다. 또한 고객사는 이 인스턴스의 유연한 가상머신용 구성을 통해 프로세싱 파워 및 메모리를 미세 조정함으로써, 리소스 활용도를 극대화하고 비용을 최소화함과 동시에 간단하고 예측 가능한 가격 모델을 제공할 수 있다. 정식 출시는 2024년으로 예정되어 있다.     오라클의 도널드 루(Donald Lu) OCI 소프트웨어 개발 담당 수석 부사장은 "OCI는 전용 베어메탈 인스턴스를 최초로 제공한 클라우드 제공업체 중 하나다. 이는 전 세계의 모든 고객사에 보다 간단히 사용 가능한 고성능 컴퓨팅 서비스를 제공하기 위한 핵심 요소다. OCI의 엔비디아 및 암페어 컴퓨팅 프로세서 기반 인스턴스는 고객사의 클라우드 인프라에 필요한 광범위한 성능, 효율성, 유연성을 제공하므로 고객사는 범용 워크로드부터 고성능 AI 프로젝트에 이르는 모든 작업을 자유롭게 수행할 수 있다"면서, "오라클은 AI의 개발 및 사용을 지원하기 위해 특별히 설계된 클라우드 컴퓨팅 오퍼링 시장을 선도하고 있다. 시장의 성장과 함께 증가해 나갈 AI 제공업체 및 사용자를 지원하며 클라우드 컴퓨팅 산업을 주도할 수 있는 유리한 위치를 선점했다"고 말했다. 엔비디아의 이언 벅(Ian Buck) 하이퍼스케일 및 고성능 컴퓨팅 담당 부사장은 "엔비디아와 오라클의 협업을 통해 OCI에서의 최첨단 GPU 사용을 보다 대중화할 수 있게 됐다"면서, "OCI의 엔비디아 H100 및 L40S GPU는 전 업종의 고객사에 전례 없는 성능, 확장성, 보안성을 제공함으로써 AI 혁신에 기여할 것"이라고 전했다.
작성일 : 2023-09-25
AMD, 에픽 프로세서 기반 구글 클라우드 VM으로 SAP ERP 지원
AMD는 SAP가 ‘라이즈 위드 SAP (RISE with SAP)’ 솔루션의 ERP(전사적 자원 관리) 시스템 운영을 위해 AMD 에픽(AMD EPYC) 프로세서 기반의 구글 클라우드(Google Cloud) N2D 가상머신(VM)을 도입했다고 밝혔다. 많은 기업들이 디지털 전환 방안을 모색함에 따라 온프레미스(on-premises) 데이터센터를 보완하기 위한 클라우드 퍼스트(cloud-first) 아키텍처의 채택이 늘고 있다. 이에 따라 AMD는 구글 클라우드, SAP 등 주요 파트너사와 협업해 클라우드 기반 워크로드에서 성능, 에너지 효율, 확장성, 리소스 활용 등 다양한 고객 요구사항에 적합한 솔루션을 지원하며, AMD 에픽 프로세서 기반 시스템 확산을 가속화한다는 계획이다. AMD 에픽 프로세서는 클라우드 내 엔터프라이즈 워크로드를 위한 고성능과 보안 기능, 에너지 효율적인 솔루션을 지원한다. SAP는 클라우드 인프라에 대한 고객 투자 극대화를 돕는 라이즈 위드 SAP 솔루션에 AMD 에픽 프로세서 기반 구글 클라우드 N2D 가상머신을 탑재해, 데이터센터의 최신화는 물론 데이터를 활용 가능한 인사이트로 더욱 빠르게 변환할 수 있도록 지원한다.     AMD 에픽 사업부를 총괄하는 댄 맥나마라(Dan McNamara) 수석 부사장은 “AMD 에픽 CPU 기반 N2D 인스턴스가 SAP 비즈니스 스위트(SAP Business Suite) 엔터프라이즈 소프트웨어 워크로드에 채택되는 등 구글 클라우드, SAP와 같은 주요 파트너사와 긴밀한 협업이 진행되고 있다”면서, “AMD는 향후에도 에픽 프로세서의 뛰어난 성능과 비용 효율성을 바탕으로 최신 데이터센터 시스템 구축, IT 지출 간소화 등 최상의 클라우드 환경을 지원할 계획”이라고 전했다. SAP의 라릿 파틸(Lalit Patil) 엔터프라이즈 클라우드 서비스 부문 CTO는 “AMD 및 구글 클라우드와 엔지니어링 협업을 통해 동급 인스턴스 대비 향상된 성능 및 비용 효율을 달성할 수 있었다”면서, “라이즈 위드 SAP 이니셔티브의 일환으로 AMD 에픽 프로세서 기반 구글 클라우드 N2D 인스턴스를 탑재해 엔터프라이즈 클라우드 고객에게 필수적인 워크로드를 지원하고 있다”고 밝혔다. 구글 클라우드 컴퓨팅 부문의 마크 로마이어(Mark Lohmeyer) 부사장은 “AMD 및 SAP와 협업으로 기존 워크로드를 클라우드 시스템에 이전하고자 하는 고객들에게 확장 가능하고 강력한 솔루션을 지원한다”면서, “AMD 에픽 프로세서를 탑재한 구글 클라우드 N2D 가상머신으로 SAP 비즈니스 스위트 워크로드에 놀라운 가격 대비 성능을 제공한다”고 밝혔다.
작성일 : 2023-07-12
인텔-SAP, 클라우드 솔루션의 확장성과 속도 높이는 협력 발표
인텔과 SAP는 클라우드에서 더욱 강력하고 지속 가능한 SAP 소프트웨어 환경을 제공하기 위한 전략적 협력을 발표했다. 이번 협력은 고객이 기존 SAP 소프트웨어 환경의 확장성, 민첩성, 통합을 강화할 수 있도록 설계됐으며, 4세대 인텔 제온 스케일러블 프로세서 기반의 강력하고 안전한 SAP용 인스턴스를 제공하는 인텔의 노력을 한 단계 고도화한다. SAP 애플리케이션 성능 기준(SAP Application Performance Standard) 벤치마크 측정 결과, 인텔 4세대 제온 프로세서는 이전 세대 대비 더욱 향상된 성능을 SAP 고객에게 제공한다. 더불어, 인텔은 현재 최대 24 테라바이트(TB) 규모의 가상머신(VM)을 지원하며 라이즈 위드 SAP(RISE with SAP)를 통해 최대 32TB 규모까지 확장할 계획이다. 인텔의 4세대 제온 프로세서는 다양한 내장 가속기를 탑재했다. 이를 통해 성능을 개선하고 고객의 총소유비용(TCO)을 낮춰 고객이 라이즈 위드 SAP를 위한 ERP(전사적 자원 관리)를 최적화할 수 있도록 지원한다. 시스템 성능이 크게 개선되면 고객 요구사항을 충족하는 데 필요한 시스템 수가 줄어들 수 있다. SAP 고객은 CPU 전력을 절감하는 4세대 제온 프로세서를 바탕으로 더 빠른 처리 속도와 향상된 성능을 경험하는 동시에, 클라우드의 확장성과 유연성 등 이점도 누릴 수 있다. 고객은 이러한 기술을 토대로 비즈니스 운영에 필요한 보안과 안정성을 보장하는 동시에 라이즈 위드 SAP 솔루션을 빠르고 쉽게 구축할 수 있다. 클라우드의 대규모 인스턴스 유형에 대한 협력 외에도, 인텔과 SAP는 향상된 데이터 보안 및 암호화에 대한 향후 요구 사항을 충족하기 위해 마이크로소프트 애저를 시작으로 SAP의 서비스형 데이터베이스 솔루션인 SAP HANA 클라우드에 기밀 컴퓨팅을 활용하는 사용 사례를 확보할 계획이다. 인텔의 크리스토프 쉘(Christoph Schell) 최고 커머셜 책임자(CCO)는 “세계 최대의 SAP S/4HANA 시스템 중 상당수가 인텔 아키텍처에서 실행되고 있다”며, “SAP 고객은 4세대 제온 스케일러블 프로세서 기반의 새로운 클라우드 컴퓨팅을 통해 증가하는 규정 준수 및 보안 요구사항을 충족할 뿐 아니라 더 빠르고 안전한 통합 비즈니스 프로세스를 위한 첨단 기술을 적용할 수 있다”고 말했다. SAP 이사회의 스콧 러셀(Scott Russell) 고객 성공 부문 임원은 "인텔 그리고 공동 서비스형 인프라 파트너와 협력함으로써 각자의 최고 기술을 결합하여 고객을 위한 혁신적이고 강력한 클라우드 컴퓨팅 솔루션을 개발할 수 있게 됐다”며, "이는 라이즈 위드 SAP를 통해 고객에게 가치를 제공하고자 하는 SAP의 노력의 결과이며, 앞으로도 인텔과 긴밀히 협력해 클라우드 혁신을 지속해 나갈 것"이라고 말했다.
작성일 : 2023-05-18
[포커스] 오라클 클라우드에서 레드햇 리눅스 지원 강화
오라클과 레드햇이 오라클 클라우드 인프라스트럭처(OCI)의 분산형 클라우드에서 레드햇 엔터프라이즈 리눅스(RHEL)의 설치 및 구동 과정에 대한 지원을 강화한다고 밝혔다. 양사는 OCI와 RHEL을 사용하는 기업에서 핵심 애플리케이션을 클라우드로 이전하는 경험을 개선할 수 있을 것으로 기대하고 있다. ■ 정수진 편집장   오라클 클라우드와 레드햇 운영체제의 결합 강화 RHEL은 유연하고 안정적인 리눅스 환경을 통해 하이브리드 클라우드 혁신을 지원하는 데에 주력하고 있다. RHEL은 물리, 가상, 프라이빗 및 퍼블릭 클라우드 및 엣지에 걸쳐 향상된 일관성을 제공하면서, 기업의 앱과 핵심 워크로드를 효율적이고 빠른 속도로 구축, 배포 및 관리하도록 지원한다는 점을 내세운다. 또한, 레드햇 엔터프라이즈 리눅스 플랫폼은 인프라의 개발 단계에서 보안 및 컴플라이언스를 구축할 수 있는 기능, 그리고 운영 라이프사이클 전 단계에 걸쳐 안정성을 더 쉽게 유지할 수 있는 방법을 제공한다. OCI는 고객이 복수의 클라우드에 걸쳐 데이터 레지던시, 지역성 및 권한 제어를 강화할 수 있는 '분산형 클라우드'를 제공한다. 퍼블릭 클라우드뿐 아니라 온프레미스를 포함하는 하이브리드 클라우드, 멀티 클라우드, 기업의 데이터센터 안에서 오라클 클라우드 서비스를 구동하는 OCI 전용 리전 등 다양한 클라우드 환경을 제공한다. 오라클은 다양한 분산형 클라우드 환경에서 RHEL을 설치하고 사용하는데 있어 동일한 경험을 제공한다는 계획이다.   ▲ OCI 상에서 RHEL 운영의 이점   클라우드 도입·이전의 경험 향상 기대 오라클의 레오 룽(Leo Leung) OCI 및 기술 부문 부사장은 “OCI의 유연한 VM(가상머신) 환경에 인증된 구성에 한해 RHEL의 운영을 지원할 수 있게 됐다”면서, “새로 클라우드를 도입하거나 기존 인프라를 클라우드로 마이그레이션(이전)하려는 고객들에게 큰 장점이 될 것”이라고 보았다. 오라클과 레드햇은 많은 기업 고객에게 익숙한 브랜드이다. 양사는 이번 협력을 통해 기업 고객에게 클라우드 인프라와 리눅스 운영체제에 대한 기술 지원을 강화할 수 있을 것으로 기대하고 있다. 클라우드를 도입하는 것뿐 아니라 마이그레이션이나 현대화하는 경우에 적지 않은 시간이 소요되는데, 이 과정을 양사가 더욱 깊이 있게 지원함으로써 클라우드 도입 속도를 높일 수 있다는 것이다. OCI에 RHEL을 구축하려는 경우에 고객은 오라클과 레드햇 중 원하는 회사에 기술지원을 요청할 수 있는데, 어느 쪽에서 기술지원을 받든 간에 오라클과 레드햇의 기술지원팀이 협력해 동일한 지원을 제공한다는 것이 레오 룽 부사장의 설명이다.   ▲ OCI에서 RHEL을 구축하는 단계   폭넓은 클라우드 및 가상 머신 구성 지원 OCI에서 RHEL을 구축하는 과정은 네 단계로 이뤄진다. 먼저 RHEL의 이미지 다운로드받고, 이 이미지를 OCI의 오브젝트 스토리지로 업로드한다. 업로드된 이미지는 OCI 컴퓨트로 가져올 수 있고, 이후 지원하는 스페이스를 선택해 OCI의 VM 인스턴스를 생성하면 된다. OCI는 퍼블릭 클라우드와 하이브리드 클라우드뿐 아니라 OCI의 구성을 사내 데이터센터에 설치하는 전용 리전(OCI Dedicated Region)도 제공한다. 이번 양사의 협력으로 오라클의 분산형 클라우드에서 RHEL을 더욱 효과적으로 활용할 수 있게 됐다. 또한 OCI 인프라와 서비스를 사용자에 맞게 커스텀화하고 기업의 자체 클라우드 브랜드로 만들 수 있는 오라클 알로이(Oracle Alloy)도 지원해, 다양한 OCI 클라우드 환경에서 RHEL을 사용할 수 있게 됐다. 오라클은 OCI에서 제공되는 VM은 고객이 원하는 코어 수와 메모리 용량을 선택해 원하는 VM을 구성할 있다는 점을 내세운다. 이번 협업을 통해 오라클과 레드햇은 OCI의 유연한 가상머신 인증 구성을 기반으로 레드햇 엔터프라이즈 리눅스를 OCI에서 구동시킬 수 있다고 소개했다. 레드햇 엔터프라이즈 리눅스는 단일 CPU 증분으로 1개에서 최대 80개의 CPU 코어를 제공하고, 프로세서에 따라 CPU 당 1GB에서 총 1024GB의 메모리까지 제공하는 OCI의 가상머신에 대한 인증을 획득했다. 레드햇 엔터프라이즈 리눅스는 인텔, AMD, Arm 프로세서를 사용하는 최신 OCI 가상머신 구성에서 초기 지원된다.   ▲ 인증된 RHEL 버전 및 OCI 컴퓨트 스페이스   클라우드 고려하는 기업의 선택지 넓힌다 한편, 오라클과 레드햇은 RHEL의 유지보수 서브스크립션과 OCI 관련 계약은 기존과 변함 없이 제공된다고 설명했다. 또한 OCI에서 RHEL을 구축·사용하는 과정에 대해 어느 지역에서든 동일한 기술지원을 받을 수 있으며, 앞으로 더 간소화된 구축을 지원할 예정이라고 밝혔다. 레드햇의 패트릭 딕슨(Patrick Dixon) 수석 디렉터는 “양사의 협력으로 레드햇 고객에게도 클라우드 전환 및 배포를 위한 더 넓은 선택지가 주어졌다. 하이브리드 클라우드 플랫폼으로 OCI와 RHEL을 사용하고 있는 고객이 많은데, 신규 구축이나 이전 과정이 더욱 쉬워질 것이다. 레드햇으로서도 기술지원에 대한 고객 경험을 그대로 이어가면서 유연성을 강화할 수 있을 것으로 본다”고 전했다.     ◼︎ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-03-03
오라클 클라우드에서 레드햇 리눅스를 더 쉽게 사용한다
오라클과 레드햇이 오라클 클라우드 인프라스트럭처(OCI)의 분산형 클라우드 상에서 레드햇 엔터프라이즈 리눅스(Red Hat Enterprise Linux : RHEL)의 설치와 구동을 지원하는 협력 내용을 소개했다. 양사는 OCI와 레드햇 엔터프라이즈 리눅스를 사용하는 기업에서 핵심 애플리케이션을 클라우드로 이전하는 경험을 개선할 수 있을 것으로 기대하고 있다. 레드햇 엔터프라이즈 리눅스는 유연하고 안정적인 리눅스 환경을 통해 하이브리드 클라우드 혁신을 지원하는 데에 주력하고 있다. 레드햇 엔터프라이즈 리눅스는 물리, 가상, 프라이빗 및 퍼블릭 클라우드 및 엣지에 걸쳐 향상된 일관성을 제공하면서, 기업의 앱과 핵심 워크로드를 효율적이고 빠른 속도로 구축, 배포 및 관리하도록 지원한다는 점을 내세운다. 또한, 레드햇 엔터프라이즈 리눅스 플랫폼은 인프라의 개발 단계에서 보안 및 컴플라이언스를 구축할 수 있는 기능, 그리고 운영 라이프사이클 전 단계에 걸쳐 안정성을 더 쉽게 유지할 수 있는 방법을 제공한다. OCI는 고객이 복수의 클라우드에 걸쳐 데이터 레지던시, 지역성 및 권한 제어를 강화할 수 있는 '분산형 클라우드'를 제공한다. 퍼블릭 클라우드뿐 아니라 온프레미스를 포함하는 하이브리드 클라우드, 멀티 클라우드, 기업의 데이터센터 안에서 오라클 클라우드 서비스를 구동하는 OCI 전용 리전 등 다양한 클라우드 환경을 제공한다. 오라클은 다양한 분산형 클라우드 환경에서 래드햇 엔터프라이즈 리눅스를 설치하고 사용하는데 있어 동일한 경험을 제공한다는 계획이다.     협업을 통해 오라클과 레드햇은 OCI의 유연한 가상머신 인증 구성을 기반으로 레드햇 엔터프라이즈 리눅스를 OCI에서 구동시킬 수 있다고 소개했다. 레드햇 엔터프라이즈 리눅스는 단일 CPU 증분으로 1개에서 최대 80개의 CPU 코어를 제공하고, 프로세서에 따라 CPU 당 1GB에서 총 1024GB의 메모리까지 제공하는 OCI의 가상머신에 대한 인증을 획득했다. 레드햇 엔터프라이즈 리눅스는 인텔, AMD, Arm 프로세서를 사용하는 최신 OCI 가상머신 구성에서 초기 지원된다.  오라클의 레오 룽(Leo Leung) OCI 및 기술 부문 부사장은 "양사의 협력으로 새롭게 클라우드를 도입하려는 고객뿐 아니라 레드햇 엔터프라이즈 리눅스 기반의 기존 워크로드를 OCI 클라우드로 이전(마이그레이션)하려는 고객이 이점을 얻을 수 있을 것"이라면서, "또한 고객은 레드햇과 오라클의 기술지원팀을 통해 OCI 클라우드 인프라와 RHEL 운영체제를 사용하는 과정에서 생길 수 있는 문제에 대해 도움을 받게 된다"고 설명했다.
작성일 : 2023-02-01
[포커스] 인텔, 4세대 제온 스케일러블 프로세서로 다양한 워크로드의 성능 향상 지원
인텔코리아가 데이터센터를 위한 ‘4세대 제온 스케일러블 프로세서’를 국내에 출시했다. 인텔은 성능과 에너지 효율, 연결성 및 보안 등 폭넓은 부분에서 향상된 4세대 제온 스케일러블 제품군을 통해 확대되는 클라우드 및 슈퍼컴퓨팅 시장과 다양해지는 고객 요구에 대응한다는 계획이다. ■ 정수진 편집장   데이터센터를 위한 성능과 유연성 제공 인텔의 제온 스케일러블 프로세서는 데이터센터용의 CPU 제품군이다. 인텔은 최근 클라우드 시장이 확대되면서 가상화 분야에서 제온 스케일러블의 수요가 늘고 있다고 판단하고 있다. 또한, 통신이나 슈퍼컴퓨팅 등에도 범용 CPU가 많이 쓰이는 추세여서 제온 스케일러블 제품군의 시장 가능성을 엿보고 있다. 인텔코리아에서 데이터센터 사업을 담당하는 나승주 상무는 “데이터센터에 대한 고객의 요구가 다양해지면서 복잡성이 늘고 있는데, 인텔은 시장의 다변화에 대응하기 위해 노력하고 있다”면서, “데이터센터의 심장 역할을 하는 제온 프로세서는 폭넓은 호환성과 고객의 선택권을 제공함으로써, 다양한 시장에서 고객의 신뢰를 얻고 혁신을 뒷받침한다”고 소개했다. ‘사파이어 래피즈’라는 코드명으로 알려진 4세대 제온 스케일러블 프로세서는 트랜지스터 레벨에서 향상된 기술을 바탕으로 성능 향상과 에너지 효율을 높이는 데 주력했다. 인텔 7 공정 기술 기반의 고성능 코어(퍼포먼스 코어)를 탑재하고, 데이터의 입출력(I/O) 및 연결성 부분을 강화했다. 더 빠른 메모리 대역폭의 DDR 5와 I/O 네트워크 대역폭이 늘어난 PCIe 5.0 및 CPU 소켓 간의 대역폭을 늘린 UPI 2.0을 지원한다. 또한 외부 장치를 연결하기 위한 차세대 인터페이스인 CXL(Compute Express Link) 1.1을 지원해 급격한 메모리나 가속기를 빠르게 추가해야 하는 상황에 신속하게 대응할 수 있게 했다. 특정한 메모리 영역이나 데이터를 보호하는 것뿐 아니라 가상화 환경에서 가상머신(VM) 단위까지 전체 라이프사이클에 걸친 보안 기술을 제공하며, 전력 효율을 위한 추가 모드를 통해 대량의 워크로드가 필요 없을 경우에는 소비 전력을 줄일 수 있도록 했다.   ▲ 인텔코리아의 나승주 상무가 4세대 제온 스케일러블 프로세서의 특징을 소개했다.   특화된 작업에서 성능 높이는 가속기 탑재 4세대 제온 스케일러블 프로세서에서 인텔이 특히 강조하는 부분은, 사용자의 워크로드에 맞춘 12개의 가속기(액셀러레이터)를 내장했다는 점이다. 이들 가속기는 인공지능, 데이터 분석, 네트워크, 스토리지, 보안 등 특화된 작업을 CPU 코어 대신 맡아서 수행한다. 이를 통해 CPU의 부담을 줄이고, 성능 향상 및 전력 소비 감소가 가능하다는 것이 인텔의 설명이다. 4세대 제온 스케일러블 프로세서에 탑재된 주요 가속기는 다음과 같다. 인텔 어드밴스드 매트릭스 익스텐션(AMX) : CPU 코어마다 1개씩 내장된 가속기로, 인공지능 성능을 높인다. CPU가 계산에 사용할 데이터를 여러 개 저장하고 한 번에 처리할 수 있도록 한다. 또한 인공지능의 추론뿐 아니라 학습 성능도 높일 수 있다. 인텔 퀵 어시스트 기술(QAT) : 대량의 데이터를 압축 및 암호화하는 작업을 지원한다. 더 적은 오버헤드로 장치 간의 암호화 연결을 늘리고 안전한 웹 연결을 지원한다. 인텔 다이내믹 로드 밸런서(DLB) : 워크로드를 동적으로 재분배해 특정 코어에 워크로드가 집중되는 것을 막고, 균형을 맞추는 기술이다. 인텔은 특히 클라우드 서버에 DLB를 사용하면 레이턴시를 크게 줄일 수 있다고 설명했다. 인텔 인 메모리 분석 가속기(IAA) : 인메모리 데이터 분석 성능을 높인다. 데이터 분석 작업을 위한 쿼리 처리량을 늘리고, 인메모리 데이터베이스 및 빅데이터 분석 워크로드를 위한 메모리 풋프린트를 줄일 수 있다. 인텔 데이터 스트리밍 가속기(DSA) : 데이터의 이동 속도를 높이는 가속기로, 대용량 패킷 등 연속된 데이터의 이동에 활용해 IOPS를 높일 수 있다.   실질적인 사용자 워크로드의 성능 향상 지원 인텔은 4세대 제온 스케일러블 제품군에서 세 가지 타입의 다이 패키지 구조를 채택했다고 밝혔다. 이는 하나의 아키텍처에 기반한 제품만으로는 고객의 다양한 요구에 맞출 수 없다는 판단에 기반한 것이다. 4세대 제온 스케일러블에서 제공하는 다이 패키지는 ▲4개의 물리적인 코어 타일을 하나의 타일처럼 연결해 모든 대역폭을 제공하며 최대 60코어를 지원하는 XCC ▲기존의 모놀리식 구조에 기반하면서 범용의 메인스트림 시장에 대응하기 위한 MCC ▲메모리 중시 워크로드에서 높은 성능을 제공하기 위한 HBM이다. 인텔은 4세대 제온 스케일러블 프로세서가 3세대 대비 범용 컴퓨팅에서 53%의 성능 향상이 가능하고, 와트 당 성능은 평균 2.9배 향상됐다고 소개했다. 또한 인공지능 추론/학습에서는 10배, 네트워킹/스토리지에서 데이터 압축 성능은 2배, 데이터 분석 성능은 3배까지 높일 수 있다고 덧붙였다. 한편, 인텔은 4세대 제온 스케일러블 프로세서를 소개하면서 클럭 스피드와 같은 전통적인 성능 지표 대신 가속기를 중심으로 하는 성능 향상 효과를 강조했다. 이에 대해 나승주 상무는 “인텔은 수치상의 성능 증가보다 실질적인 워크로드 성능의 향상에 많은 관심을 두고 있다”면서, “제온 스케일러블 프로세서의 가속기는 사용자가 실제로 다루는 워크로드에서 데이터 처리량을 늘리고 지연시간을 줄이면서 효율을 높여준다. 이런 측면에서 ‘고성능’의 의미를 새롭게 정의한다고 볼 수 있다”고 설명했다. 인텔은 4세대 제온 스케일러블 프로세서에서 온디맨드 활성화 모델을 제공할 계획이다. CPU의 기본적인 기능 외에 사용자나 워크로드별로 필요한 기능이나 가속기가 있다면, CPU/시스템을 구매한 후에도 이를 유료로 사용할 수 있도록 하겠다는 것이다. 소프트웨어에서 기본 상태로는 사용할 수 없는 고급 기능을 별도의 비용을 받고 풀어주는 것과 비슷해 보인다. 나승주 상무는 “온디맨드 활성화 모델은 대형 클라우드 사업자 및 하드웨어 벤더와 협력을 통해 제공된다”면서, “이는 고객의 요구에 빠르게 대응할 수 있고 유연성, 성능, 확장성 등의 이점이 있다. 또한 인텔과 하드웨어 벤더의 입장에서는 제품 모델의 종류를 줄일 수 있어 제품 개발이나 고객 대응을 효율화할 수 있다”고 설명했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-01-31
[포커스] 제조 경쟁력을 위한 디지털 혁신, 클라우드 HPC에서 길을 찾다
제조산업에서도 업무 효율 및 R&D 혁신을 위한 수단으로 클라우드에 대한 관심이 높아지고 있다. 이런 가운데, 효과적인 클라우드 활용 방법을 제시하기 위한 ‘2022 HPC on AWS 온라인 콘퍼런스’가 지난 11월 16일 진행됐다. 캐드앤그래픽스 CNG TV를 통해 진행된 이번 콘퍼런스에서는 설계, 시뮬레이션, 데이터 관리, 협업 등 엔지니어링 영역을 중심으로 클라우드 HPC 관련 기술 동향과 효과적인 활용 방안 등이 폭넓게 소개됐다. ■ 정수진 편집장     클라우드의 목표는 생산성 높이고 혁신을 돕는 것 AWS 코리아의 황민선 ISV 세일즈 매니저는 “클라우드 HPC의 최종 목표는 온프레미스의 한계를 넘어, 시간 낭비 없이 생산성을 높이고 혁신을 지원하는 것”이라고 소개했다. 기존에 많이 쓰이던 온프레미스 HPC는 하드웨어를 확보/교체하거나 유지보수하는 데에 시간과 비용이 들고, 이 과정에서 HPC 작업이 지연되거나 중단되면 생산성이 낮아지거나 혁신의 기회를 놓칠 수 있다. 반면, 클라우드 기반의 HPC 기술은 이런 제약을 없애 기업의 혁신을 가속화할 수 있다는 것이 황민선 매니저의 설명이다. 전체 HPC 워크로드의 20%가 클라우드에서 실행되고 있어 전체 HPC 시장에서 비중은 작지만 향후 성장이 기대된다. 클라우드 HPC 시장 규모는 오는 2026년까지 110억 달러를 넘어설 것으로 보이며, 향후 5년간 17.6% 성장할 전망이다. 또한, HPC 워크로드를 실행 위해 기업이 퍼블릭 클라우드에 투자하는 비용은 올해 23% 이상 증가해 62억 달러를 넘을 것으로 예상되고 있다. 반면 온프레미스 HPC는 앞으로 5년간 6.9% 성장할 것으로 보인다. 황민선 매니저는 “AWS가 제시하는 클라우드 HPC는 무제한의 인프라에 액세스하고, 온디맨드 방식으로 빠르게 확장할 수 있다. 사용한 양만큼 비용을 지불하면서 대규모 투자가 없어도 최신 기술을 즉시 사용 가능한 이점이 있다. 유연한 구성 옵션으로 리소스를 빠르게 선택하고 비용을 최적화할 수 있는 것도 장점”이라고 설명했다.     에지부터 클라우드까지 지원하는 HW·SW 기술 인텔코리아의 이인구 전무는 “기술의 발전과 함께 다양한 기법으로 데이터를 수집, 가공, 분석해 비즈니스 인사이트를 얻고 새로운 비즈니스를 창출하는 흐름이 가속화된다”면서, “에지(edge)의 데이터가 네트워크를 거쳐 스토리지와 서버에 저장되고, 데이터 분석까지 병목 없이 데이터를 심리스하게 처리할 수 있도록 클라우드 아키텍처를 구성하고 소프트웨어 이용해 가속하는 것이 중요하다”고 짚었다. 인텔은 이를 위해 에지에서 생성되는 데이터를 데이터센터로 옮기거나 데이터센터간 빠른 전송을 위한 네트워크, 데이터센터에 더 많은 데이터를 저장하고 빠르게 액세스하기 위한 메모리 및 스토리지, 에지와 데이터센터에서 다양하게 이뤄지는 데이터 분석을 위한 저전력 CPU 및 데이터센터용 CPU, GPU와 AI 가속기 등 폭넓은 제품 포트폴리오를 제공한다. 특히 인텔의 3세대 제온(Xeon) 스케일러블 프로세서는 새롭게 출시된 서버 플랫폼에서 웹 서비스, 인공지능, 검색, 데이터베이스 등 다양한 분야의 성능을 높일 수 있는 것이 특징이다. 또한 보안 솔루션과 증가하는 워크로드를 효과적으로 처리하는 확장성 및 유연성을 제공하는데에 중점을 두었다. 한편, 인텔은 클라우드의 활용도를 높이는 소프트웨어 기술도 제공한다. 여기에는 워크로드의 클라우드 마이그레이션 및 클라우드 리소스를 최적화하는 기술, 데이터의 흐름과 처리 패턴을 실시간 분석해 최적의 실행경로를 탐색하는 워크로드 튜닝 기술, CPU/GPU/FPGA/가속기 등 다양한 아키텍처에서 개발 과정을 단순화하는 개발자 API 등이 있다.     클라우드 HPC의 비용 효율 높이는 CPU/GPU AMD는 데이터센터 시장에서 HPC, 기업용 IT, 클라우드, 인공지능, 가상화&게이밍 분야에 집중하고 있다. AMD 코리아의 김홍필 이사는 “가장 두각을 나타내는 분야는 HPC로, AMD CPU와 GPU 가속기로 구성된 슈퍼컴퓨터가 톱 500 리스트 1위에 오르기도 했다. AMD는 클라우드 분야에서도 다양한 가상화 인스턴스를 출시하는 등 클라우드 HPC에 적합한 솔루션을 제공하고 있다”고 소개했다. AWS에서도 AMD 기반의 다양한 EC2 인스턴스를 제공하고 있는데, 김홍필 이사는 AMD 인스턴스의 강점으로 가격 경쟁력을 꼽았다. 다른 인스턴스에 비해 낮은 가격으로 높은 성능을 제공해 비용 효율을 높일 수 있다는 것이다. 또한, 대부분의 클라우드 인스턴스가 x86 아키텍처로 구동되고 있는데, AMD의 CPU 또한 동일한 아키텍처에 기반하고 있어서, 소프트웨어를 변경하지 않고 AMD 기반 인스턴스로 마이그레이션이 가능하다는 점도 강조했다. 특히 EC2의 HPC6a 인스턴스는 3세대 에픽(EPYC) 프로세서로 구동되는 AWS의 첫 번째 AMD 기반 HPC 인스턴스이다. 최대 96개의 CPU 코어, 3.6Ghz 최대 클럭 속도, 384GB의 메모리를 탑재하고 100Gbps 네트워크를 지원해 HPC에 특화된 성능을 제공한다. 김홍필 이사는 HPC6a 인스턴스에서 CFD 애플리케이션를 테스트한 내용을 소개하면서 “시뮬레이션에서는 노드 증가에 따른 선형적인 성능 향상이 중요한데, HPC6a 인스턴스는 이런 성능을 잘 보여준다. 또한, 많은 인스턴스를 필요로 하는 작업일 수록 비용 절감 효과도 크다”고 전했다.     디지털 스레드로 클라우드 HPC의 활용 최적화 제조산업에서는 시장 경쟁이 심화되고 제품이 복잡해지면서 개발 난이도가 높아지고 있다. 이를 해소하기 위한 디지털 전환에 효과적으로 대응하는 한편, 재택근무가 늘면서 데이터 보안 및 네트워크 보안이 필요하다는 인식은 클라우드 HPC의 도입 증가로 이어지고 있다. 한편, 하드웨어 리소스의 사용량과 시간에 비례해 비용을 지불하게 되는 클라우드 HPC 환경에서는 HPC 리소스의 낭비 문제가 지적된다. 지멘스 디지털 인더스트리 소프트웨어(지멘스 DISW)의 김현준 본부장은 이를 해결하기 위해 전체 해석 프로세스와 데이터의 흐름을 일관되게 관리하는 ‘디지털 스레드 플랫폼’을 제시했다. CAD 플랫폼인 NX, 시뮬레이션 플랫폼인 심센터(Simcenter), 시뮬레이션 프로세스 및 데이터 관리(SPDM) 프로세스를 통해 데이터의 연결성과 일치성 및 소프트웨어 사이의 연계성을 확보한다는 것이 디지털 스레드 플랫폼의 기본 개념이다. 지멘스 DISW의 클라우드 기반 PLM인 팀센터 X(Teamcenter X)는 PLM 시스템과 해석 데이터&프로세스 관리 도구를 제공해, 해석 데이터 및 프로세스 관리를 신속하게 진행할 수 있도록 한다. 또한, 클라우드 플랫폼에서 해석 프로세스 데이터와 툴, 원하는 가상 코어를 적용하고 해석 결과를 확인하는 심센터 클라우드 HPC(Simcenter Cloud HPC)와 연결해 HPC 리소스의 낭비를 막고 해석 데이터의 흐름을 관리할 수 있게 지원한다. 한편, 클라우드 HPC는 공장이나 사물인터넷 빅데이터를 처리하는 데에도 쓰일 수 있다. 김현준 본부장은 “시뮬레이션뿐 아니라 공장 자동화, 공장 데이터, 제품 IoT 데이터 등을 통합해 성능을 높이기 위한 데이터 처리 플랫폼으로 클라우드를 활용할 수 있다”고 전했다.     시뮬레이션의 가치 높이는 클라우드 플랫폼 많은 양의 수학 계산이 필요한 시뮬레이션을 위해서 기존에는 워크스테이션 등 고가의 장비가 쓰였는데, 최근에는 구조, 유동, 전자기, 진동소음, 다물체 동역학 등 다양한 시뮬레이션을 클라우드 기반에서 운영할 수 있게 됐다. 다쏘시스템코리아의 황하나 컨설턴트는 “클라우드는 데이터의 저장과 공유뿐 아니라 효율적이고 유연한 시뮬레이션 환경을 구축할 수 있게 한다”면서, “복잡한 계산은 클라우드가 수행하기 때문에, 일반 PC로도 시뮬레이션 데이터에 손쉽게 접근할 수 있고, 시뮬레이션을 위한 장비를 추가 구매/증설할 필요도 없다”고 설명했다. 한편, 높은 수준의 해석과 함께 조직 내 협업 역시 제품 개발 프로젝트를 성공하기 위한 필수 요소로 꼽힌다. 이를 위해서는 클라우드 플랫폼의 데이터 관리 체계를 통해 복잡한 데이터 간에 연결성을 확보하고, 모델·해석 시나리오·시뮬레이션 결과 등을 통합 관리할 수 있다. 다쏘시스템은 폭넓은 시뮬레이션 솔루션 포트폴리오를 제공하는 시뮬리아(SIMULIA)와 3DX 플랫폼: 역할(role) 기반 구조로 기술-사람-데이터의 연결과 공유를 지원하는 3D익스피리언스 플랫폼(3DEXPERIENCE Platform)을 제공한다. 황하나 컨설턴트는 “3D익스피리언스 플랫폼은 디자인 변경 내용, 해석용 형상, 요소, 시나리오 등을 그대로 유지하면서 추적 관리가 가능하고, CAD 모델과 시뮬레이션용 모델을 따로 제작/관리할 필요도 없다”고 소개했다. 또한 “클라우드를 통해 제품의 성능을 개선할 수 있는 시뮬레이션의 가치를 더욱 키울 수 있다. 나아가 클라우드는 빅데이터와 인공지능 등을 융합하기 위한 선행 기술이기도 하다”고 덧붙였다.     클라우드로 데이터 중심의 협업 구현 과거의 방식으로 구축된 제품 개발 시스템에서는 데이터가 고립된 방식으로 처리되고 보관되고 있다. 이런 환경에서는 필요한 데이터를 찾는 데에 많은 시간이 들고, 협업에도 어려움이 커진다. 오토데스크코리아의 김지훈 차장은 ‘데이터 중심의 프로세스 전환’을 해결책으로 제시했다. 오토데스크는 AWS의 다양한 기능을 활용해 하이브리드 클라우드 기반의 플랫폼 서비스를 구축했는데, 이 서비스는 전체 제품 개발 과정을 간소화하고 데이터 중심으로 협업할 수 있는 프로세스를 제공하는 데에 초점을 두고 있다. 김지훈 차장은 “데이터 중심의 통합 가치사슬을 만들고 공급업체 데이터의 안전한 액세스 및 고객 데이터의 통합을 통해 피드백 순환구조(loop)를 형성해야 제품 혁신을 빠르게 추진할 수 있다”고 설명했다. 오토데스크는 자사의 클라우드 플랫폼 서비스를 제조/건축/미디어 분야에 특화된 솔루션으로 제공하고 있는데, 이 가운데 제조 분야를 위한 플랫폼인 퓨전 360(Fusion 360)은 제품 개발의 시작 단계부터 설계, 데이터 관리, 제조 프로세스, 적층 프로세스 등을 통합된 환경에서 활용할 수 있도록 한다. 김지훈 차장은 “퓨전 360은 F3D 데이터 포맷에서 설계, 해석, 툴패스, 도면 등의 데이터를 하나로 관리할 수 있게 해 전체 제품 개발 프로세스의 연결을 위한 데이터 통합을 지원한다. 그리고 타사의 3D 소프트웨어 솔루션 데이터를 퓨전 360에서 통합해 리얼타임으로 업데이트하고 상호작용할 수 있도록 한다”고 소개했다. 또한, “클라우드 플랫폼은 최신 버전을 실시간 업데이트해 다양한 기능을 즉시 사용하고, 기존 시스템과 플랫폼 시스템을 비즈니스 상황에 맞춰 유연하게 사용할 수 있어야 한다. 또한 설계, 해석, 렌더링에 제한 없이 액세스하고 비즈니스 확대 및 협업을 통한 제조 생태계를 제공해야 한다”고 전했다.     클라우드 시뮬레이션 활용을 더욱 쉽고 빠르게 앤시스 코리아의 최장훈 부장은 “기존에 클라우드에서 시뮬레이션 소프트웨어를 사용하려면 IT 및 클라우드에 대한 전문 지식이 필요했다. 앤시스와 AWS는 지난 10월에는 ‘앤시스 게이트웨이(Ansys Gateway)’를 출시해, 몇 번의 클릭으로 AWS 환경에서 앤시스의 소프트웨어로 쉽고 빠르게 시뮬레이션을 할 수 있도록 돕는다”고 소개했다. 앤시스 게이트웨이는 클라우드에서 VDI(가상 데스크톱 인프라) 및 HPC 기반으로 앤시스의 다양한 애플리케이션을 쉽게 구축할 수 있게 한다. 기존에 가진 앤시스 라이선스와 AWS 계정·크레딧을 사용할 수 있으며, 가상머신(VM)의 생성이나 CPU/메모리/디스크 용량의 변경 등을 손쉽게 할 수 있다. 클라우드상의 가상머신과 HPC 자원의 비용 및 사용량을 관리하는 기능을 제공하며, 데이터 공유 및 협업도 지원한다. 또한 앤시스뿐 아니라 다른 회사의 CAE 및 CAD 소프트웨어도 사용할 수 있게 했다. 최장훈 부장은 “웹 브라우저 기반에서 사용할 수 있도록 앤시스 게이트웨이를 제공해, 클라우드에 대한 기반 지식과 기술이 없어도 사용할 수 있도록 했다. 중요한 목적은 클라우드 시뮬레이션에서 고객이 겪는 하드웨어 관련 장벽을 제거하는 것”이라고 전했다. 현재 앤시스 게이트웨이는 앤시스의 주요 제품을 몇 번의 클릭으로 사용 가능. 플래그십 솔버를 비롯해 워크벤치(Workbench), 모션(Ansys Motion), 셜록(Sherlock), LS-다이나(LS-DYNA), CFX, 아이스팩(Icepak), 맥스웰(Maxwell), SCADE, 스페오스(Speos), 광학해석 툴의 자동 설치를 지원한다.     하이브리드 클라우드를 위한 스케줄링 및 관리 한국알테어의 박진구 책임은 기업이 자체 구축된 온프레미스 서버와 클라우드 가상머신/서버를 함께 구성하는 하이브리드 클라우드 아키텍처에 대해 소개했다. 온프레미스 HPC의 경우 업무량에 따라 시스템의 용량이 부족하거나 남는 경우가 생긴다. 물리적인 서버를 늘리려면 증설 요청부터 주문-배달-설치-운영까지 적지 않은 시간이 걸리는데, 클라우드는 주문부터 운영까지 걸리는 시간이 짧기 때문에 빠르게 대응할 수 있다는 것이다. 또한 사용하려는 소프트웨어에 맞춰 다양한 운영체제, CPU, GPU를 선택할 수 있는 것도 클라우드의 이점 중 하나이다. 알테어는 퍼블릭+온프레미스 또는 퍼블릭+프라이빗을 함께 사용하는 하이브리드 클라우드를 위해 HPC 스케줄러인 PBS와 클라우드 연동을 위한 클라우드 버스팅(cloud bursting) 시스템을 제공한다. 박진구 책임은 알테어가 제시하는 하이브리드 클라우드 구성을 소개하면서 “PBS 스케줄러를 사용해 시뮬레이션 등 사용자의 작업을 위한 클라우드 리소스를 요청하고, VPN을 통해 클라우드와 보안 연결이 가능하다. 온프레미스의 시뮬레이션 솔버 라이선스를 클라우드에서 사용하도록 구성할 수 있다”고 설명했다. 이렇게 구성된 하이브리드 클라우드 환경에서 사용자는 PC에서 클라우드로 작업 파일을 전송하고, 클라우드로 전송된 작업은 퍼블릭 클라우드에서 시뮬레이션을 진행하게 된다. 시뮬레이션 결과는 VPN 보안을 통해 온프레미스 시스템으로 전송되어 사용자는 PC에서 결과를 확인할 수 있다.     엔지니어링 R&D 위한 클라우드 HPC 및 VDI ISBC의 김완희 대표는 최적의 R&D 환경을 지원하는 유연한 클라우드 HPC를 소개했다. 클라우드 HPC에 대해서는 비용 효율과 다양한 컴퓨팅 인스턴스 등의 이점이 알려져 있는데, 김완희 대표는 “ISBC는 HPC 환경에 필요한 통합 R&D 포털을 제공하며, 엔지니어링 VDI를 통해 다양한 전처리 작업 환경을 지원한다. 또한 HPC 서비스와 연동해 해석 솔빙(solving)을 진행할 수 있는  원스톱 VDI+HPC 서비스도 제공한다”고 소개했다. ISBC의 엔지니어링 VDI는 AWS의 그래픽 중심 인스턴스를 사용하며 엔지니어링, 영화/콘텐츠 등 그래픽 작업을 위해 고성능 GPU를 원격에서 활용할 수 있는 환경을 지원하는 것이 특징이다. 한편, 백엔드에서는 HPC 환경에서 다양한 소프트웨어를 함께 사용할 수 있도록 지원한다. 제조기업에서는 다양한 소프트웨어를 함께 사용하는 경우가 많고 머신러닝을 활용하기도 하는데, 김완희 대표는 “이를 위해 유연한 HPC 활용을 지원하는 것이 핵심이다. ISBC는 여러 ISV(독립 소프트웨어 공급사)와 협력하고 있으며 HPC 컨설팅 노하우 및 다수의 레퍼런스를 갖추고 있다”이라고 설명했다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2022-12-01