• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "DPU"에 대한 통합 검색 내용이 118개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
레노버, “새로운 서비스·설루션·플랫폼으로 하이브리드 AI 확대”
레노버가 AI 시대를 맞아 기업의 IT 전환 가속화를 위해 ‘레노버 하이브리드 AI 어드밴티지(Lenovo Hybrid AI Advantage)’를 확장했다고 밝혔다. 이번 확장을 통해 레노버는 고성능 서버 기반의 가속 컴퓨팅, 네트워킹, 파트너 통합 기능을 갖춘 AI 인프라를 바탕으로 기업이 AI 팩토리를 구축·확장·운영할 수 있도록 지원하는 프레임워크를 제공한다. 새롭게 검증된 설루션과 서비스, 플랫폼은 기업이 모든 환경에 맞춰 적합한 AI를 보다 빠르게 배포할 수 있도록 지원하고 생산성, 민첩성, 신뢰성을 기반으로 한 비즈니스 가치 실현을 가능하게 한다. 레노버 하이브리드 AI 어드밴티지는 AI 인프라, 데이터, 모델, 서비스, 검증된 활용 사례를 통합해 기업이 조직 전반의 인력, 운영, 데이터에 AI를 적용할 수 있도록 지원한다. 레노버는 자사의 서비스를 기반으로 생성형 AI 도구 도입 프레임워크를 적용할 경우 생산성과 효율이 최대 31% 향상(주당 절감 시간 기준)될 수 있다고 설명했다. 레노버의 AI 도입 및 변화 관리 서비스(AI Adoption and Change Management Services)는 기업이 AI 수용 태세를 점검하고, 인력 역량을 강화하며, 참여도를 높이고, 페르소나 기반의 변화 관리와 모범 사례를 통해 기업 시스템에서 ROI를 극대화하도록 지원한다. 주요 서비스 항목으로는 ▲레노버 AI 인적 준비도 평가 ▲페르소나 기반 교육 및 참여 유도 ▲ 코파일럿 도입 지원 ▲AI 거버넌스 및 조직 문화 수용성 강화 등이다. 레노버 하이브리드 AI 어드밴티지는 기업이 AI 실험 단계를 넘어 조직 전반에 걸쳐 측정 가능한 성과를 달성할 수 있도록 지원한다. AI에 대한 기대와 실제 효과 사이의 격차를 줄이기 위해서는 주요 비즈니스 과제를 해결하고 기업 워크플로에 맞게 확장 가능한 신뢰도 높은 AI 애플리케이션이 필요하다. 레노버는 ISV와의 협력을 통해 검증된 레노버 AI 이노베이터 디자인 기반의 설루션을 제공해 기업이 손쉽게 설루션을 맞춤화하고 성능을 최적화할 수 있도록 지원한다고 밝혔다. 이 설루션들은 하이브리드 AI 플랫폼 환경에 최적화되어 실제 비즈니스 워크플로와 활용 사례를 구현할 수 있도록 설계됐다. 대표 설루션으로는 ▲센티픽(Centific) AI 데이터 파운드리 및 엔비디아 기반의 호스피탈리티 설루션 ▲아바돈(Avathon) 비주얼 AI 및 엔비디아 기반의 산업 현장 안전 및 보호장비 착용 준수 여부 모니터링 설루션 ▲웨이트타임(WaitTime) 및 인텔 기반의 리테일 및 스마트 공간 분석 설루션 ▲트리포크(Trifork) 및 엔비디아 기반의 품질 검사 설루션 등이 있다. 이번 확장은 시스코, IBM, 엔비디아와의 협업을 기반으로 글로벌 기업의 AI 도입을 가속화하는 새로운 통합 설루션을 제공한다. 새로운 플랫폼은 업계 선도 파트너의 가속 컴퓨팅, 네트워킹, 스위칭, 소프트웨어를 통합한 고성능·저전력 AI 인프라를 기반으로 기업이 하이브리드 AI 팩토리를 손쉽게 구축·확장·운영할 수 있도록 지원한다. 레노버는 다양한 산업의 모델 개발, 그래픽 처리, 시뮬레이션 워크로드를 위한 연산 성능을 제공하는 새로운 씽크시스템 SR680a V4 시스템을 선보였다. 이 시스템은 인텔 제온(Xeon) 6 CPU와 엔비디아 블랙웰(BlackWell) GPU를 탑재했으며, 고속 엔비디아 NV링크로 GPU 간 고속 연결을 지원해 탁월한 컴퓨팅 파워와 AI 가속 기능을 제공한다. 또한 8개의 엔비디아 슈퍼NIC과 블루필드-3 DPU를 탑재해 기존 대비 최대 11배 빠른 대규모 언어 모델 추론 성능, 7배 높은 연산 처리 성능, 4배 확장된 메모리를 지원한다. 또한 IBM 왓슨x 기반 하이브리드 AI 플랫폼은 레노버 씽크시스템 SR675 서버, 레드햇 오픈시프트(Red Hat OpenShift), 엔비디아 기술을 기반으로 구축된 고성능 인프라를 통해 생성형 AI 모델의 개발, 배포, 거버넌스를 가속화한다. 시스코 기반의 하이브리드 AI 플랫폼은 최대 8개의 엔비디아 RTX PRO 6000 블랙웰 GPU를 탑재한 레노버 SR675 V3 서버를 기반으로 구축되며, 엔비디아 스펙트럼-X(Spectrum-X)가 적용된 시스코 넥서스(Nexus) 스위치를 통해 1.6배 향상된 AI 네트워크 성능과 효율적인 네트워크 관리를 제공한다. 레노버 인프라스트럭처 설루션 그룹(ISG) 애슐리 고라크푸르왈라(Ashley Gorakhpurwalla) 사장은 “레노버는 통합 설루션 전반에서 획기적인 혁신을 이끌며 업계 변화를 주도하는 한편, 모든 기업이 엔터프라이즈급 AI를 실현할 수 있도록 하이브리드 AI 분야를 선도하고 있다”면서, “레노버는 이번 설루션과 신뢰할 수 있는 파트너십을 기반으로 AI를 현실화하고 있다. 검증된 다양한 사용 사례와 서비스를 통해 측정 가능한 생산성 향상과 만족도 제고, 데이터 기반의 빠른 비즈니스 가치 실현을 가능케 할 것”이라고 밝혔다.
작성일 : 2025-08-26
HPE, 엔비디아와 협력을 통해 신규 AI 팩토리 설루션 공개
HPE는 모든 유형의 조직이 전체 AI 라이프사이클에 걸쳐 인공지능(AI) 팩토리 구축, 도입 및 관리를 강화할 수 있도록 지원하는 새로운 설루션을 발표했다. HPE는 서비스 제공업체, 모델 개발자 등을 위한 맞춤형 컴포저블 설루션과 엔터프라이즈용 턴키 AI 팩토리인 차세대 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)를 포함해 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재한 ‘HPE 포트폴리오 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE portfolio)’ 설루션 포트폴리오를 확대하고 있다. AI 팩토리를 위한 통합형 엔드투엔드 설루션과 서비스는 고객이 최신 AI를 위한 데이터센터를 구축할 때 자체적으로 AI 기술 스택을 구성하는 데 따르는 복잡성을 줄여준다. HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오의 대표 제품인 프라이빗 클라우드 AI는 엔비디아 가속 컴퓨팅, 네트워킹 및 소프트웨어를 포함한 올인원 AI 팩토리 설루션이다. 엔비디아 블랙웰 가속 컴퓨팅을 지원하는 HPE 프로라이언트 컴퓨트 Gen12 서버는 변조 방지를 위한 시큐어 인클레이브(Secure Enclave), 양자 이후 암호화, 랙 및 서버 수준의 신뢰할 수 있는 공급망 역량을 제공한다. 또한, 엔비디아 H200 NVL 및 엔비디아 RTX PRO 6000 서버 에디션 GPU를 포함해 다양한 기업용 AI 워크로드(에이전트 및 물리형 AI 사례 포함)를 지원한다. 새로운 연합 아키텍처를 통해 리소스 풀링이 통합되어, 모든 AI 워크로드에 새로운 GPU와 리소스를 공유할 수 있다. 프라이빗 클라우드 AI는 엄격한 데이터 프라이버시 요구사항을 갖춘 조직을 위한 폐쇄형 클라우드(air-gapped) 관리 기능 및 기업이 팀 간 협업과 리소스 분할을 가능하게 하는 멀티 테넌시 기능을 지원한다. 그리고, AI 에이전트 생성 및 워크플로에 특화된 엔비디아 AI-Q 블루프린트 등 최신 엔비디아 AI 블루프린트(NVIDIA AI Blueprints)를 제공한다. 고객은 구매 전 에퀴닉스(Equinix) 전 세계 고성능 데이터센터 네트워크에서 프라이빗 클라우드 AI를 테스트해볼 수 있는 새로운 ‘트라이 앤 바이(Try and Buy)’ 프로그램을 활용할 수 있다. 한편, HPE는 자사의 AI 팩토리 포트폴리오를 확대하면서 신규 검증 설루션도 선보였다. 이 설루션에는 액체 냉각 기술, 하이브리드 클라우드 운영, 통합 제어를 위한 HPE Morpheus Enterprise Software 등이 포함됐다. HPE의 종단 간 컴포저블 설루션은 고객을 위해 사전 통합된 모듈형 기술 스택으로 제공돼, 구축 시간과 가치를 실현하는 속도를 높인다. HPE의 AI 팩토리 설루션은 엔비디아 엔터프라이즈 AI 팩토리의 검증된 설계를 활용함으로써 최신 엔비디아 가속 컴퓨팅, 엔비디아 스펙트럼-X(NVIDIA Spectrum-X) 이더넷 네트워킹, 엔비디아 블루필드-3(NVIDIA BlueField-3) DPU, 및 엔비디아 AI 엔터프라이즈 소프트웨어(NVIDIA AI Enterprise software)를 통해 배포 가능하다. 이를 통해 차세대 AI 시대를 위한 고성능, 강력한 보안, 효율적인 저장 가속화, 및 확장 가능한 인프라를 제공한다. HPE의 안토니오 네리(Antonio Neri) 사장 겸 최고경영자(CEO)는 “생성형 AI, 에이전틱 AI, 피지컬 AI는 글로벌 생산성을 혁신하고 지속가능한 사회적 변화를 가져올 잠재력을 품고 있다. 하지만 이러한 AI의 성공은 결국 이를 뒷받침하는 인프라와 데이터의 역량에 의해 좌우된다”며, “조직이 AI가 제공하는 기회를 실현하기 위해서는 올바른 데이터, 인텔리전스, 비전이 필요하며, 무엇보다 이를 실행할 수 있는 올바른 IT 기반을 마련하는 것이 핵심이다. HPE는 업계를 선도하는 AI 인프라와 서비스를 결합한 가장 포괄적인 접근 방식을 통해 조직이 AI 비전을 실현하고 지속가능한 비즈니스 가치를 창출할 수 있도록 지원하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “우리는 새로운 산업 시대에 들어서고 있다, 이는 대규모로 인텔리전스를 생성하는 능력으로 정의되는 시대”라며, “HPE와 엔비디아는 이 변혁을 주도하기 위해 전체 스택 AI 공장 인프라를 제공하며, 기업들이 데이터를 활용하고 전례 없는 속도와 정밀도로 혁신을 가속화할 수 있도록 지원한다”고 밝혔다.
작성일 : 2025-06-25
AMD, 사우디 AI 기업 휴메인과 100억 달러 규모 글로벌 AI 인프라 협력 발표
AMD와 사우디아라비아의 신생 AI 기업 휴메인(HUMAIN)은 개방성과 확장성, 복원성 및 비용 효율성을 갖춘 AI 인프라 구축을 위한 계약을 발표했다. 이번 협력을 통해 양사는 향후 5년간 최대 100억 달러를 투자하여 500메가와트 규모의 AI 컴퓨팅 역량을 갖출 예정이다. AMD와 휴메인이 구축하는 AI 슈퍼스트럭처는 개방형 설계 기반으로 대규모 액세스가 가능하며, 기업, 스타트업 및 국가 시장 전반의 AI 워크로드를 구동할 수 있도록 최적화된다. 휴메인은 하이퍼스케일 데이터센터, 지속 가능한 전력 시스템, 글로벌 파이버 상호연결을 포함한 엔드 투 엔드 공급을 총괄하고, AMD는 AMD AI 컴퓨팅 포트폴리오 전 영역과 AMD ROCm 개방형 소프트웨어 생태계를 제공한다. 한편, 이번 협력에 따라 이미 세계 주요 지역에서 초기 구축이 진행되고 있다. 양사는 차세대 AI 반도체와 모듈형 데이터 센터 존, 개방형 표준 및 상호 운용성을 기반으로 구축된 개발자 지원 중심의 소프트웨어 플랫폼 스택의 지원을 바탕으로, 오는 2026년 초까지 멀티-엑사플롭스급 용량을 구축할 계획이다. 또한, 양사는 이번 협력을 통해 사우디아라비아의 에너지 자원, AI 지원 인력, 미래 지향적인 국가 AI 정책과 AMD의 AI 기술을 결합하여 AI 시장을 정의하는 새로운 가치를 제안할 예정이다. AMD는 ▲높은 메모리 및 추론 성능을 제공하는 AMD 인스팅트(AMD Instinct) GPU ▲높은 수준의 컴퓨팅 밀도와 에너지 효율성을 제공하는 AMD 에픽(AMD EPYC) CPU ▲확장 가능하고 안전한 프로그래머블 네트워킹을 지원하는 AMD 펜산도(AMD Pensando) DPU ▲에지에서 온디바이스 AI 컴퓨팅을 구현하는 AMD 라이젠 AI(AMD Ryzen AI) ▲파이토치(PyTorch), SGLang 등 주요 AI 프레임워크를 기본 지원하는 AMD ROCm 개방형 소프트웨어 생태계 등을 제공한다. AMD의 리사 수(Lisa Su) CEO는 “AMD는 전 세계 모든 개발자, AI 스타트업 및 기업에 개방형 고성능 컴퓨팅을 제공함으로써 AI의 미래를 모든 곳에서 실현한다는 야심 찬 비전을 가지고 있다”고 설명하며, “휴메인에 대한 투자는 글로벌 AI 인프라 발전에 있어 중요한 이정표이다. 양사가 함께 전례 없는 수준의 성능, 개방성, 그리고 도달 범위를 제공하는 세계적으로 중요한 AI 플랫폼을 구축할 계획”이라고 밝혔다. 휴메인의 타렉 아민(Tareq Amin) CEO는 “이것은 단순한 인프라 투자가 아닌, 전 세계 혁신가들을 향해 열린 초대”라면서, “우리는 컴퓨팅 수준에서 AI를 대중화하여 고급 AI의 활용이 인프라의 제약 없이 상상력에 의해 실현될 수 있도록 만들고자 한다”고 설명했다.
작성일 : 2025-05-16
[선착순 커피 쿠폰 증정] 업무용 PC 및 워크스테이션 사용 현황 설문조사
업무용 PC 및 워크스테이션 설문조사 참여하시고 커피쿠폰 받으세요   다가오는 2025년에도 AI를 스마트하게 활용할 수 있는 하드웨어에 대한 기대가 고조될 것으로 예상됩니다. AI가 업무 환경의 근본을 변화하는 시대, 델 테크놀로지스는 보다 스마트한 업무 환경 솔루션을 제공하기 위해 업무용 PC 사용 현황을 조사하고 향후 투자 계획을 파악하고자 합니다. 아래 '설문 참여하기'를 통해 고객 여러분의 소중한 의견 전해주시면 감사하겠습니다   [campaignmanager.co.kr] [campaignmanager.co.kr] [viewer.ipaper.io] [intel.co.kr]   [facebook.com]   [twitter.com]   [linkedin.com]     Intel, 인텔, Intel로고, Xeon 로고는 미국 및 기타 국가에서의 Intel Corporation 또는 그 자회사의 상표 또는 등록상표입니다. 델인터내셔널 주식회사 | 대표자: 김 경 진 사업장 소재지: 서울특별시 강남구 테헤란로 152, 18층 (역삼동, 강남파이낸스센터) 사업자등록번호: 102-81-38311 | 통신판매업 신고번호: 제 2013-서울강남-01040 호 대표번호: 02-6147-1919 | 홈페이지: Dell.com | 이메일: privacy@dell.com Dell Technologies 글로벌 본사 주소는 One Dell Way, Round Rock, TX, 78682 입니다. Copyright © 2024 Dell Inc. or its subsidiaries. All Rights Reserved. Dell Technologies, Dell 및 기타 상표는 Dell Inc. 또는 해당 자회사의 상표입니다. 기타 모든 상표는 해당 소유주의 상표일 수 있습니다.  
작성일 : 2024-11-21
IBM, 차세대 IBM Z 메인프레임 시스템을 위한 AI 가속 프로세서 발표
IBM은 ‘핫 칩스(Hot Chips) 2024’에서 곧 출시될 IBM 텔럼(Telum) II 프로세서와 IBM 스파이어 엑셀러레이터(Spyre Accelerator)의 아키텍처 세부 사항을 공개했다. 이 새로운 기술은 차세대 IBM Z 메인프레임 시스템의 처리 용량을 확장하도록 설계되었으며, 기존 인공지능(AI) 모델과 거대 언어 AI 모델을 함께 사용할 때 새로운 AI 앙상블 방식을 통해 속도를 높일 수 있도록 지원한다. 대규모 언어 모델(LLM)을 활용하는 많은 생성형 AI 프로젝트가 개념 증명에서 생산 단계로 넘어가면서 전력 효율적이고 안전하며 확장 가능한 솔루션에 대한 요구가 우선 순위로 떠올랐다. 8월에 발표된 모건 스탠리의 연구에 따르면 향후 몇 년 동안 생성형 AI의 전력 수요가 매년 75%씩 급증해, 2026년에는 스페인 전체가 2022년에 소비한 에너지 사용량만큼을 소비하게 될 것으로 예상됐다. 많은 IBM 고객들은 적정한 규모의 파운데이션 모델을 지원하기 위한 아키텍처 결정과 AI 워크로드를 위해 설계된 하이브리드 클라우드 접근 방식이 점점 더 중요해지고 있다고 말한다. 이번에 공개된 IBM 텔럼 II 프로세서는 차세대 IBM Z 시스템을 구동하도록 설계된 칩으로, 1세대 텔럼 칩에 비해 증가한 클럭(주파수) 및 메모리 용량, 40% 증가한 캐시 및 통합 AI 가속기 코어, 데이터 처리에 일관성을 제공하는 부속 데이터 처리 장치(DPU)가 특징이다. IBM은 새로운 프로세서가 업계의 복잡한 트랜잭션 요구 사항을 충족함으로써 LLM을 위한 엔터프라이즈 컴퓨팅 솔루션을 지원할 것으로 기대하고 있다. 텔럼 II 프로세서 칩의 새로운 데이터 처리 장치(DPU)는 메인프레임의 네트워킹 및 스토리지를 위한 복잡한 IO 프로토콜을 가속화하도록 설계되었다. DPU는 시스템 운영을 간소화하고 주요 구성 요소의 성능을 향상시킬 수 있다. IBM 스파이어 엑셀러레이터는 텔럼 II 프로세서를 보완하기 위해 추가 AI 연산 능력을 제공한다. 텔럼 II와 스파이어 칩은 함께 작동해 여러 개의 머신러닝 또는 딥러닝 AI 모델을 인코더 LLM과 결합하는 앙상블 방식의 AI 모델링을 지원하기 위한 확장 가능한 아키텍처를 형성한다. 각 모델 아키텍처의 강점을 활용함으로써 앙상블 AI는 개별 모델에 비해 더 정확하고 강력한 결과를 제공할 수 있다. 핫 칩 2024 컨퍼런스에서 선공개된 IBM 스파이어 엑셀러레이터 칩은 별도 옵션으로 제공될 예정이다. 각 엑셀러레이터 칩은 75와트 PCIe 어댑터를 통해 부착된다. 스파이어 엑셀러레이터는 다른 PCIe 카드처럼 고객의 요구에 따라 확장이 가능하다.  텔럼 II 프로세서는 차세대 IBM Z 및 IBM 리눅스원 플랫폼의 중앙처리장치가 될 것이며, 향후 IBM Z 및 리눅스원 고객에게 제공될 예정이다. 현재 기술 프리뷰 단계의 IBM 스파이어 엑셀러레이터도 함께 제공될 것으로 예상된다. 텔럼 II 프로세서와 IBM 스파이어 엑셀러레이터는 삼성 파운드리에서 높은 성능과 전력 효율성을 제공하는 5nm 공정 노드를 기반으로 제작될 예정이다. IBM은 이 두 제품이 함께 작동해 비즈니스 가치를 실현하고 새로운 경쟁 우위를 창출하도록 설계된 다양한 AI 기반 활용 사례를 지원할 것으로 전망하고 있다. 또한, 앙상블 방식의 AI를 통해 고객이 더 빠르고 정확한 예측 결과를 얻을 수 있으며, 이번에 발표된 특징이 결합된 처리 능력으로 생성형 AI 활용 사례를 위한 발판을 마련할 것으로 기대했다. IBM의 티나 타르퀴니오(Tina Tarquinio) IBM Z 및 리눅스원 제품 관리 담당 부사장은 “IBM은 강력한 로드맵을 통해 증가하는 AI 수요를 비롯한 기술 트렌드에서 앞서 나갈 수 있는 기반을 마련했다”면서, “텔럼 II 프로세서와 스파이어 엑셀러레이터는 고성능, 보안, 전력 효율성이 뛰어난 엔터프라이즈 컴퓨팅 솔루션을 제공하도록 설계되었다. 수 년간 개발해온 이러한 기술은 차세대 IBM Z 플랫폼에 도입되어 고객이 LLM과 생성형 AI를 대규모로 활용할 수 있게 할 것”이라고 말했다.
작성일 : 2024-08-27
시스코, AI 기반 신기술 및 투자 계획 소개… “10억 달러 AI 펀드 마련”
시스코가 연례 행사인 ‘시스코 라이브 2024(Cisco LIVE 2024)’에서 자사의 전체 포트폴리오에 걸쳐 인공지능(AI) 기반 기능이 한층 더 강화된 네트워킹, 보안, 가시성 솔루션을 공개했다. 이번에 공개된 솔루션은 고객이 전체 디지털 발자국(digital footprint)을 연결 및 보호하고 디지털 회복탄력성을 구축하는 데 필요한 가시성과 인사이트를 제공한다. 시스코는 AI가 단지 ‘새롭게 부상한 기술적 터닝포인트’가 아니라, “전체 조직을 연결하고 보호하며 기업의 성장과 확장을 지원하고, 모두를 위한 포용적인 미래를 가능하게 하는 디지털 회복탄력성의 원천”이라고 설명했다.   ▲ 시스코 라이브 2024에서 연설하는 시스코 척 로빈스 회장   시스코는 AI와 네트워킹을 결합해 더 쉬운 인공지능을 구현할 수 있도록 지원한다고 밝혔다. 시스코가 엔비디아와 함께 개발한 시스코 넥서스 하이퍼패브릭(Cisco Nexus HyperFabric) AI 클러스터는 AI 포드 및 데이터센터 워크로드를 한 곳에서 손쉽게 설계, 배포, 모니터링, 품질 보증할 수 있는 것이 특징이다. 설계부터 검증된 배포, 모니터링, 품질 보증에 이르기까지 엔터프라이즈급 AI 인프라를 위한 모든 과정을 사용자에게 안내한다. 시스코 사우전드아이즈(Cisco ThousandEyes)에 탑재된 새로운 AI 네이티브 디지털 경험 어슈런스 기능은 고객이 언제 어디서나 모든 엔터프라이즈, 클라우드, 서비스형 소프트웨어(SaaS), 인터넷 네트워크에 대한 가시성을 확보하고 관리할 수 있게 지원한다.    AI와 보안을 결합해 안전한 인공지능 사용을 지원하는 것 또한 시스코가 내세우는 주요 전략 중 하나이다. 시스코는 시스코 시큐리티 클라우드에 도입된 신규 기능을 통해 복잡하고 초 분산된 환경에서 안전하게 기업을 보호할 수 있도록 지원한다. 고객은 방화벽 인프라, 새로운 텔레메트리 소스, 뛰어난 네트워크 가시성 및 AI 네이티브 관리 아키텍처로 뒷받침되는 AI 보안 태세를 구축할 수 있다. 시스코는 AMD 펜산도 데이터 처리 장치(DPU)와 인텔 인프라 처리 장치(IPU)에 시스코 하이퍼쉴드(Hypershield)를 지원한다고 발표했다. 이로써 기업들은 클라우드에서 데이터센터, 에지까지 AI 기반의 분산 보안 아키텍처를 구축할 수 있게 됐으며, 동시에 향상된 성능과 에너지 효율을 확보할 수 있다. 최근 스플렁크를 인수한 시스코는 이번 행사에서 신규 AI 어시스턴트와 스플렁크 로그 옵저버빌리티(Splunk Log Observability)의 기능을 시스코 앱다이나믹스 애플리케이션 성능 모니터링(APM)과 결합한 솔루션인 앱다이나믹스 로그 옵저버 커넥트(AppDynamics Log Observer Connect)를 출시했다고 발표했다. 사용자는 이를 이용해 의미 있는 가이던스와 인사이트를 확보하여 빠르고 정확하게 정보에 입각한 의사 결정을 내릴 수 있다. 웹엑스 고객센터에 탑재된 새로운 기능은 기업이 대화형 셀프서비스 경험을 직접 설계 및 관리하고, 고객센터 상담원을 위한 AI 어시스턴트를 제공하며, 서드파티 버추얼 에이전트 솔루션을 도입할 수 있도록 지원한다. 웹엑스 스위트용 AI 어시스턴트는 조만간 모든 고객 대상으로 제공될 예정이다. IT 관리자는 웹엑스 컨트롤 허브(Webex Control Hub)에서 원격 기기 접근 관리 기능을 활용할 수 있고, 시스코 스페이스 데스크 예약(Desk Reservation with Cisco Spaces)을 통해 사무 공간과 시스코 협업 기기를 쉽게 찾고 예약할 수 있도록 지원한다.  시스코의 척 로빈스(Chuck Robbins) 회장은 “시스코는 인프라와 데이터의 연결 방식, 기업 보호를 혁신하는 독보적인 위치에 있으며, AI 시대에 엔터프라이즈 고객에게 알맞은 전략적 파트너”라고 전했다. 한편, 시스코 인베스트먼트는 안전하고 신뢰할 수 있는 AI 솔루션을 개발하고 확장하기 위해 10억 달러(약 1조 3700억 원) 규모의 글로벌 AI 투자 펀드를 조성한다고 발표했다. 시스코는 고객 준비도, 컴퓨트 인프라, 파운데이션 모델, 모델 개발 및 트레이닝 등 여러 핵심 분야의 발전을 위해 기업용 대규모 언어 모델(LLM)로 유명한 캐나다의 인공지능 기업 코히어, 프랑스의 미스트랄 AI, 미국의 데이터 레이블링 스타트업 스케일 AI 등에 전략적 투자를 진행 중이다.
작성일 : 2024-06-05
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
엔비디아, “델·HPE·레노버 서버에 AI용 이더넷 네트워킹 기술 통합”
엔비디아가 AI용 엔비디아 스펙트럼-X(NVIDIA Spectrum-X) 이더넷 네트워킹 기술이 델 테크놀로지스, 휴렛팩커드 엔터프라이즈, 레노버의 서버 라인업에 통합된다고 밝혔다. 엔비디아 AI 스택을 탑재한 델 테크놀로지스, HPE, 레노버의 새로운 시스템은 2024년 1분기에 출시될 예정이다. 스펙트럼-X는 생성형 AI를 위해 설계된 것이 특징으로 기존 이더넷 제품보다 1.6배 높은 AI 통신 네트워킹 성능을 구현하며, 기업이 생성형 AI 워크로드를 가속화할 수 있도록 지원한다. 3곳의 시스템 제조업체에서 선보이는 서버 시스템은 스펙트럼-X와 엔비디아 텐서 코어 GPU, 엔비디아 AI 엔터프라이즈 소프트웨어, 엔비디아 AI 워크벤치 소프트웨어를 결합했다. 이로써 기업들에게 생성형 AI로 비즈니스를 혁신할 수 있는 빌딩 블록을 제공한다. 스펙트럼-X는 네트워크 집약적인 대규모 병렬 컴퓨팅을 위해 설계된 엔비디아 블루필드-3 슈퍼NIC(BlueField-3 SuperNIC) 가속 소프트웨어를 결합했다. 엔비디아 블루필드-3 슈퍼NIC는 초당 51Tb/s의 AI용 이더넷 스위치인 스펙트럼-4의 성능을 통해 하이퍼스케일 AI 워크로드를 강화하는 새로운 등급의 네트워크 가속기이다. 이로써 스펙트럼-X는 AI 워크로드의 효율성을 높이며, 엔비디아의 인프라 컴퓨팅 플랫폼인 블루필드-3 DPU를 보완한다. 스펙트럼-X는 차세대 AI 시스템을 위한 레퍼런스 아키텍처인 엔비디아 이스라엘-1(Israel-1) 슈퍼컴퓨터를 지원한다. 이스라엘-1은 델 테크놀로지스와 협력한 것으로, 엔비디아 HGX H100 8-GPU 플랫폼 기반의 델 파워엣지(PowerEdge) XE9680 서버와 스펙트럼-4 스위치 기반의 블루필드-3 DPU와 슈퍼NIC를 사용한다.     엔비디아의 젠슨 황(Jensen Huang) CEO는 “기업이 워크로드를 처리하기 위해 데이터센터를 업그레이드하면서 생성형 AI와 가속 컴퓨팅이 세대 간 전환을 주도하고 있다. 가속 네트워킹은 엔비디아의 선도적인 서버 제조업체 파트너사들이 생성형 AI 시대로 신속하게 전환할 수 있도록 새로운 시스템 파동을 일으키는 촉매제가 될 것”이라고 말했다. 델 테크놀로지스의 마이클 델(Michael Dell) CEO는 “가속 컴퓨팅과 네트워킹은 대규모 언어 모델(LLM)과 생성형 AI 애플리케이션의 요구 사항을 충족시키는 시스템 구축에 핵심적인 역할을 한다. 델 테크놀로지스와 엔비디아의 협력을 통해 고객에게 데이터에서 인텔리전스를 빠르고 안전하게 추출하는 데 필요한 인프라와 소프트웨어를 제공하고 있다”고 말했다. HPE의 안토니오 네리(Antonio Neri) CEO는 “여러 산업에서 혁신을 주도할 생성형 AI는 다양하고 동적인 워크로드를 지원하기 위해 근본적으로 다른 아키텍처를 필요로 한다. 고객이 생성형 AI의 잠재력을 최대한 실현할 수 있도록 HPE는 엔비디아와 협력해 애플리케이션을 지원하는 데 필요한 성능, 효율성, 확장성을 갖춘 시스템을 구축하고 있다”고 말했다. 레노버의 양 위안칭(Yuanqing Yang) CEO는 “생성형 AI는 전례 없는 혁신을 실현할 수 있지만 기업 인프라에 대한 요구 사항도 전례 없이 높아졌다. 레노버는 엔비디아와 긴밀히 협력해 최신 AI 애플리케이션을 구동하는 데 필요한 네트워킹, 컴퓨팅, 소프트웨어를 갖춘 효율적이고 가속화된 시스템을 구축하고 있다”고 말했다.
작성일 : 2023-11-22