• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 옵저버빌리티"에 대한 통합 검색 내용이 6개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
시스코, 실시간 비즈니스 인사이트 위해 AI 에이전트로 옵저버빌리티 강화
시스코가 고객의 회복 탄력성 강화를 위한 새로운 기준을 제시하는 AI 에이전트 기반의 ‘스플렁크 옵저버빌리티(Splunk Observability)’를 발표했다. 강화된 스플렁크 옵저버빌리티 포트폴리오는 다양한 환경의 옵저버빌리티를 통합하고, 실행 가능한 비즈니스 맥락을 제공하며, 전체 인시던트 대응 라이프사이클에 걸쳐 AI로 구동되는 에이전트를 배포하고, 성능과 품질도 동시에 모니터링한다. 스플렁크에 통합된 시스코 기술로 고객은 네트워크, 인프라, 애플리케이션 전반에 걸쳐 데이터 인사이트의 가시성과 상관관계를 확보해 디지털 자산 전체의 안정성을 높일 수 있다. AI 에이전트는 선도적인 옵저버빌리티 체계를 구축하는 방식을 바꾸고 있다. AI 지원 코딩이 본격화되면서 점점 더 적은 인력으로 애플리케이션이 개발되고 있으며, 동시에 AI 기반 애플리케이션과 AI 에이전트가 새롭게 등장하면서 모델이 의도한 대로 작동하는지, 비즈니스 목적과 비용에 부합하는지를 확인하기 위해 특화된 텔레메트리가 요구되고 있다. 이러한 변화에 대응하기 위해 기업은 다양한 환경을 아우르고 맥락을 이해할 수 있는 통합된 가시성을 확보해야 하며, 비즈니스에 미치는 영향을 기준으로 문제의 우선순위를 정할 수 있어야 한다. 스플렁크는 새로운 AI 에이전트 혁신으로 강화된 스플렁크 옵저버빌리티 포트폴리오를 통해 시스코의 AgenticOps 비전을 한 단계 더 발전시키고 있다. 이번 혁신은 AI 에이전트를 활용해 텔레메트리 수집과 알림 설정을 자동화하고, 문제를 탐지하며, 근본 원인을 파악하고, 해결 방안을 제안함으로써 ITOps 및 엔지니어링 팀이 혁신에 집중할 수 있도록 지원한다. 이러한 발전에는 ▲인시던트를 자동으로 분석하고 잠재적인 근본 원인을 제시하여 사용자가 문제에 신속하게 대응할 수 있도록 돕는 ‘AI 트러블슈팅 에이전트(AI Troubleshooting Agents)’ ▲자동화된 알림 상관관계를 쉽게 설정할 수 있도록 해, 알림 소음을 줄이고 그룹화된 알림에 대해 명확한 맥락을 파악할 수 있도록 지원하는 ‘이벤트 iQ (Event iQ)’ ▲이벤트 iQ의 AI 기반 알림 상관관계와 함께, 그룹화된 알림의 경향과 영향, 근본 원인 등을 자동으로 개요 형태로 제공하여 문제 해결 속도를 높이는 ’ITSI 에피소드 요약(ITSI Episode Summarization)’ 등이 포함된다. 기업이 애플리케이션에 AI와 대규모 언어 모델(LLMs)을 통합하고 AI 에이전트를 도입함에 따라, 기업은 AI가 의도한 대로 작동하는지 확인하기 위해 특화된 분석 기능이 필요하다. 스플렁크는 에이전트, LLM, AI 인프라를 포함한 AI 애플리케이션 스택 전반의 상태, 보안, 비용을 사전에 모니터링할 수 있도록 다양한 같은 기능을 제공한다. 여기에는 모델이 비즈니스 목표에 맞게 의도한 대로 작동하고 있는지, 적절한 비용으로 운영되는지를 확인하는 ‘AI 에이전트 모니터링(AI Agent Monitoring)’과 AI 인프라의 상태와 소비를 모니터링하고 비용을 효율적으로 관리할 수 있도록 지원하는 ‘AI 인프라 모니터링(AI Infrastructure Monitoring)’ 등이 포함된다.   한편, 시스코는 스플렁크 앱다이나믹스와 스플렁크 옵저버빌리티 클라우드의 강점을 결합해 3계층(three-tier) 및 마이크로서비스 환경 전반에서 통합된 경험을 제공하고 있다고 소개했다. 시스코 사우전드아이즈(Cisco ThousandEyes)와의 통합도 한층 강화해 ITOps, NetOps, 엔지니어링 팀이 네트워크가 애플리케이션 성능과 최종 사용자 경험에 미치는 영향을 정확히 파악할 수 있도록 지원하고 있다. 스플렁크 옵저버빌리티의 패트릭 린(Patrick Lin) 수석부사장 및 총괄은 “스플렁크의 미션은 명확하다. 기업이 AI 애플리케이션과 에이전트를 활용하고 가시성과 통제력을 유지하도록 지원하는 것”이라면서, “최신 스플렁크 옵저버빌리티 혁신은 기업이 핵심 애플리케이션과 디지털 서비스를 더 쉽게 선제적으로 모니터링하고, 문제가 커지기 전에 해결하며, 옵저버빌리티 투자에 걸맞은 성과와 가치를 얻을 수 있도록 지원한다”고 말했다.
작성일 : 2025-09-18
HPE, 엔비디아와 협력해 AI 팩토리 포트폴리오 강화
HPE는 전체 AI 수명주기를 지원하고 기업, 서비스 제공업체, 공공기관, 연구기관 등 다양한 고객의 요구를 충족하는 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)’ 설루션 포트폴리오를 강화한다고 발표했다. 이번 업데이트는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)와의 통합을 강화하고, 가속 컴퓨팅을 통해 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)에 대한 지원을 확대했다. 또한 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform)용 HPE 알레트라 스토리지 MP X10000(HPE Alletra Storage MP X10000) 소프트웨어 개발 키트(SDK)를 새롭게 출시했다. 이와 함께 HPE는 엔비디아 RTX PRO 6000 블랙웰 서버 에디션(NVIDIA RTX PRO 6000 Blackwell Server Edition) GPU 및 엔비디아 엔터프라이즈 AI 팩토리(NVIDIA Enterprise AI Factory)의 검증된 설계에 기반한 컴퓨팅 및 소프트웨어 제품도 출시했다. 엔비디아와 공동 개발한 턴키 방식의 클라우드 기반 AI 팩토리인 ‘HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)’는 통합된 AI 전략을 비즈니스 전반에 확산하고 수익성 높은 워크로드를 지원하며 리스크를 대폭 줄일 수 있도록 지원하는 전용 개발자 설루션을 포함하고 있다. 또한, 이는 AI 프레임워크, 사전 훈련 모델을 위한 엔비디아 NIM 마이크로서비스(NVIDIA NIM microservices) 및 SDK를 포함하는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)의 피쳐 브랜치(Feature Branch) 모델 업데이트를 지원할 예정이다. 피쳐 브랜치 모델 지원을 통해 개발자는 AI 워크로드를 위한 소프트웨어 기능과 최적화 사항을 테스트하고 검증할 수 있다.  가드레일이 내장된 프로덕션 브랜치 모델에 대한 기존 지원과 더불어, HPE 프라이빗 클라우드 AI는 모든 규모의 기업이 개발자 시스템을 구축하고 이를 프로덕션-레디 에이전틱 및 생성형 AI 애플리케이션으로 확장하는 한편, 기업 전반에 걸쳐 안전한 다계층 접근 방식을 도입할 수 있도록 지원한다. HPE 알레트라 스토리지 MP X10000은 엔비디아 AI 데이터 플랫폼 레퍼런스 설계와 연동되는 SDK를 선보일 예정이다. HPE의 최신 데이터 플랫폼과 엔비디아의 맞춤형 레퍼런스 설계를 연결함으로써, 고객은 에이전틱 AI 구현을 위한 가속화된 성능과 인텔리전트 파이프라인 오케스트레이션을 활용할 수 있다. 이번 X10000 SDK는 HPE의 데이터 인텔리전스 전략 확대의 일환으로, 컨텍스트 기반의 AI-레디 데이터를 엔비디아 AI 생태계에 직접 통합할 수 있도록 지원한다. 이를 통해 기업은 엔비디아 가속 인프라 전반에서 수집, 추론, 훈련 및 지속적인 학습을 위한 비정형 데이터 파이프라인을 간소화할 수 있다. HPE는 SDK 통합을 통해 데이터 가치 극대화, AI 데이터 플랫폼의 효율 향상, 워크로드 요구사항에 맞는 구축 최적화 등의 이점을 얻을 수 있을 것으로 보고 있다. 엔비디아 H100 NVL, H200 NVL 및 L40S GPU를 탑재한 HPE 프로라이언트 컴퓨트 DL380a Gen12(HPE ProLiant Compute DL380a Gen12) 서버는 최근 MLPerf Inference : Datacenter v5.0 벤치마크의 GPT-J, Llama2-70B, ResNet50 및 RetinaNet을 포함한 10개 테스트에서 최고 수준의 성능을 기록했다. 이 AI 서버는 곧 최대 10개의 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 탑재하여 출시될 예정이며, 이를 통해 향상된 기능과 함께 에이전틱 멀티모달 AI 추론, 피지컬 AI, 모델 미세조정 뿐만 아니라 디자인, 그래픽 및 비디오 애플리케이션을 포함한 엔터프라이즈 AI 워크로드를 위한 탁월한 성능을 제공할 예정이다. HPE 프로라이언트 컴퓨트 DL380a Gen12는 공랭식 및 직접 수냉 방식(DLC)으로 제공되며, HPE 프로라이언트 컴퓨트 Gen12 포트폴리오에 탑재된 HPE iLO(Integrated Lights Out) 7은 실리콘 RoT(Root of Trust) 기반으로 한 내장된 보호 기능을 갖추고 있다. 또한, HPE 컴퓨트 옵스 매니지먼트(HPE Compute Ops Management)는 사전 알림 기능 및 예측적 AI 기반 인사이트를 통해 서버 환경을 위한 안전하고 자동화된 수명 주기 관리를 지원한다. HPE 옵스램프 소프트웨어(HPE OpsRamp Software)는 AI 워크로드 모니터링을 위한 차세대 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU까지 지원할 수 있는 AI 인프라 최적화 설루션으로 확장됐다. HPE 그린레이크 플랫폼(HPE GreenLake Platform) SaaS(서비스형 소프트웨어) 방식으로 구성되는 이 설루션은 기업 내 IT 팀이 하이브리드 환경 전반에 분산된 AI 인프라를 모니터링하고, 최적화를 통해 AI인프라 운영을 효율적으로 관리, 지원한다. HPE 옵스램프는 풀스택 AI 워크로드에서 인프라 옵저버빌리티, 워크플로 자동화, AI 기반 분석 및 이벤트 관리를 가능하게 하고, 엔비디아의 모든 인프라를 정밀하게 모니터링하는 한편, AI 인프라의 성능과 복원력을 모니터링할 수 있는 세분화된 측정 지표를 제공한다. HPE의 안토니오 네리(Antonio Neri) 사장 겸 최고경영자(CEO)는 “HPE는 엔비디아와의 협업을 통해 고객에게 지속적인 혁신과 실질적인 성과를 제공하고 있으며, 강력한 설루션을 기반으로 공동 개발한 첨단 AI 기술을 통해 기업이 AI 도입의 어느 단계에 있든 기업 전반에서 그 잠재력을 효과적으로 실현할 수 있도록 지원하고 있다”면서, “HPE는 오늘날의 요구를 충족하는 동시에, AI 중심의 미래를 함께 만들어가고 있다”고 밝혔다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “기업은 HPE 시스템을 활용해 최첨단 엔비디아 AI 팩토리를 구축함으로써 생성형 및 에이전틱 AI 시대에 최적화된 IT 인프라를 준비할 수 있다”면서, “엔비디아와 HPE는 데이터센터부터 클라우드, 에지에 이르기까지 인텔리전스를 확장 가능한 새로운 산업 자원으로 활용할 수 있도록 기업을 위한 기반을 함께 만들어가고 있다”고 밝혔다.
작성일 : 2025-05-23
마이크로소프트, “비즈니스 전반에서 AI 에이전트가 활약하는 시대가 온다”
마이크로소프트가 ‘마이크로소프트 빌드 2025(Microsoft Build 2025)’를 개최하고 AI 에이전트, 개발자 도구, 오픈 플랫폼 등 신규 기능과 주요 업데이트를 발표했다.   AI는 추론 능력과 메모리 기술의 고도화로 인해 스스로 학습하고 결정을 내리는 에이전트로 진화하고 있다. 이번 행사에서 마이크로소프트는 이러한 AI 에이전트가 개인, 조직, 팀은 물론 전체 비즈니스 전반에 작동하는 인터넷 환경을 ‘오픈 에이전틱 웹(Open Agentic Web)’으로 정의하며, AI가 사용자나 조직을 대신해 결정을 내리고 작업을 수행하는 시대가 도래했다고 강조했다.  전 세계 수십만 조직이 마이크로소프트 365 코파일럿(Microsoft 365 Copilot)을 활용해 리서치, 아이디어 브레인스토밍 등 다양한 업무에 특화된 AI 에이전트를 구축하고 있다. 이 중 포춘 500대 기업 90%를 포함한 23만 개 이상 조직은 코파일럿 스튜디오(Copilot Studio)를 통해 AI 에이전트와 자동화 앱을 개발하고 있다. 또한, 전 세계 약 1500만 명의 개발자가 깃허브 코파일럿(GitHub Copilot)을 통해 코드 작성, 검토, 배포, 디버깅 등 개발 전 과정을 효율화하고 있다.     이번 빌드 2025에서는 AI 에이전트 개발을 돕는 플랫폼과 도구가 집중 소개됐다. 먼저 깃허브(GitHub), 애저 AI 파운드리(Azure AI Foundry), 윈도우(Windows) 등 주요 개발 플랫폼에서 활용할 수 있는 다양한 기능과 업데이트가 발표됐다. 이번 업데이트는 개발 생애 주기의 변화에 따라 개발자가 보다 효율적으로 작업하고, 대규모 개발 환경에서도 유연하게 대응할 수 있도록 설계됐다.  깃허브 코파일럿에는 비동기화(asynchronous) 방식의 코딩 에이전트 기능이 새롭게 도입됐다. 또한, 깃허브 모델(GitHub Models)에는 프롬프트 관리, 경량평가(LightEval), 엔터프라이즈 제어 기능이 추가돼, 개발자는 깃허브 내에서 다양한 AI 모델을 실험할 수 있게 됐다. 이와 함께 깃허브 코파일럿 챗(GitHub Copilot Chat) 또한 비주얼 스튜디오 코드(Visual Studio Code)에서 오픈소스로 공개됐다. 깃허브 코파일럿 확장 기능의 AI 기능은 이제 개발 도구를 구동하는 오픈소스 저장소의 일부가 됐다.  윈도우 AI 파운드리(Windows AI Foundry)도 새롭게 공개됐다. 개발자에게 개방적이고 널리 사용되는 플랫폼 중 하나로서 윈도우가 확장성, 유연성, 그리고 성장 기회를 제공함에 따라, 윈도우 AI 파운드리는 학습부터 추론까지 AI 개발자 라이프사이클을 지원하는 통합되고 신뢰할 수 있는 플랫폼을 제공한다. 이를 통해 개발자는 시각 및 언어 작업에 특화된 간단한 모델 API를 활용해 오픈소스 대규모 언어 모델(LLM)을 파운드리 로컬(Foundry Local) 환경에서 실행하거나, 자체 개발한 모델을 가져와 변환·미세조정한 뒤 클라이언트 또는 클라우드 환경에 배포할 수 있다.  애저 AI 파운드리도 주요 업데이트를 진행했다. 애저 AI 파운드리는 개발자가 AI 애플리케이션과 에이전트를 설계·맞춤화·관리할 수 있도록 지원하는 통합 플랫폼으로, 이번 애저 파운드리 모델(Azure Foundry Models) 업데이트를 통해 AI 기업 xAI의 그록3(Grok 3) 및 그록3 미니(Grok 3 Mini) 모델이 마이크로소프트 생태계에 추가됐다. 두 모델은 마이크로소프트가 직접 제공하며 과금한다. 이로써 개발자가 선택할 수 있는 AI 모델의 범위는 파트너사 및 마이크로소프트 제공 모델을 포함해 1900개 이상으로 확대됐다. 이와 함께, 안전한 데이터 통합, 모델 맞춤화, 엔터프라이즈급 관리 기능도 제공돼 보다 정밀한 AI 운영이 가능해졌다.   AI 모델을 항목별로 비교해 순위를 보여주는 모델 리더보드(Model Leaderboard)와 특정 쿼리나 작업에 따라 최적의 모델을 실시간으로 선택할 수 있도록 설계된 모델 라우터(Model Router) 등 신규 도구도 함께 공개됐다.   AI 에이전트 개발과 배포를 보다 안전하고 효율적으로 수행하도록 지원하는 기능도 선보였다. 사전 구축된 에이전트(pre-built agents), 맞춤형 에이전트 설계 도구, 멀티 에이전트 기능, 새로운 모델 등으로 구성된 이번 업데이트는 개발자와 조직이 보다 유연하게 AI 에이전트를 구축하고 생산성을 높이는 데 활용할 수 있도록 지원한다.  애저 AI 파운드리 에이전트 서비스(Azure AI Foundry Agent Service)는 여러 전문 에이전트를 조율해 복잡한 작업을 처리할 수 있도록 지원한다. 이번 업데이트에서는 시맨틱 커널(Semantic Kernel)과 오토젠(AutoGen)을 통합 제공하는 단일 SDK와, 에이전트 간 상호작용을 가능하게 하는 A2A(Agent-to-Agent) 기능 및 모델 컨텍스트 프로토콜(Model Context Protocol, 이하 MCP) 지원 기능도 포함한다.  애저 AI 파운드리 옵저버빌리티(Azure AI Foundry Observability)에는 AI 에이전트의 신뢰도를 높일 수 있도록 성능, 품질, 비용, 안전성 등의 지표들을 모니터링할 수 있는 기능이 탑재됐다. 모든 지표는 통합 대시보드를 통해 시각적으로 추적할 수 있어, 운영 현황을 직관적으로 파악할 수 있다.  보안과 거버넌스 측면에서도 기능이 강화됐다. 프리뷰로 제공되는 엔트라 에이전트 ID(Microsoft Entra Agent ID)를 활용하면, 애저 AI 파운드리나 코파일럿 스튜디오에서 생성한 에이전트에 고유 ID가 자동으로 부여된다. 이를 통해 에이전트를 초기 단계부터 안전하게 관리하고, 무분별한 생성을 방지해 보안 사각지대를 방지할 수 있다. 또한, 애저 AI 파운드리로 구축된 애플리케이션과 에이전트는 퍼뷰(Microsoft Purview)의 데이터 보안 및 컴플라이언스 제어 기능과 통합된다. 여기에 위험 파라미터 설정, 자동 평가 수행, 상세 보고서 제공 등 고도화된 거버넌스 도구도 함께 제공돼 정밀한 보안 및 운영 관리가 가능해졌다.  마이크로소프트 365 코파일럿 튜닝(Microsoft 365 Copilot Tuning)은 기업 고유의 데이터, 워크플로, 업무 프로세스를 기반으로 로코드 방식의 AI 모델 학습과 에이전트 생성을 돕는다. 생성된 에이전트는 마이크로소프트 365 환경 내에서 안전하게 실행되며, 조직별 업무에 특화된 작업을 높은 정확도로 수행할 수 있다. 예를 들어, 로펌은 자사의 전문성과 양식에 맞춰 문서를 작성하는 에이전트를 구축할 수 있다.  멀티 에이전트 오케스트레이션 기능도 코파일럿 스튜디오(Copilot Studio)에 새롭게 도입됐다. 이를 통해 다양한 에이전트를 상호 연결하고 기능을 결합함으로써 복잡하고 광범위한 업무를 처리할 수 있다.  이와 함께 마이크로소프트는 AI 에이전트의 미래를 위해 개방형 표준과 공유 인프라를 발전시키는 MCP 생태계 지원 업데이트와 새로운 개방형 프로젝트인 ‘NLWeb’을 발표했다. 마이크로소프트는 깃허브, 코파일럿 스튜디오, 다이나믹스 365(Dynamics 365), 애저 AI 파운드리, 시맨틱 커널, 윈도우 11 등 자사가 보유한 주요 에이전트 및 프레임워크 전반에서 MCP를 지원한다. 마이크로소프트와 깃허브는 MCP 운영 위원회(MCP Steering Committee)에 새롭게 합류해, 개방형 프로토콜의 보안성과 확장성을 높이기 위한 공동 노력을 이어갈 예정이다.  또한 MCP 생태계 확장을 위한 두 가지 업데이트도 공개했다. 첫 번째는 사용자가 기존 로그인 방식을 그대로 활용해 에이전트 및 LLM 기반 애플리케이션에게 개인 저장소나 구독 서비스와 같은 다양한 데이터에 대한 안전한 접근 권한을 부여할 수 있도록 인증 체계를 개선했다. 두 번째는 MCP 서버 항목을 누구나 최신 공용 또는 사설 저장소에서 중앙화해 관리할 수 있도록 지원하는 MCP 서버 등록 서비스를 설계했다.   NLWeb은 에이전틱 웹 환경을 위한 개방형 프로젝트로, 마이크로소프트는 NLWeb이 에이전틱 웹에서 HTML과 유사한 역할을 할 수 있을 것으로 기대한다. NLWeb은 웹사이트 운영자가 원하는 AI 모델과 자체 데이터를 연결해 대화형 인터페이스를 구축함으로써 사용자가 웹 콘텐츠와 직접 상호작용하며 풍부하고 의미 있는 정보를 얻도록 돕는다. 또한 모든 NLWeb 엔드포인트는 MCP 서버이기도 하기 때문에 웹사이트 운영자는 필요시 AI 에이전트들이 해당 사이트의 콘텐츠를 쉽게 검색하고 접근하도록 설정할 수 있다.  한편, 마이크로소프트는 과학 연구를 가속화하기 위한 AI 에이전트 기반 플랫폼 마이크로소프트 디스커버리(Microsoft Discovery)도 선보였다. 이 플랫폼은 연구자가 AI 에이전트를 활용해 과학적 발견 과정 전반을 혁신할 수 있도록 지원한다. 마이크로소프트는 이를 통해 제약, 환경 등 다양한 산업 분야의 연구개발 부서가 신제품 출시 기간을 단축하고, 연구 전반의 속도와 범위를 확장할 수 있을 것으로 기대하고 있다. 
작성일 : 2025-05-20
시스코, AI 기반 신기술 및 투자 계획 소개… “10억 달러 AI 펀드 마련”
시스코가 연례 행사인 ‘시스코 라이브 2024(Cisco LIVE 2024)’에서 자사의 전체 포트폴리오에 걸쳐 인공지능(AI) 기반 기능이 한층 더 강화된 네트워킹, 보안, 가시성 솔루션을 공개했다. 이번에 공개된 솔루션은 고객이 전체 디지털 발자국(digital footprint)을 연결 및 보호하고 디지털 회복탄력성을 구축하는 데 필요한 가시성과 인사이트를 제공한다. 시스코는 AI가 단지 ‘새롭게 부상한 기술적 터닝포인트’가 아니라, “전체 조직을 연결하고 보호하며 기업의 성장과 확장을 지원하고, 모두를 위한 포용적인 미래를 가능하게 하는 디지털 회복탄력성의 원천”이라고 설명했다.   ▲ 시스코 라이브 2024에서 연설하는 시스코 척 로빈스 회장   시스코는 AI와 네트워킹을 결합해 더 쉬운 인공지능을 구현할 수 있도록 지원한다고 밝혔다. 시스코가 엔비디아와 함께 개발한 시스코 넥서스 하이퍼패브릭(Cisco Nexus HyperFabric) AI 클러스터는 AI 포드 및 데이터센터 워크로드를 한 곳에서 손쉽게 설계, 배포, 모니터링, 품질 보증할 수 있는 것이 특징이다. 설계부터 검증된 배포, 모니터링, 품질 보증에 이르기까지 엔터프라이즈급 AI 인프라를 위한 모든 과정을 사용자에게 안내한다. 시스코 사우전드아이즈(Cisco ThousandEyes)에 탑재된 새로운 AI 네이티브 디지털 경험 어슈런스 기능은 고객이 언제 어디서나 모든 엔터프라이즈, 클라우드, 서비스형 소프트웨어(SaaS), 인터넷 네트워크에 대한 가시성을 확보하고 관리할 수 있게 지원한다.    AI와 보안을 결합해 안전한 인공지능 사용을 지원하는 것 또한 시스코가 내세우는 주요 전략 중 하나이다. 시스코는 시스코 시큐리티 클라우드에 도입된 신규 기능을 통해 복잡하고 초 분산된 환경에서 안전하게 기업을 보호할 수 있도록 지원한다. 고객은 방화벽 인프라, 새로운 텔레메트리 소스, 뛰어난 네트워크 가시성 및 AI 네이티브 관리 아키텍처로 뒷받침되는 AI 보안 태세를 구축할 수 있다. 시스코는 AMD 펜산도 데이터 처리 장치(DPU)와 인텔 인프라 처리 장치(IPU)에 시스코 하이퍼쉴드(Hypershield)를 지원한다고 발표했다. 이로써 기업들은 클라우드에서 데이터센터, 에지까지 AI 기반의 분산 보안 아키텍처를 구축할 수 있게 됐으며, 동시에 향상된 성능과 에너지 효율을 확보할 수 있다. 최근 스플렁크를 인수한 시스코는 이번 행사에서 신규 AI 어시스턴트와 스플렁크 로그 옵저버빌리티(Splunk Log Observability)의 기능을 시스코 앱다이나믹스 애플리케이션 성능 모니터링(APM)과 결합한 솔루션인 앱다이나믹스 로그 옵저버 커넥트(AppDynamics Log Observer Connect)를 출시했다고 발표했다. 사용자는 이를 이용해 의미 있는 가이던스와 인사이트를 확보하여 빠르고 정확하게 정보에 입각한 의사 결정을 내릴 수 있다. 웹엑스 고객센터에 탑재된 새로운 기능은 기업이 대화형 셀프서비스 경험을 직접 설계 및 관리하고, 고객센터 상담원을 위한 AI 어시스턴트를 제공하며, 서드파티 버추얼 에이전트 솔루션을 도입할 수 있도록 지원한다. 웹엑스 스위트용 AI 어시스턴트는 조만간 모든 고객 대상으로 제공될 예정이다. IT 관리자는 웹엑스 컨트롤 허브(Webex Control Hub)에서 원격 기기 접근 관리 기능을 활용할 수 있고, 시스코 스페이스 데스크 예약(Desk Reservation with Cisco Spaces)을 통해 사무 공간과 시스코 협업 기기를 쉽게 찾고 예약할 수 있도록 지원한다.  시스코의 척 로빈스(Chuck Robbins) 회장은 “시스코는 인프라와 데이터의 연결 방식, 기업 보호를 혁신하는 독보적인 위치에 있으며, AI 시대에 엔터프라이즈 고객에게 알맞은 전략적 파트너”라고 전했다. 한편, 시스코 인베스트먼트는 안전하고 신뢰할 수 있는 AI 솔루션을 개발하고 확장하기 위해 10억 달러(약 1조 3700억 원) 규모의 글로벌 AI 투자 펀드를 조성한다고 발표했다. 시스코는 고객 준비도, 컴퓨트 인프라, 파운데이션 모델, 모델 개발 및 트레이닝 등 여러 핵심 분야의 발전을 위해 기업용 대규모 언어 모델(LLM)로 유명한 캐나다의 인공지능 기업 코히어, 프랑스의 미스트랄 AI, 미국의 데이터 레이블링 스타트업 스케일 AI 등에 전략적 투자를 진행 중이다.
작성일 : 2024-06-05
시스코, 메가존클라우드와 DX 지원 업무협약 체결로 클라우드 환경 고도화
최적의 클라우드 환경 구성 위해 공동 개발, 제안, 플랫폼 구축에 상호 협력 시스코 시스템즈 (이하 시스코)가 아시아 최대 클라우드 운영관리 기업(MSP) 메가존클라우드와 업무협약(MOU)을 체결해 기업들의 디지털 트랜스포메이션(DX) 지원에 나선다. 양사는 이번 협약을 통해 멀티 및 하이브리드 클라우드 사업에 필요한 기술과 제품을 검증하고, 최적의 클라우드 환경을 구축하기 위해 공동 개발, 제안, 플랫폼 구축 분야에서 상호 협력한다.   이번 협약은 기업 고객들의 비용 절감과 최적화된 클라우드 환경 구축 지원을 통한 하이브리드 클라우드 사업 확대를 주요 골자로 한다. 양사는 네트워크 장비뿐 아니라 클라우드 및 소프트웨어까지 통합 구독 형태로 사용할 수 있는 서비스 등 다양한 옵션을 제공해 고객들이 설비 투자비와 운영 비용을 줄일 수 있도록 할 계획이다. 또, 복잡한 IT 인프라의 운영 편리성을 높여 보안 위협, 복잡한 비용관리, 전문인력 부족 등 클라우드 도입 시 기업들이 겪는 문제점을 해결할 수 있도록 지원한다는 방침이다.   이와 같은 방향성을 기반으로 양사는 전략적인 투자와 협력 모델을 통해 ▲하이브리드 클라우드 환경을 위한 연결과 보안 ▲데이터센터 인프라 구성 ▲고객사 오피스 환경을 위한 맞춤형 솔루션에 집중한다. 이를 통해 중소기업부터 대기업까지 모든 규모의 기업에 최적화된 옵션 구성의 솔루션을 제공할 예정이다.   메가존클라우드는 작년 시스코의 클라우드 기반 IT 솔루션 머라키(Meraki)를 활용한 서비스형 네트워크(NaaS) ‘스마트웍스서비스(Smart Works Service)’를 출시하며 시스코의 ‘매니지드 서비스 프로바이더 파트너십’ 자격을 취득했다. 해당 파트너십은 시스코 솔루션을 활용한 자체 서비스를 구축하고, 네트워크 관리 및 매니지드 서비스 제공 역량을 가진 파트너에게만 주어진다. 메가존클라우드는 스마트웍스서비스를 통해 시스코의 클라우드 매니지드 서비스를 제공함으로써, 고객들의 IT 인프라 운영 및 관리의 편의성을 높이고 장애를 손쉽게 해결할 수 있는 통합 관제 서비스를 지원하고 있다.   조원우 메가존클라우드 공동 대표는 “이번 협약을 기반으로 보다 높은 수준의 클라우드 매니지드 서비스를 고객들에게 제공할 수 있을 것으로 기대한다”라며, “‘as-a-Service 모델’ 기반의 다양한 구매 옵션으로, 초기 투자 및 운영 비용의 효율성 제고와 함께 빠르게 변하는 비즈니스 변화 환경에 최적화된 진정한 하이브리드 네트워킹 서비스를 공동으로 개발하고, ‘풀 스택 옵저버빌리티’ 기술 분야에도 협력할 예정이다.   최지희 시스코코리아 대표는 “메가존클라우드의 뛰어난 MSP 역량과 시스코가 네트워크, 보안, 데이터센터, 클라우드 등 전반적인 IT 분야에서 쌓아온 기술력과 포트폴리오를 바탕으로 다양한 비즈니스 모델을 함께 창출할 수 있을 것으로 기대한다”라며 “검증된 기술과 제품을 통해 클라우드 도입 과정에서 발생하는 문제를 해결하고, 기업 고객들이 효율적으로 최적의 인프라 환경을 구축할 수 있도록 도울 예정”이라고 밝혔다.
작성일 : 2023-01-28
VM웨어, 멀티 클라우드 관리를 업그레이드하는 '아리아' 출시
VM웨어가 미국 캘리포니아에서 진행한 'VMware Explore 2022' 콘퍼런스에서 멀티 클라우드 관리 포트폴리오인 VMware Aria(아리아)를 공식 출시했다. 점점 더 많은 기업이 퍼블릭 클라우드를 통해 앱을 배포하며, 현대화된 클라우드 네이티브 앱을 관리하고 확장하기 위해 쿠버네티스를 사용하고 있다. 그러나 멀티 클라우드, 특히 퍼블릭 클라우드와 다양한 기술이 혼재하는 환경에서 앱과 인프라를 관리하는 것은 복잡하다. 기업은 이처럼 다양하고 분산된 환경에서 비용을 조정하고 성능을 보장하며 일관된 보안 정책을 관리해야 한다. 아리아는 인프라 및 클라우드 네이티브 앱의 비용, 성능, 구성, 딜리버리를 관리하기 위한 일련의 엔드 투 엔드 솔루션을 제공한다. VMware Aria Graph(아리아 그래프)는 고객의 멀티 클라우드 환경의 복잡성을 포착하는 그래프 기반 데이터 저장소 기술이다. 이와 함께, CloudHealth(클라우드헬스) 기반의 VMware Aria Cost(아리아 코스트), VMware Aria Operations(아리아 오퍼레이션), VMware Aria Automation(아리아 오토메이션) 등 클라우드 네이티브 및 멀티 클라우드 환경을 더 잘 활용할 수 있는 새 확장 기능들도 공개됐다.     아리아는 VMware Tanzu(탄주) 플랫폼에서 클라우드 네이티브 앱의 개발, 배포, 데브섹옵스 및 라이프사이클 관리를 보완하고 확장한다. 이의 기반이 되는 VMware Aria Hub(아리아 허브)는 전체 멀티 클라우드 환경을 관리하는 중앙집중식 뷰 및 조정 기능을 제공한다. 앱, 리소스, 역할 및 계정에 대한 공통 정의를 제공하는 아리아 그래프는 멀티 클라우드 환경의 리소스와 관계를 포착하는 그래프 기반 데이터 저장소이다. 클라우드 네이티브 앱과 환경의 운영상 문제를 해결하기 위해 설계된 아리아 그래프는 거의 실시간으로 업데이트되는 단일 정보 소스를 제공한다.  클라우드 네이티브 운영을 위해 설계된 아리아 그래프는 근본적으로 다른 아키텍처를 통해 다대다 관계를 포착하고, 수억 개의 개체로 확장하고, 거의 실시간으로 업데이트함으로써 크고 까다로운 기업의 멀티 클라우드 관리 요구사항을 충족한다. 아리아의 그래프 데이터 저장소 및 API 서비스는 관찰 가능성 및 앱 성능 관리 툴과 같은 타사 솔루션과 매끄럽게 통합 가능하다. 퍼블릭 클라우드, 온프레미스 클라우드, VM웨어 툴, 타사 툴에서 수집 및 정규화된 아리아 그래프 내의 데이터는 고객의 기존 VMware vRealize(브이리얼라이즈), CloudHealth by VMware 및 VMware Tanzu Observability(탄주 옵저버빌리티) 제품의 운영, 자동화 및 비용 메트릭을 강화해, 퍼블릭 클라우드 및 프라이빗과 하이브리드 클라우드에 앱 인식 관리 기능을 제공한다. 멀티 클라우드는 오늘날의 복잡하고 분산된 환경에서 한층 새롭고 어려운 관리 문제를 발생시킨다. 아리아는 관리 규정과 클라우드에 걸친 다양한 기능을 통해 멀티 클라우드 거버넌스, 클라우드 간 마이그레이션, 비즈니스 통찰력 분야에서 고유한 가치를 제공한다. VM웨어는 ▲VMware Aria Guardrails(아리아 가드레일) ▲VMware Aria Migration(아리아 마이그레이션) ▲VMware Aria Business Insights(아리아 비즈니스 인사이트) 등 아리아 허브 및 아리아 그래프를 기반으로 구축된 세 가지 새로운 엔드 투 엔드 관리 서비스도 공개했다. 아리아는 새로운 단일 클라우드 관리 제품으로 선보이며, VM웨어의 멀티 클라우드 관리 솔루션인 브이리얼라이즈, VMware Suite(스위트)의 CloudHealth, Wavefront(웨이브프론트)의 탄주 옵저버빌리티를 사용하는 기존 고객은 아리아의 해당 제품으로 명명된 솔루션을 제공받게 된다. 아리아 코스트, 아리아 오퍼레이션, 아리아 오토메이션은 고객에게 인프라와 앱 서비스를 모든 클라우드에서 일관성 있게 배포하고 운영하기 위한 포괄적인 솔루션 세트를 제공한다. VM웨어의 푸르니마 파드마나반(Purnima Padmanabhan) 클라우드 관리 부문 수석 부사장 겸 총괄 관리자는 “멀티 클라우드가 현실이 되면서 다양한 클라우드에서 전반적인 클라우드 지출, 리소스 활용도, 앱 성능, 보안, 컴플라이언스를 관리하는 것이 점점 더 어려워지고 있다. 이는 결과적으로 과도한 지출과 비효율성, 위험 증가로 이어질 수 있다”며, “개발자는 구축 중인 앱의 완전한 특성을 이해하기 위해 종종 다른 툴에 저장되곤 하는 비용, 성능, 보안, 구성 데이터를 필요로 한다. 개발자, SRE, 플랫폼 엔지니어링 팀은 아리아의 API 우선 접근 방식을 통해 모든 소스에서 관련 데이터를 가져와 더 빠른 앱 분석 및 디버깅을 수행하는 동시에, 클라우드 환경 전반에서 앱 및 워크로드의 비용, 성능, 구성에 대한 완전한 가시성을 플랫폼 운영팀, IT 운영팀, 클라우드 운영팀에 제공할 수 있다”고 전했다.
작성일 : 2022-08-31