• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "ERP"에 대한 통합 검색 내용이 2,480개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 기업 생산성 강화하는 ‘네모 마이크로서비스’ 정식 출시
엔비디아가 에이전트 기반 AI 플랫폼 개발을 가속화하고 기업의 생산성을 높이는 ‘엔비디아 네모 마이크로서비스(NVIDIA NeMo microservices)’를 정식 출시했다고 밝혔다. 이번에 정식 출시된 엔비디아 네모 마이크로서비스는 기업 IT 부서가 데이터 플라이휠(flywheel)을 활용해 직원 생산성을 높일 수 있는 AI 팀원을 빠르게 구축하도록 지원한다. 이 마이크로서비스는 엔드 투 엔드 개발자 플랫폼을 제공한다. 이 플랫폼은 최첨단 에이전틱 AI(Agentic AI) 시스템의 개발을 가능하게 하고, 추론 결과, 비즈니스 데이터, 사용자 선호도에 기반한 데이터 플라이휠을 통해 지속적인 최적화를 지원한다. 데이터 플라이휠을 통해 기업 IT 부서는 AI 에이전트를 디지털 팀원으로 온보딩할 수 있다. 이러한 에이전트는 사용자 상호작용과 AI 추론 과정에서 생성된 데이터를 활용해 모델 성능을 지속적으로 개선할 수 있다. 이를 통해 ‘사용’을 ‘인사이트’로, ‘인사이트’를 ‘실행’으로 전환할 수 있다.     데이터베이스, 사용자 상호작용, 현실 세계의 신호 등의 고품질 입력이 지속적으로 제공되지 않으면 에이전트의 이해력은 약화된다. 그 결과, 응답의 신뢰성은 떨어지고 에이전트의 생산성도 저하될 수 있다. 운영 환경에서 AI 에이전트를 구동하는 모델을 유지하고 개선하기 위해서는 세 가지 유형의 데이터가 필요하다. 인사이트를 수집하고 변화하는 데이터 패턴에 적응하기 위한 추론 데이터, 인텔리전스를 제공하기 위한 최신 비즈니스 데이터, 모델과 애플리케이션이 예상대로 작동하는지를 판단하기 위한 사용자 피드백 데이터가 그것이다. 네모 마이크로서비스는 개발자가 이 세 가지 유형의 데이터를 효율적으로 활용할 수 있도록 지원한다. 또한, 네모 마이크로서비스는 에이전트를 구동하는 모델을 선별하고, 맞춤화하며, 평가하고, 안전장치를 적용하는 데 필요한 엔드 투 엔드 툴을 제공함으로써 AI 에이전트 개발 속도를 높인다. 엔비디아 네모 마이크로서비스는 ▲대규모 언어 모델(LLM) 미세 조정을 가속화해 최대 1.8배 높은 훈련 처리량을 제공하는 네모 커스터마이저(Customizer) ▲개인과 산업 벤치마크에서 AI 모델과 워크플로의 평가를 단 5번의 API 호출로 간소화하는 네모 이밸류에이터(Evaluator) ▲ 0.5초의 추가 지연 시간만으로 규정 준수 보호 기능을 최대 1.4배까지 향상시키는 네모 가드레일(Guardrails)을 포함한다. 이는 네모 리트리버(Retreiver), 네모 큐레이터(Curator)와 함께 사용돼, 맞춤형 엔터프라이즈 데이터 플라이휠을 통해 AI 에이전트를 구축하고, 최적화하며, 확장하는 과정을 기업이 보다 수월하게 수행할 수 있도록 지원한다. 개발자는 네모 마이크로서비스를 통해 AI 에이전트의 정확성과 효율성을 높이는 데이터 플라이휠을 구축할 수 있다. 엔비디아 AI 엔터프라이즈(EntERPrise) 소프트웨어 플랫폼을 통해 배포되는 네모 마이크로서비스는 온프레미스 또는 클라우드의 모든 가속 컴퓨팅 인프라에서 엔터프라이즈급 보안, 안정성, 지원과 함께 손쉽게 운영할 수 있다. 이 마이크로서비스는 기업들이 수백 개의 전문화된 에이전트를 협업시키는 대규모 멀티 에이전트 시스템을 구축하고 있는 현재 정식 출시됐다. 각 에이전트는 고유의 목표와 워크플로를 가지고 있으며, 디지털 팀원으로서 복잡한 업무를 함께 해결하며 직원들의 업무를 보조하고, 강화하며, 가속화한다. 엔비디아 네모 마이크로서비스로 구축된 데이터 플라이휠은 사람의 개입을 최소화하고 자율성을 극대화하면서 데이터를 지속적으로 선별하고, 모델을 재훈련하며, 성능을 평가한다. 네모 마이크로서비스는 라마(Llama), 마이크로소프트 파이(Microsoft Phi) 소형 언어 모델 제품군, 구글 젬마(Google Gemma), 미스트랄 등 폭넓은 인기 오픈 모델을 지원한다. 또한, 기업은 엔비디아 가속 인프라, 네트워킹, 그리고 시스코, 델, HPE, 레노버(Lenovo) 등 주요 시스템 제공업체의 소프트웨어를 기반으로 AI 에이전트를 실행할 수 있다. 액센츄어(Accenture), 딜로이트(Deloitte), EY를 비롯한 거대 컨설팅 기업들 역시 네모 마이크로서비스를 기반으로 기업용 AI 에이전트 플랫폼을 구축하고 있다.
작성일 : 2025-04-25
퓨어스토리지 포트웍스, 엔터프라이즈급 현대적 가상화 설루션 공개
퓨어스토리지가 자사의 대표 컨테이너 데이터 관리 플랫폼인 포트웍스 엔터프라이즈(Portworx EntERPrise)의 최신 업데이트를 발표했다. 이번 업데이트는 기업이 엔터프라이즈 규모에서 현대적 가상화를 실현할 수 있도록 지원하며, 데이터 스토리지 관련 의사결정권자가 각자의 속도에 맞춰 현대화 여정을 이어갈 수 있도록 돕는다. 브로드컴의 VM웨어 인수 이후 많은 기업들이 비용 상승 없이 가상화 전략을 추진할 수 있는 현대적 설루션을 모색하고 있다. 이에 따라 컨테이너와 가상머신을 동시에 지원할 수 있는 쿠버네티스를 대안으로 채택하거나 도입을 검토 중인 기업들이 늘고 있다. 쿠버네티스를 활용하면 하나의 플랫폼에서 클라우드 네이티브 애플리케이션 개발과 인프라 현대화를 함께 추진할 수 있다. 2024년 쿠버네티스 전문가 대상 설문조사에 따르면, 응답자의 81%가 가상머신을 쿠버네티스로 이전하거나 현대화할 계획이며, 이 중 3분의 2가량은 2년 이내 이를 완료할 계획이다. 하지만 가상머신을 쿠버네티스로 이전하면서 새로운 과제도 등장하고 있다. 이번에 출시된 포트웍스 엔터프라이즈 3.3(Portworx EntERPrise 3.3)은 컨테이너 데이터 관리 플랫폼을 엔터프라이즈급 가상머신 워크로드까지 확장 지원한다. 포트웍스는 미션 크리티컬 워크로드를 위한 고성능, 데이터 복원력, 데이터 보호를 제공하면서도, 대규모 프로덕션 환경에서 요구되는 단순함, 유연성, 신뢰성을 함께 제공한다. 쿠버네티스를 기반으로 한 포트웍스의 사용을 통해 기존 설루션 대비 30%에서 최대 50%까지 비용을 절감할 수 있으며, 기업은 이를 통해 더 큰 비용 효율을 기대할 수 있다. 별도의 리소스 투자 없이도 기존 가상머신을 쿠버네티스 상에 계속 유지할 수 있으며, 필요에 따라 클라우드 네이티브 애플리케이션으로 전환하거나 신규 개발할 수 있다. 포트웍스 3.3은 쿠베버트(KubeVirt) 가상머신을 위한 RWX 블록(RWX Block) 기능을 제공하며, 이는 퓨어스토리지의 플래시어레이(FlashArray)는 물론 다양한 스토리지 벤더 환경에서도 작동한다. 이를 통해 쿠버네티스 상에서 실행되는 가상머신에 강력한 읽기/쓰기 성능을 제공할 수 있다. 이제 하나의 관리 환경에서 쿠버네티스 상의 가상머신 데이터를 통합 관리할 수 있으며, 데이터 손실 없는 동기화 재해복구(zero RPO)를 지원한다. 또한, 리눅스 기반 가상머신에 대한 파일 단위 백업 및 복원이 가능해져 더욱 세분화된 데이터 보호가 가능하다. 또한 수세(SUSE), 스펙트로클라우드(Spectro Cloud), 쿠버매틱(Kubermatic) 등 주요 쿠버베트 플랫폼과의 파트너십 및 레퍼런스 아키텍처를 제공하며, 기존 레드햇과의 협업도 지속된다. 퓨어스토리지의 벤캇 라마크리슈난(Venkat Ramakrishnan) 포트웍스 부문 부사장 겸 총괄 매니저는 “포트웍스는 쿠버네티스를 기반으로 구축되어 클라우드 네이티브 애플리케이션의 유연성과 자동화, 셀프 서비스 기능을 모두 갖췄다. 이번 포트웍스 3.3은 하나의 통합 플랫폼과 다양한 통합 기능을 통해 기업이 자신만의 속도로 인프라 현대화를 추진할 수 있도록 돕는다”고 전했다. 
작성일 : 2025-04-23
스노우플레이크, “AI 조기 도입한 기업의 92%가 투자 대비 수익 실현”
스노우플레이크가 ‘생성형 AI의 혁신적 ROI(Radical ROI of Generative AI)’ 보고서를 발표했다. 이번 보고서는 글로벌 시장 조사 기관 ESG(EntERPrise Strategy Group)와 공동으로 AI를 실제 사용 중인 9개국 1900명의 비즈니스 및 IT 리더를 대상으로 진행한 설문조사 결과를 담았다. 보고서에 따르면 AI를 도입한 기업의 92%가 이미 AI 투자를 통해 실질적 ROI(투자수익률)를 달성했고, 응답자의 98%는 올해 AI에 대한 투자를 더욱 늘릴 계획인 것으로 나타났다. 전 세계 기업의 AI 도입이 빨라지면서 데이터 기반이 성공적인 AI 구현의 핵심 요소로 떠오르고 있다. 그러나 많은 기업이 여전히 자사 데이터를 AI에 적합한 형태로 준비하는 데 어려움을 겪는 것으로 파악됐다.  전반적으로 기업들은 AI 초기 투자에서 성과를 거두고 있는 것으로 나타났다. 93%의 응답자는 자사의 AI 활용 전략이 ‘매우’ 또는 ‘대부분’ 성공적이라고 답했다. 특히 전체 응답자의 3분의 2는 생성형 AI 투자에 따른 ROI를 측정하고 있고, 1달러 투자당 평균 1.41달러의 수익을 올리며 ROI를 높이고 있는 것으로 집계됐다.  또한 국가별 AI 성숙도에 따라 기업이 AI 역량을 주력하는 분야가 달랐으며, 이는 지역별 ROI 성과와 밀접한 연관이 있는 것으로 드러났다. 미국은 AI 투자 ROI가 43%로 AI 운영 최적화 측면에서 가장 앞서 있었다. 뿐만 아니라 자사의 AI를 실제 비즈니스 목표 달성에 ‘매우 성공적’으로 활용하고 있다고 답한 비율이 52%로 전체 응답국 중 가장 높았다. 한국의 경우 AI 투자 ROI는 41%로 나타났다. 보고서에 따르면 한국 기업은 AI 성숙도가 높은 편으로 오픈소스 모델 활용, RAG(검색증강생성) 방식을 활용해 모델을 훈련 및 보강하는 비율이 각각 79%, 82%로 글로벌 평균인 65%, 71%를 웃돌았다.  특히 한국 기업들은 기술 및 데이터 활용에 있어 높은 실행 의지를 보이고 있는 것으로 나타났다. 오픈소스 모델 활용(79%), RAG 방식의 모델 훈련 및 보강(82%), 파인튜닝 모델 내재화(81%), 텍스트 투 SQL(Text to SQL, 자연어로 작성한 질문을 SQL 쿼리로 자동 변환하는 기술) 서비스 활용(74%) 등 고급 AI 기술을 활용한다고 답변한 비율이 글로벌 평균을 크게 웃돌았다. 이러한 데이터 활용 역량은 비정형 데이터 관리 전문성(35%)과 AI 최적화 데이터 보유 비율(20%)에서도 확인된다. 이런 성과에 비해 아직도 전략적 의사결정에 AI 활용하는 데에는 어려움을 겪고 있는 모습도 나타났다. 조사 결과에 따르면 응답자의 71%는 ‘제한된 자원에 대비해 추진할 수 있는 AI 활용 분야가 매우 다양하고, 잘못된 의사결정이 시장 경쟁력에 부정적 영향을 미칠 수 있다’고 답했다. 또한 응답자의 54%는 ‘비용, 사업 효과, 실행 가능성 등 객관적 기준에 따라 최적의 도입 분야를 결정하는 데 어려움을 겪고 있다’고 밝혔다. 59%는 ‘잘못된 선택이 개인의 직무 안정성까지 위협할 수 있다’고 우려했다. 한국 기업의 경우, 기술적 복잡성(39%), 활용 사례 부족(26%), 조직 내 협업 문제(31%) 등의 어려움을 겪고 있다고 답하며 아직 다양한 비즈니스 영역으로의 AI 확대는 더딘 것으로 나타났다. 그럼에도 향후 12개월 내 ‘다수의 대규모 언어 모델(LLM)을 적극적으로 도입’하고 ‘대규모 데이터를 활용할 계획’이라고 답한 기업은 각각 32%와 30%로, AI 도입 확대에 관한 강한 의지를 드러냈다. 설문에 응답한 전체 기업의 80%는 ‘자체 데이터를 활용한 모델 파인튜닝을 진행 중’이고 71%는 ‘효과적인 모델 학습을 위해 수 테라바이트의 대규모 데이터가 필요하다’고 답하며, AI의 효과를 극대화하기 위해 자사 데이터를 적극 활용하고 있는 것으로 나타났다. 그러나 여전히 많은 기업들이 데이터를 AI에 적합한 형태로 준비하는 과정에서 어려움을 겪기도 했다. 데이터 준비 과정에서 겪는 주요 과제로 ▲데이터 사일로 해소(64%) ▲데이터 거버넌스 적용(59%) ▲데이터 품질 관리(59%) ▲데이터 준비 작업 통합(58%) ▲스토리지 및 컴퓨팅 자원의 효율적 확장(54%) 등을 꼽았다. 스노우플레이크의 바리스 굴테킨(Baris Gultekin) AI 총괄은 “AI가 기업들에게 실질적인 가치를 보여주기 시작했다”면서, “평균 일주일에 4000개 이상의 고객이 스노우플레이크 플랫폼에서 AI 및 머신러닝을 활용하고 있고 이를 통해 조직 전반의 효율성과 생산성을 높이고 있다”고 강조했다.  스노우플레이크의 아르틴 아바네스(Artin Avanes) 코어 데이터 플랫폼 총괄은 “AI의 발전과 함께 조직 내 데이터 통합 관리의 필요성이 더욱 커지고 있다”면서, “스노우플레이크처럼 사용이 쉽고 상호 운용 가능하며 신뢰할 수 있는 단일 데이터 플랫폼은 단순히 빠른 ROI 달성을 돕는 것을 넘어, 사용자가 전문적인 기술 없이도 안전하고 규정을 준수하며 AI 애플리케이션을 쉽게 확장할 수 있도록 견고한 기반을 마련해 준다”고 말했다. 
작성일 : 2025-04-16
HS효성인포메이션시스템, “국내 하이엔드 스토리지 시장에서 히타치 스토리지가 11년 연속 1위”
히타치 밴타라의 국내 비즈니스를 담당하는 HS효성인포메이션시스템은 IT 시장분석 및 컨설팅 기관 IDC의 분기별 외장형 스토리지 시스템 시장조사 자료를 인용해, 히타치 스토리지가 매출액 기준 2024년 국내 하이엔드 스토리지 시장점유율 41.2%로 1위를 차지했다고 밝혔다. HS효성인포메이션시스템은 “히타치 스토리지는 11년 연속 국내 하이엔드 스토리지 시장 1위 자리를 지키며 업계 내 입지를 다시 한 번 입증했다”고 밝혔다. 가속화되는 AI 시대에 데이터는 기업 경쟁력을 뒷받침하는 핵심 자산이다. 이에 따라 데이터의 안정성과 가용성을 보장하는 신뢰도 높은 스토리지 인프라의 중요성도 갈 수록 커지고 있다. HS효성인포메이션시스템은 ‘VSP(Virtual Storage Platform)’ 스토리지 포트폴리오를 기반으로 변화하는 비즈니스 환경에 민첩하게 대응하며 안정성, 고성능, 확장성 측면에서 기술력을 제공해왔다. 특히 VSP 5000 시리즈는 높은 수준의 고성능과 확장성을 갖춘 하이엔드 스토리지로 AI, 빅데이터, 전사적자원관리(ERP) 같은 데이터 집약적 워크로드에 최적화되어 있다. VSP 5000 시리즈는 초고속 응답성과 처리 속도를 지원하는 엔드 투 엔드 NVMe, 100% 데이터 가용성 보장, 액티브-액티브(Active-Active) 데이터센터 구현을 위한 미러링, 무중단 이기종 마이그레이션이 가능한 가상화 기술을 지원하며, 다양한 상황에서 안정성을 제공한다. HS효성인포메이션시스템은 다양한 데이터 플랫폼을 하나의 데이터 플레인으로 통합 관리하는 ‘VSP One’ 전략을 통해 하이브리드 클라우드 및 AI 데이터 환경에 최적화된 미래형 스토리지 아키텍처를 제시한다. VSP One은 ▲강력한 데이터 보호 ▲혁신적인 로드맵 ▲복제, 자동 계층화, 소프트웨어 정의 스토리지 등 포괄적인 하이브리드 클라우드 기능을 인정받아 시장 분석기관 기가옴(GigaOm)의 ‘2024년 주요 스토리지 보고서’에서 리더 및 아웃퍼포머로 선정되기도 했다. VSP One Block 스토리지 컨트롤러는 All-QLC(쿼드 레벨 셀) 플래시 기술 적용으로 높은 확장성과 비용 효율성을 바탕으로 AI 시대에 최적화된 데이터 경쟁력을 제공한다. VSP One Block 스토리지는 2024년 미국 ‘에너지스타(ENERGY STAR)’ 인증을 획득하며 친환경 데이터센터 구축과 지속가능한 IT 인프라 실현을 위한 기술력을 인정받았다. HS효성인포메이션시스템의 양정규 대표는 “AI 시대에 데이터는 기업의 경쟁력과 직결되는 만큼 HS효성인포메이션시스템은 차별화된 기술력과 검증된 안정성을 바탕으로 고객의 데이터 인프라 고도화를 지원해왔다”며, “앞으로도 VSP 포트폴리오를 통해 하이브리드 클라우드 및 AI 환경에 최적화된 스토리지 전략을 제시하고 고객의 디지털 혁신을 이끌 것”이라고 밝혔다.
작성일 : 2025-04-16
델, 현대적인 AI 레디 데이터센터를 위한 인프라 설루션 신제품 공개
델 테크놀로지스가 서버, 스토리지, 데이터 보호 등 데이터센터 인프라 전반에 걸쳐 기업 및 기관들의 데이터센터 현대화를 가속할 수 있는 신제품 및 신기능을 선보였다. AI의 부상, 전통적인 워크로드와 최신 워크로드를 모두 지원해야 하는 필요성, 사이버 위협의 증가에 대응하기 위해 IT 전략의 재편이 요구되고 있다. IT 조직은 확장성, 효율성을 높이고 적응력을 확보하기 위해 컴퓨팅, 스토리지 및 네트워킹을 공유형 리소스 풀로 추상화하는 분리형 인프라스트럭처로 전환하는 추세이다. 델 테크놀로지스는 고객들이 IT 인프라에 대한 접근 방식을 재고하고, 최신 및 전통적인 워크로드 요구사항에 좀 더 효과적으로 대응할 수 있도록 서버, 스토리지 및 데이터 보호 설루션에 걸쳐서 다양한 혁신을 추진한다고 전했다.  P 코어의 인텔 제온 6 프로세서가 탑재된 델 파워엣지(Dell PowerEdge) R470, R570, R670 및 R770 서버는 1U 및 2U 폼 팩터의 싱글 및 더블 소켓 서버로, HPC, 가상화, 분석 및 AI 추론과 같은 까다로운 기존 워크로드와 새로운 워크로드에 모두 효과적인 제품이다. 델 파워엣지 R770으로 레거시 플랫폼을 통합하면 42U 랙당 전력과 최대 80%의 공간을 확보할 수 있다. 이를 통해 에너지 비용과 온실가스 배출량을 최대 절반까지 절감하고 프로세서당 최대 50% 더 많은 코어와1) 67% 향상된 성능을 지원한다. 데이터 센터 상면 공간을 줄여 지속 가능성 목표를 달성하고 성능 저하 없이 전체 총 소유 비용을 절감할 수 있다. 델 파워엣지 R570은 와트당 인텔 성능에서 높은 수준을 달성한 모델이다. 고성능 워크로드를 유지하면서 에너지 비용을 절감할 수 있도록 지원한다. 델 파워엣지 신제품은 OCP(오픈 컴퓨트 프로젝트)의 일부인 ‘데이터 센터 - 모듈형 하드웨어 시스템(DC-MHS)’ 아키텍처로 운영을 간소화했다. DC-MHS는 서버 설계를 표준화하여 기존 인프라에 쉽게 통합할 수 있도록 지원하므로, 폭넓은 선택권을 제공한다. 또한, 파워엣지 서버는 실시간 모니터링을 비롯한 델 오픈매니지(Dell OpenManage) 개선 사항 및 IDRAC 10(Integrated Dell Remote Access Controller) 업데이트를 통해 관리가 간소화되고 강력한 보호 기능을 제공한다.    ▲ 델 타워엣지 R470/R570/R670/R770 서버   델 파워스토어(Dell PowerStore)는 데이터 관리를 간소화하고 성능과 보안을 강화한다. 델 파워스토어의 지능형 소프트웨어는 고도로 프로그래밍 가능한 자동화 플랫폼을 기반으로, 첨단 데이터 절감 기능과 독립적으로 확장 가능한 스토리지 서비스를 제공하여 현대적인 분산 아키텍처에 요구되는 요구사항에 적합하다. 파워스토어의 최신 소프트웨어는 ▲델 AI옵스(Dell AIOps, 이전의 CloudIQ)를 통한 AI 기반 분석 ▲제로 트러스트 보안 강화 ▲고급 파일 시스템 지원 등의 기능을 포함한다. 또한, 델은 고성능의 오브젝트 플랫폼으로서 AI 워크로드를 위한 대규모 확장성, 성능 및 효율성을 제공하는 차세대 ‘델 오브젝트스케일(Dell ObjectScale)’을 공개했다. 델은 오브젝트스케일의 엔터프라이즈급 아키텍처를 현대화하고 새로운 노드 모델을 추가했다. 오브젝트스케일 XF960은 경쟁 제품 대비 노드당 최대 2배 더 높은 처리량(throughput)과 이전 세대의 올플래시 제품 대비 최대 8배 우수한 집적도를 제공한다. HDD 기반의 델 오브젝트스케일 X560은 읽기 처리량이 83% 향상되어 미디어 수집, 백업 및 AI 모델 학습과 같은 주요 워크로드를 가속화한다. 델은 클라우드 스토리지 제공업체 ‘와사비(Wasabi)’와 협력해 개발한 오브젝트스케일 기반 하이브리드 클라우드 설루션 신제품을 통해 높은 효율성 및 회복탄력성을 제공한다고 소개했다. 델 파워스케일(Dell PowerScale)의 스케일 아웃 아키텍처는 현대적인 AI 중심 운영을 위한 백본으로 사용하기에 적합한 제품이다.122TB의 고밀도 올플래시 스토리지는 단일 2U 노드 구성에서 최대 6PB의 고속 데이터 액세스로 GPU 활용도를 높이고, 대규모 AI 처리량 요건을 충족하는 성능 밀도를 제공한다. 델은 파워스케일 H710, H7100, A310, 그리고 A3100 등 HDD 기반 다양한 모델에 걸쳐 새로운 컴퓨팅 모듈로 선보이면서 향상된 성능과 낮아진 레이턴시(지연시간)를 선보였다.   델은 고객이 사이버 회복탄력성을 강화하는 동시에 향상된 성능, 보안 및 효율성을 통해 비용을 효과적으로 통제할 수 있도록 데이터 보호 설루션인 델 파워프로텍트(Dell PowERProtect)를 업데이트 했다. 델 파워프로텍트 DD6410은 12TB부터 256TB까지의 용량을 지원해 일반적인 규모의 기업에서부터 소기업, 원격 사무소 등 다양한 환경에 활용이 가능하다. 전통적인 워크로드 및 최신 워크로드에 대해 최대 91% 빠른 복구 및 확장성을 제공하며, 최대 65배 중복 제거 기능으로 효율적인 운영을 지원한다. 델의 올플래시 데이터 보호 여정의 첫 번째 단계인 ‘델 파워프로텍트 올플래시 레디 노드(Dell PowERProtect All-Flash Ready Node)’는 61% 이상 빠른 복원 속도, 최대 36% 적은 전력 사용, 5배 더 작은 설치 공간을 제공하는 220TB 용량 시스템으로 보다 안전하고 효율적인 데이터 보호 기능을 제공한다.  한국 델 테크놀로지스의 김경진 총괄사장은 “현대적인 애플리케이션은 끊임없이 변화하는 데이터 센터 요구 사항에 발맞출 수 있는 새로운 형태의 인프라를 필요로 한다”면서, “델 테크놀로지스는 복잡성을 줄이고, IT 민첩성을 높이며, 데이터 센터 현대화를 가속할 수 있는 엔드 투 엔드 분산형 인프라 포트폴리오를 제공한다”고 전했다.
작성일 : 2025-04-09
서비스나우, 현상준 한국 신임 대표 선임
서비스나우, 현상준 한국 신임 대표   서비스나우(ServiceNow)가 한국 대표로 현상준 신임 대표를 선임했다. 현상준 신임 대표는 IT 및 비즈니스 컨설팅 업계에서 30년 이상 디지털 혁신을 통해 가치를 창출해온 전문가다. IBM과 프라이스워터하우스쿠퍼스(PwC) 컨설팅에서 글로벌 파트너로 활동하며 IT 컨설팅 및 아웃소싱 사업을 주도했다. 2019년부터는 SAP 코리아에서 서비스 영업 부문에 이어 Corporate 사업 부문을 총괄하며ERP, HR, 플랫폼, 고객 경험 관리 솔루션 등 다양한 엔터프라이즈 소프트웨어 비즈니스를 이끌었다. 현 신임 대표는 서비스나우의 한국 사업을 총괄하며 서비스나우 플랫폼을 통해 기업의 디지털 혁신을 가속화하고, 국내 고객 및 파트너와의 협력을 강화하는 데 집중할 예정이다. 현상준 대표는 “기업들이 비즈니스 워크플로우를 자동화하고 AI 에이전트를 비롯한 혁신적인 솔루션을 통해 고객이 새로운 가치를 창출할 수 있도록 돕는 중요한 역할을 하고 있는 서비스나우에 합류하게 되어 기대가 크다”면서 “한국 고객이 직면한 다양한 과제를 해결하고, 일하는 방식에 변화를 가져올 차세대 AI 기술을 도입할 수 있도록 적극 지원하겠다"고 포부를 밝혔다. 멜리사 리스(Melissa Ries) 서비스나우 아시아 및 한국 그룹 부사장은 “현상준 대표를 서비스나우 코리아의 대표로 맞이하게 되어 매우 기쁘다”며 “현 대표는 IT 업계에서 쌓아온 깊은 경험과 전략적 리더십을 바탕으로 서비스나우의 한국 시장 성장에 중요한 역할을 할 것"이라고 전했다. 이어 “한국은 서비스나우의 핵심 시장인 만큼, 함께 더 큰 성공을 만들어가기를 기대한다”고 덧붙였다.  
작성일 : 2025-04-05
근사모델 기반의 최적화 vs. 직접 검색 기반의 최적화
최적화 문제를 통찰하기 위한 심센터 히즈 (2)   연재를 통해 제품 설계 과정에서 발생하는 다양한 문제에 대해서 최적화 방법론을 적용하고 올바른 결과를 도출하는 과정에서 심센터 히즈(Simcenter HEEDS)를 활용하는 방법에 대해 살펴보고자 한다. 이번 호에서는 최적화 기법 중에서 근사모델 기반 최적화와 직접 검색 기반 최적화에 대해 짚어보고, 심센터 히즈를 사용하여 근사 및 직접 최적화를 진행하는 과정을 소개한다.   ■ 연재순서 제1회 AI 학습 데이터 생성을 위한 어댑티브 샘플링과 SHERPA의 활용 제2회 근사모델 기반의 최적화 vs. 직접 검색 기반의 최적화 제3회 수집 또는 측정된 외부 데이터의 시각화 및 데이터 분석 제4회 산포특성을 가지는 매개변수의 상관성 및 신뢰성 분석 제5회 실험 측정과 해석 결과 간의 오차 감소를 위한 캘리브레이션 분석 제6회 프로세스 자동화 Ⅰ – 구조 설계 최적화 및 사례 제7회 프로세스 자동화 Ⅱ – 모터 설계 최적화 및 사례 제8회 프로세스 자동화 Ⅲ – 유로 형상 설계 최적화 및 사례 제9회 프로세스 자동화 Ⅳ – 다물리 시스템 최적화 및 사례 제10회 프로세스 자동화 Ⅴ – 제조 공정 효율성 최적화 및 사례   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 히즈를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR   최적화 기법의 중요성 최적화는 다양한 산업 분야에서 설계의 성능을 개선하고 자원을 효율적으로 활용하는 데 있어 필수 과정이다. 특히, 복잡한 공학 문제나 다목적 설계에서 최적화는 품질 향상과 비용 절감을 동시에 달성하는 핵심 도구로 활용된다. 현대 산업에서는 제품 개발 주기의 단축과 고성능 요구가 증가함에 따라, 신뢰성 있는 최적화 기법의 선택이 더욱 중요해지고 있다. 근사모델 기반 최적화와 직접 검색 기반 최적화는 이러한 요구를 충족하기 위해 자주 사용되며, 각 접근법은 문제의 특성과 목표에 따라 상이한 성능을 보인다.   근사모델 기반 최적화와 직접 검색 기반 최적화의 개요 근사모델 기반 최적화는 복잡한 시뮬레이션이나 계산 비용이 큰 문제에서 실험 데이터를 바탕으로 근사함수를 생성한 후, 해당 함수를 활용해 최적해를 탐색하는 방법이다. 근사함수를 생성하기 위해서는 주로 반응표면법(RSM), 머신러닝 모델 등이 사용되며, 계산 자원을 절감하고 빠른 최적해 도출이 가능하다는 장점이 있다. 반면, 모델 정확도에 따라 해의 품질이 좌우되고, 고차원 문제에서 모델링이 어려울 수 있다. 직접 검색 기반 최적화는 목적 함수의 수학적 형태를 몰라도 입력과 출력 간 관계를 직접 탐색하며 최적해를 구하는 방법이다. 비선형성이나 불연속성이 있는 문제에도 적용할 수 있는 장점이 있지만, 계산 비용이 크고 수렴 속도가 느릴 수 있어서 고비용 시뮬레이션 환경에서는 활용에 한계가 있을 수 있다.   최적화를 위한 예제 지난 호에서 사용한 외팔보의 처짐 문제를 사용하겠다. 외팔보의 체적을 최소화하는 최적화 문제를 다음과 같이 정의하였다. 빠른 계산을 위해 파이썬(Python)으로 계산한다.   그림 1   목적함수 외팔보 H빔의 체적을 최소화 제약 조건 최대 굽힘 응력(σ) ≤ 200 Mpa 최대 끝단 처짐(δ) ≤ 2 mm 설계 변수 Length : 5,000 mm Load P : 6,500 N E : 200 Mpa H : 50 mm ≤ H ≤ 100 mm h1 : 5 mm ≤ h1 ≤ 30 mm b1 : 50 mm ≤ b1 ≤ 100 mm b2 : 5 mm ≤ b2 ≤ 50 mm 외팔보의 체적, 응력, 처짐량은 다음의 관계식으로 계산한다. Volume = [2*h1*b1 + (H – 2*h1)*b2]*L Stress = P*L*H/(2*I) Deflection = P*L3/(3*E*I) where : I = 1/12*b2*(H-2*h1)^3 + 2*[1/12*b1*h13 + b1*h1*(H-h1) 2/4]   히즈 기본 설정 파이썬 포털(Python portal)을 사용하여 예제의 Input/Output file을 등록하였다.    그림 3     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-04-02
SAP, 하노버 메세에서 제조업계의 최선 이끌어 낼 AI 혁신 공개
SAP가 4월 4일(현지 시각)까지 독일 하노버에서 열리는 ‘하노버 산업박람회(하노버 메세)’에서 AI 기반 설루션을 공개했다. 매년 봄 열리는 하노버 메세는 13만 명이 참석하는 세계 최대 규모의 산업 박람회로, 최신 산업 동향과 인사이트를 살필 수 있어 국제적으로 중요한 행사다. 올해는 전체 산업 생태계를 위한 산업 간 설루션 및 인터페이스 기술을 선보인다. SAP는 ‘Ignite Innovation. Create Growth. Together’를 주제로 AI가 내제된 최신 제조, 공급망 및 클라우드 ERP 설루션이 어떻게 모든 규모의 기업을 지원하는지 집중 소개했다. 특히, SAP의 이번 전시에는 40곳 이상의 산업 및 전략 파트너가 참여하며 SAP가 구축한 생태계의 강점을 제시했다. SAP의 전략 파트너들이 운영하는 전시 공간은 이번 하노버 메세의 절반 이상을 차지한다. SAP의 도미닉 메츠거(Dominik Metzger) 공급망 관리 사장 겸 최고 제품 책임자는 “전 세계 기업은 시장 변화에 적응하는 동시에, 지속 가능성에 대한 높아지는 요구를 충족해야 하는 이중 과제에 직면해 있다”면서, “SAP는 생성형 AI와 같은 첨단 기술을 활용해 제조업체가 최고의 성과를 달성할 수 있도록 지원하고 있다”고 밝혔다. SAP 코리아는 이번 하노버 메세에 참가하는 국내 고객사와 함께 제조업계의 혁신을 살펴보는 자리를 마련했다. SAP 코리아는 가이드 투어를 통해 AI 기반 설루션이 가져올 산업 혁신을 국내 기업에 소개하고, 확장 중인 SAP 생태계와 핵심 설루션 및 기술을 직접 체험할 수 있도록 기획했다. 하노버 메세에 직접 참여하지 못한 고객들을 위한 행사도 이어진다. 4월 16일 열리는 CIO 포럼에서는 SAP 코리아의 제조산업 부문장인 정대영 박사가 ‘하노버 메세 2025’가 제시하는 최신 트렌드와 시사점을 발표한다. 이번 발표는 급변하는 글로벌 경영 환경에서 지속 가능한 비즈니스 전략을 수립하고, 이를 위해 AI 기반 설루션 도입을 검토하고 있는 경영인에게 인사이트를 제공할 전망이다. 또한, 4월 22일에는 ‘하노버 메세 2025 인사이트 및 AI 기반 공급망 혁신’ 세미나를 개최한다. 세미나에서는 하노버 메세 2025의 주요 시사점과 SAP 공급망 설루션의 최신 업데이트 및 고객 사례가 소개된다. 또한 실무진의 경험을 공유하는 파트너 세션도 함께 진행된다. 한편, SAP는 국내에서도 비즈니스 AI 분야를 선도하기 위한 활동을 진행 중이라고 전했다. 최근에는 SAP의 생성형 AI 코파일럿 쥴(Joule)의 한국어 지원 계획을 발표했다. 쥴은 다양한 AI 에이전트를 통합하여 업무 흐름을 자동화하는 업무 조율자(super orchestrator)이다. SAP는 2025년 말까지 주요 쥴 사용자의 생산성을 30% 높이는 것을 목표로 혁신을 이어가고 있다. 쥴의 한국어 서비스는 올해 2분기에 이뤄질 예정이다.
작성일 : 2025-03-31
오라클, 엔비디아 AI 엔터프라이즈 제공으로 분산형 클라우드 기능 확장
오라클이 오라클 클라우드 인프라스트럭처(OCI)에서 엔비디아 AI 엔터프라이즈(NVIDIA AI EntERPrise)를 제공한다고 밝혔다. 엔비디아 AI 엔터프라이즈는 데이터 과학을 가속화하고 운영 환경에서 사용 가능한 AI의 개발 및 배포를 간소화하는 엔비디아의 종단간(end-to-end) 클라우드 네이티브 소프트웨어 플랫폼이다. 엔비디아 AI 엔터프라이즈는 소버린 AI를 지원하고 기업 고객이 엔비디아의 가속화되고 안전하며 확장 가능한 플랫폼에 쉽게 액세스할 수 있도록 하기 위해 OCI의 분산형 클라우드 어디에서나 사용할 수 있으며, 기업 고객은 기존 오라클 유니버설 크레딧(Oracle Universal Credits)을 통해서도 사용할 수 있다. OCI는 마켓플레이스를 통해 사용 가능한 여타 엔비디아 AI 엔터프라이즈 오퍼링과 달리 OCI 콘솔(OCI Console)을 통한 네이티브 제공 방식으로 서비스 배포 시간이 단축되며, 직접 청구 및 고객 지원이 가능하다. 사용자는 생성형 AI 모델의 배포 간소화를 지원하는 최적화된 클라우드 네이티브 추론 마이크로서비스 모음인 엔비디아 NIM(NVIDIA NIM) 마이크로서비스를 비롯한 160개 이상의 훈련 및 추론용 AI 도구에 빠르고 간편하게 액세스할 수 있다. 또한 다양한 분산형 클라우드 배포 옵션에 걸쳐 종단간 트레이닝 및 추론 기능 모음을 애플리케이션 구축 및 데이터 관리를 지원하는 OCI 서비스와 결합할 수 있다. 오라클은 OCI 콘솔을 통해 엔비디아 AI 엔터프라이즈를 OCI 퍼블릭 리전을 비롯해, 정부 클라우드와 소버린 클라우드, OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), OCI 컴퓨트 클라우드앳커스터머(OCI Compute Cloud@Customer) OCI 로빙 엣지 디바이스(OCI Roving Edge Devices) 등의 오라클 서비스에 신속 간단히 배포할 수 있도록 지원한다. 고객은 OCI의 분산형 클라우드 전반에서 엔비디아 AI 엔터프라이즈를 사용해 엔터프라이즈 AI 스택의 개발, 배포, 운영 과정에 적용되는 보안, 주권, 규정, 규제 준수 요건을 충족할 수 있다. 엔비디아 AI 엔터프라이즈는 OCI 쿠버네티스 엔진(OCI Kubernetes Engine)을 사용하는 GPU 인스턴스 및 쿠버네티스 클러스터용 배포 이미지로 제공될 예정이다. OCI AI 블루프린트(OCI AI Blueprints)는 AI 배포 가속화를 지원하기 위해 직접 소프트웨어 스택 관련 결정을 내리거나 인프라를 수동으로 프로비저닝하지 않고도 빠르게 AI 워크로드를 실행할 수 있는 노코드 배포 레시피를 제공한다. 엔비디아 GPU, NIM 마이크로서비스, 사전 패키징된 통합 가시성 도구 등에 대한 명확한 하드웨어 권장 사항을 제공하는 OCI AI 블루프린트를 사용하면 확장 배포를 위한 GPU 온보딩 시간을 몇 주에서 단 몇 분으로 단축할 수 있다. 오라클의 카란 바타 OCI 담당 수석 부사장은 “오라클은 고객이 OCI에서 AI 설루션을 가장 신속하게 개발 및 배포할 수 있도록 지원한다”면서, “OCI 상의 엔비디아 AI 엔터프라이즈를 활용하면 최신 AI 인프라 및 소프트웨어 혁신의 이점을 누리는 동시에 분산형 클라우드가 제공하는 다양한 배포 옵션을 유연하게 활용할 수 있다. 고객은 운영, 위치, 보안에 대한 제어 능력을 강화함으로써 업계 최고의 AI 설루션을 활용해 소버린 AI를 가속화할 수 있다”고 말했다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 소프트웨어 제품 부사장은 “엔비디아 AI 엔터프라이즈는 개발자가 최신 AI 애플리케이션을 개발할 수 있는 구성 요소를 제공한다”면서, “오라클은 OCI 콘솔에 엔비디아 AI 엔터프라이즈를 통합함으로써 다양한 리전에서 생성형, 에이전틱, 물리적 AI의 개발과 배포를 가속화할 수 있는 원활한 환경을 제공할 것”이라고 말했다.
작성일 : 2025-03-27
엔비디아, AI 팩토리 구축 위한 새 옴니버스 블루프린트 출시
  엔비디아가 미국 새너제이에서 열린 GTC에서 AI 팩토리의 설계와 최적화를 지원하는 새로운 엔비디아 옴니버스 블루프린트(NVIDIA Omniverse Blueprint)를 공개했다고 밝혔다. 이제 AI가 하나의 주류로 자리 잡으며, AI 훈련과 추론 전용 인프라이자 인텔리전스 생산의 핵심인 AI 팩토리에 대한 수요가 그 어느 때보다 급증하고 있다. 이러한 AI 팩토리(AI 훈련과 추론을 전담하는 특수 목적 인프라)의 대부분은 기가와트급 규모로 건설될 예정이다. 이러한 규모의 AI 팩토리를 구축하는 것은 엄청난 엔지니어링과 물류 작업이 필요한 일이다. 1기가와트 규모의 AI 팩토리 건설에는 공급업체, 건축가, 시공업체, 엔지니어 등 수만 명의 인력이 필요하며, 약 50억 개의 부품과 21만 마일 이상의 광케이블을 제작, 배송, 조립해야 한다. 엔비디아 창립자 겸 CEO인 젠슨 황(Jensen Huang)은 현지 시간으로 3월 18일 진행된 GTC 기조연설에서 엔비디아의 데이터센터 엔지니어링 팀이 옴니버스 블루프린트에서 1기가와트급 AI 팩토리를 계획, 최적화, 시뮬레이션할 수 있는 애플리케이션을 어떻게 개발했는지 그 과정을 소개했다. 엔지니어링 팀은 케이던스 리얼리티 디지털 트윈 플랫폼(Cadence Reality Digital Twin Platform)과 ETAP와 같은 선도적인 시뮬레이션 툴에 연결해 인프라 건설이 시작되기 훨씬 전, 전력과 냉각 그리고 네트워킹을 테스트하고 최적화할 수 있다. 시뮬레이션 우선 접근 방식을 채택하는 엔지니어링 AI 팩토리 AI 팩토리 설계와 운영을 위한 엔비디아 옴니버스 블루프린트는 오픈USD(Universal Scene Description, OpenUSD) 라이브러리를 사용한다. 이를 통해 개발자는 건물 자체, 엔비디아 가속 컴퓨팅 시스템, 슈나이더 일렉트릭(Schneider Electric)이나 버티브(Vertiv)와 같은 공급업체의 전력 또는 냉각 장치 등 서로 다른 소스에서 3D 데이터를 수집할 수 있다. 이 블루프린트는 수십억 개의 AI 팩토리 구성 요소에 대한 설계와 시뮬레이션을 통합함으로써 엔지니어가 다음과 같은 복잡한 문제를 해결할 수 있도록 돕는다. l  구성 요소 통합과 공간 최적화 - 엔비디아 DGX SupERPOD, GB300 NVL72 시스템 그리고 50억 개의 구성 요소의 설계와 시뮬레이션을 통합한다. l  냉각 시스템 성능과 효율성 - 엔비디아 쿠다(CUDA)와 옴니버스 라이브러리로 가속화된 케이던스 리얼리티 디지털 트윈 플랫폼을 사용해 버티브와 슈나이더 일렉트릭의 하이브리드 공랭식 또는 수랭식 솔루션을 시뮬레이션하고 평가한다. l  전력 분배와 신뢰성 - ETAP로 확장 가능한 이중화 전력 시스템을 설계해 전력 블록의 효율성과 신뢰성을 시뮬레이션한다. l  네트워킹 토폴로지(Networking topology)와 논리 - 엔비디아 스펙트럼-X(Spectrum-X) 네트워킹과 엔비디아 에어(Air) 플랫폼으로 고대역폭 인프라를 미세 조정한다. 옴니버스로 엔지니어링 사일로 해소 AI 팩토리 건설에서 가장 큰 과제 중 하나는 전력, 냉각, 네트워킹 등 각 분야의 팀이 개별적으로 운영되면서 비효율성과 잠재적인 오류를 초래한다는 점이다. 옴니버스 블루프린트를 활용하면 엔지니어들은 다음과 같은 방식으로 협업할 수 있다. l  맥락을 공유하며 협업 - 여러 엔지니어링 분야가 실시간 시뮬레이션을 공유하며 병렬로 설계하고 조정할 수 있어, 한 영역의 변경이 다른 영역에 미치는 영향을 즉시 파악할 수 있다. l  에너지 사용 최적화 - 실시간 시뮬레이션 업데이트를 통해 AI 워크로드에 가장 효율적인 설계를 도출할 수 있다. l  오류 발생 지점 제거 – 배포 전에 이중화 구성을 검증함으로써 비용이 많이 드는 다운타임 위험을 최소화할 수 있다. l  실제 환경 모델링 - 다양한 AI 워크로드가 냉각 성능, 전력 안정성, 네트워크 혼잡도에 미치는 영향을 예측하고 테스트할 수 있다. 이 블루프린트는 실시간 시뮬레이션을 각 엔지니어링 분야와 통합함으로써 운영 비용 모델링과 전력 활용 최적화를 위한 다양한 구성 방안을 탐색할 수 있도록 한다. 실시간 시뮬레이션으로 빨라지는 의사 결정 젠슨 황 CEO의 시연에서 엔지니어들은 실시간으로 AI 팩토리 구성 요소를 조정하고 그 영향을 즉시 확인할 수 있었다. 예를 들어, 냉각 레이아웃을 조금만 조정해도 효율성이 크게 개선됐는데, 이는 기존 문서 기반 설계에서는 놓치기 쉬운 요소이다. 또한, 기존에는 몇 시간씩 소요되던 시뮬레이션 결과를 단 몇 초 만에 확인해 전략을 테스트하고 개선할 수 있었다. 최적의 설계가 확정된 후에는 공급업체와 건설 팀과의 원활한 소통을 도와 실제 건축물이 모델 그대로 정확한 시공이 이루어질 수 있도록 보장했다. 미래를 대비하는 AI 팩토리 AI 워크로드는 지속적으로 변화한다. AI 애플리케이션의 차세대 물결은 전력, 냉각, 네트워킹에 대한 수요를 더욱 증가시킬 것이다. AI 팩토리 설계와 운영을 위한 옴니버스 블루프린트는 이러한 변화에 대비할 수 있도록 다음과 같은 기능을 제공한다. l  워크로드 인식 시뮬레이션 - AI 워크로드의 변화가 데이터센터 규모에서 전력과 냉각에 어떤 영향을 미칠지 예측한다. l  장애 시나리오 테스트 - 전력망 장애, 냉각 누수, 전력 급등을 모델링해 시스템 회복력을 보장한다. l  확장 가능한 업그레이드 - AI 팩토리 확장을 계획하고, 몇 년 후의 인프라 요구 사항을 예측한다. 또한 개조와 업그레이드를 계획할 때 비용과 다운타임을 쉽게 테스트하고 시뮬레이션해 미래에 대비한 AI 팩토리를 구축할 수 있다. AI 팩토리 운영자에게 있어 앞서 나간다는 것은 단순히 효율성을 높이는 것만이 아니라, 하루에 수백만 달러의 비용이 발생할 수 있는 인프라 장애를 방지하는 것이기도 하다. 1기가와트 AI 팩토리의 경우, 매일 발생하는 다운타임으로 1억 달러 이상의 비용이 발생할 수 있는데, 이 블루프린트는 인프라 문제를 미리 해결함으로써 위험과 배포 시간을 모두 줄여준다. AI 팩토리 운영을 위한 에이전틱 AI로 가는 길 엔비디아는 AI 기반 운영으로 확장하기 위한 다음 단계의 블루프린트를 마련하기 위해 버테크(Vertech)와 파이드라(Phaidra)와 같은 주요 기업들과 협력하고 있다. 버테크는 엔비디아 데이터센터 엔지니어링 팀과 협력해 고급 AI 팩토리 제어 시스템을 개발하고 있다. 이 시스템은 IT와 운영 기술 데이터를 통합해 운영 안정성과 가시성을 향상시킨다. 파이드라는 엔비디아와 협력해 강화 학습 기반 AI 에이전트를 옴니버스에 통합하고 있다. 이러한 에이전트는 실시간 시나리오 시뮬레이션을 통해 열 안정성과 에너지 효율을 최적화한다. 그리고 하드웨어와 환경 변화에 맞춰 지속적으로 적응하는 디지털 트윈을 생성한다. AI 데이터센터의 폭발적 성장 AI는 전 세계 데이터센터 환경을 빠르게 재편하고 있다. AI 기반 데이터센터 업그레이드에 1조 달러가 투자될 것으로 예상되는 가운데, 디지털 트윈 기술은 더 이상 선택이 아닌 필수다. AI 팩토리 설계와 운영을 위한 엔비디아 옴니버스 블루프린트는 엔비디아와 파트너 에코시스템이 이러한 변화를 주도할 수 있도록 지원한다. 이를 통해 AI 팩토리 운영자는 끊임없이 진화하는 AI 워크로드에 앞서 나가고, 다운타임을 최소화하며, 효율성을 극대화할 수 있다. 관련 링크 디지털 트윈을 활용해 기가와트급 AI 팩토리 구축하기    
작성일 : 2025-03-23