• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "워크로드"에 대한 통합 검색 내용이 456개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
슈나이더 일렉트릭, 차세대 UPS 설루션으로 전력 리스크 대응 강조
슈나이더 일렉트릭이 이상기후로 인한 정전 위험이 일상적인 기업 리스크로 떠오른 가운데, 이를 대비한 UPS(무정전 전원 공급 장치) 설루션의 중요성을 강조했다. 최근 몇 년간 한국은 기록적인 폭염, 유례없는 폭우, 강력한 태풍 등 과거에 경험하지 못했던 극한 기후 현상이 연이어 발생하며, 사회·경제 전반에 걸쳐 심각한 영향을 미치고 있다. 기후 변화가 초래하는 에너지 수급 불안정은 더 이상 이례적 사건이 아닌 일상적 위협으로 자리잡았으며, 기업 경영 환경에서도 정전으로 인한 피해 사례가 급격히 늘고 있다. 실제로 한국전력공사 통계에 따르면, 최근 5년간 기후 요인에 따른 정전 발생 건수는 연평균 8.7% 증가했으며, 폭염 시 전력 수요 급증으로 인한 과부하, 폭우에 따른 변전소 침수, 태풍으로 인한 송전 설비 손상 등이 주요 원인으로 분석된다. 이러한 정전 사태는 생산 라인 중단, 데이터센터 마비, 통신 장애 등으로 이어져 단 몇 시간 만에 수백억 원 규모의 경제적 손실을 초래한다. 특히, 디지털 전환이 가속화되고 클라우드·AI 워크로드 등 고밀도 IT 인프라에 대한 의존도가 높아진 지금, 정전으로 인한 시스템 중단은 단순한 불편을 넘어 기업 신뢰도와 경쟁력에 직결되는 핵심 리스크다. 이에 따라 기업들은 더 이상 정전을 ‘만약의 사태’로 간주할 수 없으며, 체계적이고 선제적인 전력 보호 전략을 마련해야 한다는 목소리가 커지고 있다.   ▲ 슈나이더 일렉트릭의 3상 UPS ‘Easy UPS 3S Pro’   이러한 배경 속에서 슈나이더 일렉트릭은 기업의 비즈니스 연속성과 데이터 보호를 동시에 지원하는 차세대 UPS 설루션을 제안하고 있다. 슈나이더 일렉트릭이 제안하는 대표 설루션 중 하나인 3상 UPS ‘Easy UPS 3S Pro’는 외장형 배터리를 지원하며 전력 안정성, 강력한 전기 표준, 오래 지속되는 성능을 제공해 비즈니스 연속성을 지원한다. 특히 일반적인 이중 변환 모드에서도 96% 이상의 높은 효율을 달성해 운영 비용을 절감하면서도 안정적인 성능을 유지할 수 있다. 설치 및 연결, 운영, 유지보수 및 서비스 등의 전 과정이 모두 간편하게 설계되어 있어 다양한 중소기업 애플리케이션에 적합하며, 옵션으로 제공되는 시동 서비스는 초기 단계부터 시스템의 성능과 품질, 안전성을 최적화한다. 또한 APC 스마트-UPS Ultra는 울트라 컴팩트 리튬이온 기반 UPS로, 고밀도 데이터센터와 에지 컴퓨팅 환경에 적합한 설루션이다. 기존 제품 대비 절반 수준의 크기와 50% 가벼운 무게를 구현해 설치 공간 제약을 최소화하며, 리튬이온 배터리 적용으로 배터리 수명이 최대 3배 연장됐다. 또한 실시간 모니터링과 예측 유지보수 기능을 통해 기업의 총소유비용(TCO)을 절감할 수 있다. 이를 통해 기업은 데이터 손실 위험을 최소화하면서 동시에 에너지 효율성을 높이고 탄소 배출 저감 효과를 누릴 수 있다. 슈나이더 일렉트릭 코리아 시큐어파워 사업부의 함성용 매니저는 “UPS 투자는 단순히 정전 리스크에 대비하는 비용이 아니라, 데이터 보호와 에너지 효율성 향상까지 아우르는 전략적 선택”이라며, “슈나이더 일렉트릭이 선보이는 UPS 설루션은 기업이 직면한 다양한 전력 리스크를 효과적으로 관리하고, 지속 가능한 성장을 지원하는 최적의 설루션”이라고 말했다.
작성일 : 2025-09-09
엔비디아, ‘젯슨 토르’ 출시로 로보틱스·피지컬 AI 혁신 가속
엔비디아가 에지 환경에서 실시간 AI 추론을 수행할 수 있는 엔비디아 젯슨 토르(NVIDIA Jetson Thor) 모듈을 출시했다. 젯슨 토르는 연구와 산업 현장의 로봇 시스템에서 두뇌 역할을 수행하며, 휴머노이드와 산업용 로봇 등 다양한 로봇이 보다 스마트하게 동작하도록 지원한다. 로봇은 방대한 센서 데이터와 저지연 AI 처리를 요구한다. 실시간 로봇 애플리케이션을 실행하려면 여러 센서에서 동시 발생하는 데이터 스트림을 처리할 수 있는 충분한 AI 컴퓨팅 능력과 메모리가 필요하다. 현재 정식 출시된 젯슨 토르는 이전 모델인 엔비디아 젯슨 오린(Orin) 대비 AI 컴퓨팅이 7.5배, CPU 성능이 3.1배, 메모리 용량이 2배 향상돼 이러한 처리를 디바이스에서 가능하게 한다. 이러한 성능 도약은 로봇 연구자들이 고속 센서 데이터를 처리하고 에지에서 시각적 추론을 수행할 수 있도록 한다. 이는 기존에는 동적인 실제 환경에서 실행하기에는 속도가 너무 느려 실행하기 어려웠던 워크플로이다. 이로써 휴머노이드 로보틱스와 같은 멀티모달 AI 애플리케이션의 새로운 가능성을 열어주고 있다.   ▲ 엔비디아 젯슨 AGX 토르 개발자 키트   휴머노이드 로보틱스 기업인 어질리티 로보틱스(Agility Robotics)는 자사의 5세대 로봇인 디지트(Digit)에 엔비디아 젯슨을 통합했다. 이어서 6세대 디지트에는 온보드 컴퓨팅 플랫폼으로 젯슨 토르를 채택할 계획이다. 이를 통해 디지트는 실시간 인식과 의사결정 능력을 강화하고 점차 복잡해지는 AI 기술과 행동을 지원할 수 있게 된다. 디지트는 현재 상용화됐으며, 창고와 제조 환경에서 적재, 상차, 팔레타이징(palletizing) 등 물류 작업을 수행하고 있다. 30년 넘게 업계 최고 수준의 로봇을 개발해온 보스턴 다이내믹스(Boston Dynamics)는 자사 휴머노이드 로봇 아틀라스(Atlas)에 젯슨 토르를 탑재하고 있다. 이를 통해 아틀라스는 이전에는 서버급에서만 가능했던 컴퓨팅, AI 워크로드 가속, 고대역폭 데이터 처리, 대용량 메모리를 디바이스 내에서도 활용할 수 있게 됐다. 휴머노이드 로봇 외에도, 젯슨 토르는 더 크고 복잡한 AI 모델을 위한 실시간 추론을 통해 다양한 로봇 애플리케이션을 가속화할 예정이다. 여기에는 수술 보조, 스마트 트랙터, 배송 로봇, 산업용 매니퓰레이터(manipulator), 시각 AI 에이전트 등이 포함된다. 젯슨 토르는 생성형 추론 모델을 위해 설계됐다. 이는 차세대 피지컬 AI 에이전트가 클라우드 의존도를 최소화하면서 에지에서 실시간으로 실행될 수 있도록 한다. 차세대 피지컬 AI 에이전트는 대형 트랜스포머 모델, 비전 언어 모델(vision language model : VLM), 비전 언어 행동(vision language action : VLA) 모델을 기반으로 구동된다. 젯슨 토르는 젯슨 소프트웨어 스택으로 최적화돼 실제 애플리케이션에서 요구되는 저지연과 고성능을 구현한다. 따라서 젯슨 토르는 모든 주요 생성형 AI 프레임워크와 AI 추론 모델을 지원하며, 탁월한 실시간 성능을 제공한다. 여기에는 코스모스 리즌(Cosmos Reason), 딥시크(DeepSeek), 라마(Llama), 제미나이(Gemini), 큐원(Qwen) 모델과 함께, 로보틱스 특화 모델인 아이작(Isaac) GR00T N1.5 등이 포함된다. 이를 통해 개발자는 손쉽게 로컬 환경에서 실험과 추론을 실행할 수 있다. 젯슨 토르는 생애 주기 전반에 걸쳐 엔비디아 쿠다(CUDA) 생태계의 지원을 받는다. 또한 젯슨 토르 모듈은 전체 엔비디아 AI 소프트웨어 스택을 실행해 사실상 모든 피지컬 AI 워크플로를 가속화한다. 여기에는 로보틱스를 위한 엔비디아 아이작, 영상 분석 AI 에이전트를 위한 엔비디아 메트로폴리스(Metropolis), 센서 처리를 위한 엔비디아 홀로스캔(Holoscan) 등의 플랫폼이 활용된다. 이러한 소프트웨어 도구를 통해 개발자는 다양한 애플리케이션을 손쉽게 구축하고 배포할 수 있다. 실시간 카메라 스트림을 분석해 작업자 안전을 모니터링하는 시각 AI 에이전트, 비정형 환경에서 조작 작업을 수행할 수 있는 휴머노이드 로봇, 다중 카메라 스트림 데이터를 기반으로 외과의에게 안내를 제공하는 스마트 수술실 등이 그 예시이다. 젯슨 토르 제품군에는 개발자 키트와 양산용 모듈이 포함된다. 개발자 키트에는 젯슨 T5000 모듈과 다양한 연결성을 제공하는 레퍼런스 캐리어 보드, 팬이 장착된 액티브 방열판, 전원 공급 장치가 함께 제공된다. 엔비디아는 젯슨 생태계가 다양한 애플리케이션 요구사항과 고속 산업 자동화 프로토콜, 센서 인터페이스를 지원해 기업 개발자의 시장 출시 시간을 단축한다고 전했다. 하드웨어 파트너들은 다양한 폼팩터로 유연한 I/O와 맞춤형 구성을 갖춰 생산에 준비된 젯슨 토르 시스템을 개발하고 있다. 센서 및 액추에이터 업체들은 엔비디아 홀로스캔 센서 브릿지(Sensor Bridge)를 활용하고 있다. 이 플랫폼은 센서 융합과 데이터 스트리밍을 간소화하며, 카메라, 레이더, 라이다 등에서 발생한 센서 데이터를 초저지연으로 젯슨 토르 GPU 메모리에 직접 연결할 수 있게 해준다. 수천 개의 소프트웨어 기업들은 젯슨 토르에서 구동되는 다중 AI 에이전트 워크플로를 통해 기존 비전 AI와 로보틱스 애플리케이션 성능을 향상시킬 수 있다. 그리고 200만 명 이상의 개발자들이 엔비디아 기술을 활용해 로보틱스 워크플로를 가속화하고 있다.
작성일 : 2025-08-29
인텔, “AI 설루션으로 LG이노텍의 생산 공정 효율 향상”
인텔은 LG이노텍이 자사의 기술을 활용해 인공지능(AI) 기반의 자동화 시스템을 구축하고 있다고 소개했다. 소재·부품 전문 기업인 LG이노텍은 휴대폰, 자동차 디스플레이, 스마트 기기 등에 들어가는 수십만 개의 초소형 부품을 완벽한 정확도와 무결점으로 복제하는 것을 목표로 삼고 있으며, 혁신 기술을 통해 이러한 목표를 달성하고자 한다.  LG이노텍의 구미 공장에서는 인텔 코어(Intel Core) 프로세서, 인텔 제온(Intel Xeon) 프로세서 및 인텔 아크(Intel Arc) 내장형 그래픽처리장치(GPU)가 조화를 이루며 작동한다. 이들 기술은 오픈비노(OpenVINO) 소프트웨어 툴킷으로 통합된다. LG이노텍은 생산 라인의 특정 단말기에서 규칙 기반 검사 및 딥러닝 기반 시스템을 사용해 제품 품질을 높여왔다. 여기서 나아가, LG이노텍은 제조 공정 전반에 걸쳐 AI를 광범위하게 적용하여 성능 저하 없이 완전 자동화된 시스템을 구축하고자 했다. 인텔은 지난 2024년 인텔 코어 및 제온 프로세서와 아크 외장형 GPU를 기반으로 하는 AI 기반 검사 시스템에 대한 구축 지원을 위해 LG이노텍과 논의를 시작했다. 핵심은 생산 공정에서 발생하는 데이터가 인텔 코어 CPU를 탑재한 PC로 스트리밍되며, 내장 GPU는 결함 데이터를 분석하는 데 비용 효율을 제공하는 것이다. 고해상도 이미지에서 다중 알고리즘을 실행하는 등 부하가 큰 워크로드는 인텔 아크 외장 GPU가 처리하게끔 했다. 시간이 지남에 따라 축적된 데이터셋은 인텔 제온 기반의 사전 학습 서버로 전송된다.      양사는 향후 협업을 통해 인텔 가우디 AI 가속기가 탑재된 서버를 활용한 사전 학습 워크로드 관리를 검토하고 있다. 이처럼 CPU를 기반으로 내장 및 외장 GPU로 가속화된 인텔 기반 기술 조합을 활용하여 AI 검사 시스템 구축 비용을 절감할 수 있었다는 것이 인텔의 설명이다. 인텔은 “아크 기반 외장 GPU를 도입하면서, 동급 성능의 타사 하드웨어 대비 성능에 비해 높은 비용 효율성을 달성했다. 이러한 비용 절감 효과는 규모의 경제를 더욱 극대화할 수 있는 기반이 되고 있다”고 전했다.  LG이노텍은 2024년 모바일 카메라 모듈 생산 라인에 인텔의 AI 비전 검사 설루션을 처음 적용했으며, 올해는 FC-BGA(flip-chip ball grid array)를 생산하는 구미4공장 등 국내 주요 생산 거점과 해외 생산라인에 단계적으로 확대 적용할 계획이다.  시스템 도입 당시에는 기존 딥러닝 환경이 특정 외장 그래픽 카드를 기반으로 구축되어 있어, 처음에는 통합 GPU 도입에 대한 우려가 있었다. 특히, 신규 GPU에 맞춰 기존 코드를 재작성하고 다시 매핑하는 것이 매우 어려울 것이라는 걱정이 있었만, 오픈비노(OpenVINO) 소프트웨어 툴킷을 활용해 우려를 해소할 수 있었다. 2018년 오픈비노 출시 이후, 인텔은 전 세계 개발자가 AI 기반 개발을 가속화할 수 있도록 지원해왔다. 오픈비노는 개발자가 한 번의 코드 작성으로 다양한 환경에 AI 모델을 배포할 수 있도록 돕는 오픈소스 AI 툴킷이다. LG 이노텍의 엔지니어들은 대량 생산 과정에서 공정이 변경되거나 원자재가 바뀔 때, 딥러닝 모델을 재학습하기 위해 AI 기반 워크로드에 최적화된 AI 가속기가 탑재된 인텔 제온 CPU 활용도 고려하고 있다. 제온 CPU는 병렬 연산 속도를 높이고, 인텔 AMX(Intel Advanced Matrix Extensions)라는 특수 내장 가속기를 지원해 제온 CPU에서 딥러닝 학습 및 추론 성능을 향상시킨다. 인텔은 제온 CPU와 별도 서드파티 GPU를 함께 사용하는 기존 방식에 비해 AI 기반 파인튜닝(Fine Tuning) 작업을 CPU로 처리함으로써 시스템 비용을 줄일 수 있을 것으로 기대하고 있다.
작성일 : 2025-08-26
인텔-AWS, 제온 6 프로세서 기반 EC2 인스턴스 출시
인텔은 클라우드 환경에서 동급 인텔 프로세서 중 가장 높은 성능과 가장 빠른 메모리 대역폭을 제공하는 P-코어를 탑재한 인텔 제온 6 프로세서(Intel Xeon 6 processors with P-cores) 기반의 신규 EC2(Amazon Elastic Compute Cloud) R8i 및 R8I-플렉스 인스턴스를 아마존웹서비스(AWS)에서 출시한다고 밝혔다. 이번 새로운 인스턴스는 인텔과 AWS 간 수년간 협력을 바탕으로, 확장성, 비용 효율성 및 고성능 클라우드 인프라를 추구하는 고객에게 최신 실리콘 혁신과 밀접하게 통합된 소프트웨어 최적화를 제공한다. 기업의 실시간 데이터 처리, 인공지능(AI), 컴플라이언스 집약적인 워크로드 활용이 점점 늘어남에 따라, 유연한 고성능 클라우드 인프라에 대한 필요도가 더 높아졌다. 인텔은 제온 6 프로세서가 전문적인 가속기에 대한 의존도를 최소화하면서 유연한 다목적 컴퓨팅 플랫폼을 제공하며, 다양한 활용 사례에 대한 배포 및 관리를 간소화해준다고 설명했다.     새로운 제온 6 기반 인스턴스의 주요 특징은 ▲고집적도 컴퓨팅 ▲ 클라우드 상에서 가장 빠른 DDR5 지원 ▲ 내장형 AI 가속 ▲인텔 QAT(QuickAssist Technology) 등이다. 제온 6는 재설계된 코어 아키텍처와 향상된 파이프라인, 더 많은 코어 수를 통해 성능과 스레드 확장성을 향상시켰다. 이를 통해 AWS는 최대 96xlarge와 같은 대규모 인스턴스 크기를 제공해 고객이 워크로드에 필요한 컴퓨팅 자원을 더욱 높은 집적도로 활용할 수 있도록 지원한다. 신규 인스턴스는 DDR5 메모리 속도 최대 7200 MT/s를 지원하며 분석, 머신러닝(ML), 인메모리 데이터베이스에 적합한 고대역폭 메모리 및 낮은 지연 시간을 제공한다. 또한, 인텔 AMX(Intel Advanced Matrix Extensions)를 통합해 AI 추론 및 머신러닝 성능을 최대 2배 향상시키며, 외부 가속기 사용 필요성을 줄이고 배포를 간편하게 한다. 이외에도 하드웨어 가속화된 암호화 및 압축을 지원하여 CPU 리소스를 절감하고, 금융, 의료, 공공 애플리케이션 등 보안에 민감하거나 규제 대상인 워크로드 성능을 향상시킨다. 인텔은 프로세서 마이크로아키텍처와 펌웨어 튜닝부터 하이퍼바이저 튜닝, 가상화, 소프트웨어 프레임워크에 이르기까지 스택(stack)의 모든 계층을 아우르는 최적화를 진행했다. 고객들은 이러한 통합을 통해 AWS의 글로벌 인프라 전역에서 제온 6의 성능을 최대한 활용할 수 있다. 인텔은 이번 협력으로 AWS 및 더 광범위한 클라우드 생태계에서 핵심 기술 제공 기업으로서의 입지를 강화할 수 있을 것으로 기대하고 있다. 개발자, 데이터 사이언티스트, IT 리더들이 보다 빠르고 효율적으로 혁신하고, 규모를 확장하며, 서비스를 배포할 수 있도록 지원하겠다는 것이다. AWS의 니샨트 메타(Nishant Mehta) EC2 제품 관리 부사장은 “고객들은 가장 요구도가 높은 워크로드 속도에 맞춘 인프라가 필요하다”면서, “인텔과의 협력을 통해 새로운 아마존 EC2 R8i 및 R8i-플렉스 인스턴스는 전 세대 대비 메모리 대역폭은 2.5배 더 향상되었고 가격 대비 성능은 15% 더 우수하다. 이는 고객이 성능을 극대화하면서 비용을 절감할 수 있도록 지원하는 혁신”이라고 말했다. 인텔의 로낙 싱할(Ronak Singhal) 선임 펠로우는 “인텔 제온 6 프로세서로 구동되는 8세대 EC2 인스턴스 출시는 AWS와의 협업에서 중요한 이정표”라며, “인텔과 AWS는 AI 가속화, 메모리 성능 향상, 쉬운 배포를 통해 고객이 인사이트를 빠르게 얻고 강력한 투자수익률(ROI)을 달성할 수 있도록 지원하는 인프라를 함께 구축했다”고 밝혔다.
작성일 : 2025-08-22
델, RTX 프로 블랙웰 탑재한 ‘델 프로 맥스’ 모바일 워크스테이션 신제품 공개
델 테크놀로지스가 AI 워크로드에서 높은 성능을 발휘하도록 만들어진 ‘델 프로 맥스(Dell Pro Max)’ 모바일 워크스테이션 신제품 6종을 공개했다. 올초 델은 새로운 통합 브랜딩 전략 하에 고성능 워크스테이션 제품군을 ‘델 프로 맥스(Dell Pro Max)’ 포트폴리오로 통합했다. 기존 브랜드인 ‘델 프리시전(Dell Precision)’을 계승한 델 프로 맥스는 엔비디아 RTX 프로 블랙웰 GPU(NVIDIA RTX PRO Blackwell Generation GPU) 기반의 높은 성능과 휴대성, 델 프로(Dell Pro)의 디자인을 적용한 통일감 있고 프로페셔널한 외관을 갖춰 AI 전문가, 개발자, 그래픽 디자이너, 엔지니어 등 전문 사용자의 효율과 만족도를 높인다. 이번에 발표한 신제품은 ▲강력한 성능과 휴대성, 디자인을 겸비한 최고급 모델인 델 프로 맥스 14∙16 프리미엄 ▲넓은 화면에 데스크톱 성능을 제공하는 메인스트림급 모델인 델 프로 맥스 16∙18 플러스 ▲가벼운 워크로드를 위한 엔트리급 모델인 델 프로 맥스 14∙16 등 총 6종이다.      디자인에 중점을 둔 최고급형 모델인 ‘델 프로 맥스 14 프리미엄(Dell Pro Max 14 Premium)’과 ‘델 프로 맥스 16 프리미엄(Dell Pro Max 16 Premium)’은 휴대성과 감각적인 디자인, 높은 성능의 조화를 추구했다. CNC 알루미늄을 적용해 슬림하고 견고한 폼팩터를 완성했고, 키캡 사이 간격을 최소화한 제로 래티스 키보드를 적용해 세련된 느낌을 더했다. 엔비디아 RTX 프로 3000 블랙웰 GPU와 인텔 코어 울트라 9 285H 프로세서(45W)를 탑재해 이전 세대 대비 각각 19%, 23% 높은 그래픽 성능을 구현하여 영상 편집이나 데이터 분석을 더욱 원활하게 수행할 수 있다. 베사(VESA) DisplayHDR 트루블랙 1000 인증을 획득하고 4K 탠덤 OLED 디스플레이를 옵션으로 제공해 어두운 색상을 한 층 깊게 구현하는 등 크리에이티브 또는 엔지니어링 프로젝트에 필요한 전문적인 성능을 발휘한다. 복잡하거나 데이터 집약적인 작업을 수행할 때 데스크톱 수준의 성능을 제공하는 ‘델 프로 맥스 16 플러스(Dell Pro Max 16 Plus)’와 ‘델 프로 맥스 18 플러스(Dell Pro Max 18 Plus)’는 각각 16, 18형의 넓은 화면 공간에서 멀티태스킹, 창의적 디자인, 심층 분석 워크로드 등을 넉넉히 지원한다. 엔비디아 RTX 프로 5000 블랙웰 GPU 및 인텔 코어 울트라 9 285HX 프로세서(55W)를 탑재하고, 최대 256GB의 메모리 및 16TB까지 확장할 수 있는 듀얼 스토리지를 갖췄다. 이 제품들은 이전 세대 대비 각각 53%, 44% 높은 그래픽 성능을 구현하여 AI 모델링 및 훈련부터 복잡한 시뮬레이션, 대규모 데이터 분석까지 컴퓨팅 집약적인 프로젝트를 효과적으로 실행할 수 있다. 특히, 델 프로 맥스 플러스 제품군은 새롭게 특허 받은 방열 설계 방식을 통해 고집약적 워크로드를 실행할 때도 온도를 낮게 유지하면서 전체 성능을 최대 36%까지 향상시킨다. 또한, 점점 더 복잡해지는 워크로드에 대비해 CAMM2 메모리를 새로 탑재했다. 비교적 가볍고 일상적인 워크로드에 초점을 맞춘 ‘델 프로 맥스 14(Dell Pro Max 14)’와 ‘델 프로 맥스 16(Dell Pro Max 16)’은 최대 QHD+ 해상도와 16:10 화면비를 지원하는 14, 16형 디스플레이를 탑재했다. 사용자의 니즈에 따라 인텔 또는 AMD 프로세서를 선택할 수 있으며, AMD 라이젠 AI 프로세서를 탑재한 제품은 델 프로 맥스 라인업 중 50 TOPS 이상의 단독 NPU 연산 성능을 구현한 최초의 코파일럿 플러스(Copilot+) PC다. 인텔 프로세서 기반의 제품은 최대 인텔 코어 울트라 9 285H 프로세서와 엔비디아 RTX 프로 2000 블랙웰 외장 GPU를 탑재해 이전 세대 대비 각각 36%, 33% 더 강력한 성능을 구현한다. 각각 최대 18시간, 20시간의 긴 배터리 수명을 제공해 전원에 연결하지 않고 디자인 애플리케이션 실행, 대규모 엑셀 파일 처리, 2D/3D 모델 생성 등의 멀티태스킹을 해야 하는 사용자에게 적합한 제품이다. 이번 신제품들은 기업용 PC를 위한 강력한 보안 기능을 갖춰 로컬 디바이스에서 구동하는 AI 워크로드를 효과적으로 보호한다. 또한 델 고유의 지속가능성의 가치를 반영해 재생 플라스틱(PCR), 바이오 플라스틱(bio-based plastic), 재활용∙저탄소 알루미늄 등 친환경 소재로 제작되었으며, 분리 가능한 모듈형 USB-C 포트를 탑재하여 내구성과 수리용이성을 높였다. 특히, 델 프로 맥스 플러스 제품의 경우 사용자가 보다 손쉽게 부품을 교체할 수 있도록 제품 밑면을 쉽게 여닫을 수 있도록 설계했다.  한국 델 테크놀로지스 김경진 총괄사장은 “델 프로 맥스 모바일 워크스테이션은 강력한 성능, 휴대성, 최첨단 디자인은 물론, 고급 보안과 관리 기능까지 갖춘 최상의 커머셜 AI PC이다. 델은 세계 1위 워크스테이션 제조업체로서 확보한 높은 신뢰를 바탕으로 독보적이고 차별화된 설계와 디자인을 제공하는데 집중하고 있다. 파워 유저, 엔지니어, 크리에이터 및 AI 개발자들은 델 프로 맥스를 통해 가장 까다로운 AI 워크플로를 원활히 처리할 뿐만 아니라, 한 차원 높은 성능과 창의성을 새롭게 경험하게 될 것”이라고 말했다.
작성일 : 2025-07-24
오라클, AI 훈련 및 추론에 OCI 활용한 혁신 기업 사례 소개 
오라클은 전 세계 AI 혁신 기업이 AI 모델의 훈련 및 AI 추론과 애플리케이션 배포를 위해 오라클 클라우드 인프라스트럭처 AI 인프라스트럭처(OCI AI Infrastructure)와 OCI 슈퍼클러스터(OCI Supercluster)를 활용하고 있다고 밝혔다. “파이어웍스AI(Fireworks AI), 헤드라(Hedra), 누멘타(Numenta), 소니옥스(Soniox)를 비롯해 수백 개의 선도적인 AI 혁신 기업이 AI 워크로드 실행 위치에 대한 제어, 컴퓨트 인스턴스 선택권, 확장성, 고성능, 비용 효율성 등의 이유로 OCI를 선택하고 있다”는 것이 오라클의 설명이다. 산업 전반에서 AI 도입이 빠르게 확산됨에 따라, AI 기업들은 신속하고 경제적인 GPU 인스턴스 확장을 지원하는 안전하고 검증된 고가용성 클라우드 및 AI 인프라를 필요로 한다. AI 기업들은 OCI AI 인프라스트럭처를 통해 AI 훈련 및 추론, 디지털 트윈, 대규모 병렬 HPC 애플리케이션 등에 필요한 고성능 GPU 클러스터와 확장성 높은 컴퓨팅 파워에 접근할 수 있다.     파이어웍스 AI는 텍스트와 이미지, 오디오, 임베딩, 멀티모달 형식의 100개 이상의 최첨단 오픈 모델을 서비스하는 고성능 생성형 AI 애플리케이션 플랫폼으로, 개발자와 기업이 최적화된 생성형 AI 애플리케이션을 구축할 수 있도록 지원한다. 파이어웍스 AI는 엔비디아 호퍼(NVIDIA Hopper) GPU로 가속화된 OCI 컴퓨트(OCI Compute) 베어메탈 인스턴스와 AMD MI300X GPU를 탑재한 OCI 컴퓨트를 활용해 플랫폼에서 매일 2조 건 이상의 추론 토큰을 처리하고 글로벌 서비스 확장을 지원한다. 헤드라는 AI 기반 영상 생성전문 회사로, 사용자가 생생한 캐릭터 영상을 제작할 수 있도록 지원한다. 헤드라는 엔비디아 호퍼 GPU로 가속화된 OCI 컴퓨트 베어메탈 인스턴스에서 생성형 이미지, 영상, 오디오를 위한 멀티모달 기반 모델을 배포함으로써 GPU 비용 절감, 훈련 속도 향상, 모델 반복 시간 단축에 성공했다. 누멘타는 딥러닝 시스템의 성능과 효율성을 극대화하는 데 집중하는 AI 전문 기술회사다. 누멘타는 엔비디아 GPU로 가속화된 OCI 컴퓨트 베어메탈 인스턴스를 활용함으로써 고성능의 검증된 훈련 인스턴스에 접근할 수 있게 되었으며, 더 빨라진 훈련 속도 및 증가한 학습 사이클을 경험했다. 소니옥스는 오디오 및 음성 AI 분야 선도 회사로, 오디오, 음성, 언어 이해를 위한 기초 AI 모델을 개발하고 있다. 소니옥스는 OCI 상에서 다국어 음성 인식 AI 모델을 구동하며, 엔비디아 호퍼 GPU 기반 OCI 컴퓨트 베어메탈 인스턴스를 활용해 60개 언어의 음성을 실시간으로 정확하게 인식하고 이해할 수 있도록 학습했다. 오라클의 크리스 간돌포(Chris Gandolfo) OCI 및 AI 부문 수석 부사장은 “OCI는 다양한 규모의 훈련 및 추론 요구사항을 충족시켜 주며, AI 혁신 기업들이 선호하는 클라우드 플랫폼으로 빠르게 자리매김했다”면서, “OCI AI 인프라스트럭처는 초고속 네트워크, 최적화된 스토리지, 최첨단 GPU를 제공하여 AI 기업의 차세대 혁신을 돕는다”고 강조했다.
작성일 : 2025-07-17
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
오라클, AWS 클라우드에서 자율운영 DB 실행하는 ‘데이터베이스앳AWS’ 출시
오라클과 아마존웹서비스(AWS)가 오라클 데이터베이스앳AWS(Oracle Database@AWS)의 공식 출시(GA)를 발표했다. 이제 AWS 클라우드 환경에서 OCI(오라클 클라우드 인프라스트럭처) 전용 인프라의 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service) 및 오라클 자율운영 데이터베이스(Oracle Autonomous Database)를 실행할 수 있다. 오라클 데이터베이스앳AWS는 AWS의 미국 동부 및 서부 리전에서 이용 가능하며, 대한민국 서울을 포함한 전 세계 20여 개 AWS 리전에서 추가로 출시될 예정이다. 기업 고객은 오라클 데이터베이스 워크로드를 AWS 환경에서 OCI 상에서 실행되는 오라클 데이터베이스앳AWS로 손쉽게 마이그레이션할 수 있으며, 오라클 리얼 애플리케이션 클러스터(RAC) 및 AI 벡터 기능이 내장된 최신 오라클 데이터베이스 23ai의 이점도 누릴 수 있다. 오라클 데이터베이스앳AWS에는 제로 ETL(추출, 변환 및 로드) 기능이 포함되어 있어 엔터프라이즈 오라클 데이터베이스 서비스와 AWS 애널리틱스(AWS Analytics) 서비스 간 데이터 통합이 간편해지고, 이로써 복잡한 데이터 파이프라인을 구축하고 관리할 필요가 없어진다. 이는 오라클 데이터베이스 서비스와 AWS 서비스 간 데이터 흐름을 원활하게 하며, 기업은 자사의 데이터를 AWS 분석, 머신러닝 및 생성형 AI 서비스와 결합해 애플리케이션을 추가로 개선할 수 있다. 이번 출시로 클라우드 내 데이터베이스 실행에 있어 기업 고객들의 선택지는 더욱 넓어졌으며, 기존의 AWS 내 오라클 데이터베이스 실행 옵션이 보완됐다. AWS의 G2 크리슈나무티(G2 Krishnamoorthy) 데이터베이스 서비스 부사장은 “기업은 애플리케이션 재설계 없이도 자사의 오라클 데이터베이스 워크로드를 오라클 데이터베이스앳AWS로 원활히 마이그레이션할 수 있다. 동시에 AWS의 글로벌 인프라가 제공하는 보안성과 복원 탄력성, 확장성도 누릴 수 있다”면서, “보안에 가장 민감한 세계 최대 규모 기업 조직의 상당수가 이미 AWS에서 오라클 워크로드를 실행하고 있다. 오라클 데이터베이스앳AWS는 기업이 AWS의 첨단 분석 및 생성형 AI 기능을 바탕으로 보다 손쉽게 데이터로부터 더 큰 가치를 창출하도록 돕는다”고 말했다. 카란 바타 OCI 수석 부사장은 “기업들은 지난 수십 년간 자사의 가장 가치 있는 데이터를 오라클 데이터베이스에 저장해 왔다”면서, “오라클 데이터베이스앳AWS는 AWS 환경의 OCI에서 오라클 데이터베이스 워크로드를 실행할 수 있게 해 준다. 덕분에 오라클 데이터베이스 23ai의 이점을 온전히 활용하여 애플리케이션 개발을 간소화하고, AI 및 네이티브 벡터 임베딩을 바탕으로 미션 크리티컬 워크로드를 실행할 수 있다. AWS의 고급 생성형 AI 및 분석 서비스와 결합된 오라클 데이터베이스앳AWS는 진정 주목할 만한 설루션”이라고 설명했다. 오라클 데이터베이스앳AWS는 OCI와 AWS 전반에 걸쳐 일관된 사용자 경험을 제공하며, 양사의 통합된 지원으로 데이터베이스 관리와 구매, 배포를 간소화할 수 있다. 이는 기업 고객이 신뢰하는 기업용 애플리케이션에 최적화된 참조 아키텍처 및 랜딩 존을 기반으로 설계되었다.  이 서비스를 활용하면 오라클 제로 다운타임 마이그레이션(Oracle Zero Downtime Migration)을 비롯한 마이그레이션 도구와의 호환성을 바탕으로 기존 오라클 데이터베이스의 클라우드 마이그레이션을 간소화 및 가속화할 수 있다. 그리고 오라클 RAC를 통한 워크로드의 고도의 복원력 및 확장성 상승, 여러 AWS 가용 영역(AWS Availability Zones)과 아마존 S3(Amazon S3)을 통한 백업 및 재해 복구가 가능하다. 또한, AWS 마켓플레이스(AWS Marketplace)를 활용한 간소화된 구매 경험을 누릴 수 있다. 기존 AWS 약정 및 BYOL(Bring Your Own License) 등 오라클 라이선스 혜택과 오라클 서포트 리워드(OSR) 등 할인 프로그램을 오라클 데이터베이스앳AWS와 함께 사용할 수 있다. 아마존 EC2(Amazon EC2), 아마존EKS(Amazon EKS), 아마존 ECS(Amazon ECS)와 AI 벡터 검색(AI Vector Search) 등 오라클 데이터베이스 기능을 결합하면 확장 가능한 새로운 마이크로서비스 기반 애플리케이션을 구축할 수 있고, 이를 통해 애플리케이션 인텔리전스를 개선하면서 신기능을 신속하게 시장에 출시할 수 있다. 오라클 데이터베이스앳AWS는 내장형 오라클 AI 벡터 검색을 지원하는 오라클 데이터베이스 23ai를 제공한다. 사용자는 특정 단어와 픽셀, 데이터 값이 아닌 개념적 콘텐츠를 기반으로 문서, 이미지, 관계형 데이터를 손쉽게 검색할 수 있다. AWS 관리 콘솔(AWS Management Console), AWS 명령줄 인터페이스(AWS Command Line Interface), API 등 익숙한 도구 및 손쉬운 워크로드 관리를 위한 모니터링 기능이 제공되며, 고급 분석, 머신러닝, 생성형 AI 서비스를 활용한 데이터 준비가 가능하다. 이외에도 AWS IAM(AWS Identity and Access Management), AWS 클라우드 포메이션(AWS CloudFormation), 아마존 클라우드워치(Amazon CloudWatch), 아마존 VPC 라티스(Amazon VPC Lattice), 아마존 이벤트브리지(Amazon EventBridge) 등 AWS 서비스와의 통합이 제공된다. 한편으로 오라클 E-비즈니스 스위트(Oracle E-Business Suite), 피플소프트(PeopleSoft), JD 에드워즈 엔터프라이즈원(JD Edwards EnterpriseOne), 오라클 EPM(Oracle Enterprise Performance Management), 오라클 리테일 애플리케이션(Oracle Retail Applications) 등 오라클 애플리케이션도 지원된다. 오라클 데이터베이스앳AWS는 현재 AWS 미국 동부(버지니아주 북부) 및 서부(오리건주) 리전에서 이용 가능하며, AWS의 클라우드 인프라를 활용하고 있다. 오라클 데이터베이스앳AWS 설루션은 대한민국의 서울을 포함해 캐나다(중부), 프랑크푸르트, 하이데라바드, 아일랜드, 런던, 멜버른, 밀라노, 뭄바이, 오사카, 파리, 상파울루, 싱가포르, 스페인, 스톡홀름, 시드니, 도쿄, 미국 동부(오하이오주), 미국 서부(캘리포니아주), 취리히를 포함해 20여 곳의 추가 AWS 리전에서도 출시를 앞두고 있다.
작성일 : 2025-07-10
HPE, 엔비디아와 협력을 통해 신규 AI 팩토리 설루션 공개
HPE는 모든 유형의 조직이 전체 AI 라이프사이클에 걸쳐 인공지능(AI) 팩토리 구축, 도입 및 관리를 강화할 수 있도록 지원하는 새로운 설루션을 발표했다. HPE는 서비스 제공업체, 모델 개발자 등을 위한 맞춤형 컴포저블 설루션과 엔터프라이즈용 턴키 AI 팩토리인 차세대 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)를 포함해 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재한 ‘HPE 포트폴리오 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE portfolio)’ 설루션 포트폴리오를 확대하고 있다. AI 팩토리를 위한 통합형 엔드투엔드 설루션과 서비스는 고객이 최신 AI를 위한 데이터센터를 구축할 때 자체적으로 AI 기술 스택을 구성하는 데 따르는 복잡성을 줄여준다. HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오의 대표 제품인 프라이빗 클라우드 AI는 엔비디아 가속 컴퓨팅, 네트워킹 및 소프트웨어를 포함한 올인원 AI 팩토리 설루션이다. 엔비디아 블랙웰 가속 컴퓨팅을 지원하는 HPE 프로라이언트 컴퓨트 Gen12 서버는 변조 방지를 위한 시큐어 인클레이브(Secure Enclave), 양자 이후 암호화, 랙 및 서버 수준의 신뢰할 수 있는 공급망 역량을 제공한다. 또한, 엔비디아 H200 NVL 및 엔비디아 RTX PRO 6000 서버 에디션 GPU를 포함해 다양한 기업용 AI 워크로드(에이전트 및 물리형 AI 사례 포함)를 지원한다. 새로운 연합 아키텍처를 통해 리소스 풀링이 통합되어, 모든 AI 워크로드에 새로운 GPU와 리소스를 공유할 수 있다. 프라이빗 클라우드 AI는 엄격한 데이터 프라이버시 요구사항을 갖춘 조직을 위한 폐쇄형 클라우드(air-gapped) 관리 기능 및 기업이 팀 간 협업과 리소스 분할을 가능하게 하는 멀티 테넌시 기능을 지원한다. 그리고, AI 에이전트 생성 및 워크플로에 특화된 엔비디아 AI-Q 블루프린트 등 최신 엔비디아 AI 블루프린트(NVIDIA AI Blueprints)를 제공한다. 고객은 구매 전 에퀴닉스(Equinix) 전 세계 고성능 데이터센터 네트워크에서 프라이빗 클라우드 AI를 테스트해볼 수 있는 새로운 ‘트라이 앤 바이(Try and Buy)’ 프로그램을 활용할 수 있다. 한편, HPE는 자사의 AI 팩토리 포트폴리오를 확대하면서 신규 검증 설루션도 선보였다. 이 설루션에는 액체 냉각 기술, 하이브리드 클라우드 운영, 통합 제어를 위한 HPE Morpheus Enterprise Software 등이 포함됐다. HPE의 종단 간 컴포저블 설루션은 고객을 위해 사전 통합된 모듈형 기술 스택으로 제공돼, 구축 시간과 가치를 실현하는 속도를 높인다. HPE의 AI 팩토리 설루션은 엔비디아 엔터프라이즈 AI 팩토리의 검증된 설계를 활용함으로써 최신 엔비디아 가속 컴퓨팅, 엔비디아 스펙트럼-X(NVIDIA Spectrum-X) 이더넷 네트워킹, 엔비디아 블루필드-3(NVIDIA BlueField-3) DPU, 및 엔비디아 AI 엔터프라이즈 소프트웨어(NVIDIA AI Enterprise software)를 통해 배포 가능하다. 이를 통해 차세대 AI 시대를 위한 고성능, 강력한 보안, 효율적인 저장 가속화, 및 확장 가능한 인프라를 제공한다. HPE의 안토니오 네리(Antonio Neri) 사장 겸 최고경영자(CEO)는 “생성형 AI, 에이전틱 AI, 피지컬 AI는 글로벌 생산성을 혁신하고 지속가능한 사회적 변화를 가져올 잠재력을 품고 있다. 하지만 이러한 AI의 성공은 결국 이를 뒷받침하는 인프라와 데이터의 역량에 의해 좌우된다”며, “조직이 AI가 제공하는 기회를 실현하기 위해서는 올바른 데이터, 인텔리전스, 비전이 필요하며, 무엇보다 이를 실행할 수 있는 올바른 IT 기반을 마련하는 것이 핵심이다. HPE는 업계를 선도하는 AI 인프라와 서비스를 결합한 가장 포괄적인 접근 방식을 통해 조직이 AI 비전을 실현하고 지속가능한 비즈니스 가치를 창출할 수 있도록 지원하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “우리는 새로운 산업 시대에 들어서고 있다, 이는 대규모로 인텔리전스를 생성하는 능력으로 정의되는 시대”라며, “HPE와 엔비디아는 이 변혁을 주도하기 위해 전체 스택 AI 공장 인프라를 제공하며, 기업들이 데이터를 활용하고 전례 없는 속도와 정밀도로 혁신을 가속화할 수 있도록 지원한다”고 밝혔다.
작성일 : 2025-06-25
다쏘시스템, 아웃스케일 11번째 버전 공개하며 디지털 주권과 AI를 전면에 내세워
다쏘시스템의 브랜드인 아웃스케일(OUTSCALE)은 11번째 버전 출시를 맞아, 인공지능과 유럽의 디지털 자율성을 주제로 한 연례 행사에서 ‘소버린 경험(Sovereign Experience)’을 핵심 주제로 내세웠다. 아웃스케일이 이 행사를 통해 발표한 다섯 가지 핵심 내용은 ▲소버린 모드로 작동하는 엔터프라이즈용 AI 어시스턴트인 미스트랄 AI(Mistral AI)의 ‘르 샤(Le Chat)’ ▲엔터프라이즈 AI의 완전한 소버린화를 위한 아웃스케일 클라우드 기반 미스트랄 AI의 ‘라 플랫폼(La Plateforme)’ ▲성능, 복원력, 소버린을 강화하는 아웃스케일 쿠버네티스 서비스(Kubernetes as a Service) ▲서비스형 양자 컴퓨팅(Quantum as a Service : QaaS) ▲디지털 헬스 혁신을 지원하는 아웃스케일 × 파리상테 캠퍼스(PariSanté Campus) 파트너십 등이다. 아웃스케일은 2025년 9월부터 세크넘클라우드(SecNumCloud) 3.2 인증을 받은 소버린 클라우드에 미스트랄 AI의 다국어 어시스턴트 ‘르 샤(Le Chat)’를 도입하며 서비스를 확대할 예정이다. 아웃스케일 마켓플레이스를 통해 제공되는 르 샤는 데이터, 도구, 팀을 단일 인터페이스에 통합하여, 보고서, 마케팅 콘텐츠, 코드의 자동 생성을 지원한다. 이를 통해 반복적인 작업을 줄이고 오류 발생 가능성을 낮추는 것이 가능해진다. 르 샤는 내장형 자동 확장 기능 기능을 통해 워크로드(workload)에 따라 컴퓨팅 자원을 자동으로 조절하며, 성능을 유지하고 비용을 효율적으로 제어할 수 있다. 또한 비즈니스, 마케팅, 재무, 인사, 데이터 과학, 엔지니어링 등 다양한 업무 분야에 최적화되어 있으며, 미스트랄 AI의 생성형 기술력과 아웃스케일의 주권 클라우드 역량을 결합해 혁신 가속화, 팀의 민첩성 향상, 조직의 경쟁력 유지를 가능하게 한다. 아웃스케일과 미스트랄 AI는 아웃스케일 마켓플레이스를 통해 제공되는 미스트랄 AI의 ‘라 플랫폼’을 공개했다. 이 서비스는 세크넘클라우드 3.2 인증을 받은 인프라 상에서 운영되며, 다쏘시스템과 미스트랄 AI 간의 파트너십을 통해 만들어졌다. 또한, 라 플랫폼은 GPU 사용량을 최대 절반까지 절감하도록 최적화된 오픈소스 및 클로즈드 웨이트(close weights) 모델 카탈로그를 제공한다. 그리고 문서 인식 AI(OCR)와 코드 어시스턴트 등 산업 맞춤형 계층 기능이 추가되어, 공공 클라우드의 유연성과 내장된 보안 제어 기능을 동시에 제공한다. 라 플랫폼은 2025년 9월부터 운영되며, 아웃스케일과 미스트랄 AI의 전문가들이 보안 강화, 성능 최적화, 완전한 제어 권한을 지원한다. 아웃스케일 쿠버네티스 서비스 는 각 기업에 전용 쿠버네티스 클러스터를 수 분 내에 배포할 수 있도록 지원하며, 시끄러운 이웃(noisy neighbor) 현상 없이 안정적인 운영 환경을 제공한다. CNCF(Cloud Native Computing Foundation) 오픈소스 표준과 호환되며, 퍼블릭 클라우드의 확장성과 관리 서비스의 편의성을 결합한 형태이다. 또한 세크넘클라우드 3.2 인증을 획득한 퍼블릭 클라우드 인프라 상에서 운영되어, 엄격한 규제를 받는 산업에서도 데이터 주권과 기밀성을 보장한다. 2025년 3월 출시 이후 아웃스케일 쿠버네티스 서비스는 유럽 내 두 지역에 걸쳐 멀티 AZ 구성을 지원한다. 각 클러스터는 자동으로 세 개의 가용 영역에 분산 배치되어, 최대 99.95%의 SLA(Service Level Agreement)를 통해 서비스 중단 없이 안정적인 운영을 보장한다. 또한, 컨트롤 플레인과 워크로드는 이중화되어 있고, VPC(Virtual Private Cloud) 격리와 암호화된 저장소를 통해 높은 수준의 보안도 함께 제공한다. 2025년 9월부터는 가용 영역 간 오토스케일링(cross-AZ autoscaling) 기능이 도입되어, 워크로드에 따라 컴퓨팅 및 스토리지를 자동으로 조절한다. 양자 컴퓨팅의 부상과 함께 새롭게 대두되는 주권 이슈에 대응하기 위해, 아웃스케일은 유럽 최초의 완전한 주권 기반 양자 서비스인 ‘서비스형 양자 컴퓨팅’을 출시한다. 서비스형 양자 컴퓨팅은 내장된 오류 보정 알고리즘을 통해 노이즈 없는 계산 환경을 제공하는 것이 특징이다. 서비스형 양자 컴퓨팅은 미래 기술 환경에 대비해 설계되었으며, 2025년 11월부터 아웃스케일 데이터 센터를 통해 베타 버전으로 제공될 예정이다. 아웃스케일은 기업과 기관이 외국 인프라에 의존하지 않고 24시간 365일 접근 가능한 환경에서 양자 알고리즘 개발이라는 새로운 패러다임 전환을 가능하게 할 것으로 보고 있다. 마지막으로, 아웃스케일과 파리상테 캠퍼스는 프랑스 및 유럽 전역의 디지털 헬스 스타트업을 지원하고 성장을 가속화하기 위한 전략적 파트너십을 공식 발표했다. 이번 협력은 세크넘클라우드 및 HDS(Hébergeur de Données de Santé) 인증 기준을 모두 충족하는 아웃스케일의 클라우드 및 AI 전문성을 바탕으로, 아웃스케일이 디지털 헬스 생태계를 위한 주권 기술 기반으로서의 역할을 수행하게 된다.
작성일 : 2025-06-24