• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "리눅스"에 대한 통합 검색 내용이 843개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 아크 프로 B-시리즈 GPU 및 제온 6 프로세서의 AI 추론 벤치마크 결과 소개
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.1 벤치마크에서 P코어를 탑재한 인텔 제온(Intel Xeon) 및 인텔 아크 프로 B60(Intel Arc Pro B60) 그래픽으로 구성된 인텔 GPU 시스템(코드명 프로젝트 배틀매트릭스)의 추론용 워크스테이션이 달성한 결과를 공개했다. 6가지 주요 벤치마크 테스트 결과, 라마(Llama)4 80B 모델 추론 처리량에서 인텔 아크 프로 B60은 엔비디아 RTX 프로 6000 및 L40S에 비해 각각 최대 1.25배 및 최대 4배의 가격 대비 성능 우위를 보였다. 인텔은 “이는 하이엔드 워크스테이션 및 에지 애플리케이션 전반에 걸쳐 새로운 AI 추론 워크로드를 처리하는 인텔 기반 플랫폼의 성능과 접근 우수성을 보여주는 결과”라고 평가했다. 인텔의 리사 피어스(Lisa Pearce) 소프트웨어, GPU 및 NPU IP 그룹 총괄은 “MLPerf v5.1 벤치마크 결과는 인텔의 GPU 및 AI 전략을 강력히 입증하고 있다. 새로운 추론 최적화 소프트웨어 스택을 탑재한 아크 프로 B-시리즈 GPU는 기업과 개발자가 강력하면서도 설정하기 쉽고, 합리적인 가격에 확장 가능한 추론 워크스테이션으로 AI 분야에서 경쟁력을 높여준다”고 밝혔다.     이전까지는 높은 추론 성능을 제공하면서 데이터 프라이버시 침해에서 자유로운 플랫폼을 우선시하는 전문가들이 독점적인 AI 모델에 의한 과도한 구독 비용 부담 없이 LLM(대형 언어 모델)을 배포하기에 필요한 역량을 갖추기 위한 선택지가 제한적이었다. 새로운 인텔 GPU 시스템은 최신 AI 추론 요구사항을 충족하도록 설계되었으며, 풀스택 하드웨어와 소프트웨어를 결합한 올인원(all-in-one) 추론 플랫폼을 제공한다. 인텔 GPU 시스템은 리눅스 환경을 위한 새로운 컨테이너 기반 설루션을 통해 간소화된 도입과 사용 편의성을 목표로 한다. 또한 멀티 GPU 스케일링 및 PCle P2P 데이터 전송으로 높은 추론 성능을 발휘하도록 최적화되었으며, ECC, SRIOV, 텔레메트리(telemetry) 및 원격 펌웨어 업데이트 등과 같은 엔터프라이즈급 안전성 및 관리 용이성을 갖추고 있다. CPU는 AI 시스템에서 계속해서 중요한 역할을 수행하고 있다. 오케스트레이션 허브로서 CPU는 데이터 전처리, 전송 및 전반적인 시스템 조율을 담당한다. 지난 4년간 인텔은 CPU 기반 AI 성능을 지속적으로 향상시켜왔다. P 코어를 탑재한 인텔 제온 6는 MLPerf 추론 v5.1에서 이전 세대 대비 1.9배의 성능 향상을 달성했다.
작성일 : 2025-09-10
한국IBM, 보안 간담회 개최…“정교해지는 보안 위협, 통합적 대응 전략 필요”
한국IBM은 8월 21일 여의도 국제금융센터 본사에서 '변화하는 보안 위협과 기업 대응 방안'을 주제로 보안 간담회를 열고, 최근 보안 위협의 심각성과 대응 전략을 공유했다. 이날 IBM은 단순한 기술적 문제를 넘어, 기업 생존과 직결되는 보안 환경 변화에 대응하기 위해 AI 기반의 탐지·분석, 자동화, 제로트러스트 원칙을 포함한 종합적인 보안 전략이 필요하다고 강조했다. 한국IBM 최고기술책임자(CTO) 이지은 전무   이번 간담회에서 한국IBM 최고기술책임자(CTO) 이지은 전무는 “최근 랜섬웨어를 비롯한 보안 위협이 갈수록 정교해지고 있다”며, “단순히 보안 솔루션 도입에 그치지 않고 전략적·통합적 접근이 필수적”이라고 설명했다. 실제로 IBM 조사에 따르면, 글로벌 기업의 평균 데이터 유출 비용은 5년 만에 44억4천만 달러(약 6.1조 원)에서 5억 달러 이상 증가했으며, 탐지·대응까지 걸리는 시간도 여전히 길게 나타났다. IBM은 특히 랜섬웨어가 대기업뿐 아니라 중견기업, 공급망, 클라우드 환경까지 확산하고 있으며, 피싱·페이로드·데이터 절취 등 다단계 공격 방식이 고도화되고 있다고 지적했다. 이에 대응하기 위해 IBM은 시스템, 애플리케이션, 데이터 보호까지 아우르는 통합 보안 플랫폼을 제공하고 있다. 김경용 한국IBM 파워 사업 총괄 상무   김경용 한국IBM 파워 사업 총괄 상무는 “전략적 인프라 설계는 보안의 핵심”이라며, “특히 미션크리티컬한 업무 환경에서 유닉스 기반의 AIX 운영체제는 일반 리눅스 대비 강력한 보안·통합 관리 기능을 제공한다”고 강조했다. 지난 7월 출시된 IBM 파워11 서버는 스토리지·소프트웨어·랜섬웨어 대응을 포함한 사이버 볼트 솔루션을 통해 1분 이내에 공격 위협을 탐지할 수 있다. 또한 IBM은 향후 도래할 양자컴퓨팅 시대의 보안 위협에도 대비하고 있다. 김 상무는 “IBM 파워11은 양자내성암호 기술을 탑재해 미래형 보안 시나리오에도 대응할 수 있도록 설계됐다”고 설명했다. IBM 소프트웨어 사업 총괄 김진효 상무   한편, IBM 소프트웨어 사업 총괄 김진효 상무는 “제로트러스트 원칙을 기반으로 사용자 인증, 접근 제어, 위협 탐지, 자동화 대응을 아우르는 통합 보안 아키텍처의 중요성”에 대해 강조했다. 이를 위해 "IBM은 Verify, Guardium, HashiCorp Vault 등 핵심 보안 플랫폼을 통해 내부 위협까지 효과적으로 대응할 수 있도록 지원하고 있다”고 설명했다.
작성일 : 2025-08-21
IBM, AI 및 보안 기술 제공하는 차세대 리눅스 플랫폼 ‘IBM 리눅스원 5’ 공개
IBM이 차세대 리눅스 컴퓨팅 플랫폼인 IBM 리눅스원 5(IBM LinuxONE 5)를 공개했다. 이 플랫폼은 데이터, 애플리케이션, 그리고 인공지능(AI)을 위한 고성능 리눅스 환경을 제공하며, AI 가속 기능이 내장된 IBM 텔럼 II 프로세서(IBM Telum)로 구동된다. IBM은 이번 신제품이 기업의 보안 강화, 비용 효율성 개선, AI의 엔터프라이즈 시스템 통합에 대한 해법을 제시할 것으로 기대하고 있다. IBM 리눅스원 5는 IBM의 사이버보안과 개인정보 보호 접근 방식을 전반적으로 확장해, 제로 트러스트(Zero Trust) 원칙을 한층 강화했다. 이를 통해 고객이 복잡한 규정을 준수하는 과정을 간소화할 수 있도록 지원한다. 기밀 컴퓨팅, 고성능 암호화 대역폭, 미국 국립표준기술연구소(NIST)의 양자내성 암호 알고리즘, 그리고 최첨단 하드웨어 보안 모듈을 통해 워크로드와 데이터를 종합적으로 보호하는 데 중점을 두고 있다. IBM은 이러한 보안 기능이 AI 모델과 민감한 데이터를 보호하는 데 중요한 역할을 할 것으로 기대하고 있다. 특히 레드햇 오픈시프트(Red Hat OpenShift) 컨테이너 플랫폼을 활용한 기밀 컨테이너는 AI를 포함한 다양한 데이터 활용 시나리오에서 데이터를 안전하게 보호하는 데 기여한다. IBM 볼트 셀프 매니지드(IBM Vault Self-Managed)와의 통합을 통해 하이브리드 환경 전반에서 강력한 보안 설루션을 제공하며, 비밀 관리 기능을 강화하도록 설계됐다.     비용 절감 측면에서 IBM 리눅스원 5는 여러 서버에 분산된 워크로드를 단일 고용량 시스템으로 통합함으로써, 운영 복잡성을 줄이고 IT 인프라를 최적화할 수 있다. 클라우드 네이티브 및 컨테이너화된 워크로드를 x86 기반 설루션에서 IBM 리눅스원 5로 이전하면 5년 동안 총 소유 비용을 최대 44%까지 절감할 수 있다는 분석도 있다. 이는 데이터센터 운영 효율을 높이는 데 기여한다. 가용성 측면에서는 99.999999%의 안정성을 발휘하도록 설계되어 비즈니스 연속성을 지원하고 운영 위험을 줄일 수 있다. “데이터 집약적이고 AI를 활용하는 비즈니스의 증가하는 워크로드 수요를 충족하는 데도 적합한 기술”이라는 것이 IBM의 설명이다. 이번 플랫폼의 핵심 기술은 IBM 텔럼 II 프로세서다. 2세대 온칩 AI 가속기를 포함한 텔럼 II는 실시간 대량 거래 처리에서 예측 AI와 대규모 언어 모델(LLM)을 더 높은 정밀도와 정확도로 확장할 수 있도록 설계됐다. 여기에 IBM 스파이어 가속기(IBM Spyre Accelerator)가 2025년 4분기부터 지원될 예정으로, 생성형 AI 기능을 추가해 텔럼 II 프로세서를 보완할 예정이다. 이러한 기술은 사기 탐지, 이미지 처리, 리테일 자동화 등 다양한 산업 사례에서 활용될 수 있도록 설계됐다. IBM 리눅스원은 탄탄한 생태계를 기반으로 하고 있다. 독립 소프트웨어 벤더(ISV)는 리눅스원의 AI와 암호화 기능을 활용해 맞춤형 설루션을 제공하며, 오픈소스 커뮤니티는 유연하고 확장 가능한 도구를 통해 통합을 지원한다. IBM 리눅스원은 우분투(Ubuntu), 수세(SUSE) 등과 협력해 다양한 리눅스 배포판을 지원하고 있다.
작성일 : 2025-05-29
레드햇, “모델/AI 가속기/클라우드 전반에 걸쳐 엔터프라이즈 AI 배포 가속화 지원”
레드햇은 레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server), 레드햇 AI 서드파티 검증 모델 및 라마 스택(Llama Stack)과 모델 컨텍스트 프로토콜(Model Context Protocol, 이하 MCP) API의 통합 그리고 엔터프라이즈 AI 포트폴리오 전반에 걸친 주요 업데이트를 통해 엔터프라이즈 AI에서 고객 선택권을 지속적으로 확대한다고 발표했다. 이러한 개발을 통해 레드햇은 조직이 AI 도입을 가속화하는 데 필요한 역량을 더욱 강화하는 동시에 하이브리드 클라우드 환경 전반에서 생성형 AI 제품 배포에 있어 고객에게 더 많은 선택과 신뢰를 제공한다. 포레스터(Forrester)에 따르면 오픈소스 소프트웨어는 기업 AI 활동을 가속화하는 촉매제가 될 것이다. AI 환경이 점점 더 복잡하고 역동적으로 성장함에 따라 레드햇 AI 인퍼런스 서버 및 서드파티 검증 모델은 효율적인 모델 추론과 레드햇 AI 플랫폼의 성능에 최적화된 검증 AI 모델 컬렉션을 제공한다. 레드햇은 라마 스택 및 MCP를 비롯한 생성형 AI 에이전트 개발을 위한 신규 API 통합을 더해 배포 복잡성을 해결하고 높은 제어력과 효율성으로 AI 이니셔티브를 가속화할 수 있도록 지원한다. 레드햇은 AI 포트폴리오에 새로운 레드햇 AI 인퍼런스 서버가 포함되면서, 하이브리드 클라우드 환경 전반에서 더 빠르고 일관되며 비용 효율적인 추론을 대규모로 제공할 것으로 보고 있다. 이 핵심 기능은 레드햇 오픈시프트 AI(Red Hat OpenShift AI) 및 레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI, 이하 RHEL AI)의 최신 출시에 통합되었으며, 독립형 설루션으로도 제공되어 지능형 애플리케이션을 더 효율적이고 유연하며 높은 성능으로 배포할 수 있다. 허깅페이스(Hugging Face)에서 제공되는 레드햇 AI 서드파티 검증 모델은 기업이 특정 요구사항에 적합한 모델을 쉽게 찾을 수 있도록 지원한다. 레드햇 AI는 검증된 모델 컬렉션과 배포 가이드를 제공해 모델 성능 및 결과 재현성(reproducibility)에 대한 고객 신뢰를 높인다. 레드햇으로 최적화된 일부 모델은 모델 압축 기술을 활용해 크기를 줄이고 추론 속도를 높여 자원 소비와 운영 비용을 최소화한다.  레드햇 AI는 메타(Meta)가 처음 개발한 라마 스택과 앤트로픽(Anthropic)의 MCP를 통합해 사용자에게 AI 애플리케이션 및 에이전트 구축과 배포를 위한 표준화된 API를 제공한다. 현재 레드햇 AI에서 개발자 프리뷰로 제공되는 라마 스택은 모든 생성형 AI 모델 전반에서 vLLM 추론, 검색 증강 생성(RAG), 모델 평가, 가드레일 및 에이전트 기능에 액세스할 수 있는 통합 API를 제공한다. MCP는 API, 플러그인, 데이터 소스를 연결하는 표준 인터페이스를 제공함으로써 에이전트 워크플로에서 외부 도구와의 통합을 지원한다. 레드햇 오픈시프트 AI(v2.20)의 최신 버전은 ▲최적화된 모델 카탈로그 ▲쿠브플로우 트레이닝 오퍼레이터(KubeFlow Training Operator) 기반의 분산 학습 ▲기능 저장소(Feature store) 등 생성형 AI 및 예측형 AI 모델을 대규모로 구축, 학습, 배포, 모니터링할 수 있는 추가 기능을 포함한다.  또한, RHEL AI 1.5는 레드햇의 기본 모델 플랫폼에 새로운 업데이트를 제공함으로써 대규모 언어 모델(LLM)의 개발, 테스트 및 실행을 지원한다. RHEL AI 1.5의 주요 기능은 ▲구글 클라우드 마켓플레이스(Google Cloud Marketplace) 가용성 제공 ▲스페인어, 독일어, 프랑스어 및 이탈리아어를 위한 향상된 다국어 기능 제공 등이다.   래드햇 AI 인스트럭트랩 온 IBM 클라우드(Red Hat AI InstructLab on IBM Cloud)서비스도 출시됐다. 이 신규 클라우드 서비스는 모델 맞춤화 과정을 더욱 간소화하여 확장성과 사용자 경험을 개선하며 기업이 고유한 데이터를 더 쉽고 높은 수준의 제어하에 활용할 수 있도록 지원한다.
작성일 : 2025-05-26
AMD, 컴퓨텍스 2025에서 새로운 라데온 그래픽카드 및 라이젠 스레드리퍼 프로세서 공개
AMD는 컴퓨텍스 2025에서 라데온(Radeon) RX 9060 XT 및 라데온 AI 프로(Pro) R9700 그래픽 카드와 라이젠 스레드리퍼(Ryzen Threadripper) 9000 시리즈 프로세서를 출시하며 고성능 컴퓨팅 분야의 새로운 혁신을 공개했다. 게이밍, 콘텐츠 제작, 전문 산업 및 AI 개발 분야 등 까다로운 워크로드에 대처하도록 설계된 신제품을 통해 AMD는 보다 혁신적인 컴퓨팅 경험을 제공할 예정이다.   ▲ AMD 라데온 RX 9060 XT   새로운 라데온 RX 9060 XT GPU는 고급 AMD RDNA 4 아키텍처를 기반으로 한다. 머신러닝을 통해 향상된 화질과 프레임을 제공하는 FSR 4 업스케일링, 레이 트레이싱 가속을 통해 더욱 부드럽고 반응성 높은 1440p 해상도 게이밍 경험을 제공한다. 새로운 그래픽 카드 제품은 게임 속 세상을 구현하고, 픽셀을 통해 스토리를 전달하고, 여러 영역에서 향상된 경험을 제공할 수 있도록 높은 성능과 인텔리전스를 제공한다. 1440p 해상도에서 매우 부드러운 게이밍 성능을 제공하는 데에 초점을 맞춘 라데온 RX 9060 XT는 더 나은 경험을 기대하는 게이머들에게 최적의 환경을 제공한다. 최대 16GB의 GDDR6 메모리와 32개의 AMD RDNA 4 컴퓨트 유닛을 갖춘 이 GPU는 이전 세대에 비해 레이 트레이싱 처리량이 두 배로 늘어 가상세계의 조명, 그림자, 반사를 더욱 실제처럼 구현해 낸다. 2세대 AI 가속기는 머신러닝을 사용하여 가장 까다로운 렌더링 조건에서도 프레임 속도와 이미지 품질을 높이는 FSR 4(FidelityFX Super Resolution 4)를 지원한다. HYPR-RX는 ‘라데온 슈퍼 해상도(Radeon Super Resolution)’ 및 ‘플루이드 모션 프레임(Fluid Motion Frames)’를 포함한 완벽한 최적화 세트를 통해 더욱 높은 응답 속도와 깊은 몰입감을 제공하는 동시에 끊김없는 매끄러운 화면을 만들어낸다. 또한 RX 9060 XT는 FP8 데이터 유형 및 구조화된 희소성(structured sparsity)에 대한 지원으로 차세대 AI 기반 게임 플레이, 크리에이티브 도구 및 생성 경험을 위한 최적의 성능을 발휘한다. AMD 라데온 RX 9060 XT 그래픽 카드는 에이서, 애즈락, 에이수스, 기가바이트, 파워컬러, 사파이어, 바스타머, XFX, 예스톤 등 주요 보드 파트너를 통해 6월 5일 출시(북미 시각 기준)될 예정이다. AMD 라데온 RX 9060 XT 8GB와 AMD 라데온 RX 9060 XT 16GB의 권장 소비자 가격은 각각 미화 299달러, 349달러이다.   ▲ AMD 라데온 AI 프로 R9700   이와 함께, AMD는 라데온 AI 프로 R9700도 발표했다. 이 새로운 GPU는 2세대 AMD AI 가속기를 품은 AMD RDNA 4 아키텍처를 기반으로 설계됐다. 32GB의 그래픽 메모리와 PCIe 젠 5(Gen 5) 지원을 통해 로컬 AI 추론, 머신러닝 모델 파인 튜닝 및 복잡한 크리에이티브 워크로드를 처리할 수 있도록 설계되었다. 다중 GPU 시스템을 통한 확장성도 제공한다. 개발을 추진하는 전문가들은 AMD 라데온 AI 프로 R9700을 사용하여 로컬 추론, 모델 미세 조정 및 기타 데이터 집약적인 워크플로를 가속화할 수 있다. 2세대 AI 가속기는 이전 세대 대비 최대 2배의 처리 성능을 갖추고 있다. R9700은 리눅스에서 ROCm 소프트웨어 스택을 지원하며 곧 배포될 윈도우용 ROCm을 통해 온디바이스 제어 및 플랫폼 유연성을 갖춘 고성능 AI 환경을 제공한다. 라데온 AI 프로 R9700은 다중 GPU 구성에서 효과적으로 확장 가능하며, 대규모 모델 및 병렬 연산 작업을 위한 메모리 및 컴퓨팅 용량 증설에도 유리하다. 이런 유연성은 복잡한 시뮬레이션, 실시간 렌더링 또는 동시 AI 워크로드를 처리하는 고급 워크스테이션에 적합하다. 새로운 라데온 AI 프로 R9700은 2025년 7월부터 주요 보드 파트너를 통해 출시될 예정이다.   ▲ AMD 라이젠 스레드리퍼 9000 시리즈   AMD는 라이젠 스레드리퍼 프로 9000 WX-시리즈 및 라이젠 스레드리퍼 9000 시리즈 프로세서도 함께 공개했다. 전문가 및 매니아 층을 겨냥한 데스크톱 PC용으로 개발된 이 제품군은 막대한 코어 수와 메모리 대역폭을 탑재하고 있으며 차세대 플랫폼을 지원한다. 이 프로세서 시리즈는 영화 VFX 렌더링이나, 현실의 물리 현상을 시뮬레이션하는 작업, 수십억 개의 매개변수로 구성된 AI 모델의 파인 튜닝에 이르기까지 어떤 작업에서든 병목 현상 없이 혁신을 가속화한다. 새로운 AMD 라이젠 스레드리퍼 프로 9000 WX-시리즈 및 스레드리퍼 9000 시리즈 프로세서는 까다로운 멀티스레드 워크로드를 처리하고 전문가들이 복잡한 비전을 빠르게 실현할 수 있도록 지원하고자 개발되었다. 최상위 모델인 라이젠 스레드리퍼 프로 9995WX는 96코어 192스레드를 제공해 막대한 컴퓨팅 파워가 필요한 시각 효과, 시뮬레이션 및 AI 모델 개발에 적절하다. 최대 384MB의 L3 캐시와 128레인의 PCIe 5.0 연결성을 갖춘 이 프로세서 시리즈는 대규모 데이터 세트, 다중 GPU 워크로드 및 메모리 집약적인 애플리케이션도 빠르게 처리한다. 또한, 프로 제품군의 전 모델은 엔터프라이즈급 보안, 관리 용이성 및 플랫폼 안정성을 위한 AMD 프로 기술들을 탑재하고 있어 IT 운영을 간소화하는 데 도움을 준다. 라이젠 스레드리퍼 9000 시리즈는 하이엔드 데스크톱(HEDT) 플랫폼에서 워크스테이션급 컴퓨팅을 요구하는 매니아 및 크리에이터를 위한 고성능 프로세서다. 라이젠 스레드리퍼 9000 시리즈는 최대 64코어를 제공해 클라우드에 의존할 필요 없이 효율적인 콘텐츠 제작, 빠른 컴파일링 및 로컬 AI 학습을 지원하고 비용, 지연 시간을 줄이면서도 개인 정보를 더욱 안전하게 보호할 수 있는 환경을 제공한다. AMD 라이젠 스레드리퍼 프로 9000 WX-시리즈 프로세서는 2025년 말부터 델, HP, 레노버 및 슈퍼마이크로를 통해 출시될 예정이다. AMD 라이젠 스레드리퍼 9000 시리즈 프로세서를 탑재한 하이엔드 데스크톱 플랫폼과 DIY 라이젠 스레드리퍼 9000 시리즈 및 일부 라이젠 스레드리퍼 프로 9000 WX-시리즈 프로세서는 7월부터 일반 판매업체에서 구입할 수 있다. AMD의 컴퓨팅 및 그래픽 그룹 총괄 책임자인 잭 후인(Jack Huynh) 수석 부사장은 “이번 발표는 제품 포트폴리오 전반에 걸쳐 업계 최고의 혁신을 지속 제공하겠다는 우리의 비전을 다시 한 번 강조한다.”고 말했다. 이어 그는 “라데온 RX 9060 XT와 라데온 AI 프로 R9700은 RDNA 4의 성능과 AI 기능을 전 세계 워크스테이션 및 게이머에게 제공하며, 새로운 라이젠 스레드리퍼 9000 시리즈는 하이엔드 데스크톱 및 전문가용 워크스테이션의 새로운 표준이 될 것이다.  이 새로운 설루션에는 크리에이터, 게이머, 전문가에게 성능과 효율성을 제공하여 한계를 뛰어넘고 창의성을 높일 수 있도록 지원하고자 하는 AMD의 비전이 잘 담겨 있다”고 강조했다.
작성일 : 2025-05-21
AWS, AI 기반 마이그레이션 서비스 ‘AWS 트랜스폼’ 출시
아마존웹서비스(AWS)가 기업의 마이그레이션 및 현대화 프로젝트를 가속화하기 위한 AI 기반 서비스인 AWS 트랜스폼(AWS Transform)을 출시했다. AWS 트랜스폼은 지난 AWS 리인벤트 2024에서 아마존 Q 디벨로퍼(Amazon Q Developer)의 변환 기능 중 하나로 선공개된 AI 기반 설루션이다. 이 설루션은 기업의 VM웨어, 메인프레임, 닷넷 워크로드와 관련된 현대화 작업을 자동화하고 복잡한 마이그레이션 작업을 간소화하여, 기존 방식 대비 최대 4배 빠르게 프로젝트를 완료할 수 있도록 지원한다. 또한, 기반 모델, 대규모 언어 모델(LLM), 머신러닝, 그래프 신경망, 자동화 추론 등 AWS의 AI 기술 인프라를 활용하여 기존 인프라, 애플리케이션, 코드 현대화 과정에서의 복잡성과 부담을 줄여준다. 또한 전문적인 트랜스포메이션 어시스턴트 역할을 하는 채팅 기반의 경험을 제공하여 목표 설정, 프로젝트 컨텍스트 공유, 비즈니스 계획 및 비용 절감 평가, 트랜스포메이션 계획 검토 및 조정, 코드 및 인프라 제안 검토 및 승인 등을 지원한다. 뿐만 아니라 통합 웹 환경에서 여러 부서의 팀들이 함께 작업을 검토하고, 진행 상황을 추적하며, 프로젝트 전반에 걸쳐 협업할 수 있게 함으로써 가장 복잡한 레거시 애플리케이션에 대한 트랜스포메이션 계획을 제어할 수 있도록 지원한다. AWS는 닷넷을 위한 AWS 트랜스폼 에이전트가 윈도우에서 리눅스로 닷넷 프레임워크(.NET Framework) 애플리케이션 포팅(porting)을 가속화하여 운영 비용을 최대 40%까지 절감한다고 소개했다. 이러한 비용 절감은 윈도우 서버 라이선싱 비용, 버전 업그레이드, 유지보수 및 지원 종료 문제를 줄이는 동시에 분석, 계획 및 리팩토링 전반에 걸친 트랜스포메이션 비용을 절감함으로써 이루어진다. 닷넷 에이전트(.NET Agent)를 통해 자연어로 채팅하여 트랜스포메이션 목표와 프로젝트 컨텍스트를 공유할 수 있으며, AWS 트랜스폼이 종속성을 분석하고, 과거 현대화 여정의 영역별 전문 지식을 적용하여 맞춤형 현대화 계획을 개발할 수 있다. 또한 자율적으로 코드를 변환하고, 단위 테스트를 실행하고, 트랜스포메이션 요약을 생성하며, 리눅스 환경에서 실행 가능한 상태로의 준비 여부를 검증할 수 있다. AWS 트랜스폼은 닷넷 프레임워크 애플리케이션 코드를 리눅스 환경에서 실행 가능한 상태로 준비된 크로스 플랫폼 닷넷으로 변환하고, 사설 패키지를 포팅하고, 단위 테스트 실행을 자동화한다. 또한 설명 가능한 변환 결정을 제공함으로써 애플리케이션의 성능과 확장성을 향상시킨다. 이 새로운 에이전트는 통합된 웹 경험을 통해 일관된 결과로 수백 개의 애플리케이션을 병렬로 변환시켜 팀 간의 협업을 간소화하고 대규모 현대화 프로젝트를 효율적으로 처리할 수 있도록 지원한다. AWS에 따르면, 메인프레임을 위한 AWS 트랜스폼 에이전트를 통해 전체 현대화 프로세스를 간소화하여 위험과 복잡성을 줄이면서 일정을 최대 50%까지 단축할 수 있다. 채팅 인터페이스를 통해 높은 수준의 현대화 목표를 정의하고 작업 계획을 협의할 수 있다. 준비가 되면 AWS 트랜스폼은 코볼(COBOL)과 JCL(Job Control Language)로 작성된 메인프레임 애플리케이션과 CICS(Customer Information Control System) 트랜잭션 관리자, BMS(Basic Mapping Support) 화면, DB2 데이터베이스, VSAM(Virtual Storage Access Method) 데이터 파일에 의존하는 애플리케이션을 처리한다. 종속성과 누락된 파일을 신속하게 식별하는 고급 코드 분석의 이점을 통해 하위 프로젝트 지연을 줄일 수 있다. 그래프 신경망을 사용하여 모놀리식(monolithic) 애플리케이션을 관리 가능한 모듈로 분해함으로써 중요한 비즈니스 로직을 보존하면서 타기팅된 현대화 접근 방식을 가능하게 한다. 프로젝트 전반에 걸쳐 AWS 트랜스폼은 AI 어시스턴트 역할을 하며, 진행 상황에서 학습하고 생성된 기술 문서를 기반으로 프로그램에 대한 질문에 답변한다. 애플리케이션을 리팩토링(refactoring)할 때, 향상된 정확도를 위해 상태 머신(state machines)과 상태 전이 그래프(state transition graphs)를 활용하여 코볼, JCL 및 DB2를 자바(Java)와 포스트그레(Postgres)로 변환할 수 있다. 애플리케이션을 재구상할 때는 수백만 줄의 코드에서 추출된 포괄적인 기술 문서, 비즈니스 규칙, 논리적 흐름을 얻을 수 있다. AI 에이전트의 지능형 오케스트레이션을 통해 상세한 문서로 기관 지식을 보존하면서 클라우드에서 메인프레임 애플리케이션을 더 빠르고, 단순하고, 안전하게 현대화할 수 있다. VM웨어를 위한 AWS 트랜스폼 에이전트는 인프라를 최적화하고 운영 오버헤드를 줄이면서 증가하는 VM웨어 라이선스 비용을 피할 수 있다. 채팅 인터페이스는 온프레미스 VM웨어 환경에 커넥터를 추가하거나 타사 도구에서 자산 인벤토리를 업로드하도록 안내한다. 목표를 지정한 후, 에이전트는 애플리케이션 검색, 종속성 매핑, 마이그레이션 계획, 네트워크 변환, 서버 마이그레이션 및 EC2 인스턴스 최적화와 같은 작업을 자동화한다. 사용자는 휴먼인더루프(human-in-the-loop) 메커니즘을 통해 아티팩트를 검토, 승인 및 편집할 수 있다. 그래프 신경망을 사용하여 네트워크 트래픽과 통신 패턴을 분석하여 종속성을 식별하고 최적의 마이그레이션 이행 계획(migration wave planning)을 자동으로 생성할 수 있다. VPC, 서브넷, 보안 그룹 및 트랜짓 게이트웨이를 포함한 복잡한 네트워크 구성을 AWS 클라우드 환경에 상응하는 구성요소로 변환할 수 있다. 또한 격리된 VPC 및 유연한 허브앤스포크(Hub-and-Spoke) 구성과 같은 향상된 기능을 통해 네트워크 마이그레이션 문제를 해결할 수 있다. 이를 통해 일반적으로 2주가 소요되던 전통적인 네트워크 구성 작업을, VM웨어를 위한 AWS 트랜스폼을 사용하면 1시간 안에 완료할 수 있으며, 일반적으로 몇 주의 분석이 필요한 마이그레이션 이행 계획을 15분 안에 완료할 수 있게 되었다.
작성일 : 2025-05-20
인텔, 컴퓨텍스에서 AI·워크스테이션용 최신 GPU 공개
인텔은 전문가와 개발자를 위한 신규 그래픽 처리 장치(GPU) 및 AI 가속기 제품군을 컴퓨텍스 2025에서 공개했다. 이번에 발표된 신제품은 ▲AI 추론 및 전문가용 워크스테이션에 최적화된 구성으로 설계된 인텔 아크 프로 B60(Intel Arc Pro B60) 및 인텔 아크 프로 B50(Intel Arc Pro B50) GPU ▲기업 및 클라우드 환경의 AI 추론을 위한 확장 가능하고 개방형 설루션을 제공하는 인텔 가우디 3 AI 가속기(Intel Gaudi 3 AI accelerators) ▲인텔 플랫폼에 최적화된 로컬 기반 목적 특화형 AI 에이전트를 개발자가 직접 생성할 수 있도록 지원하는 인텔 AI 어시스턴트 빌더(Intel AI Assistant Builder) 등이다.   ▲ 인텔 아크 프로 B60 및 B50 GPU   Xe2 아키텍처 기반의 인텔 아크 프로 B60 및 B50 GPU는 Xe 매트릭스 확장(XMX) AI 코어와 고급 레이 트레이싱 유닛을 탑재해 크리에이터, 개발자, 엔지니어를 위한 고성능 컴퓨팅 기능을 제공한다. 인텔은 이 두 GPU를 통해 전문가용 GPU 라인업을 확대하며, 고부하 AI 추론 작업과 워크스테이션 애플리케이션에 적합한 설계를 적용했다. AI 지원 기능, 24GB/16GB 메모리, 멀티 GPU 확장성을 갖춘 아크 프로 B 시리즈는 크리에이터, AI 개발자, 전문가에게 유연하고 강력한 설루션을 제공한다. 이들 GPU는 AEC(건축, 엔지니어링, 건설) 및 AI 추론용 워크스테이션에 최적화되어 있으며, 다양한 ISV 인증과 최적화된 소프트웨어를 통해 높은 안정성과 성능을 제공한다는 것이 인텔의 설명이다. 인텔 아크 프로 B 시리즈의 GPU들은 윈도우에서 일반 및 전문가용 드라이버와 호환되며, 리눅스에서는 AI 배포를 간소화하기 위한 컨테이너 기반 소프트웨어 스택을 지원한다. 향후 기능 추가 및 성능 최적화도 순차적으로 적용될 예정이다.  고용량 메모리와 주요 소프트웨어 호환성을 갖춘 인텔 아크 프로 B 시리즈는 크리에이터와 AI 개발자에게 확장가능하면서도 비용 효율적인 설루션을 제공한다. 인텔은 AI 개발 과정에서 발생하는 여러 마찰 지점을 최소화하도록 설계된 워크스테이션급 인텔 제온(Intel Xeon) 기반 플랫폼(코드명 ‘Project Battlematix)도 공개했다. 이 플랫폼은 최대 8개의 인텔 아크 프로 B60 24GB GPU를 지원해, 최대 1500억 개 매개변수의 중형 AI 모델을 고정밀도로 구동할 수 있으며, 최대 192GB의 비디오 전용 메모리를 제공한다. 인텔 아크 프로 B60 GPU는 2025년 6월부터 애즈락(ASRock), 니르(Gunnir), 래너(Lanner), 맥선(Maxsun), 오닉스(Onix), 세나오(Senao), 스파클(Sparkle) 등 다양한 애드인 보드 파트너사를 통해 샘플링이 시작되며, 아크 프로 B50 GPU는 2025년 7월부터 리테이너 채널을 통해 구매할 수 있다.   ▲ 인텔 가우디 3 PCIe 카드   인텔 가우디 3 PCIe 카드는 기존 데이터센터 서버 환경에서 확장형 AI 추론을 지원한다. 라마(LLaMA)와 같은 AI 모델을 사용할 경우, 소규모 기업부터 대기업까지 다양한 고객이 확장 가능한 구성 덕분에 LLaMA 3.1 8B부터 LLaMA 4 스카우트(Scout), 매버릭(Maverick) 모델까지 유연하게 실행할 수 있다. 인텔 가우디 3 PCIe 카드는 2025년 하반기부터 제공될 예정이다. 인텔 가우디 3 랙 스케일 시스템의 레퍼런스 디자인은 유연성과 확장성을 염두하고 설계되어, 랙당 최대 64개의 가속기를 지원하며 8.2TB의 고대역폭 메모리를 지원한다. 개방형 및 모듈형 구조로 특정 벤더 종속을 방지하고, ‘케이블드 백플레인(cabled backplane)’과 ‘블라인드-메이트 2D 풀-랙’ 배선 방식 덕분에 설치와 유지보수가 한층 간편하며, 액체 냉각을 적용해 뛰어난 성능을 유지하면서도 총소유비용(TCO)을 효과적으로 관리할 수 있다.  가우디 랙 스케일 아키텍처는 대규모 AI 모델 실행에 최적화되어 있으며, 낮은 지연 시간의 실시간 추론 작업에서 뛰어난 성능을 발휘한다. 이러한 구성은 개방적이고 유연하며 안전한 AI 인프라 구축에 대한 인텔의 의지를 보여주며, 클라우드 서비스 제공업체(CSP)를 위한 맞춤형 설계와 OCP(Open Compute Project) 표준 설계를 모두 지원한다. CES 2025에서 처음 공개된 인텔 AI 어시스턴트 빌더는 인텔 기반 AI PC에서 맞춤형 AI 에이전트를 로컬 환경에서 구축하고 실행할 수 있도록 설계된 경량형 오픈 소프트웨어 프레임워크로, 현재 깃허브(GitHub)에서 제공되는 베타 버전을 통해 누구나 사용할 수 있다. AI 어시스턴트 빌더는 개발자와 파트너가 자사 조직 및 고객을 위한 AI 에이전트를 빠르게 구축하고 배포할 수 있도록 지원한다.
작성일 : 2025-05-20
로크웰 오토메이션, 제약 산업을 위한 MES 설루션 ‘팩토리토크 파마스위트 12.00’ 출시
로크웰 오토메이션이 제약 및 바이오제약 산업을 위한 차세대 제조 실행 시스템(MES) 설루션인 ‘팩토리토크 파마스위트(FactoryTalk PharmaSuite 12.00)’을 출시했다고 밝혔다. 이 설루션은 엄격한 규제가 요구되는 생명과학 분야의 특수한 필요를 충족하고, 제조업체가 시스템을 보다 민첩하고 확장 가능하게 운영할 수 있도록 설계됐다. 현재 제약 및 바이오제약 업계는 디지털화를 통해 규정 준수를 유지하면서도 신속한 시장 대응과 유연한 생산 체계 확보를 요구받고 있다. 이에 대해 업계 협의체인 바이오포럼(BioPhorum)은 기존 MES 시스템의 도입 난이도, 유연성 부족, 높은 비용 등의 문제를 지적한 바 있다. 로크웰 오토메이션은 “이러한 업계의 도전과제에 대한 실질적 해답으로 파마스위트 12.00을 선보이며, 규제 환경에 최적화된 디지털 제조 플랫폼의 새로운 표준을 제시했다”고 전했다. 파마스위트 12.00의 주요 기능으로는 ▲클라우드 기반 배포 ▲설정 자동화 툴(MICKA) ▲모듈형 설계 ▲중앙 집중형 모니터링 툴 ▲강화된 사이버보안 ▲향상된 업그레이드 엔진이 있다. 이 설루션은 모듈형 아키텍처 기반으로 클라우드, 온프레미스, 하이브리드 등 다양한 환경에서 유연하게 배포할 수 있어, 운영 효율성과 글로벌 확장성을 동시에 확보할 수 있다는 것이 로크웰 오토메이션의 설명이다. 또한, 새로운 설정 자동화 툴과 강화된 사이버보안 프레임워크는 검증 비용 및 시간을 절감하고, 엄격한 규정 준수와 데이터 무결성 요구사항을 충족하는 데 기여할 수 있다.     파마스위트 12.00의 클라우드 기반 배포는 리눅스 모듈을 통해 쿠버네티스(Kubernetes) 환경을 지원함으로써, 보다 빠르고 안정적인 시스템 설치 및 유지 관리를 가능하게 한다. 이를 통해 제조업체는 복잡한 시스템 셋업에 대한 부담을 줄이고 배포 속도를 가속화할 수 있다. 새롭게 도입된 설정 자동화 툴인 MICKA는 설치 및 검증 과정을 자동화하여 반복적이고 수작업이 필요한 작업을 최소화하여 규제 환경에서 운영의 효율을 높인다. 여기에 더해, 모듈형 설계를 적용함으로써 다양한 생산 환경에 유연하게 대응할 수 있으며, 시스템의 표준화를 통해 글로벌 확장 및 관리가 용이하다. 또한, 중앙 집중형 모니터링 기능은 문제를 조기에 감지하고 신속한 대응을 가능하게 해 운영 중단 리스크를 최소화하며, 생산 품질 유지에 기여한다. 이와 함께, 산업 표준에 기반한 보안 개발 프로세스를 적용해 데이터 무결성과 규정 준수를 강화했으며, 향상된 업그레이드 엔진을 통해 최신 기능과 보안 패치를 간편하게 적용할 수 있어 시스템을 지속적으로 최적화할 수 있다. 로크웰 오토메이션의 마틴 페트릭(Martin Petrick) MES 부문 비즈니스 관리자는 “파마스위트 12.00은 생명과학 제조업체가 디지털 제조 환경을 구축함에 있어 성능과 보안, 규정 준수, 확장성 측면에서 새로운 기준을 제시하는 설루션”이라며, “클라우드를 포함한 다양한 배포 옵션을 통해 제조업체는 더욱 빠르고 유연하게 운영을 확장하고, 글로벌 출시 및 검증 절차를 간소화할 수 있다”고 전했다.
작성일 : 2025-05-14
엔비디아, “RTX GPU와 쿠다 12.8로 LLM 실행 도구 성능 향상”
엔비디아가 엔비디아 지포스(NVIDIA GeForce) RTX GPU와 쿠다(CUDA) 12.8을 통해 로컬 대규모 언어 모델(large language model : LLM) 실행 도구인 ‘LM 스튜디오(LM Studio)’의 성능을 향상했다고 밝혔다.  문서 요약에서 맞춤형 소프트웨어 에이전트에 이르기까지 AI 사용 사례가 계속 확장되고 있다. 이에 따라 개발자와 AI 애호가들은 LLM을 더 빠르고 유연하게 실행할 수 있는 방법을 찾고 있다. 엔비디아 지포스 RTX GPU가 탑재된 PC에서 로컬로 모델을 실행하면 고성능 추론, 향상된 데이터 프라이버시, AI 배포와 통합에 대한 제어가 가능하다. 무료로 체험할 수 있는 LM 스튜디오와 같은 도구는 이러한 로컬 AI 실행을 간편하게 구현할 수 있도록 지원한다. 이를 통해 사용자는 자신의 하드웨어에서 LLM을 탐색하고 구축할 수 있다. LM 스튜디오는 로컬 LLM 추론을 위해 가장 널리 채택된 도구 중 하나로 자리잡았다. 고성능 llama.cpp 런타임을 기반으로 구축된 이 애플리케이션은 모델을 완전히 오프라인에서 실행할 수 있도록 한다. 또한 사용자 지정 워크플로에 통합하기 위해 오픈AI(OpenAI) 호환 API(application programming interface) 엔드포인트 역할도 수행할 수 있다. LM 스튜디오 0.3.15 버전은 쿠다 12.8을 통해 RTX GPU에서 성능이 향상되면서 모델 로드와 응답 시간이 개선됐다. 또한 이번 업데이트에는 ‘툴_초이스(tool_choice)’ 파라미터를 통한 도구 활용 개선, 시스템 프롬프트 편집기 재설계 등 개발자 중심의 새로운 기능도 추가됐다. LM 스튜디오의 최신 개선 사항은 성능과 사용성을 향상시켜 RTX AI PC에서 높은 수준의 처리량을 제공한다. 즉, 더 빠른 응답, 더 신속한 상호작용, 그리고 로컬에서 AI를 구축하고 통합하기 위한 더 나은 툴을 제공한다.     LM 스튜디오는 유연성을 염두에 두고 제작돼 간단한 실험부터 맞춤형 워크플로 통합까지 다양한 용도로 활용할 수 있다. 사용자는 데스크톱 채팅 인터페이스를 통해 모델과 상호작용하거나 개발자 모드를 활성화해 오픈AI 호환 API 엔드포인트를 제공할 수 있다. 이를 통해 로컬 LLM을 비주얼 스튜디오 코드(VS Code)나 맞춤형 데스크톱 에이전트와 같은 앱의 워크플로에 쉽게 연결할 수 있다. 예를 들어, LM 스튜디오는 마크다운 기반의 인기 지식 관리 애플리케이션인 옵시디언(Obsidian)에 통합될 수 있다. 사용자는 텍스트 제너레이터(Text Generator), 스마트 커넥션(Smart Connections)과 같은 커뮤니티 개발 플러그인을 사용해 콘텐츠를 생성하고, 연구를 요약하고, 자신의 노트 검색을 수행할 수 있다. 이 모든 기능은 LM 스튜디오를 통해 실행되는 로컬 LLM으로 구동된다. 이러한 플러그인은 LM 스튜디오의 로컬 서버에 직접 연결되므로 클라우드에 의존하지 않고도 빠르고 비공개적인 AI 상호작용이 가능하다. LM 스튜디오 0.3.15 업데이트에는 개발자를 위한 새로운 기능이 추가됐다. 그중에는 ‘툴_초이스’ 매개변수를 통한 도구 사용에 대한 세분화된 제어 기능과 더 길거나 복잡한 프롬프트를 처리할 수 있는 시스템 프롬프트 편집기 업그레이드 등이 포함된다. 개발자는 툴_초이스 파라미터를 통해 도구 호출을 강제하거나, 완전히 비활성화하거나, 모델이 동적으로 결정하도록 허용하는 등 모델이 외부 도구와 연동하는 방식을 제어할 수 있다. 이러한 유연성은 구조화된 상호작용, 검색 증강 생성(retrieval-augmented generation : RAG) 워크플로 또는 에이전트 파이프라인 구축에 특히 유용하다. 이러한 업데이트는 LLM을 사용하는 개발자의 실험과 프로덕션 사용 사례 모두에서 효율성을 높인다. LM 스튜디오는 젬마(Gemma), 라마3(Llama 3), 미스트랄(Mistral), 오르카(Orca) 등 광범위한 개방형 모델과 4비트부터 고정밀까지 다양한 양자화 형식을 지원한다. 또한, 엔비디아는 소형 RTX 기반 시스템에서 효율성을 최적화하든 고성능 데스크톱에서 높은 처리량을 달성하든, LM 스튜디오가 RTX에서 완전한 제어, 속도, 프라이버시를 모두 제공한다고 설명했다. LM 스튜디오 가속화의 핵심은 소비자 하드웨어에서 효율적인 추론을 제공하도록 설계된 오픈 소스 런타임인 llama.cpp이다. 엔비디아는 LM 스튜디오, llama.cpp 커뮤니티와 협력해 RTX GPU 성능을 극대화하기 위해 ▲쿠다 그래프 활성화 ▲플래시 어텐션 쿠다 커널(Flash attention CUDA kernel) ▲최신 RTX 아키텍처 지원 등의 최적화 사항을 통합했다. LM 스튜디오는 윈도우, 맥OS, 리눅스에서 무료로 다운로드해 실행할 수 있다. 최신 0.3.15 버전과 지속적인 최적화를 통해 사용자는 성능, 맞춤화, 사용성에서 지속적인 개선을 기대할 수 있으며, 로컬 AI를 더 빠르고 유연하며 접근 가능하게 만든다. 사용자는 데스크톱 채팅 인터페이스를 통해 모델을 로드하거나 개발자 모드를 활성화해 오픈AI 호환 API를 사용할 수 있다.  LM 스튜디오는 모델 프리셋, 다양한 양자화 형식, 미세 조정된 추론을 위한 툴_초이스와 같은 개발자 제어 옵션을 지원한다. LM 스튜디오의 성능 개선에 관심이 있는 사용자는 커뮤니티와 엔비디아 주도의 성능 개선이 지속적으로 반영되는 llama.cpp 깃허브(GitHub) 리포지토리에 참여할 수 있다.
작성일 : 2025-05-12
시놀로지, 디스크스테이션 DS925+ 및 DX525 확장 유닛 출시
시놀로지는 고성능과 안정적인 데이터 관리를 필요로 하는 전문가 및 기업을 위해 새로운 NAS 제품 디스크스테이션(DiskStation) DS925+를 출시했다. 시놀로지의 제프리 황(Jeffery Huang) 제품 매니저는 “4베이 플러스(Plus) 시리즈는 지금까지 100만 대 이상 설치되며 가장 널리 사용되는 제품군 중 하나로 자리 잡았다”면서, “전문가뿐 아니라 원격지나 지사 환경에서 에지 서버로 활용하려는 기업들 사이에서도 선호되고 있다. 이러한 점을 반영하여, DS925+는 비즈니스급 성능과 신뢰성을 제공할 수 있도록 설계했다”고 전했다. DS925+는 높은 처리 성능이 요구되는 워크로드를 소화할 수 있도록 설계됐다. 듀얼 2.5GbE 포트와 함께, 올플래시 스토리지 풀 또는 캐시 구성을 위한 M.2 슬롯 2개를 탑재해 전작 대비 큰 폭의 성능 향상을 제공한다. 예를 들어, SMB 프로토콜을 통한 다운로드 속도는 146%, 업로드는 40%, 읽기 속도는 131%, 쓰기 속도는 150% 향상되었다.     또한, DS925+는 높은 용량과 유연한 확장성을 지원한다. 새롭게 출시된 DX525 확장 유닛을 활용하면 드라이브 베이를 최대 9개까지 확장할 수 있으며, 최대 180TB의 원시 스토리지 용량을 제공해 급증하는 데이터 수요에도 유연하게 대응할 수 있다. DS925+는 시놀로지의 운영체제인 디스크스테이션 매니저(DSM) 기반으로 작동하며, 다양한 비즈니스 요구를 충족하는 풍부한 기능을 제공한다. 시놀로지 드라이브(Synology Drive)는 시스템을 개인 클라우드로 전환해 다양한 플랫폼 간 파일 접근과 원격지 간 동기화를 지원한다. 액티브 백업 스위트(Active Backup Suite)는 윈도우,리눅스, 맥OS 기기뿐 아니라 가상 머신과 클라우드 계정까지 통합 백업 및 복구를 제공하며, 오프사이트 백업 옵션도 유연하게 구성할 수 있다. 서베일런스 스테이션(Surveillance Station)은 실시간 지능형 분석 기능을 갖춘 확장형 영상 관리 설루션으로, 물리적 자산 보호에 효과적이다. DS925+는 시놀로지 하드 드라이브와 함께 최적의 호환성과 안정성을 제공하도록 설계된 올인원 시스템이다. 7000시간 이상 엄격한 테스트를 거쳐 검증된 드라이브 호환성 프레임워크를 기반으로 하며, 설치 시에는 DSM에서 지원하는 호환 드라이브 사용이 요구된다. 시놀로지는 DS925+와 DX525 확장 유닛이 4월 23일부터 국내 시놀로지 파트너 및 리셀러를 통해 출시된다고 전했다.
작성일 : 2025-04-23