• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "리눅스"에 대한 통합 검색 내용이 847개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 정식 출시
IBM은 자사의 메인프레임 시스템 IBM z17 및 IBM 리눅스원 5(IBM LinuxONE 5)에 적용 가능한 인공지능(AI) 가속기 ‘스파이어 엑셀러레이터(Spyre Accelerator)’를 정식 출시한다고 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며, 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계되었다. 12월 초부터는 파워11(Power11) 서버용 제품도 제공될 예정이다. 오늘날 IT 환경은 기존의 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 전환되고 있으며, AI 에이전트는 저지연(low-latency) 추론과 실시간 시스템 반응성을 요구한다. 기업은 처리량의 저하없이 가장 까다로운 엔터프라이즈 업무와 AI 모델을 동시에 처리할 수 있는 메인프레임과 서버 인프라를 필요로 한다. IBM은 이러한 수요에 대응하기 위해서 생성형 및 에이전트 기반 AI를 지원하면서도 핵심 데이터, 거래, 애플리케이션의 보안과 복원력을 유지할 수 있는 AI 추론 전용 하드웨어가 필수적이라고 판단했다. 스파이어 엑셀러레이터는 기업이 중요한 데이터를 사내 시스템(온프레미스, on-premise) 내에서 안전하게 관리할 수 있도록 설계되었으며, 운영 효율성과 에너지 절감 효과도 함께 제공한다.     스파이어 엑셀러레이터는 IBM 리서치 AI 하드웨어 센터의 혁신 기술과 IBM 인프라 사업부의 개발 역량이 결합된 결과물이다. 시제품으로 개발된 이후 IBM 요크타운 하이츠 연구소의 클러스터 구축과 올버니대학교 산하 ‘신흥 인공지능 시스템 센터(Center for Emerging Artificial Intelligence Systems)’와의 협업을 통해 빠른 반복 개발 과정을 거쳐 완성도를 높였다. 이렇게 기술적 완성도를 높여 온 시제품 칩은 현재는 IBM Z, 리눅스원, 파워 시스템에 적용 가능한 기업용 제품으로 진화했다. 현재 스파이어 엑셀러레이터는 32개의 개별 가속 코어와 256억 개의 트랜지스터를 탑재한 상용 시스템온칩(SoC, system-on-a-chip) 형태로 완성되었다. 5나노미터 공정 기술을 기반으로 제작된 각 제품은 75와트(Watt) PCIe 카드에 장착되며, IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. IBM 고객들은 스파이어 엑셀러레이터를 통해 빠르고 안전한 처리 성능과 사내 시스템 기반의 AI 가속 기능을 활용할 수 있다. 이는 기업이 IBM Z, 리눅스원, 파워 시스템 상에서 데이터를 안전하게 유지하면서도 AI를 대규모로 적용할 수 있게 되었음을 의미한다. 특히, IBM Z 및 리눅스원 시스템에서는 텔럼 II(Telum II) 프로세서와 함께 사용되어 보안성, 저지연성, 높은 거래 처리 성능을 제공한다. 이를 통해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에 다중 AI 모델을 적용할 수 있다. IBM 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 기업 업무 흐름에 맞춘 종합적인 AI 활용이 가능하다. 고객은 해당 서비스를 한 번의 클릭으로 설치할 수 있으며, 온칩 가속기(MMA)와 결합된 파워용 스파이어 엑셀러레이터는 생성형 AI를 위한 데이터 변환을 가속화해 심층적인 프로세스 통합을 위한 높은 처리량을 제공한다. 또한 128개 토큰 길이의 프롬프트 입력을 지원하며, 이를 통해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. 이러한 성능은 IBM의 소프트웨어 스택, 보안성, 확장성, 에너지 효율성과 결합되어, 기업이 생성형 AI 프레임워크를 기존 업무에 통합해 나가는 여정을 효과적으로 지원한다. IBM 인프라 사업부 최고운영책임자(COO)이자 시스템즈 사업부 총괄 배리 베이커(Barry Baker) 사장은 “스파이어 엑셀러레이터를 통해 IBM 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다. 이 기술 혁신은 고객이 AI 기반 핵심 업무를 보안성과 복원력, 효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다”고 말했다. IBM 반도체 및 하이브리드 클라우드 부문 무케시 카레(Mukesh Khare) 부사장은 “IBM은 2019년 AI 리서치 하드웨어 센터를 설립해, 생성형 AI와 대규모 언어 모델(LLM)이 본격적으로 확산되기 이전부터 AI의 연산 수요 증가에 대응해 왔다. 최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데, 해당 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다”면서, “이번 스파이어 칩의 정식 출시로 IBM 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 되었다”고 설명했다.
작성일 : 2025-10-28
윈드리버, 블랙박스와 지능형 에지 및 클라우드 혁신 위한 파트너십 체결
지능형 에지 소프트웨어를 제공하는 글로벌 기업인 윈드리버가 디지털 인프라 전문 기업 블랙박스(Black Box)와 전략적 파트너십을 체결하고 산업·제조·소매·금융·자동차·통신 등 다양한 시장에 차세대 지능형 에지 및 프라이빗 클라우드 설루션을 제공한다고 밝혔다. 이번 협업을 통해 윈드리버는 마이그레이션 기능을 탑재한 ‘윈드리버 클라우드 플랫폼(Wind River Cloud Platform)’ 및 엔터프라이즈 리눅스인 ‘eLxr Pro’를 블랙박스의 글로벌 통합 역량 및 고객 중심 접근 방식을 결합함으로써, 디지털 인프라 전환을 가속하고 운영을 현대화하고자 하는 엔터프라이즈 고객들을 폭넓게 지원한다는 계획이다. 윈드리버 클라우드 플랫폼은 가상화 및 컨테이너화된 애플리케이션을 위한 실제 운영 수준의(production-grade) 분산형 쿠버네티스 설루션으로, 오케스트레이션, 자동화 및 분석 툴을 통해 시간을 절감할 수 있도록 돕는다. 미션 크리티컬한 환경에서 복잡한 클라우드 아키텍처를 배포하고 관리할 수 있게끔 설계된 점이 특징이다. 오픈 소스이며 엔터프라이즈급 데비안(Debian)의 파생 프로젝트인 eLxr 프로젝트를 기반으로 하는 ‘eLxr Pro’는 커뮤니티 배포판에 커머셜 엔터프라이즈 지원 및 유지 보수를 추가함으로써, 기업에서는 확장 가능하고 안전하며 신뢰성이 높은 리눅스 설루션을 채택하고, 클라우드 투 에지 배포의 복잡한 과제를 해결하도록 지원한다. 양사의 이번 전략적 파트너십은 ▲통합된 인텔리전트 에지, 강력한 디지털 및 클라우드 네이티브 인프라 ▲안전하고 확장 가능한 프라이빗 클라우드 구축 ▲수명주기 자동화 및 중앙 집중식 오케스트레이션 ▲가상 머신 및 마이그레이션, 컨테이너, AI 워크로드 지원 ▲장기적인 지원 및 보안을 제공하는 엔터프라이즈급 리눅스 등과 같은 영역에 집중되어 있다. 이번 협력의 일환으로, 블랙박스는 윈드리버와 별도의 계약을 체결해 여러 지역에서 최종 고객과의 계약을 직접 수행할 예정이다. 윈드리버와 블랙박스는 기업 고객이 가진 고유한 운영 및 규제 요구 사항에 맞춰 탄력적인 고성능 디지털 인프라를 구축할 수 있도록 지원할 계획이다. 윈드리버의 대럴 조던 스미스(Darrell Jordan-Smith) 최고 매출 책임자는 “윈드리버 클라우드 플랫폼과 eLxr Pro는 오늘날 기업들이 요구하는 확장 가능하고 안전하며 효율적인 인프라를 제공하며, 블랙박스와의 협력을 통해 이러한 기능을 대규모로 구현할 수 있게 됐다”면서, “이번 파트너십을 통해 고객은 신뢰할 수 있는 시스템 통합, 운영 지원, 배포 범위가 뒷받침되는 검증된 고성능 에지 및 클라우드 아키텍처를 더 빠르게 구현할 수 있다. 이를 통해 혁신을 가속화하고, 위험을 줄이며, 클라우드에서 에지를 잇는 전체 환경을 더 스마트하게 운영할 수 있다”고 말했다. 블랙박스의 산지브 베르마(Sanjeev Verma) 사장 겸 CEO는 “인텔리전트 에지를 위한 혁신적인 기술을 제공하는 윈드리버와 함께 통합 전문성을 결합하여 효율성을 높이고, 혁신을 앞당기며, 새로운 수익원을 창출하는데 유리한 입지를 확보하게 됐다. 블랙박스는 이번 파트너십을 통해 하이퍼컨버지드 및 에지 컴퓨팅에 진출함으로써 디지털 인프라 혁신의 선두에서 장기적인 가치를 창출하고자 한다”고 덧붙였다.
작성일 : 2025-10-20
델, 책상 위의 AI 시스템 ‘델 프로 맥스 위드 GB10’ 출시
델 테크놀로지스가 네트워크 연결 없이 데스크 환경에서 최대 2000억개 매개변수의 LLM(대규모 언어 모델)을 지원하는 AI 시스템 ‘델 프로 맥스 위드 GB10(Dell Pro Max with GB10)’을 출시한다고 밝혔다.  최근 생성형 AI의 패러다임이 인간의 개입 없이 여러 AI가 협력하고 자율적으로 의사결정을 내리는 ‘에이전틱 AI’로 전환되고 있다. AI 성능 향상을 위한 매개변수 증가와 멀티모달 AI 모델 개발이 가속화됨에 따라, AI 워크로드를 안전하고 비용 효율적으로 빠르게 처리할 수 있는 로컬 컴퓨팅 환경의 중요성이 커지고 있다. 새롭게 발표된 델 프로 맥스 위드 GB10은 엔비디아 GB10 그레이스 블랙웰(NVIDIA GB10 Grace Blackwell) 슈퍼칩을 탑재해 AI 개발을 위한 고성능을 제공한다. 최대 2000억개 매개변수의 LLM을 로컬 환경에서 직접 프로토타이핑, 미세조정, 추론까지 할 수 있다는 것이 특징이다. GB10 슈퍼칩은 20코어의 고성능 Arm 아키텍처를 탑재한 그레이스 CPU와 블랙웰 GPU를 결합해 최대 1페타플롭(1초당 1000조번 연산 처리)의 AI 연산 성능을 제공한다.     이 제품은 128GB LPDDR5x 통합 시스템 메모리를 제공하며, 2TB 및 4TB NVMe SSD 옵션을 선택할 수 있어 방대한 데이터 처리와 복잡한 AI 워크로드를 원활히 운영할 수 있다. 또한, TPM 2.0 보안과 안전한 샌드박스 환경 구축을 통해 중요한 기업 데이터를 안전하게 보호할 수 있다.  우분투 리눅스 기반의 엔비디아 DGX OS 및 AI 소프트웨어 스택을 탑재해 AI 개발자가 데스크톱과 데이터센터 환경을 자유롭게 넘나들며 워크로드를 구현할 수 있는 것 또한 특징이다. 초저지연 네트워킹을 지원하는 엔비디아 커넥트X-7(ConnectX-7)으로 델 프로 맥스 위드 GB10 두 대를 연결하면 최대 4000억 개 매개변수 모델도 원활히 처리 가능하다. 또한 ‘엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)’를 기반으로 데스크 환경에서의 프로토타입 제작부터 데이터 센터 배포까지 원활하게 확장할 수 있다. 엔비디아 쿠다(NVIDIA CUDA), 엔비디아 AI 워크벤치(NVIDIA AI Workbench) 및 주피터랩(JupyterLab)과 독커(Docker) 등이 기본 탑재되어 별도의 설치 과정 없이 개봉 즉시 AI 모델 개발과 테스트를 시작할 수 있다. 델은 델 프로 맥스 위드 GB10가 강력한 성능을 기반으로 AI 시대의 다양한 사용자에게 새로운 가능성을 제시한다고 전했다.. 대학 등 연구기관에서는 ‘라마 3.3 70B(Llama 3.3 70B)’와 같은 대규모 언어 모델을 해당 제품에서 직접 실행해 연구 속도를 획기적으로 높일 수 있다. 스타트업 등 중소규모 기업은 추론, 미세 조정, 프로토타이핑 등 AI 개발의 전 과정을 로컬 환경에서 수행하며 복잡한 인프라 구축 없이도 혁신을 빠르게 이어갈 수 있다. 헬스케어나 금융 서비스와 같이 민감한 데이터를 다루는 업계에서는 데이터를 외부로 반출하지 않고 고급 AI 모델을 안전하게 학습 및 운용하여 데이터 보안을 실현하고 리스크를 줄일 수 있다. 크리에이터와 개발자들은 엔터프라이즈급 컴퓨팅 파워를 활용해 외부 인프라 구축 등의 추가 비용 없이, 자신만의 작업 공간에서 비전 모델을 미세 조정하고, AI 기반 콘텐츠를 제작하는 창의적인 프로젝트를 손쉽게 구현할 수 있다. 델 프로 맥스 위드 GB10은 공기 흐름을 최적화한 섀시 디자인을 적용해 장시간 사용 시에도 온도와 소음을 효과적으로 제어하며 안정적인 성능을 유지한다. 델 프로 맥스 위드 GB10은 10월 16일에 출시될 예정이며, 최대 3년간의 델 지원 서비스(Dell Service & Support)가 제공된다. 한국 델 테크놀로지스 김경진 총괄사장은 “온프레미스 환경에서 AI를 구현하는 수요가 증가하는 가운데, 델 프로 맥스 위드 GB10은 엔비디아 GB10 슈퍼칩 기반의 강력한 성능으로 개인용 데스크 환경에서 AI 프로젝트를 실행할 수 있는 획기적인 설루션”이라면서, “델 테크놀로지스는 델 프로 맥스 라인업에 최신 AI 기술을 발빠르게 적용해 제품 포트폴리오를 지속적으로 확장하고 있고, 많은 기업이 보안이나 비용 등의 제약 없이 로컬에서 AI 혁신을 구현하도록 지원하고 있다”고 말했다.
작성일 : 2025-10-14
엔비디아, “새로운 오픈 모델과 시뮬레이션 라이브러리로 로보틱스 연구개발 가속화”
엔비디아가 오픈소스 뉴턴 물리 엔진(Newton Physics Engine)을 엔비디아 아이작 랩(NVIDIA Isaac Lab)에서 이용 가능하며, 로봇 기술을 위한 엔비디아 아이작 GR00T N1.6 추론 비전 언어 행동(vision language action : VLA) 모델과 새로운 AI 인프라를 함께 제공한다고 발표했다. 이들 기술은 개발자와 연구자에게 개방형 가속 로보틱스 플랫폼을 제공해 반복 작업을 가속화하고, 테스트를 표준화하며, 로봇의 추론과 훈련 통합을 지원한다. 아울러 로봇이 시뮬레이션에서 실제 환경으로 안전하고 안정적으로 기술을 이전할 수 있도록 돕는다. 로봇은 시뮬레이션 환경에서 더 빠르고 안전하게 학습할 수 있지만, 복잡한 관절, 균형, 움직임을 가진 휴머노이드 로봇은 오늘날 기존 물리 엔진의 한계를 시험한다. 전 세계 25만 명 이상의 로보틱스 개발자들은 정확한 물리 엔진을 필요로 하며, 이는 로봇이 시뮬레이션에서 학습한 기술을 현실 세계에서 안전하고 안정적으로 수행하기 위해 필수이다. 엔비디아는 리눅스 재단이 관리하는 GPU 가속 오픈소스 물리 엔진 뉴턴의 베타 버전을 공개했다. 이는 엔비디아 워프(Warp)와 오픈USD(OpenUSD) 프레임워크 기반으로, 엔비디아와 구글 딥마인드, 디즈니 리서치가 공동 개발했다. 뉴턴은 유연한 설계 및 다양한 물리 솔버와의 호환성을 갖췄다. 이를 통해 개발자가 눈이나 자갈 위를 걷거나, 컵과 과일을 다루는 등 매우 복잡한 로봇 동작을 시뮬레이션하고 이를 현실 세계에 성공적으로 적용할 수 있도록 지원한다.     휴머노이드가 물리적 환경에서 인간과 유사한 작업을 수행하기 위해서는 모호한 지시를 이해하고 이전에 경험하지 못한 상황에 대처할 수 있어야 한다. 곧 허깅 페이스에서 공개될 오픈소스 아이작 GR00T N1.6 로봇 파운데이션 모델의 최신 버전에는 피지컬 AI를 위해 개발된 오픈 맞춤형 추론 비전 언어 모델(VLM)인 엔비디아 코스모스 리즌(Cosmos Reason)이 통합될 예정이다. 코스모스 리즌은 로봇이 심층 사고를 하는 두뇌 역할을 담당하며 기존의 지식, 상식, 물리학을 활용해 모호한 지시를 단계별 계획으로 전환하고, 새로운 상황을 처리하며, 다양한 작업에 걸쳐 일반화할 수 있도록 한다. 코스모스 리즌은 현재 피지컬 리즈닝 리더보드(Physical Reasoning Leaderboard) 1위를 차지하고 있으며, 100만 회 이상 다운로드를 기록했다. 또한, 모델 훈련을 위한 대규모 실제 데이터, 합성 데이터를 선별하고 주석을 달 수 있다. 코스모스 리즌 1은 NIM에서 제공되며, 사용하기 쉬운 마이크로서비스 형태로 AI 모델 배포를 지원한다.  아이작 GR00T N1.6은 휴머노이드가 물체를 동시에 이동하고 조작할 수 있도록 해 상체와 팔의 자유도를 넓히고, 무거운 문을 여는 것과 같은 까다로운 작업을 수행할 수 있도록 한다. 개발자는 허깅 페이스의 오픈소스 엔비디아 피지컬 AI 데이터세트(Physical AI Dataset)를 사용해 아이작 GR00T N 모델을 사후 훈련할 수 있다. 이 데이터세트는 480만 회 이상 다운로드됐으며, 현재 수천 개의 합성 궤적과 실제 궤적 데이터를 포함한다. 또한, 엔비디아는 오픈소스 코스모스 월드 파운데이션 모델(WFM)의 신규 업데이트를 발표했다. 300만 회 이상 다운로드된 이 모델은 개발자가 텍스트, 이미지, 영상 프롬프트를 활용해 대규모로 피지컬AI 모델 훈련을 가속화할 수 있는 다양한 데이터 생성을 지원한다. 코스모스 프리딕트(Cosmos Predict) 2.5는 곧 출시될 예정이며, 세 가지 코스모스 WFM의 성능을 하나의 강력한 모델로 통합해 복잡성을 줄이고, 시간을 절약하며, 효율을 높인다. 또한 최대 30초의 긴 동영상 생성, 다중 뷰 카메라 출력을 지원해 더욱 풍부한 세계 시뮬레이션을 구현한다. 코스모스 트랜스퍼(Cosmos Transfer) 2.5는 곧 출시될 예정이며, 기존 모델 대비 3.5배 작으면서도 더 빠르고 높은 품질의 결과를 제공한다. 이제 사실적인 합성 데이터를 생성할 수 있으며, 그라운드 트루스(ground-truth) 3D 시뮬레이션 장면, 깊이, 세분화, 에지, 고해상도 지도와 같은 공간 제어 입력값을 활용할 수 있다.   로봇에게 물체를 잡는 법을 학습시키는 것은 로보틱스에서 가장 어려운 과제 중 하나다. 파지는 단순히 팔을 움직이는 것이 아니라 생각을 정밀한 동작으로 전환하는 것으로, 로봇이 시행착오를 통해 학습해야 하는 기술이다. 엔비디아 옴니버스(Omniverse) 플랫폼 기반의 아이작 랩 2.3 개발자 프리뷰의 새로운 정밀 파지(dexterous grasping) 워크플로는 다관절 손과 팔을 가진 로봇을 가상 환경에서 자동화된 커리큘럼으로 훈련시킨다. 이 과정은 간단한 작업부터 시작해 점차 복잡성을 높여간다. 해당 워크플로는 중력, 마찰, 물체의 무게 등 요소를 변경해 로봇이 예측 불가능한 환경에서도 기술을 습득하도록 훈련시킨다. 컵을 집거나 방을 가로질러 걷는 것과 같이 새로운 기술을 로봇에게 숙달시키는 것은 매우 어렵다. 또한, 이러한 기술을 실제 로봇에서 테스트하는 과정은 시간과 비용이 많이 요구된다. 이러한 어려움을 해결할 수 있는 방법은 시뮬레이션이다. 시뮬레이션은 로봇이 학습한 기술을 무수한 시나리오, 작업, 환경에서 테스트할 수 있는 방법을 제공한다. 그러나 개발자들은 시뮬레이션 환경에서도 현실 세계를 반영하지 못하고 단편적이고 단순화된 테스트를 구축하는 경우가 많다. 완벽하고 단순한 시뮬레이션 환경에서 학습한 로봇은 현실 세계의 복잡성에 직면하는 순간 실패할 가능성이 크다. 엔비디아와 라이트휠은 개발자가 시스템을 처음부터 구축하지 않고도 시뮬레이션 환경에서 복잡한 대규모 평가를 실행할 수 있는 오픈소스 정책 평가 프레임워크인 아이작 랩-아레나(Arena) 공동 개발 중이다. 이 프레임워크는 확장 가능한 실험과 표준화된 테스트를 지원하며 곧 공개될 예정이다. 엔비디아는 개발자들이 이러한 첨단 기술과 소프트웨어 라이브러리를 최대한 활용할 수 있도록, 까다로운 워크로드를 위해 설계된 AI 인프라를 발표했다. 엔비디아 GB200 NVL72는 엔비디아 그레이스(Grace) CPU 36개와 엔비디아 블랙웰(Blackwell) GPU 72개를 통합한 랙 규모 시스템으로, 주요 클라우드 공급업체들이 채택해 복잡한 추론과 피지컬 AI 작업을 포함한 AI 훈련과 추론을 가속화하고 있다. 엔비디아 RTX 프로 서버(RTX PRO Servers)는 훈련, 합성 데이터 생성, 로봇 학습, 시뮬레이션 전반의 모든 로봇 개발 워크로드를 위한 단일 아키텍처를 제공하며, RAI 연구소(RAI Institute)에서 도입 중이다. 블랙웰 GPU로 구동되는 엔비디아 젯슨 토르(Jetson Thor)는 로봇이 실시간 지능형 상호작용을 위한 다중 AI 워크플로 실행을 지원한다. 또한 실시간 로봇 추론으로 휴머노이드 로보틱스 전반에서 고성능 피지컬 AI 워크로드와 애플리케이션의 돌파구를 마련한다. 젯슨 토르는 피규어 AI, 갤봇(Galbot), 구글 딥마인드, 멘티 로보틱스, 메타(Meta), 스킬드 AI, 유니트리(Unitree) 등 파트너사에 도입 중이다. 엔비디아의 레브 레바레디언(Rev Lebaredian) 옴니버스, 시뮬레이션 기술 부문 부사장은 “휴머노이드는 피지컬 AI의 차세대 영역으로, 예측 불가능한 세상에서 추론하고, 적응하며, 안전하게 행동하는 능력이 필요하다. 이번 업데이트로 개발자들은 로봇을 연구 단계에서 일상 생활로 가져오기 위한 세 가지 컴퓨터를 갖게 됐다. 아이작 GR00T가 로봇의 두뇌 역할을 하고, 뉴턴이 신체를 시뮬레이션하며, 엔비디아 옴니버스가 훈련장이 된다”고 말했다.
작성일 : 2025-09-30
인텔, 아크 프로 B-시리즈 GPU 및 제온 6 프로세서의 AI 추론 벤치마크 결과 소개
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.1 벤치마크에서 P코어를 탑재한 인텔 제온(Intel Xeon) 및 인텔 아크 프로 B60(Intel Arc Pro B60) 그래픽으로 구성된 인텔 GPU 시스템(코드명 프로젝트 배틀매트릭스)의 추론용 워크스테이션이 달성한 결과를 공개했다. 6가지 주요 벤치마크 테스트 결과, 라마(Llama)4 80B 모델 추론 처리량에서 인텔 아크 프로 B60은 엔비디아 RTX 프로 6000 및 L40S에 비해 각각 최대 1.25배 및 최대 4배의 가격 대비 성능 우위를 보였다. 인텔은 “이는 하이엔드 워크스테이션 및 에지 애플리케이션 전반에 걸쳐 새로운 AI 추론 워크로드를 처리하는 인텔 기반 플랫폼의 성능과 접근 우수성을 보여주는 결과”라고 평가했다. 인텔의 리사 피어스(Lisa Pearce) 소프트웨어, GPU 및 NPU IP 그룹 총괄은 “MLPerf v5.1 벤치마크 결과는 인텔의 GPU 및 AI 전략을 강력히 입증하고 있다. 새로운 추론 최적화 소프트웨어 스택을 탑재한 아크 프로 B-시리즈 GPU는 기업과 개발자가 강력하면서도 설정하기 쉽고, 합리적인 가격에 확장 가능한 추론 워크스테이션으로 AI 분야에서 경쟁력을 높여준다”고 밝혔다.     이전까지는 높은 추론 성능을 제공하면서 데이터 프라이버시 침해에서 자유로운 플랫폼을 우선시하는 전문가들이 독점적인 AI 모델에 의한 과도한 구독 비용 부담 없이 LLM(대형 언어 모델)을 배포하기에 필요한 역량을 갖추기 위한 선택지가 제한적이었다. 새로운 인텔 GPU 시스템은 최신 AI 추론 요구사항을 충족하도록 설계되었으며, 풀스택 하드웨어와 소프트웨어를 결합한 올인원(all-in-one) 추론 플랫폼을 제공한다. 인텔 GPU 시스템은 리눅스 환경을 위한 새로운 컨테이너 기반 설루션을 통해 간소화된 도입과 사용 편의성을 목표로 한다. 또한 멀티 GPU 스케일링 및 PCle P2P 데이터 전송으로 높은 추론 성능을 발휘하도록 최적화되었으며, ECC, SRIOV, 텔레메트리(telemetry) 및 원격 펌웨어 업데이트 등과 같은 엔터프라이즈급 안전성 및 관리 용이성을 갖추고 있다. CPU는 AI 시스템에서 계속해서 중요한 역할을 수행하고 있다. 오케스트레이션 허브로서 CPU는 데이터 전처리, 전송 및 전반적인 시스템 조율을 담당한다. 지난 4년간 인텔은 CPU 기반 AI 성능을 지속적으로 향상시켜왔다. P 코어를 탑재한 인텔 제온 6는 MLPerf 추론 v5.1에서 이전 세대 대비 1.9배의 성능 향상을 달성했다.
작성일 : 2025-09-10
한국IBM, 보안 간담회 개최…“정교해지는 보안 위협, 통합적 대응 전략 필요”
한국IBM은 8월 21일 여의도 국제금융센터 본사에서 '변화하는 보안 위협과 기업 대응 방안'을 주제로 보안 간담회를 열고, 최근 보안 위협의 심각성과 대응 전략을 공유했다. 이날 IBM은 단순한 기술적 문제를 넘어, 기업 생존과 직결되는 보안 환경 변화에 대응하기 위해 AI 기반의 탐지·분석, 자동화, 제로트러스트 원칙을 포함한 종합적인 보안 전략이 필요하다고 강조했다. 한국IBM 최고기술책임자(CTO) 이지은 전무   이번 간담회에서 한국IBM 최고기술책임자(CTO) 이지은 전무는 “최근 랜섬웨어를 비롯한 보안 위협이 갈수록 정교해지고 있다”며, “단순히 보안 솔루션 도입에 그치지 않고 전략적·통합적 접근이 필수적”이라고 설명했다. 실제로 IBM 조사에 따르면, 글로벌 기업의 평균 데이터 유출 비용은 5년 만에 44억4천만 달러(약 6.1조 원)에서 5억 달러 이상 증가했으며, 탐지·대응까지 걸리는 시간도 여전히 길게 나타났다. IBM은 특히 랜섬웨어가 대기업뿐 아니라 중견기업, 공급망, 클라우드 환경까지 확산하고 있으며, 피싱·페이로드·데이터 절취 등 다단계 공격 방식이 고도화되고 있다고 지적했다. 이에 대응하기 위해 IBM은 시스템, 애플리케이션, 데이터 보호까지 아우르는 통합 보안 플랫폼을 제공하고 있다. 김경용 한국IBM 파워 사업 총괄 상무   김경용 한국IBM 파워 사업 총괄 상무는 “전략적 인프라 설계는 보안의 핵심”이라며, “특히 미션크리티컬한 업무 환경에서 유닉스 기반의 AIX 운영체제는 일반 리눅스 대비 강력한 보안·통합 관리 기능을 제공한다”고 강조했다. 지난 7월 출시된 IBM 파워11 서버는 스토리지·소프트웨어·랜섬웨어 대응을 포함한 사이버 볼트 솔루션을 통해 1분 이내에 공격 위협을 탐지할 수 있다. 또한 IBM은 향후 도래할 양자컴퓨팅 시대의 보안 위협에도 대비하고 있다. 김 상무는 “IBM 파워11은 양자내성암호 기술을 탑재해 미래형 보안 시나리오에도 대응할 수 있도록 설계됐다”고 설명했다. IBM 소프트웨어 사업 총괄 김진효 상무   한편, IBM 소프트웨어 사업 총괄 김진효 상무는 “제로트러스트 원칙을 기반으로 사용자 인증, 접근 제어, 위협 탐지, 자동화 대응을 아우르는 통합 보안 아키텍처의 중요성”에 대해 강조했다. 이를 위해 "IBM은 Verify, Guardium, HashiCorp Vault 등 핵심 보안 플랫폼을 통해 내부 위협까지 효과적으로 대응할 수 있도록 지원하고 있다”고 설명했다.
작성일 : 2025-08-21
IBM, AI 및 보안 기술 제공하는 차세대 리눅스 플랫폼 ‘IBM 리눅스원 5’ 공개
IBM이 차세대 리눅스 컴퓨팅 플랫폼인 IBM 리눅스원 5(IBM LinuxONE 5)를 공개했다. 이 플랫폼은 데이터, 애플리케이션, 그리고 인공지능(AI)을 위한 고성능 리눅스 환경을 제공하며, AI 가속 기능이 내장된 IBM 텔럼 II 프로세서(IBM Telum)로 구동된다. IBM은 이번 신제품이 기업의 보안 강화, 비용 효율성 개선, AI의 엔터프라이즈 시스템 통합에 대한 해법을 제시할 것으로 기대하고 있다. IBM 리눅스원 5는 IBM의 사이버보안과 개인정보 보호 접근 방식을 전반적으로 확장해, 제로 트러스트(Zero Trust) 원칙을 한층 강화했다. 이를 통해 고객이 복잡한 규정을 준수하는 과정을 간소화할 수 있도록 지원한다. 기밀 컴퓨팅, 고성능 암호화 대역폭, 미국 국립표준기술연구소(NIST)의 양자내성 암호 알고리즘, 그리고 최첨단 하드웨어 보안 모듈을 통해 워크로드와 데이터를 종합적으로 보호하는 데 중점을 두고 있다. IBM은 이러한 보안 기능이 AI 모델과 민감한 데이터를 보호하는 데 중요한 역할을 할 것으로 기대하고 있다. 특히 레드햇 오픈시프트(Red Hat OpenShift) 컨테이너 플랫폼을 활용한 기밀 컨테이너는 AI를 포함한 다양한 데이터 활용 시나리오에서 데이터를 안전하게 보호하는 데 기여한다. IBM 볼트 셀프 매니지드(IBM Vault Self-Managed)와의 통합을 통해 하이브리드 환경 전반에서 강력한 보안 설루션을 제공하며, 비밀 관리 기능을 강화하도록 설계됐다.     비용 절감 측면에서 IBM 리눅스원 5는 여러 서버에 분산된 워크로드를 단일 고용량 시스템으로 통합함으로써, 운영 복잡성을 줄이고 IT 인프라를 최적화할 수 있다. 클라우드 네이티브 및 컨테이너화된 워크로드를 x86 기반 설루션에서 IBM 리눅스원 5로 이전하면 5년 동안 총 소유 비용을 최대 44%까지 절감할 수 있다는 분석도 있다. 이는 데이터센터 운영 효율을 높이는 데 기여한다. 가용성 측면에서는 99.999999%의 안정성을 발휘하도록 설계되어 비즈니스 연속성을 지원하고 운영 위험을 줄일 수 있다. “데이터 집약적이고 AI를 활용하는 비즈니스의 증가하는 워크로드 수요를 충족하는 데도 적합한 기술”이라는 것이 IBM의 설명이다. 이번 플랫폼의 핵심 기술은 IBM 텔럼 II 프로세서다. 2세대 온칩 AI 가속기를 포함한 텔럼 II는 실시간 대량 거래 처리에서 예측 AI와 대규모 언어 모델(LLM)을 더 높은 정밀도와 정확도로 확장할 수 있도록 설계됐다. 여기에 IBM 스파이어 가속기(IBM Spyre Accelerator)가 2025년 4분기부터 지원될 예정으로, 생성형 AI 기능을 추가해 텔럼 II 프로세서를 보완할 예정이다. 이러한 기술은 사기 탐지, 이미지 처리, 리테일 자동화 등 다양한 산업 사례에서 활용될 수 있도록 설계됐다. IBM 리눅스원은 탄탄한 생태계를 기반으로 하고 있다. 독립 소프트웨어 벤더(ISV)는 리눅스원의 AI와 암호화 기능을 활용해 맞춤형 설루션을 제공하며, 오픈소스 커뮤니티는 유연하고 확장 가능한 도구를 통해 통합을 지원한다. IBM 리눅스원은 우분투(Ubuntu), 수세(SUSE) 등과 협력해 다양한 리눅스 배포판을 지원하고 있다.
작성일 : 2025-05-29
레드햇, “모델/AI 가속기/클라우드 전반에 걸쳐 엔터프라이즈 AI 배포 가속화 지원”
레드햇은 레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server), 레드햇 AI 서드파티 검증 모델 및 라마 스택(Llama Stack)과 모델 컨텍스트 프로토콜(Model Context Protocol, 이하 MCP) API의 통합 그리고 엔터프라이즈 AI 포트폴리오 전반에 걸친 주요 업데이트를 통해 엔터프라이즈 AI에서 고객 선택권을 지속적으로 확대한다고 발표했다. 이러한 개발을 통해 레드햇은 조직이 AI 도입을 가속화하는 데 필요한 역량을 더욱 강화하는 동시에 하이브리드 클라우드 환경 전반에서 생성형 AI 제품 배포에 있어 고객에게 더 많은 선택과 신뢰를 제공한다. 포레스터(Forrester)에 따르면 오픈소스 소프트웨어는 기업 AI 활동을 가속화하는 촉매제가 될 것이다. AI 환경이 점점 더 복잡하고 역동적으로 성장함에 따라 레드햇 AI 인퍼런스 서버 및 서드파티 검증 모델은 효율적인 모델 추론과 레드햇 AI 플랫폼의 성능에 최적화된 검증 AI 모델 컬렉션을 제공한다. 레드햇은 라마 스택 및 MCP를 비롯한 생성형 AI 에이전트 개발을 위한 신규 API 통합을 더해 배포 복잡성을 해결하고 높은 제어력과 효율성으로 AI 이니셔티브를 가속화할 수 있도록 지원한다. 레드햇은 AI 포트폴리오에 새로운 레드햇 AI 인퍼런스 서버가 포함되면서, 하이브리드 클라우드 환경 전반에서 더 빠르고 일관되며 비용 효율적인 추론을 대규모로 제공할 것으로 보고 있다. 이 핵심 기능은 레드햇 오픈시프트 AI(Red Hat OpenShift AI) 및 레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI, 이하 RHEL AI)의 최신 출시에 통합되었으며, 독립형 설루션으로도 제공되어 지능형 애플리케이션을 더 효율적이고 유연하며 높은 성능으로 배포할 수 있다. 허깅페이스(Hugging Face)에서 제공되는 레드햇 AI 서드파티 검증 모델은 기업이 특정 요구사항에 적합한 모델을 쉽게 찾을 수 있도록 지원한다. 레드햇 AI는 검증된 모델 컬렉션과 배포 가이드를 제공해 모델 성능 및 결과 재현성(reproducibility)에 대한 고객 신뢰를 높인다. 레드햇으로 최적화된 일부 모델은 모델 압축 기술을 활용해 크기를 줄이고 추론 속도를 높여 자원 소비와 운영 비용을 최소화한다.  레드햇 AI는 메타(Meta)가 처음 개발한 라마 스택과 앤트로픽(Anthropic)의 MCP를 통합해 사용자에게 AI 애플리케이션 및 에이전트 구축과 배포를 위한 표준화된 API를 제공한다. 현재 레드햇 AI에서 개발자 프리뷰로 제공되는 라마 스택은 모든 생성형 AI 모델 전반에서 vLLM 추론, 검색 증강 생성(RAG), 모델 평가, 가드레일 및 에이전트 기능에 액세스할 수 있는 통합 API를 제공한다. MCP는 API, 플러그인, 데이터 소스를 연결하는 표준 인터페이스를 제공함으로써 에이전트 워크플로에서 외부 도구와의 통합을 지원한다. 레드햇 오픈시프트 AI(v2.20)의 최신 버전은 ▲최적화된 모델 카탈로그 ▲쿠브플로우 트레이닝 오퍼레이터(KubeFlow Training Operator) 기반의 분산 학습 ▲기능 저장소(Feature store) 등 생성형 AI 및 예측형 AI 모델을 대규모로 구축, 학습, 배포, 모니터링할 수 있는 추가 기능을 포함한다.  또한, RHEL AI 1.5는 레드햇의 기본 모델 플랫폼에 새로운 업데이트를 제공함으로써 대규모 언어 모델(LLM)의 개발, 테스트 및 실행을 지원한다. RHEL AI 1.5의 주요 기능은 ▲구글 클라우드 마켓플레이스(Google Cloud Marketplace) 가용성 제공 ▲스페인어, 독일어, 프랑스어 및 이탈리아어를 위한 향상된 다국어 기능 제공 등이다.   래드햇 AI 인스트럭트랩 온 IBM 클라우드(Red Hat AI InstructLab on IBM Cloud)서비스도 출시됐다. 이 신규 클라우드 서비스는 모델 맞춤화 과정을 더욱 간소화하여 확장성과 사용자 경험을 개선하며 기업이 고유한 데이터를 더 쉽고 높은 수준의 제어하에 활용할 수 있도록 지원한다.
작성일 : 2025-05-26
AMD, 컴퓨텍스 2025에서 새로운 라데온 그래픽카드 및 라이젠 스레드리퍼 프로세서 공개
AMD는 컴퓨텍스 2025에서 라데온(Radeon) RX 9060 XT 및 라데온 AI 프로(Pro) R9700 그래픽 카드와 라이젠 스레드리퍼(Ryzen Threadripper) 9000 시리즈 프로세서를 출시하며 고성능 컴퓨팅 분야의 새로운 혁신을 공개했다. 게이밍, 콘텐츠 제작, 전문 산업 및 AI 개발 분야 등 까다로운 워크로드에 대처하도록 설계된 신제품을 통해 AMD는 보다 혁신적인 컴퓨팅 경험을 제공할 예정이다.   ▲ AMD 라데온 RX 9060 XT   새로운 라데온 RX 9060 XT GPU는 고급 AMD RDNA 4 아키텍처를 기반으로 한다. 머신러닝을 통해 향상된 화질과 프레임을 제공하는 FSR 4 업스케일링, 레이 트레이싱 가속을 통해 더욱 부드럽고 반응성 높은 1440p 해상도 게이밍 경험을 제공한다. 새로운 그래픽 카드 제품은 게임 속 세상을 구현하고, 픽셀을 통해 스토리를 전달하고, 여러 영역에서 향상된 경험을 제공할 수 있도록 높은 성능과 인텔리전스를 제공한다. 1440p 해상도에서 매우 부드러운 게이밍 성능을 제공하는 데에 초점을 맞춘 라데온 RX 9060 XT는 더 나은 경험을 기대하는 게이머들에게 최적의 환경을 제공한다. 최대 16GB의 GDDR6 메모리와 32개의 AMD RDNA 4 컴퓨트 유닛을 갖춘 이 GPU는 이전 세대에 비해 레이 트레이싱 처리량이 두 배로 늘어 가상세계의 조명, 그림자, 반사를 더욱 실제처럼 구현해 낸다. 2세대 AI 가속기는 머신러닝을 사용하여 가장 까다로운 렌더링 조건에서도 프레임 속도와 이미지 품질을 높이는 FSR 4(FidelityFX Super Resolution 4)를 지원한다. HYPR-RX는 ‘라데온 슈퍼 해상도(Radeon Super Resolution)’ 및 ‘플루이드 모션 프레임(Fluid Motion Frames)’를 포함한 완벽한 최적화 세트를 통해 더욱 높은 응답 속도와 깊은 몰입감을 제공하는 동시에 끊김없는 매끄러운 화면을 만들어낸다. 또한 RX 9060 XT는 FP8 데이터 유형 및 구조화된 희소성(structured sparsity)에 대한 지원으로 차세대 AI 기반 게임 플레이, 크리에이티브 도구 및 생성 경험을 위한 최적의 성능을 발휘한다. AMD 라데온 RX 9060 XT 그래픽 카드는 에이서, 애즈락, 에이수스, 기가바이트, 파워컬러, 사파이어, 바스타머, XFX, 예스톤 등 주요 보드 파트너를 통해 6월 5일 출시(북미 시각 기준)될 예정이다. AMD 라데온 RX 9060 XT 8GB와 AMD 라데온 RX 9060 XT 16GB의 권장 소비자 가격은 각각 미화 299달러, 349달러이다.   ▲ AMD 라데온 AI 프로 R9700   이와 함께, AMD는 라데온 AI 프로 R9700도 발표했다. 이 새로운 GPU는 2세대 AMD AI 가속기를 품은 AMD RDNA 4 아키텍처를 기반으로 설계됐다. 32GB의 그래픽 메모리와 PCIe 젠 5(Gen 5) 지원을 통해 로컬 AI 추론, 머신러닝 모델 파인 튜닝 및 복잡한 크리에이티브 워크로드를 처리할 수 있도록 설계되었다. 다중 GPU 시스템을 통한 확장성도 제공한다. 개발을 추진하는 전문가들은 AMD 라데온 AI 프로 R9700을 사용하여 로컬 추론, 모델 미세 조정 및 기타 데이터 집약적인 워크플로를 가속화할 수 있다. 2세대 AI 가속기는 이전 세대 대비 최대 2배의 처리 성능을 갖추고 있다. R9700은 리눅스에서 ROCm 소프트웨어 스택을 지원하며 곧 배포될 윈도우용 ROCm을 통해 온디바이스 제어 및 플랫폼 유연성을 갖춘 고성능 AI 환경을 제공한다. 라데온 AI 프로 R9700은 다중 GPU 구성에서 효과적으로 확장 가능하며, 대규모 모델 및 병렬 연산 작업을 위한 메모리 및 컴퓨팅 용량 증설에도 유리하다. 이런 유연성은 복잡한 시뮬레이션, 실시간 렌더링 또는 동시 AI 워크로드를 처리하는 고급 워크스테이션에 적합하다. 새로운 라데온 AI 프로 R9700은 2025년 7월부터 주요 보드 파트너를 통해 출시될 예정이다.   ▲ AMD 라이젠 스레드리퍼 9000 시리즈   AMD는 라이젠 스레드리퍼 프로 9000 WX-시리즈 및 라이젠 스레드리퍼 9000 시리즈 프로세서도 함께 공개했다. 전문가 및 매니아 층을 겨냥한 데스크톱 PC용으로 개발된 이 제품군은 막대한 코어 수와 메모리 대역폭을 탑재하고 있으며 차세대 플랫폼을 지원한다. 이 프로세서 시리즈는 영화 VFX 렌더링이나, 현실의 물리 현상을 시뮬레이션하는 작업, 수십억 개의 매개변수로 구성된 AI 모델의 파인 튜닝에 이르기까지 어떤 작업에서든 병목 현상 없이 혁신을 가속화한다. 새로운 AMD 라이젠 스레드리퍼 프로 9000 WX-시리즈 및 스레드리퍼 9000 시리즈 프로세서는 까다로운 멀티스레드 워크로드를 처리하고 전문가들이 복잡한 비전을 빠르게 실현할 수 있도록 지원하고자 개발되었다. 최상위 모델인 라이젠 스레드리퍼 프로 9995WX는 96코어 192스레드를 제공해 막대한 컴퓨팅 파워가 필요한 시각 효과, 시뮬레이션 및 AI 모델 개발에 적절하다. 최대 384MB의 L3 캐시와 128레인의 PCIe 5.0 연결성을 갖춘 이 프로세서 시리즈는 대규모 데이터 세트, 다중 GPU 워크로드 및 메모리 집약적인 애플리케이션도 빠르게 처리한다. 또한, 프로 제품군의 전 모델은 엔터프라이즈급 보안, 관리 용이성 및 플랫폼 안정성을 위한 AMD 프로 기술들을 탑재하고 있어 IT 운영을 간소화하는 데 도움을 준다. 라이젠 스레드리퍼 9000 시리즈는 하이엔드 데스크톱(HEDT) 플랫폼에서 워크스테이션급 컴퓨팅을 요구하는 매니아 및 크리에이터를 위한 고성능 프로세서다. 라이젠 스레드리퍼 9000 시리즈는 최대 64코어를 제공해 클라우드에 의존할 필요 없이 효율적인 콘텐츠 제작, 빠른 컴파일링 및 로컬 AI 학습을 지원하고 비용, 지연 시간을 줄이면서도 개인 정보를 더욱 안전하게 보호할 수 있는 환경을 제공한다. AMD 라이젠 스레드리퍼 프로 9000 WX-시리즈 프로세서는 2025년 말부터 델, HP, 레노버 및 슈퍼마이크로를 통해 출시될 예정이다. AMD 라이젠 스레드리퍼 9000 시리즈 프로세서를 탑재한 하이엔드 데스크톱 플랫폼과 DIY 라이젠 스레드리퍼 9000 시리즈 및 일부 라이젠 스레드리퍼 프로 9000 WX-시리즈 프로세서는 7월부터 일반 판매업체에서 구입할 수 있다. AMD의 컴퓨팅 및 그래픽 그룹 총괄 책임자인 잭 후인(Jack Huynh) 수석 부사장은 “이번 발표는 제품 포트폴리오 전반에 걸쳐 업계 최고의 혁신을 지속 제공하겠다는 우리의 비전을 다시 한 번 강조한다.”고 말했다. 이어 그는 “라데온 RX 9060 XT와 라데온 AI 프로 R9700은 RDNA 4의 성능과 AI 기능을 전 세계 워크스테이션 및 게이머에게 제공하며, 새로운 라이젠 스레드리퍼 9000 시리즈는 하이엔드 데스크톱 및 전문가용 워크스테이션의 새로운 표준이 될 것이다.  이 새로운 설루션에는 크리에이터, 게이머, 전문가에게 성능과 효율성을 제공하여 한계를 뛰어넘고 창의성을 높일 수 있도록 지원하고자 하는 AMD의 비전이 잘 담겨 있다”고 강조했다.
작성일 : 2025-05-21
AWS, AI 기반 마이그레이션 서비스 ‘AWS 트랜스폼’ 출시
아마존웹서비스(AWS)가 기업의 마이그레이션 및 현대화 프로젝트를 가속화하기 위한 AI 기반 서비스인 AWS 트랜스폼(AWS Transform)을 출시했다. AWS 트랜스폼은 지난 AWS 리인벤트 2024에서 아마존 Q 디벨로퍼(Amazon Q Developer)의 변환 기능 중 하나로 선공개된 AI 기반 설루션이다. 이 설루션은 기업의 VM웨어, 메인프레임, 닷넷 워크로드와 관련된 현대화 작업을 자동화하고 복잡한 마이그레이션 작업을 간소화하여, 기존 방식 대비 최대 4배 빠르게 프로젝트를 완료할 수 있도록 지원한다. 또한, 기반 모델, 대규모 언어 모델(LLM), 머신러닝, 그래프 신경망, 자동화 추론 등 AWS의 AI 기술 인프라를 활용하여 기존 인프라, 애플리케이션, 코드 현대화 과정에서의 복잡성과 부담을 줄여준다. 또한 전문적인 트랜스포메이션 어시스턴트 역할을 하는 채팅 기반의 경험을 제공하여 목표 설정, 프로젝트 컨텍스트 공유, 비즈니스 계획 및 비용 절감 평가, 트랜스포메이션 계획 검토 및 조정, 코드 및 인프라 제안 검토 및 승인 등을 지원한다. 뿐만 아니라 통합 웹 환경에서 여러 부서의 팀들이 함께 작업을 검토하고, 진행 상황을 추적하며, 프로젝트 전반에 걸쳐 협업할 수 있게 함으로써 가장 복잡한 레거시 애플리케이션에 대한 트랜스포메이션 계획을 제어할 수 있도록 지원한다. AWS는 닷넷을 위한 AWS 트랜스폼 에이전트가 윈도우에서 리눅스로 닷넷 프레임워크(.NET Framework) 애플리케이션 포팅(porting)을 가속화하여 운영 비용을 최대 40%까지 절감한다고 소개했다. 이러한 비용 절감은 윈도우 서버 라이선싱 비용, 버전 업그레이드, 유지보수 및 지원 종료 문제를 줄이는 동시에 분석, 계획 및 리팩토링 전반에 걸친 트랜스포메이션 비용을 절감함으로써 이루어진다. 닷넷 에이전트(.NET Agent)를 통해 자연어로 채팅하여 트랜스포메이션 목표와 프로젝트 컨텍스트를 공유할 수 있으며, AWS 트랜스폼이 종속성을 분석하고, 과거 현대화 여정의 영역별 전문 지식을 적용하여 맞춤형 현대화 계획을 개발할 수 있다. 또한 자율적으로 코드를 변환하고, 단위 테스트를 실행하고, 트랜스포메이션 요약을 생성하며, 리눅스 환경에서 실행 가능한 상태로의 준비 여부를 검증할 수 있다. AWS 트랜스폼은 닷넷 프레임워크 애플리케이션 코드를 리눅스 환경에서 실행 가능한 상태로 준비된 크로스 플랫폼 닷넷으로 변환하고, 사설 패키지를 포팅하고, 단위 테스트 실행을 자동화한다. 또한 설명 가능한 변환 결정을 제공함으로써 애플리케이션의 성능과 확장성을 향상시킨다. 이 새로운 에이전트는 통합된 웹 경험을 통해 일관된 결과로 수백 개의 애플리케이션을 병렬로 변환시켜 팀 간의 협업을 간소화하고 대규모 현대화 프로젝트를 효율적으로 처리할 수 있도록 지원한다. AWS에 따르면, 메인프레임을 위한 AWS 트랜스폼 에이전트를 통해 전체 현대화 프로세스를 간소화하여 위험과 복잡성을 줄이면서 일정을 최대 50%까지 단축할 수 있다. 채팅 인터페이스를 통해 높은 수준의 현대화 목표를 정의하고 작업 계획을 협의할 수 있다. 준비가 되면 AWS 트랜스폼은 코볼(COBOL)과 JCL(Job Control Language)로 작성된 메인프레임 애플리케이션과 CICS(Customer Information Control System) 트랜잭션 관리자, BMS(Basic Mapping Support) 화면, DB2 데이터베이스, VSAM(Virtual Storage Access Method) 데이터 파일에 의존하는 애플리케이션을 처리한다. 종속성과 누락된 파일을 신속하게 식별하는 고급 코드 분석의 이점을 통해 하위 프로젝트 지연을 줄일 수 있다. 그래프 신경망을 사용하여 모놀리식(monolithic) 애플리케이션을 관리 가능한 모듈로 분해함으로써 중요한 비즈니스 로직을 보존하면서 타기팅된 현대화 접근 방식을 가능하게 한다. 프로젝트 전반에 걸쳐 AWS 트랜스폼은 AI 어시스턴트 역할을 하며, 진행 상황에서 학습하고 생성된 기술 문서를 기반으로 프로그램에 대한 질문에 답변한다. 애플리케이션을 리팩토링(refactoring)할 때, 향상된 정확도를 위해 상태 머신(state machines)과 상태 전이 그래프(state transition graphs)를 활용하여 코볼, JCL 및 DB2를 자바(Java)와 포스트그레(Postgres)로 변환할 수 있다. 애플리케이션을 재구상할 때는 수백만 줄의 코드에서 추출된 포괄적인 기술 문서, 비즈니스 규칙, 논리적 흐름을 얻을 수 있다. AI 에이전트의 지능형 오케스트레이션을 통해 상세한 문서로 기관 지식을 보존하면서 클라우드에서 메인프레임 애플리케이션을 더 빠르고, 단순하고, 안전하게 현대화할 수 있다. VM웨어를 위한 AWS 트랜스폼 에이전트는 인프라를 최적화하고 운영 오버헤드를 줄이면서 증가하는 VM웨어 라이선스 비용을 피할 수 있다. 채팅 인터페이스는 온프레미스 VM웨어 환경에 커넥터를 추가하거나 타사 도구에서 자산 인벤토리를 업로드하도록 안내한다. 목표를 지정한 후, 에이전트는 애플리케이션 검색, 종속성 매핑, 마이그레이션 계획, 네트워크 변환, 서버 마이그레이션 및 EC2 인스턴스 최적화와 같은 작업을 자동화한다. 사용자는 휴먼인더루프(human-in-the-loop) 메커니즘을 통해 아티팩트를 검토, 승인 및 편집할 수 있다. 그래프 신경망을 사용하여 네트워크 트래픽과 통신 패턴을 분석하여 종속성을 식별하고 최적의 마이그레이션 이행 계획(migration wave planning)을 자동으로 생성할 수 있다. VPC, 서브넷, 보안 그룹 및 트랜짓 게이트웨이를 포함한 복잡한 네트워크 구성을 AWS 클라우드 환경에 상응하는 구성요소로 변환할 수 있다. 또한 격리된 VPC 및 유연한 허브앤스포크(Hub-and-Spoke) 구성과 같은 향상된 기능을 통해 네트워크 마이그레이션 문제를 해결할 수 있다. 이를 통해 일반적으로 2주가 소요되던 전통적인 네트워크 구성 작업을, VM웨어를 위한 AWS 트랜스폼을 사용하면 1시간 안에 완료할 수 있으며, 일반적으로 몇 주의 분석이 필요한 마이그레이션 이행 계획을 15분 안에 완료할 수 있게 되었다.
작성일 : 2025-05-20