• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "레드햇"에 대한 통합 검색 내용이 219개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
레노버, “새로운 서비스·설루션·플랫폼으로 하이브리드 AI 확대”
레노버가 AI 시대를 맞아 기업의 IT 전환 가속화를 위해 ‘레노버 하이브리드 AI 어드밴티지(Lenovo Hybrid AI Advantage)’를 확장했다고 밝혔다. 이번 확장을 통해 레노버는 고성능 서버 기반의 가속 컴퓨팅, 네트워킹, 파트너 통합 기능을 갖춘 AI 인프라를 바탕으로 기업이 AI 팩토리를 구축·확장·운영할 수 있도록 지원하는 프레임워크를 제공한다. 새롭게 검증된 설루션과 서비스, 플랫폼은 기업이 모든 환경에 맞춰 적합한 AI를 보다 빠르게 배포할 수 있도록 지원하고 생산성, 민첩성, 신뢰성을 기반으로 한 비즈니스 가치 실현을 가능하게 한다. 레노버 하이브리드 AI 어드밴티지는 AI 인프라, 데이터, 모델, 서비스, 검증된 활용 사례를 통합해 기업이 조직 전반의 인력, 운영, 데이터에 AI를 적용할 수 있도록 지원한다. 레노버는 자사의 서비스를 기반으로 생성형 AI 도구 도입 프레임워크를 적용할 경우 생산성과 효율이 최대 31% 향상(주당 절감 시간 기준)될 수 있다고 설명했다. 레노버의 AI 도입 및 변화 관리 서비스(AI Adoption and Change Management Services)는 기업이 AI 수용 태세를 점검하고, 인력 역량을 강화하며, 참여도를 높이고, 페르소나 기반의 변화 관리와 모범 사례를 통해 기업 시스템에서 ROI를 극대화하도록 지원한다. 주요 서비스 항목으로는 ▲레노버 AI 인적 준비도 평가 ▲페르소나 기반 교육 및 참여 유도 ▲ 코파일럿 도입 지원 ▲AI 거버넌스 및 조직 문화 수용성 강화 등이다. 레노버 하이브리드 AI 어드밴티지는 기업이 AI 실험 단계를 넘어 조직 전반에 걸쳐 측정 가능한 성과를 달성할 수 있도록 지원한다. AI에 대한 기대와 실제 효과 사이의 격차를 줄이기 위해서는 주요 비즈니스 과제를 해결하고 기업 워크플로에 맞게 확장 가능한 신뢰도 높은 AI 애플리케이션이 필요하다. 레노버는 ISV와의 협력을 통해 검증된 레노버 AI 이노베이터 디자인 기반의 설루션을 제공해 기업이 손쉽게 설루션을 맞춤화하고 성능을 최적화할 수 있도록 지원한다고 밝혔다. 이 설루션들은 하이브리드 AI 플랫폼 환경에 최적화되어 실제 비즈니스 워크플로와 활용 사례를 구현할 수 있도록 설계됐다. 대표 설루션으로는 ▲센티픽(Centific) AI 데이터 파운드리 및 엔비디아 기반의 호스피탈리티 설루션 ▲아바돈(Avathon) 비주얼 AI 및 엔비디아 기반의 산업 현장 안전 및 보호장비 착용 준수 여부 모니터링 설루션 ▲웨이트타임(WaitTime) 및 인텔 기반의 리테일 및 스마트 공간 분석 설루션 ▲트리포크(Trifork) 및 엔비디아 기반의 품질 검사 설루션 등이 있다. 이번 확장은 시스코, IBM, 엔비디아와의 협업을 기반으로 글로벌 기업의 AI 도입을 가속화하는 새로운 통합 설루션을 제공한다. 새로운 플랫폼은 업계 선도 파트너의 가속 컴퓨팅, 네트워킹, 스위칭, 소프트웨어를 통합한 고성능·저전력 AI 인프라를 기반으로 기업이 하이브리드 AI 팩토리를 손쉽게 구축·확장·운영할 수 있도록 지원한다. 레노버는 다양한 산업의 모델 개발, 그래픽 처리, 시뮬레이션 워크로드를 위한 연산 성능을 제공하는 새로운 씽크시스템 SR680a V4 시스템을 선보였다. 이 시스템은 인텔 제온(Xeon) 6 CPU와 엔비디아 블랙웰(BlackWell) GPU를 탑재했으며, 고속 엔비디아 NV링크로 GPU 간 고속 연결을 지원해 탁월한 컴퓨팅 파워와 AI 가속 기능을 제공한다. 또한 8개의 엔비디아 슈퍼NIC과 블루필드-3 DPU를 탑재해 기존 대비 최대 11배 빠른 대규모 언어 모델 추론 성능, 7배 높은 연산 처리 성능, 4배 확장된 메모리를 지원한다. 또한 IBM 왓슨x 기반 하이브리드 AI 플랫폼은 레노버 씽크시스템 SR675 서버, 레드햇 오픈시프트(Red Hat OpenShift), 엔비디아 기술을 기반으로 구축된 고성능 인프라를 통해 생성형 AI 모델의 개발, 배포, 거버넌스를 가속화한다. 시스코 기반의 하이브리드 AI 플랫폼은 최대 8개의 엔비디아 RTX PRO 6000 블랙웰 GPU를 탑재한 레노버 SR675 V3 서버를 기반으로 구축되며, 엔비디아 스펙트럼-X(Spectrum-X)가 적용된 시스코 넥서스(Nexus) 스위치를 통해 1.6배 향상된 AI 네트워크 성능과 효율적인 네트워크 관리를 제공한다. 레노버 인프라스트럭처 설루션 그룹(ISG) 애슐리 고라크푸르왈라(Ashley Gorakhpurwalla) 사장은 “레노버는 통합 설루션 전반에서 획기적인 혁신을 이끌며 업계 변화를 주도하는 한편, 모든 기업이 엔터프라이즈급 AI를 실현할 수 있도록 하이브리드 AI 분야를 선도하고 있다”면서, “레노버는 이번 설루션과 신뢰할 수 있는 파트너십을 기반으로 AI를 현실화하고 있다. 검증된 다양한 사용 사례와 서비스를 통해 측정 가능한 생산성 향상과 만족도 제고, 데이터 기반의 빠른 비즈니스 가치 실현을 가능케 할 것”이라고 밝혔다.
작성일 : 2025-08-26
레드햇-메타, “엔터프라이즈용 오픈소스 AI 발전 위해 협력”
레드햇과 메타는 엔터프라이즈용 생성형 AI의 발전을 촉진하기 위해 새롭게 협력한다고 발표했다. 이번 협력은 레드햇레드햇 AI(Red Hat AI)와 고성능 vLLM 추론 서버에서 메타의 라마 4(Llama 4) 모델 그룹을 0일차부터 지원하는 것에서 시작됐다. 이를 기반으로 레드햇과 메타는 라마 스택(Llama Stack)과 vLLM 커뮤니티 프로젝트의 연계를 주도해 오픈 생성형 AI 워크로드의 통합 프레임워크를 촉진한다. 가트너(Gartner)에 따르면 2026년까지 독립 소프트웨어 벤더(ISV)의 80% 이상이 엔터프라이즈용 애플리케이션에 생성형 AI 기능을 내장할 것으로 예상되며, 이는 현재의 1% 미만에서 크게 증가한 수치이다. 이는 레드햇과 메타가 추진하고 있는 개방적이고 상호 운용 가능한 기반 기술의 필요성을 보여준다. 양사의 협력은 다양한 플랫폼, 클라우드 및 AI 가속기 전반과 주요 API 계층 및 AI의 실행 단계인 추론 제공(serving) 시 더욱 원활한 생성형 AI 워크로드 기능에 대한 요구사항을 직접적으로 해결하는 데에 초점을 맞추고 있다. 레드햇과 메타는 핵심 오픈소스 프로젝트에 주요 기여자로 적극 참여하며, 개방형 혁신에 대한 강한 의지를 보여준다는 계획이다. 여기에는 메타가 개발하고 오픈소스화한 플랫폼으로 전체 생성형 AI 애플리케이션 라이프사이클을 혁신하는 표준화된 구성 요소와 API를 제공하는 ‘라마 스택’, 대규모 언어 모델(LLM)을 위한 고도로 효율적이고 최적화된 추론을 가능하게 하는 오픈소스 플랫폼을 구현하는 ‘vLLM’ 등이 있다. 이번 협력의 일환으로 레드햇은 라마 스택 프로젝트에 적극적으로 기여하고 있으며, 레드햇 AI를 기반으로 혁신적인 에이전틱 AI 애플리케이션을 구축하는 개발자에게 매력적인 선택지가 될 수 있도록 라마 스택의 역량 강화에 기여하고 있다. 레드햇레드햇 AI를 통해 라마 스택을 포함한 다양한 에이전틱 프레임워크 지원을 지속하며 고객의 도구와 혁신 선택권을 촉진한다. 이러한 지원은 차세대 AI 설루션의 개발 및 배포를 가속화하는 견고하고 유연한 환경을 제공하는 것을 목표로 한다. 효율적인 개방형 생성형 AI 분야의 새로운 지평을 열어가고 있는 vLLM 프로젝트는 메타의 커뮤니티 기여 확대 의지에 의해 더욱 큰 추진력을 얻고 있다. 이번 협력을 통해 vLLM은 라마 4를 시작으로 라마 모델 그룹의 최신 세대에 대한 0일차 지원을 제공할 수 있는 능력을 갖추게 된다. 또한 vLLM은 메타와 다른 기업이 개방적이고 포용적인 도구 생태계를 조성하기 위해 협력하는 파이토치 생태계(PyTorch Ecosystem)의 일부이다. 이러한 검증을 통해 vLLM은 기업에서 생성형 AI 가치를 실현하는 최전선에 자리매김한다. 레드햇의 마이크 페리스(Mike Ferris) 수석 부사장 겸 최고 전략 책임자는 “레드햇과 메타는 AI의 미래 성공이 모델 발전뿐만 아니라 사용자가 차세대 모델의 혁신적인 기능을 극대화할 수 있도록 하는 추론 기능이 필요하다는 점을 인식하고 있다”면서, “라마 스택과 vLLM에 대한 양사의 공동 약속은 가속기나 환경에 관계 없이 하이브리드 클라우드 전반에서 필요한 곳 어디서든 더 빠르고 일관되며 비용 효율적인 생성형 AI 애플리케이션을 실현하는 비전을 달성하기 위한 것이다. 이것이 바로 AI의 개방형 미래이며 레드햇과 메타가 맞이할 준비가 된 미래”라고 말했다. 메타의 애시 자베리(Ash Jhaveri) AI 및 리얼리티 랩스 파트너십 부문 부사장은 “레드햇과 협력하여 라마 스택을 생성형 AI 애플리케이션을 원활하게 구축하고 배포하는 업계 표준으로 확립하는데 기여하게 되어 기쁘다”면서, “이번 협력은 개방형 혁신과 기업이 AI 기술의 잠재력을 최대한 활용할 수 있도록 지원하는 견고하고 확장 가능한 AI 설루션 개발에 대한 양사의 노력을 보여준다. 레드햇과 함께 메타는 라마 모델과 도구가 엔터프라이즈 AI의 기반이 되어 산업 전반에서 효율성과 혁신을 주도하는 미래를 위한 길을 닦고 있다”고 전했다.
작성일 : 2025-06-10
레드햇-구글클라우드, 엔터프라이즈용 개방형 AI 및 에이전틱 AI 추진 위한 협력 확대
레드햇과 구글클라우드는 레드햇의 오픈소스 기술과 구글클라우드의 맞춤형 인프라 및 구글의 개방형 모델 제품군인 젬마(Gemma)를 결합해 엔터프라이즈 애플리케이션용 AI를 향상하기 위한 협력을 확대한다고 발표했다. 양사는 AI 확장을 위한 엔터프라이즈급 사용 사례 개선을 위해 여러 분야에서 협력을 진행할 예정이다. 주요한 협력 내용으로는 ▲구글이 창립 기여자로 참여하는 오픈소스 프로젝트 ‘llm-d’ 론칭 ▲구글 클라우드 TPU(Cloud TPU) 및 GPU 기반 가상머신(VM)에서 vLLM 지원 통해 AI 추론 성능 강화 ▲젬마 3 모델 배포판에서 vLLM에 대한 0일차 지원 제공 ▲구글 클라우드 상에서 레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server) 지원 ▲레드햇이 구글 A2A(Agent2Agent) 프로토콜의 커뮤니티 기여자로서 참여해 에이전틱 AI 활성화 등 있다.   젬마 3를 시작으로, 레드햇은 구글의 개방형 모델 제품군인 젬마의 초기 테스터로 참여해 vLLM에 대한 즉각적인 지원을 제공한다. vLLM은 생성형 AI 애플리케이션의 출력 속도를 높이는 오픈소스 추론 서버다. 레드햇은 vLLM의 상용 기여자로서 생성형 AI 애플리케이션을 위한 보다 비용 효율적이고 반응성(responsive)이 높은 플랫폼을 제공할 계획이다. 또한 구글 AI 포트폴리오를 지원하는 고성능 AI 가속기인 구글 클라우드 TPU를 이제 vLLM에서 완전히 사용할 수 있다. 이 통합을 통해 개발자는 빠르고 정확한 추론에 필수인 성능과 효율을 달성하면서 리소스를 최대화할 수 있다. AI가 연구에서 실제 배포로 전환됨에 따라, 조직은 다양한 AI 생태계의 복잡성과 분산 컴퓨팅 전략으로 전환해야 할 필요성에 직면해 있다. 이를 해결하기 위해 레드햇은 구글이 창립 기여자로 참여한 llm-d 오픈소스 프로젝트를 출시했다. 이 프로젝트는 vLLM 커뮤니티 성과를 기반으로 생성형 AI 추론의 새로운 시대를 선도하며, 이기종 리소스 전반에서 확장성을 높이고 비용을 최적화하며 워크로드 효율성을 향상하는 동시에 지속적인 혁신을 촉진하는 것을 목표로 한다. 이제 구글 클라우드에서 레드햇 AI 인퍼런스 서버 사용이 가능하며 최신 업스트림 커뮤니티의 개선 사항을 기업에 제공한다. 레드햇의 엔터프라이즈용 vLLM 배포판인 레드햇 AI 인퍼런스 서버는 기업이 하이브리드 클라우드 환경 전반에서 모델 추론을 최적화할 수 있도록 지원한다. 기업은 견고하고 신뢰할 수 있는 구글 클라우드의 인프라를 활용하여 반응성이 뛰어나고 비용 효율적인 프로덕션 단계의 생성형 AI 모델을 대규모로 배포할 수 있다. 또한 레드햇은 개방형 AI에 대한 공동의 노력의 일환으로 구글의 A2A 프로토콜에도 기여하고 있다. 이는 다양한 플랫폼과 클라우드 환경에서 최종사용자 또는 에이전트 간의 원활한 커뮤니케이션을 위한 애플리케이션 레벨 프로토콜이다. 레드햇은 A2A 생태계에 적극적으로 참여함으로써 빠른 혁신을 위한 새로운 길을 열어 사용자가 에이전틱 AI를 통해 AI 워크플로를 역동적이고 효과적으로 유지할 수 있도록 지원한다.
작성일 : 2025-05-29
IBM, AI 및 보안 기술 제공하는 차세대 리눅스 플랫폼 ‘IBM 리눅스원 5’ 공개
IBM이 차세대 리눅스 컴퓨팅 플랫폼인 IBM 리눅스원 5(IBM LinuxONE 5)를 공개했다. 이 플랫폼은 데이터, 애플리케이션, 그리고 인공지능(AI)을 위한 고성능 리눅스 환경을 제공하며, AI 가속 기능이 내장된 IBM 텔럼 II 프로세서(IBM Telum)로 구동된다. IBM은 이번 신제품이 기업의 보안 강화, 비용 효율성 개선, AI의 엔터프라이즈 시스템 통합에 대한 해법을 제시할 것으로 기대하고 있다. IBM 리눅스원 5는 IBM의 사이버보안과 개인정보 보호 접근 방식을 전반적으로 확장해, 제로 트러스트(Zero Trust) 원칙을 한층 강화했다. 이를 통해 고객이 복잡한 규정을 준수하는 과정을 간소화할 수 있도록 지원한다. 기밀 컴퓨팅, 고성능 암호화 대역폭, 미국 국립표준기술연구소(NIST)의 양자내성 암호 알고리즘, 그리고 최첨단 하드웨어 보안 모듈을 통해 워크로드와 데이터를 종합적으로 보호하는 데 중점을 두고 있다. IBM은 이러한 보안 기능이 AI 모델과 민감한 데이터를 보호하는 데 중요한 역할을 할 것으로 기대하고 있다. 특히 레드햇 오픈시프트(Red Hat OpenShift) 컨테이너 플랫폼을 활용한 기밀 컨테이너는 AI를 포함한 다양한 데이터 활용 시나리오에서 데이터를 안전하게 보호하는 데 기여한다. IBM 볼트 셀프 매니지드(IBM Vault Self-Managed)와의 통합을 통해 하이브리드 환경 전반에서 강력한 보안 설루션을 제공하며, 비밀 관리 기능을 강화하도록 설계됐다.     비용 절감 측면에서 IBM 리눅스원 5는 여러 서버에 분산된 워크로드를 단일 고용량 시스템으로 통합함으로써, 운영 복잡성을 줄이고 IT 인프라를 최적화할 수 있다. 클라우드 네이티브 및 컨테이너화된 워크로드를 x86 기반 설루션에서 IBM 리눅스원 5로 이전하면 5년 동안 총 소유 비용을 최대 44%까지 절감할 수 있다는 분석도 있다. 이는 데이터센터 운영 효율을 높이는 데 기여한다. 가용성 측면에서는 99.999999%의 안정성을 발휘하도록 설계되어 비즈니스 연속성을 지원하고 운영 위험을 줄일 수 있다. “데이터 집약적이고 AI를 활용하는 비즈니스의 증가하는 워크로드 수요를 충족하는 데도 적합한 기술”이라는 것이 IBM의 설명이다. 이번 플랫폼의 핵심 기술은 IBM 텔럼 II 프로세서다. 2세대 온칩 AI 가속기를 포함한 텔럼 II는 실시간 대량 거래 처리에서 예측 AI와 대규모 언어 모델(LLM)을 더 높은 정밀도와 정확도로 확장할 수 있도록 설계됐다. 여기에 IBM 스파이어 가속기(IBM Spyre Accelerator)가 2025년 4분기부터 지원될 예정으로, 생성형 AI 기능을 추가해 텔럼 II 프로세서를 보완할 예정이다. 이러한 기술은 사기 탐지, 이미지 처리, 리테일 자동화 등 다양한 산업 사례에서 활용될 수 있도록 설계됐다. IBM 리눅스원은 탄탄한 생태계를 기반으로 하고 있다. 독립 소프트웨어 벤더(ISV)는 리눅스원의 AI와 암호화 기능을 활용해 맞춤형 설루션을 제공하며, 오픈소스 커뮤니티는 유연하고 확장 가능한 도구를 통해 통합을 지원한다. IBM 리눅스원은 우분투(Ubuntu), 수세(SUSE) 등과 협력해 다양한 리눅스 배포판을 지원하고 있다.
작성일 : 2025-05-29
레드햇, “모델/AI 가속기/클라우드 전반에 걸쳐 엔터프라이즈 AI 배포 가속화 지원”
레드햇레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server), 레드햇 AI 서드파티 검증 모델 및 라마 스택(Llama Stack)과 모델 컨텍스트 프로토콜(Model Context Protocol, 이하 MCP) API의 통합 그리고 엔터프라이즈 AI 포트폴리오 전반에 걸친 주요 업데이트를 통해 엔터프라이즈 AI에서 고객 선택권을 지속적으로 확대한다고 발표했다. 이러한 개발을 통해 레드햇은 조직이 AI 도입을 가속화하는 데 필요한 역량을 더욱 강화하는 동시에 하이브리드 클라우드 환경 전반에서 생성형 AI 제품 배포에 있어 고객에게 더 많은 선택과 신뢰를 제공한다. 포레스터(Forrester)에 따르면 오픈소스 소프트웨어는 기업 AI 활동을 가속화하는 촉매제가 될 것이다. AI 환경이 점점 더 복잡하고 역동적으로 성장함에 따라 레드햇 AI 인퍼런스 서버 및 서드파티 검증 모델은 효율적인 모델 추론과 레드햇 AI 플랫폼의 성능에 최적화된 검증 AI 모델 컬렉션을 제공한다. 레드햇은 라마 스택 및 MCP를 비롯한 생성형 AI 에이전트 개발을 위한 신규 API 통합을 더해 배포 복잡성을 해결하고 높은 제어력과 효율성으로 AI 이니셔티브를 가속화할 수 있도록 지원한다. 레드햇은 AI 포트폴리오에 새로운 레드햇 AI 인퍼런스 서버가 포함되면서, 하이브리드 클라우드 환경 전반에서 더 빠르고 일관되며 비용 효율적인 추론을 대규모로 제공할 것으로 보고 있다. 이 핵심 기능은 레드햇 오픈시프트 AI(Red Hat OpenShift AI) 및 레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI, 이하 RHEL AI)의 최신 출시에 통합되었으며, 독립형 설루션으로도 제공되어 지능형 애플리케이션을 더 효율적이고 유연하며 높은 성능으로 배포할 수 있다. 허깅페이스(Hugging Face)에서 제공되는 레드햇 AI 서드파티 검증 모델은 기업이 특정 요구사항에 적합한 모델을 쉽게 찾을 수 있도록 지원한다. 레드햇 AI는 검증된 모델 컬렉션과 배포 가이드를 제공해 모델 성능 및 결과 재현성(reproducibility)에 대한 고객 신뢰를 높인다. 레드햇으로 최적화된 일부 모델은 모델 압축 기술을 활용해 크기를 줄이고 추론 속도를 높여 자원 소비와 운영 비용을 최소화한다.  레드햇 AI는 메타(Meta)가 처음 개발한 라마 스택과 앤트로픽(Anthropic)의 MCP를 통합해 사용자에게 AI 애플리케이션 및 에이전트 구축과 배포를 위한 표준화된 API를 제공한다. 현재 레드햇 AI에서 개발자 프리뷰로 제공되는 라마 스택은 모든 생성형 AI 모델 전반에서 vLLM 추론, 검색 증강 생성(RAG), 모델 평가, 가드레일 및 에이전트 기능에 액세스할 수 있는 통합 API를 제공한다. MCP는 API, 플러그인, 데이터 소스를 연결하는 표준 인터페이스를 제공함으로써 에이전트 워크플로에서 외부 도구와의 통합을 지원한다. 레드햇 오픈시프트 AI(v2.20)의 최신 버전은 ▲최적화된 모델 카탈로그 ▲쿠브플로우 트레이닝 오퍼레이터(KubeFlow Training Operator) 기반의 분산 학습 ▲기능 저장소(Feature store) 등 생성형 AI 및 예측형 AI 모델을 대규모로 구축, 학습, 배포, 모니터링할 수 있는 추가 기능을 포함한다.  또한, RHEL AI 1.5는 레드햇의 기본 모델 플랫폼에 새로운 업데이트를 제공함으로써 대규모 언어 모델(LLM)의 개발, 테스트 및 실행을 지원한다. RHEL AI 1.5의 주요 기능은 ▲구글 클라우드 마켓플레이스(Google Cloud Marketplace) 가용성 제공 ▲스페인어, 독일어, 프랑스어 및 이탈리아어를 위한 향상된 다국어 기능 제공 등이다.   래드햇 AI 인스트럭트랩 온 IBM 클라우드(Red Hat AI InstructLab on IBM Cloud)서비스도 출시됐다. 이 신규 클라우드 서비스는 모델 맞춤화 과정을 더욱 간소화하여 확장성과 사용자 경험을 개선하며 기업이 고유한 데이터를 더 쉽고 높은 수준의 제어하에 활용할 수 있도록 지원한다.
작성일 : 2025-05-26
인텔 가우디 3 AI 가속기, IBM 클라우드 통해 첫 상용 클라우드 서비스 제공
인텔은 IBM 클라우드가 클라우드 서비스 제공사로는 처음으로 인텔 가우디 3(Intel Gaudi 3) AI 가속기 기반 상용 서비스를 제공한다고 밝혔다. 인텔은 이로써 클라우드 서비스 고객이 고성능 인공지능 역량을 보다 쉽게 활용할 수 있도록 지원하고, AI 특화 하드웨어의 높은 비용 장벽을 낮출 수 있을 것이라고 밝혔다. 이번 IBM 클라우드 상용화는 가우디 3의 첫 대규모 상업 배포이다. 양사는 IBM 클라우드에서 인텔 가우디 3를 활용해 고객이 합리적인 비용으로 생성형 AI를 테스트·혁신·배포하도록 돕는 것을 목표로 하고 있다. 가트너의 최근 조사에 따르면 2025년 전 세계 생성형 AI 관련 지출은 2024년 대비 76.4% 증가한 6440억 달러에 이를 전망이다. 가트너는 “생성형 AI가 IT 지출 전 영역에 변혁적 영향을 미치고 있으며, 이에 따라 AI 기술이 기업 운영과 소비재에 필수 요소로 자리 잡을 것”이라고 분석했다. 많은 기업이 생성형 AI와 같은 도구가 자동화·워크플로 개선·혁신 촉진 등에 분명한 이점이 있다는 것을 알고 있으나, AI 애플리케이션 구축에는 막대한 연산 능력이 필요하고 대개의 경우 고가의 특화된 프로세서를 요구하기 때문에 많은 기업들은 AI 혜택을 누리지 못하고 있다.     인텔 가우디 3 AI 가속기는 개방형 개발 프레임워크를 지원하면서 생성형 AI·대규모 모델 추론·파인튜닝 등에 대한 폭발적인 수요를 충족하도록 설계됐으며, 멀티모달 LLM(대규모 언어 모델)과 RAG(검색 증강 생성) 워크로드에 최적화되어 있다. IBM 클라우드는 다양한 기업 고객, 특히 금융 서비스, 의료 및 생명 과학, 공공 부문 등 규제 산업에 종사하는 고객에게 서비스를 제공한다. 현재 가우디 3는 독일 프랑크푸르트, 미국 워싱턴 D.C., 택사스 댈러스의 IBM 클라우드 리전에 적용되어 사용할 수 있다. 가우디 3은 IBM의 광범위한 AI 인프라스트럭처 제품에도 통합되고 있다. 고객들은 현재 IBM VPC(가상 프라이빗 클라우드)의 IBM 클라우드 가상 서버를 통해 가우디 3를 사용할 수 있으며, 2025년 하반기부터 다양한 아키텍처에 배포할 수 있다. 레드햇 오픈시프트(Red Hat OpenShift)와 IBM 왓슨엑스 AI 플랫폼(IBM’s watsonx AI platform)에 대한 지원은 이번 분기 내 가능해질 예정이다. 인텔의 사우라브 쿨카니(Saurabh Kulkarni) 데이터센터 AI 전략 담당은 “인텔 가우디 3 AI 가속기가 IBM 클라우드에 도입되며 기업 고객에게 추론 및 파인 튜닝을 위해 최적화된 성능으로 생성형 AI 워크로드를 확장할 수 있도록 지원하게 되었다”면서, “이번 협력은 전 세계 기업이 AI를 더 쉽게, 비용효율적으로 구현할 수 있도록 지원하려는 양사의 공동 노력의 일환”이라고 밝혔다. IBM의 사틴더 세티(Satinder Sethi) 클라우드 인프라스트럭처 서비스 총괄은 “더 많은 데이터 처리 능력과 더 높은 성능 구현은 전 세계 고객의 AI 도입을 촉진할 것”이라며 “인텔 가우디 3는 고객에게 AI의 하드웨어에 대한 더 많은 선택권과 더 많은 자유, 더 비용 효율적인 플랫폼을 제공해준다”고 밝혔다.
작성일 : 2025-05-08
퓨어스토리지 포트웍스, 엔터프라이즈급 현대적 가상화 설루션 공개
퓨어스토리지가 자사의 대표 컨테이너 데이터 관리 플랫폼인 포트웍스 엔터프라이즈(Portworx Enterprise)의 최신 업데이트를 발표했다. 이번 업데이트는 기업이 엔터프라이즈 규모에서 현대적 가상화를 실현할 수 있도록 지원하며, 데이터 스토리지 관련 의사결정권자가 각자의 속도에 맞춰 현대화 여정을 이어갈 수 있도록 돕는다. 브로드컴의 VM웨어 인수 이후 많은 기업들이 비용 상승 없이 가상화 전략을 추진할 수 있는 현대적 설루션을 모색하고 있다. 이에 따라 컨테이너와 가상머신을 동시에 지원할 수 있는 쿠버네티스를 대안으로 채택하거나 도입을 검토 중인 기업들이 늘고 있다. 쿠버네티스를 활용하면 하나의 플랫폼에서 클라우드 네이티브 애플리케이션 개발과 인프라 현대화를 함께 추진할 수 있다. 2024년 쿠버네티스 전문가 대상 설문조사에 따르면, 응답자의 81%가 가상머신을 쿠버네티스로 이전하거나 현대화할 계획이며, 이 중 3분의 2가량은 2년 이내 이를 완료할 계획이다. 하지만 가상머신을 쿠버네티스로 이전하면서 새로운 과제도 등장하고 있다. 이번에 출시된 포트웍스 엔터프라이즈 3.3(Portworx Enterprise 3.3)은 컨테이너 데이터 관리 플랫폼을 엔터프라이즈급 가상머신 워크로드까지 확장 지원한다. 포트웍스는 미션 크리티컬 워크로드를 위한 고성능, 데이터 복원력, 데이터 보호를 제공하면서도, 대규모 프로덕션 환경에서 요구되는 단순함, 유연성, 신뢰성을 함께 제공한다. 쿠버네티스를 기반으로 한 포트웍스의 사용을 통해 기존 설루션 대비 30%에서 최대 50%까지 비용을 절감할 수 있으며, 기업은 이를 통해 더 큰 비용 효율을 기대할 수 있다. 별도의 리소스 투자 없이도 기존 가상머신을 쿠버네티스 상에 계속 유지할 수 있으며, 필요에 따라 클라우드 네이티브 애플리케이션으로 전환하거나 신규 개발할 수 있다. 포트웍스 3.3은 쿠베버트(KubeVirt) 가상머신을 위한 RWX 블록(RWX Block) 기능을 제공하며, 이는 퓨어스토리지의 플래시어레이(FlashArray)는 물론 다양한 스토리지 벤더 환경에서도 작동한다. 이를 통해 쿠버네티스 상에서 실행되는 가상머신에 강력한 읽기/쓰기 성능을 제공할 수 있다. 이제 하나의 관리 환경에서 쿠버네티스 상의 가상머신 데이터를 통합 관리할 수 있으며, 데이터 손실 없는 동기화 재해복구(zero RPO)를 지원한다. 또한, 리눅스 기반 가상머신에 대한 파일 단위 백업 및 복원이 가능해져 더욱 세분화된 데이터 보호가 가능하다. 또한 수세(SUSE), 스펙트로클라우드(Spectro Cloud), 쿠버매틱(Kubermatic) 등 주요 쿠버베트 플랫폼과의 파트너십 및 레퍼런스 아키텍처를 제공하며, 기존 레드햇과의 협업도 지속된다. 퓨어스토리지의 벤캇 라마크리슈난(Venkat Ramakrishnan) 포트웍스 부문 부사장 겸 총괄 매니저는 “포트웍스는 쿠버네티스를 기반으로 구축되어 클라우드 네이티브 애플리케이션의 유연성과 자동화, 셀프 서비스 기능을 모두 갖췄다. 이번 포트웍스 3.3은 하나의 통합 플랫폼과 다양한 통합 기능을 통해 기업이 자신만의 속도로 인프라 현대화를 추진할 수 있도록 돕는다”고 전했다. 
작성일 : 2025-04-23
레드햇, 애저에서 RHEL AI의 AI 모델 개발 및 배포 간소화 지원
레드햇은 클라우드에서의 인공지능(AI) 및 생성형 AI 배포를 간소화하고 확장하기 위해 마이크로소프트와의 협력을 확대한다고 발표했다. 이번 협력을 통해 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)는 마이크로소프트 애저 환경에서 실행 가능하도록 최적화되고 검증된 파운데이션 모델 플랫폼으로써 제공되며, 애저 마켓플레이스(Azure Marketplace)를 통해 BYOS(Bring-Your-Own-Subscription) 제품으로 제공될 예정이다. 파괴적 혁신이 끊임없이 일어나는 산업 환경에서 조직이 새로운 기능을 신속하게 통합하고 지원할 수 있는 적응형 기술 스택을 도입하고 유지하는 것은 매우 중요하다. 이는 특히 애플리케이션과 데이터, 플랫폼, 인프라를 아우르는 AI 지원 기술을 필요로 하는 AI 기반 비즈니스로 전환하는 조직에 더욱 중요하다. MS 애저용 RHEL AI는 조직이 하이브리드 클라우드 환경에서 생성형 AI 모델을 더욱 원활하게 구축, 테스트, 배포하는 데 필요한 일관성과 확장성을 제공한다. RHEL AI는 엔터프라이즈급 오픈소스 라이선스 그래니트(Granite) 모델로 생성형 AI 혁신을 지원하는 파운데이션 모델 플랫폼으로, 인스트럭트랩(InstructLab) 도구를 통해 기업의 프라이빗 데이터와 사용 사례에 맞춘 모델 조정을 간소화한다. 또한 RHEL AI는 동일한 도구와 개념을 사용하여 이러한 모델을 대규모로 조정(tuning)하고 서비스할 수 있도록 레드햇 오픈시프트 AI(Red Hat OpenShift AI)로 바로 이동 가능한 경로를 제공한다. MS 애저에서의 RHEL AI 제공은 조직이 비즈니스 요구 사항을 충족하기 위해 오픈소스의 힘을 활용할 수 있도록 돕는 레드햇과 MS 간의 오랜 협력 관계를 기반으로 한다. RHEL AI는 양사가 공동으로 개발하고 지원하는 완전 관리형 턴키 애플리케이션 플랫폼인 레드햇 오픈시프트 AI 및 애저 레드햇 오픈시프트(Azure Red Hat OpenShift) 등 다른 제품들처럼 MS 애저에서 사용 가능한 최신 AI 최적화 레드햇 제품이다.
작성일 : 2024-11-22
퓨어스토리지, AI 혁신 가속화를 위한 ‘생성형 AI 포드’ 발표
퓨어스토리지가 자사 플랫폼 기반의 턴키 설계를 제공하는 풀스택 설루션인 새로운 퓨어스토리지 생성형 AI 포드(GenAI Pod)를 발표했다. 기업은 이를 통해 AI 기반 혁신을 가속화하고, 생성형 AI 프로젝트 구축에 필요한 시간, 비용, 전문 기술력을 절감할 수 있다.  오늘날 기업들은 프라이빗 클라우드에서 생성형 AI와 검색 증강 생성(RAG)을 배포하는데 어려움을 겪고 있다. 이는 생성형 AI 워크로드를 지원하는 하드웨어, 소프트웨어, 기본 모델, 개발 도구를 적시에 비용 효율적으로 배포하는 복잡성을 포함한다. 따라서 기업들은 AI로 인해 진화하는 모든 스토리지 요구사항을 해결할 수 있는 단일 통합 스토리지 플랫폼이 필요로 한다. 퓨어스토리지 플랫폼에 구축된 생성형 AI 포드는 새로운 설계를 통해 생성형 AI 사용사례를 위한 턴키 설루션을 제공하며, 기업들이 이들 과제를 해결하도록 지원한다. 생성형 AI 포드는 원클릭 구축과 벡터 데이터베이스 및 기반 모델에 대한 간소화된 2일차(Day 2) 운영을 통해 기업의 AI 이니셔티브를 가속화한다. 포트웍스(Portworx)와 통합된 생성형 AI 포드는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼과 밀버스(Milvus) 벡터 데이터베이스를 통해 엔비디아 네모 (NeMo) 및 NIM 마이크로서비스(NIM microservices)의 배포 자동화를 지원하며, 2일차 운영을 더욱 간소화한다. 이러한 검증된 설계의 초기 산업 애플리케이션으로는 신약 개발, 무역 조사 및 투자 분석, 시맨틱 검색, 지식 관리 및 챗봇을 위한 에이전트 프레임워크를 갖춘 검색 증강 생성(RAG)이 포함된다. 퓨어스토리지의 풀스택 설루션에는 하드웨어, 소프트웨어 및 기본 모델은 물론, 업계 주요 AI 공급업체의 전문 서비스가 포함된다. 초기 검증 설계를 위해 퓨어스토리지는 아리스타, 시스코, KX, 메타, 엔비디아, 레드햇, 슈퍼마이크로 및 WWT와 파트너십을 체결했다. 퓨어스토리지 생성형 AI 포드는 2025년 상반기에 정식 출시될 예정이다. 한편, 퓨어스토리지는 플래시블레이드//S500(FlashBlade//S500)가 엔비디아 DGX 슈퍼포드(NVIDIA DGX SuperPOD)의 이더넷 호환성 인증을 통해 엔터프라이즈 AI 구축을 가속화한다고 밝혔다.  대규모 AI를 구축하는 기업은 복잡한 아키텍처 설계와 성능, 전력, 공간 요건을 충족해야 하는 과제를 안고 있다. 이에 따라 퓨어스토리지는 이더넷 기반의 플래시블레이드//S500에 대한 엔비디아 DGX 슈퍼포드 인증을 획득했다. 이 인증을 통해 고객은 향후 증가하는 AI 요구사항에 대비할 수 있도록 유연하고 안정적이며 공간 및 에너지 효율성이 높은 고성능 스토리지 플랫폼으로 하이엔드 엔터프라이즈 AI 트레이닝을 가속화할 수 있다. 새로운 생성형 AI 검증 설계는 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증과 함께, 엔비디아 DGX 베이스포드 인증 받은 에이리(AIRI with NVIDIA DGX BasePOD), 검증된 엔비디아 OVX 서버, 시스코와 공동 설계한 AI용 플래시스택(FlashStack for AI with Cisco) 등 퓨어스토리지의 AI 설루션 포트폴리오를 더욱 확장한다. 이번 발표를 통해 퓨어스토리지는 이제 막 AI 여정을 시작한 고객부터 대규모, 고성능 컴퓨팅 및 데이터 집약적인 요구사항을 가진 고객까지 아우르는 포괄적인 AI 인프라 설루션을 제공하는 선도적인 기업으로서의 입지를 다질 전망이다. 퓨어스토리지의 댄 코건(Dan Kogan) 엔터프라이즈 성장 및 설루션 부문 부사장은 “혁신의 속도가 빨라지면서 기업 고객들은 비즈니스 전 영역에 AI를 활용해야 하지만, 사일로화된 데이터 플랫폼과 복잡한 생성형 AI 파이프라인이라는 근본적인 문제로 어려움을 겪고 있다”며, “퓨어스토리지의 확장된 AI 설루션 포트폴리오는 생성형 AI 및 대규모 엔터프라이즈 AI 클러스터를 위한 검증된 턴키 설계를 통해 고객이 이러한 과제를 해결하도록 지원한다. 검증된 설계는 기술 스택의 모든 계층에서 요구사항을 총체적으로 해결해 AI 프로젝트의 가치 실현 시간과 운영 리스크를 획기적으로 줄인다”고 말했다. 엔비디아의 토니 백데이(Tony Paikeday) AI 시스템 부문 수석 디렉터는 “AI는 전례 없는 속도로 산업을 혁신하고 있으며, 기업들은 이를 달성하기 위해 강력하고 검증된 설루션과 인프라가 필요하다”며, “퓨어스토리지 생성형 AI 포드와 엔비디아 AI 엔터프라이즈 소프트웨어, 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증은 기업들이 인프라 복잡성을 제거하고, 구축 속도를 높이며, 운영을 간소화할 수 있도록 지원한다”고 말했다.
작성일 : 2024-11-22
레드햇, RHEL 9.5 출시와 함께 리눅스 자동화 확장
레드햇레드햇 엔터프라이즈 리눅스(Red Hat Enterprise Linux, 이하 RHEL) 9.5의 정식 출시를 발표했다. RHEL은 애플리케이션과 워크로드를 비용은 절감하면서 보다 빠르고 안정적으로 배포할 수 있도록 한다. 하이브리드 클라우드 배포 전반에서 효과적으로 워크로드를 관리할 수 있도록 하고, 데이터센터에서 퍼블릭 클라우드, 에지에 이르기까지 IT 리스크 완화를 지원한다. IDC의 연구에 따르면, 조직은 시간과 자원이 부족한 상황에서 리눅스 운영 체제 환경을 유지 관리하고 지원하는 워크로드 간의 균형을 맞추는데 계속해서 어려움을 겪고 있다. 클라우드와 인공지능(AI), 머신러닝(ML)과 같은 차세대 워크로드의 확산으로 상황은 더욱 복잡해지고 있다. RHEL 표준화는 운영체제를 통합하고, 확장 및 프로비저닝과 같은 수동 작업 자동화하며, 배포의 복잡성을 줄여 IT 인프라 관리 관리팀의 민첩성을 향상시켰다. 그 결과, 인프라 팀은 비즈니스 및 인프라 혁신에 26% 더 많은 시간을 할애할 수 있게 됐다. RHEL 9.5는 ▲강화된 보안 및 컴플라이언스 관리 기능 제공 ▲자동화를 통한 복잡성 감소 ▲대규모 앱 배포를 위한 보다 신속한 하이브리드 클라우드 운영 등을 통해 AI부터 에지 컴퓨팅에 이르는 급속한 IT 혁신을 지원하는 운영 체제에 일관성과 향상된 기능을 제공한다. RHEL 시스템은 RHEL 구독에 포함된 레드햇 앤서블 콘텐츠(Red Hat Ansible Content) 컬렉션으로, 일상적인 관리 작업을 자동화해 조직이 보다 일관된 구성과 대규모 워크플로를 제공할 수 있게 돕는다. RHEL 9.5는 리눅스의 명령줄(커맨드 라인) 유틸리티인 ‘sudo’의 신규 기능을 포함한 여러 시스템 역할을 추가해 sudo 구성을 대규모로 자동화한다. 이는 적절한 규칙 관리 가드레일을 통해 관리자용 커맨드를 일반 사용자가 실행할 수 있게 한다. 높은 권한의 사용자는 자동화로 환경 전체에 걸쳐 sudo 구성을 더 일관되고 안전하게 구현할 수 있어, 조직이 비즈니스 전반의 복잡성을 감소시킬 수 있다. 또한 기밀 컴퓨팅(confidential computing) 플랫폼 지원 확대로 AI 워크로드의 데이터를 보호하고 내부자 위협을 낮출 수 있다. 기밀 컴퓨팅은 민감한 데이터를 보거나 변조하는 잠재적 위협을 방지함으로써 기업은 데이터 세분화를 유지하고 데이터 규정을 준수하는 동시에 대량의 데이터를 검토하는데 AI를 더 안전하게 사용할 수 있다. RHEL 관리 도구는 시스템 관리를 단순화해 조직의 수동 작업 자동화, 대규모 배포 표준화, 시스템 복잡성 감소를 지원한다. 또한, RHEL 9.5는 웹 콘솔에 새로운 파일 관리 기능을 제공해 사용자가 명령줄을 사용하지 않고도 파일 시스템 검색, 파일 업로드 및 다운로드, 권한 변경, 디렉토리 생성과 같은 파일 관리 작업을 수행할 수 있도록 지원한다. RHEL 9.5는 오픈소스 컨테이너 엔진의 최신 버전인 포드맨(Podman) 5.0 기능 포함 및 지원을 통해 플랫폼 수준에서 컨테이너 네이티브 혁신을 촉진한다. 포드맨은 개발자에게 리눅스 환경에서 컨테이너를 구축, 관리 및 실행하기 위한 오픈소스 도구를 제공한다. 이번 주요 출시에서는 포드맨 팜 빌드를 도입해 개발자가 단일 명령으로 원격 머신에서 멀티 플랫폼 이미지를 빠르게 구축할 수 있게 한다. 조직은 다양한 플랫폼에서 애플리케이션을 효율적으로 테스트하고 배포해 개발 시간을 단축하고 이식성을 향상시킬 수 있다. RHEL 9.5의 애플리케이션 스트림은 혁신적인 애플리케이션을 구동하는데 필요한 선별된 최신 개발자 도구, 언어 및 데이터베이스를 제공한다. 또한 RHEL 9.5은 포스트그레SQL용 PG벡터(PG Vector for PostgreSQL), 노드js(Node.js), GCC툴셋, 러스트(Rust) 툴셋 및 LLVM 툴셋의 신규 버전을 포함한다. 또한, RHEL 9에서 유지관리가 종료된 자바 개발 키트(JDK) 11은 레드햇에서 지원하며, 해당 패키지를 계속 사용할 수 있다. JDK 17은 최신 자바 애플리케이션 구축 및 관리를 위한 신규 기능과 도구를 제공하며 이전 버전과의 호환성을 유지해 애플리케이션과 사용자가 일관성 있게 JDK 업그레이드를 유지할 수 있게 한다. 
작성일 : 2024-11-18