• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 가속기"에 대한 통합 검색 내용이 146개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
IBM-AMD, 양자·AI·HPC 융합한 차세대 컴퓨팅 개발 협력
IBM과 AMD는 양자 컴퓨터와 HPC(고성능 컴퓨팅)를 결합한 차세대 컴퓨팅 아키텍처인 양자 중심 슈퍼컴퓨팅(quantum-centric supercomputing) 개발 계획을 발표했다. IBM은 고성능의 양자 컴퓨터 및 소프트웨어 개발에서의 리더십을, AMD는 HPC 및 AI 가속기 분야의 리더십을 바탕으로 확장 가능하고 오픈소스 기반의 플랫폼을 공동 개발해 컴퓨팅의 미래를 재정의하고자 한다. 양자 컴퓨팅은 정보를 표현하고 처리하는 방식에서 기존 컴퓨터와 완전히 다르다. 기존 컴퓨터는 0과 1의 비트로 정보를 처리하지만, 양자 컴퓨터는 양자역학의 법칙에 따라 정보를 표현하는 큐비트(qubit)를 사용한다. 이러한 특성은 신약 개발, 소재 탐색, 최적화, 물류 등 기존 컴퓨팅으로는 해결이 어려운 복잡한 문제에 대한 해결책을 탐색할 수 있는 연산 능력을 제공한다. 양자 중심 슈퍼컴퓨팅 아키텍처에서는 양자 컴퓨터가 CPU, GPU, 기타 컴퓨팅 엔진으로 구성된 HPC 및 AI 인프라와 함께 작동한다. 이 하이브리드 접근 방식에서는 문제의 각 요소를 가장 적합한 컴퓨팅 방식으로 해결한다. 예를 들어, 미래에는 양자 컴퓨터가 원자와 분자의 행동을 시뮬레이션하고, AI 기반의 슈퍼컴퓨터가 방대한 데이터 분석을 수행할 수도 있다. 이런 기술이 결합되면 현실 세계의 문제를 더욱 빠른 속도와 큰 규모로 해결할 수 있을 것으로 기대된다. IBM과 AMD는 AMD의 CPU, GPU, FPGA(프로그래밍이 가능한 반도체)를 IBM의 양자 컴퓨터와 통합해 기존 컴퓨팅 방식으로는 해결할 수 없는 새로운 알고리즘을 효율적으로 가속화하는 방안을 모색하고 있다. 이는 IBM이 2030년까지 실현하고자 하는 오류 내성 양자 컴퓨터(fault-tolerant quantum computing) 로드맵에도 기여할 수 있다. AMD의 기술은 오류 내성 양자 컴퓨팅의 핵심 요소인 실시간 오류 수정 기능을 제공할 수 있는 가능성을 지니고 있다. 양사는 올해 말 IBM의 양자 컴퓨터와 AMD 기술이 함께 작동하는 하이브리드 양자-클래식 연계 프로젝트 시연을 계획하고 있으며, IBM 키스킷(Qiskit)과 같은 오픈소스 생태계를 활용해 새로운 알고리즘 개발과 채택을 촉진하는 방안도 함께 검토 중이다. IBM의 아빈드 크리슈나(Arvind Krishna) 회장 겸 CEO는 “양자 컴퓨팅은 자연 세계를 시뮬레이션하고 정보를 완전히 새로운 방식으로 표현할 수 있다. IBM의 양자 컴퓨터와 AMD의 고성능 컴퓨팅 기술을 결합함으로써 기존 컴퓨팅의 한계를 뛰어넘는 강력한 하이브리드 모델을 구축할 수 있을 것”이라고 말했다. AMD의 리사 수(Lisa Su) CEO는 “HPC는 세계의 주요 과제를 해결하는 기반이 된다. IBM과의 협력을 통해 고성능 컴퓨팅과 양자 기술의 융합을 모색함으로써, 우리는 혁신과 발견을 가속화할 수 있는 엄청난 기회를 마주하고 있다”고 밝혔다.
작성일 : 2025-08-27
인텔-AWS, 제온 6 프로세서 기반 EC2 인스턴스 출시
인텔은 클라우드 환경에서 동급 인텔 프로세서 중 가장 높은 성능과 가장 빠른 메모리 대역폭을 제공하는 P-코어를 탑재한 인텔 제온 6 프로세서(Intel Xeon 6 processors with P-cores) 기반의 신규 EC2(Amazon Elastic Compute Cloud) R8i 및 R8I-플렉스 인스턴스를 아마존웹서비스(AWS)에서 출시한다고 밝혔다. 이번 새로운 인스턴스는 인텔과 AWS 간 수년간 협력을 바탕으로, 확장성, 비용 효율성 및 고성능 클라우드 인프라를 추구하는 고객에게 최신 실리콘 혁신과 밀접하게 통합된 소프트웨어 최적화를 제공한다. 기업의 실시간 데이터 처리, 인공지능(AI), 컴플라이언스 집약적인 워크로드 활용이 점점 늘어남에 따라, 유연한 고성능 클라우드 인프라에 대한 필요도가 더 높아졌다. 인텔은 제온 6 프로세서가 전문적인 가속기에 대한 의존도를 최소화하면서 유연한 다목적 컴퓨팅 플랫폼을 제공하며, 다양한 활용 사례에 대한 배포 및 관리를 간소화해준다고 설명했다.     새로운 제온 6 기반 인스턴스의 주요 특징은 ▲고집적도 컴퓨팅 ▲ 클라우드 상에서 가장 빠른 DDR5 지원 ▲ 내장형 AI 가속 ▲인텔 QAT(QuickAssist Technology) 등이다. 제온 6는 재설계된 코어 아키텍처와 향상된 파이프라인, 더 많은 코어 수를 통해 성능과 스레드 확장성을 향상시켰다. 이를 통해 AWS는 최대 96xlarge와 같은 대규모 인스턴스 크기를 제공해 고객이 워크로드에 필요한 컴퓨팅 자원을 더욱 높은 집적도로 활용할 수 있도록 지원한다. 신규 인스턴스는 DDR5 메모리 속도 최대 7200 MT/s를 지원하며 분석, 머신러닝(ML), 인메모리 데이터베이스에 적합한 고대역폭 메모리 및 낮은 지연 시간을 제공한다. 또한, 인텔 AMX(Intel Advanced Matrix Extensions)를 통합해 AI 추론 및 머신러닝 성능을 최대 2배 향상시키며, 외부 가속기 사용 필요성을 줄이고 배포를 간편하게 한다. 이외에도 하드웨어 가속화된 암호화 및 압축을 지원하여 CPU 리소스를 절감하고, 금융, 의료, 공공 애플리케이션 등 보안에 민감하거나 규제 대상인 워크로드 성능을 향상시킨다. 인텔은 프로세서 마이크로아키텍처와 펌웨어 튜닝부터 하이퍼바이저 튜닝, 가상화, 소프트웨어 프레임워크에 이르기까지 스택(stack)의 모든 계층을 아우르는 최적화를 진행했다. 고객들은 이러한 통합을 통해 AWS의 글로벌 인프라 전역에서 제온 6의 성능을 최대한 활용할 수 있다. 인텔은 이번 협력으로 AWS 및 더 광범위한 클라우드 생태계에서 핵심 기술 제공 기업으로서의 입지를 강화할 수 있을 것으로 기대하고 있다. 개발자, 데이터 사이언티스트, IT 리더들이 보다 빠르고 효율적으로 혁신하고, 규모를 확장하며, 서비스를 배포할 수 있도록 지원하겠다는 것이다. AWS의 니샨트 메타(Nishant Mehta) EC2 제품 관리 부사장은 “고객들은 가장 요구도가 높은 워크로드 속도에 맞춘 인프라가 필요하다”면서, “인텔과의 협력을 통해 새로운 아마존 EC2 R8i 및 R8i-플렉스 인스턴스는 전 세대 대비 메모리 대역폭은 2.5배 더 향상되었고 가격 대비 성능은 15% 더 우수하다. 이는 고객이 성능을 극대화하면서 비용을 절감할 수 있도록 지원하는 혁신”이라고 말했다. 인텔의 로낙 싱할(Ronak Singhal) 선임 펠로우는 “인텔 제온 6 프로세서로 구동되는 8세대 EC2 인스턴스 출시는 AWS와의 협업에서 중요한 이정표”라며, “인텔과 AWS는 AI 가속화, 메모리 성능 향상, 쉬운 배포를 통해 고객이 인사이트를 빠르게 얻고 강력한 투자수익률(ROI)을 달성할 수 있도록 지원하는 인프라를 함께 구축했다”고 밝혔다.
작성일 : 2025-08-22
인텔코리아, AI 기술 전략 소개 및 국내 기업과 협력 확대 발표
인텔은 국내 협력사들과 함께 자사의 AI 기술 동향과 최신 전략, 협력 사례를 공유하는 ‘2025 인텔 AI 서밋 서울’을 개최했다고 밝혔다. 인텔 AI 서밋은 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고 산업 전반에 걸친 AI의 잠재력과 미래 발전 방향을 함께 모색하기 위한 자리다. 레노버, 네이버클라우드, SK하이닉스, 델, 마이크로소프트, 삼성SDS, 슈퍼마이크로, 시스코, HPE, LG이노텍, LG전자 등 국내외 주요 협력사와 KAIST, 중소벤처기업부, 창업진흥원 등 학계와 공공 부문에서도 관련 전문가들이 참석하여 AI 기술 동향과 산업 간 협력 방안을 논의하고 네트워킹하는 자리가 이어졌다. 이번 행사는 인텔코리아 배태원 사장의 환영사와 한스 촹(Hans Chuang) 인텔 세일즈 마케팅 그룹의 아시아 태평양 및 일본 총괄의 인사말로 시작되었다. 촹 총괄은 “AI 기술이 빠르게 진화하고 활용 사례도 점점 복잡해지면서, 기업들은 성능과 비용 효율성을 동시에 충족하는 보다 개방적이고 다양한 설루션을 필요로 한다”고 전했다. 또한, “인텔은 폭넓은 호환성, 다양한 소프트웨어 옵션, 고유의 아키텍처, 뛰어난 성능을 제공함으로써 AI가 데이터센터, 클라우드, 네트워크 에지 및 PC에 이르는 전체 컴퓨팅 연속체에서 최적의 성능을 발휘하도록 지원하고 있다”면서, 인텔의 개방형 프로그래밍 모델은 단일 벤더의 하드웨어나 GPU에서만 동작하는 폐쇄형 프로그래밍 모델에 비해 비용과 유연성 측면에서 실질적 비즈니스 우위를 제공한다고 강조했다.     이어진 파트너 세션에서 레노버 아시아태평양지역 인프라 솔루션 그룹 수미르 바티아(Sumir Bhatia) 사장은 ‘모두를 위한 스마트한 AI’를 주제로 기업들의 AI 가속화에 따른 높은 전력 수요로 지속가능성이 주요 과제로 떠올랐음을 강조하며, 이를 해결하기 위한 레노버의 최신 냉각 기술과 AI 추론 최적화 설루션을 소개했다.  또한 SK하이닉스의 정우석 부사장은 ‘메모리 중심 AI 컴퓨팅 시대의 새로운 기회’ 발표를 통해 AI 컴퓨팅 시대를 맞아 부각되고 있는 메모리 기술의 중요성을 강조하며, 커스텀 메모리 기술의 시장 기회가 증가하고 있다고 밝혔다. 또한 인텔과 데이터센터용 설루션의 다양한 영역에서 긴밀히 협력 중임을 덧붙였다. 전략적 파트너 세션의 발표자로 나선 네이버클라우드의 김유원 대표는 AI 생태계에 대한 발표를 통해 “네이버클라우드는 인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔으며, 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 협력의 범위와 깊이가 꾸준히 확장되고 있다”며, “향후에도 네이버클라우드는 인텔과 함께 글로벌 시장을 타깃으로 다양한 AI 기반 클라우드 서비스를 공동 개발하며, 기술 혁신과 해외 진출이라는 두 축에서 협력을 확대해 나갈 것”이라고 말했다. 오후 세션에서는 ‘AI & 데이터센터’와 ‘AI PC & 에지 AI’로 나뉘어 업계의 최신 정보 및 인사이트, 사례 발표가 이어졌다. 데이터센터 세션에서 삼성 SDS는 가우디 3 기반 LLM 추론 성능 분석 사례를 공유했고, AI PC 부문에서는 LG이노텍이 인텔 AI 설루션 기반 스마트 공장 사례를, 전북특별자치교육청이 AI PC를 활용한 수업 혁신 사례를 공유하는 등 교육, 게임, 리테일, 제조 등 다양한 분야의 적용 사례를 공유했다. 인텔은 하반기에도 국내 AI 생태계 발전을 위한 협력을 더욱 확대해 나갈 예정이다. 인텔은 행사 당일 포스코DX와 인텔 제온 프로세서의 AI 가속 기능 및 오픈비노 기술을 활용해 AI 서비스 비용 효율을 높이고, AI 에이전트 생태계 구축에 협력하기 위한 상호양해각서를 체결했다고 밝혔다. 한편 kt cloud와 인텔 가우디(Gaudi) AI 가속기를 kt cloud AI Foundry에 도입하는 것을 검토하고 AI 추론 개발에 특화된 비용 효율적인 GPUaaS 상품 출시를 검토하며, 다양한 산업군의 클라우드 수요에 대응할 수 있는 상품 포트폴리오 고도화 및 기술 협력을 위한 상호양해각서를 지난 6월 30일 체결했다.
작성일 : 2025-07-02
AMD, 개방형 AI 생태계 비전과 함께 신제품 소개
AMD는 연례 행사인 ‘2025 어드밴싱 AI(2025 Advancing AI)’에서 종합적이고 통합된 AI 플랫폼 비전을 발표하고, 업계 표준 기반의 개방적이고 확장 가능한 랙-스케일 AI 인프라를 공개했다. AMD는 인스팅트 MI350 시리즈 GPU를 공개하며, 생성형 AI 및 고성능 컴퓨팅 분야에서 성능, 효율성 및 확장성을 위한 새로운 기준을 내세웠다. 인스팅트 MI350X 및 MI355X GPU 및 플랫폼으로 구성된 MI350 시리즈는 세대 간 AI 컴퓨팅 성능은 4배, 추론 성능은 35배 높아져 산업 전반에 걸친 혁신적인 AI 설루션의 물꼬를 텄다. AMD는 MI355X가 높은 가격 대비 성능을 제공하며, 경쟁 설루션 대비 최대 40% 더 많은 달러당 토큰을 생성할 수 있다고 설명했다.     이번 어드밴싱 AI 행사에서 AMD는 인스팅트 MI350 시리즈 가속기, 5세대 AMD 에픽(AMD EPYC) 프로세서, AMD 펜산도 폴라라 NIC(Pensando Pollara NIC)를 활용한 엔드투엔드 오픈 스탠다드 랙 스케일 AI 인프라를 시연했다. 이는 오라클 클라우드 인프라스트럭처(OCI) 등 하이퍼스케일러에서 이미 운영되고 있고, 2025년 하반기부터 광범위하게 출시할 예정이다. AMD는 이전 세대 대비 MoE(Mixture of Experts) 모델 추론에서 최대 10배 더 높은 성능을 제공하는 MI400 시리즈 GPU를 기반으로 한 차세대 AI 랙 ‘헬리오스(Helios)’도 선공개했다. 이 시스템은 젠 6(Zen 6) 아키텍처 기반의 에픽 ‘베니스(Venice)’ CPU 및 펜산도 ‘불카노(Vulcano)’ NIC를 탑재했다. AMD는 최신 오픈소스 AI 소프트웨어 스택인 ROCm 7도 발표했다. ROCm 7은 생성형 AI와 HPC 워크로드를 충족하도록 설계되어 전반적인 개발자 경험을 끌어 올린다. ROCm 7은 업계 표준 프레임워크에 대한 지원을 높이고 하드웨어 호환성 확대, 개발 도구 및 드라이버, API, 라이브러리 등을 특징으로 내세운다. AMD AI 소프트웨어 개발 부문 부사장 공식 블로그 포스트) 인스팅트 MI350 시리즈는 AI 트레이닝 및 HPC 노드의 에너지 효율을 5년간 30배 개선한다는 AMD의 목표를 초과 달성해 결과적으로 38배라는 개선을 이뤄냈다. AMD는 2030년까지 2024년 기준 대비 랙 스케일 에너지 효율을 20배 향상시키겠다는 새로운 목표도 발표했다. 이는 2030년까지 전력 소비를 95% 줄이는 것인데, 현재 275개 이상의 랙이 필요한 일반적인 AI 모델을 학습시키는 데에 완전히 채워진 랙 1개, 혹은 그 이하의 시스템으로 처리할 수 있다는 것을 의미한다. 이외에도 AMD는 전 세계 개발자 및 오픈소스 커뮤니티를 위한 AMD 개발자 클라우드의 광범위한 출시를 발표했다. 이 클라우드는 고성능 AI 개발을 위해 설계된 완전 관리형 환경으로, 개발자가 AI 프로젝트를 빠르게 시작할 수 있도록 다양한 도구와 유연한 확장성을 제공한다. AMD는 ROCm 7과 AMD 개발자 클라우드를 통해 차세대 컴퓨팅에 대한 장벽을 낮추고 접근성을 넓힐 계획이다. 최근, 세계 10대 AI 및 모델 구축 기업 중 7곳이 AMD 인스팅트 가속기를 기반으로 프로덕션 워크로드를 운영하고 있는 가운데, 메타, 오픈AI, 마이크로소프트, xAI 등 7개 기업은 어드밴싱 AI행사에 참석해 선도적인 AI 모델 학습, 강력한 대규모 추론, AI 탐색과 개발 가속화 등 다양한 분야에서 AMD 설루션을 활용한 사례를 공유했다. 메타는 라마 3(Llama 3) 및 라마 4(Llama 4) 모델 추론에 인스팅트 MI300X를 활용 중이며, MI350의 연산 성능, TCO 대비 성능, 차세대 메모리에 대해 기대감을 나타냈다. 오픈AI의 샘 올트먼(Sam Altman) CEO는 하드웨어, 소프트웨어, 알고리즘 전반에 걸친 최적화의 중요성에 대해 설명하고, AI 인프라 분야에서 AMD와 오픈AI의 긴밀한 파트너십, MI300X 기반 애저(Azure)의 연구 및 GPT 모델, MI400 시리즈 플랫폼에서의 심층적인 설계 참여 등에 대해 논의했다. AMD의 개방형 랙 스케일 AI 인프라를 도입한 OCI는 최대 13만 1072개의 MI355X GPU로 가속화되는 제타스케일 AI 클러스터를 통해 고객들이 대규모 AI 모델을 구축, 학습, 추론할 수 있도록 지원한다고 밝혔다. 그리고 마이크로소프트는 인스팅트 MI300X가 애저 내의 독점 모델과 오픈소스 모델 모두에 사용되고 있다고 발표했다.  AMD의 리사 수(Lisa Su) CEO는 “AMD는 전례 없는 속도로 AI 혁신을 주도하고 있으며, 이는 AMD 인스팅트 MI350 시리즈 가속기 출시, 차세대 AMD ‘헬리오스’ 랙-스케일 설루션의 발전, 그리고 ROCm 개방형 소프트웨어 스택의 성장 모멘텀을 통해 더욱 부각되고 있다”면서, “우리는 개방형 표준, 공동 혁신, 그리고 AI의 미래를 정의하고자 협력하는 광범위한 하드웨어 및 소프트웨어 파트너 생태계 전반에 걸쳐 AMD의 리더십을 확대하고 있으며, 이를 통해 AI의 다음 단계로 진입하고 있다.”고 밝혔다.
작성일 : 2025-06-13
레드햇-메타, “엔터프라이즈용 오픈소스 AI 발전 위해 협력”
레드햇과 메타는 엔터프라이즈용 생성형 AI의 발전을 촉진하기 위해 새롭게 협력한다고 발표했다. 이번 협력은 레드햇이 레드햇 AI(Red Hat AI)와 고성능 vLLM 추론 서버에서 메타의 라마 4(Llama 4) 모델 그룹을 0일차부터 지원하는 것에서 시작됐다. 이를 기반으로 레드햇과 메타는 라마 스택(Llama Stack)과 vLLM 커뮤니티 프로젝트의 연계를 주도해 오픈 생성형 AI 워크로드의 통합 프레임워크를 촉진한다. 가트너(Gartner)에 따르면 2026년까지 독립 소프트웨어 벤더(ISV)의 80% 이상이 엔터프라이즈용 애플리케이션에 생성형 AI 기능을 내장할 것으로 예상되며, 이는 현재의 1% 미만에서 크게 증가한 수치이다. 이는 레드햇과 메타가 추진하고 있는 개방적이고 상호 운용 가능한 기반 기술의 필요성을 보여준다. 양사의 협력은 다양한 플랫폼, 클라우드 및 AI 가속기 전반과 주요 API 계층 및 AI의 실행 단계인 추론 제공(serving) 시 더욱 원활한 생성형 AI 워크로드 기능에 대한 요구사항을 직접적으로 해결하는 데에 초점을 맞추고 있다. 레드햇과 메타는 핵심 오픈소스 프로젝트에 주요 기여자로 적극 참여하며, 개방형 혁신에 대한 강한 의지를 보여준다는 계획이다. 여기에는 메타가 개발하고 오픈소스화한 플랫폼으로 전체 생성형 AI 애플리케이션 라이프사이클을 혁신하는 표준화된 구성 요소와 API를 제공하는 ‘라마 스택’, 대규모 언어 모델(LLM)을 위한 고도로 효율적이고 최적화된 추론을 가능하게 하는 오픈소스 플랫폼을 구현하는 ‘vLLM’ 등이 있다. 이번 협력의 일환으로 레드햇은 라마 스택 프로젝트에 적극적으로 기여하고 있으며, 레드햇 AI를 기반으로 혁신적인 에이전틱 AI 애플리케이션을 구축하는 개발자에게 매력적인 선택지가 될 수 있도록 라마 스택의 역량 강화에 기여하고 있다. 레드햇은 레드햇 AI를 통해 라마 스택을 포함한 다양한 에이전틱 프레임워크 지원을 지속하며 고객의 도구와 혁신 선택권을 촉진한다. 이러한 지원은 차세대 AI 설루션의 개발 및 배포를 가속화하는 견고하고 유연한 환경을 제공하는 것을 목표로 한다. 효율적인 개방형 생성형 AI 분야의 새로운 지평을 열어가고 있는 vLLM 프로젝트는 메타의 커뮤니티 기여 확대 의지에 의해 더욱 큰 추진력을 얻고 있다. 이번 협력을 통해 vLLM은 라마 4를 시작으로 라마 모델 그룹의 최신 세대에 대한 0일차 지원을 제공할 수 있는 능력을 갖추게 된다. 또한 vLLM은 메타와 다른 기업이 개방적이고 포용적인 도구 생태계를 조성하기 위해 협력하는 파이토치 생태계(PyTorch Ecosystem)의 일부이다. 이러한 검증을 통해 vLLM은 기업에서 생성형 AI 가치를 실현하는 최전선에 자리매김한다. 레드햇의 마이크 페리스(Mike Ferris) 수석 부사장 겸 최고 전략 책임자는 “레드햇과 메타는 AI의 미래 성공이 모델 발전뿐만 아니라 사용자가 차세대 모델의 혁신적인 기능을 극대화할 수 있도록 하는 추론 기능이 필요하다는 점을 인식하고 있다”면서, “라마 스택과 vLLM에 대한 양사의 공동 약속은 가속기나 환경에 관계 없이 하이브리드 클라우드 전반에서 필요한 곳 어디서든 더 빠르고 일관되며 비용 효율적인 생성형 AI 애플리케이션을 실현하는 비전을 달성하기 위한 것이다. 이것이 바로 AI의 개방형 미래이며 레드햇과 메타가 맞이할 준비가 된 미래”라고 말했다. 메타의 애시 자베리(Ash Jhaveri) AI 및 리얼리티 랩스 파트너십 부문 부사장은 “레드햇과 협력하여 라마 스택을 생성형 AI 애플리케이션을 원활하게 구축하고 배포하는 업계 표준으로 확립하는데 기여하게 되어 기쁘다”면서, “이번 협력은 개방형 혁신과 기업이 AI 기술의 잠재력을 최대한 활용할 수 있도록 지원하는 견고하고 확장 가능한 AI 설루션 개발에 대한 양사의 노력을 보여준다. 레드햇과 함께 메타는 라마 모델과 도구가 엔터프라이즈 AI의 기반이 되어 산업 전반에서 효율성과 혁신을 주도하는 미래를 위한 길을 닦고 있다”고 전했다.
작성일 : 2025-06-10
IBM, AI 및 보안 기술 제공하는 차세대 리눅스 플랫폼 ‘IBM 리눅스원 5’ 공개
IBM이 차세대 리눅스 컴퓨팅 플랫폼인 IBM 리눅스원 5(IBM LinuxONE 5)를 공개했다. 이 플랫폼은 데이터, 애플리케이션, 그리고 인공지능(AI)을 위한 고성능 리눅스 환경을 제공하며, AI 가속 기능이 내장된 IBM 텔럼 II 프로세서(IBM Telum)로 구동된다. IBM은 이번 신제품이 기업의 보안 강화, 비용 효율성 개선, AI의 엔터프라이즈 시스템 통합에 대한 해법을 제시할 것으로 기대하고 있다. IBM 리눅스원 5는 IBM의 사이버보안과 개인정보 보호 접근 방식을 전반적으로 확장해, 제로 트러스트(Zero Trust) 원칙을 한층 강화했다. 이를 통해 고객이 복잡한 규정을 준수하는 과정을 간소화할 수 있도록 지원한다. 기밀 컴퓨팅, 고성능 암호화 대역폭, 미국 국립표준기술연구소(NIST)의 양자내성 암호 알고리즘, 그리고 최첨단 하드웨어 보안 모듈을 통해 워크로드와 데이터를 종합적으로 보호하는 데 중점을 두고 있다. IBM은 이러한 보안 기능이 AI 모델과 민감한 데이터를 보호하는 데 중요한 역할을 할 것으로 기대하고 있다. 특히 레드햇 오픈시프트(Red Hat OpenShift) 컨테이너 플랫폼을 활용한 기밀 컨테이너는 AI를 포함한 다양한 데이터 활용 시나리오에서 데이터를 안전하게 보호하는 데 기여한다. IBM 볼트 셀프 매니지드(IBM Vault Self-Managed)와의 통합을 통해 하이브리드 환경 전반에서 강력한 보안 설루션을 제공하며, 비밀 관리 기능을 강화하도록 설계됐다.     비용 절감 측면에서 IBM 리눅스원 5는 여러 서버에 분산된 워크로드를 단일 고용량 시스템으로 통합함으로써, 운영 복잡성을 줄이고 IT 인프라를 최적화할 수 있다. 클라우드 네이티브 및 컨테이너화된 워크로드를 x86 기반 설루션에서 IBM 리눅스원 5로 이전하면 5년 동안 총 소유 비용을 최대 44%까지 절감할 수 있다는 분석도 있다. 이는 데이터센터 운영 효율을 높이는 데 기여한다. 가용성 측면에서는 99.999999%의 안정성을 발휘하도록 설계되어 비즈니스 연속성을 지원하고 운영 위험을 줄일 수 있다. “데이터 집약적이고 AI를 활용하는 비즈니스의 증가하는 워크로드 수요를 충족하는 데도 적합한 기술”이라는 것이 IBM의 설명이다. 이번 플랫폼의 핵심 기술은 IBM 텔럼 II 프로세서다. 2세대 온칩 AI 가속기를 포함한 텔럼 II는 실시간 대량 거래 처리에서 예측 AI와 대규모 언어 모델(LLM)을 더 높은 정밀도와 정확도로 확장할 수 있도록 설계됐다. 여기에 IBM 스파이어 가속기(IBM Spyre Accelerator)가 2025년 4분기부터 지원될 예정으로, 생성형 AI 기능을 추가해 텔럼 II 프로세서를 보완할 예정이다. 이러한 기술은 사기 탐지, 이미지 처리, 리테일 자동화 등 다양한 산업 사례에서 활용될 수 있도록 설계됐다. IBM 리눅스원은 탄탄한 생태계를 기반으로 하고 있다. 독립 소프트웨어 벤더(ISV)는 리눅스원의 AI와 암호화 기능을 활용해 맞춤형 설루션을 제공하며, 오픈소스 커뮤니티는 유연하고 확장 가능한 도구를 통해 통합을 지원한다. IBM 리눅스원은 우분투(Ubuntu), 수세(SUSE) 등과 협력해 다양한 리눅스 배포판을 지원하고 있다.
작성일 : 2025-05-29
레드햇, “모델/AI 가속기/클라우드 전반에 걸쳐 엔터프라이즈 AI 배포 가속화 지원”
레드햇은 레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server), 레드햇 AI 서드파티 검증 모델 및 라마 스택(Llama Stack)과 모델 컨텍스트 프로토콜(Model Context Protocol, 이하 MCP) API의 통합 그리고 엔터프라이즈 AI 포트폴리오 전반에 걸친 주요 업데이트를 통해 엔터프라이즈 AI에서 고객 선택권을 지속적으로 확대한다고 발표했다. 이러한 개발을 통해 레드햇은 조직이 AI 도입을 가속화하는 데 필요한 역량을 더욱 강화하는 동시에 하이브리드 클라우드 환경 전반에서 생성형 AI 제품 배포에 있어 고객에게 더 많은 선택과 신뢰를 제공한다. 포레스터(Forrester)에 따르면 오픈소스 소프트웨어는 기업 AI 활동을 가속화하는 촉매제가 될 것이다. AI 환경이 점점 더 복잡하고 역동적으로 성장함에 따라 레드햇 AI 인퍼런스 서버 및 서드파티 검증 모델은 효율적인 모델 추론과 레드햇 AI 플랫폼의 성능에 최적화된 검증 AI 모델 컬렉션을 제공한다. 레드햇은 라마 스택 및 MCP를 비롯한 생성형 AI 에이전트 개발을 위한 신규 API 통합을 더해 배포 복잡성을 해결하고 높은 제어력과 효율성으로 AI 이니셔티브를 가속화할 수 있도록 지원한다. 레드햇은 AI 포트폴리오에 새로운 레드햇 AI 인퍼런스 서버가 포함되면서, 하이브리드 클라우드 환경 전반에서 더 빠르고 일관되며 비용 효율적인 추론을 대규모로 제공할 것으로 보고 있다. 이 핵심 기능은 레드햇 오픈시프트 AI(Red Hat OpenShift AI) 및 레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI, 이하 RHEL AI)의 최신 출시에 통합되었으며, 독립형 설루션으로도 제공되어 지능형 애플리케이션을 더 효율적이고 유연하며 높은 성능으로 배포할 수 있다. 허깅페이스(Hugging Face)에서 제공되는 레드햇 AI 서드파티 검증 모델은 기업이 특정 요구사항에 적합한 모델을 쉽게 찾을 수 있도록 지원한다. 레드햇 AI는 검증된 모델 컬렉션과 배포 가이드를 제공해 모델 성능 및 결과 재현성(reproducibility)에 대한 고객 신뢰를 높인다. 레드햇으로 최적화된 일부 모델은 모델 압축 기술을 활용해 크기를 줄이고 추론 속도를 높여 자원 소비와 운영 비용을 최소화한다.  레드햇 AI는 메타(Meta)가 처음 개발한 라마 스택과 앤트로픽(Anthropic)의 MCP를 통합해 사용자에게 AI 애플리케이션 및 에이전트 구축과 배포를 위한 표준화된 API를 제공한다. 현재 레드햇 AI에서 개발자 프리뷰로 제공되는 라마 스택은 모든 생성형 AI 모델 전반에서 vLLM 추론, 검색 증강 생성(RAG), 모델 평가, 가드레일 및 에이전트 기능에 액세스할 수 있는 통합 API를 제공한다. MCP는 API, 플러그인, 데이터 소스를 연결하는 표준 인터페이스를 제공함으로써 에이전트 워크플로에서 외부 도구와의 통합을 지원한다. 레드햇 오픈시프트 AI(v2.20)의 최신 버전은 ▲최적화된 모델 카탈로그 ▲쿠브플로우 트레이닝 오퍼레이터(KubeFlow Training Operator) 기반의 분산 학습 ▲기능 저장소(Feature store) 등 생성형 AI 및 예측형 AI 모델을 대규모로 구축, 학습, 배포, 모니터링할 수 있는 추가 기능을 포함한다.  또한, RHEL AI 1.5는 레드햇의 기본 모델 플랫폼에 새로운 업데이트를 제공함으로써 대규모 언어 모델(LLM)의 개발, 테스트 및 실행을 지원한다. RHEL AI 1.5의 주요 기능은 ▲구글 클라우드 마켓플레이스(Google Cloud Marketplace) 가용성 제공 ▲스페인어, 독일어, 프랑스어 및 이탈리아어를 위한 향상된 다국어 기능 제공 등이다.   래드햇 AI 인스트럭트랩 온 IBM 클라우드(Red Hat AI InstructLab on IBM Cloud)서비스도 출시됐다. 이 신규 클라우드 서비스는 모델 맞춤화 과정을 더욱 간소화하여 확장성과 사용자 경험을 개선하며 기업이 고유한 데이터를 더 쉽고 높은 수준의 제어하에 활용할 수 있도록 지원한다.
작성일 : 2025-05-26
인텔, 컴퓨텍스에서 AI·워크스테이션용 최신 GPU 공개
인텔은 전문가와 개발자를 위한 신규 그래픽 처리 장치(GPU) 및 AI 가속기 제품군을 컴퓨텍스 2025에서 공개했다. 이번에 발표된 신제품은 ▲AI 추론 및 전문가용 워크스테이션에 최적화된 구성으로 설계된 인텔 아크 프로 B60(Intel Arc Pro B60) 및 인텔 아크 프로 B50(Intel Arc Pro B50) GPU ▲기업 및 클라우드 환경의 AI 추론을 위한 확장 가능하고 개방형 설루션을 제공하는 인텔 가우디 3 AI 가속기(Intel Gaudi 3 AI accelerators) ▲인텔 플랫폼에 최적화된 로컬 기반 목적 특화형 AI 에이전트를 개발자가 직접 생성할 수 있도록 지원하는 인텔 AI 어시스턴트 빌더(Intel AI Assistant Builder) 등이다.   ▲ 인텔 아크 프로 B60 및 B50 GPU   Xe2 아키텍처 기반의 인텔 아크 프로 B60 및 B50 GPU는 Xe 매트릭스 확장(XMX) AI 코어와 고급 레이 트레이싱 유닛을 탑재해 크리에이터, 개발자, 엔지니어를 위한 고성능 컴퓨팅 기능을 제공한다. 인텔은 이 두 GPU를 통해 전문가용 GPU 라인업을 확대하며, 고부하 AI 추론 작업과 워크스테이션 애플리케이션에 적합한 설계를 적용했다. AI 지원 기능, 24GB/16GB 메모리, 멀티 GPU 확장성을 갖춘 아크 프로 B 시리즈는 크리에이터, AI 개발자, 전문가에게 유연하고 강력한 설루션을 제공한다. 이들 GPU는 AEC(건축, 엔지니어링, 건설) 및 AI 추론용 워크스테이션에 최적화되어 있으며, 다양한 ISV 인증과 최적화된 소프트웨어를 통해 높은 안정성과 성능을 제공한다는 것이 인텔의 설명이다. 인텔 아크 프로 B 시리즈의 GPU들은 윈도우에서 일반 및 전문가용 드라이버와 호환되며, 리눅스에서는 AI 배포를 간소화하기 위한 컨테이너 기반 소프트웨어 스택을 지원한다. 향후 기능 추가 및 성능 최적화도 순차적으로 적용될 예정이다.  고용량 메모리와 주요 소프트웨어 호환성을 갖춘 인텔 아크 프로 B 시리즈는 크리에이터와 AI 개발자에게 확장가능하면서도 비용 효율적인 설루션을 제공한다. 인텔은 AI 개발 과정에서 발생하는 여러 마찰 지점을 최소화하도록 설계된 워크스테이션급 인텔 제온(Intel Xeon) 기반 플랫폼(코드명 ‘Project Battlematix)도 공개했다. 이 플랫폼은 최대 8개의 인텔 아크 프로 B60 24GB GPU를 지원해, 최대 1500억 개 매개변수의 중형 AI 모델을 고정밀도로 구동할 수 있으며, 최대 192GB의 비디오 전용 메모리를 제공한다. 인텔 아크 프로 B60 GPU는 2025년 6월부터 애즈락(ASRock), 니르(Gunnir), 래너(Lanner), 맥선(Maxsun), 오닉스(Onix), 세나오(Senao), 스파클(Sparkle) 등 다양한 애드인 보드 파트너사를 통해 샘플링이 시작되며, 아크 프로 B50 GPU는 2025년 7월부터 리테이너 채널을 통해 구매할 수 있다.   ▲ 인텔 가우디 3 PCIe 카드   인텔 가우디 3 PCIe 카드는 기존 데이터센터 서버 환경에서 확장형 AI 추론을 지원한다. 라마(LLaMA)와 같은 AI 모델을 사용할 경우, 소규모 기업부터 대기업까지 다양한 고객이 확장 가능한 구성 덕분에 LLaMA 3.1 8B부터 LLaMA 4 스카우트(Scout), 매버릭(Maverick) 모델까지 유연하게 실행할 수 있다. 인텔 가우디 3 PCIe 카드는 2025년 하반기부터 제공될 예정이다. 인텔 가우디 3 랙 스케일 시스템의 레퍼런스 디자인은 유연성과 확장성을 염두하고 설계되어, 랙당 최대 64개의 가속기를 지원하며 8.2TB의 고대역폭 메모리를 지원한다. 개방형 및 모듈형 구조로 특정 벤더 종속을 방지하고, ‘케이블드 백플레인(cabled backplane)’과 ‘블라인드-메이트 2D 풀-랙’ 배선 방식 덕분에 설치와 유지보수가 한층 간편하며, 액체 냉각을 적용해 뛰어난 성능을 유지하면서도 총소유비용(TCO)을 효과적으로 관리할 수 있다.  가우디 랙 스케일 아키텍처는 대규모 AI 모델 실행에 최적화되어 있으며, 낮은 지연 시간의 실시간 추론 작업에서 뛰어난 성능을 발휘한다. 이러한 구성은 개방적이고 유연하며 안전한 AI 인프라 구축에 대한 인텔의 의지를 보여주며, 클라우드 서비스 제공업체(CSP)를 위한 맞춤형 설계와 OCP(Open Compute Project) 표준 설계를 모두 지원한다. CES 2025에서 처음 공개된 인텔 AI 어시스턴트 빌더는 인텔 기반 AI PC에서 맞춤형 AI 에이전트를 로컬 환경에서 구축하고 실행할 수 있도록 설계된 경량형 오픈 소프트웨어 프레임워크로, 현재 깃허브(GitHub)에서 제공되는 베타 버전을 통해 누구나 사용할 수 있다. AI 어시스턴트 빌더는 개발자와 파트너가 자사 조직 및 고객을 위한 AI 에이전트를 빠르게 구축하고 배포할 수 있도록 지원한다.
작성일 : 2025-05-20
인텔 가우디 3 AI 가속기, IBM 클라우드 통해 첫 상용 클라우드 서비스 제공
인텔은 IBM 클라우드가 클라우드 서비스 제공사로는 처음으로 인텔 가우디 3(Intel Gaudi 3) AI 가속기 기반 상용 서비스를 제공한다고 밝혔다. 인텔은 이로써 클라우드 서비스 고객이 고성능 인공지능 역량을 보다 쉽게 활용할 수 있도록 지원하고, AI 특화 하드웨어의 높은 비용 장벽을 낮출 수 있을 것이라고 밝혔다. 이번 IBM 클라우드 상용화는 가우디 3의 첫 대규모 상업 배포이다. 양사는 IBM 클라우드에서 인텔 가우디 3를 활용해 고객이 합리적인 비용으로 생성형 AI를 테스트·혁신·배포하도록 돕는 것을 목표로 하고 있다. 가트너의 최근 조사에 따르면 2025년 전 세계 생성형 AI 관련 지출은 2024년 대비 76.4% 증가한 6440억 달러에 이를 전망이다. 가트너는 “생성형 AI가 IT 지출 전 영역에 변혁적 영향을 미치고 있으며, 이에 따라 AI 기술이 기업 운영과 소비재에 필수 요소로 자리 잡을 것”이라고 분석했다. 많은 기업이 생성형 AI와 같은 도구가 자동화·워크플로 개선·혁신 촉진 등에 분명한 이점이 있다는 것을 알고 있으나, AI 애플리케이션 구축에는 막대한 연산 능력이 필요하고 대개의 경우 고가의 특화된 프로세서를 요구하기 때문에 많은 기업들은 AI 혜택을 누리지 못하고 있다.     인텔 가우디 3 AI 가속기는 개방형 개발 프레임워크를 지원하면서 생성형 AI·대규모 모델 추론·파인튜닝 등에 대한 폭발적인 수요를 충족하도록 설계됐으며, 멀티모달 LLM(대규모 언어 모델)과 RAG(검색 증강 생성) 워크로드에 최적화되어 있다. IBM 클라우드는 다양한 기업 고객, 특히 금융 서비스, 의료 및 생명 과학, 공공 부문 등 규제 산업에 종사하는 고객에게 서비스를 제공한다. 현재 가우디 3는 독일 프랑크푸르트, 미국 워싱턴 D.C., 택사스 댈러스의 IBM 클라우드 리전에 적용되어 사용할 수 있다. 가우디 3은 IBM의 광범위한 AI 인프라스트럭처 제품에도 통합되고 있다. 고객들은 현재 IBM VPC(가상 프라이빗 클라우드)의 IBM 클라우드 가상 서버를 통해 가우디 3를 사용할 수 있으며, 2025년 하반기부터 다양한 아키텍처에 배포할 수 있다. 레드햇 오픈시프트(Red Hat OpenShift)와 IBM 왓슨엑스 AI 플랫폼(IBM’s watsonx AI platform)에 대한 지원은 이번 분기 내 가능해질 예정이다. 인텔의 사우라브 쿨카니(Saurabh Kulkarni) 데이터센터 AI 전략 담당은 “인텔 가우디 3 AI 가속기가 IBM 클라우드에 도입되며 기업 고객에게 추론 및 파인 튜닝을 위해 최적화된 성능으로 생성형 AI 워크로드를 확장할 수 있도록 지원하게 되었다”면서, “이번 협력은 전 세계 기업이 AI를 더 쉽게, 비용효율적으로 구현할 수 있도록 지원하려는 양사의 공동 노력의 일환”이라고 밝혔다. IBM의 사틴더 세티(Satinder Sethi) 클라우드 인프라스트럭처 서비스 총괄은 “더 많은 데이터 처리 능력과 더 높은 성능 구현은 전 세계 고객의 AI 도입을 촉진할 것”이라며 “인텔 가우디 3는 고객에게 AI의 하드웨어에 대한 더 많은 선택권과 더 많은 자유, 더 비용 효율적인 플랫폼을 제공해준다”고 밝혔다.
작성일 : 2025-05-08
알테어, 엔비디아 옴니버스 블루프린트와 통합해 실시간 디지털 트윈 협업 환경 구현
알테어가 자사의 클라우드 플랫폼인 ‘알테어원’에 엔비디아의 ‘옴니버스 블루프린트’를 통합했다고 밝혔다. 옴니버스 블루프린트는 엔비디아가 개발한 실시간 디지털 트윈 구축을 위한 참조 워크플로이다. 이번 통합으로 사용자는 복잡한 시뮬레이션과 디지털 트윈을 실시간으로 시각화하고 구축할 수 있으며, 별도의 설정 없이 다양한 사용자와 함께 협업할 수 있다.   이제 사용자는 알테어원 내에서 옴니버스 블루프린트를 즉시 활용할 수 있으며, 구축한 디지털 트윈은 클라우드와 온프레미스 환경 어디서든 손쉽게 배포할 수 있다. 알테어원은 모든 데이터를 메타데이터와 함께 체계적으로 관리해 설계 반복 시에도 유연하게 대응할 수 있도록 지원한다. 특히 알테어의 인공지능(AI) 기반 해석 설루션인 ‘알테어 피직스AI’를 함께 활용할 경우, 기존에 며칠씩 걸리던 물리 해석 작업을 수 초 내지는 수 분 내로 단축할 수 있다.   실시간 협업도 중요한 차별점이다. 사용자는 디지털 트윈 환경에서 여러 사용자와 동시에 설계를 진행하고, 가상 환경에서 실시간으로 시뮬레이션을 수행할 수 있다. 특히 3D 설계, AI, 레이 트레이싱 기술이 결합된 몰입형 업무 환경을 제공하며, 클라우드 기반의 고품질 렌더링과 스트리밍 기능을 통해 복잡한 시스템 통합도 간소화된다. 알테어는 충돌 및 낙하 테스트 등 고난도 해석 작업에서도 시뮬레이션 속도와 협업 효율을 높일 수 있을 것으로 보고 있다.   이번 협업은 엔비디아의 GPU 가속, NIM 마이크로서비스, 옴니버스 플랫폼 등 최신 기술을 기반으로 하며, 알테어는 이를 바탕으로 시뮬레이션, AI, 데이터 분석, 고성능 컴퓨팅(HPC) 등 자사의 핵심 역량을 단일 플랫폼에 집약해 디지털 엔지니어링의 새로운 표준을 제시할 계획이다.     엔비디아의 티모시 코스타 CAE 및 CUDA-X 부문 수석 디렉터는 “디지털 트윈 기술은 산업을 재편하고 있다”면서, “알테어 사용자는 이제 엔비디아의 첨단 기술을 기반으로 더욱 효율적이고 실질적인 디지털 엔지니어링을 구현할 수 있을 것”이라고 말했다.   알테어의 샘 마할링엄 최고기술책임자(CTO)는 “엔비디아의 블랙웰 가속기, AI, 옴니버스 기술을 알테어원에 통합함으로써 고객은 디지털 트윈과 시뮬레이션을 보다 빠르고 직관적으로 운영할 수 있게 됐다”면서, “이번 통합은 데이터, AI, 시뮬레이션을 하나의 워크플로로 연결해 디지털 엔지니어링 혁신을 실현하는 중요한 전환점이 될 것”이라고 강조했다.   한편 알테어는 옴니버스 블루프린트 통합 외에도 주요 제품에 엔비디아 기술을 적용해 성능 향상을 지속하고 있다. 알테어의 구조해석 설루션인 ‘알테어 옵티스트럭트’는 GPU 가속 라이브러리 cuDSS를 도입해 CPU 및 GPU에서 해석 성능을 개선했다. 또한 알테어의 주요 전산유체해석(CFD) 소프트웨어가 블랙웰 플랫폼에서 최대 1.6배의 속도 향상을 기록했고, 입자 해석 시뮬레이션 소프트웨어인 ‘알테어 이뎀’은 기존 32코어 CPU 대비 최대 40배 빠른 시뮬레이션 속도를 달성한 바 있다.
작성일 : 2025-03-27