• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "공간 컴퓨팅"에 대한 통합 검색 내용이 3,273개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 기업 생산성 강화하는 ‘네모 마이크로서비스’ 정식 출시
엔비디아가 에이전트 기반 AI 플랫폼 개발을 가속화하고 기업의 생산성을 높이는 ‘엔비디아 네모 마이크로서비스(NVIDIA NeMo microservices)’를 정식 출시했다고 밝혔다. 이번에 정식 출시된 엔비디아 네모 마이크로서비스는 기업 IT 부서가 데이터 플라이휠(flywheel)을 활용해 직원 생산성을 높일 수 있는 AI 팀원을 빠르게 구축하도록 지원한다. 이 마이크로서비스는 엔드 투 엔드 개발자 플랫폼을 제공한다. 이 플랫폼은 최첨단 에이전틱 AI(Agentic AI) 시스템의 개발을 가능하게 하고, 추론 결과, 비즈니스 데이터, 사용자 선호도에 기반한 데이터 플라이휠을 통해 지속적인 최적화를 지원한다. 데이터 플라이휠을 통해 기업 IT 부서는 AI 에이전트를 디지털 팀원으로 온보딩할 수 있다. 이러한 에이전트는 사용자 상호작용과 AI 추론 과정에서 생성된 데이터를 활용해 모델 성능을 지속적으로 개선할 수 있다. 이를 통해 ‘사용’을 ‘인사이트’로, ‘인사이트’를 ‘실행’으로 전환할 수 있다.     데이터베이스, 사용자 상호작용, 현실 세계의 신호 등의 고품질 입력이 지속적으로 제공되지 않으면 에이전트의 이해력은 약화된다. 그 결과, 응답의 신뢰성은 떨어지고 에이전트의 생산성도 저하될 수 있다. 운영 환경에서 AI 에이전트를 구동하는 모델을 유지하고 개선하기 위해서는 세 가지 유형의 데이터가 필요하다. 인사이트를 수집하고 변화하는 데이터 패턴에 적응하기 위한 추론 데이터, 인텔리전스를 제공하기 위한 최신 비즈니스 데이터, 모델과 애플리케이션이 예상대로 작동하는지를 판단하기 위한 사용자 피드백 데이터가 그것이다. 네모 마이크로서비스는 개발자가 이 세 가지 유형의 데이터를 효율적으로 활용할 수 있도록 지원한다. 또한, 네모 마이크로서비스는 에이전트를 구동하는 모델을 선별하고, 맞춤화하며, 평가하고, 안전장치를 적용하는 데 필요한 엔드 투 엔드 툴을 제공함으로써 AI 에이전트 개발 속도를 높인다. 엔비디아 네모 마이크로서비스는 ▲대규모 언어 모델(LLM) 미세 조정을 가속화해 최대 1.8배 높은 훈련 처리량을 제공하는 네모 커스터마이저(Customizer) ▲개인과 산업 벤치마크에서 AI 모델과 워크플로의 평가를 단 5번의 API 호출로 간소화하는 네모 이밸류에이터(Evaluator) ▲ 0.5초의 추가 지연 시간만으로 규정 준수 보호 기능을 최대 1.4배까지 향상시키는 네모 가드레일(Guardrails)을 포함한다. 이는 네모 리트리버(Retreiver), 네모 큐레이터(Curator)와 함께 사용돼, 맞춤형 엔터프라이즈 데이터 플라이휠을 통해 AI 에이전트를 구축하고, 최적화하며, 확장하는 과정을 기업이 보다 수월하게 수행할 수 있도록 지원한다. 개발자는 네모 마이크로서비스를 통해 AI 에이전트의 정확성과 효율성을 높이는 데이터 플라이휠을 구축할 수 있다. 엔비디아 AI 엔터프라이즈(Enterprise) 소프트웨어 플랫폼을 통해 배포되는 네모 마이크로서비스는 온프레미스 또는 클라우드의 모든 가속 컴퓨팅 인프라에서 엔터프라이즈급 보안, 안정성, 지원과 함께 손쉽게 운영할 수 있다. 이 마이크로서비스는 기업들이 수백 개의 전문화된 에이전트를 협업시키는 대규모 멀티 에이전트 시스템을 구축하고 있는 현재 정식 출시됐다. 각 에이전트는 고유의 목표와 워크플로를 가지고 있으며, 디지털 팀원으로서 복잡한 업무를 함께 해결하며 직원들의 업무를 보조하고, 강화하며, 가속화한다. 엔비디아 네모 마이크로서비스로 구축된 데이터 플라이휠은 사람의 개입을 최소화하고 자율성을 극대화하면서 데이터를 지속적으로 선별하고, 모델을 재훈련하며, 성능을 평가한다. 네모 마이크로서비스는 라마(Llama), 마이크로소프트 파이(Microsoft Phi) 소형 언어 모델 제품군, 구글 젬마(Google Gemma), 미스트랄 등 폭넓은 인기 오픈 모델을 지원한다. 또한, 기업은 엔비디아 가속 인프라, 네트워킹, 그리고 시스코, 델, HPE, 레노버(Lenovo) 등 주요 시스템 제공업체의 소프트웨어를 기반으로 AI 에이전트를 실행할 수 있다. 액센츄어(Accenture), 딜로이트(Deloitte), EY를 비롯한 거대 컨설팅 기업들 역시 네모 마이크로서비스를 기반으로 기업용 AI 에이전트 플랫폼을 구축하고 있다.
작성일 : 2025-04-25
인텔, 소프트웨어 정의 차량 혁신 가속화 위한 차세대 SoC 및 파트너십 발표
인텔은 ‘상하이 모터쇼(Auto Shanghai)’에 처음 참가하면서, 멀티-공정 노드 칩렛 아키텍처 기반 차량용 2세대 인공지능(AI) 강화 소프트웨어 정의 차량(SDV : Software-Defined Vehicle) SoC(시스템온칩)을 공개했다. 이번 신형 SoC는 인텔리전트 커넥티드 차량에 대한 수요 증가에 발맞춰 설계되었으며, 완성차 업체에 확장 가능한 성능, 첨단 AI 기능 및 비용 효율을 제공한다. 또한, 인텔은 자동차 기술 기업인 모델베스트(ModelBest), 블랙세서미 테크놀로지(Black Sesame Technologies)와의 전략적 협업을 발표하며 자사의 자동차 생태계를 더욱 확장하고 있다고 소개했다. 이를 통해 인텔은 AI 기반 차량용 콕핏(Cockpit), 통합 첨단 운전자 보조 시스템(ADAS), 에너지 효율적인 차량 컴퓨팅 플랫폼 등에서의 혁신을 가속화할 계획이다. 2세대 인텔 SDV SoC는 멀티 노드 칩렛 아키텍처를 채택한 차량용 SoC로, 완성차 업체가 컴퓨팅, 그래픽, AI 기능을 필요에 따라 유연하게 구성할 수 있도록 지원한다. 이를 통해 개발 비용을 절감하고 제품 출시 기간을 단축할 수 있으며, 기능별로 최적화된 최고 수준의 실리콘을 결합한 아키텍처에 기반한다. 인텔은 2세대 SDV SoC가 ▲생성형 및 멀티모달 AI를 위한 최대 10배 향상된 AI 성능 ▲더욱 풍부한 HMI(인간-기계 간 인터페이스) 경험을 위한 최대 3배 향상된 그래픽 성능 ▲카메라 입력 및 이미지 처리 기능 강화를 위한 12개 카메라 레인 지원 등의 특징을 갖추었다고 밝혔다. 또한, 유연하고 미래 지향적인 설계를 바탕으로 완성차 업체가 첨단 기능을 바탕으로 제품 차별화를 실현하고, 차세대 사용자 경험을 제공하는 동시에 전력 소비와 비용도 최적화할 수 있도록 지원한다고 전했다.     한편, 인텔은 상하이 모터쇼 2025에서 주요 파트너들과의 신규 협업을 발표했다. 인텔은 SDV SoC와 인텔 아크(Intel Arc) 그래픽 기반으로 구동되는 모델베스트의 GUI 인텔리전트 에이전트를 통해 기기 자체에서 대규모 언어 모델(LLM)의 구현을 현실화하고 있다. 이 에이전트는 네트워크 연결 없이도 작동하는 AI 기반 음성 제어 및 사용자 맞춤형 경험을 가능하게 하며, 복잡한 상황에서도 자연어를 정확히 이해해 직관적인 콕핏 경험을 제공한다. 이번 협업은 모델베스트가 인텔의 AI PC 가속화 프로그램에서 거둔 성공을 기반으로 하며, 인텔 차량 플랫폼에서 즉시 활용 가능한 AI 경험을 최적화한 결과다. 또한, 블랙세서미 테크놀로지스의 ADAS 기술에 인텔의 SDV SoC와 차량용 인텔 아크 그래픽을 결합해 ADAS와 몰입형 콕핏 경험을 하나의 에너지 효율적인 중앙 컴퓨팅 플랫폼으로 통합하고 있다. 고속·저지연의 안정적인 연결을 기반으로, 끊김 없는 차량 내 경험을 구현할 계획이다. 인텔 오토모티브 총괄인 잭 위스트(Jack Weast) 팰로우는 “인텔은 2세대 SDV SoC를 통해 자동차 컴퓨팅의 패러다임을 새롭게 정의하고 있다. 칩렛 기술의 유연성과 인텔의 검증된 총체적 차량 접근 방식을 결합해, SDV 혁신을 실현해 나가고 있다. 에너지 효율성부터 AI 기반 사용자 경험까지, 업계가 직면한 실질적인 과제를 파트너와과 함께 해결하며 SDV 시대를 모두를 위한 현실로 만들고자 한다”고 밝혔다.
작성일 : 2025-04-24
오라클-구글 클라우드, 오라클 데이터베이스앳구글 클라우드를 위한 파트너 프로그램과 신기능 발표
오라클과 구글 클라우드가 양사 간의 파트너 프로그램 및 오라클 데이터베이스앳구글 클라우드(Oracle Database@Google Cloud) 상의 오라클 베이스 데이터베이스 서비스(Oracle Base Database Service) 제공 계획과 확장된 기능을 발표했다. 양사의 파트너사는 이제 새로운 파트너 프로그램을 통해 자사 고객에게 오라클 데이터베이스앳구글 클라우드를 제공 지원한다. 또한 오라클 데이터베이스앳구글 클라우드에서 오라클 엑사데이터 X11M(Oracle Exadata X11M)이 지원된다. 이제 구글 클라우드 및 오라클의 파트너사는 구글 클라우드 마켓플레이스에서 비공개 오퍼를 통해 오라클 데이터베이스앳구글 클라우드를 구매하고 고객에게 재판매할 수 있다. 또한 기술 파트너사는 곧 자사 설루션 및 서비스에 오라클 데이터베이스앳구글 클라우드를 포함시킬 수 있게 된다. 신규 파트너 프로그램은 향후 12개월 이내에 구글 클라우드 파트너 어드밴티지(Google Cloud Partner Advantage) 프로그램 및 오라클 파트너 네트워크(Oracle PartnerNetwork, OPN) 회원 파트너사를 대상으로 제공될 예정이다. 거래는 구글 클라우드 마켓플레이스를 통해 이루어지며, 구글 클라우드 크레딧만 사용 가능하다. 오라클 및 구글 클라우드의 공동 고객 중 다수는 이미 신뢰할 수 있는 파트너사를 통해 클라우드 서비스를 구매하고 있다. 출시 예정인 리셀러 프로그램은 기업이 오라클 데이터베이스앳구글 클라우드와 같은 혁신적인 멀티클라우드 설루션의 가장 적합한 최상의 가치 구현 사용 사례를 발굴하고 활용하는 것을 지원하도록 설계되었다. 또한, 오라클과 구글 클라우드는 오라클 데이터베이스앳구글 클라우드에 대한 고객 수요 증가를 충족하기 위해 서비스 및 플랫폼 개선 사항을 추가할 예정이다. 여기에는 전용 인프라스트럭처 기반의 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service on Dedicated Infrastructure)에서 오라클 엑사데이터 X11M 지원, 오라클 베이스 데이터베이스 서비스에서 근시일내 제한된 미리보기 제공 등이 포함된다. 오라클의 카란 바타 OCI 담당 수석 부사장은 “오라클은 전 세계 기업의 증가하는 수요에 부응하기 위해 구글 클라우드와의 협력관계를 지속적으로 확대해 나가고 있다. 곧 출시될 오라클 데이터베이스앳구글 클라우드의 리셀러 프로그램은 양사 협력 관계에 있어서 뿐만 아니라, 멀티클라우드 시장 전체에 걸쳐 처음 도입되는 것”이라면서, “오라클 데이터베이스앳구글 클라우드 상의 오라클 베이스 데이터베이스 서비스는 양사 협력관계에 또 하나의 이정표가 될 것이다. 이 서비스는 자동화된 데이터베이스 수명주기 관리 및 로코드 애플리케이션 개발 기능을 제공하며, 독립적으로 확장 가능한 컴퓨팅 및 스토리지 자원 등을 사용량 기준 종량제 요금으로 사용 가능하다”고 말했다. 구글 클라우드의 앤디 구트만스 데이터베이스 담당 부사장 겸 총괄 매니저는 “오라클과 구글 클라우드는 언제나 양사 공동 고객의 요구 사항을 충족하는 것을 제1의 목표로 삼고 오라클 데이터베이스앳구글 클라우드를 위한 협력을 계속해 왔다”면서, “오라클 베이스 데이터베이스 서비스는 비즈니스 크리티컬 워크로드를 지원하는 기술력을 바탕으로 고객의 비용 효율적인 클라우드 마이그레이션 가속화에 기여할 것이다. 또한 오라클 데이터베이스앳구글 클라우드를 구글 마켓플레이스를 통해 제공하는 것은 파트너사를 위한 구글의 노력을 반영하는 것으로, 고객에게 최대의 유연성을 지속적으로 제공할 수 있도록 보장한다”고 말했다.
작성일 : 2025-04-22
엔비디아, “차세대 AI 성장 위한 인텔리전스 구축 나선다”
엔비디아가 AI 팩토리에서 인텔리전스를 생산하는 기반을 구축해 미국을 포함한 전 세계의 차세대 성장을 이끌겠다는 포부를 밝혔다. 모든 기업과 국가는 성장과 경제적 기회 창출을 원하지만, 이를 위해서는 사실상 무한한 인텔리전스가 필요하다. 엔비디아는 이러한 상황에서 에코시스템 파트너와 협력해 추론 기술, AI 모델, 컴퓨팅 인프라를 발전시켜 AI 팩토리를 통해 인텔리전스를 생산하겠다고 전했다. 엔비디아는 미국 내에서 AI 슈퍼컴퓨터를 제조할 것이라고 발표했는데, 향후 4년 내에 파트너들과 협력해 미국에서 최대 5000억 달러 규모의 AI 인프라를 생산할 계획이다. 엔비디아는 미국 AI 팩토리를 위한 AI 슈퍼컴퓨터 구축이 수십만 명에게 기회를 제공하고, 향후 수십 년 동안 수조 달러의 성장을 견인할 것으로 기대하고 있다. 이러한 AI 슈퍼컴퓨터의 핵심인 엔비디아 블랙웰(Blackwell) 컴퓨팅 엔진 중 일부는 이미 미국 애리조나에 있는 TSMC 공장에서 생산되고 있다.     또한 엔비디아는 차세대 AI 모델 훈련과 대규모 애플리케이션 실행을 위한 엔비디아 블랙웰 GB200 NVL72 랙 스케일 시스템이 코어위브(CoreWeave)를 통해 제공된다고 발표했다. 코어위브는 현재 수천 개의 엔비디아 그레이스(Grace) 블랙웰 프로세서를 통해 차세대 AI를 훈련하고 배포할 수 있다. 한편, 엔비디아는 보다 효율적이고 지능적인 모델을 만들기 위해 하드웨어 혁신을 넘어 AI 소프트웨어 분야도 강화한다는 전략을 소개했다. 이러한 발전의 최신 사례는 엔비디아 라마 네모트론 울트라(Llama Nemotron Ultra) 모델이다. 이 모델은 최근 아티피셜 애널리시스(Artificial Analysis)에서 과학적이고 복잡한 코딩 작업을 위한 정확한 오픈소스 추론 모델로 인정받았다. 또한 이는 현재 세계 최고 수준의 추론 모델 중 하나로 평가받고 있다.
작성일 : 2025-04-17
스노우플레이크, “AI 조기 도입한 기업의 92%가 투자 대비 수익 실현”
스노우플레이크가 ‘생성형 AI의 혁신적 ROI(Radical ROI of Generative AI)’ 보고서를 발표했다. 이번 보고서는 글로벌 시장 조사 기관 ESG(Enterprise Strategy Group)와 공동으로 AI를 실제 사용 중인 9개국 1900명의 비즈니스 및 IT 리더를 대상으로 진행한 설문조사 결과를 담았다. 보고서에 따르면 AI를 도입한 기업의 92%가 이미 AI 투자를 통해 실질적 ROI(투자수익률)를 달성했고, 응답자의 98%는 올해 AI에 대한 투자를 더욱 늘릴 계획인 것으로 나타났다. 전 세계 기업의 AI 도입이 빨라지면서 데이터 기반이 성공적인 AI 구현의 핵심 요소로 떠오르고 있다. 그러나 많은 기업이 여전히 자사 데이터를 AI에 적합한 형태로 준비하는 데 어려움을 겪는 것으로 파악됐다.  전반적으로 기업들은 AI 초기 투자에서 성과를 거두고 있는 것으로 나타났다. 93%의 응답자는 자사의 AI 활용 전략이 ‘매우’ 또는 ‘대부분’ 성공적이라고 답했다. 특히 전체 응답자의 3분의 2는 생성형 AI 투자에 따른 ROI를 측정하고 있고, 1달러 투자당 평균 1.41달러의 수익을 올리며 ROI를 높이고 있는 것으로 집계됐다.  또한 국가별 AI 성숙도에 따라 기업이 AI 역량을 주력하는 분야가 달랐으며, 이는 지역별 ROI 성과와 밀접한 연관이 있는 것으로 드러났다. 미국은 AI 투자 ROI가 43%로 AI 운영 최적화 측면에서 가장 앞서 있었다. 뿐만 아니라 자사의 AI를 실제 비즈니스 목표 달성에 ‘매우 성공적’으로 활용하고 있다고 답한 비율이 52%로 전체 응답국 중 가장 높았다. 한국의 경우 AI 투자 ROI는 41%로 나타났다. 보고서에 따르면 한국 기업은 AI 성숙도가 높은 편으로 오픈소스 모델 활용, RAG(검색증강생성) 방식을 활용해 모델을 훈련 및 보강하는 비율이 각각 79%, 82%로 글로벌 평균인 65%, 71%를 웃돌았다.  특히 한국 기업들은 기술 및 데이터 활용에 있어 높은 실행 의지를 보이고 있는 것으로 나타났다. 오픈소스 모델 활용(79%), RAG 방식의 모델 훈련 및 보강(82%), 파인튜닝 모델 내재화(81%), 텍스트 투 SQL(Text to SQL, 자연어로 작성한 질문을 SQL 쿼리로 자동 변환하는 기술) 서비스 활용(74%) 등 고급 AI 기술을 활용한다고 답변한 비율이 글로벌 평균을 크게 웃돌았다. 이러한 데이터 활용 역량은 비정형 데이터 관리 전문성(35%)과 AI 최적화 데이터 보유 비율(20%)에서도 확인된다. 이런 성과에 비해 아직도 전략적 의사결정에 AI 활용하는 데에는 어려움을 겪고 있는 모습도 나타났다. 조사 결과에 따르면 응답자의 71%는 ‘제한된 자원에 대비해 추진할 수 있는 AI 활용 분야가 매우 다양하고, 잘못된 의사결정이 시장 경쟁력에 부정적 영향을 미칠 수 있다’고 답했다. 또한 응답자의 54%는 ‘비용, 사업 효과, 실행 가능성 등 객관적 기준에 따라 최적의 도입 분야를 결정하는 데 어려움을 겪고 있다’고 밝혔다. 59%는 ‘잘못된 선택이 개인의 직무 안정성까지 위협할 수 있다’고 우려했다. 한국 기업의 경우, 기술적 복잡성(39%), 활용 사례 부족(26%), 조직 내 협업 문제(31%) 등의 어려움을 겪고 있다고 답하며 아직 다양한 비즈니스 영역으로의 AI 확대는 더딘 것으로 나타났다. 그럼에도 향후 12개월 내 ‘다수의 대규모 언어 모델(LLM)을 적극적으로 도입’하고 ‘대규모 데이터를 활용할 계획’이라고 답한 기업은 각각 32%와 30%로, AI 도입 확대에 관한 강한 의지를 드러냈다. 설문에 응답한 전체 기업의 80%는 ‘자체 데이터를 활용한 모델 파인튜닝을 진행 중’이고 71%는 ‘효과적인 모델 학습을 위해 수 테라바이트의 대규모 데이터가 필요하다’고 답하며, AI의 효과를 극대화하기 위해 자사 데이터를 적극 활용하고 있는 것으로 나타났다. 그러나 여전히 많은 기업들이 데이터를 AI에 적합한 형태로 준비하는 과정에서 어려움을 겪기도 했다. 데이터 준비 과정에서 겪는 주요 과제로 ▲데이터 사일로 해소(64%) ▲데이터 거버넌스 적용(59%) ▲데이터 품질 관리(59%) ▲데이터 준비 작업 통합(58%) ▲스토리지 및 컴퓨팅 자원의 효율적 확장(54%) 등을 꼽았다. 스노우플레이크의 바리스 굴테킨(Baris Gultekin) AI 총괄은 “AI가 기업들에게 실질적인 가치를 보여주기 시작했다”면서, “평균 일주일에 4000개 이상의 고객이 스노우플레이크 플랫폼에서 AI 및 머신러닝을 활용하고 있고 이를 통해 조직 전반의 효율성과 생산성을 높이고 있다”고 강조했다.  스노우플레이크의 아르틴 아바네스(Artin Avanes) 코어 데이터 플랫폼 총괄은 “AI의 발전과 함께 조직 내 데이터 통합 관리의 필요성이 더욱 커지고 있다”면서, “스노우플레이크처럼 사용이 쉽고 상호 운용 가능하며 신뢰할 수 있는 단일 데이터 플랫폼은 단순히 빠른 ROI 달성을 돕는 것을 넘어, 사용자가 전문적인 기술 없이도 안전하고 규정을 준수하며 AI 애플리케이션을 쉽게 확장할 수 있도록 견고한 기반을 마련해 준다”고 말했다. 
작성일 : 2025-04-16
알테어, 데이타솔루션과 리셀러 파트너십 맺고 국내 AI·HPC 시장 공략 본격화
알테어가 데이터 및 AI 설루션 전문 기업인 데이타솔루션과 리셀러 파트너십을 맺었다고 밝혔다. 이번 협력은 알테어의 인공지능(AI) 및 고성능컴퓨팅(HPC) 기술력과 데이타솔루션의 데이터 인프라 전문성을 결합해, 고객 맞춤형 설루션을 제공하고 국내 고객 지원을 강화하기 위한 것이다.   이번 파트너십을 통해 데이타솔루션은 알테어의 데이터 분석 및 AI 플랫폼인 ‘알테어 래피드마이너’와 함께 고성능 컴퓨팅 설루션 ‘알테어 HPC웍스’를 고객에게 공급하게 된다. 이를 통해 데이타솔루션은 단순 분석을 넘어 복잡한 연산과 대규모 데이터 처리를 요구하는 고성능 컴퓨팅 관리까지 폭넓게 대응할 수 있을 것으로 기대하고 있다.   알테어 래피드마이너는 분산된 데이터를 효과적으로 통합하고, 데이터에서 숨겨진 인사이트를 발굴하며, 데이터 분석 전 과정을 지원한다. 생성형 AI 및 AI 에이전트, 데이터패브릭 등 차세대 기술을 손쉽게 접목할 수 있어, 기업들은 업무 효율 향상, 투자 수익률(ROI) 극대화, 데이터 기반 경쟁력 확보에 도움을 받을 수 있다.   한편 알테어 HPC웍스는 고성능컴퓨팅 자원의 효율적인 활용과 워크로드 관리를 지원하는 설루션이다. 대규모 연산이 필요한 시뮬레이션, 데이터 분석, AI 모델 학습 등 다양한 업무에서 IT 인프라의 성능을 극대화할 수 있고, 비용 최적화 등 전략적 IT 운영 체계 구축이 가능하다.     데이타솔루션의 배복태 대표이사는 “이번 협력으로 고객이 데이터에 기반한 AI 시스템을 신속하게 구축하여 실질적인 비즈니스 경쟁력을 확보할 수 있도록, AX/DX 통합 설루션 역량을 더욱 강화해 나가겠다”고 밝혔다.   알테어의 문성수 아시아태평양 수석부사장은 “이번 협력을 통해 빠르게 변화하는 데이터 분석 및 HPC 시장에 효과적으로 대응하고 경쟁력 강화를 이끌 것으로 기대된다”며, “양사의 기술력을 바탕으로 국내 기업의 디지털 전환과 운영 효율성 향상에 실질적인 기여를 할 것”이라고 밝혔다.
작성일 : 2025-04-15
AMD, “구글 클라우드의 신규 가상 머신에 5세대 에픽 프로세서 탑재”
AMD 는 구글 클라우드의 신규 C4D 및 H4D 가상 머신(VM)에 자사의 5세대 AMD 에픽(AMD EPYC) 프로세서가 탑재됐다고 발표했다. 구글 클라우드의 범용 및 고성능 컴퓨팅(HPC) 최적화 VM 제품군에 새롭게 추가된 이번 인스턴스는 데이터 분석, 웹 서비스부터 고성능 컴퓨팅과 AI에 이르기까지 다양한 클라우드 워크로드에 높은 성능과 확장성 및 효율성을 제공하는 데에 초점을 맞추고 있다. 구글 클라우드 C4D 인스턴스는 범용 컴퓨팅 워크로드 및 AI 추론 작업에 최적화된 성능, 효율성, 일관성을 제공한다. 구글 클라우드의 테스트 결과에 따르면, AMD의 최신 젠 5(Zen 5) 아키텍처를 기반으로 한 C4D 인스턴스는 이전 세대 대비 vCPU당 최대 80% 높은 처리량을 제공한다. HPC에 최적화된 H4D 인스턴스는 에픽 프로세서와 클라우드 RDMA(Cloud RDMA) 기술을 기반으로 수만 개의 코어까지 효율적으로 확장할 수 있도록 설계됐다.     AMD 서버 사업부의 댄 맥나마라(Dan McNamara) 수석 부사장 겸 총괄 매니저는 “5세대 에픽 설루션은 출시 이후 다양한 OEM 파트너와 엔터프라이즈 고객에게 빠르게 채택됐으며, 이제 클라우드 영역에서도 활용될 수 있게 되어 매우 기쁘다”며, “구글 클라우드와 긴밀한 기술 협력을 통해 최신 에픽 프로세서를 빠르게 도입하고, 까다로운 워크로드를 위한 고성능∙고효율 인스턴스를 제공할 수 있게 됐다”고 말했다. 구글 클라우드의 마크 로마이어(Mark Lohmeyer) 컴퓨트 및 머신러닝 인프라 부문 부사장이자 총괄 매니저는 “구글 클라우드는 고객에게 고성능, 보안성, 확장성을 갖춘 컴퓨팅 설루션을 제공하기 위해 지속적으로 노력하고 있다”며, “이번에 도입된 에픽 기반 C4D 및 H4D 인스턴스를 통해 고객은 클라우드 네이티브 및 엔터프라이즈 애플리케이션에 최적화된 최첨단 성능과 효율성을 누릴 수 있을 것”이라고 전했다.
작성일 : 2025-04-10
가트너, “SLM 사용량 LLM의 3배 넘으면서 활용 본격화될 것”
가트너는 기업이 2027년까지 특정 작업에 맞춰 성능을 극대화한 소규모 언어 모델(SLM)을 도입하고, 전체 사용량이 범용 대규모 언어 모델(LLM) 사용량보다 최소 3배 이상 많을 것으로 전망했다. 가트너는 범용 LLM이 강력한 언어 처리 능력을 제공하지만, 특정 비즈니스 분야의 전문성이 요구되는 작업에서는 응답 정확도가 떨어진다고 분석했다. 가트너의 수밋 아가왈(Sumit Agarwal) VP 애널리스트는 “비즈니스 업무 흐름 내 다양한 작업과 더 높은 정확도에 대한 요구로 인해 특정 기능 또는 도메인 데이터에 맞춰 미세조정한 특화 모델로의 전환이 가속화되고 있다”면서, “SLM은 응답 속도가 빠르고 컴퓨팅 자원을 적게 소모해 운영 및 유지 관리 비용을 절감할 수 있다”고 설명했다. 기업은 검색 증강 생성(RAG) 또는 미세조정 기술을 활용해 LLM을 특정 작업에 특화된 모델로 커스터마이징할 수 있다. 이 과정에서 기업 데이터는 핵심적인 차별화 요소로 작용하며, 미세조정 요구사항을 충족하도록 관련 데이터를 구성하기 위해서는 데이터 준비, 품질 관리, 버전 관리, 전반적인 관리가 필수이다. 가트너는 기업이 자사의 고유 모델을 상용화함으로써 새로운 수익원을 창출하는 동시에 상호 연결된 생태계를 구축할 수 있다고 전했으며, 소규모 AI 모델 도입을 추진하는 기업을 위한 권장 사항을 제시했다. 가트너는 ▲비즈니스 맥락이 중요한 분야나 LLM 응답 품질, 속도가 기대에 미치지 못하는 영역에 컨텍스트 기반 SLM을 시범 도입하는 것이 효과적이며 ▲단일 모델만으로는 한계가 있는 사용 사례를 파악하고, 여러 모델과 워크플로 단계를 결합한 복합적 접근 방식을 도입하는 것이 효과적이라고 전했다. 또한 ▲언어 모델 미세조정에 필요한 데이터를 수집, 선별, 구조화하는 데이터 준비 역량에 우선순위를 두는 것이 효과적이라고 덧붙였다. ▲AI 이니셔티브를 추진하기 위해 AI 및 데이터 설계자, 데이터 과학자, AI 및 데이터 엔지니어, 리스크 및 규정 준수 팀, 구매 팀, 비즈니스 전문가 등 다양한 기술, 기능 인력의 역량 강화에 투자하는 것도 효과적이라는 설명도 추가했다. 아가왈 VP 애널리스트는 “기업은 자사의 고유한 데이터와 전문화된 업무 프로세스에서 도출된 인사이트의 가치를 점차 인식하게 되면서, 이를 수익화하고 고객과 경쟁사를 포함한 더 광범위한 대상과 공유하는 방향으로 나아갈 가능성이 높다”면서, “이는 데이터와 지식에 대한 보호 중심적 접근 방식에서 보다 개방적이고 협력적인 활용 방식으로의 전환을 의미한다”고 전했다.
작성일 : 2025-04-10
IBM, 엔터프라이즈급 AI 기술 탑재한 IBM z17 메인프레임 공개
IBM은 하드웨어, 소프트웨어, 시스템 운영 전반에 걸쳐 AI 기술을 탑재한 차세대 메인프레임 IBM z17을 공개했다. IBM 텔럼 II 프로세서(IBM Telum Processor)를 기반으로 하는 IBM z17은 거래 기반 AI(transactional AI) 기능을 넘어 새로운 워크로드를 지원할 수 있도록 시스템 기능을 확장했다. IBM z17은 이전 제품인 z16 대비 하루 50% 더 많은 AI 추론 작업을 처리할 수 있는 등 기업이 혁신을 추진하고 더 많은 일을 할 수 있도록 지원한다. IBM z17은 대출 리스크 완화, 챗봇 서비스 관리, 의료 이미지 분석 지원, 상거래 범죄 방지 등 250개 이상의 광범위한 AI 활용 사례로 산업 전반에 걸쳐 비즈니스 가치를 창출하도록 설계되었다. IBM z17은 미국 특허청에 출원한 300개 이상의 특허를 포함한 5년간의 설계 및 개발의 결과물이다. 100여 개 이상의 고객사가 직접 제시한 의견을 반영한 것은 물론, IBM 리서치 및 소프트웨어 팀과의 긴밀한 협업을 통해 설계된 이 새로운 시스템은 다중 모델 AI 기능, 데이터 보호를 위한 새로운 보안 기능, 시스템 사용성 및 관리 개선을 위한 AI 툴을 도입했다.     z17에 탑재된 AI 추론 기능은 향상된 주파수, 컴퓨팅 용량, 캐시 40% 증가, 하루에 4500억 건 이상의 추론 작업과 1ms의 응답 시간을 지원하는 IBM 텔럼 II 프로세서에 내장된 2세대 온칩 AI 가속기에 의해 구동된다. 2025년 4분기에 PCIe 카드를 통해 출시될 예정인 IBM 스파이어 액셀러레이터(IBM Spyre Accelerator)는 텔럼 II 프로세서를 보완하는 추가적인 AI 컴퓨팅 성능을 제공한다. 두 제품은 다중 모델 방식의 AI를 지원하기 위한 최적화된 환경을 조성하는데 기여한다. 스파이어 액셀러레이터는 시스템에 포함된 엔터프라이즈 데이터를 활용해 어시스턴트를 실행하는 등 메인프레임에 생성형 AI 기능을 제공하도록 특별히 설계됐다. IBM z17은 2025년 6월 18일, IBM 스파이어 액셀러레이터는 2025년 4분기에 출시될 예정이다. z17은 개발자와 IT 운영자의 기술과 효율성을 강화하기 위해  IBM 왓슨x 코드 어시스턴트 포 Z(IBM watsonx Code Assistant for Z)와 IBM 왓슨x 어시스턴트 포 Z(IBM watsonx Assistant for Z)를 포함한 AI 어시스턴트와 AI 에이전트를 활용할 수 있게 설계되었다. 한편, IBM 왓슨x 어시스턴트 포 Z는 실시간 시스템 데이터를 사용해 최초로 AI 채팅 기반 사고 감지 및 해결 기능을 제공하는 Z 오퍼레이션 유나이트(Operations Unite)와 통합될 예정이다. 한국IBM의 류정훈 Z/리눅스원 사업총괄 상무는 “IBM 메인프레임은 전 세계 금융 거래의 70%를 처리하고 있다”면서, “최근 기업들이 AI 활용에 큰 관심을 보이는 만큼, AI 성능을 크게 향상시킨 z17을 통해 보다 많은 업무를 효율적이고 안전하게 처리할 수 있도록 지원하겠다”고 말했다.
작성일 : 2025-04-10
지브라 테크놀로지스, 서희정 신임 한국 지사장 선임
지브라 테크놀로지스는 한국 지사 총괄로 서희정 지사장을 임명했다고 발표했다. 서희정 지사장은 지브라 테크놀로지스 한국 지사에서 영업 전략과 팀을 이끌어 기업 목표에 부합하는 방향성을 확립하고 성장을 촉진할 예정이다.  2011년 지브라 테크놀로지스에 입사한 서희정 지사장은 재직 기간 대부분을 지브라 테크놀로지스 채널 어카운트 시니어 매니저로 근무하며 파트너와의 강력한 관계 구축을 통해 지브라 파트너 네트워크의 성장을 주도해왔다. 서 지사장은 부산대학교에서 문헌정보학과 학사를, 영국 뉴캐슬 대학교에서 컴퓨터 공학 석사 학위를 취득했다.     지브라 테크놀로지스는 “서희정 신임 지사장은 2024년 3월부터 한국 지사장 대행으로 재직하면서 탁월한 리더십과 시장 역학에 대한 깊은 이해를 보여주었고, 이를 통해 지브라의 지속적인 성공을 위한 기반을 마련했다”고 소개했다. 서 지사장은 한국 지사장 대행으로 재직하면서 데이터 캡처 설루션(DCS)과 자산 추적 설루션(ATS) 분야에서 지브라의 시장 리더 위치를 유지하는 중요한 성과를 달성했으며, 기업용 모바일 컴퓨팅(EMC) 분야에서 시장 점유율을 확대하는 데 중추적인 역할을 수행했다.  지브라 테크놀로지스의 동남아시아(SEA), 한국 및 APJeC 채널 영업 부사장인 크리스탄토 수리야다르마(Christanto Suryadarma)는 “서희정 지사장을 한국 지사장으로 임명하게 되어 매우 기쁘다”며, “전략적 비전과 신규 파트너십, 긴밀한 고객 관계를 통한 성장 추진에 있어 입증된 경험을 가지고 있어 한국 지사의 사업 확장에 있어 최적의 리더"라고 전했다. 서희정 신임 지사장은 “지브라 테크놀로지스의 한국 지사의 혁신과 성장을 이끌게 되어 매우 기쁘다”고 소감을 밝혔다. 서 지사장은 이어, “지브라 테크놀로지스는 자산 가시성, 지능형 자동화, 연결된 현장 직원을 통해 고객의 성과 향상에 주력하고 있다. 최근 스마트 팩토리 엑스포에서 선보인 바와 같이 머신 비전, 고정식 산업용 스캐너 및 기타 첨단 설루션을 포함한 지브라 테크놀로지스의 포괄적인 포트폴리오는 운영을 간소화하고 실시간 의사 결정을 개선하여 워크플로를 혁신하도록 설계되었다”고 말했다.
작성일 : 2025-04-10