• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 오픈소스"에 대한 통합 검색 내용이 754개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
윈드리버, 서비스나우와 협력해 AI-레디 프라이빗 클라우드 설루션 출시
지능형 에지 소프트웨어를 제공하는 윈드리버가 엔터프라이즈 고객들을 위해 자사 데이터센터 내에서 서비스나우 AI 플랫폼(ServiceNow AI Platform)을 직접 호스팅할 수 있는 신규 설루션을 발표했다. 이 설루션은 윈드리버 클라우드 플랫폼(Wind River Cloud Platform)을 기반으로 하며, 기업이 온프레미스 환경에서 서비스나우 애플리케이션을 배포·확장·업그레이드·관리할 수 있도록 지원한다. 이를 통해 프라이버시, 데이터 거버넌스, 운영 제어를 강화하는 동시에 다양한 산업군과 사용 사례에 유연하게 대응할 수 있다는 것이 윈드리버의 설명이다. 윈드리버 클라우드 플랫폼은 가상화 및 컨테이너화된 애플리케이션을 위한 온프레미스 오픈소스 프라이빗 클라우드 설루션이다. 대규모 확장성과 고가용성을 위해 설계되었으며, 복잡한 클라우드 아키텍처를 엔터프라이즈 환경에서도 쉽게 배포·운영할 수 있도록 지원한다. 컨테이너와 VM 워크로드를 지원하는 프로덕션급 분산형 쿠버네티스(Kubernetes) 기반을 제공하며, 오케스트레이션·자동화·분석 도구가 통합되어 운영 효율성과 서비스 제공 속도를 높인다. 서비스나우 AI 플랫폼은 워크플로 자동화를 위한 다양한 AI 기반 엔터프라이즈 비즈니스 애플리케이션, 고성능 데이터베이스, 로코드/노코드 개발 도구를 포함한 클라우드 기반 플랫폼이다. 다양한 비즈니스 기능과 핵심 시스템을 단일 플랫폼으로 연결해 워크플로를 디지털화하고, 기존 기술 투자의 가치를 극대화하며, 비용 절감 및 핵심 비즈니스 프로세스의 혁신을 실현한다.     서비스나우와 통합된 윈드리버 클라우드 플랫폼은 보안성과 성능, 컴플라이언스를 모두 확보한 온프레미스 AI 환경을 제공한다. 실시간 데이터 처리 및 자동화를 통해 데이터 주권 요건 충족, 지연시간 단축, 운영 회복력 강화를 실현하며, 운영 인텔리전스와 에이전틱 AI(agentic AI) 기능을 확장하여 데이터 분석, 이상 감지, 자율적 조치 실행을 지원한다. 이를 통해 기업은 보다 신속하고 적응적인 의사결정을 가능하게 한다. 윈드리버와 서비스나우의 통합 설루션이 제공하는 주요 이점은 ▲서비스나우 AI 플랫폼의 자동 활성화 ▲지능형 라이프사이클 관리 ▲데이터 및 인프라의 주권형 통제 ▲에지의 실시간 성능 ▲통합 인프라 기반 등이다. 통합 설루션은 서비스나우 AI 플랫폼의 수동 설치 단계를 제거해 온프레미스 환경에서 신속하게 배포 가능하며, IT팀의 복잡도를 줄이고 가치 실현 속도를 높인다. 그리고 윈드리버의 고급 오케스트레이션 및 자동화 기술을 활용해 애플리케이션 업그레이드 및 업데이트를 원활하게 수행한다. 또한 워크로드를 로컬 환경에 유지해 컴플라이언스·데이터 거주·거버넌스 요건을 충족하며, 규제 산업 및 민감한 환경에 적합하다. 이외에도 데이터 소스 근처에서 처리해 지연시간을 최소화하고, 응답성을 높이는 한편 가용성, 안정성, 서비스 품질을 강화한다. AI 및 자동화부터 운영 시스템에 이르기까지 안전하고 확장 가능한 프라이빗 클라우드 기반에서 다양한 애플리케이션을 지원한다는 점도 내세운다. 윈드리버 클라우드 플랫폼은 엔터프라이즈 및 미션 크리티컬 워크로드를 위한 프라이빗 클라우드 기반을 제공한다. 서비스나우 AI 플랫폼뿐만 아니라 다양한 엔터프라이즈 워크로드를 동일 인프라에서 구동하게끔 지원하는 윈드리버 클라우드 플랫폼을 통해 기업에서는 성능, 보안, 효율성을 확보하는 동시에 데이터 주권 및 규제 요건을 충족할 수 있으며, IT/OT 융합, 하이브리드 클라우드 구축 등 고도화된 활용 사례를 구현할 수 있다. 윈드리버의 산딥 모드바디아 제품 총괄 책임자는 “데이터 통제, 컴플라이언스, 운영 민첩성에 대한 수요가 높아짐에 따라 IT와 OT의 융합, 그리고 주권형 프라이빗 클라우드는 이제 선택이 아닌 필수”라고 말하며, “이번 설루션은 윈드리버와 서비스나우가 함께 디지털 워크플로와 실시간 운영 환경을 통합하면서도, 규제 환경 속에서도 데이터와 인프라에 대한 완전한 통제권을 유지할 수 있도록 돕는다”고 덧붙였다. 서비스나우의 마이클 박 글로벌 파트너십 및 채널 담당 수석부사장은 “지능형 시대로 전환하는 기업이라면 비즈니스의 모든 계층에 사이버보안과 회복탄력성을 내재시켜야 한다”고 설명하며, “서비스나우 AI 플랫폼 기반의 윈드리버 클라우드 플랫폼은 기업이 위험을 선제적으로 관리하고, 컴플라이언스 워크플로를 간소화하며, 안정적으로 운영을 보호할 수 있도록 지원한다. 양사는 신뢰 기반의 확장 가능한 디지털 생태계를 구축하는 데 AI를 실질적으로 활용하고 있다”고 말했다.
작성일 : 2025-11-05
DX 시대에서 AX 시대로
설계, 데이터로 다시 쓰다 (2)   머뭇거릴 틈이 없다. 우리가 디지털 전환에 적응할 때쯤 선두 그룹은 벌써 AI(인공지능) 시대를 대비하고 있다. AI 전문가들도 과거 수십년 간의 성장보다 최근 몇 년의 급속한 발전에 놀라면서도 이제는 예측하기 어려운 속도에 두려워하기까지 한다. 이번 호에서는 AI 시대를 맞이하기 위해 우리가 준비해야 할 것이 무엇인지 알아보고자 한다.    ■ 최병열 피도텍에서 AI 기반 Data-driven Design SW 개발 총괄을 맡고 있다. 한양대에서 공학박사 학위를 받았고, 20여 년간 100여건의 최적 설계 프로젝트를 주도하며 컨설팅 경험을 쌓았다. 홈페이지 | www.pidotech.com   DX와 AX 지난 호에서 소개한 ‘중국제조 2025’ 정책에서 볼 수 있듯이, 향후 제조업의 성공 가능성을 높이는 방안 중 하나는 예측 기술의 발전이다. 강력한 드라이빙 포스(driving force)가 선진 기업에 적용되는 시뮬레이션, 데이터 생성 시스템, 최적설계 등의 효율적인 설계 프로세스를 구축할 수 있게 주도하였고, 인적, 물적, 정책적 지원을 뒷받침하면서 단숨에 AX(AI 전환)를 이끄는 선두 그룹에 탑승할 수 있는 기회를 제공하였다. 전통적인 개발 방식의 기업들이 도태되는 현실에서, 선두 그룹의 기업들은 DX(디지털 전환)에서 AX로의 전환을 신속하게 추진하고 있다. 뒤쳐져 있는 산업 구조를 재편할 수 있는 기회이지만 외면하면 경쟁에서 사라질 수도 있다는 위기감을 이들 기업은 명심하고 있다. 즉, 따라잡지 못하면 사라진다.    DX란? AX란? DX는 ‘디지털 전환’을 의미하고, 가상 프로토타이핑(Virtual Prototyping : VP)은 DX를 실행하기 위한 핵심 수단이 된다. 실제 물리적으로 손에 잡히는 것으로 측정하고 평가하던 방식(physical prototyping)을 가상의 공간에서 대체하는 방식으로 바뀌는 혁신이 이루어지고 있다. AX란 ‘AI transformation’의 약자로, 데이터 중심의 산업 변환을 의미한다. 엔지니어링의 핵심 가치는 예측하는 것이다. 현재 설계 안의 성능을 예측하고, 불량 가능성을 예측한다. DX 시대에서는 디지털 모델을 예측 도구로 삼았다면, AX 시대에서는 데이터를 예측 도구로 삼는다. 이제 DX를 넘어 AX가 빠르게 확산되고 있다.   그림 1. DX와 AX   휴머노이드 로봇을 예로 본다면, DX 시대에는 기본적인 동작 제어를 수학 모델로 프로그래밍하여 구현하던 방식이었다. 오랫동안 연구해 온 노하우가 주도하던 시대였다. 반면, AX 시대에서는 동작 데이터를 통한 학습으로 동작을 수행함에 따라 자연스러운 움직임이나 미세한 조작이 가능해졌다. 이제는 강화 학습을 통해 로봇이 유투브로 새로운 동작을 학습하는 시기에 접어들었다. 학습용 데이터를 확보할 수 있는 역량이 주도하는 시대로 변하고 있다.   그림 2. AX 시대로의 진입(출처 : The New York Times, Driverless Digest)   왜 DX에서 AX로 가야 하는가? 얼마전 미국 로스엔젤레스에서 웨이모(Waymo)의 자율주행 택시가 방화로 인한 화재로 전소되는 사건이 있었다. 정부 정책에 반대하는 시위대의 소행으로 추측된다. 2023년 이후 1년여 만에 자율주행 택시를 허가한 샌프란시스코의 운수업 시장에서 웨이모가 20%까지 점유율을 확대하면서 운전으로 생계를 이어가던 사람들에겐 상당한 위협으로 작용할 만큼 AI의 성장이 현실화되었다는 반증이다. 어느새 우리도 AX 시대로 진입하고 있다. 삼쩝삼, 닥터나우, 로톡, 타다와 같은 AI 플랫폼이 우리 주변에 자리잡고 있다. 세무사, 의사, 변호사, 운전기사의 직무를 위협하는 존재로 인식되어 거센 반발에 부딪혀 있지만 연이은 고소, 고발에 대한 무죄, 무혐의 판결이 늘어남에 따라 이제는 공생을 생각해야 할 시점이다. 제조 환경은 점점 더 복잡하고 불확실해지고 있다. 시장 변화의 속도는 빨라지고, 고객 요구는 다변화되고 있으며, 제품의 수명주기는 단축되고 있다. 이처럼 미래가 불확실할수록 데이터를 기반으로 한 예측과 시뮬레이션이 중요해진다. 최근에는 고성능 컴퓨팅 자원과 오픈소스 툴의 발달로 중소기업도 상대적으로 적은 비용으로 가상 환경을 구축할 수 있게 되었다.   성공 사례 엔비디아는 AI의 모든 스타일을 하나의 생태계에서 지원하여 산업 전반에 걸친 AI 설루션을 제공하는 리더이다. 엔비디아의 옴니버스 블루프린트(Omniverse Blueprint)는 ‘AI가 실제 환경에서 움직이고 판단하는 것을 디지털 트윈 안에서 먼저 완전히 학습하고 테스트할 수 있게 해주는 설계 도구’이다. 다음의 몇 가지 성공 사례로 AX 시대가 도래 되고 있음을 소개하고자 한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-11-04
코드로 강력한 수학 그래픽 애니메이션을 만드는 매님
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 복잡한 수학적 개념을 명료하고 아름다운 애니메이션으로 시각화하기 위해 설계된 파이썬(Python) 라이브러리인 Manim(Mathematical Animation Engine, 매님)에 대해 살펴본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   매님은 코드를 통해 프로그래밍 방식으로 정밀한 2D 애니메이션을 생성하는 데 사용되는 오픈소스 프레임워크이다. 사용자는 파이썬 클래스와 메서드를 활용하여 도형, 텍스트, 그래프, 공식 등 다양한 시각적 요소를 정의하고, 이들의 생성, 변형, 소멸 등 다채로운 움직임을 제어할 수 있다. 단순한 키프레임(Keyframe) 기반의 애니메이션 도구와 달리, 매님은 모든 시각적 요소를 객체(object)로 다룬다. 따라서 좌표, 크기, 색상, 투명도 등 객체의 모든 속성을 수치적으로 정밀하게 제어하는 것이 가능하다. 이러한 특징 덕분에 미적분, 선형대수, 물리학 공식 등 추상적인 개념을 직관적으로 이해할 수 있도록 설명하는 영상 콘텐츠 제작에서 강력한 성능을 보인다. 더 자세한 정보는 매님 웹사이트에서 확인할 수 있다.  https://www.manim.community   매님의 개발 배경 매님은 저명한 수학 유튜버인 그랜트 샌더슨(Grant Sanderson)이 자신의 유튜브 채널 ‘3Blue1Brown’의 콘텐츠를 제작하기 위해 직접 개발한 도구에서 시작되었다. 그는 복잡한 수학 이론을 설명하는 데 기존의 시각 자료나 애니메이션 소프트웨어로는 한계가 있다고 느꼈다. 특히, 수학적 개념의 본질적인 아름다움과 논리적 흐름을 정확하게 표현하기 위해서는 프로그래밍을 통한 완전한 제어권이 필수라고 생각했다. 이러한 필요에 의해 2015년부터 매님을 개인 프로젝트로 개발하기 시작했으며, 그의 영상이 큰 인기를 얻으면서 매님 역시 전 세계의 교육자, 개발자, 아티스트들로부터 주목받게 되었다. 이후, 그의 독창적인 버전을 기반으로 개발자 커뮤니티가 주도하는 보다 범용적이고 사용하기 쉬운 ‘매님 커뮤니티 에디션(Manim Community Edition)’이 파생되어 활발하게 발전하고 있다. 매님의 소스코드는 커뮤니티 깃허브 저장소에서 확인할 수 있다.  https://github.com/ManimCommunity/manim   유사 도구 매님과 비슷하게 코드를 통해 시각적 결과물을 생성하는 라이브러리는 여러 가지가 있으며, 각각 다른 목적과 특징을 가지고 있다.  프로세싱(Processing) : 시각 예술, 데이터 시각화, 인터랙티브 아트 분야에서 널리 사용되는 오픈소스 프로그래밍 언어 및 환경이다. 자바(Java)를 기반으로 하며, 초보자가 쉽게 그래픽 프로그래밍에 입문할 수 있도록 설계되었다. 애니메이션 기능도 지원하지만, 매님만큼 수학적 표현에 특화되어 있지는 않다.(https://processing.org)  D3.js : 웹 브라우저에서 동적인 데이터 기반 문서를 만들기 위한 자바스크립트(JavaScript) 라이브러리이다. SVG, HTML, CSS를 활용하여 데이터 시각화, 특히 인터랙티브 차트와 그래프를 제작하는 데 강력한 기능을 제공한다. 웹 기반이라는 점에서 매님과 차이가 있다.(https://d3js.org)  파이게임(Pygame) : 파이썬으로 2D 게임을 개발하기 위해 설계된 라이브러리이다. 실시간 사용자 입력 처리와 게임 루프 관리에 중점을 두고 있어, 정해진 스크립트에 따라 렌더링되는 매님과는 작동 방식과 목적이 다르다.(https://www.pygame.org) 매님은 MIT 라이선스를 따르는 완전한 오픈소스 소프트웨어이다. 이는 개인, 교육 기관, 상업적 목적을 포함한 어떠한 용도로든 무료로 사용할 수 있음을 의미한다. 별도의 가입 절차나 유료 플랜 없이 누구나 자유롭게 다운로드하여 설치하고, 소스코드를 수정하거나 재배포하는 것이 가능하다. 모든 기능은 커뮤니티의 자발적인 기여를 통해 개발되고 유지보수된다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-11-04
[포커스] AWS, 산업 혁신 이끄는 AI 에이전트 비전과 전략 공개
아마존웹서비스(AWS)는 10월 14일~16일 진행한 ‘AWS AI×인더스트리 위크 2025’를 통해 AI가 단순 자동화를 넘어 자율적인 추론 및 행동이 가능한 에이전트로 진화하고 있으며, 모든 산업의 패러다임을 전환시키고 있다고 짚었다. AWS는 이번 행사에서 한국의 주요 기업들이 AI를 활용해 생산성 향상 및 비즈니스 혁신을 이루고 있는 사례를 소개하는 한편, 엔터프라이즈급 AI 에이전트 플랫폼을 비롯해 다양한 모델 선택권과 상호 운용성을 제공하는 자사의 AI 포트폴리오를 선보였다. ■ 정수진 편집장   자동화를 넘어 자율적 ‘에이전트’로 진화 이번 ‘AWS AI×인더스트리 위크 2025’는 게임, 제조 및 하이테크, 리테일 및 소비재, 소프트웨어 및 인터넷, 금융 및 핀테크등 총 5개 산업의 60개 이상 사례를 소개했다. 이 가운데 이틀째인 10월 15일에는 빠르게 AI 기술을 도입해 비즈니스를 바꾸고 있는 리테일 및 소비재 기업과 주요 제조 공정부터 마케팅까지 다양하게 AI를 도입하고 있는 제조 기업의 사례가 소개됐다. 10월 15일 기조연설에서는 AWS의 벤 카바나스(Ben Cabanas) 아시아태평양 및 일본(APJ) 지역 글로벌 세일즈 기술 디렉터가 자사의 최신 에이전틱 AI(agentic AI) 기술과 서비스, 새로운 AI 기술 전략에 대해 소개했다. 카바나스 디렉터는 “AI 기술의 발전 속도가 빨라지면서 모든 산업의 변화를 주도하고 있다”면서, “지식이 AI 모델에 직접 임베딩되면서 AI가 전문가 수준의 추론 능력을 가질 수 있게 되고, 이 덕분에 애플리케이션이 다양한 분야서 자율적으로 행동할 수 있게 됐다. 또한 AI가 물리적인 현실 세계로 진출할 수 있게 되고, 현실 세계에 임베드된 AI는 더욱 똑똑한 AI를 만드는 것도 가능해졌다”고 짚었다.  AI는 단순한 챗봇이나 비서의 수준을 넘어서고 있다. 최근 주목을 받고 있는 ‘AI 에이전트’는 사람이 정의한 목표를 위해 스스로 추론하고, 계획하며, 적응하는 자율적 소프트웨어 시스템이자 ‘디지털 팀원’으로 진화하고 있다는 것이 카바나스 디렉터의 설명이다. 전 세계 AI 에이전트 시장은 빠르게 성장할 것으로 보인다. 여러 시장 조사 기관에서 40% 이상의 연평균 성장률을 예측하고 있으며, 그 중 한 곳은 10년 후 2000억 달러 이상의 규모가 될 것으로 전망하기도 했다.   ▲ AWS 벤 카바나스 APJ 지역 기술 디렉터   AI 에이전트의 구축부터 배포까지 지원하는 기술 선보여 카바나스 디렉터는 “실용적인 AI 애플리케이션 구현을 위해서는 AI 기술 자체의 발전뿐만 아니라 컴퓨팅 파워, 스토리지, 네트워크와 같은 기반 기술의 발전도 함께 이뤄져야 한다”고 짚으면서, AI 에이전트의 상용화 및 고객의 가치 실현을 위한 AWS의 서비스를 소개했다. 아마존 베드록 에이전트 코어(Amazon Bedrock Agent Core)는 엔터프라이즈급 AI 에이전트 플랫폼으로, 고객이 PoC(개념 증명) 단계를 넘어 실제 프로덕션 환경에서 AI 에이전트를 안정적으로 구축·배포·운영할 수 있도록 지원한다. 런타임(Runtime), 메모리(Memory), 아이덴티티(Identity), 게이트웨이(Gateway), 브라우저 툴(Browser Tool), 코드 인터프리터(Code Interpreter), 옵저버빌리티(Observability) 등 7가지 구성 요소로 이루어진 에이전트 코어는 서버리스 런타임, 메모리 시스템 관리, 보안 통제, 샌드박스 코드 작성, 웹 사이트 상호작용, 대규모 구축/배포/연결 지원 등 다양한 기능을 제공한다. 아마존 퀵 스위트(Amazon Quick Suite)는 연구·분석·워크로드 자동화를 통합한 AI 기반의 작업 공간 서비스이다. 자연어를 기반으로 데이터 분석, 문서 생성, 워크플로 자동화 등이 가능하며, 다양한 앱과 연결할 수 있도록 50개 이상의 커넥터를 내장하고 MCP(모델 컨텍스트 프로토콜) 통합도 제공한다. AWS는 AI 에이전트 생태계 확장을 위해 AWS 마켓플레이스(AWS Marketplace)에 ‘AI 에이전트 및 툴’ 카테고리를 신설했다. 이를 통해 앤트로픽, 딜로이트, 세일즈포스 등의 파트너가 제공하는 사전 구축된 에이전트와 도구를 중앙 집중식 카탈로그에서 안전하게 발견하고 배포할 수 있다는 것이 AWS의 설명이다. 이외에도 카바나스 디렉터는 ▲개발자들이 웹 브라우저 기반으로 AI 에이전트를 구축할 수 있도록 지원하는 ‘아마존 노바 액트 (Amazon Nova Act)’ ▲AI 기능을 핵심으로 소프트웨어 개발을 재구상하는 ‘AI 주도 개발 생애주기(AIDDLC)’ 방법론 ▲닷넷(.NET), VM웨어(VMware), 메인프레임 애플리케이션의  현대화를 자동화 및 간소화하는 에이전트 프레임워크 ‘AWS 트랜스폼(AWS Transform)’ ▲AI 모델의 추론 능력을 활용하여 에이전트를 빠르고 쉽게 구축할 수 있도록 지원하는 오픈소스 프레임워크 ‘스트랜드 에이전트 SDK (Strands agent SDK)’ 등을 소개했다.   ▲ 아마존 베드록 에이전트코어   모델 선택권·상호운영성 등 AI 전략과 국내 사례도 소개 카바나스 디렉터는 AWS AI 전략의 세 가지 핵심 원칙을 소개했다. “하나의 AI 모델이 모든 유스케이스를 충족할 수 없기 때문에, 고객에게 다양한 모델 선택권을 제공해야 한다. 모델 간의 호환성, 상호 운영성 및 개방형 표준이 중요하며, 확장성 있는 서비스를 빠르게 개발할 수 있도록 돕는 기반 기술을 제공해야 한다”는 것이 그의 설명이다. 또한, 에이전트 간 및 에이전트와 도구 간의 상호 운용성을 위한 산업 표준 프로토콜인 MCP(Model Context Protocol)와 A2A(Agent-2-Agent Protocol)의 중요성을 강조했다. 카바나스 디렉터는 AWS가 이들 표준 제정에 적극 참여하고 있다고 밝혔다. AWS의 핵심 전략은 많은 기업이 AI를 프로덕션 환경으로 전환하는 데 겪는 어려움을 해결할 수 있도록 돕는 것이다. 카바나스 디렉터는 한국 시장에서도 AI 관련 고객 사례를 꾸준히 만들어가고 있다고 소개했다. 일례로 현대인프라코어는 아마존 세이지메이커(SageMaker) 기반의 AI/MLOps 환경을 구축하고, 아마존 베드록과 에이전트 프레임워크를 활용하여 건설 장비 등의 비정상 탐지와 같은 지능형 건설 기계 서비스를 출시했다. 그리고 LG전자는 아마존 베드록 기반의 에이전틱 AI 시스템을 구축했는데, AI 에이전트들의 자율 협업으로 마케팅 데이터 분석 시간을 단축하는 효과를 얻었다. 그는 또한 한국 내 클라우드 인프라를 늘리기 위한 투자도 진행 중이라면서 “지난 2018년부터 2022년까지 한국에서 인프라 확장을 위해 2조 7300억 원을 투자했으며, 2023년 10월에는 2027년까지 클라우드 인프라 확충을 위해 추가로 7조 8500억 원을 투자할 계획을 발표했다”고 전했다. 2024년 6월에는 AWS와 SK 그룹이 파트너십을 통해 울산에 AWS AI 존을 조성한다는 계획을 발표하기도 했다.    ▲ HD현대인프라코어가 개발한 건설기계 통합 디지털 플랫폼     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-11-04
[온에어] 시뮬레이션의 미래 : AI와 디지털 트윈이 주도하는 제조 혁신
캐드앤그래픽스 지식방송CNG TV 지상 중계   CAE와 AI의 융합, 디지털 트윈, 가상 제품 개발(VPD), 그리고 EDA(전자 설계 자동화) 설루션과의 통합이 제조 엔지니어링 업계의 핵심 화두로 떠오르고 있다. 10월 20일 진행된 CNG TV 방송은 오는 11월 7일 수원컨벤션센터에서 개최되는 ‘CAE 컨퍼런스 2025’의 프리뷰 세션으로, CAE의 현재와 미래 방향을 조명하고 AI가 주도하는 시뮬레이션 기술 변화와 산업 적용 사례를 소개했다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲ 디지털지식연구소 조형식 대표(사회), 태성에스엔이 김지원 이사, 한국기계연구원 DX전략연구단 박종원 단장   단품에서 시스템까지 : 시뮬레이션의 역할 확장 제조 개발 프로세스는 이제 콘셉트 설계 → 해석(시뮬레이션) → 1차 시제품 제작의 형태로 재편되었다. 시뮬레이션은 개발 초기 단계에서 잠재적인 문제를 선제적으로 파악하고 해결하는 핵심 과정으로 자리 잡았다. 과거에는 부품 단위 해석에 머물렀지만, 최근에는 모듈·PCB·열·전자기 등 물리적 상호작용을 함께 고려하는 시스템 통합 시뮬레이션으로 확대되고 있다. 예를 들어, 5G 스마트폰은 부품 단위로는 문제가 없더라도, 안테나의 빔포밍이 PCB 신호에 간섭을 주는 현상이 발생한다. 이 때문에 개발 단계부터 전체 시스템 관점에서의 시뮬레이션 검증이 필수가 되었다. 또한 HBM 인터포저 라우팅과 같이 복잡도가 높은 설계는 사람의 직관만으로 해결하기 어려워, 전용 최적화 툴과 CAE의 결합이 필수적이다. 최근에는 ROM(차수 감소 모델)이나 POD(고유직교분해) 기술을 통해 무거운 3D 해석을 경량화하여 수개월 걸리던 분석을 수시간 내에 완료할 수 있게 되었다. 태성에스엔이 김지원 이사는 “부품을 잘 만드는 것보다, 합쳐졌을 때의 행동을 예측하는 능력이 진짜 경쟁력”이라며, “CAE는 더 이상 옵션이 아니라 시스템 개발의 중심”이라고 강조했다.   설계부터 유동·구조해석까지 한 번에 한국기계연구원(KIMM)은 중소·중견 제조기업의 디지털 전환(DX)을 지원하기 위해 오픈소스 기반 시뮬레이션 플랫폼 ‘KIMM Cyber Lab’을 개발, 무료로 제공하고 있다. 상용 CAE 소프트웨어의 높은 비용 부담을 해소하고, 제품 설계부터 해석·시뮬레이션까지 통합 지원함으로써 제조 현장의 DX를 실질적으로 뒷받침한다.  KIMM Cyber Lab은 KIMM-CAD, Structure, Flow, CAM, Motion, Sys 등 6종의 오픈소스 소프트웨어 구성되어 있다. 설계 자동화, 구조·유동 해석, CNC 가공, 다물체 동역학 등 다양한 기능을 통합했으며, 상용 설루션과 비교 검증을 통해 신뢰성을 확보했다. 특히 구조해석 모듈(KIMM-Structure)은 아바쿠스와 유사한 정확도를 보였고, 유동해석 모듈(KIMM-Flow)은 오픈폼(OpenFOAM) 기반 윈도우 버전으로 사용자 접근성을 높였다.  KIMM은 이 기술을 자율주행 시뮬레이터 개발에도 확장해, 아이오닉5 모델 기반의 코시뮬레이션(co-simulation)과 AI 주행 인식 기능(YOLOv8)을 구현했다. 최근에는 “볼 베어링 6001을 설계해줘”와 같은 명령만으로 3D 도면을 자동 생성하는 AI 에이전트 설계 자동화 기술을 공개하며, CAD–CAE 연계 설계의 새 가능성을 제시했다. 한국기계연구원 박종원 단장은 “KIMM Cyber Lab은 중소기업이 합리적인 비용으로 시뮬레이션 기술을 활용할 수 있는 길을 열었다”며, “AI 기반 설계 자동화로 제조업의 디지털 혁신을 가속하겠다”고 밝혔다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-11-04
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
Arm, 향상된 AI 경험 제공 위해 메타와 전략적 파트너십 강화
Arm은 메타(Meta)와 AI 소프트웨어부터 데이터센터 인프라에 이르는 컴퓨팅의 전 영역에서 AI 효율성을 확장하기 위해 전략적 파트너십을 강화했다고 밝혔다. 양사는 이번 협력을 통해 전 세계 수십억 명의 사용자에게 한층 향상된 AI 경험을 제공할 계획이다. 온디바이스 인텔리전스를 지원하는 밀리와트급 저전력 디바이스부터 최첨단 AI 모델 학습을 담당하는 메가와트급 대규모 시스템까지, 메타의 글로벌 플랫폼을 구동하는 전 영역의 컴퓨팅 환경에서 AI 성능을 최적화하겠다는 것이다. 이번 전략적 파트너십 강화는 양사가 다년간 지속해온 하드웨어 및 소프트웨어 공동 설계 협력을 기반으로 한다. Arm의 전력 효율적 AI 컴퓨팅 기술력과 메타의 AI 제품, 인프라, 오픈소스 기술 혁신을 결합해 성능과 효율성을 대폭 향상시키는 것을 목표로 한다. 페이스북과 인스타그램 등 메타 앱 제품군 전반의 검색 및 개인화를 지원하는 메타의 AI 기반 순위 및 추천 시스템은 x86 시스템 대비 고성능, 저전력 소비를 제공하기 위해 Arm 네오버스(Neoverse) 기반 데이터센터 플랫폼을 활용할 예정이다. 네오버스는 메타가 인프라 전반에 걸쳐 전력 대비 성능 효율을 달성할 수 있도록 지원하며, 하이퍼스케일 환경에서 Arm 컴퓨팅의 효율과 확장성을 강화한다. 양사는 컴파일러와 라이브러리부터 주요 AI 프레임워크에 이르기까지 메타의 AI 인프라 소프트웨어 스택을 Arm 아키텍처에 최적화하기 위해 긴밀히 협력했다. 여기에는 Facebook GENeral Matrix Multiplication(FBGEMM) 및 파이토치(PyTorch)와 같은 오픈소스 구성 요소의 공통 튜닝을 포함되며, Arm의 벡터 확장 기능과 성능 라이브러리를 활용해 추론 효율과 처리량에서 측정 가능한 향상을 이뤘다. 이러한 최적화는 오픈 소스 커뮤니티에 제공되어 글로벌 AI 에코시스템 전반에 영향력을 확대하고 있다. 이번 파트너십은 파이토치 머신러닝 프레임워크, ExecuTorch 엣지 추론 런타임 엔진, vLLM 데이터센터 추론 엔진 전반에 걸쳐 AI 소프트웨어 최적화를 한층 강화한다. 특히 Arm KlediAi로 최적화된 ExecuTorch 기반을 고도화해 수십억 대의 기기에서 효율성을 높이고, 모델 배포를 더욱 간소화함으로써 에지에서 클라우드까지 AI 애플리케이션 성능을 가속화할 예정이다. 이러한 오픈소스 기술 프로젝트는 메타 AI 전략의 핵심으로, 추천 시스템부터 대화형 인텔리전스에 이르기까지 다양한 AI 개발과 배포를 가능하게 한다. 양사는 앞으로도 오픈소스 프로젝트에 대한 최적화를 지속 확장해 전 세계 수백만명의 개발자가 Arm 기반 환경에서 더욱 효율적인 AI를 구축하고 배포할 수 있도록 지원할 계획이다. 메타의 산토시 야나르단(Santosh Janardhan) 인프라 부문 대표는 “플랫폼 경험부터 우리가 만드는 디바이스에 이르기까지, AI는 사람들이 연결하고 창조하는 방식을 변화시키고 있다”면서, “Arm과의 파트너십을 통해 메타 애플리케이션 및 기술을 사용하는 30억 명이 넘는 사용자에게 혁신을 효율적으로 제공할 수 있게 됐다”고 밝혔다. Arm의 르네 하스(Rene Haas) CEO는 “차세대 AI 시대는 대규모 효율성을 실현하는 것이 핵심이 될 것”이라며, “메타와의 협력을 통해 Arm의 전력대비 성능 우위와 메타의 AI 혁신 역량을 결합해 밀리와트급부터 메가와트급까지 모든 영역에서 더욱 스마트하고 효율적인 인텔리전스를 구현할 것”이라고 말했다.
작성일 : 2025-10-17
오라클, 기업의 AI 이니셔티브 가속화 돕는 ‘AI 데이터 플랫폼’ 공개
오라클이 ‘오라클 AI 데이터 플랫폼(Oracle AI Data Platform)’의 정식 출시를 발표했다. 오라클 AI 데이터 플랫폼은 생성형 AI 모델을 기업의 데이터, 애플리케이션, 워크플로와 안전하게 연결할 수 있도록 설계된 포괄적 플랫폼이다. 자동화된 데이터 수집, 시맨틱 강화(semantic enrichment), 벡터 인덱싱에 생성형 AI 도구를 결합해 원시 데이터(raw data)에서 실제 운영 수준(production-grade)의 AI까지 전 과정을 단순화한다. 오라클 AI 데이터 플랫폼은 데이터를 AI에 최적화하고, 오라클 클라우드 인프라스트럭처(OCI), 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database), OCI 생성형 AI(OCI Generative AI) 서비스를 결합해 에이전틱 애플리케이션의 생성과 배포를 가능하게 한다. 기업 고객은 신뢰할 수 있는 실시간 인사이트를 얻을 수 있으며, 반복 업무를 자동화하고, 성장 기회를 발굴하며, 일상적인 워크플로에 지능을 내재화하는 AI 에이전트를 활용할 수 있다. 개발자와 데이터 팀은 엔터프라이즈급 단일 플랫폼에서 이러한 기능을 신속하게 구축하고 확장할 수 있다. 이 플랫폼은 엔비디아 가속 컴퓨팅 인프라를 통합해 고성능 워크로드를 위한 최신 세대 GPU와 라이브러리를 선택할 수 있다. 그 결과 다양한 산업군에서 더욱 신속한 혁신, 높은 생산성, 측정 가능한 비즈니스 성과를 실현할 수 있다. 오라클 AI 데이터 플랫폼은 기업이 데이터와 AI를 효과적으로 활용할 수 있는 기반을 제공한다. 고객은 델타 레이크(Delta Lake) 및 아이스버그(Iceberg)와 같은 오픈 포맷을 활용해 데이터 레이크하우스를 구축하고, 데이터 중복을 줄일 수 있다. 또한 AI 데이터 플랫폼 카탈로그는 모든 데이터와 AI 자산에 대한 통합 뷰와 거버넌스를 제공해 기업의 컴플라이언스 및 신뢰 강화를 지원한다. 카탈로그는 에이전트투에이전트(Agent2Agent : A2A) 및 모델 컨텍스트 프로토콜(MCP) 등 개방형 표준을 폭넓게 지원해 정교한 멀티에이전트 시스템 구성을 가능하게 한다. 더불어 기업 고객을 위한 에이전트 허브(Agent Hub)는 다수의 에이전트를 탐색하는 복잡성을 제거하고, 요청을 해석해 적합한 에이전트를 호출하며, 추천 결과를 제시해 즉각적인 조치를 취할 수 있도록 지원한다. 오라클은 오라클 AI 데이터 플랫폼이 제공하는 기능 및 이점으로 ▲데이터를 인텔리전스로 전환 ▲팀 전반의 혁신 가속 ▲비즈니스 프로세스 자동화 및 확장 ▲엔터프라이즈급 준비 상태 보장 등을 꼽았다. 오라클 AI 데이터 플랫폼은 데이터 레이크하우스와 AI를 하나의 플랫폼에 통합해, 원시 데이터를 실행 가능한 인사이트와 더 스마트한 의사결정으로 전환할 수 있다. 그리고 데이터 엔지니어, 데이터 과학자, AI 개발자를 위한 단일 워크벤치를 제공해 협업과 AI 기반 애플리케이션 제공 속도를 높인다. 이를 통해 단순 분석을 넘어 워크플로를 조율하고, 알림을 자동 생성하며, 비즈니스 성과를 직접 개선하는 AI 에이전트를 통해 효율을 높일 수 있도록 한다. 오라클은 “OCI, 오픈소스 엔진, 업계 선도적 분석 기능, 오라클 자율운영 AI 레이크하우스(Oracle Autonomous AI Lakehouse)의 결합으로 미션 크리티컬 AI 도입에 필요한 규모, 성능, 신뢰성을 제공한다”고 전했다. 제로 ETL(Zero-ETL)과 제로 카피(Zero Copy) 기능을 통해 고객은 재무, HR, 공급망, 마케팅, 영업, 서비스 등 핵심 비즈니스 애플리케이션 데이터는 물론 산업별 애플리케이션 데이터와 기존 엔터프라이즈 데이터베이스에 원활하게 연결할 수 있다. 오라클 AI 데이터 플랫폼은 멀티클라우드 및 하이브리드 크로스-클라우드 오케스트레이션을 지원하여 퍼블릭 클라우드, 온프레미스, 에지 등 모든 소스의 데이터의 연결, 처리, 분석이 가능하다. 또한, 오라클 애플리케이션과 서드파티 환경 전반에서 AI 에이전트가 원활하게 작동할 수 있게 되어 고객이 기업 전반에 걸쳐 AI 기반 혁신을 확장할 수 있다. 오라클은 퓨전(Fusion), 넷스위트(NetSuite)를 포함한 주요 오라클 애플리케이션 제품군 전반과 의료, 소비재, 금융 서비스, 건설 등 산업 전반을 대상으로 사전 통합을 포함한 맞춤형 AI 데이터 플랫폼을 제공할 계획이다. 오라클 퓨전 데이터 인텔리전스(Oracle Fusion Data Intelligence)의 정제되고 풍부하며 AI를 위해 준비된 데이터는 AI 데이터 플랫폼에서 사용 가능하다. 오라클의 T.K. 아난드 총괄부사장은 “오라클 AI 데이터 플랫폼은 고객이 데이터를 AI에 최적화하고, AI를 활용하여 비즈니스 프로세스 전반을 혁신할 수 있도록 돕는다. 이 플랫폼은 데이터를 통합하고 전체적인 AI 라이프사이클을 간소화하여 기업이 신뢰성, 보안성 및 민첩성을 고려하며 AI의 역량을 활용하는 데 있어 가장 포괄적인 기반을 제공한다”고 말했다.
작성일 : 2025-10-15
유아이패스-엔비디아, 민감한 워크플로에 신뢰할 수 있는 에이전틱 자동화 제공
유아이패스가 엔비디아와의 협력을 발표하면서, 금융 사기 탐지나 의료 분야 환자 관리처럼 높은 신뢰가 요구되는 환경에서 기업 고객의 기존 자동화 워크플로를 AI 기능으로 강화할 수 있도록 지원한다고 밝혔다. 유아이패스의 에이전틱 자동화 역량과 엔비디아 네모트론(Nemotron) 공개 모델, 엔비디아 NIM을 결합해 기업은 자연어 처리, 이미지 해석, 예측 분석 등 엔터프라이즈급 AI 모델을 마이크로서비스 형태로 더욱 빠르고 손쉽게 배포할 수 있다. 이를 통해 민감한 워크플로에서 에이전틱 AI와 자동화를 효율적이고 정확하게 대규모로 도입할 수 있다.   이번 협력의 핵심은 유아이패스와 엔비디아 NIM, 네모트론을 연결하는 인티그레이션 서비스(Integration Service) 커넥터를 도입하는 것이다. 이를 통해 기업은 엔비디아 NIM을 활용해 생성형 AI 기능을 자사 애플리케이션과 서비스에 원활하고 신속하게 통합할 수 있어, 자동화 역량과 성능을 한층 강화할 수 있다. 이번 협력은 민감한 업무를 다루는 고객이 높은 신뢰가 요구되는 환경에서도 에이전트, 로봇, 인간 전문가를 활용해 엔드투엔드 비즈니스 프로세스를 자동화할 수 있도록 한다.   유아이패스는 서비스 커넥터 외에도 에이전틱 자동화 전반에서 새로운 기회를 모색하고 있다. 주요 영역에는 ▲AI 기반 에이전트를 효과적으로 조율하기 위한 에이전틱 오케스트레이션 고도화 ▲유아이패스의 자동화 전문성과 맞춤형 오픈소스 엔비디아 네모트론 모델 및 가속 컴퓨팅을 결합한 차별화된 에이전트 개발 ▲온프레미스와 에어갭(air-gapped) 환경까지 역량을 확장해 규제가 엄격한 산업에서도 AI를 안전하게, 대규모로 도입할 수 있도록 지원하는 것이 포함된다.   유아이패스의 그레이엄 쉘든(Graham Sheldon) 최고제품책임자(CPO)는 “사기 탐지나 의료 워크플로처럼 민감한 프로세스에는 강력하면서도 신뢰할 수 있는 AI가 필요하다”면서, “엔비디아 NIM 모델을 유아이패스 플랫폼에 통합함으로써, 고객은 엔터프라이즈급 거버넌스를 기반으로 자체 호스팅 모델을 배포하고 체계적으로 관리할 수 있다. 이를 통해 기업은 가장 중요한 프로세스에도 관리 체계와 투명성, 신뢰를 바탕으로 AI를 적용해 실질적인 비즈니스 성과를 창출할 수 있다”고 말했다.   엔비디아의 조이 콘웨이(Joey Conway) 엔터프라이즈 생성형 AI 소프트웨어 시니어 디렉터는 “기업들은 복잡하고 독자적인 운영을 위해 안전하고 신뢰할 수 있는 AI를 원한다”며, “엔비디아 네모트론 공개 모델과 NIM 마이크로서비스를 기반으로, 유아이패스는 규제 환경에서도 복잡한 활용 사례에 대응할 수 있으며, AI 에이전트를 활용해 고도화된 자동화 시스템을 신속히 구축할 수 있다”고 말했다.
작성일 : 2025-10-14