• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "AWs"에 대한 통합 검색 내용이 696개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AWs, 세일즈포스와 ‘에이전트포스 360 포 AWs’ 공개
아마존웹서비스(AWs)는 세일즈포스와 협력해 AWs 환경에서 운영되는 ‘에이전트포스 360 포 AWs(Agentforce 360 for AWs)’를 발표했다. 이는 AWs의 글로벌 보안 인프라 상에서 운영되며, 아마존 베드록(Amazon Bedrock)을 통해 검증된 파운데이션 모델을 제공한다. 이를 통해 기업 고객은 신뢰성, 거버넌스, 그리고 가치 실현 속도라는 엔터프라이즈 AI 도입의 핵심 과제에 보다 안전하게 대응할 수 있다. 2026년 초 AWs 마켓플레이스(AWs Marketplace)를 통해 단독 제공될 예정인 ‘에이전트포스 360 포 AWs’는 고객들이 신뢰할 수 있는 AI 에이전트를 대규모로 안전하게 배포할 수 있게 하며, 구매·청구·인센티브가 통합된 환경에서 AI 투자를 효율적으로 관리하고 ROI 창출을 가속할 수 있게 된다. AWs 환경에서 운영되는 에이전트포스 360은 아마존 베드록을 에이전트포스의 추론 엔진으로 활용한다. 이를 통해 고객은 프롬프트 빌더(Prompt Builder) 기능을 위해 선도적인 AI 기업이 제공하는 고성능 파운데이션 모델에 아마존 베드록을 통해 원활하게 접근할 수 있다. 에이전트포스 360 플랫폼의 아틀라스 추론 엔진(Atlas Reasoning Engine)은 에이전트가 어떻게 사고하고, 계획하고, 행동하는지에 대한 투명성을 제공한다. 에이전트포스 360 포 AWs를 통해 이 엔진은 아마존 베드록에서 호스팅되는 앤트로픽(Anthropic)의 클로드(Claude) 모델을 사용해 구동될 수 있다. 이는 모든 작업에 대한 변경 불가능한 감사 추적이 자동으로 생성되어 엄격한 규제 요구사항을 충족하는 고도로 규제된 산업의 고객에게 특히 중요하다. 에이전트포스 360 프롬프트 빌더는 고객 자체 데이터에 기반한 정확하고 관련성 높은 프롬프트로 신뢰할 수 있는 생성형 AI를 지원한다. 프롬프트 빌더 내에서 일부 클로드 모델과 노바 라이트(Nova Lite), 노바 프로(Nova Pro)와 같은 아마존 모델을 포함한 모델 선택권을 제공한다. AWs에서 에이전트포스 360을 구매하면 고객은 전체 스택에 걸쳐 AI 지출을 통합하고, 추가 구매 인센티브를 활용하며, 단일 뷰로 IT 지출 전반에 걸쳐 세일즈포스 설루션을 관리할 수 있다. 또한 고객은 AWs를 통한 프라이빗 가격 책정과 통합 청구를 활용해 사전에 승인된 예산을 활용하고 조달을 간소화할 수 있다. 이를 통해 공동 현장 인센티브와 고객 혜택, 맞춤형 지원을 결합한 통합된 시장 공략 체계를 구축해, 양사 고객의 성공을 함께 지원한다. 보호 가드레일과 고부가가치 생성형 AI 에이전트를 즉시 배포할 수 있는 기능을 갖춘 AWs 기반 에이전트포스 360은 고객이 에이전트 추론과 데이터를 세일즈포스 트러스트 바운더리(Salesforce Trust Boundary) 내에서 완전히 구축하고 사용할 수 있도록 한다. 트러스트 바운더리는 하이퍼포스(Hyperforce)를 통해 세일즈포스 플랫폼에 기본적으로 구축되며 에이전트포스 트러스트 레이어(Agentforce Trust Layer)로 보호된다. 이 엔터프라이즈급 아키텍처는 모든 고객이 확신을 갖고 AI를 도입할 수 있도록 보장한다. LLM 트래픽이 세일즈포스의 프라이빗 AWs 클라우드 내에 유지되는 안전하고 통제된 경계를 생성한다. 이를 통해 고객 데이터가 외부 제공업체에 의해 저장되거나 학습에 사용되지 않도록 보장하는 핵심 통제가 가능하며, 초기 데이터 접근부터 최종 실행에 이르기까지 전체 에이전트 워크플로가 완전하게 관리되고, 감사를 지원하며, 관련 규정을 준수하도록 한다. 브라이언 랜즈먼(Brian Landsman) 세일즈포스 글로벌 파트너십 총괄 부사장 겸 앱익스체인지(AppExchange) CEO는 “고객들은 강력하고 신뢰할 수 있으며 기존 클라우드 투자와 부합하는 AI 에이전트를 원한다”면서, “AWs 상의 에이전트포스 360은 신뢰할 수 있는 가드레일과 AWs 마켓플레이스를 통한 간편한 구매 경로를 제공해, 고객이 기존 구매 약정을 최대한 활용할 수 있도록 지원한다”고 말했다. AWs의 루바 보르노(Ruba Borno) 글로벌 스페셜리스트 및 파트너 부사장은 “AWs와 세일즈포스는 고객의 성공을 함께 이끌어온 입증된 협력 성과를 보유하고 있다”면서, “에이전트포스 360 포 AWs는 이러한 성과를 바탕으로, 고객이 AWs 인프라에서 AI 에이전트를 보다 쉽게 발견하고, 배포하며, 혁신할 수 있도록 지원한다. 아마존 베드록의 폭넓은 모델 선택권과 세일즈포스의 신뢰 기반 플랫폼을 결합함으로써, 기업이 AI 이니셔티브를 가속하는 데 필요한 보안, 유연성 및 조달 편의성을 제공한다”고 말했다.
작성일 : 2025-12-17
엔비디아, 에이전틱 AI 개발 위한 ‘네모트론 3’ 오픈 모델 제품군 공개
엔비디아가 오픈 모델, 데이터, 라이브러리로 구성된 엔비디아 네모트론 3(NVIDIA Nemotron 3) 제품군을 발표했다. 산업 전반에서 투명하고 효율적이며 목적에 맞게 특화된 에이전틱 AI 개발을 지원하기 위한 네모트론 3 모델은 하이브리드 잠재 전문가 혼합 방식(mixture-of-experts : MoE) 아키텍처를 도입했다. 엔비디아는 “개발자가 대규모 환경에서 신뢰할 수 있는 멀티 에이전트 시스템을 구축하고 배포할 수 있도록 돕는다”고 소개했다. 기업들이 단일 모델 기반 챗봇에서 협업형 멀티 에이전트 AI 시스템으로 전환함에 따라, 개발자들은 통신 과부하, 맥락 이탈, 높은 추론 비용 등 점점 더 많은 과제에 직면하고 있다. 또한 복잡한 워크플로를 자동화할 모델을 신뢰하기 위해 투명성에 대한 요구도 커지고 있다. 네모트론 3는 이러한 과제를 해결하며, 고객이 전문화된 에이전틱 AI를 구축하는 데 필요한 성능과 개방성을 제공한다. 네모트론 3 MoE 모델 제품군은 세 가지 규모로 구성된다. ▲네모트론 3 나노(Nano)는 300억 개의 파라미터를 갖춘 소형 모델로, 한 번에 최대 30억 개의 파라미터를 활성화해 목적에 맞는 고효율 작업을 수행한다. ▲네모트론 3 슈퍼(Super)는 약 1000억 개의 파라미터와 토큰당 최대 100억 개의 활성 파라미터를 갖춘 고정확도 추론 모델로, 멀티 에이전트 애플리케이션에 적합하다. ▲네모트론 3 울트라(Ultra)는 약 5000억 개의 파라미터와 토큰당 최대 500억 개의 활성 파라미터를 갖춘 대규모 추론 엔진으로, 복잡한 AI 애플리케이션을 지원한다. 현재 제공 중인 네모트론 3 나노는 컴퓨팅 비용 효율이 가장 뛰어난 모델로, 낮은 추론 비용으로 소프트웨어 디버깅, 콘텐츠 요약, AI 어시스턴트 워크플로, 정보 검색과 같은 작업에 최적화돼 있다. 이 모델은 고유한 하이브리드 MoE 아키텍처를 활용해 효율성과 확장성 측면에서 향상된 성능을 제공한다. 네모트론 3 나노는 네모트론 2 나노 대비 최대 4배 높은 토큰 처리량을 달성하며, 추론 토큰 생성량을 최대 60%까지 줄여 추론 비용을 절감한다. 또한 100만 토큰 컨텍스트 윈도우를 지원해 더 많은 정보를 기억할 수 있으며, 장시간에 걸친 다단계 작업에서도 정보 간 연결성을 높여 정확도를 향상시킨다. 네모트론 3 슈퍼는 낮은 지연 시간으로 다수의 협업 에이전트가 복잡한 작업을 수행해야 하는 애플리케이션에 강점을 보인다. 네모트론 3 울트라는 심층 연구와 전략적 계획 수립이 요구되는 AI 워크플로를 위한 고급 추론 엔진 역할을 수행한다. 네모트론 3 슈퍼와 울트라는 엔비디아 블랙웰(Blackwell) 아키텍처 기반의 초고효율 4비트 NVFP4 훈련 포맷을 사용해 메모리 요구 사항을 줄이고 훈련 속도를 가속화한다. 이러한 효율성 덕분에 기존 인프라에서도 높은 정밀도 포맷 대비 정확도를 유지한 채 더 대규모 모델 훈련이 가능하다. 네모트론 3 모델 제품군을 통해 개발자는 특정 워크로드에 적합한 규모의 오픈 모델을 선택할 수 있다. 또한, 수십 개에서 수백 개의 에이전트로 확장하는 동시에 복잡한 워크플로에서 더 빠르고 정확한 장기 추론 성능의 이점을 누릴 수 있다.     네모트론 3 나노는 현재 허깅 페이스에서 제공되며, 베이스텐(Baseten), 딥인프라(DeepInfra), 파이어웍스(Fireworks), 프렌들리에이아이(FriendliAI), 오픈라우터(OpenRouter), 투게더 AI(Together AI) 등 추론 서비스 제공업체를 통해서도 이용할 수 있다. 네모트론 3 나노는 엔비디아 가속 인프라 전반에서 안전하고 확장 가능한 배포를 위해 엔비디아 NIM 마이크로서비스 형태로도 제공된다. 퍼블릭 클라우드 고객의 경우, 네모트론 3 나노는 아마존웹서비스(AWs)에서 아마존 베드록(Amazon Bedrock, 서버리스 방식)을 통해 제공될 예정이며, 구글 클라우드, 코어위브, 크루소, 마이크로소프트 파운드리, 네비우스, 엔스케일, 요타에서도 곧 지원될 예정이다. 네모트론 3 슈퍼와 네모트론 3 울트라는 2026년 상반기에 제공될 예정이다. 또한, 엔비디아는 전문화된 AI 에이전트를 구축하기 위한 훈련 데이터세트와 최첨단 강화학습 라이브러리 컬렉션을 공개했다. 총 3조 개의 토큰으로 구성된 새로운 네모트론 사전 훈련, 사후 훈련, 강화학습 데이터세트는 고도화된 추론과 코딩, 다단계 워크플로 사례를 풍부하게 제공해 높은 역량을 갖춘 도메인 특화 에이전트 구축을 지원한다. 개발 속도를 높이기 위해 엔비디아는 네모트론 모델의 훈련 환경과 사후 훈련 기반을 제공하는 오픈소스 라이브러리인 네모 짐(NeMo Gym)과 네모 RL을 함께 공개했다. 또한 모델의 안전성과 성능을 검증할 수 있도록 네모 이밸류에이터(Evaluator)도 선보였다. 모든 도구와 데이터세트는 현재 깃허브(GitHub)와 허깅 페이스(Hugging Face)를 통해 제공되고 있다. 네모트론 3는 LM 스튜디오(LM Studio), 라마.cpp(llama.cpp), SGLang, vLLM을 통해 지원된다. 이와 함께 프라임 인텔렉트(Prime Intellect)와 언슬로스(Unsloth)는 네모 짐의 즉시 사용 가능한 훈련 환경을 자사 워크플로에 직접 통합하고 있으며, 이를 통해 강력한 강화학습 훈련 환경에 보다 빠르고 손쉽게 접근할 수 있다. 엔비디아 네모트론은 엔비디아의 소버린 AI 전략을 지원한다. 유럽부터 대한민국에 이르는 다양한 조직들이 자체 데이터, 규제, 가치에 부합하는 AI 시스템을 구축할 수 있도록 개방적이고 투명하며 효율적인 모델 채택을 가능하게 한다. 네모트론 3의 초기 도입 기업으로는 액센츄어, 케이던스, 크라우드스트라이크, 커서, 딜로이트, EY, 오라클 클라우드 인프라스트럭처(OCI), 팔란티어, 퍼플렉시티, 서비스나우, 지멘스, 시놉시스, 줌 등이 있다. 이들은 제조, 사이버보안, 소프트웨어 개발, 미디어, 커뮤니케이션 등 다양한 산업 전반의 AI 워크플로를 구현하기 위해 네모트론 제품군의 모델을 통합하고 있다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “오픈 혁신은 AI 발전의 토대이다. 네모트론을 통해 우리는 첨단 AI를 개방형 플랫폼으로 전환해, 개발자들이 대규모 환경에서 에이전틱 시스템을 구축하는 데 필요한 투명성과 효율을 제공하고 있다”고 말했다. 서비스나우의 빌 맥더멋(Bill McDermott) 회장 겸 CEO는 “엔비디아와 서비스나우는 수년간 AI의 미래를 함께 만들어왔으며, 최고의 순간은 아직 오지 않았다. 오늘 우리는 모든 산업의 리더들이 에이전틱 AI 전략을 빠르게 추진할 수 있도록 지원하는 데 있어 중요한 진전을 이루고 있다. 서비스나우의 지능형 워크플로 자동화와 엔비디아 네모트론 3의 결합은 탁월한 효율, 속도, 정확성을 바탕으로 계속해서 업계 표준을 제시할 것”이라고 말했다.
작성일 : 2025-12-17
아마존, 어도비와 AI 시대의 창의성 및 마케팅 재편 위한 협력 강화
아마존웹서비스(AWs)는 ‘리인벤트 2025(re:Invent 2025)’ 이벤트에서 어도비의 샨타누 나라옌(Shantanu Narayen) CEO가 창의성 및 마케팅을 재편하는 AI에 대해 발표했다고 소개했다. 최신 AI 도구는 어도비가 서비스를 제공하는 비즈니스 전문가, 소비자, 크리에이터, 창작 전문가, 마케터 등 전 고객층에서 개인이 자신의 아이디어를 빠른 속도와 높은 정밀도로 구현할 수 있도록 지원한다. 이러한 변화를 가속화하기 위해 어도비와 아마존은 제품 혁신, 새로운 비즈니스 모델, 고객 참여 강화 전반에 걸쳐 협력을 강화하고 있다. 이번 협력은 생성형 AI 모델 훈련부터 AI 에이전트 배포까지 양사가 더 빠르게 혁신할 수 있도록 AWs 인프라를 활용한다. 두 회사는 AI 기반 창의성과 고객 경험 오케스트레이션에 쉽게 접근하고 효과적으로 활용할 수 있도록 하여, 개인과 기업이 오늘날 디지털 경제에서 두각을 나타낼 수 있도록 지원한다는 공동의 목표에 집중하고 있다. 어도비는 AWs의 인프라를 활용해 자사 핵심 제품 전반에 AI를 적용하고, 디지털 경험의 모든 측면에서 창의성을 극대화하는 본연의 강점에 집중할 수 있다. ▲어도비 익스프레스(Adobe Express)는 대화형 편집을 가능하게 하는 AI 어시스턴트를 제공하며, 에이전트가 효율적이고 안전하게 작동하도록 보장하기 위해 AWs의 AI 역량을 활용한다. ▲어도비 애크로뱃 스튜디오(Adobe Acrobat Studio)는 PDF에 개인화된 AI 어시스턴트와 콘텐츠 생성 기능을 제공하는 최초의 플랫폼으로, 선도적인 파운데이션 모델 선택권을 제공하기 위해 아마존 베드록(Amazon Bedrock)을 활용한다. ▲상업적으로 안전한 생성형 AI 모델을 탑재한 어도비 파이어플라이(Adobe Firefly)는 텍스트–이미지, 텍스트–비디오, 생성형 채우기 기능을 제공하며, 이는 아마존 EC2(Amazon EC2) P5 및 P6 인스턴스에서 훈련되고 데이터는 아마존 S3(Amazon S3)와 러스트용 아마존 FSx(Amazon FSx for Lustre)에 저장된다. AI가 창의성의 경계를 재정의함에 따라, 마케터는 영향력 있는 고객 경험을 오케스트레이션하는 더 큰 역할을 맡고 있다. 어도비는 고객 참여의 핵심 요소, 콘텐츠 공급망 및 브랜드 가시성을 통합해 기업이 AI를 통해 고객 경험 오케스트레이션(CXO)을 가속화하고 대규모 경험 개인화를 제공할 수 있도록 지원한다. 어도비와 아마존은 기업이 빠르게 변화하는 환경에 대응할 수 있도록 돕기 위해 여러 방면에서 협력하고 있다. 어도비 익스피리언스 플랫폼(Adobe Experience Platform : AEP)은 기업이 조직 전반의 실시간 데이터를 연결하여 뛰어난 고객 경험을 제공할 수 있다. AEP로 구동되는 실시간 CDP(Real-Time CDP), 저니 옵티마이저(Journey Optimizer), 커스터머 저니 애널리틱스(Customer Journey Analytics)와 같은 어도비 애플리케이션 및 익스피리언스 매니저(Experience Manager), 워크프론트(Workfront) 등 기타 어도비 익스피리언스 클라우드(Adobe Experience Cloud) 애플리케이션은 AWs에서 제공되며, 브랜드가 프로필을 손쉽게 생성하고 오디언스를 구축하며, 채널 전반에서 고객과 소통하고, 실행 가능한 인사이트를 바탕으로 경험을 반복적으로 조정하는 등의 작업을 수행할 수 있도록 한다. 이 공동 제공은 기업에 새로운 수준의 유연성과 확장성을 제공하며, AEP 기반 인사이트와 워크플로를 AWs에서 중앙 집중화할 수 있게 한다. 또한 AEP와 AWs 간 데이터 통합을 통해 마케터는 데이터 전략을 통합하고, 아마존 및 기타 채널에서 오디언스를 활성화하며, 가치 실현 시간을 가속화할 수 있다. 퍼포먼스 마케팅용 Gen스튜디오(GenStudio for Performance Marketing)는 브랜드 일관성을 유지한 광고·이메일 등을 확장하기 위한 생성형 AI 우선 앱이다. 어도비의 콘텐츠 공급망 설루션인 어도비 Gen스튜디오(Adobe GenStudio)의 일부인 이 앱은 팀이 다양한 주요 광고 플랫폼에서 경험을 자동으로 조립하고, 활성화하며, 최적화할 수 있도록 한다. 이제 기업은 아마존 애즈(Amazon Ads)를 통해 직접 디스플레이 광고를 활성화할 수 있으며, 이는 개인화된 캠페인을 시작하는 데 걸리는 시간을 단축하고 전환율 및 클릭률을 포함한 비즈니스 지표를 향상시킨다. 어도비 실시간 CDP 컬래버레이션(Adobe Real-Time CDP Collaboration)은 광고주와 퍼블리셔가 동의 기반 자사 데이터를 활용해 고가치 오디언스를 발굴·활성화·측정할 수 있는 안전한 환경을 제공한다. 측정과 인사이트가 더 관련성 높은 경험, 효율적 지출, 더 나은 수익으로 이어짐에 따라 어도비와 아마존 애즈는 데이터 프라이버시를 준수하는 동시에, 쉽게 접근·이해·활용할 수 있는 풀 퍼널(full-funnel) 미디어 성과를 제공하기 위해 협력하고 있다. 어도비와 아마존은 AI 에이전트 도입 및 멀티 에이전트 협업 영역에서도 협력하고 있으며, 어도비는 아마존 베드록 에이전트코어(Amazon Bedrock Agentcore)와 같은 AWs의 최신 기능을 검토 중이다. 이를 통해 사용자를 대신해 자율적으로 작업을 수행하는 에이전틱 기능의 배포를 가속화할 수 있다.
작성일 : 2025-12-12
AWs, “닛산에 통합 개발 환경 제공해 소프트웨어 정의 차량 개발 가속화”
아마존웹서비스(AWs)는 ‘AWs 리인벤트 2025’ 행사에서 닛산이 AWs 기반으로 구축한 신규 클라우드 플랫폼인 ‘닛산 확장형 오픈 소프트웨어 플랫폼(Nissan Scalable Open Software Platform)’을 공개해 소프트웨어 정의 차량(SDV) 개발을 가속화한다고 발표했다. 차량 개발의 중심이 하드웨어에서 소프트웨어로 전환되면서, 닛산 확장형 오픈 소프트웨어 플랫폼은 ▲아이디어를 신속히 기능으로 구현하는 개발 주기 단축 ▲고도화된 테스트를 통한 품질 보증 강화 ▲글로벌 개발 조직 간 협업 등을 가능하게 한다. 이번 플랫폼은 닛산이 2023년부터 AWs와의 협력을 통해 추진해 온 글로벌 엔지니어링 환경 현대화 및 디지털 전환의 핵심 성과다. 닛산은 수동으로 진행하던 테스트를 자동화해 차량 소프트웨어 테스트 실행 시간을 75% 단축했으며, 전 세계 5000명 이상의 개발자를 하나의 환경으로 연결하는 통합 개발 생태계도 구축했다. 이를 통해 각 지역 개발팀은 위치와 관계없이 표준화된 도구와 리소스에 즉시 접근할 수 있게 됐다. 닛산은 SDV 개발에 AI 활용을 지속적으로 확대해 왔다. 지난 9월, 도심 도로를 포함한 복잡한 교통 환경에서도 안정적인 운전자 보조 기능을 제공하는 차세대 프로파일럿(ProPILOT) 시스템의 주행 성능을 공개했으며, 닛산은 2027년까지 이를 일본 내 양산 차량에 적용할 계획이다. 연간 100여 개 국가에서 300만 대 이상의 차량을 판매하는 닛산은, 이번 확장형 오픈 소프트웨어 플랫폼이 변화하는 자동차 시장 환경 속에서 자사의 핵심 경쟁력이 될 것으로 기대하고 있다. 닛산의 스기모토 카즈마(Kazuma Sugimoto) 소프트웨어개발부 총괄매니저는 “닛산은 소프트웨어 정의 차량 개발을 통해 혁신적인 가치를 신속하게 고객에게 제공하며, 자동차 산업 변화를 이끌 전략을 추진하고 있다”면서, “AI 기반 차세대 모빌리티 실현을 목표로 이번에 발표한 ‘닛산 확장형 오픈 소프트웨어 플랫폼’을 핵심 기반 기술로 제시했다”고 말했다. 이어 “이 플랫폼은 미래 모빌리티를 구현하고 고객에게 새로운 경험을 제공하는 데 중요한 기술이며, AWs의 클라우드 기술과 전문성을 활용해 글로벌 개발 체계의 효율을 크게 높일 것”이라고 밝혔다.
작성일 : 2025-12-10
넷앱, “엔터프라이즈 데이터를 AWs AI 서비스와 직접 연결”
넷앱은 아마존 웹 서비스(AWs)의 AI 및 애널리틱스 서비스를 넷앱 데이터와 직접 연결할 수 있는 새로운 기능을 발표했다. 이 기능은 클라우드와 온프레미스 모두에서 사용 가능하며, 기업이 워크플로를 보다 간소화하고 효율적으로 운영할 수 있도록 돕는다. 새롭게 도입된 Amazon FSx for NetApp ONTAP용 Amazon S3 Access Points는 FSx for ONTAP에 저장된 파일 데이터를 S3 API를 통해 직접 접근할 수 있으며, AWs의 AI/ML 및 분석 서비스와의 연결을 가능하게 한다. 파일 데이터는 기존 위치에 그대로 유지되며, 파일 프로토콜을 통해 읽기/쓰기 또한 가능하다. 넷앱은 AWs에서 자사 이름으로 제공되는 데이터 스토리지 서비스를 갖추고, 클라우드 환경에서 현대적 워크로드 가속화를 지원하고 있다. FSx for ONTAP에 S3 Access Points를 연동하면, 고객은 AWs의 S3 기반 서비스 및 ISV 애플리케이션을 FSx for ONTAP 파일 시스템에 S3처럼 연결해 활용할 수 있다. 또한, ONTAP에 내장된 데이터 복제 기능을 활용하면 하이브리드 클라우드 전반에서 데이터를 자유롭게 이동시킬 수 있어 온프레미스에 저장된 데이터도 쉽게 연동 가능하다. 이로써 FSx for ONTAP에 저장된 파일 데이터를 기반으로 AWs의 머신러닝, 서버리스 컴퓨팅, 분석 서비스 등과 연계해 다양한 워크로드에 대응할 수 있게 된다. 더불어, 사용자는 각 애플리케이션이나 사용자 별로 이름과 권한을 설정해 맞춤형 S3 Access Point를 생성해 간소화하고 체계적으로 제어할 수 있다. 이번 통합은 데이터를 FSx for ONTAP 외부로 이동하지 않고도 AI 서비스를 활용할 수 있다는 점에서 사이버 보안 측면에서도 이점을 제공한다는 것이 넷앱의 설명이다. 넷앱 ONTAP은 실시간 랜섬웨어 탐지와 통합 스냅샷 등 업계 최고 수준의 사이버 복원력을 제공하며 보안 기능이 그대로 유지된다. 넷앱의 프라브짓 티와나(Pravjit Tiwana) 클라우드 스토리지 및 서비스 부문 수석 부사장 겸 총괄 책임자는 “FSx for ONTAP 데이터를 AWs의 다양한 AI, ML, 애널리틱스 서비스와 네이티브하게 연결함으로써 넷앱 시스템에 저장된 100엑사바이트(EB) 이상의 엔터프라이즈 데이터를 생성형 AI 및 AWs 기반 분석 같은 활용 사례에 직접 연결할 수 있는 가능성을 열어줄 수 있게 되었다”며, “S3 Access Points for Amazon FSx는 FSx for ONTAP은 물론 온프레미스 ONTAP 사용자에게도 ‘게임 체인저’가 된다. 이제 고객들은 엔터프라이즈 애플리케이션 및 데이터 아키텍처에 고급 클라우드 서비스를 직접 통합해 사용할 수 있다”고 전했다.
작성일 : 2025-12-09
AWs, 더 빠르고 효율적인 AI 에이전트 구축 위한 베드록·세이지메이커 AI용 신기능 출시
아마존웹서비스(AWs)는 ‘AWs 리인벤트 2025(AWs re:Invent 2025)’에서 아마존 베드록(Amazon Bedrock)과 아마존 세이지메이커 AI(Amazon SageMaker AI)의 신규 기능을 발표했다. 이번 신규 기능들은 개발자가 머신러닝 전문 지식 없이도 고급 모델 맞춤화 기능을 활용할 수 있도록 지원하며, 기본 모델보다 더 빠르고 정확하며 비용 효율적인 AI를 구축하는 과정을 간소화한다. AI를 배포하는 기업에게 효율성은 중요한 과제다. AI 애플리케이션 구축은 쉬워졌지만, 대규모 실행에는 여전히 높은 비용과 많은 리소스가 필요하다. 한편, AI 에이전트가 수행하는 작업 중 상당 부분은 일정 확인이나 문서 검색 등 고급 지능이 필요하지 않은 일상적 업무다. 이는 불필요한 비용 증가와 느린 응답 속도, 리소스 낭비로 이어진다. 이를 해결하기 위한 방법은 맞춤화(customization)다. 에이전트가 가장 자주 수행하는 작업을 담당하도록 특화된 소규모 모델을 사용함으로써 더 빠르고 정확한 응답을 더 낮은 비용으로 제공할 수 있다. 아마존 베드록의 RFT(Reinforcement Fine Tuning)와 아마존 세이지메이커 AI의 강화 학습 기반 서버리스 모델 맞춤화는 효율적인 AI를 구축하는 과정을 간소화하며, 기본 모델 대비 더 빠른 속도와 비용 효율, 정확도를 구현하도록 돕는다. AWs는 이러한 기술을 고객사의 개발자들이 더 쉽게 활용할 수 있게 제공함으로써, 모든 규모의 조직이 다양한 비즈니스 요구에 대응하는 맞춤형 에이전트를 간편하게 구축할 수 있도록 지원한다. 복잡한 맞춤화 기법은 효율적인 맞춤형 모델 구축에 있어 걸림돌이 된다. 예를 들어 강화 학습은 사람 또는 다른 모델의 피드백을 활용해 모델을 훈련한다. 그러나 강화 학습은 복잡한 훈련 파이프라인, 막대한 컴퓨팅 자원, 그리고 모든 응답을 평가하기 위한 고비용의 인간 피드백 또는 강력한 AI 모델을 필요로 한다. 아마존 베드록의 RFT는 모델 맞춤화 과정을 단순화해 모든 조직의 모든 개발자가 이 기술을 활용할 수 있게 한다. 아마존 베드록은 선도적인 AI 기업의 고성능 파운데이션 모델(foundation model)과 함께 보안과 개인 정보 보호, 책임 있는 AI 기능을 갖춘 에이전트 및 생성형 AI 애플리케이션을 구축할 수 있는 역량을 제공하는 완전관리형 AI 플랫폼이다. RFT는 기본 모델 대비 평균 66%의 정확도 향상을 제공하며, 고비용의 대규모 모델에 의존하지 않고도 더 작고 빠르며 비용 효율적인 모델로 더 나은 결과를 얻을 수 있도록 지원한다. AI 워크플로에 대한 더 많은 제어가 필요한 팀은 가장 강력한 모델을 대규모로 구축·훈련·배포할 수 있는 완전한 제어권을 제공하는 아마존 세이지메이커 AI를 활용할 수 있다. 세이지메이커 AI는 새로운 서버리스 모델 맞춤화 기능을 지원해 며칠 만에 모델 맞춤화를 가능하게 한다. 개발자는 에이전트가 모델 맞춤화 과정을 안내하는 에이전틱(agentic) 방식과 개발자가 직접 주도하기를 원할 때 적합한 셀프 가이드(self-guided) 방식 중 선택할 수 있다. 에이전틱 방식은 프리뷰 버전으로 제공된다. 에이전틱 방식에서는 개발자가 자연어로 요구사항을 설명하면, 에이전트가 합성 데이터 생성부터 평가까지 전체 맞춤화 과정을 안내한다. 셀프 가이드 방식은 세밀한 제어와 유연성을 제공한다. 이 방식은 인프라 관리 부담을 없애는 동시에 원하는 맞춤화 기법을 선택하고 파라미터를 조정할 수 있도록 지원하는 적절한 도구를 제공한다. 개발자는 두 방식 모두에서 AI 피드백 기반 강화 학습(Reinforcement Learning from AI Feedback), 검증 가능한 보상 기반 강화 학습(Reinforcement Learning with Verifiable Rewards), 지도 미세 조정, 직접 선호 최적화(Direct Preference Optimization) 등의 고급 맞춤화 기법을 활용할 수 있다. 
작성일 : 2025-12-04
AI 반도체 패권, ‘시뮬레이션’이 결정한다… 칩 설계를 넘어 산업용 AI와 디지털 트윈으로 확장
엔비디아가 전자 설계 자동화(EDA) 소프트웨어 기업인 시높시스와 20억 달러(약 2조 9400억 원) 규모의 전략적 파트너십을 맺었다. 양사의 동맹은 겉으로는 칩 설계 기술 분야의 협력이지만, 시높시스가 인수한 앤시스의 CAE 및 엔지니어링 시뮬레이션 기술이 엔비디아의 생태계 속에 더욱 깊이 들어왔다는 점도 놓칠 수 없다. 하드웨어(GPU)와 설계 소프트웨어(EDA)에 물리 시뮬레이션(CAE)까지 결합해 반도체의 설계부터 제조 그리고 디지털 트윈까지 전체 가치 사슬을 완성하는 그림을 그릴 수 있게 되었다는 것이다. ■ 정수진 편집장     AI 가속 컴퓨팅과 EDA의 결합, 20억 달러 규모의 전략적 동맹 엔비디아와 시높시스의 이번 파트너십은 거대 자본의 이동과 최첨단 기술의 통합이라는 두 가지 계층에서 진행된다. 우선 엔비디아는 시높시스의 보통주를 주당 414.79달러에 매입하는 방식으로 총 20억 달러를 투자해, 시높시스 전체 발행 주식의 약 2.6%를 확보했다. 하지만 이 거래의 본질은 단순한 지분 투자가 아닌 기술적 동맹에 있다. 양사는 엔비디아의 가속 컴퓨팅을 위한 하드웨어 및 AI 역량과 시높시스의 엔지니어링 설루션을 통합하기로 합의했다. 이번 협력에서 주목할 만한 기술적 화두는 ‘에이전틱 AI(agentic AI)’ 엔지니어링의 공동 개발이다. 기존의 AI가 엔지니어의 명령을 수동적으로 수행하는 도구에 머물렀다면, 에이전틱 AI는 엔지니어처럼 스스로 생각하고 복잡한 설계 작업을 주도적으로 수행하는 ‘대리인(에이전트)’ 역할을 지향한다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “CUDA GPU 가속 컴퓨팅은 설계 방식을 혁신하고 있다. 원자에서 트랜지스터, 칩에서 완전한 시스템에 이르기까지 어느 때보다 빠르고 대규모로 시뮬레이션이 가능하며, 컴퓨터 내에서 완전한 디지털 트윈을 구현할 수 있다”면서, “엔비디아는 가속 컴퓨팅과 AI의 힘을 활용해 엔지니어링과 설계를 새롭게 정의하고 있다. 시높시스와의 파트너십을 통해 엔지니어들이 우리의 미래를 만들 혁신적인 제품을 발명할 수 있도록 지원할 것”이라고 전했다. 이를 위해 엔비디아는 자사의 최신 AI 모델인 ‘네모트론(Nemotron)’과 마이크로서비스인 ‘NIM(NVIDIA Inference Microservices)’ 등의 AI 기술 스택을 제공하고, 시높시스는 이를 자사의 EDA 툴에 탑재해 반도체 설계의 자동화 수준을 한 단계 끌어올릴 계획이다. 더불어 엔비디아의 가상 세계 구축 플랫폼인 ‘옴니버스(Omniverse)’와 시높시스의 물리 시뮬레이션 기술을 결합하여, 반도체 칩뿐만 아니라 자동차나 로봇 같은 물리적 시스템 전체를 가상 공간에 구현하는 디지털 트윈 사업도 확대될 전망이다.   엔비디아의 생태계 확장과 시높시스의 기술 도약 이번 투자는 양사 모두에게 시장 경쟁력을 높이고 다른 회사의 추격을 막을 진입 장벽을 구축할 수 있는 윈–윈(win–win) 전략이 될 수 있다. 엔비디아 입장에서 이번 동맹은 자사의 가속 컴퓨팅 생태계를 반도체 개발의 뿌리 단계까지 확장하는 계기가 된다. 시높시스의 설계 소프트웨어가 엔비디아의 GPU 가속 기술인 쿠다(CUDA) 등을 기반으로 구동된다면, 전 세계 반도체 설계 회사들이 자연스럽게 엔비디아 GPU를 서버 인프라로 채택하게 되기 때문이다. 즉, 엔비디아의 칩은 AI 서비스용 연산 장치를 넘어, ‘반도체를 만드는 필수 도구’로 자리 잡게 되는 것이다. 시높시스 입장에서도 이번 협력은 기술적 한계를 돌파하고 재무적 안정을 추구할 기회이다. 반도체 미세 공정이 나노미터(nm) 단위로 내려가면서 설계 검증에 소요되는 시간은 기하급수적으로 늘어나고 있는데, 엔비디아의 GPU 가속을 활용하면 이 시간을 크게 단축할 수 있을 것으로 보인다. 시높시스의 사신 가지(Sassine Ghazi) CEO는 “차세대 지능형 시스템 개발의 복잡성과 비용은 전자공학과 물리학의 더 깊은 통합, 그리고 AI와 컴퓨팅을 통한 가속화를 요구한다. 시높시스와 엔비디아는 통합된 AI 기반 시스템 설계 설루션을 제공할 수 있다”면서, “양사가 함께 엔지니어링을 혁신하고, 전 세계 혁신가들이 더욱 효율적으로 아이디어를 실현할 수 있도록 힘을 보탤 것”이라고 밝혔다. 시높시스는 이러한 성능 향상으로 경쟁사와 기술 격차를 벌리는 무기를 얻게 됐다. 또한, 최근 앤시스 인수로 막대한 자금을 사용한 상태에서, 엔비디아의 20억 달러 투자를 통해 재무 부담을 덜고 연구개발에 집중할 수 있는 실탄을 확보하게 되었다.   ▲ 가속 컴퓨팅과 생성형 AI를 위한 엔비디아의 블랙웰 아키텍처(출처 : 엔비디아)   AI 칩 개발 속도 혁명과 반도체 설계 패러다임의 전환 양사의 동맹은 반도체 산업과 AI 산업 전반에 적지 않은 파도를 일으킬 것으로 보인다. 무엇보다 ‘AI가 AI 반도체를 만드는’ 시대가 본격적으로 열리면서 칩 개발 속도에 혁명이 일어날 것이다. 지금까지 고성능 AI 반도체를 설계하려면 수백 명의 숙련된 엔지니어와 수년의 시간이 필요했다. 하지만 에이전틱 AI가 상용화되어 복잡한 배선 배치나 검증을 자동 수행하게 되면, 반도체의 개발 기간이 크게 줄어들 수 있다. 이러한 변화는 ‘반도체 설계의 대중화’를 앞당겨, 빅테크 기업뿐만 아니라 스타트업도 맞춤형 AI 칩을 더 쉽게 개발할 수 있는 환경을 만들 것이다. 또한, 반도체 설계 인프라의 중심축이 중앙처리장치(CPU)에서 그래픽처리장치(GPU)로 급격히 이동할 전망이다. 전통적인 EDA 작업은 주로 CPU 기반 서버에서 이루어졌으나, 엔비디아와 시높시스의 협력은 이 워크플로를 GPU 중심으로 이동시킨다. 2025년 10월 경주 APEC 기간 중에는 삼성전자와 SK하이닉스가 엔비디아 GPU 기반의 대규모 ‘AI 팩토리’를 구축하고, 반도체 연구 개발과 생산 고도화에 활용할 계획을 밝히기도 했다. 향후 반도체 기업들이 데이터센터를 구축할 때 CPU보다 GPU 확보에 더 많은 예산을 투입하게 만든다면, 엔비디아는 시장 지배력을 높일 수 있을 것이다. 나아가 설계–검증–제조로 이어지는 반도체 전체 공급망을 기술적으로 통제하는 거대 플랫폼 기업을 노리는 것도 가능하다.   AI 반도체 개발의 생태계 장악 노리나 한편, 이번 투자는 최근 AWs(아마존웹서비스), 구글, 마이크로소프트 등 빅테크 기업들이 자체 NPU(신경망처리장치)를 개발하며 ‘탈 엔비디아’를 시도하는 흐름에 대한 전략적 대응으로 볼 수도 있다. 빅테크 기업들이 엔비디아 GPU에 대한 의존도를 줄이기 위해 독자적인 AI 연산 칩을 개발하고 있다. 이런 상황에서 엔비디아와 시높시스의 협력은 ‘칩을 만드는 도구’ 자체를 엔비디아 생태계에 묶어두는 전략이 된다. 구글의 TPU(텐서처리장치), AWs의 트레이니엄(Trainium) 등을 만드는 과정에서 가장 효율적인 설계 도구가 ‘엔비디아 GPU 가속이 적용된 시높시스 설루션’이라면, 경쟁사들은 엔비디아를 이기기 위해 엔비디아의 장비를 써야 하는 상황에 놓일 수 있다는 것이다. 엔비디아의 이번 투자는 자사 GPU가 단순한 AI 연산 도구를 넘어, AI 반도체 산업 전체의 필수 인프라로 자리잡게 하는 효과도 기대할 수 있다. 경쟁자들의 하드웨어 독립 시도를 막을 수는 없더라도, 그 설계 및 검증 과정에서 엔비디아의 영향력을 높은 수준으로 유지하려는 생태계 잠금(lock-in) 전략이 될 수 있다는 것이다.   디지털 트윈을 완성하는 퍼즐, CAE 전체 그림에서 시높시스가 품은 앤시스의 역할도 주목된다. 시높시스는 2024년 1월 엔지니어링 시뮬레이션 분야의 주요 기업인 앤시스를 약 350억 달러(약 46조 원)에 인수한다고 발표했고, 2025년 7월 인수를 완료했다. 이는 반도체 설계와 물리 시뮬레이션이라는 두 영역을 통합해서, 칩 단위를 넘어 시스템 전반을 검증할 수 있는 역량을 확보하기 위한 전략적 결정이었다. 시높시스 산하에 들어간 앤시스는 이번 협력의 범위를 반도체 밖으로 확장하는 열쇠를 쥐고 있다. 최신 AI 칩은 많은 전력을 소모하고 높은 열을 내기 때문에, 단순히 회로를 그리는 것을 넘어 열을 식히고 전기적 간섭을 막는 물리적 설계가 필수이다. 앤시스의 다중 물리(멀티피직스) 시뮬레이션은 바로 이 난제를 해결하는 핵심 기술이고, 엔비디아 GPU의 강력한 연산 능력은 복잡한 물리 계산을 빠르게 처리하는 최적의 도구가 된다. 나아가 앤시스는 엔비디아가 꿈꾸는 ‘완전한 디지털 트윈’을 구현하는 데 결정적인 역할을 한다. 엔비디아 옴니버스가 가상 공간의 외형을 만든다면, 앤시스는 그 안에 실제 세계의 물리 법칙을 적용시킬 수 있다. 앤시스는 시높시스와 엔비디아의 협력이 반도체 설계를 넘어 자동차, 항공우주, 스마트 공장 등 다양한 영역을 아우루는 ‘산업용 AI(industrial AI)’로 확장되도록 돕는 다리 역할을 할 수 있을 것으로 보인다.   ▲ 앤시스는 반도체 개발뿐 아니라 산업용 디지털 트윈까지 확장하기 위한 시뮬레이션 기술을 제공할 수 있다.(출처 : 앤시스)   전자–기계의 경계가 무너진다 : CAE 기술의 미래 시높시스와 앤시스의 결합 외에도 최근 몇 년간 CAE 및 시뮬레이션 업계는 서로 다른 영역에 있던 기업들이 경계를 허물고 통합되는 지각 변동을 겪고 있다. 2025년 지멘스가 데이터 분석 및 시뮬레이션 기업인 알테어를 인수한 것, 2024년 시높시스의 경쟁사인 케이던스(Cadence)가 자동차 및 항공우주 구조 해석 기술 기업인 베타 CAE 시스템즈(BETA CAE Systems)를 인수한 것이 대표 사례다. 또한 계측 장비 기업인 키사이트(Keysight)는 가상 프로토타이핑 기업 ESI 그룹(ESI Group)을 지난 2023년에 인수했다. 이런 인수합병의 흐름은 전자 설계(EDA)와 기계 설계(CAE)의 융합을 뜻하며, 향후 AI 및 반도체 시장에서 시뮬레이션 기술이 단순한 검증 도구를 넘어 핵심 원천 기술로 입지를 높일 것임을 시사한다. 첫째, CAE/시뮬레이션은 산업용 AI를 위한 ‘데이터 창고’의 역할을 한다. 산업용 AI를 학습시키기 위한 양질의 고장 데이터나 사고 데이터를 현실에서 구하는 것은 어렵기 때문에, 물리 법칙에 기반한 가상 환경에서 합성 데이터(synthetic data)를 생성해 AI에 공급하는 것이 필수가 되고 있다. 둘째, 반도체 시장에서는 패키징의 한계를 넘는 열쇠가 된다. 미세 공정의 한계로 인해 칩을 3차원으로 쌓는 기술이 중요해지면서, 열과 구조적 안정성을 해석하는 CAE 설루션은 이제 선택이 아닌 ‘차세대 칩 설계의 필수 전제 조건’이 되고 있다. 엔비디아의 시높시스에 대한 투자는 전 세계 기술 산업이 ‘설계–시뮬레이션–제조–구동’이 하나로 연결된 거대한 디지털 생태계로 재편되고 있음을 보여주는 신호탄이다. 엔비디아는 칩을 넘어 ‘플랫폼’이 되려고 하고, 시높시스 및 CAE 업계는 해석 도구를 넘어 ‘지능형 통합 설루션’으로 진화하고 있다. 전자(electronics)와 기계(mechanics)의 경계가 사라지고 AI가 융합되는 모습이다. 이들의 결합은 향후 반도체 및 AI 산업의 기술 표준을 누가 주도할 지에 대한 예상과 함께, 새롭게 구축되는 거대한 생태계 안에서 기업들이 어떤 생존 전략을 모색해야 할 지에 대한 고민도 안겨준다.
작성일 : 2025-12-03
[포커스] CAE 컨퍼런스 2025, AI·디지털 트윈 융합 통한 엔지니어링 혁신 전략 짚다
‘CAE 컨퍼런스 2025’가 지난 11월 7일 수원컨벤션센터에서 진행됐다. ‘시뮬레이션의 미래 : AI와 디지털 트윈이 주도하는 제조 혁신’을 주제로 한 CAE 컨퍼런스 2025에서는 AI(인공지능)와 디지털 트윈(Digital Twin)의 융합을 통한 엔지니어링 혁신 및 가속화의 흐름을 짚었다. 특히 CAE 기술이 AI 및 데이터 기술과 결합함으로써 제조 및 설계 분야의 복잡한 문제를 해결할 뿐만 아니라, 최적 설계를 넘어 자율 설계와 스마트 제조를 구현할 수 있는 가능성에 주목했다. ■ 정수진 편집장     CAE 컨퍼런스 준비위원회 위원장인 연세대학교 기계공학과 이종수 교수는 개회사에서 과거에는 설계, 해석, 생산 등 공학 영역 사이의 장벽이 허물어지고 기술 융합과 협업이 가속화되고 있다고 짚었다. 한편, AI는 엔지니어링 의사 결정 과정에서 가속화를 돕는 역할을 한다. 특히 물리적 현상을 파악하는 기술인 CAE는 데이터 부족이나 불확실성, 그리고 경험하지 않은 영역의 문제를 해결해야 할 때 AI와 상호보완적인 관계를 갖게 된다는 것이 이종수 교수의 분석이다. 그는 “AI와 CAE는 서로 부족한 부분을 채워주는 친구처럼 협력하고 있다. 이번 CAE 컨퍼런스의 주제인 AI와 디지털 트윈을 통해 이러한 융합이 더욱 촉진되기를 기대한다”고 전했다.   디지털 제조 혁신을 가속화하는 CAE와 AI의 결합 앤시스코리아의 강태신 전무는 ‘디지털 제조 혁신을 위한 앤시스의 엔드 투 엔드 설루션’을 주제로 첫 번째 기조연설을 진행했다. 그는 최근 제조 트렌드의 변화와 스마트 공장의 필요성, 그리고 시뮬레이션의 핵심 역할을 설명했다. 강태신 전무는 IoT(사물인터넷), AI 등 4차 산업혁명 기술로 인한 리쇼어링(reshoring) 추세를 언급하면서, 스마트 공장의 핵심은 데이터의 연결성(connectivity)과 시뮬레이션을 통한 불량 예방이라고 강조했다. “시뮬레이션 기반 디지털 엔지니어링의 도입은 전체 수명 주기 비용을 줄이는 데 기여하며, 앤시스는 제품 설계부터 제조 공정까지 전 과정을 아우르는 엔드 투 엔드 시뮬레이션 설루션을 제공해 디지털 전환을 가속화한다”고 전한 강태신 전무는 국내 배터리 제조 공정에 시뮬레이션과 IoT 데이터를 결합한 디지털 트윈을 구축하여 생산성을 약 20% 향상하고 비용을 절감한 실제 사례를 소개했다. 또한 “스마트 공장의 도입은 이제 필수이며, 복잡한 것보다 작은 것부터 시작하여 성공을 확장하는 것이 중요하다”고 짚었다.   ▲ 앤시스코리아 강태신 전무   연세대학교 기계공학과 이종수 교수는 ‘자율지능 에이전트를 위한 물리 모델 기반 시스템 엔지니어링 & 생성적 산업 인공지능’을 주제로 한 기조연설에서 “공학의 딜레마인 ‘정확성’과 ‘효율성’ 사이의 고민을 해소하고, 데이터가 부족한 ‘경험하지 않은 영역’ 문제를 해결하기 위해 물리 지식을 다루는 CAE와 AI의 협업이 필수라고 강조했다. 이종수 교수는 “물리 지식 기반의 CAE가 AI 모델의 가이드 역할을 함으로써, 빅데이터가 아니라 적은 데이터로도 AI 학습을 가속화하고 정확도를 높일 수 있다”고 설명했다. 이런 기술이 대형 화면 단차 분석의 도메인 적응이나 전기차 냉각 시스템 소음 저감 설계 등에서 복잡한 문제를 해결하고 새로운 설루션을 도출하는 데 적용되고 있다고 소개한 이종수 교수는 AI와 CAE가 서로 협력하는 것이 중요하다고 전했다.   ▲ 연세대학교 기계공학과 이종수 교수   차세대 엔지니어링 패러다임 : AI, 자율화, 클라우드 나니아랩스의 강남우 대표는 ‘생성형 AI에서 에이전틱 AI까지 : 자율 설계의 미래’를 주제로 한 발표에서 인구 감소 등으로 어려움을 겪는 제조업의 혁신을 위해 AI 도입이 필수라고 강조했다. 또한, 엔지니어링 설계의 패러다임이 AI를 도구로 쓰는 ‘생성형 설계’를 넘어, AI가 의사 결정권을 갖는 ‘자율 설계(autonomous design)’ 시대로 진화할 것이라고 전망했다. 강남우 대표는 “딥러닝이 복잡한 고차원 설계 문제를 해결하는 핵심 기술이며, 미래에는 AI가 스스로 최적의 워크플로를 생성하여 설계 전 과정을 자동화하는 자율 에이전트 AI(agentic AI) 플랫폼 구축이 중요하다”고 짚었다.   ▲ 나니아랩스 강남우 대표   아마존웹서비스(AWs)의 전병승 설루션 아키텍트는 ‘클라우드 기반 CAE 혁신 : AI로 가속화하는 차세대 엔지니어링 시뮬레이션’을 주제로 발표했다. 그는 전통적인 온프레미스 HPC 환경의 한계를 분석하면서, “클라우드는 무제한의 용량과 유연성, 비용 효율을 제공함으로써 CAE 워크로드의 개발 주기를 단축시킨다”고 설명했다. 또한 “AWs는 HPC 인프라 자원과 클러스터 구축 자동화 설루션을 제공한다. 나아가 클라우드를 통해 가속화된 엔지니어링 환경에 자율 에이전트 AI를 적용하여 시뮬레이션 자동화 및 엔지니어의 생산성을 극대화할 수 있다”면서, “AWs는 인프라부터 AI 개발 도구까지 지원하여 기업의 혁신을 돕는다”고 소개했다.   ▲ AWs 전병승 설루션 아키텍트   한국알테어의 이승훈 기술총괄 본부장은 ‘CAE 최신 동향과 AI 기반 디지털 트윈 가속화’를 주제로 발표하면서, 엔지니어링 패러다임 변화에 대응하는 알테어의 핵심 전략을 제시했다. 이승훈 본부장은 “알테어는 메시리스 설루션으로 설계자의 시뮬레이션 접근성을 높이고, 멀티피직스 및 엔드 투 엔드 워크플로를 통합한다. 또한, 클라우드 기반의 협업 환경으로 데이터 사일로(silo) 문제를 해결하고, HPC 자원을 유연하게 확장하도록 돕는다”고 설명했다. 또한, “궁극적으로는 시뮬레이션 데이터를 활용하여 물리 AI(physics AI) 기반의 예측 모델을 구축하고, 복잡한 해석 결과를 수십 초 만에 도출하여 엔지니어링 시간을 확보하는 것이 핵심”이라고 전했다.   ▲ 한국알테어 이승훈 기술총괄 본부장   CAE의 난제 해결하는 첨단 기술 피도텍의 최병열 연구위원은 ‘RBDO, 데이터 시대에 무결점 설계를 향해’를 주제로 발표했다. 최병열 연구위원은 제조 오차나 재료 물성의 불확정성(uncertainty)을 설계 단계부터 반영하는 신뢰성 기반 설계 최적화(RBDO : Reliability-Based Design Optimization) 기술의 적용 필요성을 강조했다. 또한 “이 기술의 핵심 목표는 불확정 요인을 반영하여 최종 제품의 신뢰도를 극대화하는 것”이라면서, RBDO의 개념과 현재 엔지니어링 환경에서 필수인 이유, 그리고 현장에 효과적으로 적용하는 구체적인 방법을 제시했다.   ▲ 피도텍 최병열 연구위원   메타리버테크놀러지의 서인수 이사는 ‘입자 기반 멀티피직스 CAE 기술 : 유체유동 및 플라스마 응용사례’ 발표에서 격자 생성 없이 비정상 상태 해석에 효과적인 입자 기반 다중 물리 CAE 기술을 소개했다. 또한 CUDA HPC를 활용하여 해석 속도를 가속화했다고 밝혔다. 주요 응용 사례로 믹싱 공정, 프린터 토너 거동 등 고체 입자 해석, 기어박스 오일 거동이나 모터 냉각 시스템 등 유체 유동 해석, OLED 증착 및 반도체 식각 공정 등 고진공 플라스마 해석 분야에서의 적용을 제시한 서인수 이사는 “GPU 기반 자체 설루션이 기존 상용 툴로 풀기 어려운 복잡하고 특수한 CAE 난제를 해결하는 데 기여하고 있다”고 전했다.   ▲ 메타리버테크놀러지 서인수 이사   자동차 및 전자 산업의 디지털 트윈 적용 사례 LG전자의 문강석 책임연구원은 ‘시뮬레이션 기반 파우치형 배터리 동향과 실링 공정 최적화를 통한 신뢰성·안전성 강화 사례’ 발표에서 파우치형 배터리의 실링(sealing) 공정 최적화 사례를 소개했다. 문강석 책임연구원은 “배터리 실링은 열 전달, 상 변화, 구조 변형, 점성 유동 등의 다중물리 현상이 동시에 발생하기 때문에 해석이 어렵다”면서, “신뢰성과 안전성을 확보하기 위해 실링 공정의 복잡한 물리적 거동을 CAE 기술로 분석했다”고 전했다. LG전자 연구팀은 기존 설루션의 한계를 극복하고자 솔버를 개선하고, 실험 데이터와 CAE 해석을 기반으로 두께 변화에 대한 수학적 모델링 및 최적화를 진행했다. 문강석 책임연구원은 이를 통해 실링 공정의 정량적 예측이 가능해져, 배터리의 신뢰성을 높이는 데 기여할 수 있었다고 설명했다.   ▲ LG전자 문강석 책임연구원   LG전자의 장일주 책임연구원은 ‘TV 제품의 CAE 자동화 및 AI 활용 사례’ 발표에서 “CAE의 핵심인 효율화 및 자동화를 달성하기 위해, 개발자들이 직접 사용할 수 있는 웹 기반의 CAE 자동화 시스템을 구축했다”고 소개했다. 그 한 가지 사례로 TV 스탠드와 헤드 블록의 구조/방열 성능을 예측해서 설계 단계에서 활용할 수 있도록 하는 TV 스탠드 안정성 예측 모델이 있는데, 몬테카를로 시뮬레이션과 딥러닝을 활용해 높은 신뢰도의 예측 결과를 빠르게 도출할 수 있었다. 또한 해석 시간이 3주 소요되던 포장 충격 예측에는 물리 기반 딥러닝 기법(PINNs)을 도입해 정확도를 높였다. 장일주 책임연구원은 “향후 TV 제품에 대해 약 15~20가지의 해석 항목을 모두 자동화해서 엔지니어링의 효율화를 이룰 계획”이라고 전했다.   ▲ LG전자 장일주 책임연구원   현대자동차의 한만용 책임연구원은 ‘고객 중심의 디지털 트윈 기술–승객 모니터링과 인체 모델의 융합’을 주제로 발표했다. 한만용 책임은 SDV(소프트웨어 중심 차량) 시대에 고객 중심 차량을 개발하기 위해서는 승객 데이터의 확보가 필수라고 강조하면서, “기존 디지털 모델과 달리 현실 데이터를 동기화하는 디지털 트윈 모델을 목표로 한다”고 소개했다. 현재는 승객 모니터링 시스템의 정보를 활용해서 관절의 위치를 파악하고, 인버스 다이나믹 모델을 통해 하중 정보를 계산하는 디지털 트윈 인체 모델을 구축하고 있는데, 한만용 책임연구원은 “체형 정보를 반영하여 충돌, 안락성 평가를 최적화하고, 실시간 피드백을 통해 승객 안전과 멀미 지수 예측 등 다양한 버추얼 테스트에 디지털 트윈 인체 모델을 활용할 계획”이라고 전했다.   ▲ 현대자동차 한만용 책임연구원     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-12-02
AWs, AI 코딩 에이전트 ‘키로’ 정식 출시
아마존웹서비스(AWs)가 AI 코딩 에이전트 ‘키로(Kiro)'를 정식 출시했다고 발표했다. 지난 7월 프리뷰 버전으로 선보인 키로는 개발자가 기존 개발 워크플로를 통합 개발 환경(IDE)과 명령줄 인터페이스(CLI)에서 바로 활용할 수 있도록 설계된 도구로 코드 작성, 점검, 수정 등 소프트웨어 개발 전반의 생산성을 보조하도록 구성되어 있다. 키로는 스펙 기반 개발(Spec-driven development)을 위한 에이전틱 AI IDE(Agentic AI IDE)이며 개발자가 프롬프트를 입력하면 이를 요구사항(requirements), 시스템 설계(system design), 그리고 개별 작업(discrete tasks)으로 분해하여 코드, 문서, 테스트로 구현하는 AI 기반 개발 환경이다. 이는 단순 AI 코딩 추천으로 앱을 자동 생성하는 방식을 넘어, 사양을 먼저 정의하고 이를 기반으로 코드 전체를 생성 및 관리하는 엔터프라이즈급 개발 방식으로 기존 AI 코딩 도구와는 차별화된 접근이다.     키로는 이번 정식 출시를 통해 사양 정확성을 위한 속성 기반 테스트 기능, 체크포인트 저장 및 이전 시점 복원 기능, 다중 루트 작업 공간 지원, 그리고 터미널에서 활용 가능한 ‘키로 CLI(Kiro CLI)’를 제공한다. 속성 기반 테스트(Property-based Testing : PBT)는 코드가 사전에 정의된 요구사항이나 기대 동작, 즉 스펙(spec)과 일치하는지를 측정하는 방식이다. 전통적인 단위 테스트가 특정 예시만 검증하는 것과 달리 PBT는 시스템의 일반적 동작을 나타내는 속성(property)를 스펙에서 추출하고 이를 대조해 테스트한다. 키로는 EARS 형식(예 : ‘시스템이 인증된 사용자가 활성 차량 목록을 볼 수 있도록 허용해야 한다’)을 사용해 명세를 작성하도록 도와준다. 키로는 이러한 요구사항에서 속성들을 추출하고, 논리적으로 테스트할 수 있는 특성을 결정한 뒤, 수백 또는 수천 개의 무작위 테스트 케이스를 생성하여 코드를 검증한다. 이 과정에서 오류를 찾기 위해 축소(shrinking) 기법을 사용해 반례를 찾고 필요 시 구현 또는 사양을 수정할 수 있는 선택지를 제공한다. 이를 통해 사람이 직접 작성하기 어려운 광범위한 시나리오 전반에서 코드가 실제로 정의한 대로 동작하는지 근거 기반 검증이 가능하다. 체크포인트(checkpoint) 리와인드(rewind) 기능은 에이전트 실행 과정에서 생성된 변경 시점인 체크포인트를 자동으로 기록하여 개발자가 원하는 시점으로 되돌릴 수 있도록 지원한다. 이를 통해 개발자는 진행 중인 작업을 잃지 않고 특정 단계로만 되돌릴 수 있어 구현 방향 변경이나 대안 비교가 필요한 경우 유용하다. 또한 크레딧을 추가로 사용하지 않고도 작업을 보존한 채 조정할 수 있어 반복적인 개발 과정에서 작업 연속성을 높인다. 다중 루트 작업 공간 지원 기능은 하나의 키로 작업 공간 내에서 여러 프로젝트 루트(root)를 동시에 구성하고 작업할 수 있도록 지원한다. 기존에는 하나의 루트 폴더만 사용할 수 있었다면, 이제는 여러 깃(git) 서브모듈 또는 패키지로 구성된 프로젝트라도 하나의 작업 공간에서 AI 에이전트를 일관되게 활용할 수 있다. 키로 CLI는 키로 에이전트를 터미널에서 직접 사용할 수 있도록 지원하는 명령줄 도구이다. 개발자는 CLI를 활용해 기능 구축, 워크플로 자동화, 오류 분석, 버그 추적, 수정 제안 등을 상호작용형 루프 속에서 수행할 수 있다. 또한 키로 CLI는 키로 IDE에서 설정한 MCP 및 스티어링(steering) 파일과 동일하게 연동되므로 IDE와 CLI 간 일관된 개발 환경을 지원한다. 로컬 파일 읽기 및 쓰기, API 호출, 배시(Bash) 명령 실행 등 MCP 기반 개발 도구가 제공되며, 클로드 소넷 4.5(Claude Sonnet 4.5), 클로드 하이쿠 4.5(Claude Haiku 4.5), 오토(Auto)등 키로의 AI 기능을 터미널에서 그대로 사용할 수 있다. 키로 CLI는 특정 작업에 최적화된 맞춤형 AI 보조 에이전트도 지원해 백엔드 API 패턴 분석이나 프론트엔드 컴포넌트 작성 등 전문 영역별 개발 효율을 높인다. 기업 개발팀은 ‘AWs IAM 아이덴티티 센터(AWs IAM Identity Center)’를 통해 키로에 가입할 수 있으며, 향후 더 많은 아이덴티티 공급자(IdP)가 지원될 예정이다. 관리자는 AWs 관리 콘솔에서 키로 프로(Kiro Pro), 키로 프로 플러스(Kiro Pro+), 키로 파워(Kiro Power) 구독 권한을 부여하고, 비용 초과 설정 및 사용량 모니터링, MCP 관리, 조직 단위 단일 청구 등을 중앙에서 관리할 수 있다. 팀, 스타트업, 엔터프라이즈는 신규 관리 대시보드를 통해 키로 사용 현황을 한 곳에서 통합 관리할 수 있다. AWs는 키로의 정식 출시와 함께 스타트업을 위한 혜택 프로그램을 운영한다고 전했다. 전 세계 시리즈 B 단계까지의 스타트업은 ‘키로 프로 플러스’를 1년간 무료로 이용할 수 있으며, 크레딧이 소진되지 않았다면 2025년 12월 31일까지 사용 가능하다. 기존 AWs 액티베이트(AWs Activate) 크레딧도 키로 구독에 사용할 수 있으며 두 혜택은 중복 적용할 수 있다.
작성일 : 2025-11-20
엔비디아, 주요 클라우드 업체와 협력해 다이나모 기반 AI 추론 가속화
엔비디아가 엔비디아 다이나모(NVIDIA Dynamo)를 통해 멀티 노드 추론 성능과 효율을 높이고, 아마존웹서비스(AWs), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 인프라스트럭처(OCI) 등 주요 클라우드 제공업체와 통합해 AI 추론 가속화를 지원한다고 밝혔다. 엔비디아의 젠슨 황 CEO는 ‘엔비디아 GTC 워싱턴 D.C.’에서 블랙웰이 엔비디아 호퍼(Hopper) 대비 10배의 성능을 제공해 10배의 수익을 창출할 수 있다고 강조했다. 대규모 전문가 혼합 방식(MoE) 모델과 같은 복잡한 AI 모델에서 높은 성능을 달성하려면, 수백만 명의 동시 사용자에게 서비스를 지원하고 더 빠른 응답을 제공하기 위해 추론 작업을 여러 서버(노드)로 분산시켜야 한다. 엔비디아는 다이나모 소프트웨어 플랫폼이 강력한 멀티 노드 기능을 프로덕션 환경에서 지원해, 기업이 기존 클라우드 환경 전반에서도 동일한 벤치마크 최고 수준의 성능과 효율을 달성할 수 있다고 설명했다.     단일 GPU 또는 서버에 탑재 가능한 AI 모델의 경우, 개발자들은 높은 처리량을 제공하기 위해 여러 노드에 걸쳐 동일한 모델 복제본을 병렬로 실행하는 경우가 많다. 시그널65(Signal65) 수석 애널리스트인 러스 펠로우즈(Russ Fellows)는 최근 발표한 논문에서 이 접근법이 72개의 엔비디아 블랙웰 울트라(Ultra) GPU를 활용해 110만 토큰 처리 속도(TPS)라는 처리량을 달성했다고 밝혔다. AI 모델을 확장해 다수의 동시 사용자를 실시간으로 지원하거나, 입력 시퀀스가 긴 고난도 워크로드를 처리할 때, 분산형 서빙(disaggregated serving) 기술을 활용하면 성능과 효율을 더욱 높일 수 있다. AI 모델 서비스는 입력 프롬프트를 처리하는 프리필(prefill)과 출력을 생성하는 디코드(decode) 두 단계로 구성된다. 기존 방식에서는 두 단계 모두 동일한 GPU에서 실행됐는데, 이로 인해 비효율성과 리소스 병목 현상을 유발할 수 있었다. 분산형 서빙은 이러한 문제를 각각 독립적으로 최적화된 GPU로 작업을 지능적으로 분산함으로써 해결한다. 이를 통해 워크로드의 각 부분이 해당 작업에 가장 적합한 최적화 기법을 활용해 실행되도록 보장해 전체 성능을 극대화한다. 딥시크-R1(DeepSeek-R1)과 같은 최신 대규모 AI 추론과 MoE 모델에서는 분산 서비스가 필수이다. 엔비디아는 다이나모가 이러한 분산형 서빙 기능을 GPU 클러스터 전반에서 프로덕션 규모로 손쉽게 구현할 수 있도록 한다고 전했다. 예를 들어, 베이스텐(Baseten)은 엔비디아 다이나모를 활용해 장문 코드 생성을 위한 추론 서비스 속도를 2배 가속화하고 처리량을 1.6배 증가시켰으며, 이는 추가 하드웨어 비용 없이 이뤄졌다. 이러한 소프트웨어 기반의 성능 향상은 AI 제공업체가 인텔리전스를 생산하는 비용을 절감할 수 있도록 한다. 대규모 AI 훈련에서 그랬던 것처럼, 컨테이너화된 애플리케이션 관리의 업계 표준인 쿠버네티스(Kubernetes)는 엔터프라이즈 규모의 AI 배포를 위해 수십 개 또는 수백 개의 노드에 걸쳐 분산형 서빙을 확장하는 데 최적화돼 있다. 현재 엔비디아 다이나모가 주요 클라우드 제공업체의 관리형 쿠버네티스 서비스에 통합됨에 따라, 고객은 GB200, GB300 NVL72를 포함한 엔비디아 블랙웰 시스템 전반에서 멀티 노드 추론을 확장할 수 있으며, 이는 엔터프라이즈 AI 배포에 요구되는 성능, 유연성, 안정성을 제공한다. 대규모 멀티 노드 추론을 실현하려는 움직임은 하이퍼스케일러(hyperscalers)를 넘어 확장되고 있다. 예를 들어, 네비우스(Nebius)는 엔비디아 가속 컴퓨팅 인프라를 기반으로 대규모 추론 워크로드를 처리할 수 있는 클라우드를 설계하고 있으며, 엔비디아 다이나모와 생태계 파트너로서 협력하고 있다. 분산형 AI 추론은 프리필, 디코드, 라우팅(routing) 등 서로 다른 요구사항을 가진 특수 구성 요소들을 조율해야 한다. 쿠버네티스가 직면한 과제는 더 많은 모델 복제본을 병렬로 실행하는 것이 아니라, 이 다양한 구성 요소들을 하나의 통합된 고성능 시스템으로 능숙하게 운영하는 것이다. 엔비디아 그로브(Grove)는 엔비디아 다이나모에서 사용 가능한 API(application programming interface)로, 사용자에게 전체 추론 시스템을 설명하는 단일 고수준 사양을 제공한다. 예를 들어, 사용자는 단일 사양 안에서 “프리필에는 GPU 노드 3개, 디코드에는 GPU 노드 6개가 필요하며, 가능한 가장 빠른 응답을 위해 단일 모델 복제본의 모든 노드가 동일한 고속 인터커넥트에 배치돼야 한다”고 간단히 요구할 수 있다. 해당 사양을 기반으로 그로브는 모든 복잡한 조율 작업을 자동으로 처리한다. 이때, 관련 구성 요소를 정확한 비율과 종속성을 유지한 채 함께 확장하고, 올바른 순서로 실행하며, 빠르고 효율적인 통신을 위해 클러스터 전반에 전략적으로 배치한다. AI 추론이 점점 더 분산됨에 따라, 쿠버네티스, 엔비디아 다이나모, 엔비디아 그로브의 조합은 개발자가 지능형 애플리케이션을 구축하고 확장하는 방식을 간소화한다.
작성일 : 2025-11-17