• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "AWS"에 대한 통합 검색 내용이 694개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
아마존, 어도비와 AI 시대의 창의성 및 마케팅 재편 위한 협력 강화
아마존웹서비스(AWS)는 ‘리인벤트 2025(re:Invent 2025)’ 이벤트에서 어도비의 샨타누 나라옌(Shantanu Narayen) CEO가 창의성 및 마케팅을 재편하는 AI에 대해 발표했다고 소개했다. 최신 AI 도구는 어도비가 서비스를 제공하는 비즈니스 전문가, 소비자, 크리에이터, 창작 전문가, 마케터 등 전 고객층에서 개인이 자신의 아이디어를 빠른 속도와 높은 정밀도로 구현할 수 있도록 지원한다. 이러한 변화를 가속화하기 위해 어도비와 아마존은 제품 혁신, 새로운 비즈니스 모델, 고객 참여 강화 전반에 걸쳐 협력을 강화하고 있다. 이번 협력은 생성형 AI 모델 훈련부터 AI 에이전트 배포까지 양사가 더 빠르게 혁신할 수 있도록 AWS 인프라를 활용한다. 두 회사는 AI 기반 창의성과 고객 경험 오케스트레이션에 쉽게 접근하고 효과적으로 활용할 수 있도록 하여, 개인과 기업이 오늘날 디지털 경제에서 두각을 나타낼 수 있도록 지원한다는 공동의 목표에 집중하고 있다. 어도비는 AWS의 인프라를 활용해 자사 핵심 제품 전반에 AI를 적용하고, 디지털 경험의 모든 측면에서 창의성을 극대화하는 본연의 강점에 집중할 수 있다. ▲어도비 익스프레스(Adobe Express)는 대화형 편집을 가능하게 하는 AI 어시스턴트를 제공하며, 에이전트가 효율적이고 안전하게 작동하도록 보장하기 위해 AWS의 AI 역량을 활용한다. ▲어도비 애크로뱃 스튜디오(Adobe Acrobat Studio)는 PDF에 개인화된 AI 어시스턴트와 콘텐츠 생성 기능을 제공하는 최초의 플랫폼으로, 선도적인 파운데이션 모델 선택권을 제공하기 위해 아마존 베드록(Amazon Bedrock)을 활용한다. ▲상업적으로 안전한 생성형 AI 모델을 탑재한 어도비 파이어플라이(Adobe Firefly)는 텍스트–이미지, 텍스트–비디오, 생성형 채우기 기능을 제공하며, 이는 아마존 EC2(Amazon EC2) P5 및 P6 인스턴스에서 훈련되고 데이터는 아마존 S3(Amazon S3)와 러스트용 아마존 FSx(Amazon FSx for Lustre)에 저장된다. AI가 창의성의 경계를 재정의함에 따라, 마케터는 영향력 있는 고객 경험을 오케스트레이션하는 더 큰 역할을 맡고 있다. 어도비는 고객 참여의 핵심 요소, 콘텐츠 공급망 및 브랜드 가시성을 통합해 기업이 AI를 통해 고객 경험 오케스트레이션(CXO)을 가속화하고 대규모 경험 개인화를 제공할 수 있도록 지원한다. 어도비와 아마존은 기업이 빠르게 변화하는 환경에 대응할 수 있도록 돕기 위해 여러 방면에서 협력하고 있다. 어도비 익스피리언스 플랫폼(Adobe Experience Platform : AEP)은 기업이 조직 전반의 실시간 데이터를 연결하여 뛰어난 고객 경험을 제공할 수 있다. AEP로 구동되는 실시간 CDP(Real-Time CDP), 저니 옵티마이저(Journey Optimizer), 커스터머 저니 애널리틱스(Customer Journey Analytics)와 같은 어도비 애플리케이션 및 익스피리언스 매니저(Experience Manager), 워크프론트(Workfront) 등 기타 어도비 익스피리언스 클라우드(Adobe Experience Cloud) 애플리케이션은 AWS에서 제공되며, 브랜드가 프로필을 손쉽게 생성하고 오디언스를 구축하며, 채널 전반에서 고객과 소통하고, 실행 가능한 인사이트를 바탕으로 경험을 반복적으로 조정하는 등의 작업을 수행할 수 있도록 한다. 이 공동 제공은 기업에 새로운 수준의 유연성과 확장성을 제공하며, AEP 기반 인사이트와 워크플로를 AWS에서 중앙 집중화할 수 있게 한다. 또한 AEP와 AWS 간 데이터 통합을 통해 마케터는 데이터 전략을 통합하고, 아마존 및 기타 채널에서 오디언스를 활성화하며, 가치 실현 시간을 가속화할 수 있다. 퍼포먼스 마케팅용 Gen스튜디오(GenStudio for Performance Marketing)는 브랜드 일관성을 유지한 광고·이메일 등을 확장하기 위한 생성형 AI 우선 앱이다. 어도비의 콘텐츠 공급망 설루션인 어도비 Gen스튜디오(Adobe GenStudio)의 일부인 이 앱은 팀이 다양한 주요 광고 플랫폼에서 경험을 자동으로 조립하고, 활성화하며, 최적화할 수 있도록 한다. 이제 기업은 아마존 애즈(Amazon Ads)를 통해 직접 디스플레이 광고를 활성화할 수 있으며, 이는 개인화된 캠페인을 시작하는 데 걸리는 시간을 단축하고 전환율 및 클릭률을 포함한 비즈니스 지표를 향상시킨다. 어도비 실시간 CDP 컬래버레이션(Adobe Real-Time CDP Collaboration)은 광고주와 퍼블리셔가 동의 기반 자사 데이터를 활용해 고가치 오디언스를 발굴·활성화·측정할 수 있는 안전한 환경을 제공한다. 측정과 인사이트가 더 관련성 높은 경험, 효율적 지출, 더 나은 수익으로 이어짐에 따라 어도비와 아마존 애즈는 데이터 프라이버시를 준수하는 동시에, 쉽게 접근·이해·활용할 수 있는 풀 퍼널(full-funnel) 미디어 성과를 제공하기 위해 협력하고 있다. 어도비와 아마존은 AI 에이전트 도입 및 멀티 에이전트 협업 영역에서도 협력하고 있으며, 어도비는 아마존 베드록 에이전트코어(Amazon Bedrock Agentcore)와 같은 AWS의 최신 기능을 검토 중이다. 이를 통해 사용자를 대신해 자율적으로 작업을 수행하는 에이전틱 기능의 배포를 가속화할 수 있다.
작성일 : 2025-12-12
AWS, “닛산에 통합 개발 환경 제공해 소프트웨어 정의 차량 개발 가속화”
아마존웹서비스(AWS)는 ‘AWS 리인벤트 2025’ 행사에서 닛산이 AWS 기반으로 구축한 신규 클라우드 플랫폼인 ‘닛산 확장형 오픈 소프트웨어 플랫폼(Nissan Scalable Open Software Platform)’을 공개해 소프트웨어 정의 차량(SDV) 개발을 가속화한다고 발표했다. 차량 개발의 중심이 하드웨어에서 소프트웨어로 전환되면서, 닛산 확장형 오픈 소프트웨어 플랫폼은 ▲아이디어를 신속히 기능으로 구현하는 개발 주기 단축 ▲고도화된 테스트를 통한 품질 보증 강화 ▲글로벌 개발 조직 간 협업 등을 가능하게 한다. 이번 플랫폼은 닛산이 2023년부터 AWS와의 협력을 통해 추진해 온 글로벌 엔지니어링 환경 현대화 및 디지털 전환의 핵심 성과다. 닛산은 수동으로 진행하던 테스트를 자동화해 차량 소프트웨어 테스트 실행 시간을 75% 단축했으며, 전 세계 5000명 이상의 개발자를 하나의 환경으로 연결하는 통합 개발 생태계도 구축했다. 이를 통해 각 지역 개발팀은 위치와 관계없이 표준화된 도구와 리소스에 즉시 접근할 수 있게 됐다. 닛산은 SDV 개발에 AI 활용을 지속적으로 확대해 왔다. 지난 9월, 도심 도로를 포함한 복잡한 교통 환경에서도 안정적인 운전자 보조 기능을 제공하는 차세대 프로파일럿(ProPILOT) 시스템의 주행 성능을 공개했으며, 닛산은 2027년까지 이를 일본 내 양산 차량에 적용할 계획이다. 연간 100여 개 국가에서 300만 대 이상의 차량을 판매하는 닛산은, 이번 확장형 오픈 소프트웨어 플랫폼이 변화하는 자동차 시장 환경 속에서 자사의 핵심 경쟁력이 될 것으로 기대하고 있다. 닛산의 스기모토 카즈마(Kazuma Sugimoto) 소프트웨어개발부 총괄매니저는 “닛산은 소프트웨어 정의 차량 개발을 통해 혁신적인 가치를 신속하게 고객에게 제공하며, 자동차 산업 변화를 이끌 전략을 추진하고 있다”면서, “AI 기반 차세대 모빌리티 실현을 목표로 이번에 발표한 ‘닛산 확장형 오픈 소프트웨어 플랫폼’을 핵심 기반 기술로 제시했다”고 말했다. 이어 “이 플랫폼은 미래 모빌리티를 구현하고 고객에게 새로운 경험을 제공하는 데 중요한 기술이며, AWS의 클라우드 기술과 전문성을 활용해 글로벌 개발 체계의 효율을 크게 높일 것”이라고 밝혔다.
작성일 : 2025-12-10
넷앱, “엔터프라이즈 데이터를 AWS AI 서비스와 직접 연결”
넷앱은 아마존 웹 서비스(AWS)의 AI 및 애널리틱스 서비스를 넷앱 데이터와 직접 연결할 수 있는 새로운 기능을 발표했다. 이 기능은 클라우드와 온프레미스 모두에서 사용 가능하며, 기업이 워크플로를 보다 간소화하고 효율적으로 운영할 수 있도록 돕는다. 새롭게 도입된 Amazon FSx for NetApp ONTAP용 Amazon S3 Access Points는 FSx for ONTAP에 저장된 파일 데이터를 S3 API를 통해 직접 접근할 수 있으며, AWS의 AI/ML 및 분석 서비스와의 연결을 가능하게 한다. 파일 데이터는 기존 위치에 그대로 유지되며, 파일 프로토콜을 통해 읽기/쓰기 또한 가능하다. 넷앱은 AWS에서 자사 이름으로 제공되는 데이터 스토리지 서비스를 갖추고, 클라우드 환경에서 현대적 워크로드 가속화를 지원하고 있다. FSx for ONTAP에 S3 Access Points를 연동하면, 고객은 AWS의 S3 기반 서비스 및 ISV 애플리케이션을 FSx for ONTAP 파일 시스템에 S3처럼 연결해 활용할 수 있다. 또한, ONTAP에 내장된 데이터 복제 기능을 활용하면 하이브리드 클라우드 전반에서 데이터를 자유롭게 이동시킬 수 있어 온프레미스에 저장된 데이터도 쉽게 연동 가능하다. 이로써 FSx for ONTAP에 저장된 파일 데이터를 기반으로 AWS의 머신러닝, 서버리스 컴퓨팅, 분석 서비스 등과 연계해 다양한 워크로드에 대응할 수 있게 된다. 더불어, 사용자는 각 애플리케이션이나 사용자 별로 이름과 권한을 설정해 맞춤형 S3 Access Point를 생성해 간소화하고 체계적으로 제어할 수 있다. 이번 통합은 데이터를 FSx for ONTAP 외부로 이동하지 않고도 AI 서비스를 활용할 수 있다는 점에서 사이버 보안 측면에서도 이점을 제공한다는 것이 넷앱의 설명이다. 넷앱 ONTAP은 실시간 랜섬웨어 탐지와 통합 스냅샷 등 업계 최고 수준의 사이버 복원력을 제공하며 보안 기능이 그대로 유지된다. 넷앱의 프라브짓 티와나(Pravjit Tiwana) 클라우드 스토리지 및 서비스 부문 수석 부사장 겸 총괄 책임자는 “FSx for ONTAP 데이터를 AWS의 다양한 AI, ML, 애널리틱스 서비스와 네이티브하게 연결함으로써 넷앱 시스템에 저장된 100엑사바이트(EB) 이상의 엔터프라이즈 데이터를 생성형 AI 및 AWS 기반 분석 같은 활용 사례에 직접 연결할 수 있는 가능성을 열어줄 수 있게 되었다”며, “S3 Access Points for Amazon FSx는 FSx for ONTAP은 물론 온프레미스 ONTAP 사용자에게도 ‘게임 체인저’가 된다. 이제 고객들은 엔터프라이즈 애플리케이션 및 데이터 아키텍처에 고급 클라우드 서비스를 직접 통합해 사용할 수 있다”고 전했다.
작성일 : 2025-12-09
AWS, 더 빠르고 효율적인 AI 에이전트 구축 위한 베드록·세이지메이커 AI용 신기능 출시
아마존웹서비스(AWS)는 ‘AWS 리인벤트 2025(AWS re:Invent 2025)’에서 아마존 베드록(Amazon Bedrock)과 아마존 세이지메이커 AI(Amazon SageMaker AI)의 신규 기능을 발표했다. 이번 신규 기능들은 개발자가 머신러닝 전문 지식 없이도 고급 모델 맞춤화 기능을 활용할 수 있도록 지원하며, 기본 모델보다 더 빠르고 정확하며 비용 효율적인 AI를 구축하는 과정을 간소화한다. AI를 배포하는 기업에게 효율성은 중요한 과제다. AI 애플리케이션 구축은 쉬워졌지만, 대규모 실행에는 여전히 높은 비용과 많은 리소스가 필요하다. 한편, AI 에이전트가 수행하는 작업 중 상당 부분은 일정 확인이나 문서 검색 등 고급 지능이 필요하지 않은 일상적 업무다. 이는 불필요한 비용 증가와 느린 응답 속도, 리소스 낭비로 이어진다. 이를 해결하기 위한 방법은 맞춤화(customization)다. 에이전트가 가장 자주 수행하는 작업을 담당하도록 특화된 소규모 모델을 사용함으로써 더 빠르고 정확한 응답을 더 낮은 비용으로 제공할 수 있다. 아마존 베드록의 RFT(Reinforcement Fine Tuning)와 아마존 세이지메이커 AI의 강화 학습 기반 서버리스 모델 맞춤화는 효율적인 AI를 구축하는 과정을 간소화하며, 기본 모델 대비 더 빠른 속도와 비용 효율, 정확도를 구현하도록 돕는다. AWS는 이러한 기술을 고객사의 개발자들이 더 쉽게 활용할 수 있게 제공함으로써, 모든 규모의 조직이 다양한 비즈니스 요구에 대응하는 맞춤형 에이전트를 간편하게 구축할 수 있도록 지원한다. 복잡한 맞춤화 기법은 효율적인 맞춤형 모델 구축에 있어 걸림돌이 된다. 예를 들어 강화 학습은 사람 또는 다른 모델의 피드백을 활용해 모델을 훈련한다. 그러나 강화 학습은 복잡한 훈련 파이프라인, 막대한 컴퓨팅 자원, 그리고 모든 응답을 평가하기 위한 고비용의 인간 피드백 또는 강력한 AI 모델을 필요로 한다. 아마존 베드록의 RFT는 모델 맞춤화 과정을 단순화해 모든 조직의 모든 개발자가 이 기술을 활용할 수 있게 한다. 아마존 베드록은 선도적인 AI 기업의 고성능 파운데이션 모델(foundation model)과 함께 보안과 개인 정보 보호, 책임 있는 AI 기능을 갖춘 에이전트 및 생성형 AI 애플리케이션을 구축할 수 있는 역량을 제공하는 완전관리형 AI 플랫폼이다. RFT는 기본 모델 대비 평균 66%의 정확도 향상을 제공하며, 고비용의 대규모 모델에 의존하지 않고도 더 작고 빠르며 비용 효율적인 모델로 더 나은 결과를 얻을 수 있도록 지원한다. AI 워크플로에 대한 더 많은 제어가 필요한 팀은 가장 강력한 모델을 대규모로 구축·훈련·배포할 수 있는 완전한 제어권을 제공하는 아마존 세이지메이커 AI를 활용할 수 있다. 세이지메이커 AI는 새로운 서버리스 모델 맞춤화 기능을 지원해 며칠 만에 모델 맞춤화를 가능하게 한다. 개발자는 에이전트가 모델 맞춤화 과정을 안내하는 에이전틱(agentic) 방식과 개발자가 직접 주도하기를 원할 때 적합한 셀프 가이드(self-guided) 방식 중 선택할 수 있다. 에이전틱 방식은 프리뷰 버전으로 제공된다. 에이전틱 방식에서는 개발자가 자연어로 요구사항을 설명하면, 에이전트가 합성 데이터 생성부터 평가까지 전체 맞춤화 과정을 안내한다. 셀프 가이드 방식은 세밀한 제어와 유연성을 제공한다. 이 방식은 인프라 관리 부담을 없애는 동시에 원하는 맞춤화 기법을 선택하고 파라미터를 조정할 수 있도록 지원하는 적절한 도구를 제공한다. 개발자는 두 방식 모두에서 AI 피드백 기반 강화 학습(Reinforcement Learning from AI Feedback), 검증 가능한 보상 기반 강화 학습(Reinforcement Learning with Verifiable Rewards), 지도 미세 조정, 직접 선호 최적화(Direct Preference Optimization) 등의 고급 맞춤화 기법을 활용할 수 있다. 
작성일 : 2025-12-04
AI 반도체 패권, ‘시뮬레이션’이 결정한다… 칩 설계를 넘어 산업용 AI와 디지털 트윈으로 확장
엔비디아가 전자 설계 자동화(EDA) 소프트웨어 기업인 시높시스와 20억 달러(약 2조 9400억 원) 규모의 전략적 파트너십을 맺었다. 양사의 동맹은 겉으로는 칩 설계 기술 분야의 협력이지만, 시높시스가 인수한 앤시스의 CAE 및 엔지니어링 시뮬레이션 기술이 엔비디아의 생태계 속에 더욱 깊이 들어왔다는 점도 놓칠 수 없다. 하드웨어(GPU)와 설계 소프트웨어(EDA)에 물리 시뮬레이션(CAE)까지 결합해 반도체의 설계부터 제조 그리고 디지털 트윈까지 전체 가치 사슬을 완성하는 그림을 그릴 수 있게 되었다는 것이다. ■ 정수진 편집장     AI 가속 컴퓨팅과 EDA의 결합, 20억 달러 규모의 전략적 동맹 엔비디아와 시높시스의 이번 파트너십은 거대 자본의 이동과 최첨단 기술의 통합이라는 두 가지 계층에서 진행된다. 우선 엔비디아는 시높시스의 보통주를 주당 414.79달러에 매입하는 방식으로 총 20억 달러를 투자해, 시높시스 전체 발행 주식의 약 2.6%를 확보했다. 하지만 이 거래의 본질은 단순한 지분 투자가 아닌 기술적 동맹에 있다. 양사는 엔비디아의 가속 컴퓨팅을 위한 하드웨어 및 AI 역량과 시높시스의 엔지니어링 설루션을 통합하기로 합의했다. 이번 협력에서 주목할 만한 기술적 화두는 ‘에이전틱 AI(agentic AI)’ 엔지니어링의 공동 개발이다. 기존의 AI가 엔지니어의 명령을 수동적으로 수행하는 도구에 머물렀다면, 에이전틱 AI는 엔지니어처럼 스스로 생각하고 복잡한 설계 작업을 주도적으로 수행하는 ‘대리인(에이전트)’ 역할을 지향한다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “CUDA GPU 가속 컴퓨팅은 설계 방식을 혁신하고 있다. 원자에서 트랜지스터, 칩에서 완전한 시스템에 이르기까지 어느 때보다 빠르고 대규모로 시뮬레이션이 가능하며, 컴퓨터 내에서 완전한 디지털 트윈을 구현할 수 있다”면서, “엔비디아는 가속 컴퓨팅과 AI의 힘을 활용해 엔지니어링과 설계를 새롭게 정의하고 있다. 시높시스와의 파트너십을 통해 엔지니어들이 우리의 미래를 만들 혁신적인 제품을 발명할 수 있도록 지원할 것”이라고 전했다. 이를 위해 엔비디아는 자사의 최신 AI 모델인 ‘네모트론(Nemotron)’과 마이크로서비스인 ‘NIM(NVIDIA Inference Microservices)’ 등의 AI 기술 스택을 제공하고, 시높시스는 이를 자사의 EDA 툴에 탑재해 반도체 설계의 자동화 수준을 한 단계 끌어올릴 계획이다. 더불어 엔비디아의 가상 세계 구축 플랫폼인 ‘옴니버스(Omniverse)’와 시높시스의 물리 시뮬레이션 기술을 결합하여, 반도체 칩뿐만 아니라 자동차나 로봇 같은 물리적 시스템 전체를 가상 공간에 구현하는 디지털 트윈 사업도 확대될 전망이다.   엔비디아의 생태계 확장과 시높시스의 기술 도약 이번 투자는 양사 모두에게 시장 경쟁력을 높이고 다른 회사의 추격을 막을 진입 장벽을 구축할 수 있는 윈–윈(win–win) 전략이 될 수 있다. 엔비디아 입장에서 이번 동맹은 자사의 가속 컴퓨팅 생태계를 반도체 개발의 뿌리 단계까지 확장하는 계기가 된다. 시높시스의 설계 소프트웨어가 엔비디아의 GPU 가속 기술인 쿠다(CUDA) 등을 기반으로 구동된다면, 전 세계 반도체 설계 회사들이 자연스럽게 엔비디아 GPU를 서버 인프라로 채택하게 되기 때문이다. 즉, 엔비디아의 칩은 AI 서비스용 연산 장치를 넘어, ‘반도체를 만드는 필수 도구’로 자리 잡게 되는 것이다. 시높시스 입장에서도 이번 협력은 기술적 한계를 돌파하고 재무적 안정을 추구할 기회이다. 반도체 미세 공정이 나노미터(nm) 단위로 내려가면서 설계 검증에 소요되는 시간은 기하급수적으로 늘어나고 있는데, 엔비디아의 GPU 가속을 활용하면 이 시간을 크게 단축할 수 있을 것으로 보인다. 시높시스의 사신 가지(Sassine Ghazi) CEO는 “차세대 지능형 시스템 개발의 복잡성과 비용은 전자공학과 물리학의 더 깊은 통합, 그리고 AI와 컴퓨팅을 통한 가속화를 요구한다. 시높시스와 엔비디아는 통합된 AI 기반 시스템 설계 설루션을 제공할 수 있다”면서, “양사가 함께 엔지니어링을 혁신하고, 전 세계 혁신가들이 더욱 효율적으로 아이디어를 실현할 수 있도록 힘을 보탤 것”이라고 밝혔다. 시높시스는 이러한 성능 향상으로 경쟁사와 기술 격차를 벌리는 무기를 얻게 됐다. 또한, 최근 앤시스 인수로 막대한 자금을 사용한 상태에서, 엔비디아의 20억 달러 투자를 통해 재무 부담을 덜고 연구개발에 집중할 수 있는 실탄을 확보하게 되었다.   ▲ 가속 컴퓨팅과 생성형 AI를 위한 엔비디아의 블랙웰 아키텍처(출처 : 엔비디아)   AI 칩 개발 속도 혁명과 반도체 설계 패러다임의 전환 양사의 동맹은 반도체 산업과 AI 산업 전반에 적지 않은 파도를 일으킬 것으로 보인다. 무엇보다 ‘AI가 AI 반도체를 만드는’ 시대가 본격적으로 열리면서 칩 개발 속도에 혁명이 일어날 것이다. 지금까지 고성능 AI 반도체를 설계하려면 수백 명의 숙련된 엔지니어와 수년의 시간이 필요했다. 하지만 에이전틱 AI가 상용화되어 복잡한 배선 배치나 검증을 자동 수행하게 되면, 반도체의 개발 기간이 크게 줄어들 수 있다. 이러한 변화는 ‘반도체 설계의 대중화’를 앞당겨, 빅테크 기업뿐만 아니라 스타트업도 맞춤형 AI 칩을 더 쉽게 개발할 수 있는 환경을 만들 것이다. 또한, 반도체 설계 인프라의 중심축이 중앙처리장치(CPU)에서 그래픽처리장치(GPU)로 급격히 이동할 전망이다. 전통적인 EDA 작업은 주로 CPU 기반 서버에서 이루어졌으나, 엔비디아와 시높시스의 협력은 이 워크플로를 GPU 중심으로 이동시킨다. 2025년 10월 경주 APEC 기간 중에는 삼성전자와 SK하이닉스가 엔비디아 GPU 기반의 대규모 ‘AI 팩토리’를 구축하고, 반도체 연구 개발과 생산 고도화에 활용할 계획을 밝히기도 했다. 향후 반도체 기업들이 데이터센터를 구축할 때 CPU보다 GPU 확보에 더 많은 예산을 투입하게 만든다면, 엔비디아는 시장 지배력을 높일 수 있을 것이다. 나아가 설계–검증–제조로 이어지는 반도체 전체 공급망을 기술적으로 통제하는 거대 플랫폼 기업을 노리는 것도 가능하다.   AI 반도체 개발의 생태계 장악 노리나 한편, 이번 투자는 최근 AWS(아마존웹서비스), 구글, 마이크로소프트 등 빅테크 기업들이 자체 NPU(신경망처리장치)를 개발하며 ‘탈 엔비디아’를 시도하는 흐름에 대한 전략적 대응으로 볼 수도 있다. 빅테크 기업들이 엔비디아 GPU에 대한 의존도를 줄이기 위해 독자적인 AI 연산 칩을 개발하고 있다. 이런 상황에서 엔비디아와 시높시스의 협력은 ‘칩을 만드는 도구’ 자체를 엔비디아 생태계에 묶어두는 전략이 된다. 구글의 TPU(텐서처리장치), AWS의 트레이니엄(Trainium) 등을 만드는 과정에서 가장 효율적인 설계 도구가 ‘엔비디아 GPU 가속이 적용된 시높시스 설루션’이라면, 경쟁사들은 엔비디아를 이기기 위해 엔비디아의 장비를 써야 하는 상황에 놓일 수 있다는 것이다. 엔비디아의 이번 투자는 자사 GPU가 단순한 AI 연산 도구를 넘어, AI 반도체 산업 전체의 필수 인프라로 자리잡게 하는 효과도 기대할 수 있다. 경쟁자들의 하드웨어 독립 시도를 막을 수는 없더라도, 그 설계 및 검증 과정에서 엔비디아의 영향력을 높은 수준으로 유지하려는 생태계 잠금(lock-in) 전략이 될 수 있다는 것이다.   디지털 트윈을 완성하는 퍼즐, CAE 전체 그림에서 시높시스가 품은 앤시스의 역할도 주목된다. 시높시스는 2024년 1월 엔지니어링 시뮬레이션 분야의 주요 기업인 앤시스를 약 350억 달러(약 46조 원)에 인수한다고 발표했고, 2025년 7월 인수를 완료했다. 이는 반도체 설계와 물리 시뮬레이션이라는 두 영역을 통합해서, 칩 단위를 넘어 시스템 전반을 검증할 수 있는 역량을 확보하기 위한 전략적 결정이었다. 시높시스 산하에 들어간 앤시스는 이번 협력의 범위를 반도체 밖으로 확장하는 열쇠를 쥐고 있다. 최신 AI 칩은 많은 전력을 소모하고 높은 열을 내기 때문에, 단순히 회로를 그리는 것을 넘어 열을 식히고 전기적 간섭을 막는 물리적 설계가 필수이다. 앤시스의 다중 물리(멀티피직스) 시뮬레이션은 바로 이 난제를 해결하는 핵심 기술이고, 엔비디아 GPU의 강력한 연산 능력은 복잡한 물리 계산을 빠르게 처리하는 최적의 도구가 된다. 나아가 앤시스는 엔비디아가 꿈꾸는 ‘완전한 디지털 트윈’을 구현하는 데 결정적인 역할을 한다. 엔비디아 옴니버스가 가상 공간의 외형을 만든다면, 앤시스는 그 안에 실제 세계의 물리 법칙을 적용시킬 수 있다. 앤시스는 시높시스와 엔비디아의 협력이 반도체 설계를 넘어 자동차, 항공우주, 스마트 공장 등 다양한 영역을 아우루는 ‘산업용 AI(industrial AI)’로 확장되도록 돕는 다리 역할을 할 수 있을 것으로 보인다.   ▲ 앤시스는 반도체 개발뿐 아니라 산업용 디지털 트윈까지 확장하기 위한 시뮬레이션 기술을 제공할 수 있다.(출처 : 앤시스)   전자–기계의 경계가 무너진다 : CAE 기술의 미래 시높시스와 앤시스의 결합 외에도 최근 몇 년간 CAE 및 시뮬레이션 업계는 서로 다른 영역에 있던 기업들이 경계를 허물고 통합되는 지각 변동을 겪고 있다. 2025년 지멘스가 데이터 분석 및 시뮬레이션 기업인 알테어를 인수한 것, 2024년 시높시스의 경쟁사인 케이던스(Cadence)가 자동차 및 항공우주 구조 해석 기술 기업인 베타 CAE 시스템즈(BETA CAE Systems)를 인수한 것이 대표 사례다. 또한 계측 장비 기업인 키사이트(Keysight)는 가상 프로토타이핑 기업 ESI 그룹(ESI Group)을 지난 2023년에 인수했다. 이런 인수합병의 흐름은 전자 설계(EDA)와 기계 설계(CAE)의 융합을 뜻하며, 향후 AI 및 반도체 시장에서 시뮬레이션 기술이 단순한 검증 도구를 넘어 핵심 원천 기술로 입지를 높일 것임을 시사한다. 첫째, CAE/시뮬레이션은 산업용 AI를 위한 ‘데이터 창고’의 역할을 한다. 산업용 AI를 학습시키기 위한 양질의 고장 데이터나 사고 데이터를 현실에서 구하는 것은 어렵기 때문에, 물리 법칙에 기반한 가상 환경에서 합성 데이터(synthetic data)를 생성해 AI에 공급하는 것이 필수가 되고 있다. 둘째, 반도체 시장에서는 패키징의 한계를 넘는 열쇠가 된다. 미세 공정의 한계로 인해 칩을 3차원으로 쌓는 기술이 중요해지면서, 열과 구조적 안정성을 해석하는 CAE 설루션은 이제 선택이 아닌 ‘차세대 칩 설계의 필수 전제 조건’이 되고 있다. 엔비디아의 시높시스에 대한 투자는 전 세계 기술 산업이 ‘설계–시뮬레이션–제조–구동’이 하나로 연결된 거대한 디지털 생태계로 재편되고 있음을 보여주는 신호탄이다. 엔비디아는 칩을 넘어 ‘플랫폼’이 되려고 하고, 시높시스 및 CAE 업계는 해석 도구를 넘어 ‘지능형 통합 설루션’으로 진화하고 있다. 전자(electronics)와 기계(mechanics)의 경계가 사라지고 AI가 융합되는 모습이다. 이들의 결합은 향후 반도체 및 AI 산업의 기술 표준을 누가 주도할 지에 대한 예상과 함께, 새롭게 구축되는 거대한 생태계 안에서 기업들이 어떤 생존 전략을 모색해야 할 지에 대한 고민도 안겨준다.
작성일 : 2025-12-03
[포커스] CAE 컨퍼런스 2025, AI·디지털 트윈 융합 통한 엔지니어링 혁신 전략 짚다
‘CAE 컨퍼런스 2025’가 지난 11월 7일 수원컨벤션센터에서 진행됐다. ‘시뮬레이션의 미래 : AI와 디지털 트윈이 주도하는 제조 혁신’을 주제로 한 CAE 컨퍼런스 2025에서는 AI(인공지능)와 디지털 트윈(Digital Twin)의 융합을 통한 엔지니어링 혁신 및 가속화의 흐름을 짚었다. 특히 CAE 기술이 AI 및 데이터 기술과 결합함으로써 제조 및 설계 분야의 복잡한 문제를 해결할 뿐만 아니라, 최적 설계를 넘어 자율 설계와 스마트 제조를 구현할 수 있는 가능성에 주목했다. ■ 정수진 편집장     CAE 컨퍼런스 준비위원회 위원장인 연세대학교 기계공학과 이종수 교수는 개회사에서 과거에는 설계, 해석, 생산 등 공학 영역 사이의 장벽이 허물어지고 기술 융합과 협업이 가속화되고 있다고 짚었다. 한편, AI는 엔지니어링 의사 결정 과정에서 가속화를 돕는 역할을 한다. 특히 물리적 현상을 파악하는 기술인 CAE는 데이터 부족이나 불확실성, 그리고 경험하지 않은 영역의 문제를 해결해야 할 때 AI와 상호보완적인 관계를 갖게 된다는 것이 이종수 교수의 분석이다. 그는 “AI와 CAE는 서로 부족한 부분을 채워주는 친구처럼 협력하고 있다. 이번 CAE 컨퍼런스의 주제인 AI와 디지털 트윈을 통해 이러한 융합이 더욱 촉진되기를 기대한다”고 전했다.   디지털 제조 혁신을 가속화하는 CAE와 AI의 결합 앤시스코리아의 강태신 전무는 ‘디지털 제조 혁신을 위한 앤시스의 엔드 투 엔드 설루션’을 주제로 첫 번째 기조연설을 진행했다. 그는 최근 제조 트렌드의 변화와 스마트 공장의 필요성, 그리고 시뮬레이션의 핵심 역할을 설명했다. 강태신 전무는 IoT(사물인터넷), AI 등 4차 산업혁명 기술로 인한 리쇼어링(reshoring) 추세를 언급하면서, 스마트 공장의 핵심은 데이터의 연결성(connectivity)과 시뮬레이션을 통한 불량 예방이라고 강조했다. “시뮬레이션 기반 디지털 엔지니어링의 도입은 전체 수명 주기 비용을 줄이는 데 기여하며, 앤시스는 제품 설계부터 제조 공정까지 전 과정을 아우르는 엔드 투 엔드 시뮬레이션 설루션을 제공해 디지털 전환을 가속화한다”고 전한 강태신 전무는 국내 배터리 제조 공정에 시뮬레이션과 IoT 데이터를 결합한 디지털 트윈을 구축하여 생산성을 약 20% 향상하고 비용을 절감한 실제 사례를 소개했다. 또한 “스마트 공장의 도입은 이제 필수이며, 복잡한 것보다 작은 것부터 시작하여 성공을 확장하는 것이 중요하다”고 짚었다.   ▲ 앤시스코리아 강태신 전무   연세대학교 기계공학과 이종수 교수는 ‘자율지능 에이전트를 위한 물리 모델 기반 시스템 엔지니어링 & 생성적 산업 인공지능’을 주제로 한 기조연설에서 “공학의 딜레마인 ‘정확성’과 ‘효율성’ 사이의 고민을 해소하고, 데이터가 부족한 ‘경험하지 않은 영역’ 문제를 해결하기 위해 물리 지식을 다루는 CAE와 AI의 협업이 필수라고 강조했다. 이종수 교수는 “물리 지식 기반의 CAE가 AI 모델의 가이드 역할을 함으로써, 빅데이터가 아니라 적은 데이터로도 AI 학습을 가속화하고 정확도를 높일 수 있다”고 설명했다. 이런 기술이 대형 화면 단차 분석의 도메인 적응이나 전기차 냉각 시스템 소음 저감 설계 등에서 복잡한 문제를 해결하고 새로운 설루션을 도출하는 데 적용되고 있다고 소개한 이종수 교수는 AI와 CAE가 서로 협력하는 것이 중요하다고 전했다.   ▲ 연세대학교 기계공학과 이종수 교수   차세대 엔지니어링 패러다임 : AI, 자율화, 클라우드 나니아랩스의 강남우 대표는 ‘생성형 AI에서 에이전틱 AI까지 : 자율 설계의 미래’를 주제로 한 발표에서 인구 감소 등으로 어려움을 겪는 제조업의 혁신을 위해 AI 도입이 필수라고 강조했다. 또한, 엔지니어링 설계의 패러다임이 AI를 도구로 쓰는 ‘생성형 설계’를 넘어, AI가 의사 결정권을 갖는 ‘자율 설계(autonomous design)’ 시대로 진화할 것이라고 전망했다. 강남우 대표는 “딥러닝이 복잡한 고차원 설계 문제를 해결하는 핵심 기술이며, 미래에는 AI가 스스로 최적의 워크플로를 생성하여 설계 전 과정을 자동화하는 자율 에이전트 AI(agentic AI) 플랫폼 구축이 중요하다”고 짚었다.   ▲ 나니아랩스 강남우 대표   아마존웹서비스(AWS)의 전병승 설루션 아키텍트는 ‘클라우드 기반 CAE 혁신 : AI로 가속화하는 차세대 엔지니어링 시뮬레이션’을 주제로 발표했다. 그는 전통적인 온프레미스 HPC 환경의 한계를 분석하면서, “클라우드는 무제한의 용량과 유연성, 비용 효율을 제공함으로써 CAE 워크로드의 개발 주기를 단축시킨다”고 설명했다. 또한 “AWS는 HPC 인프라 자원과 클러스터 구축 자동화 설루션을 제공한다. 나아가 클라우드를 통해 가속화된 엔지니어링 환경에 자율 에이전트 AI를 적용하여 시뮬레이션 자동화 및 엔지니어의 생산성을 극대화할 수 있다”면서, “AWS는 인프라부터 AI 개발 도구까지 지원하여 기업의 혁신을 돕는다”고 소개했다.   ▲ AWS 전병승 설루션 아키텍트   한국알테어의 이승훈 기술총괄 본부장은 ‘CAE 최신 동향과 AI 기반 디지털 트윈 가속화’를 주제로 발표하면서, 엔지니어링 패러다임 변화에 대응하는 알테어의 핵심 전략을 제시했다. 이승훈 본부장은 “알테어는 메시리스 설루션으로 설계자의 시뮬레이션 접근성을 높이고, 멀티피직스 및 엔드 투 엔드 워크플로를 통합한다. 또한, 클라우드 기반의 협업 환경으로 데이터 사일로(silo) 문제를 해결하고, HPC 자원을 유연하게 확장하도록 돕는다”고 설명했다. 또한, “궁극적으로는 시뮬레이션 데이터를 활용하여 물리 AI(physics AI) 기반의 예측 모델을 구축하고, 복잡한 해석 결과를 수십 초 만에 도출하여 엔지니어링 시간을 확보하는 것이 핵심”이라고 전했다.   ▲ 한국알테어 이승훈 기술총괄 본부장   CAE의 난제 해결하는 첨단 기술 피도텍의 최병열 연구위원은 ‘RBDO, 데이터 시대에 무결점 설계를 향해’를 주제로 발표했다. 최병열 연구위원은 제조 오차나 재료 물성의 불확정성(uncertainty)을 설계 단계부터 반영하는 신뢰성 기반 설계 최적화(RBDO : Reliability-Based Design Optimization) 기술의 적용 필요성을 강조했다. 또한 “이 기술의 핵심 목표는 불확정 요인을 반영하여 최종 제품의 신뢰도를 극대화하는 것”이라면서, RBDO의 개념과 현재 엔지니어링 환경에서 필수인 이유, 그리고 현장에 효과적으로 적용하는 구체적인 방법을 제시했다.   ▲ 피도텍 최병열 연구위원   메타리버테크놀러지의 서인수 이사는 ‘입자 기반 멀티피직스 CAE 기술 : 유체유동 및 플라스마 응용사례’ 발표에서 격자 생성 없이 비정상 상태 해석에 효과적인 입자 기반 다중 물리 CAE 기술을 소개했다. 또한 CUDA HPC를 활용하여 해석 속도를 가속화했다고 밝혔다. 주요 응용 사례로 믹싱 공정, 프린터 토너 거동 등 고체 입자 해석, 기어박스 오일 거동이나 모터 냉각 시스템 등 유체 유동 해석, OLED 증착 및 반도체 식각 공정 등 고진공 플라스마 해석 분야에서의 적용을 제시한 서인수 이사는 “GPU 기반 자체 설루션이 기존 상용 툴로 풀기 어려운 복잡하고 특수한 CAE 난제를 해결하는 데 기여하고 있다”고 전했다.   ▲ 메타리버테크놀러지 서인수 이사   자동차 및 전자 산업의 디지털 트윈 적용 사례 LG전자의 문강석 책임연구원은 ‘시뮬레이션 기반 파우치형 배터리 동향과 실링 공정 최적화를 통한 신뢰성·안전성 강화 사례’ 발표에서 파우치형 배터리의 실링(sealing) 공정 최적화 사례를 소개했다. 문강석 책임연구원은 “배터리 실링은 열 전달, 상 변화, 구조 변형, 점성 유동 등의 다중물리 현상이 동시에 발생하기 때문에 해석이 어렵다”면서, “신뢰성과 안전성을 확보하기 위해 실링 공정의 복잡한 물리적 거동을 CAE 기술로 분석했다”고 전했다. LG전자 연구팀은 기존 설루션의 한계를 극복하고자 솔버를 개선하고, 실험 데이터와 CAE 해석을 기반으로 두께 변화에 대한 수학적 모델링 및 최적화를 진행했다. 문강석 책임연구원은 이를 통해 실링 공정의 정량적 예측이 가능해져, 배터리의 신뢰성을 높이는 데 기여할 수 있었다고 설명했다.   ▲ LG전자 문강석 책임연구원   LG전자의 장일주 책임연구원은 ‘TV 제품의 CAE 자동화 및 AI 활용 사례’ 발표에서 “CAE의 핵심인 효율화 및 자동화를 달성하기 위해, 개발자들이 직접 사용할 수 있는 웹 기반의 CAE 자동화 시스템을 구축했다”고 소개했다. 그 한 가지 사례로 TV 스탠드와 헤드 블록의 구조/방열 성능을 예측해서 설계 단계에서 활용할 수 있도록 하는 TV 스탠드 안정성 예측 모델이 있는데, 몬테카를로 시뮬레이션과 딥러닝을 활용해 높은 신뢰도의 예측 결과를 빠르게 도출할 수 있었다. 또한 해석 시간이 3주 소요되던 포장 충격 예측에는 물리 기반 딥러닝 기법(PINNs)을 도입해 정확도를 높였다. 장일주 책임연구원은 “향후 TV 제품에 대해 약 15~20가지의 해석 항목을 모두 자동화해서 엔지니어링의 효율화를 이룰 계획”이라고 전했다.   ▲ LG전자 장일주 책임연구원   현대자동차의 한만용 책임연구원은 ‘고객 중심의 디지털 트윈 기술–승객 모니터링과 인체 모델의 융합’을 주제로 발표했다. 한만용 책임은 SDV(소프트웨어 중심 차량) 시대에 고객 중심 차량을 개발하기 위해서는 승객 데이터의 확보가 필수라고 강조하면서, “기존 디지털 모델과 달리 현실 데이터를 동기화하는 디지털 트윈 모델을 목표로 한다”고 소개했다. 현재는 승객 모니터링 시스템의 정보를 활용해서 관절의 위치를 파악하고, 인버스 다이나믹 모델을 통해 하중 정보를 계산하는 디지털 트윈 인체 모델을 구축하고 있는데, 한만용 책임연구원은 “체형 정보를 반영하여 충돌, 안락성 평가를 최적화하고, 실시간 피드백을 통해 승객 안전과 멀미 지수 예측 등 다양한 버추얼 테스트에 디지털 트윈 인체 모델을 활용할 계획”이라고 전했다.   ▲ 현대자동차 한만용 책임연구원     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-12-02
AWS, AI 코딩 에이전트 ‘키로’ 정식 출시
아마존웹서비스(AWS)가 AI 코딩 에이전트 ‘키로(Kiro)'를 정식 출시했다고 발표했다. 지난 7월 프리뷰 버전으로 선보인 키로는 개발자가 기존 개발 워크플로를 통합 개발 환경(IDE)과 명령줄 인터페이스(CLI)에서 바로 활용할 수 있도록 설계된 도구로 코드 작성, 점검, 수정 등 소프트웨어 개발 전반의 생산성을 보조하도록 구성되어 있다. 키로는 스펙 기반 개발(Spec-driven development)을 위한 에이전틱 AI IDE(Agentic AI IDE)이며 개발자가 프롬프트를 입력하면 이를 요구사항(requirements), 시스템 설계(system design), 그리고 개별 작업(discrete tasks)으로 분해하여 코드, 문서, 테스트로 구현하는 AI 기반 개발 환경이다. 이는 단순 AI 코딩 추천으로 앱을 자동 생성하는 방식을 넘어, 사양을 먼저 정의하고 이를 기반으로 코드 전체를 생성 및 관리하는 엔터프라이즈급 개발 방식으로 기존 AI 코딩 도구와는 차별화된 접근이다.     키로는 이번 정식 출시를 통해 사양 정확성을 위한 속성 기반 테스트 기능, 체크포인트 저장 및 이전 시점 복원 기능, 다중 루트 작업 공간 지원, 그리고 터미널에서 활용 가능한 ‘키로 CLI(Kiro CLI)’를 제공한다. 속성 기반 테스트(Property-based Testing : PBT)는 코드가 사전에 정의된 요구사항이나 기대 동작, 즉 스펙(spec)과 일치하는지를 측정하는 방식이다. 전통적인 단위 테스트가 특정 예시만 검증하는 것과 달리 PBT는 시스템의 일반적 동작을 나타내는 속성(property)를 스펙에서 추출하고 이를 대조해 테스트한다. 키로는 EARS 형식(예 : ‘시스템이 인증된 사용자가 활성 차량 목록을 볼 수 있도록 허용해야 한다’)을 사용해 명세를 작성하도록 도와준다. 키로는 이러한 요구사항에서 속성들을 추출하고, 논리적으로 테스트할 수 있는 특성을 결정한 뒤, 수백 또는 수천 개의 무작위 테스트 케이스를 생성하여 코드를 검증한다. 이 과정에서 오류를 찾기 위해 축소(shrinking) 기법을 사용해 반례를 찾고 필요 시 구현 또는 사양을 수정할 수 있는 선택지를 제공한다. 이를 통해 사람이 직접 작성하기 어려운 광범위한 시나리오 전반에서 코드가 실제로 정의한 대로 동작하는지 근거 기반 검증이 가능하다. 체크포인트(checkpoint) 리와인드(rewind) 기능은 에이전트 실행 과정에서 생성된 변경 시점인 체크포인트를 자동으로 기록하여 개발자가 원하는 시점으로 되돌릴 수 있도록 지원한다. 이를 통해 개발자는 진행 중인 작업을 잃지 않고 특정 단계로만 되돌릴 수 있어 구현 방향 변경이나 대안 비교가 필요한 경우 유용하다. 또한 크레딧을 추가로 사용하지 않고도 작업을 보존한 채 조정할 수 있어 반복적인 개발 과정에서 작업 연속성을 높인다. 다중 루트 작업 공간 지원 기능은 하나의 키로 작업 공간 내에서 여러 프로젝트 루트(root)를 동시에 구성하고 작업할 수 있도록 지원한다. 기존에는 하나의 루트 폴더만 사용할 수 있었다면, 이제는 여러 깃(git) 서브모듈 또는 패키지로 구성된 프로젝트라도 하나의 작업 공간에서 AI 에이전트를 일관되게 활용할 수 있다. 키로 CLI는 키로 에이전트를 터미널에서 직접 사용할 수 있도록 지원하는 명령줄 도구이다. 개발자는 CLI를 활용해 기능 구축, 워크플로 자동화, 오류 분석, 버그 추적, 수정 제안 등을 상호작용형 루프 속에서 수행할 수 있다. 또한 키로 CLI는 키로 IDE에서 설정한 MCP 및 스티어링(steering) 파일과 동일하게 연동되므로 IDE와 CLI 간 일관된 개발 환경을 지원한다. 로컬 파일 읽기 및 쓰기, API 호출, 배시(Bash) 명령 실행 등 MCP 기반 개발 도구가 제공되며, 클로드 소넷 4.5(Claude Sonnet 4.5), 클로드 하이쿠 4.5(Claude Haiku 4.5), 오토(Auto)등 키로의 AI 기능을 터미널에서 그대로 사용할 수 있다. 키로 CLI는 특정 작업에 최적화된 맞춤형 AI 보조 에이전트도 지원해 백엔드 API 패턴 분석이나 프론트엔드 컴포넌트 작성 등 전문 영역별 개발 효율을 높인다. 기업 개발팀은 ‘AWS IAM 아이덴티티 센터(AWS IAM Identity Center)’를 통해 키로에 가입할 수 있으며, 향후 더 많은 아이덴티티 공급자(IdP)가 지원될 예정이다. 관리자는 AWS 관리 콘솔에서 키로 프로(Kiro Pro), 키로 프로 플러스(Kiro Pro+), 키로 파워(Kiro Power) 구독 권한을 부여하고, 비용 초과 설정 및 사용량 모니터링, MCP 관리, 조직 단위 단일 청구 등을 중앙에서 관리할 수 있다. 팀, 스타트업, 엔터프라이즈는 신규 관리 대시보드를 통해 키로 사용 현황을 한 곳에서 통합 관리할 수 있다. AWS는 키로의 정식 출시와 함께 스타트업을 위한 혜택 프로그램을 운영한다고 전했다. 전 세계 시리즈 B 단계까지의 스타트업은 ‘키로 프로 플러스’를 1년간 무료로 이용할 수 있으며, 크레딧이 소진되지 않았다면 2025년 12월 31일까지 사용 가능하다. 기존 AWS 액티베이트(AWS Activate) 크레딧도 키로 구독에 사용할 수 있으며 두 혜택은 중복 적용할 수 있다.
작성일 : 2025-11-20
엔비디아, 주요 클라우드 업체와 협력해 다이나모 기반 AI 추론 가속화
엔비디아가 엔비디아 다이나모(NVIDIA Dynamo)를 통해 멀티 노드 추론 성능과 효율을 높이고, 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 인프라스트럭처(OCI) 등 주요 클라우드 제공업체와 통합해 AI 추론 가속화를 지원한다고 밝혔다. 엔비디아의 젠슨 황 CEO는 ‘엔비디아 GTC 워싱턴 D.C.’에서 블랙웰이 엔비디아 호퍼(Hopper) 대비 10배의 성능을 제공해 10배의 수익을 창출할 수 있다고 강조했다. 대규모 전문가 혼합 방식(MoE) 모델과 같은 복잡한 AI 모델에서 높은 성능을 달성하려면, 수백만 명의 동시 사용자에게 서비스를 지원하고 더 빠른 응답을 제공하기 위해 추론 작업을 여러 서버(노드)로 분산시켜야 한다. 엔비디아는 다이나모 소프트웨어 플랫폼이 강력한 멀티 노드 기능을 프로덕션 환경에서 지원해, 기업이 기존 클라우드 환경 전반에서도 동일한 벤치마크 최고 수준의 성능과 효율을 달성할 수 있다고 설명했다.     단일 GPU 또는 서버에 탑재 가능한 AI 모델의 경우, 개발자들은 높은 처리량을 제공하기 위해 여러 노드에 걸쳐 동일한 모델 복제본을 병렬로 실행하는 경우가 많다. 시그널65(Signal65) 수석 애널리스트인 러스 펠로우즈(Russ Fellows)는 최근 발표한 논문에서 이 접근법이 72개의 엔비디아 블랙웰 울트라(Ultra) GPU를 활용해 110만 토큰 처리 속도(TPS)라는 처리량을 달성했다고 밝혔다. AI 모델을 확장해 다수의 동시 사용자를 실시간으로 지원하거나, 입력 시퀀스가 긴 고난도 워크로드를 처리할 때, 분산형 서빙(disaggregated serving) 기술을 활용하면 성능과 효율을 더욱 높일 수 있다. AI 모델 서비스는 입력 프롬프트를 처리하는 프리필(prefill)과 출력을 생성하는 디코드(decode) 두 단계로 구성된다. 기존 방식에서는 두 단계 모두 동일한 GPU에서 실행됐는데, 이로 인해 비효율성과 리소스 병목 현상을 유발할 수 있었다. 분산형 서빙은 이러한 문제를 각각 독립적으로 최적화된 GPU로 작업을 지능적으로 분산함으로써 해결한다. 이를 통해 워크로드의 각 부분이 해당 작업에 가장 적합한 최적화 기법을 활용해 실행되도록 보장해 전체 성능을 극대화한다. 딥시크-R1(DeepSeek-R1)과 같은 최신 대규모 AI 추론과 MoE 모델에서는 분산 서비스가 필수이다. 엔비디아는 다이나모가 이러한 분산형 서빙 기능을 GPU 클러스터 전반에서 프로덕션 규모로 손쉽게 구현할 수 있도록 한다고 전했다. 예를 들어, 베이스텐(Baseten)은 엔비디아 다이나모를 활용해 장문 코드 생성을 위한 추론 서비스 속도를 2배 가속화하고 처리량을 1.6배 증가시켰으며, 이는 추가 하드웨어 비용 없이 이뤄졌다. 이러한 소프트웨어 기반의 성능 향상은 AI 제공업체가 인텔리전스를 생산하는 비용을 절감할 수 있도록 한다. 대규모 AI 훈련에서 그랬던 것처럼, 컨테이너화된 애플리케이션 관리의 업계 표준인 쿠버네티스(Kubernetes)는 엔터프라이즈 규모의 AI 배포를 위해 수십 개 또는 수백 개의 노드에 걸쳐 분산형 서빙을 확장하는 데 최적화돼 있다. 현재 엔비디아 다이나모가 주요 클라우드 제공업체의 관리형 쿠버네티스 서비스에 통합됨에 따라, 고객은 GB200, GB300 NVL72를 포함한 엔비디아 블랙웰 시스템 전반에서 멀티 노드 추론을 확장할 수 있으며, 이는 엔터프라이즈 AI 배포에 요구되는 성능, 유연성, 안정성을 제공한다. 대규모 멀티 노드 추론을 실현하려는 움직임은 하이퍼스케일러(hyperscalers)를 넘어 확장되고 있다. 예를 들어, 네비우스(Nebius)는 엔비디아 가속 컴퓨팅 인프라를 기반으로 대규모 추론 워크로드를 처리할 수 있는 클라우드를 설계하고 있으며, 엔비디아 다이나모와 생태계 파트너로서 협력하고 있다. 분산형 AI 추론은 프리필, 디코드, 라우팅(routing) 등 서로 다른 요구사항을 가진 특수 구성 요소들을 조율해야 한다. 쿠버네티스가 직면한 과제는 더 많은 모델 복제본을 병렬로 실행하는 것이 아니라, 이 다양한 구성 요소들을 하나의 통합된 고성능 시스템으로 능숙하게 운영하는 것이다. 엔비디아 그로브(Grove)는 엔비디아 다이나모에서 사용 가능한 API(application programming interface)로, 사용자에게 전체 추론 시스템을 설명하는 단일 고수준 사양을 제공한다. 예를 들어, 사용자는 단일 사양 안에서 “프리필에는 GPU 노드 3개, 디코드에는 GPU 노드 6개가 필요하며, 가능한 가장 빠른 응답을 위해 단일 모델 복제본의 모든 노드가 동일한 고속 인터커넥트에 배치돼야 한다”고 간단히 요구할 수 있다. 해당 사양을 기반으로 그로브는 모든 복잡한 조율 작업을 자동으로 처리한다. 이때, 관련 구성 요소를 정확한 비율과 종속성을 유지한 채 함께 확장하고, 올바른 순서로 실행하며, 빠르고 효율적인 통신을 위해 클러스터 전반에 전략적으로 배치한다. AI 추론이 점점 더 분산됨에 따라, 쿠버네티스, 엔비디아 다이나모, 엔비디아 그로브의 조합은 개발자가 지능형 애플리케이션을 구축하고 확장하는 방식을 간소화한다.
작성일 : 2025-11-17
아마존, STEAM 기반 학습 경험 제공하는 국내 두 번째 ‘씽크 빅 스페이스’ 개설
아마존은 인천 백석중학교에 새로운 교육 실습실인 ‘씽크 빅 스페이스(Think Big Space)’를 개설했다고 발표했다. 아마존이 국내에서 개설한 두 번째 씽크 빅 스페이스인 이 곳은 학생, 교사, 지역사회 구성원들에게 참여형(interactive) 실습 기술 교육과 클라우드 컴퓨팅 훈련을 제공하며, STEAM(과학, 기술, 공학, 예술, 수학) 분야와 관련된 아이디어와 프로젝트를 탐구할 수 있도록 지원한다. 2024년 가정여자중학교에 개소한 첫 번째 씽크 빅 스페이스는 300명 이상의 학생에게 STEM 학습 기회를 제공했다. 아마존은 이번 두 번째 씽크 빅 스페이스를 통해 더 많은 학생에게 STEAM 교육 기회를 제공하고, 이 분야에 대한 투자를 확대하고 있다. 아마존 씽크 빅 스페이스는 클라우드 컴퓨팅 등 다양한 AWS 기술을 활용한 교육 인큐베이터 역할을 한다. 이 공간에서 제공되는 프로그램은 어린이와 청소년의 혁신적 사고를 길러주고 STEAM 분야에 대한 관심을 높이는 것이 목표다. 일반적인 교실을 넘어서는 실습 공간을 제공해 학생들이 실제 문제 해결을 위해 ‘크게 생각해보고’ 이를 직접 체험해보는 접근 방식을 장려한다. 이 씽크 빅 스페이스는 백석중학교의 관리 하에 아마존과 스마트러닝 기업 리얼리AI(Really AI)가 협력해 운영될 예정이다. 백석중학교 1~3학년 학생들은 다양한 STEAM 분야 관련 수업과 체험 활동을 통해 프로그래밍, 인공지능(AI), 로봇공학, 자동화, 게임 코딩, 진로 탐색 등에 대해 배울 예정이다. 백석중학교 교사들은 아마존 씽크 빅 스페이스 개강에 앞서 코딩, 물리 컴퓨팅, STEAM 교육 역량 강화를 위해 교육부 가이드라인에 따라 20시간의 연수를 받게 된다.     아마존 씽크 빅 스페이스는 문제 해결을 위해 기술을 사용하거나 직원들이 시간을 투자함으로써 전 세계에 긍정적인 변화를 일으키기 위해 행동하는 아마존 커뮤니티 주도 사회공헌 활동의 일환이다. 아마존 커뮤니티는 2019년부터 미국, 아일랜드, 인도, 호주, 일본, 스페인 등 국가에 104개의 씽크 빅 스페이스를 개설하여 9만 6000명 이상의 학생들에게 교육을 제공하고 있다. 국내에서는 2024년 5월 가정여자중학교에 첫 번째 씽크 빅 스페이스를 개설했으며, 아마존 커뮤니티는 학용품과 간식 기부, 위탁 가정 벽화 그리기, 걸스 테크 데이 개최, 겨울과 여름 STEM 캠프 및 코딩 챌린지를 통한 미래 혁신가 육성 등 지역사회 지원을 위한 다양한 활동을 진행한 바 있다. 이러한 활동에는 전 세계 학생들이 함께 코딩 챌린지에 참여하며 협업하는 ‘씽크 빅 서클(Think Big Circle)’ 글로벌 이니셔티브도 포함되어 있다. 백석중학교의 한소영 교장은 “우리 학교가 아마존과의 협력을 통해 학생과 교사가 AI 및 디지털 역량을 강화할 수 있는 공간을 마련하게 되어 기쁘다”면서, “씽크 빅 스페이스는 AI, 로봇공학, 자율주행과 같은 최첨단 기술을 배우는 교실을 넘어 학생들이 스스로 문제를 발견하고 함께 해결하는 살아있는 배움의 장이 될 것”이라고 말했다. 인천서부교육지원청 임용렬 교육장은 “씽크 빅 스페이스는 학생들이 스스로 사고하고 도전하며 세상과 연결될 수 있는 창의력 공간이 될 것”이라며, “인천서부교육지원청은 AI를 활용한 STEAM 교육 기회를 확대하여 학교 현장의 혁신과 교사들의 노력을 적극 지원하겠다”고 말했다. 박세준 아마존웹서비스(AWS) 코리아 리전 리더는 “아마존은 인간의 잠재력을 끌어내는 교육의 힘을 믿으며, 학생들이 디지털 미래를 준비할 수 있는 역량을 갖추도록 지원하고 있다”면서, “우리는 지역사회 공헌을 중요하게 생각하며 씽크 빅 스페이스는 아마존의 지속적 지역사회 기여 활동의 핵심이다. 아마존은 씽크 빅 스페이스와 걸스 테크 데이(Girls' Tech Day) 같은 프로그램을 통해 학생들이 실습 중심의 흥미로운 경험 속에서 STEM을 탐구하도록 영감을 주는 것이 목표”라고 말했다.  아마존 커뮤니티(Amazon Communities)는 STEM 교육 키트, 아마존 에코(Amazon Echo) 기기, 가구 등을 기증해 백석중학교의 기존 컴퓨터실을 리모델링할 예정이다. 학생들은 아마존 씽크 빅 스페이스를 통해 STEAM에 대한 개념적 이해를 높이고 창의력, 비판적 사고 등 논리적 의사결정과 소통, 협력과 같은 생활 속 기술에 혁신을 접목할 수 있을 것으로 기대된다.
작성일 : 2025-11-14
[포커스] AWS, 산업 혁신 이끄는 AI 에이전트 비전과 전략 공개
아마존웹서비스(AWS)는 10월 14일~16일 진행한 ‘AWS AI×인더스트리 위크 2025’를 통해 AI가 단순 자동화를 넘어 자율적인 추론 및 행동이 가능한 에이전트로 진화하고 있으며, 모든 산업의 패러다임을 전환시키고 있다고 짚었다. AWS는 이번 행사에서 한국의 주요 기업들이 AI를 활용해 생산성 향상 및 비즈니스 혁신을 이루고 있는 사례를 소개하는 한편, 엔터프라이즈급 AI 에이전트 플랫폼을 비롯해 다양한 모델 선택권과 상호 운용성을 제공하는 자사의 AI 포트폴리오를 선보였다. ■ 정수진 편집장   자동화를 넘어 자율적 ‘에이전트’로 진화 이번 ‘AWS AI×인더스트리 위크 2025’는 게임, 제조 및 하이테크, 리테일 및 소비재, 소프트웨어 및 인터넷, 금융 및 핀테크등 총 5개 산업의 60개 이상 사례를 소개했다. 이 가운데 이틀째인 10월 15일에는 빠르게 AI 기술을 도입해 비즈니스를 바꾸고 있는 리테일 및 소비재 기업과 주요 제조 공정부터 마케팅까지 다양하게 AI를 도입하고 있는 제조 기업의 사례가 소개됐다. 10월 15일 기조연설에서는 AWS의 벤 카바나스(Ben Cabanas) 아시아태평양 및 일본(APJ) 지역 글로벌 세일즈 기술 디렉터가 자사의 최신 에이전틱 AI(agentic AI) 기술과 서비스, 새로운 AI 기술 전략에 대해 소개했다. 카바나스 디렉터는 “AI 기술의 발전 속도가 빨라지면서 모든 산업의 변화를 주도하고 있다”면서, “지식이 AI 모델에 직접 임베딩되면서 AI가 전문가 수준의 추론 능력을 가질 수 있게 되고, 이 덕분에 애플리케이션이 다양한 분야서 자율적으로 행동할 수 있게 됐다. 또한 AI가 물리적인 현실 세계로 진출할 수 있게 되고, 현실 세계에 임베드된 AI는 더욱 똑똑한 AI를 만드는 것도 가능해졌다”고 짚었다.  AI는 단순한 챗봇이나 비서의 수준을 넘어서고 있다. 최근 주목을 받고 있는 ‘AI 에이전트’는 사람이 정의한 목표를 위해 스스로 추론하고, 계획하며, 적응하는 자율적 소프트웨어 시스템이자 ‘디지털 팀원’으로 진화하고 있다는 것이 카바나스 디렉터의 설명이다. 전 세계 AI 에이전트 시장은 빠르게 성장할 것으로 보인다. 여러 시장 조사 기관에서 40% 이상의 연평균 성장률을 예측하고 있으며, 그 중 한 곳은 10년 후 2000억 달러 이상의 규모가 될 것으로 전망하기도 했다.   ▲ AWS 벤 카바나스 APJ 지역 기술 디렉터   AI 에이전트의 구축부터 배포까지 지원하는 기술 선보여 카바나스 디렉터는 “실용적인 AI 애플리케이션 구현을 위해서는 AI 기술 자체의 발전뿐만 아니라 컴퓨팅 파워, 스토리지, 네트워크와 같은 기반 기술의 발전도 함께 이뤄져야 한다”고 짚으면서, AI 에이전트의 상용화 및 고객의 가치 실현을 위한 AWS의 서비스를 소개했다. 아마존 베드록 에이전트 코어(Amazon Bedrock Agent Core)는 엔터프라이즈급 AI 에이전트 플랫폼으로, 고객이 PoC(개념 증명) 단계를 넘어 실제 프로덕션 환경에서 AI 에이전트를 안정적으로 구축·배포·운영할 수 있도록 지원한다. 런타임(Runtime), 메모리(Memory), 아이덴티티(Identity), 게이트웨이(Gateway), 브라우저 툴(Browser Tool), 코드 인터프리터(Code Interpreter), 옵저버빌리티(Observability) 등 7가지 구성 요소로 이루어진 에이전트 코어는 서버리스 런타임, 메모리 시스템 관리, 보안 통제, 샌드박스 코드 작성, 웹 사이트 상호작용, 대규모 구축/배포/연결 지원 등 다양한 기능을 제공한다. 아마존 퀵 스위트(Amazon Quick Suite)는 연구·분석·워크로드 자동화를 통합한 AI 기반의 작업 공간 서비스이다. 자연어를 기반으로 데이터 분석, 문서 생성, 워크플로 자동화 등이 가능하며, 다양한 앱과 연결할 수 있도록 50개 이상의 커넥터를 내장하고 MCP(모델 컨텍스트 프로토콜) 통합도 제공한다. AWS는 AI 에이전트 생태계 확장을 위해 AWS 마켓플레이스(AWS Marketplace)에 ‘AI 에이전트 및 툴’ 카테고리를 신설했다. 이를 통해 앤트로픽, 딜로이트, 세일즈포스 등의 파트너가 제공하는 사전 구축된 에이전트와 도구를 중앙 집중식 카탈로그에서 안전하게 발견하고 배포할 수 있다는 것이 AWS의 설명이다. 이외에도 카바나스 디렉터는 ▲개발자들이 웹 브라우저 기반으로 AI 에이전트를 구축할 수 있도록 지원하는 ‘아마존 노바 액트 (Amazon Nova Act)’ ▲AI 기능을 핵심으로 소프트웨어 개발을 재구상하는 ‘AI 주도 개발 생애주기(AIDDLC)’ 방법론 ▲닷넷(.NET), VM웨어(VMware), 메인프레임 애플리케이션의  현대화를 자동화 및 간소화하는 에이전트 프레임워크 ‘AWS 트랜스폼(AWS Transform)’ ▲AI 모델의 추론 능력을 활용하여 에이전트를 빠르고 쉽게 구축할 수 있도록 지원하는 오픈소스 프레임워크 ‘스트랜드 에이전트 SDK (Strands agent SDK)’ 등을 소개했다.   ▲ 아마존 베드록 에이전트코어   모델 선택권·상호운영성 등 AI 전략과 국내 사례도 소개 카바나스 디렉터는 AWS AI 전략의 세 가지 핵심 원칙을 소개했다. “하나의 AI 모델이 모든 유스케이스를 충족할 수 없기 때문에, 고객에게 다양한 모델 선택권을 제공해야 한다. 모델 간의 호환성, 상호 운영성 및 개방형 표준이 중요하며, 확장성 있는 서비스를 빠르게 개발할 수 있도록 돕는 기반 기술을 제공해야 한다”는 것이 그의 설명이다. 또한, 에이전트 간 및 에이전트와 도구 간의 상호 운용성을 위한 산업 표준 프로토콜인 MCP(Model Context Protocol)와 A2A(Agent-2-Agent Protocol)의 중요성을 강조했다. 카바나스 디렉터는 AWS가 이들 표준 제정에 적극 참여하고 있다고 밝혔다. AWS의 핵심 전략은 많은 기업이 AI를 프로덕션 환경으로 전환하는 데 겪는 어려움을 해결할 수 있도록 돕는 것이다. 카바나스 디렉터는 한국 시장에서도 AI 관련 고객 사례를 꾸준히 만들어가고 있다고 소개했다. 일례로 현대인프라코어는 아마존 세이지메이커(SageMaker) 기반의 AI/MLOps 환경을 구축하고, 아마존 베드록과 에이전트 프레임워크를 활용하여 건설 장비 등의 비정상 탐지와 같은 지능형 건설 기계 서비스를 출시했다. 그리고 LG전자는 아마존 베드록 기반의 에이전틱 AI 시스템을 구축했는데, AI 에이전트들의 자율 협업으로 마케팅 데이터 분석 시간을 단축하는 효과를 얻었다. 그는 또한 한국 내 클라우드 인프라를 늘리기 위한 투자도 진행 중이라면서 “지난 2018년부터 2022년까지 한국에서 인프라 확장을 위해 2조 7300억 원을 투자했으며, 2023년 10월에는 2027년까지 클라우드 인프라 확충을 위해 추가로 7조 8500억 원을 투자할 계획을 발표했다”고 전했다. 2024년 6월에는 AWS와 SK 그룹이 파트너십을 통해 울산에 AWS AI 존을 조성한다는 계획을 발표하기도 했다.    ▲ HD현대인프라코어가 개발한 건설기계 통합 디지털 플랫폼     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-11-04