• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "베드록"에 대한 통합 검색 내용이 25개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, "AI와 디지털 트윈으로 물리적 프로토타입 없는 제조 혁신 이끈다"
엔비디아는 글로벌 컴퓨터 그래픽 콘퍼런스인 ‘시그라프(SIGGRAPH) 2025’에서, 아마존 디바이스 앤 서비스(Amazon Devices & Services)가 엔비디아 디지털 트윈 기술을 활용해 제조 분야의 혁신을 이끌고 있다고 밝혔다. 아마존 디바이스 생산 시설에 이달 도입된 이 설루션은 시뮬레이션 우선 접근 방식을 적용한 ‘제로 터치(zero-touch)’ 제조 방식을 구현했다. 제로 터치의 핵심은 로봇 팔이 다양한 장비의 제품 품질을 자율적으로 검사하고, 새로운 제품을 생산 라인에 통합하도록 훈련하는 과정 전체를 하드웨어 변경 없이 합성 데이터를 기반으로 수행하는 것이다. 이를 위해 아마존 디바이스가 자체 개발한 조립 라인 공정 시뮬레이션 소프트웨어와 엔비디아 기술 기반의 디지털 트윈을 결합했다. 모듈형 AI 기반 워크플로를 통해 기존보다 더 빠르고 효율적인 검사를 진행하며, 제조업체의 워크플로를 간소화해 신제품을 소비자에게 전달하는 시간을 줄일 수 있다는 것이 엔비디아의 설명이다.     또한, 이 설루션은 공장 작업대와 장비의 사실적인 물리 기반 표현에 기반한 합성 데이터를 생성해 로봇 운영을 위한 ‘제로샷(zero-shot)’ 제조를 가능하게 한다. 공장에 특화된 데이터는 시뮬레이션과 실제 작업 환경에서 AI 모델의 성능을 높이는 데에 쓰이며, 시뮬레이션과 실제 작업 환경에서의 AI 모델 성능 격차를 최소화할 수 있다. 엔비디아는 “제로샷 제조를 통해 물리적 프로토타입 없이도 다양한 제품과 생산 공정을 유연하게 처리할 수 있는 범용 제조 시대를 향한 중요한 도약을 이뤄냈다”고 평가했다. 아마존 디바이스 앤 서비스는 디지털 트윈 환경에서 로봇을 훈련시켜 새로운 장비를 인식하고 다루도록 한다. 이를 통해 소프트웨어 변경만으로 한 제품의 감사 작업에서 다른 제품으로 손쉽게 전환할 수 있으며, 더 빠르고 제어가 용이한 모듈화 제조 파이프라인을 구축했다. 이를 위해 엔비디아의 아이작(Isaac) 기술 제품군을 활용한다. 아마존은 신규 장치가 도입되면 CAD 모델을 엔비디아 옴니버스(Omniverse) 플랫폼 기반의 오픈소스 로보틱스 시뮬레이션 애플리케이션인 엔비디아 아이작 심(Sim)에 적용한다. 아이작 심은 각 장치의 CAD 모델을 통해 물체 및 결함 탐지 모델 훈련에 필수인 5만 개 이상의 합성 이미지를 생성한다. 이후 엔비디아 아이작 ROS를 활용해 제품 취급을 위한 로봇 팔 궤적을 생성하고 조립부터 테스트, 포장, 검사까지 모든 과정을 구성한다. 로봇이 작업 환경을 이해하고 충돌 없는 궤적을 생성하는 데에는 엔비디아 젯슨 AGX 오린(Jetson AGX Orin) 모듈에서 실행되는 쿠다(CUDA) 가속 동작 계획 라이브러리 엔비디아 cu모션(cuMotion)이 사용된다. 또한, 500만 개의 합성 이미지로 훈련된 엔비디아의 파운데이션 모델 파운데이션포즈(FoundationPose)는 로봇이 장비의 정확한 위치와 방향을 파악하도록 돕는다. 파운데이션포즈는 사전 노출 없이도 새로운 물체에 맞춰 일반화할 수 있어, 모델 재훈련 없이 다양한 제품 간의 원활한 전환을 가능하게 한다. 한편, 이 기술을 더욱 빠르게 개발하기 위해 아마존 디바이스 앤 서비스는 AWS 배치(Batch)와 아마존 EC2 G6 인스턴스를 통해 분산 AI 모델 훈련을 수행했으며, 생성형 AI 서비스인 아마존 베드록(Bedrock)으로 제품 사양 문서를 분석해 공장 내 고수준 작업과 특정 검사 테스트 사례를 계획했다. 아마존 베드록 에이전트코어(Bedrock AgentCore)는 생산 라인 내 다중 공장 작업대를 위한 자율 워크플로 계획에 사용되며, 3D 설계와 표면 특성 등 멀티모달 제품 사양 입력을 처리할 수 있다.
작성일 : 2025-08-18
[포커스] AWS, “다양한 기술로 국내 기업의 생성형 AI 활용 고도화 돕는다”
아마존웹서비스(AWS)는 최근 진행한 설문조사를 통해 국내 기업들의 AI 활용 현황과 과제를 짚었다. 또한, 신뢰할 수 있는 고성능의 인공지능 에이전트(AI agent)를 구축하고 배포할 수 있는 환경을 제공하면서 한국 시장에 지원을 강화하고 있다고 밝혔다. AWS는 AI의 도입과 활용 과정에서 기업이 겪는 기술적 어려움을 줄이고, 더 많은 기업이 쉽고 안전하게 생성형 AI를 도입하여 비즈니스 가치를 창출할 수 있도록 돕는 데 집중하고 있다. ■ 정수진 편집장    기업의 AI 도입률 높지만…고도화 위한 과제는?  AWS와 스트랜드 파트너스(Strand Partners)는 2025년 4월 한국 기업 1000곳과 일반인 1000명을 대상으로 AI에 대한 행동과 인식에 대한 설문조사를 진행하고, 그 결과를 바탕으로 한국 기업의 AI 활용 현황을 평가했다. 이 조사는 유럽에서는 3년째 진행되어 왔는데, 이번에 글로벌로 확장해 동일한 방법론을 적용했다. 스트랜드 파트너스의 닉 본스토우(Nick Bonstow) 디렉터는 설문조사 보고서의 내용을 소개하면서, 한국 기업의 AI 도입 현황과 주요 과제를 분석했다. 조사에서는 한국 기업의 48%가 AI를 도입 및 활용하고 있는 것으로 나타났는데, 이는 전년 대비 40% 성장한 수치이다. 유럽 기업의 평균 AI 도입률인 42%보다 높았는데, 특히 지난해에만 약 49만 9000 개의 한국 기업이 AI를 처음 도입한 것으로 추정된다. 본스토우 디렉터는 “AI를 도입한 기업들은 실질적인 이점을 경험하고 있다. 56%가 생산성 및 효율성 향상으로 매출 증가를 경험했고, 79%는 업무 생산성 향상 효과를 확인했다. 그리고 AI 도입에 따라 주당 평균 13시간의 업무 시간을 절감했다”고 소개했다. AI 도입률은 높지만, 국내 기업의 70%는 여전히 챗봇이나 간단한 반복 업무 자동화와 같은 기초적인 수준의 AI 활용에 머무르고 있는 상황이다. AI를 다양한 업무 영역에 통합하는 중간 단계는 7%, 여러 AI 도구나 모델을 결합하여 복잡한 업무를 수행하거나 비즈니스 모델을 혁신하는 변혁적 단계는 11%에 불과했다. 본스토우 디렉터는 “기업들이 AI의 잠재력을 완전히 활용하기 위해 더 높은 단계로 나아가야 할 필요가 있다”고 짚었다. 본스토우 디렉터는 국내 기업의 AI 도입이 양극화되고, AI 혁신의 편차를 키울 수 있다고 전했다. 한국 스타트업의 70%가 AI를 확대하고 있는데 이는 유럽의 58%보다 높은 수치로, 국내 스타트업 생태계는 AI 도입에서 뚜렷한 강점을 보였다. 스타트업의 33%는 AI를 비즈니스 전략 및 운영의 핵심 요소로 두고 있으며, 32%는 가장 고도화된 방식으로 AI를 활용하고 있다. 또한, 21%는 AI 기반의 새로운 제품 및 서비스를 개발 중이다. 반면, 국내 대기업의 69%는 여전히 AI를 효율 개선, 업무 간소화 등 기초적인 수준에서만 활용하고 있는 것으로 나타났다. 대기업의 10%만이 AI 기반 신제품 또는 서비스 개발 단계에 진입했는데, 이는 스타트업의 절반 수준이다. 이번 조사에서는 AI 도입의 주요 장애 요인으로 기술 및 디지털 인재의 부족, 자금 접근성, 규제 환경 등이 꼽혔다. 조사 응답 기업의 43%가 디지털 인재를 확보하지 못해 AI 도입 또는 확산에 어려움을 겪고 있다고 응답했고, 지난 1년간 디지털 역량 교육에 참여한 직원은 약 34%였다. 67%의 기업은 정부의 지원 정책이 AI 도입 결정에 중요하다고 응답했으며, 45%의 스타트업은 벤처 자본 56 · 접근성이 성장을 위한 핵심 요소라고 평가했다. 그리고 국내 기업들은 기술 예산 가운데 평균 23%를 규제 준수 비용에 투입하고 있으며, 34%는 AI 기본법 등 관련 입법으로 인해 이 비용이 증가할 것으로 예상했다. 본스토우 디렉터는 “한국이 AI 부문에서 세계를 선도할 수 있는 인프라와 스타트업 생태계 그리고 강한 열정을 가지고 있음을 확인했다. 하지만 AI 활용의 깊이를 더해주는 변혁적인 활용으로 나아가지 못하고 있는 점과 인재 부족, 규제 불확실성 등의 장애 요인을 해결해야 AI를 미래의 성장 동력과 경쟁력의 원천으로 삼을 수 있을 것”이라고 평가했다. 그리고, 이를 위해 한국 정부가 ▲기술 인재에 대한 투자 ▲혁신 친화적이고 명확한 규제 환경 조성 ▲공공 부문의 기술 현대화 및 디지털 전환 추진 등에 관심을 기울일 것을 제안했다.   ▲ AWS 김선수 AI/ML 사업 개발 수석 스페셜리스트   기업의 생성형 AI 활용 문턱 낮춘다 AWS의 김선수 AI/ML 사업 개발 수석 스페셜리스트는 국내 기업들이 AI를 잘 활용할 수 있도록 돕는 AWS의 생성형 AI 기술 스택과 주요 서비스를 소개했다. 그는 “2023년이 생성형 AI 개념 검증(PoC)의 해였다면 2024년은 생산 적용, 2025년은 비즈니스 가치 실현의 해가 될 것”이라고 짚었다. 또한 복잡한 작업을 자율적으로 수행하는 에이전트 AI에 대한 관심이 커지고 있다면서, 가트너(Gartner)의 전망을 인용해 “2026년까지 기업의 80% 이상이 생성형 AI API(애플리케이션 프로그래밍 인터페이스)를 사용하거나 관련 기능이 탑재된 애플리케이션을 배포할 것”이라고 전망했다. AWS는 생성형 AI를 위한 기술 스택을 세 가지 계층으로 제공한다. 가장 아래쪽에는 GPU, AI 프로세서 등을 포함해 모델 훈련과 추론에 필요한 인프라 레이어가 있고, 중간에는 AI 모델에 연결하여 각 기업에 최적화된 생성형 AI 애플리케이션을 구현하도록 돕는 모델/도구 레이어, 가장 위쪽에는 복잡한 개발 없이 쉽고 빠르게 활용할 수 있는 생성형 AI 애플리케이션 레이어가 있다. 이 기술 스택의 핵심으로 AWS가 내세운 것이 아마존 베드록(Amazon Bedrock)이다. 베드록은 생성형 AI 애플리케이션을 쉽게 구축하고 확장할 수 있도록 지원하는 완전 관리형 서비스이다. 앤트로픽, 메타, 미스트랄 AI 등 12개가 넘는 AI 기업의 파운데이션 모델(FM)을 선택해 활용할 수 있다는 점이 특징이다. 아마존 베드록은 비용, 지연 시간, 정확도를 최적화할 뿐만 아니라 기업의 필요에 맞게 모델을 맞춤 설정하거나 유해 콘텐츠/프롬프트 공격 등을 필터링해 안전한 AI 활용 환경을 갖출 수 있도록 돕는다. 김선수 수석 스페셜리스트는 “베드록은 프롬프트 엔지니어링, 검색 증강 생성(RAG), 미세조정(파인 튜닝) 등 다양한 방식으로 모델을 활용할 수 있도록 지원한다. 특히 RAG 구현을 위한 지식 베이스 및 벡터 검색 기능을 기본으로 제공해, 기업의 내부 데이터를 안전하게 연결하고 관련성 높은 답변을 생성할 수 있다”고 전했다. 최근 생성형 AI는 어시스턴트(assistant)를 넘어 워크플로를 자동화하는 에이전트(agent)로 진화하고 있으며, 궁극적으로는 사람의 개입 없이 AI끼리 자율적으로 협업하는 에이전틱 AI(agentic AI) 시스템으로 나아갈 것으로 보인다. AWS는 생성형 AI 에이전트 구축을 위해 ▲아마존 Q 디벨로퍼(Amazon Q Developer)와 같이 사전 구축된 에이전트 제품 ▲아마존 베드록 에이전트(Amazon Bedrock Agents)와 같이 내장된 오케스트레이션을 제공하는 완전 관리형 설루션 ▲스트랜드 에이전트(Strands Agents)와 같은 경량 오픈소스 SDK(소프트웨어 개발 키트)를 활용해 직접 에이전트를 구축할 수 있는 제품 등을 선보이고 있다.    ▲ AWS는 AI 에이전트의 구축과 배포를 위해 다양한 기술을 제공한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
AWS, 최신 연구 통해 국내 AI 도입 확산세 및 향후 과제 짚어
아마존웹서비스(AWS)는 한국에서 인공지능(AI) 도입이 계속해서 가속화되고 있는 가운데, 기술 인재 부족과 규제 비용 및 불확실성이 국내 기업의 AI 도입에 장애가 되고 있다는 새로운 연구 결과를 발표했다. 이번 조사는 다양한 규모의 기업이 AI를 어떻게 활용하고 있으며, 향후 어떤 방향으로 나아가고 있는지를 파악하기 위해 리서치 기관인 스트랜드 파트너스(Strand Partners)와 함께 진행됐다. ‘한국의 AI 잠재력 실현’이라는 제목의 이번 보고서는 국내 기업 리더 1000명과 일반인 1000명을 대상으로 진행됐다. 이번 조사 결과에 따르면, 지난 1년 동안 AI를 도입한 국내 기업은 약 49만 9000 곳으로, 이는 매 1분마다 1개 기업이 AI를 도입한 셈이다. 초기 도입 기업들은 주당 평균 13시간의 업무 시간 절감과 평균 21%의 매출 증가라는 실질적인 성과를 보고했다. 현재 국내 기업의 48%가 AI를 도입한 상태이며, 전년 대비 20%의 연간 증가율을 보였다. 이 같은 수치는 AI 도입의 생산성과 경제적 잠재력이 크다는 점을 보여준다.     스타트업부터 대기업에 이르기까지 다양한 형태의 기업이 AI를 도입하고 있지만, 대부분은 여전히 AI의 고도화된 활용까지는 나아가지 못하고 있다. 국내 기업의 70%는 일정 관리, 루틴 업무 자동화, 시판 설루션 도입 등 기본적인 효율화 중심의 사례에 집중하고 있었으며, 이는 주로 공개형 AI 어시스턴트 활용에 국한됐다. 전체의 7%만이 AI를 여러 기능에 걸쳐 통합적으로 활용하는 ‘중간 단계’에 진입했으며, 고객 경험 개선이나 운영 효율 향상 등을 위한 보다 진보된 사례를 실현하고 있었다. 또한 전체의 11%만이 제품 개발, 전략적 의사결정, 비즈니스 모델 수립 등 기업 운영의 핵심에 AI를 통합한 ‘변혁적 단계’에 도달한 것으로 나타났다. 이들은 다수의 AI 도구나 모델을 결합하거나 자체 모델을 구축해 복잡한 문제를 해결하며, 조직 전반의 운영 방식을 혁신하고 있다. 이러한 격차는 특히 ‘제품 혁신’ 분야에서 두드러진다. 스타트업의 21%가 AI를 활용해 새로운 제품이나 서비스를 개발 중인 반면, 대기업은 10%에 그쳤다. 이 같은 양상은 AI 혁신의 편차를 심화시켜, 한국이 ‘양극화된 AI 경제’ 구조에 빠질 수 있음을 시사한다. 이번 연구는 AI 공급자 선택에 대한 선호도 역시 보여준다. 전체 기업의 66%는 자사에 적합한 설루션을 선택할 수 있는 충분한 유연성을 보유하고 있다고 응답했으며, 90%는 공급자 선택권이 자사의 AI 전략에서 핵심 요소라고 강조했다. 국내 기업의 44%는 국산 및 해외 설루션을 병행 활용하고 있으며, 24%는 국산 설루션만, 29%는 글로벌 설루션만 사용하는 것으로 나타났다. AI가 한국 경제에 미치는 효과는 이미 가시화되고 있다. 2023년 한 해 동안 클라우드 및 클라우드 기반 AI는 한국 GDP에 약 80억 달러를 기여했다. 이번 연구는 아시아태평양 지역 전체를 기준으로 클라우드 및 AI가 2030년까지 최대 2조 9000억 달러의 경제 효과를 창출할 것으로 내다봤으며, 이 중 AI 단독으로는 2030억 달러에 이를 것으로 전망했다. 이번 연구 결과를 소개한 스트랜드 파트너스의 닉 본스토우(Nick Bonstow) 디렉터는 AI 도입의 확산을 가로막고 있는 인재 격차와 규제 불확실성을 해소하기 위해 기술, 자금, 규제 환경 등 세 가지의 우선 과제를 제시했다. 그는 “첫째, 예측 가능하고 혁신 친화적인 규제 환경 조성을 통해 모든 기업이 AI를 보다 적극적으로 도입할 수 있도록 해야 한다. 둘째, 업종별 수요에 맞춘 디지털 기술 인재 양성 프로그램에 대한 투자를 확대할 필요가 있다. 셋째, 국민적 관심이 높은 보건과 교육 분야를 중심으로 공공 서비스의 디지털 전환을 가속화해야 한다”고 전했다.     한편, AWS는 2018년부터 2022년까지 한국에 총 2조 7300억 원을 투자했으며, 2023년부터 2027년까지 추가로 7조 8500억 원을 클라우드 인프라에 투자할 계획이라고 소개했다. AWS는 이런 투자가 한국 GDP에 약 15조 600억 원의 경제 효과를 낳고, 연평균 약 1만 2300개의 정규직 일자리를 창출할 것으로 기대하고 있다. 또한, AWS는 최근 SK그룹과의 15년 전략적 파트너십을 통해 울산에 ‘AWS AI 존(AWS AI Zone)’을 구축할 계획을 밝혔다. 이 시설은 최첨단 반도체를 탑재한 전용 AI 서버, AI 훈련 및 추론 속도를 높이는 울트라클러스터 네트워크(UltraCluster network), 아마존 세이지메이커(Amazon SageMaker), 아마존 베드록(Amazon Bedrock), 아마존 Q(Amazon Q) 등의 AI 서비스를 갖추고, 국내 기업과 기관이 경쟁력 있는 AI 모델 및 서비스를 자체적으로 개발할 수 있도록 지원할 예정이다.  함기호 AWS 코리아 대표는 “한국은 이미 전체 기업 중 절반에 가까운 기업들이AI를 도입하고 생산성과 매출 등에서 실질적인 효과를 경험하고 있으며, AI 도입 여정에서 높은 잠재력을 보이고 있다”며, “글로벌 AI 경쟁에서 한국이 경쟁력을 유지하려면 각 기업이 비즈니스 요구에 맞는 최적의 AI 모델을 자유롭게 선택하고 활용할 수 있는 환경이 조성되어야 한다”고 강조했다. 이어 “AWS는 인프라 투자와 기술 교육 프로그램을 통해 한국이 세계적인 AI 선도국가로 도약하는 데 지속적으로 기여할 것”이라고 밝혔다.
작성일 : 2025-07-04
AWS-SK그룹, AI 혁신 지원 위한 클라우드 컴퓨팅 인프라 공동 구축
아마존웹서비스(AWS)는 SK그룹과 파트너십을 발표하고, 한국 내 클라우드 인프라를 확장한다고 밝혔다. AWS는 SK그룹과 협력해 울산에 새로운 AWS AI 존(AWS AI Zone) 구축을 위한 데이터센터를 설립할 예정이며, 이를 통해 국내 조직들이 AWS의 전반적인 기능을 활용하면서도 혁신적이고 새로운 AI 애플리케이션을 국내에서 직접 개발할 수 있도록 지원할 계획이다.  이 AI존은 다양한 첨단 기능을 통합해 제공할 예정이다. 여기에는 AWS 전용 AI 인프라와 고성능 반도체가 탑재된 서버, AI 학습 및 추론 속도를 높이기 위한 울트라클러스터(UltraCluster) 네트워크, 아마존 세이지메이커 AI(Amazon SageMaker AI) 및 아마존 베드록(Amazon Bedrock)과 같은 AWS 서비스, 그리고 아마존 Q(Amazon Q)와 같은 AI 애플리케이션 서비스가 포함된다. AWS는 이러한 역량을 통해 한국이 글로벌 AI 선도국가로 도약하는 데 기여할 것으로 기대하고 있다. 울산 데이터센터는 2027년부터 운영을 시작할 예정이며, 향후 데이터 센터 규모와 운영이 확장됨에 따라 최대 7만 8000 개의 직·간접 일자리를 창출할 것으로 기대된다. 울산에 들어설 AI 존은 AWS와 SK그룹이 15년간의 파트너십을 통해 결합한 업계 선두급의 역량을 기반으로, 최고 수준의 네트워크 운영, 반도체 공급망, 효율적인 전력 인프라를 제공할 예정이다. 이번 파트너십은 AWS가 2027년까지 한국에 약 58억 8000만 달러(한화 약 7조 8500억 원)를 투자하겠다고 발표한 장기 투자와는 별도로 추진되는 것이다. SK그룹은 데이터센터 건설을 주도하고, AWS는 울산에 AI 존을 구축해 한국 고객에게 AWS의 AI 및 클라우드 기능을 폭넓게 제공할 예정이다. 이번 프로젝트에는 SK텔레콤, SK브로드밴드, SK하이닉스, SK가스, SK케미칼, SK멀티유틸리티, SK AX 등 SK그룹 주요 계열사가 참여하며 ICT, 에너지, 반도체 분야에 걸친 그룹의 핵심 역량이 결집된다. 무엇보다 울산은 SK그룹이 안정적인 가스 공급망과 고도화된 에너지 설루션, 최적의 부지를 보유하고 있어 AI 존 구축에 적합한 지역으로 평가된다. 또한, 해저 케이블 구축에 유리한 입지 조건과 산업 활동에 우호적인 환경을 갖추고 있다. 울산에 조성될 AI 존은 글로벌 수준의 성능 및 보안 기준을 충족하도록 설계되었다. AI에 최적화된 컴퓨팅 시스템, 초고밀도 랙(rack) 구성, 공기 및 액체 냉각을 결합한 하이브리드 냉각 시스템, 안정적이고 견고한 네트워크 인프라 등을 갖추고 있다. AWS와 SK그룹의 파트너십은 AI 혁신을 지원하는 클라우드 컴퓨팅 인프라 분야에서 기술 진보를 주도하겠다는 공동의 의지를 보여준다. AWS와 SK그룹은 전략적 파트너십을 확대하면서, 고객에게 혜택을 제공하기 위한 광범위한 협력을 추진할 계획이라고 발표했다. 이 협력을 통해 고객은 급성장하는 생성형 AI 수요에 대응하기 위한 컴퓨팅, 스토리지, 데이터베이스 및 에지 컴퓨팅 역량을 활용할 수 있게 된다. 새로운 클라우드 인프라는 SK그룹의 AI 이니셔티브에 관여하고 있는 SK텔레콤이 지난 2024년 발표한 'AI 인프라 슈퍼 하이웨이(AI Infrastructure Superhighway)' 전략의 일환이다. SK그룹은 AI 인프라 슈퍼 하이웨이 프로젝트를 통해 하이퍼스케일 AI 인프라의 핵심 허브를 구축할 계획이다. SK그룹은 국내에서 발생하는 AI 워크로드를 국내에서 직접 처리함으로써 데이터 주권을 강화하고 글로벌 AI 경쟁력을 강화할 예정이다. AWS의 프라사드 칼야나라만(Prasad Kalyanaraman) 인프라 서비스 부사장은 “SK그룹의 우수한 기술 역량과 AWS의 포괄적인 AI 클라우드 서비스가 결합되면, 한국의 모든 규모 및 산업 분야의 고객이 안전하고 보안이 강화된 AI 기술을 구축하고 이를 활용해 혁신할 수 있도록 지원하게 될 것”이라면서, “이번 파트너십은 한국의 AI 미래를 위한 AWS의 공헌을 상징하며, 함께 달성할 성과에 대해 매우 기대하고 있다”고 말했다. SK그룹 최태원 회장은 “SK그룹의 기술 역량을 세계 최고의 클라우드 기업인 AWS와 결합해 한국형 AI 생태계를 위한 핵심 인프라를 구축하고, ‘AI 하이웨이’를 위한 강력한 새로운 동력을 만들어내게 되어 기쁘게 생각한다”며, “앞으로도 SK는 각 계열사의 고유한 강점과 글로벌 파트너십을 활용해 아시아태평양 지역의 AI 데이터센터 허브를 지속적으로 구축해 나갈 것”이라고 밝혔다.
작성일 : 2025-06-23
AWS-SAP, 생성형 AI 설루션 개발 위한 ‘공동 AI 혁신 프로그램’ 발표
아마존웹서비스(AWS)가 SAP의 연례 기술 행사인 SAP 사파이어 2025에서 SAP와 ‘공동 AI 혁신 프로그램(AI Co-Innovation Program)’을 발표했다. 이 프로그램은 파트너들이 고객의 실시간 비즈니스 과제를 신속하게 해결하는 데 도움을 주는 생성형 AI 애플리케이션 및 에이전트를 구축할 수 있도록 지원한다. 많은 조직에서 비즈니스 혁신을 위한 생성형 AI의 잠재력을 인식하고 있지만, 이를 어떻게 시작해야 할지 모르는 경우가 많다. 기업은 첨단 생성형 AI 기술과 주요 시스템의 ERP(전사적 자원 관리) 데이터를 결합함으로써 상당한 기업 가치를 창출할 수 있다. 예를 들어, 배송 경로 최적화와 공급망 운영에 대한 잠재적 영향을 예측하거나 정확한 재무 전망을 개발할 수 있다. 공동 AI 혁신 프로그램은 파트너가 ERP 워크로드에 특화된 생성형 AI 애플리케이션을 정의, 구축 및 배포할 수 있도록 지원하는 양사의 공통된 비전이 반영됐다. 이 프로그램은 SAP의 엔터프라이즈 기술과 AWS의 생성형 AI 서비스를 AI 전문가, 전문 서비스 컨설턴트, 설루션 아키텍트를 포함한 팀 등 양사의 전문가에 제공하여 고객의 구현 여정을 지원한다. 또한 산업별로 특화된 애플리케이션의 개발과 테스트, 배포를 지원하기 위한 전담 기술 리소스, 클라우드 크레딧 등이 포함될 예정이다. 또한 이 프로그램을 통해 파트너는 SAP BTP(SAP Business Technology Platform) 상의 SAP AI 파운데이션(SAP AI Foundation)에서 아마존 노바(Amazon Nova), 앤트로픽 클로드(Anthropic Claude)와 같은 대규모 언어 모델을 포함한 아마존 베드록의 최신 생성형 AI 도구 및 서비스를 사용하여 생성형 AI 애플리케이션을 신속하게 구축·확장할 수 있다. 이번 발표는 AWS와 SAP가 현대자동차그룹, 모더나, 취리히보험과 같은 고객이 SAP 워크로드를 현대화하고 AWS로 이전하여 클라우드의 가용성, 유연성 및 확장성을 실현할 수 있도록 지원해 온 작업을 확장한 것이다. AWS에서 SAP 워크로드를 실행하면 고객은 데이터를 생성형 AI 설루션과 결합할 수 있다. 액센츄어(Accenture)와 딜로이트(Deloitte)는 이 프로그램을 통해 AWS 및 SAP와 협력하는 첫 파트너로, 복잡한 과제를 해결하기 위한 생성형 AI 설루션의 개발 및 배포를 가속화하고 있다. AWS의 루바 보르노(Ruba Borno) 글로벌 스페셜리스트·파트너 부사장은 “AWS와 SAP의 오랜 파트너십은 고객이 클라우드 여정을 가속화하고 비즈니스 데이터에서 더 많은 가치를 창출하는 데 도움을 주었다. AWS와 SAP의 공동 AI 혁신 프로그램은 조직이 아마존 베드록(Amazon Bedrock)을 통해 주요 SAP 데이터를 분석 및 활용함으로써 생성형 AI 애플리케이션을 구축할 수 있는 보안과 유연성을 제공하는 중요한 진전”이라며, “이를 통해 고객은 수십 년간의 비즈니스 정보를 실행 가능한 인사이트로 전환하는 동시에 더욱 민첩하고 데이터에 기반한 조직으로의 전환을 가속화할 수 있다”고 말했다. SAP의 필립 헤르치히(Philipp Herzig) 최고 기술 책임자 겸 최고 AI 책임자는 “SAP는 AWS와의 공동 AI 혁신 프로그램을 통해 기업의 복잡한 운영 과제를 정확하고 신속하게 해결할 수 있도록 지원한다”며, “SAP BTP와 완전히 통합된 플랫폼과 SAP의 비즈니스 프로세스 전문성을 AWS의 종합적인 생성형 AI 기능과 결합함으로써, 파트너는 재무 이상 현상을 실시간으로 탐지하거나 공급망 장애 시 자동으로 최적화를 시행하는 등 주요 문제 해결에 특화된 AI 에이전트를 개발할 수 있다”고 말했다.
작성일 : 2025-05-22
PTC, 생성형 AI 및 공공부문 제품 출시로 온쉐이프의 모멘텀 지속
PTC는 클라우드 네이티브 CAD 및 제품 데이터 관리(PDM) 플랫폼인 온쉐이프(Onshape)의 모멘텀을 이어가기 위해 두 가지 신규 제품을 발표했다. PTC가 선보인 신제품은 설계 생산성과 전문성을 향상시키는 지능형 생성형 AI 기반 도우미인 ‘온쉐이프 AI 어드바이저(Onshape AI Advisor)’와 미국 정부 기관 및 방위 산업체의 ITAR(국제무기거래규정) 및 EAR(수출관리규정) 준수 요구를 충족하도록 설계된 ‘온쉐이프 거버먼트(Onshape Government)’이다. 두 제품은 설계자와 엔지니어가 보다 효율적으로 작업하고, 실시간으로 협업하며, 고품질의 제품을 더 빠르게 시장에 출시할 수 있도록 지원한다. 온쉐이프 AI 어드바이저는 CAD 워크플로, PDM 모범 사례, 플랫폼 기능에 대한 AI 기반의 전문 가이드를 제공하여 사용자가 설계 프로세스를 가속화할 수 있도록 돕는다. 아마존 베드록(Amazon Bedrock) 기반으로 개발된 이 제품은 기존 CAD 시스템에서의 전환, 설계 최적화, 작업 효율 향상에 기여한다.     온쉐이프 거버먼트는 미국 연방 및 주 정부 기관, 방산 계약업체, 규제 대상 프로젝트를 수행하는 조직의 규정 준수 요구를 지원하기 위해 설계된 온쉐이프의 맞춤형 버전이다. 미국 내 AWS GovCloud로 호스팅되며, ITAR 및 EAR 같은 규제를 준수하는 동시에 온쉐이프의 강점인 실시간 협업, 버전 관리, 접근성 등을 그대로 제공한다. PTC의 데이비드 카츠먼(David Katzman) 온쉐이프 및 아레나 총괄 매니저는 “온쉐이프 거버먼트와 온쉐이프 AI 어드바이저는 모든 산업군의 다양한 고객이 제품 개발 프로세스를 혁신하도록 돕는 우리의 미션을 실현하는 최신 사례다. 우리는 규제가 엄격한 항공우주 및 방위 시장에서도 클라우드 네이티브 CAD 및 PDM의 이점을 확장하고 있으며, 설계 전반에 걸쳐 AI의 지원을 제공함으로써 온쉐이프를 더욱 접근성 높고 사용자 친화적인 플랫폼으로 발전시키고 있다”고 전했다.
작성일 : 2025-04-24
지멘스, “AI 기반 산업으로 전환 가속화”…하노버 메세 2025서 혁신 기술 및 파트너십 발표
한국지멘스는 지멘스그룹이 3월 31일부터 4월 4일 독일에서 열린 ‘2025 하노버 산업 박람회(하노버 메세)’에 참가해 산업 전반의 디지털 전환과 지속 가능한 미래를 가속화하는 혁신 기술을 선보이고, 강력한 에코시스템 파트너들과의 성공적인 협업 현황을 공유했다고 밝혔다. 지멘스는 이번 하노버 메세를 통해 공장의 두뇌 역할을 하는 가상 프로그램 로직 제어기(vPLC)를 아우디의 뵐링거 회페 공장에 도입한 사례를 소개했다. 이 공장에서는 기존처럼 기계나 로봇 근처에 하드웨어 기반 컨트롤러를 설치하는 대신 수 킬로미터 떨어진 데이터 센터에서 작동하는 가상 컨트롤러가 공장 전체의 생산을 제어함으로써 현장의 안전성을 강화하고, 생산 프로세스를 간소화하며, 제조 공정의 효율화를 이끌고 있다. 이와 관련해 지멘스는 독일기술검사협회(TÜV)로부터 vPLC에 대한 안전 인증을 획득했다. 지멘스는 개방형 디지털 비즈니스 플랫폼을 지향하는 ‘지멘스 엑셀러레이터(Siemens Xcelerator)’를 통해 파트너가 보유한 최첨단 기술을 산업 생태계에 원활하게 통합시킨다는 전략을 추진하고 있다. 지멘스의 핵심 역량과 글로벌 파트너 에코시스템이 결합된 지멘스 엑셀러레이터로 첨단 기술의 확장과 차세대 산업 혁신을 주도하는 핵심 동력을 만들겠다는 것이다.     이번 하노버 메세에서 지멘스와 액센츄어는 전 세계 7000여명의 전문가로 구성된 ‘액센츄어 지멘스 비즈니스 그룹’을 출범한다고 발표했다. 이 조직은 지멘스 엑셀러레이터 포트폴리오의 산업용 AI 및 소프트웨어, 자동화 기술과 액센츄어의 데이터 및 AI 역량을 결합한 설루션을 공동 개발하고 판매할 예정이다. 또한, 지멘스는 하노버 메세에서 엔비디아와의 파트너십을 통한 산업용 메타버스 기술을 시연하면서, 지멘스 엑셀러레이터와 엔비디아 옴니버스(Omniverse)를 통합한 ‘팀센터 디지털 리얼리티 뷰어(Teamcenter Digital Reality Viewer)’를 처음 공개했다. 시각화 및 시뮬레이션 기능이 향상된 팀센터 디지털 리얼리티 뷰어는 극사실적인 몰입형 디지털 트윈을 구현하여 사용자에게 설계 및 운영 워크플로에 대한 중요한 인사이트를 제공한다. 이 밖에도 양사는 지멘스의 산업용 소프트웨어 및 자동화 포트폴리오와 엔비디아의 AI 및 가속 컴퓨팅 기술을 결합해 산업 전반의 효율 및 생산성을 높이고자 한다.  지멘스는 마이크로소프트와 함께 '산업용 파운데이션 모델(IFM)'을 개발했다. 마이크로소프트 애저(Azure) 플랫폼을 기반으로 산업 특화 데이터를 활용하는 이 모델은 AI에게 엔지니어링 언어를 학습시킴으로써, 3D 모델과 2D 도면은 물론 산업에 특화된 복잡한 데이터와 기술 사양을 처리하고 맥락화할 수 있다. 지멘스는 IFM이 인간과 기계의 협업을 한 단계 끌어올려 산업 현장의 AI 설루션 도입을 앞당기고, 숙련 인력 부족 문제를 해소하며, 가치 사슬 전반에 걸쳐 생산성과 효율성, 품질을 향상시킬 것으로 기대하고 있다. 또한, 지멘스와 마이크로소프트는 지멘스의 실시간 데이터 수집 툴인 인더스트리얼 엣지(Industrial Edge)와 마이크로소프트 애저의 클라우드 플랫폼을 통합하는 산업 운영 효율화를 위한 파트너십을 강화하고 있다. 지멘스와 아마존웹서비스(AWS)는 지속 가능한 스마트 인프라를 발전시키기 위한 전략적 파트너십을 발표했다. 양사는 하노버 메세에서 지멘스의 디지털 빌딩 플랫폼 ‘빌딩 X(Building X)’와 아마존 노바(Amazon Nova), 아마존 베드록(Amazon Bedrock) 등 AWS의 클라우드 서비스 및 AI 역량을 결합한 성과를 선보였다. 이를 통해 효율성 증대, 비용 절감, 프로세스 자동화와 함께 에너지 소비 및 탄소 배출 데이터에 대한 실시간 인사이트를 기반으로 에너지 절감 효과까지 거둘 수 있음을 보여줬다. 지멘스그룹의 롤랜드 부시(Dr. Roland Busch) 회장 및 최고경영자는 하노버 메세의 개막 연설에서 전 세계의 중대한 산업 변화를 이끌 핵심 기술로 ‘산업용 AI’를 꼽았다. 롤랜드 부시 회장은 “올해 하노버 메세는 산업계가 역동적인 기술 및 시장 환경 변화에 직면해 있는 대변혁의 시기임을 보여준다. 지멘스는 산업용 AI, 포괄적인 디지털 트윈, 소프트웨어 정의 자동화(SDA) 분야를 선도하는 기업으로서 고객이 경쟁력과 회복 탄력성, 지속 가능성을 높이고 변화를 이끌어 나갈 수 있도록 지원한다”고 전했다. 이어 롤랜드 부시 회장은 “지멘스는 산업 현장에 대한 전문성과 깊은 이해, 충분한 데이터를 보유하고 있으며, 이러한 지멘스의 역량과 AI를 결합함으로써 엄청난 시너지 효과를 낼 것”이라고 전망했다.
작성일 : 2025-04-07
AWS, 아시아·태평양 및 EU 지역에 차세대 파운데이션 모델 출시
아마존웹서비스(AWS)는 광범위한 작업에서 최첨단 인텔리전스와 가격 대비 성능을 제공하는 차세대 파운데이션 모델(FM)인 아마존 노바(Amazon Nova)를 아시아·태평양 및 유럽연합(EU) 지역에 출시했다고 밝혔다. AWS 고객들은 서울, 도쿄, 뭄바이, 싱가포르, 시드니, 스톡홀름, 프랑크푸르트, 아일랜드, 파리 리전을 통해 교차 리전 추론(Cross-Region Inference)을 이용하여 이러한 모델을 사용할 수 있다. 교차 리전 추론은 고객이 요청을 보낸 소스 리전을 우선적으로 활용하면서 여러 리전에 걸쳐 아마존 노바에 대한 요청을 자동으로 라우팅할 수 있도록 지원한다. AWS는 이를 통해 지연 시간을 최소화하고, 추가 라우팅 비용 없이 소스 리전 기준으로만 요금이 부과되어 비용 효율을 높일 수 있다고 설명했다. 아마존 노바 마이크로(Amazon Nova Micro)는 텍스트 전용 모델로, 낮은 지연 시간의 응답을 저렴한 비용으로 제공한다. 아마존 노바 라이트(Amazon Nova Lite)는 이미지, 비디오, 텍스트 입력을 처리하여 텍스트 출력을 생성하는 저렴한 멀티모달 모델이다. 아마존 노바 프로(Amazon Nova Pro)는 광범위한 작업에 대해 정확성, 속도, 비용의 최적의 조합을 제공하는 고성능 멀티모달 모델이다. 이들 모델은 200개 이상의 언어를 지원하며, 텍스트 및 영상 미세 조정을 지원한다. 또한, 아마존 베드록(Amazon Bedrock)의 다양한 기능, 예를 들어 아마존 베드록 날리지 베이스(Amazon Bedrock Knowledge Bases)를 활용하여 조직의 자체 데이터 및 애플리케이션과 쉽게 통합할 수 있도록 지원한다. 모든 아마존 노바 모델은 빠르고 비용 효율적이며 고객의 시스템 및 데이터와 쉽게 사용할 수 있도록 설계됐다. 아마존 노바 마이크로, 아마존 노바 라이트, 아마존 노바 프로는 아마존 베드록의 각 인텔리전스 등급의 최고 성능을 보이는 모델과 비교해 최소 75% 더 저렴하다. 또한 아마존 베드록의 각 인텔리전스 등급에서 가장 빠른 모델이다. 모든 아마존 노바 모델은 주요 AI 기업과 아마존의 고성능 FM을 단일 API를 통해 사용할 수 있게 해주는 완전 관리형 서비스인 아마존 베드록과 통합돼 있다. 고객들은 아마존 베드록을 사용하여 아마존 노바 모델과 다른 FM들을 쉽게 실험하고 평가하여 애플리케이션에 가장 적합한 모델을 결정할 수 있다. 또한 이들 모델은 맞춤형 파인튜닝을 지원하여, 고객들이 정확도를 높이기 위해 레이블이 지정된 자체 데이터의 예시들을 모델에 지정할 수 있다. 아마존 노바 모델은 고객의 자체 데이터(텍스트, 이미지, 비디오 포함)에서 핵심 요소를 학습하고, 그 후 아마존 베드록이 맞춤형 응답을 제공할 수 있는 개인 파인튜닝 모델을 훈련시킨다. 파인튜닝뿐만 아니라, 더 큰 고성능 '교사 모델(teacher model)'에서 더 작고 효율적인 모델로 특정 지식을 전달할 수 있는 증류(distillation)도 지원한다. 이를 통해 모델의 정확도를 유지하면서도 실행 속도를 높이고 비용을 절감할 수 있다. AWS는 “아마존 노바 모델이 아마존 베드록 날리지 베이스와 통합돼 있으며, 조직의 자체 데이터에 기반하여 응답의 정확도를 보장할 수 있는 RAG에서 높은 성능을 보인다”고 설명했다. 또한, 아마존 노바 모델은 다단계 작업을 실행하기 위해 여러 API를 통해 조직의 자체 시스템 및 데이터와 상호 작용해야 하는 에이전트 애플리케이션에서 쉽고 효과적으로 사용할 수 있도록 최적화됐다. 한편, AWS는 아마존 노바 모델이 통합된 안전 조치와 보호 장치로 구축됐다고 소개했다. AWS는 아마존 노바를 위한 AWS AI 서비스 카드(AWS AI Service Card)를 출시해 사용 사례, 제한 사항, 책임 있는 AI 사례에 대한 투명한 정보를 제공한다. 아마존의 로힛 프라사드(Rohit Prasad) 인공 일반 지능(AGI) 수석부사장은 “아마존 내부적으로 약 1000개의 생성형 AI 애플리케이션이 개발 진행 중이며, 애플리케이션 개발자가 여전히 고민하고 있는 문제들을 전반적으로 파악하고 있다”면서, “새로운 아마존 노바 모델은 내부 및 외부 개발자들의 이러한 과제 해결을 돕고, 지연 시간, 비용 효율성, 맞춤화, 검색 증강 생성(RAG), 에이전트 기능에서 의미 있는 진전을 이루면서 강력한 인텔리전스와 콘텐츠 생성을 제공하고자 한다”고 말했다.
작성일 : 2025-03-07
AWS, 딥시크-R1 모델 제공 시작… “생성형 AI 활용 확장 지원”
아마존웹서비스(AWS)는 딥시크-R1(DeepSeek-R1) 모델을 아마존 베드록(Amazon Bedrock)과 아마존 세이지메이커 AI(Amazon SageMaker AI)에서 제공한다고 발표했다. AWS는 이를 통해 기업이 최신 생성형 AI 모델을 보다 효과적으로 활용할 수 있으며, 비용 절감과 성능 향상을 동시에 누릴 수 있다고 밝혔다. 딥시크(DeepSeek)는 2023년에 중국 항저우에서 설립된 인공지능(AI) 스타트업으로, AI 모델 개발 비용을 기존보다 크게 낮춘 것으로 평가되면서 최근 주목을 받고 있다. 이 회사는 2024년 12월 6710억 개의 파라미터를 가진 딥시크-V3를 출시한 이후, 2025년 1월 20일 딥시크-R1, 딥시크-R1-제로, 딥시크-R1-디스틸 모델을 공개했다. 또한, 1월 27일에는 비전 기반 야누스-프로 7B(Janus-Pro 7B) 모델을 추가했다. 딥시크에 따르면, 메모리 사용량을 줄이고 속도를 높인 이들 모델은 기존 AI 모델 대비 90~95%의 비용을 절감해 비용 효율을 제공하며, 강화 학습 기법을 적용해 높은 추론 능력을 갖췄다. AWS는 고객들이 딥시크-R1 모델을 다양한 방식으로 활용할 수 있도록 지원한다는 계획이다. 아마존 베드록에서는 API를 통해 사전 학습된 모델을 쉽게 통합할 수 있으며, 아마존 세이지메이커 AI를 통해 맞춤형 학습과 배포가 가능하다. 또한, AWS 트레이니움(AWS Trainium)과 AWS 인퍼런시아(AWS Inferentia)를 활용하면 딥시크-R1-디스틸 모델을 더욱 경제적으로 운영할 수 있다. AWS는 보안성과 확장성을 강화하기 위해 아마존 베드록 가드레일(Amazon Bedrock Guardrails)을 활용할 것을 권장하며, 이를 통해 생성형 AI 애플리케이션의 입력 및 출력 데이터를 모니터링하고 유해 콘텐츠를 필터링할 수 있다. 딥시크-R1 모델은 현재 AWS에서 네 가지 방식으로 배포할 수 있다. 아마존 베드록 마켓플레이스(Amazon Bedrock Marketplace)에서는 모델 카탈로그에서 딥시크-R1을 검색하여 손쉽게 배포할 수 있으며, 아마존 세이지메이커 점프스타트(Amazon SageMaker JumpStart)를 통해 머신러닝 허브에서 클릭 한 번으로 배포 및 활용이 가능하다. 또한, 아마존 베드록 커스텀 모델 임포트를 활용하면 딥시크-R1-디스틸 모델을 맞춤형 모델로 가져와 활용할 수 있으며, AWS EC2 Trn1 인스턴스(AWS EC2 Trn1 Instance)를 사용하면 딥시크-R1-디스틸 모델을 AWS 트레이니움 및 AWS 인퍼런시아 기반 인프라에서 최적의 성능과 비용 효율성을 제공하며 실행할 수 있다. AWS는 “딥시크-R1 모델을 통해 고객들이 AI 기술을 더욱 효과적으로 활용하고, 안전하고 책임감 있는 AI 환경을 조성할 수 있도록 적극 지원할 예정”이라고 전했다.
작성일 : 2025-02-03
엔비디아, AWS에 엔비디아 NIM 제공 확대해 AI 추론 향상 지원
엔비디아가 아마존웹서비스(AWS)의 AI 서비스 전반에 자사의 NIM 마이크로서비스를 확장한다고 발표하면서, 이를 통해 생성형 AI 애플리케이션을 위한 더 빠른 AI 추론과 짧은 지연 시간을 지원한다고 전했다. 12월 4일 열린 ‘리인벤트(re:Invent)’ 연례 콘퍼런스에서 AWS는 엔비디아와의 협업을 확대해 주요 AWS AI 서비스 전반에 걸쳐 엔비디아 NIM 마이크로서비스를 확장한다고 발표했다.  엔비디아 NIM 마이크로서비스는 이제 AWS 마켓플레이스(Marketplace), 아마존 베드록 마켓플레이스(Bedrock Marketplace), 아마존 세이지메이커 점프스타트(SageMaker JumpStart)에서 직접 제공된다. 이로 인해 개발자가 일반적으로 사용되는 모델에 대해 엔비디아 최적화 추론을 대규모로 배포하는 것이 더욱 쉬워졌다.     엔비디아 NIM은 AWS 마켓플레이스에서 제공되는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼의 일부이다. 이는 개발자에게 클라우드, 데이터센터, 워크스테이션 전반에서 고성능 엔터프라이즈급 AI 모델 추론을 안전하고 안정적으로 배포하도록 설계된 사용하기 쉬운 마이크로서비스 세트를 제공한다. 사전 구축된 컨테이너는 엔비디아 트리톤 추론 서버(Triton Inference Server), 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 파이토치(PyTorch)와 같은 추론 엔진을 기반으로 구축됐다. 아울러 오픈 소스 커뮤니티 모델부터 엔비디아 AI 파운데이션(AI Foundation) 모델, 맞춤형 모델에 이르기까지 광범위한 범위의 AI 모델을 지원한다. NIM 마이크로서비스는 아마존 엘라스틱 컴퓨트 클라우드(Elastic Compute Cloud : EC2), 아마존 엘라스틱 쿠버네티스 서비스(Elastic Kubernetes Service : EKS), 아마존 세이지메이커를 비롯한 다양한 AWS 서비스에 배포할 수 있다. 개발자는 일반적으로 사용되는 모델과 모델 제품군으로 구축된 100개 이상의 NIM 마이크로서비스를 엔비디아 API 카탈로그에서 미리 볼 수 있다. 여기에는 메타의 라마 3(Llama 3), 미스트랄 AI의 미스트랄과 믹스트랄(Mixtral), 엔비디아의 네모트론(Nemotron), 스태빌리티 AI의 SDXL 등이 있다. 가장 일반적으로 사용되는 모델은 AWS 서비스에 배포하기 위한 자체 호스팅에 사용할 수 있으며, AWS의 엔비디아 가속 컴퓨팅 인스턴스에서 실행되도록 최적화돼 있다. 엔비디아는 다양한 산업 분야의 고객과 파트너가 AWS에서 NIM을 활용하며 시장에 더 빨리 진입하고, 생성형 AI 애플리케이션과 데이터의 보안과 제어를 유지하며, 비용을 절감하고 있다고 소개했다. 개발자는 고유한 필요와 요구사항에 따라 AWS에 엔비디아 NIM 마이크로서비스를 배포할 수 있다. 이를 통해 개발자와 기업은 다양한 AWS 서비스 전반에서 엔비디아에 최적화된 추론 컨테이너로 고성능 AI를 구현할 수 있다.
작성일 : 2024-12-06