• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "트레이니움"에 대한 통합 검색 내용이 7개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AWS, 딥시크-R1 모델 제공 시작… “생성형 AI 활용 확장 지원”
아마존웹서비스(AWS)는 딥시크-R1(DeepSeek-R1) 모델을 아마존 베드록(Amazon Bedrock)과 아마존 세이지메이커 AI(Amazon SageMaker AI)에서 제공한다고 발표했다. AWS는 이를 통해 기업이 최신 생성형 AI 모델을 보다 효과적으로 활용할 수 있으며, 비용 절감과 성능 향상을 동시에 누릴 수 있다고 밝혔다. 딥시크(DeepSeek)는 2023년에 중국 항저우에서 설립된 인공지능(AI) 스타트업으로, AI 모델 개발 비용을 기존보다 크게 낮춘 것으로 평가되면서 최근 주목을 받고 있다. 이 회사는 2024년 12월 6710억 개의 파라미터를 가진 딥시크-V3를 출시한 이후, 2025년 1월 20일 딥시크-R1, 딥시크-R1-제로, 딥시크-R1-디스틸 모델을 공개했다. 또한, 1월 27일에는 비전 기반 야누스-프로 7B(Janus-Pro 7B) 모델을 추가했다. 딥시크에 따르면, 메모리 사용량을 줄이고 속도를 높인 이들 모델은 기존 AI 모델 대비 90~95%의 비용을 절감해 비용 효율을 제공하며, 강화 학습 기법을 적용해 높은 추론 능력을 갖췄다. AWS는 고객들이 딥시크-R1 모델을 다양한 방식으로 활용할 수 있도록 지원한다는 계획이다. 아마존 베드록에서는 API를 통해 사전 학습된 모델을 쉽게 통합할 수 있으며, 아마존 세이지메이커 AI를 통해 맞춤형 학습과 배포가 가능하다. 또한, AWS 트레이니움(AWS Trainium)과 AWS 인퍼런시아(AWS Inferentia)를 활용하면 딥시크-R1-디스틸 모델을 더욱 경제적으로 운영할 수 있다. AWS는 보안성과 확장성을 강화하기 위해 아마존 베드록 가드레일(Amazon Bedrock Guardrails)을 활용할 것을 권장하며, 이를 통해 생성형 AI 애플리케이션의 입력 및 출력 데이터를 모니터링하고 유해 콘텐츠를 필터링할 수 있다. 딥시크-R1 모델은 현재 AWS에서 네 가지 방식으로 배포할 수 있다. 아마존 베드록 마켓플레이스(Amazon Bedrock Marketplace)에서는 모델 카탈로그에서 딥시크-R1을 검색하여 손쉽게 배포할 수 있으며, 아마존 세이지메이커 점프스타트(Amazon SageMaker JumpStart)를 통해 머신러닝 허브에서 클릭 한 번으로 배포 및 활용이 가능하다. 또한, 아마존 베드록 커스텀 모델 임포트를 활용하면 딥시크-R1-디스틸 모델을 맞춤형 모델로 가져와 활용할 수 있으며, AWS EC2 Trn1 인스턴스(AWS EC2 Trn1 Instance)를 사용하면 딥시크-R1-디스틸 모델을 AWS 트레이니움 및 AWS 인퍼런시아 기반 인프라에서 최적의 성능과 비용 효율성을 제공하며 실행할 수 있다. AWS는 “딥시크-R1 모델을 통해 고객들이 AI 기술을 더욱 효과적으로 활용하고, 안전하고 책임감 있는 AI 환경을 조성할 수 있도록 적극 지원할 예정”이라고 전했다.
작성일 : 2025-02-03
AWS, “AI 워크로드를 클라우드로 전환해 탄소 배출량 절감 가능”
아마존웹서비스(AWS)가 IT 워크로드를 온프레미스 인프라에서 AWS 클라우드 데이터센터로 이전하면 인공지능(AI) 활용에 따른 환경적 영향을 효과적으로 최소화할 수 있다는 새로운 연구 결과를 발표했다. AWS의 의뢰로 글로벌 IT 컨설팅 기업 엑센츄어(Accenture)에서 진행한 연구에 따르면, AWS의 글로벌 인프라에서 워크로드를 실행했을 때 온프레미스 대비 에너지 효율이 최대 4.1배 더 높은 것으로 나타났다. 특히 한국 기업들이 AWS상에서 AI 워크로드를 최적화할 경우 온프레미스 대비 탄소 배출을 최대 95%까지 줄일 수 있는 것으로 나타났다. 연구에 따르면 국내에서 컴퓨팅 부하가 높은 AI 워크로드를 AWS 데이터센터에서 실행할 경우, 에너지 효율이 더 높은 하드웨어 사용(22%)과 향상된 전력 및 냉각 시스템(50%)을 통해 온프레미스 대비 탄소 배출량을 72%까지 줄일 수 있다. 추가로 AWS에서 최적화하고 AI 전용 실리콘을 사용할 경우 AWS로 이전하고 최적화한 국내 기업은 AI 워크로드의 총 탄소 배출량을 최대 95%까지 감축할 수 있다. AWS가 에너지 효율을 혁신하는 대표적인 방법 중 하나는 자체 칩에 대한 투자다. AWS는 지난 2018년 자체 개발 맞춤형 범용 프로세서인 그래비톤(Graviton)을 첫 출시했다. 최신 프로세서인 그래비톤4의 성능은 기존 그래비톤보다 4배 향상되었으며, 동급의 아마존 EC2 인스턴스 대비 동일한 성능을 구현하는 데에 60% 더 적은 에너지를 사용하는 그래비톤3보다도 더 에너지 효율적이다. AWS는 생성형 AI 애플리케이션의 성능과 에너지 소비를 최적화하기 위해 AWS 트레이니움(AWS Trainium), AWS 인퍼런시아(AWS Inferentia)와 같은 AI 전용 실리콘을 개발하여 동급의 가속 컴퓨팅 인스턴스보다 높은 처리량을 달성했다. AWS 트레이니움은 생성형 AI 모델의 학습 시간을 몇 달에서 몇 시간으로 단축한다. 트레이니움2는 1세대 트레이니움에 비해 최대 4배 빠른 훈련 성능과 3배 더 많은 메모리 용량을 제공하는 동시에 에너지 효율(와트당 성능)을 최대 2배까지 개선하도록 설계되었다. 한편, AWS 인퍼런시아는 AWS 칩 중 가장 전력 효율이 높은 머신러닝 추론 칩이다. AWS 인퍼런시아2는 와트당 최대 50% 더 높은 성능을 제공하며, 동급 인스턴스 대비 최대 40%까지 비용을 절감할 수 있다.  이와 함께, AWS는 리소스 활용을 최적화하여 유휴 용량을 최소화하고 인프라의 효율성을 지속적으로 개선하고 있다고 전했다. AWS는 데이터센터 설계에서 대형 중앙 무정전전원공급장치(UPS)를 제거하는 대신 모든 랙에 통합되는 소형 배터리팩과 맞춤형 전원공급장치를 사용하여 전력 효율성을 개선하고 가용성을 높였다. 교류(AC)에서 직류(DC)로, 또는 그 반대로 전압을 변환할 때 발생하는 전력 손실을 줄이기 위해 중앙 UPS를 제거하고 랙 전원 공급 장치를 최적화하여 에너지 변환 손실을 약 35% 감소시켰다. AWS 데이터센터에서 서버 장비에 전력을 공급하는 것 다음으로 에너지 사용량이 많은 부분 중 하나는 냉각 시스템이다. 효율성을 높이기 위해 AWS는 장소와 시간에 따른 프리 쿨링(free air cooling) 등 다양한 냉각 기술을 활용하고 실시간 데이터를 통해 기상 조건에 적응한다. AWS의 최신 데이터센터 설계는 최적화된 공랭 솔루션과 엔비디아(NVIDIA)의 그레이스 블랙웰 슈퍼칩과 같은 가장 강력한 AI 칩셋을 위한 액체 냉각 기능을 통합한다. 유연한 다중 모드 냉각을 통해 기존 워크로드 혹은 AI 모델 등 실행하는 워크로드에 상관없이 성능과 효율성을 극대화할 수 있다. AWS는 SK텔레콤 등 자사의 고객들이 그래비톤의 탄소 절감 효과를 누리고 있다고 소개했다. AWS는 SK텔레콤의 차세대 AI 네트워크 관리 시스템인 탱고 솔루션 구축에 대규모 데이터 처리와 인공지능 및 머신러닝 워크로드에 최적화된 그래비톤 인스턴스를 제공함으로써, 온프레미스 대비 AWS 워크로드의 탄소배출량을 약 27% 감축하는데 기여했다. 또한, AWS는 자사의 클라우드 인프라가 스타트업, 기업, 헬스케어, 연구, 교육 기관 등 수만 곳의 한국 기업에게 신기술에 대한 접근성을 향상해 국내 비즈니스 생태계의 혁신과 성장을 지원하고 있다고 전했다. 종합에너지그룹 삼천리는 AWS를 활용해 대고객서비스 및 소비자 현장 지원 애플리케이션을 안정적으로 운영하고, 고객탄소발자국 툴(Customer Carbon Footprint Tool)을 통해 IT 운영에 따른 탄소 배출량을 상시 모니터링할 계획이다. AWS는 삼천리가 이번 클라우드 도입으로 향후 5년간 탄소배출량을 약 29.6% 감축할 것으로 기대하고 있다. AWS의 켄 헤이그(Ken Haig) 아시아 태평양 및 일본 에너지 및 환경 정책 총괄은 “전 세계 기업의 IT 지출 중 85%가 온프레미스에 집중된 상황에서, 한국 기업이 AWS상에서 AI 워크로드 최적화를 통해 탄소 배출량을 최대 95% 줄일 수 있다는 것은 지속가능성 측면에서 의미 있는 기회”라고 강조했다. 이어 “지속가능성의 혁신은 한국이 2050년까지 탄소 중립 목표를 달성하는데 중요한 역할을 할 것이며, 전력망에서 재생에너지 비중을 늘리려는 한국의 노력은 AI 워크로드의 탈탄소화를 앞당길 것”이라면서, “AWS는 데이터센터 설계 최적화부터 AI 전용 칩에 대한 투자까지 데이터센터 전반의 지속가능성을 위해 끊임없이 혁신하여 고객의 컴퓨팅 수요를 충족하기 위해 에너지 효율성을 지속적으로 높이고 있다”고 덧붙였다.
작성일 : 2024-09-04
AWS, ‘생성형 AI 액셀러레이터’에 2억 3000만 달러 투자 발표
아마존웹서비스(AWS)가 전 세계 스타트업의 생성형 AI 애플리케이션 개발 가속화를 위해 2억 3000만 달러를 지원한다고 발표했다. 이를 통해 AWS는 초기 단계 스타트업이 인공지능(AI) 및 머신러닝(ML) 기술을 활용을 확대할 수 있도록 AWS 크레딧, 멘토링 및 교육 등을 제공할 예정이다.  이번 투자는 ‘AWS생성형 AI 액셀러레이터(AWS Generative AI Accelerator)’ 프로그램의 두 번째 그룹에 대한 자금을 지원한다. AWS 생성형 AI 액셀러레이터는 생성형 AI를 활용해 복합적인 문제를 해결하고자 하는 상위 80개 초기 단계 스타트업에 업계 전문 지식과 최대 100만 달러의 AWS 크레딧을 제공하는 프로그램으로, 오는 7월 19일까지 AWS 웹페이지에서 신청이 가능하다. 스타트업은 AWS 크레딧을 사용해 AWS 컴퓨팅, 스토리지 및 데이터베이스 기술 뿐만 아니라 최저 비용으로 고성능을 제공하는 에너지 효율적인 AI칩 AWS 트레이니움(AWS Trainium)과 AWS 인퍼런시아2(AWS Inferentia 2)를 이용할 수 있다. 이 크레딧은 또한 기업이 자체 파운데이션 모델(FM)을 구축, 훈련할 수 있도록 지원하는 완전 관리형 서비스인 아마존 세이지메이커(Amazon SageMaker)에서 사용할 수 있으며, 아마존 베드록(Amazon Bedrock)을 통해 생성형 AI 애플리케이션을 쉽고 안전하게 구축하는 모델과 툴에 접근할 수 있다. AWS 생성형 AI 액셀러레이터는 금융 서비스, 의료 및 생명 과학, 미디어 및 엔터테인먼트, 비즈니스, 기후 변화 등의 분야에서 발생하는 복합적인 문제를 해결하기 위해 생성형 AI를 사용하고 있는 초기 단계의 스타트업을 발굴한다. 참여 기업은 ML 성능 향상, 스택 최적화, 시장 진출 전략에 관한 세션에 참여할 수 있다. 10주 동안 진행되는 이 프로그램은 참가자들의 관심사 및 산업 분야에 맞춰 비즈니스 및 기술 멘토와 연결해준다. 각각의 스타트업에게는 생성형 AI 솔루션 구축, 교육, 테스트 및 출시에 이용할 수 있는 최대 100만 달러의 AWS 크레딧이 제공된다. 또한, 이 프로그램의 파트너사인 엔비디아의 업계 전문가, 장비, 기술 세션을 이용할 수 있으며, 최첨단 스타트업 육성 프로그램인 엔비디아 인셉션(NVIDIA Inception)참가 기회도 주어진다. AWS 생성형 AI 액셀러레이터의 두번째 그룹에 대한 선정 결과는 9월 10일에 발표될 예정이며, 프로그램은 10월 1일 아마존 시애틀 캠퍼스에서 대면으로 시작된다. 선정된 80여개의 모든 스타트업은 12월 라스베이거스에서 열리는 리인벤트(re:Invent) 2024에서 잠재 투자자, 고객, 파트너, AWS 리더들에게 솔루션을 선보일 수 있는 기회를 얻는다. 생성형 AI 액셀러레이터 프로그램에 더하여, AWS는 아시아태평양 및 일본 지역의 스타트업을 대상으로 하는 ‘AWS 생성형 AI 스포트라이트’ 프로그램을 론칭했다. ‘AWS 생성형 AI 스포트라이트’는 생성형 AI 애플리케이션을 개발하는 아시아태평양 및 일본 지역의 프리 시드 및 시드 단계 스타트업을 위한 4주 간의 액셀러레이터 프로그램이다. 국내 15개의 스타트업을 포함해 최대 120개의 프리 시드 및 시드 단계 스타트업이 선정될 예정이다. 이 프로그램에 선정된 스타트업은 업계 전문가, 창업자, 투자자들로부터 비즈니스 및 기술 지식과 전문 지식을 습득하고, 아태지역 전역의 동료 그룹 멤버 혁신가 커뮤니티로부터 지원을 받아 AWS의 생성형 AI 도구와 서비스에 대한 이해와 숙련을 가속화할 수 있도록 지원한다. 또한 참가자들은 AWS 스타트업 플래그십 프로그램인 AWS 액티베이트(AWS Activate) 프로그램을 이용할 수 있으며, 액셀러레이터 약관 및 AWS의 재량에 따라 맞춤형 클라우드 크레딧을 제공받을 수 있다.  AWS 생성형 AI 스포트라이트 프로그램은 국내에서는 벤처캐피탈 매쉬업 벤처스(MashUp Ventures)와의 협력 하에 진행된다. 신청은 6월 30일까지 가능하며, 선정 결과는 7월에 발표된다. AWS의 맷 우드(Matt Wood) AI 제품 부문 부사장은 “AWS는 18년 이상 다른 어떤 클라우드 제공업체보다 더 많은 스타트업의 비즈니스 구축, 출시, 확장을 지원해왔으며, 전체 AI/ML 유니콘의 96%가 AWS에서 운영되고 있다”면서, “이번 프로그램을 통해 스타트업이 세계적인 규모의 비즈니스를 시작하고 확장할 수 있도록 지원하고, 전 세계의 학습, 연결 및 비즈니스 운영하는 방식에 변화를 일으킬 새로운 AI 애플리케이션을 출시하는데 필요한 구성 요소를 제공할 것”이라고 말했다. AWS의 맷 테일러 아시아태평양 및 일본 지역 스타트업 솔루션 아키텍처 총괄은 “AWS 글로벌 생성형 AI 액셀러레이터와 아태 및 일본지역의 AWS 스포트라이트 프로그램은 호주의 레오나르도 AI, 한국의 업스테이지 등과 같은 해당 지역의 스타트업이 AI 혁신의 물결을 가속화할 수 있도록 돕기 위한 AWS의 지속적인 노력의 일환”이라면서, “이 두 가지 상호 보완적인 액셀러레이터 프로그램은 아태 및 일본 지역의 다양한 성장 단계에 있는 스타트업이 생성형 AI 분야에서 혁신을 주도할 수 있도록 지원할 것이다. AWS가 설계한 최고의 가성비 ML 칩부터 기본 모델 학습 또는 미세 조정, AI 애플리케이션 구축 등을 통해, 스타트업들이 고객 경험과 우리가 생활하고 일하고 즐기는 방식을 혁신할 수 있기를 기대한다”고 밝혔다.
작성일 : 2024-06-17
[포커스] AWS, 산업 혁신 지원하는 포괄적 클라우드/AI 기술 소개
아마존웹서비스(AWS)가 연례 클라우드 기술 콘퍼런스인 ‘AWS 서밋 서울 2024(AWS Summit Seoul 2024)’를 5월 16~17일 진행했다. 이번 AWS 서밋에서는 생성형 AI와 클라우드 분야의 기술 혁신과 미래 비전에 관한 내용이 소개됐다. ■ 정수진 편집장     AWS는 10주년을 맞은 이번 행사에 10만 명 이상이 참석했다고 밝혔다. 이틀 동안 진행된 AWS 서밋에서는 다양한 산업 분야와 기술 주제에 대한 100여 개 이상의 강연이 진행됐으며, 생성형 AI 솔루션 데모 및 산업별 클라우드 활용 관련 세션과 데모가 선보였다. AWS코리아의 함기호 대표이사는 개회사에서 “AWS는 국내 AWS 리전에 200개 이상의 서비스를 출시하는 등 지난 15년간 국내에 투자를 이어오면서, 다양한 산업 분야에서 혁신 기업 고객을 지원해 왔다. 앞으로도 국내 기업을 위한 클라우드를 제공하면서 이들의 혁신을 뒷받침할 것”이라고 소개했다. 또한, 생성형 AI 혁신을 주도하기 위한 앤트로픽(Anthropic)과의 전략적 파트너십에 대해서도 소개했다. 앤트로픽은 대화형 인공지능인 클로드(Claude)를 AWS의 생성형 AI 애플리케이션 구축 서비스인 아마존 베드록(Amazon Bedrock)에 제공하며, AI 연구개발과 모델 구축/배포에 AWS의 서비스와 프로세서를 사용한다. 또한 AWS는 앤트로픽에 대규모 투자를 진행할 예정이다.   혁신을 위한 인공지능 기술의 장벽 허문다 AWS의 프로페셔널 서비스 및 생성형 AI 혁신센터를 총괄하는 프란체스카 바스케즈(Francessca Vasquez) 부사장은 AWS 서밋 첫째 날 기조연설에서 생성형 AI를 통한 비즈니스 혁신 방법에 대해 소개했다. 바스케즈 부사장은 “디지털 기술 혁신은 새로운 가능성을 열어왔다. 클라우드 컴퓨팅은 다양한 기업이 비즈니스를 개발하고 확장할 수 있도록 지원했고, AWS는 네트워크, 스토리지, 데이터베이스, 컴퓨팅 등의 서비스를 제공하면서 클라우드 기술에 대한 접근성을 높여왔다”고 설명했다. 클라우드 다음의 혁신 기술로 AWS는 인공지능에 주목하고 있다. 작년에 특히 두드러진 생성형 AI의 발전은 데이터를 해석하고 상호작용하는 방법을 완전히 바꿔놓았으며, 제품을 개발하고 비즈니스를 개척하는 방식을 근본적으로 변화시켰다는 것이 바스케즈 부사장의 설명이다. 그는 “AWS는 업무 효율뿐 아니라 복잡한 추론 작업의 자동화를 위해 AI 기술의 장벽을 허물도록 지원하고자 한다”고 전했다.   ▲ 생성형 AI를 위한 AWS의 포괄적 기술 스택   생성형 AI 위한 포괄적 기술 지원 많은 기업이 생성형 AI에 주목하고 있지만, 한편으로 생성형 AI를 도입하는 과정에서 어려움을 겪고 있다. 이를 지원하기 위해 AWS는 ▲파운데이션 모델의 훈련 및 추론을 위한 인프라 ▲파운데이션 모델 및 LLM(대규모 언어 모델) 기반 애플리케이션 개발 플랫폼 ▲파운데이션 모델 및 LLM의 활용을 위한 애플리케이션 등 생성형 AI를 위한 포괄적인 기술을 제공한다.   파운데이션 모델 훈련·추론 인프라 AWS는 자사 클라우드에서 엔비디아 H100 GPU를 제공하고, GPU의 운영을 최적화하도록 지원한다. 그리고 프로젝트 세이바(Project Ceiba)를 통해 엔비디아 GPU를 탑재한 AI 슈퍼컴퓨터를 구축하고 있다. 한편으로 AWS는 AI 맞춤형 칩셋의 자체 개발도 진행 중이다. 여기에는 기계학습 가속기인 트레이니움(AWS Trainium)과 딥러닝/생성형 AI 추론 애플리케이션을 위한 가속기인 인퍼런시아(AWS Inferentia) 등이 있는데, AWS는 이를 통해 AI 학습과 추론에 드는 비용을 줄이면서 성능과 에너지 효율을 높일 수 있을 것으로 기대하고 있다.   파운데이션 모델·LLM 기반 앱 개발 플랫폼 완전 관리형 서비스인 아마존 베드록(Amazon Bedrock)은 다양한 파운데이션 모델(FM)을 API를 통해 사용할 수 있게 해 준다. 사용자는 베드록이 제공하는 모델 평가 도구를 활용해 목적에 맞는 고성능 FM을 선택할 수 있다. 베드록에서 제공하는 미세 조정(fine-tuning), 검색 증강 생성(RAG) 등의 기능 세트와 보안 기능은 기업이 자체 데이터를 이용하여 비즈니스 관련 애플리케이션을 안전하게 구축할 수 있도록 돕는다. 바스케즈 부사장은 “현대의 모든 비즈니스는 데이터 비즈니스라고 할 수 있다. AWS는 포괄적인 데이터 서비스 세트를 제공하며, 데이터의 활용을 극대화하기 위한 클라우드 활용 방안을 제시한다. 그리고 베드록을 통해 맞춤화된 엔터프라이즈 데이터를 활용한 앱 개발을 지원한다”고 소개했다.   파운데이션 모델·LLM 활용 앱 AWS의 생성형 AI 기반 어시스턴트인 아마존 Q(Amazon Q)는 다양한 비즈니스 요구에 대응해 최적화가 가능하다는 점을 내세운다. AI 코딩 어시스턴트인 아마존 Q 디벨로퍼(Amazon Q Developer)가 한 가지 사례이다.  아마존 Q는 애플리케이션의 개발부터 구축까지 모든 단계에서 효율을 높일 수 있도록 지원하며, 아마존 Q와 베드록은 개발자가 복잡한 생성형 AI 애플리케이션을 빠르고 효율적으로, 안전하게 구축할 수 있도록 돕는다.   ▲ AWS와 현대자동차는 클라우드로 자동차의 다양한 정보를 분석하고, 생성형 AI로 새로운 콘텐츠를 제안해 주는 기술 데모를 선보였다.   클라우드/AI 활용한 산업 혁신 사례와 인사이트 소개 이틀 간 진행된 이번 AWS 서밋의 기조연설에서는 우아한형제들의 송재하 CTO, SK텔레콤의 정석근 AI 사업 총괄, 인프랩의 이동욱 CTO, 카카오페이증권의 조지훈 실장, 샌드버드의 구정진 CTO 등이 AWS 기술에 기반한 혁신 사례에 대해 소개했다. 그리고 아마존의 워너 보겔스(Werner Vogels) CTO와 맷 우드(Matt Wood) AI 서비스 부사장이 온라인 대담을 통해 클라우드 및 AI 기술에 대한 인사이트를 공유했다. 강연 세션에서는 기술 트렌드와 함께 제조/하이테크, 금융/핀테크, 통신/미디어 및 엔터테인먼트, 유통/소비재 상품 등 산업분야별로 비즈니스 트렌드 및 기술 활용 사례가 소개됐다. 이 중 제조/하이테크 분야에서는 ▲현대자동차의 실시간 차량 데이터 수집과 활용을 통한 인포테인먼트 진화 ▲GS에너지의 AI 전략 및 통합 분석 플랫폼 ▲두산디지털이노베이션의 AI 및 머신러닝을 활용한 설비 관리 전략 ▲한화큐셀의 가상 파워 플랜트 플랫폼 구축 ▲인코어드의 에너지 솔루션 고도화 등 AWS 기술 활용 사례가 발표됐다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-06-03
AWS, 자체 설계한 차세대 프로세서 그래비톤4와 트레이니움2 공개
아마존웹서비스(AWS)는 연례 콘퍼런스 ‘AWS 리인벤트 2023’에서 차세대 자체 설계 칩 제품군인 AWS 그래비톤4(AWS Graviton4)와 AWS 트레이니움2(AWS Trainium2)를 발표했다. 그래비톤4와 트레이니움2는 머신러닝(ML) 트레이닝과 생성형 인공지능(AI) 애플리케이션을 포함한 워크로드에서 개선된 가격 대비 성능과 에너지 효율을 제공한다.  그래비톤4는 기존 그래비톤3 프로세서 대비 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공해 아마존 EC2(Amazon EC2)에서 실행되는 워크로드에서 가격 대비 성능과 에너지 효율을 높이며, 모든 고속 물리적 하드웨어 인터페이스를 완전히 암호화해 보안성을 높인 것이 특징이다. 그래비톤4는 메모리에 최적화된 아마존 EC2 R8g 인스턴스로 제공돼 고객이 고성능 데이터베이스, 인메모리 캐시, 빅데이터 분석 워크로드의 실행을 개선할 수 있도록 지원한다. R8g 인스턴스는 기존 세대 R7g 인스턴스보다 최대 3배 더 많은 vCPU와 3배 더 많은 메모리로 더 큰 인스턴스 크기를 제공한다. 고객은 이를 통해 더 많은 양의 데이터 처리, 워크로드 확장, 결과 도출 시간 개선, 총 소유 비용 절감을 달성할 수 있다. 그래비톤4 기반 R8g 인스턴스는 현재 프리뷰 버전으로 제공되며, 향후 몇 달 내에 정식 출시될 예정이다.  그래비톤은 아마존 오로라(Amazon Aurora), 아마존 엘라스티캐시(Amazon ElastiCache), 아마존 EMR(Amazon EMR), 아마존 메모리DB(Amazon MemoryDB), 아마존 오픈서치(Amazon OpenSearch), 아마존 RDS(Amazon RDS), AWS 파게이트(AWS Fargate), AWS 람다(AWS Lambda)등 AWS 관리형 서비스에서 지원된다. 현재 AWS는 전 세계적으로 150개 이상의 그래비톤 기반 아마존 EC2 인스턴스 유형을 제공하고 있다. 또한 200만 개 이상의 그래비톤 프로세서를 구축했고, 상위 100대 EC2 고객을 포함해 5만 개 이상의 고객이 애플리케이션의 가격 대비 성능 최적화를 위해 그래비톤 기반 인스턴스를 사용하고 있다.   ▲ 이미지 출처 : AWS 웹사이트 캡처   한편, 트레이니움2는 1세대 트레이니움 칩 대비 최대 4배 빠른 학습 속도를 제공하도록 설계됐으며, 최대 10만 개의 칩으로 구성된 EC2 울트라클러스터(UltraClusters)에 배포할 수 있다. 이를 통해 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 빠르게 학습시키고 에너지 효율을 최대 2배까지 높인다. 트레이니움2는 1세대 트레이니움 칩에 비해 최대 4배 빠른 학습 성능과 3배 더 많은 메모리 용량을 제공하는 동시에, 와트당 성능을 최대 2배까지 개선할 수 있도록 설계됐다. 트레이니움2는 단일 인스턴스에 16개의 트레이니움 칩이 포함된 아마존 EC2 Trn2 인스턴스로 제공될 예정이다. Trn2 인스턴스는 AWS 엘라스틱 패브릭 어댑터(EFA) 페타비트급 네트워킹과 상호 연결되어 고객이 차세대 EC2 울트라클러스터에서 최대 10만 개의 트레이니움2 칩을 규모에 맞게 확장해 최대 65 엑사플롭의 컴퓨팅을 제공하고, 슈퍼컴퓨터급 성능에 온디맨드 방식으로 액세스할 수 있도록 지원한다. 이로써 고객은 기존에는 몇 달이 소요되던 3000억 개 파라미터 규모 LLM의 학습을 단 몇 주 만에 수행할 수 있다. AWS는 “각 칩 세대마다 더 나은 가격 대비 성능과 에너지 효율을 제공하며, 고객에게 AMD, 인텔, 엔비디아 등 타사의 최신 칩이 포함된 칩/인스턴스 조합 외에도 다양한 선택권을 제공해 거의 모든 애플리케이션 또는 워크로드를 아마존 EC2에서 실행할 수 있도록 지원한다”고 설명했다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “고객에게 중요한 실제 워크로드에 집중해 칩을 설계함으로써, AWS는 고객에게 진보한 클라우드 인프라를 제공할 수 있게 됐다”면서, “그래비톤4는 5년 만에 출시한 4세대 칩으로서 광범위한 워크로드를 위해 지금까지 개발한 칩 중 가장 강력하고 에너지 효율적이다. 또한, 생성형 AI에 대한 관심이 급증함에 따라 트레이니움2는 고객이 더 낮은 비용으로 더 빠르게, 그리고 더 높은 에너지 효율로 ML 모델을 훈련할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2023-11-29
AWS, 국내 클라우드 인프라에 7조 8500억 원 투자 계획 밝혀
아마존웹서비스(AWS)는 클라우드 서비스에 대한 한국 고객의 수요 증가에 대응하기 위해 2027년까지 국내 클라우드 인프라에 7조 8500억 원(58억 8000만 달러)을 투자할 계획이라고 발표했다. AWS는 이번 투자로 2027년까지 한국의 총 국내총생산(GDP)에 약 15조 600억 원(미화 약 112억 8000만 달러)을 기여하고, 국내 데이터 센터 공급망과 관련된 건설, 시설 유지보수, 엔지니어링, 통신 등 분야에서 연평균 1만 2300개의 국내 기업 전일제 환산(FTE) 일자리 창출을 지원할 전망이다. AWS는 모든 규모의 기업이 생성형 인공지능(AI)과 같은 신기술을 활용할 수 있도록 기술 접근성을 민주화하는 데에 주력하고 있다. AWS는 AI 및 머신러닝(ML) 혁신을 지원하는 데 필수적인 목적 기반 하드웨어(purpose built-hardware)에 투자하고 있는데, 2022년에는 생성형 AI 모델 학습에 소요되는 시간과 비용을 줄이기 위해 설계된 고성능 ML 칩인 ‘AWS 트레이니움(AWS Trainium)’을 출시해 새로운 모델을 구축하는데 드는 비용을 62% 절감하고 에너지 소비를 29% 절감했다. 마찬가지로, ‘AWS 인퍼런시아(AWS Inferentia)’ 칩은 대규모 딥러닝 모델을 실행하기 위해 특별히 설계돼 고객이 초대형 모델을 배포할 때 지속가능성 목표를 달성할 수 있도록 지원한다. AWS는 국내 기업들이 생성형 AI 도입을 가속화할 수 있도록 지원하는 프로그램에 투자하고 있다. 올해 8월 AWS, KB인베스트먼트, 새한창업투자는 스타트업에 6주 동안 교육과 멘토링 및 기업당 최대 2억 7000만 원(미화 20만 달러)의 AWS 크레딧을 제공하는 공동 액셀러레이터 프로그램을 발표했다. 아울러, AWS는 국내 전 산업 분야에 걸쳐 독자적인 파운데이션 모델(FM)을 구축한 국내 FM 제공업체를 전담 지원하는 'AWS코리아 생성형 AI 지원 프로그램'을 출범했다. 이 프로그램은 선정된 기업들에게 클라우드에서 FM을 구축하고 확장하는 데 필요한 툴, 리소스, 전문 지식을 활용할 수 있도록 기업당 최대 13억 8000만 원(미화 100만 달러)의 AWS 크레딧을 포함해 총 68억 9000만 원(미화 500만 달러)을 지원한다. 또한, AWS는 국내 인프라 투자로 디지털 기술을 포함해 경제 전반에 걸쳐 긍정적인 파급 효과를 창출할 것으로 보고 있다. AWS는 2017년부터 인터넷 연결 환경에서 누구나 디지털 클라우드 기술을 배울 수 있는 ‘AWS 스킬 빌더(AWS Skill Builder)’, 클라우드 관련 커리어를 준비할 수 있는 풀타임 강의식 기술 개발 및 교육 프로그램인 ‘AWS 리스타트(AWS re/Start)’ 등의 프로그램을 통해 국내에서 20만 명 이상의 사람들에게 클라우드 기술을 교육해왔다. AWS는 AWS 리스타트와 같은 이니셔티브를 통해 개인이 클라우드 관련 커리어를 준비할 수 있도록 지원하고 잠재적 고용주와 연결하며 한국의 디지털 트랜스포메이션과 인력 개발에 기여하고자 노력하고 있다. 국내에서는 메가존클라우드와 함께 운영하는 AWS 리스타트는 국내 프로그램 수료생들에게 신한DS, 채널코퍼레이션 등 기업과 면접 기회를 제공하고 있다. 한편, 이마트, 대한항공, KT DS, 한진 등 AWS 고객들은 직원 참여도를 높이고 학습 문화를 조성하여 조직 전반의 클라우드 도입을 촉진하고 혁신을 실현하기 위해 고안된 프로그램인 ‘AWS 스킬즈 길드(AWS Skills Guild)’를 활용하고 있다. AWS는 2018년부터 2022년까지 국내에 2조 7300억 원(미화 20억 4000만 달러)을 투자했으며, 이를 통해 GDP에 약 4조 9100억 원(미화 36억 7000만 달러)을 기여하고 연간 약 3600개의 일자리 창출을 지원했다. AWS코리아의 함기호 대표는 "AWS는 지난 2016년부터 한국의 클라우드 인프라에 수십억 달러를 투자해 디지털 트랜스포메이션을 위한 클라우드 사용의 괄목할 만한 성장을 지원해왔다"며, "AWS는 한국에서 긍정적인 사회적, 경제적 영향을 창출하기 위해 최선을 다하고 있다. 클라우드 인프라를 구축하고 국내 고객과 파트너의 디지털 전환을 지원하는 것 외에도, 2017년부터 20만 명 이상의 인재에게 클라우드 기술을 교육했다. 2027년까지 7조 8500억 원 투자를 통해 보다 유익한 파급 효과를 창출해 한국이 글로벌 디지털 강국으로 도약할 수 있도록 지원할 것"이라고 말했다.
작성일 : 2023-10-11
AWS, 국내 산업 혁신 촉진 위한 생성형 AI 지원 프로그램 발표
아마존웹서비스(AWS)가 기업이 생성형 AI를 활용한 산업 혁신을 가속화할 수 있도록 지원하는 'AWS코리아 생성형 AI 지원 프로그램'을 발표했다. 이 프로그램의 지원 규모는 총 약 68억 9000만원(500만 달러)이다. 선정된 기업에는 각 기업당 최대 약 13억 8000만원(100만 달러) 상당의 AWS 크레딧과 함께, AWS 클라우드에서 기초 모델(Foundation Model, FM)을 구축하고 확장하는 데 필요한 주요 툴, 자원, 포괄적 지원 혜택 등이 제공된다. 생성형 AI는 방대한 양의 데이터에 대해 사전 학습된 초대형 머신러닝(ML) 모델인 기초 모델에 의해 구동된다. IDC에 따르면 생성형 AI는 연평균 14.9%의 성장률을 기록하며 2027년까지 국내에서 약 4조 4600억 원 규모로 성장할 것으로 전망된다. 이러한 성장세는 다양한 산업 분야에서의 광범위한 AI 도입, 디지털 기술과 산업 기술의 융합, AI 관련 전문 지식 분야에 대한 상당한 규모의 투자가 지속되고 있음에 기인한다. 국내 기업들이 자체적인 기초 모델을 구축할 수 있는 성장 기회를 잡기 위해서는 기술력 부족과 지식 격차, 생성형 AI 애플리케이션 구축과 확장을 위한 간접비용, 대량의 컴퓨팅 리소스 가용성 등의 과제를 극복해야 한다. ‘AWS코리아 생성형 AI 지원 프로그램’에 선정된 기업은 낮은 비용으로 클라우드에서 모델을 학습하고 추론을 실행할 수 있도록 설계된 맞춤형 AWS 트레이니움(AWS Trainium) 및 AWS 인퍼런시아(AWS Inferentia) 액셀러레이터 등을 활용해 AWS 클라우드에서 기초 모델을 구축할 수 있게 될 것이다. 국내 기초 모델 서비스 제공업체가 해외에 모델을 출시할 수 있도록 AWS는 기초 모델, 기본 제공 알고리즘과 사전 구축된 머신러닝 솔루션이 포함된 머신러닝 허브인 아마존 세이지메이커 점프스타트(Amazon SageMaker JumpStart)에 모델을 출시할 수 있도록 도울 예정이다. 또한, AWS는 선정 기업이 AWS 파트너의 생성형 AI 솔루션을 신속하게 검색, 시험, 프로비저닝, 관리할 수 있는 AWS 마켓플레이스(AWS Marketplace)의 생성형 AI 파트너 솔루션에 기초 모델, 툴, 애플리케이션, 전문 서비스를 출시할 수 있도록 지원할 예정이다. 이를 통해 AWS 파트너는 월간 33만 명 이상의 활성 AWS 고객에게 솔루션을 판매할 수 있는 새로운 판매 채널을 확보할 수 있다. AWS코리아 함기호 대표는 "AWS는 생성형 AI를 활용해 특화된 솔루션을 구축하고자 하는 한국 고객들의 요구를 충족하기 위해 최선을 다하고 있다. 이번 ‘AWS 코리아 생성형 AI 지원 프로그램’과 같은 지원을 통해 고객이 자국의 언어로 기초 모델을 구축하는 데 필요한 툴에 대한 접근성을 높이는 것 또한 그 일환”이라며, "AI와 ML 혁신은 아마존의 전통으로, 국내 공급업체가 생성형 AI 혁신을 가속화하고 산업 전반의 혁신을 주도할 수 있도록 지원하게 되어 뜻깊게 생각한다"라고 말했다. ‘AWS코리아 생성형 AI 지원 프로그램’에 지원하고자 하는 기초 모델 공급기업은 AWS 코리아 세일즈팀을 통해 신청할 수 있다. 후보 기업은 AWS에서 기초 모델을 운영할 수 있는 입증된 잠재력을 바탕으로 선정된다. 심사 기준은 기술력과 역량, 기술 아키텍처 모델, 비즈니스 모델에 대한 종합적인 평가를 포함한다.
작성일 : 2023-10-10