• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "그래비톤"에 대한 통합 검색 내용이 10개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AWS, 아태지역의 클라우드/AI 혁신 가속화 위한 ‘이노베이션 허브’ 개소
아마존웹서비스(AWS)가 싱가포르 AWS 오피스에 아시아 태평양(APAC) 지역 최초의 AWS 이노베이션 허브(AWS Innovation Hub)를 개소했다고 발표했다. 총 8000 제곱피트(약 743 제곱미터) 규모의 이 시설은 아태 지역의 CEO 및 비즈니스 리더가 AWS 및 아마존 전반의 기술, 그리고 50개의 실제 고객 사례에 기반한 30개 이상의 파트너 설루션을 직접 체험할 수 있도록 몰입형 체험과 함께, 전문가의 안내에 따라 기술을 순차적으로 경험할 수 있는 프로그램을 제공한다. 고객은 최종적으로 AWS의 독자적인 로드맵 설루션인 비전 빌더(Vision Builder)를 통해 디지털 전환을 가속화할 수 있는 실질적인 로드맵을 마련하게 된다. 비전 빌더는 아마존 노바(Amazon Nova)로 구동되는 AWS 고유의 로드맵 설루션이다. AWS 이노베이션 허브는 아태 지역 공공 및 민간 부문의 디지털 및 인공지능(AI) 혁신을 가속화하기 위해 설립되었으며, 싱가포르에 2028년까지 90억 달러를 투자하겠다는 AWS의 기존 클라우드 인프라 투자 계획에 더해 추가적으로 조성된 수백만 달러 규모의 투자다. AWS는 매년 이 허브에서 1000명 이상의 C-레벨 리더 및 비즈니스 의사결정권자와 클라우드 및 생성형 AI 기반 혁신에 대해 교류하고, 싱가포르 고등교육기관의 학생 200명에게는 특별 교육 경험을 제공할 예정이다. 이곳에서 선보이는 물리적 및 가상 데모는 AWS와 파트너, 고객이 공동 개발한 것으로, 아태 지역 기업들이 직면한 핵심 비즈니스 과제를 해결하고 즉시 도입 가능한 설루션으로 구성되어 있다. AWS 이노베이션 허브는 호주 멜버른에 위치한 AWS 빌더스 스튜디오(AWS Builders Studio)와 같이 전 세계적으로 운영 중인 AWS의 기존 혁신 프로그램을 기반으로 한다. AWS 빌더스 스튜디오에서는 고객이 AWS 기술 전문가와 함께 프로토타입을 구축, 실험, 검증, 테스트한 뒤 확장할 수 있도록 지원한다. 또한, AWS 생성형 AI 혁신 센터(AWS Generative AI Innovation Center)를 통해 AI 전문가 및 전략가들이 고객의 AI 도입 전 과정을 지원하고 있으며 스타트업, 개발자, 투자자, 산업 전문가들이 교류할 수 있는 팝업형 협업 체험 공간 ‘AWS 생성형 AI 로프트(AWS Gen AI Loft)’도 운영 중이다. 이 프로그램은 2024년에 벵갈루루와 서울에서 진행되었고, 2025년에는 벵갈루루와 오사카에서 열릴 예정이다. 이번 이노베이션 허브는 비즈니스 과제에 따라 C-레벨 리더들에게 맞춤형 혁신 경험을 제공한다. 방문객은 ‘목표수립(Aspiration)’, ‘가속화(Acceleration)’, ‘실행(Action)’의 세 가지 존을 순차적으로 경험하며, 최종적으로 AWS 및 파트너와 협업해 실행 가능한 디지털 전환 로드맵을 얻게 된다. 목표수립 존에서는 생성형 AI, 양자 컴퓨팅, 가상현실(VR)과 같은 최신 기술이 아태 지역 비즈니스와 사회를 어떻게 변화시킬 수 있는지를 체험할 수 있다. 가속화 존에서는 고객 집착(Customer Obsession)과 목적 중심(Purpose-Driven)의 아마존 혁신 문화를 살펴보며, 비용 효율성과 성능을 동시에 갖춘 AWS 그래비톤(AWS Graviton), AWS 인퍼런시아(AWS Inferentia), AWS 트레이니움(AWS Trainium) 칩, 그리고 온프레미스 또는 에지 환경에 AWS 인프라를 확장하는 완전관리형 서비스인 AWS 아웃포스트(AWS Outposts) 등 AWS의 기술 혁신 사례를 확인할 수 있다. 실행 존에서는 워킹 백워즈 스튜디오(Working Backwards Studio)에서 고객과의 논의를 비전 보드로 정리하고, AWS 고유 로드맵 설루션인 비전 빌더를 활용해 디지털 혁신 계획을 수립한다. 허브에서 전시되는 혁신 사례는 기술 발전 속도에 맞춰 지속적으로 교체 및 진화하며, 아태 지역 기업들이 직면한 핵심 과제와 기회에 실질적으로 대응할 수 있도록 구성된다. AWS의 하이메 발레스(Jaime Valles) APJ 총괄부사장은 “기술 혁신은 아시아의 성장에 매우 중요하며, 우리는 고객 경험을 혁신함과 동시에 실질적인 비즈니스 가치를 창출할 수 있는 혁신이 필요하다”며, “AWS 이노베이션 허브는 광범위한 클라우드 및 AI 기술, 전 세계 14만 개 이상의 파트너 네트워크, 그리고 아마존 고유의 혁신 문화를 결합해 고객의 빅 아이디어를 실제 비즈니스 성과로 전환하는 데 도움을 줄 것”이라고 밝혔다. 이어 “허브를 통해 스마트 농업, 개인 맞춤형 리테일, 긴급 대응, 디지털 시민 서비스에 이르기까지 무한한 가능성이 열려 있으며, AWS는 아시아 태평양 지역의 디지털 혁신을 가속하는 데 함께하게 되어 기쁘게 생각한다”고 말했다.
작성일 : 2025-06-27
Arm, “네오버스 기반의 AWS 그래비톤4 프로세서로 클라우드 혁신 가속화 지원”
Arm은 AWS의 그래비톤4(Graviton4) 프로세서를 통해 개발자와 기업이 클라우드 워크로드의 잠재력을 발휘할 수 있도록 지원하면서, 특수 실리콘 및 컴퓨팅을 제공하고 보다 효율적이고 지속 가능하며 강력한 클라우드를 위한 기반을 마련하고자 AWS와 협력을 진행 중이라고 소개했다. 클라우드 컴퓨팅 환경은 AI의 폭발적인 성장에 힘입어 극적인 변화를 겪고 있다. AI 애플리케이션이 더욱 정교하고 복잡해짐에 따라 강력하며 효율적이고, 비용 효율적인 컴퓨팅 설루션에 대한 필요성이 그 어느 때보다 커지고 있다. 클라우드에 워크로드를 배포하는 고객들은 이러한 최신 워크로드의 요구사항을 충족하기 위해 어떤 인프라가 필요한지 재고하고 있다. 고객들의 요구사항은 성능 향상과 비용 절감부터, 규제 또는 지속 가능성 목표를 위한 에너지 효율성의 새로운 벤치마크 달성까지 다양하다. Arm의 네오버스 V2(Neoverse V2)에 기반한 AWS 그래비톤4 프로세서는 이전 세대인 그래비톤3 프로세서보다 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공한다. 이러한 장점 덕분에 현재 에코시스템과 고객들이 AWS 프로세서를 많이 채택하고 있다는 것이 Arm의 설명이다. Arm 네오버스 V2 플랫폼에는 고성능 부동 소수점 및 벡터 명령어 지원과 같은 Armv9 아키텍처의 새로운 기능이 포함되어 있으며, SVE/SVE2, Bfloat16 및 Int8 MatMul과 같은 기능은 AI/ML 및 HPC 워크로드에 강력한 성능을 제공한다. AI 워크로드 채택을 더욱 촉진하기 위해 Arm은 2024년 초 선도적인 AI 프레임워크 및 소프트웨어 에코시스템과 협력하여 전체 ML 스택이 Arm에서 즉시 사용 가능한 추론 성능 최적화의 이점을 누릴 수 있도록 Arm Kleidi를 출시했고, 이를 통해 개발자가 별도의 Arm 관련 전문 지식 없이도 워크로드를 구축할 수 있도록 했다. Arm은 파이토치(PyTorch)에서 이러한 최적화를 통해 초당 토큰 수(tokens/sec)와 첫 토큰 생성 시간(time-to-first-token) 지표를 개선하여, AWS 그래비톤4에서 라마(Llama) 3 70B 및 Llama 3.1 8B와 같은 LLM(대규모 언어 모델)을 실행할 수 있는 방법을 선보였다. HPC 워크로드의 경우, 그래비톤4는 코어당 16% 더 많은 메인 메모리 대역폭과 vCPU당 두 배의 L2 캐시를 제공하는 등 그래비톤3E에 비해 성능이 크게 향상되었다. 이는 주로 메모리 대역폭에 제한이 있는 HPC 애플리케이션의 성능에 매우 중요하다. EDA 워크로드의 경우, Arm의 엔지니어링 팀이 프로덕션 실행을 통해 측정한 결과, 그래비톤4는 RTL 시뮬레이션 워크로드에서 그래비톤3보다 최대 37% 더 높은 성능을 제공하는 것으로 나타났다. 한편, Arm은 지난 몇 년 동안 소프트웨어 에코시스템 전반에서 최종 고객이 AWS 그래비톤 프로세서에 다양한 클라우드 워크로드를 배포하면서 도입이 지속적으로 증가했다고 전했다. “고객들은 비용을 절감하고, 더 향상된 성능을 경험하며, 탄소 및 지속 가능성 발자국을 개선하고 있다”는 것이 Arm의 설명이다.
작성일 : 2024-12-23
AWS, “AI 워크로드를 클라우드로 전환해 탄소 배출량 절감 가능”
아마존웹서비스(AWS)가 IT 워크로드를 온프레미스 인프라에서 AWS 클라우드 데이터센터로 이전하면 인공지능(AI) 활용에 따른 환경적 영향을 효과적으로 최소화할 수 있다는 새로운 연구 결과를 발표했다. AWS의 의뢰로 글로벌 IT 컨설팅 기업 엑센츄어(Accenture)에서 진행한 연구에 따르면, AWS의 글로벌 인프라에서 워크로드를 실행했을 때 온프레미스 대비 에너지 효율이 최대 4.1배 더 높은 것으로 나타났다. 특히 한국 기업들이 AWS상에서 AI 워크로드를 최적화할 경우 온프레미스 대비 탄소 배출을 최대 95%까지 줄일 수 있는 것으로 나타났다. 연구에 따르면 국내에서 컴퓨팅 부하가 높은 AI 워크로드를 AWS 데이터센터에서 실행할 경우, 에너지 효율이 더 높은 하드웨어 사용(22%)과 향상된 전력 및 냉각 시스템(50%)을 통해 온프레미스 대비 탄소 배출량을 72%까지 줄일 수 있다. 추가로 AWS에서 최적화하고 AI 전용 실리콘을 사용할 경우 AWS로 이전하고 최적화한 국내 기업은 AI 워크로드의 총 탄소 배출량을 최대 95%까지 감축할 수 있다. AWS가 에너지 효율을 혁신하는 대표적인 방법 중 하나는 자체 칩에 대한 투자다. AWS는 지난 2018년 자체 개발 맞춤형 범용 프로세서인 그래비톤(Graviton)을 첫 출시했다. 최신 프로세서인 그래비톤4의 성능은 기존 그래비톤보다 4배 향상되었으며, 동급의 아마존 EC2 인스턴스 대비 동일한 성능을 구현하는 데에 60% 더 적은 에너지를 사용하는 그래비톤3보다도 더 에너지 효율적이다. AWS는 생성형 AI 애플리케이션의 성능과 에너지 소비를 최적화하기 위해 AWS 트레이니움(AWS Trainium), AWS 인퍼런시아(AWS Inferentia)와 같은 AI 전용 실리콘을 개발하여 동급의 가속 컴퓨팅 인스턴스보다 높은 처리량을 달성했다. AWS 트레이니움은 생성형 AI 모델의 학습 시간을 몇 달에서 몇 시간으로 단축한다. 트레이니움2는 1세대 트레이니움에 비해 최대 4배 빠른 훈련 성능과 3배 더 많은 메모리 용량을 제공하는 동시에 에너지 효율(와트당 성능)을 최대 2배까지 개선하도록 설계되었다. 한편, AWS 인퍼런시아는 AWS 칩 중 가장 전력 효율이 높은 머신러닝 추론 칩이다. AWS 인퍼런시아2는 와트당 최대 50% 더 높은 성능을 제공하며, 동급 인스턴스 대비 최대 40%까지 비용을 절감할 수 있다.  이와 함께, AWS는 리소스 활용을 최적화하여 유휴 용량을 최소화하고 인프라의 효율성을 지속적으로 개선하고 있다고 전했다. AWS는 데이터센터 설계에서 대형 중앙 무정전전원공급장치(UPS)를 제거하는 대신 모든 랙에 통합되는 소형 배터리팩과 맞춤형 전원공급장치를 사용하여 전력 효율성을 개선하고 가용성을 높였다. 교류(AC)에서 직류(DC)로, 또는 그 반대로 전압을 변환할 때 발생하는 전력 손실을 줄이기 위해 중앙 UPS를 제거하고 랙 전원 공급 장치를 최적화하여 에너지 변환 손실을 약 35% 감소시켰다. AWS 데이터센터에서 서버 장비에 전력을 공급하는 것 다음으로 에너지 사용량이 많은 부분 중 하나는 냉각 시스템이다. 효율성을 높이기 위해 AWS는 장소와 시간에 따른 프리 쿨링(free air cooling) 등 다양한 냉각 기술을 활용하고 실시간 데이터를 통해 기상 조건에 적응한다. AWS의 최신 데이터센터 설계는 최적화된 공랭 솔루션과 엔비디아(NVIDIA)의 그레이스 블랙웰 슈퍼칩과 같은 가장 강력한 AI 칩셋을 위한 액체 냉각 기능을 통합한다. 유연한 다중 모드 냉각을 통해 기존 워크로드 혹은 AI 모델 등 실행하는 워크로드에 상관없이 성능과 효율성을 극대화할 수 있다. AWS는 SK텔레콤 등 자사의 고객들이 그래비톤의 탄소 절감 효과를 누리고 있다고 소개했다. AWS는 SK텔레콤의 차세대 AI 네트워크 관리 시스템인 탱고 솔루션 구축에 대규모 데이터 처리와 인공지능 및 머신러닝 워크로드에 최적화된 그래비톤 인스턴스를 제공함으로써, 온프레미스 대비 AWS 워크로드의 탄소배출량을 약 27% 감축하는데 기여했다. 또한, AWS는 자사의 클라우드 인프라가 스타트업, 기업, 헬스케어, 연구, 교육 기관 등 수만 곳의 한국 기업에게 신기술에 대한 접근성을 향상해 국내 비즈니스 생태계의 혁신과 성장을 지원하고 있다고 전했다. 종합에너지그룹 삼천리는 AWS를 활용해 대고객서비스 및 소비자 현장 지원 애플리케이션을 안정적으로 운영하고, 고객탄소발자국 툴(Customer Carbon Footprint Tool)을 통해 IT 운영에 따른 탄소 배출량을 상시 모니터링할 계획이다. AWS는 삼천리가 이번 클라우드 도입으로 향후 5년간 탄소배출량을 약 29.6% 감축할 것으로 기대하고 있다. AWS의 켄 헤이그(Ken Haig) 아시아 태평양 및 일본 에너지 및 환경 정책 총괄은 “전 세계 기업의 IT 지출 중 85%가 온프레미스에 집중된 상황에서, 한국 기업이 AWS상에서 AI 워크로드 최적화를 통해 탄소 배출량을 최대 95% 줄일 수 있다는 것은 지속가능성 측면에서 의미 있는 기회”라고 강조했다. 이어 “지속가능성의 혁신은 한국이 2050년까지 탄소 중립 목표를 달성하는데 중요한 역할을 할 것이며, 전력망에서 재생에너지 비중을 늘리려는 한국의 노력은 AI 워크로드의 탈탄소화를 앞당길 것”이라면서, “AWS는 데이터센터 설계 최적화부터 AI 전용 칩에 대한 투자까지 데이터센터 전반의 지속가능성을 위해 끊임없이 혁신하여 고객의 컴퓨팅 수요를 충족하기 위해 에너지 효율성을 지속적으로 높이고 있다”고 덧붙였다.
작성일 : 2024-09-04
AWS, 자체 설계한 차세대 프로세서 그래비톤4와 트레이니움2 공개
아마존웹서비스(AWS)는 연례 콘퍼런스 ‘AWS 리인벤트 2023’에서 차세대 자체 설계 칩 제품군인 AWS 그래비톤4(AWS Graviton4)와 AWS 트레이니움2(AWS Trainium2)를 발표했다. 그래비톤4와 트레이니움2는 머신러닝(ML) 트레이닝과 생성형 인공지능(AI) 애플리케이션을 포함한 워크로드에서 개선된 가격 대비 성능과 에너지 효율을 제공한다.  그래비톤4는 기존 그래비톤3 프로세서 대비 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공해 아마존 EC2(Amazon EC2)에서 실행되는 워크로드에서 가격 대비 성능과 에너지 효율을 높이며, 모든 고속 물리적 하드웨어 인터페이스를 완전히 암호화해 보안성을 높인 것이 특징이다. 그래비톤4는 메모리에 최적화된 아마존 EC2 R8g 인스턴스로 제공돼 고객이 고성능 데이터베이스, 인메모리 캐시, 빅데이터 분석 워크로드의 실행을 개선할 수 있도록 지원한다. R8g 인스턴스는 기존 세대 R7g 인스턴스보다 최대 3배 더 많은 vCPU와 3배 더 많은 메모리로 더 큰 인스턴스 크기를 제공한다. 고객은 이를 통해 더 많은 양의 데이터 처리, 워크로드 확장, 결과 도출 시간 개선, 총 소유 비용 절감을 달성할 수 있다. 그래비톤4 기반 R8g 인스턴스는 현재 프리뷰 버전으로 제공되며, 향후 몇 달 내에 정식 출시될 예정이다.  그래비톤은 아마존 오로라(Amazon Aurora), 아마존 엘라스티캐시(Amazon ElastiCache), 아마존 EMR(Amazon EMR), 아마존 메모리DB(Amazon MemoryDB), 아마존 오픈서치(Amazon OpenSearch), 아마존 RDS(Amazon RDS), AWS 파게이트(AWS Fargate), AWS 람다(AWS Lambda)등 AWS 관리형 서비스에서 지원된다. 현재 AWS는 전 세계적으로 150개 이상의 그래비톤 기반 아마존 EC2 인스턴스 유형을 제공하고 있다. 또한 200만 개 이상의 그래비톤 프로세서를 구축했고, 상위 100대 EC2 고객을 포함해 5만 개 이상의 고객이 애플리케이션의 가격 대비 성능 최적화를 위해 그래비톤 기반 인스턴스를 사용하고 있다.   ▲ 이미지 출처 : AWS 웹사이트 캡처   한편, 트레이니움2는 1세대 트레이니움 칩 대비 최대 4배 빠른 학습 속도를 제공하도록 설계됐으며, 최대 10만 개의 칩으로 구성된 EC2 울트라클러스터(UltraClusters)에 배포할 수 있다. 이를 통해 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 빠르게 학습시키고 에너지 효율을 최대 2배까지 높인다. 트레이니움2는 1세대 트레이니움 칩에 비해 최대 4배 빠른 학습 성능과 3배 더 많은 메모리 용량을 제공하는 동시에, 와트당 성능을 최대 2배까지 개선할 수 있도록 설계됐다. 트레이니움2는 단일 인스턴스에 16개의 트레이니움 칩이 포함된 아마존 EC2 Trn2 인스턴스로 제공될 예정이다. Trn2 인스턴스는 AWS 엘라스틱 패브릭 어댑터(EFA) 페타비트급 네트워킹과 상호 연결되어 고객이 차세대 EC2 울트라클러스터에서 최대 10만 개의 트레이니움2 칩을 규모에 맞게 확장해 최대 65 엑사플롭의 컴퓨팅을 제공하고, 슈퍼컴퓨터급 성능에 온디맨드 방식으로 액세스할 수 있도록 지원한다. 이로써 고객은 기존에는 몇 달이 소요되던 3000억 개 파라미터 규모 LLM의 학습을 단 몇 주 만에 수행할 수 있다. AWS는 “각 칩 세대마다 더 나은 가격 대비 성능과 에너지 효율을 제공하며, 고객에게 AMD, 인텔, 엔비디아 등 타사의 최신 칩이 포함된 칩/인스턴스 조합 외에도 다양한 선택권을 제공해 거의 모든 애플리케이션 또는 워크로드를 아마존 EC2에서 실행할 수 있도록 지원한다”고 설명했다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “고객에게 중요한 실제 워크로드에 집중해 칩을 설계함으로써, AWS는 고객에게 진보한 클라우드 인프라를 제공할 수 있게 됐다”면서, “그래비톤4는 5년 만에 출시한 4세대 칩으로서 광범위한 워크로드를 위해 지금까지 개발한 칩 중 가장 강력하고 에너지 효율적이다. 또한, 생성형 AI에 대한 관심이 급증함에 따라 트레이니움2는 고객이 더 낮은 비용으로 더 빠르게, 그리고 더 높은 에너지 효율로 ML 모델을 훈련할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2023-11-29
Arm, 컴퓨팅 인프라를 재정의하는 차세대 네오버스 플랫폼 발표
Arm은 확장 가능한 효율성과 기술 리더십에 기반을 둔 'Arm 네오버스(Arm Neoverse)' 로드맵에 대한 새로운 업데이트를 소개하고, 파트너사가 빠른 속도로 혁신을 이어나갈 수 있도록 지원할 것이라고 밝혔다. Arm은 하이퍼스케일 및 HPC 고객의 요구사항에 대응하고 더 많은 전력과 공간을 필요로 하지 않으면서 클라우드 워크로드 성능을 더욱 강화하기 위해, 최신 V시리즈 코어와 널리 배포된 Arm CMN-700 메시 인터커넥트(mesh interconnect)를 특징으로 하는 Arm 네오버스 V2 플랫폼(디미터)을 공개했다. 네오버스 V2는 클라우드 및 HPC 워크로드에 대해 업계 최고 수준의 정수(integer) 성능을 제공하며, 몇 가지 Armv9 아키텍처의 보안 향상 기능들을 선보인다. 오늘날 다수의 파트너사는 네오버스 V2 기반 설계를 진행 중이며, 그 중 하나인 엔비디아는 그레이스(Grace) 데이터 센터 CPU의 컴퓨팅 기반으로 네오버스 V2를 활용하고 있다. 그레이스는 네오버스 V2의 전력 효율성과 LPDDR5X 메모리의 전력 효율성을 결합하여, 기존 아키텍처로 구동되는 서버에 비해 와트당 2배의 성능을 제공한다. 또한, 효율적인 성능 및 처리량에 대한 Arm의 지속적인 투자의 일환으로 차세대 N-시리즈 제품이 개발 중이며, 이는 2023년에 파트너사에게 제공될 예정이다. Arm은 "이 차세대 N-시리즈 CPU가 시장을 선도하는 N2의 효율성을 넘어 성능 및 효율성 측면 모두에서 세대를 뛰어넘는 향상된 기능을 제공할 것"이라고 밝혔다.     Arm의 네오버스 E-시리즈 CPU는 데이터 플레인(data plane) 처리, 5G RAN, 엣지 네트워킹 및 가속기 전반에 걸쳐 다용도로 활용이 가능하다. Arm은 이러한 다양성을 지원하기 위해 Arm Cortex-A510 CPU와 확장 가능한 네오버스 CMN-700 및 N2 시스템 백플레인(backplane)을 결합한 네오버스 E2 플랫폼을 제공하고 있다. 이를 통해 확장 가능한 범위의 코어 수, 시스템레디(SystemReady) 호환성, PCIe, CXL, IO 및 인터페이스 등과 같은 제한된 애플리케이션에서 클라우드 기술을 사용할 수 있다. 네오버스 플랫폼은 가속화된 인프라 솔루션의 전체 스펙트럼을 처리하기 위한 목적으로 특별히 제작되었다. 이와 같은 전문적인 처리는 워크로드 전력 소비를 줄이고 현대 워크로드의 증가하는 컴퓨팅 요구 사항을 충족하기 위한 해결책이다. 하지만 이는 코어 단독으로는 처리가 불가능하다. Arm은 Arm 기반 인스턴스(instance)를 제공하는 모든 주요 클라우드 제공업체와 함께 클라우드 파트너사와 협력하여 클라우드 네이티브 소프트웨어 인프라, 프레임워크 및 워크로드를 최적화하고 있다. 여기에는 쿠버네티스(Kubernetes), 이스티오(Istio) 및 Arm 아키텍처용 네이티브 빌드를 제공하기 위한 여러 CI/CD 툴과 같이 널리 채택된 프로젝트에 대한 지원이 포함된다. 또한, 텐서플로우(TensorFlow)와 같은 머신 러닝 프레임워크와 오픈 소스 데이터베이스, 빅데이터 및 분석, 미디어 처리와 같은 클라우드 소프트웨어 워크로드에 대한 개선도 포함된다. 이러한 작업은 Arm에서 구동되는 소프트웨어 풀 스택 솔루션을 최적화하는 데 있어 Arm이 오랜 기간 리더십을 제공해온 오픈 소스 커뮤니티에 기여하는 개발자와 협력하여 진행됨으로써, 모든 최종 사용자가 Arm에서 차세대 애플리케이션을 구축할 수 있도록 한다. 또한, Arm은 자사 소프트웨어 에코시스템의 강점으로 네오버스 플랫폼의 역량 및 AMBA CHI, UCIe 및 CXL과 같은 선도적인 고성능 패브릭이 결합되어 있다는 점을 꼽았다. 이로 인해 Arm은 파트너사가 클라우드 투 엣지(cloud-to-edge) 전반에 걸친 맞춤형 솔루션을 개발할 수 있도록 한다. 네오버스 기반 플랫폼은 업계 최고의 확장 가능한 효율성을 제공하고 자유도를 가진 Arm 에코시스템이 모든 인프라 영역에서 혁신을 이룰 수 있도록 지원함으로써 클라우드 컴퓨팅에서 가능한 것을 재정의하고 있다. 그 결과, 네오버스는 2018년 출시 이후 빠르게 도입되고 있으며, 오늘날 모든 주요 퍼블릭 클라우드가 네오버스를 기반으로 하는 인스턴스를 제공하고 있다. 5G RAN 및 무선 인프라에서 Arm은 감소된 전력, 더 큰 처리량으로 최고의 성능을 제공하여 중요한 총소유비용(TCO)의 이점을 제공하고 있다. 이를 통해 Arm의 파트너사는 소형 셀, 매크로 셀에서 프라이빗 네트워크에 이르는 애플리케이션 및 사용 사례에 맞게 제품을 커스터마이징 할 수 있다. Arm 5G 솔루션 랩(Arm 5G Solutions Lab)을 통해 Arm은 디쉬 와이어리스(Dish Wireless), 구글 클라우드(Google Cloud), 마벨(Marvell), NXP 및 보다폰(Vodafone)과 같은 5G 에코시스템의 리더들과 협력하여 Arm에서 엔드 투 엔드 5G 네트워크를 가속화하고 있다.  나아가, Arm은 암페어 알트라(Ampere Altra) 기반 HPE 프로라이언트(HPE Proliant) 11 세대 플랫폼의 출시는 물론 VM웨어(VMware)의 프로젝트 몬터레이(Project Monterey), OpenShift on Arm을 지원하는 레드햇(RedHat) 및 Arm 기반 AWS 그래비톤(AWS Graviton)으로 클라우드 인프라를 이동하는 SAP HANA 와 같은 이니셔티브와 함께 보다 전통적인 엔터프라이즈의 영역으로 이동하고 있다. Arm 인프라 사업부의 크리스 버기(Chris Bergey) 수석 부사장 겸 총괄 매니저는 "업계는 Arm 네오버스를 통해 전 세계 컴퓨팅 인프라를 재정의하고 혁신할 수 있도록 성능, 전력 효율성, 특수 처리 및 워크로드 가속화에 점점 더 많은 관심을 기울이고 있다”고 전했다. 또한, “Arm이 세계 최대의 컴퓨팅 풋프린트와 전체 컴퓨팅 스펙트럼에 대한 독보적인 이해도를 갖게 되면서, 인프라 기술의 다음 시대는 Arm의 성능 및 효율성 DNA에 의존하고 있다. 금일 네오버스 로드맵에 추가된 업데이트를 통해 Arm은 이를 제공할 준비가 되어 있으며 인프라의 미래는 Arm에 달려있다고 믿는다”고 말했다.
작성일 : 2022-09-15
AWS 클라우드 환경의 가상 서버, Amazon EC2 인스턴스 (4)
슬기롭게 인스턴스를 선택하는 방법   지난 호에서는 Amazon EC2 인스턴스의 표기법과 다양한 종류의 인스턴스 타입에 대해 여러 관점에서 살펴보았다. 이번 호에서는 연재의 마지막회로 EC2 인스턴스 유형을 크게 5가지 관점에서 구분하여 독자들의 인스턴스 선택에 도움이 될 수 있도록 자세히 소개하도록 한다.   ■ 조상만 | AWS 코리아의 솔루션즈 아키텍트로, AWS 클라우드를 통해 제조 대기업의 디지털 트랜스포메이션을 기술적으로 돕는 역할을 담당하고 있다. 이메일 | smcho@amazon.com 홈페이지 | https://aws.amazon.com/ko   Amazon EC2 인스턴스의 유형 AWS에서는 지난 호에 소개한  다양한 타입의 인스턴스를 크게 ▲범용 ▲컴퓨팅 ▲메모리 최적화 ▲가속화된 컴퓨팅 ▲스토리지 최적화의 다섯 가지 형태로 구분하고 있다. 독자가 처음 AWS의 EC2 인스턴스를 소개하는 다음의 웹 페이지에 접근한다면, 매우 다양한 인스턴스 타입에 당황할 수도 있을 것이다. 대부분의 독자들이 EC2 인스턴스에 대해 처음 접할 것으로 생각되므로, 인스턴스 선택에 도움이 될 수 있도록 이 5가지 유형에 대해 구체적으로 소개하도록 한다. ■ Amazon EC2 인스턴스 유형 : https://aws.amazon.com/ko/ec2/instance-types   범용 워크로드에 적용 가능한 인스턴스 첫 번째로 소개하는 유형은 범용 워크로드에 적합한 인스턴스이다. 범용 인스턴스란 균형 있는 컴퓨팅, 메모리 및 네트워킹 리소스를 제공하며 다양한 워크로드에 사용할 수 있는 인스턴스를 의미한다. ‘M’과 ‘T’로 시작하는 인스턴스가 대표적인 범용 인스턴스 패밀리이다.  흔히들 ‘M’으로 시작하는 인스턴스를 메모리에 특화된 인스턴스로 착각하는 경우가 많은데, 메모리에 특화된 인스턴스는 ‘R’로 시작한다. 여기서 ‘M’이란 ‘Moderate’의 약자이다. 범용 워크로드에 사용되는 ‘M’ 타입의 인스턴스는 지난 호에서 소개한 인텔, AMD, 그래비톤 프로세서 기반 모두에서 제공되고 있으며, 각각 최신 6세대 인스턴스인 ‘M6i’, ‘M6a’, ‘M6g’를 출시하였다. 만약 범용 워크로드에 적용할 인스턴스를 검토하고 있다면, 이들 인스턴스 중 하나를 선택한다면 높은 가성비를 얻을 수 있다.  범용 인스턴스 패밀리 중  ‘T’로 시작하는 인스턴스 타입은 컴퓨팅 리소스의 버스팅(bursting) 기능을 제공한다. 즉 워크로드가 기본 임계값 이하로 작동하는 동안은 CPU 크레딧을 축적하고, 임계값 이상의 워크로드를 처리할 경우에는 축적된 크레딧을 이용하여 기본 성능 이상으로 성능을 확장(버스팅)할 수 있도록 설계되었다. ‘T’ 타입의 인스턴스는 기본적으로 vCPU의 개수가 8 이하이며, 메모리 용량도 32GB 이하인 저사양 인스턴스이다. 물론 가격도 다른 인스턴스에 비해 상대적으로 매우 저렴하다. 따라서 간단한 테스트를 클라우드 환경에서 수행하거나, 단순한 여러 가지 범용 애플리케이션을 수행하는데 적합한 인스턴스라 할 수 있다. ‘T’ 타입의 인스턴스 또한 인텔, AMD, 그래비톤 프로세서 기반으로 제공되고 있다. 맥OS를 탑재한 ‘Mac’ 인스턴스도 이 카테고리 범주에 속한다. 지난 5월호에서 EC2 인스턴스가 맥OS도 지원한다고 소개한 바 있는데, 바로 이 인스턴스가 맥OS를 지원한다. 이 인스턴스는 아이폰, 아이패드 등 애플 디바이스용 애플리케이션의 개발, 구축, 테스트 등에 활용할 수 있는 인스턴스이다. 참고로 이 인스턴스는 인텔 프로세서(3.2GHz 인텔 8세대(커피레이크) 코어 i7) 기반으로 이미 출시되었으며, 2021년 말 AWS 리인벤트(re:Invent)를 통해 인텔이 아닌 Arm을 기반으로 하는 M1 프로세서를 탑재한 신규 Mac 인스턴스 또한 프리뷰(preview) 형태로 출시되었다.    컴퓨팅에 최적화된 인스턴스 두 번째로 소개할 인스턴스 유형은 컴퓨팅에 최적화된 인스턴스 타입이다. 6월호의 ‘EC2 인스턴스 표기법’에서 소개한 것처럼, 일반적으로 컴퓨팅에 최적화된 인스턴스는 ‘C’로 시작하는 인스턴스 타입이다. 여기서 ‘C’는 ‘Computing’의 약자이다.  이 타입의 인스턴스는 다른 인스턴스 패밀리에 비해 상대적으로 많은 vCPU(virtual CPU)를 포함하고 있다.  CAE와 같이 부동 소수점 연산이 많이 필요한 고성능 컴퓨팅 워크로드(HPC)에 대해 특별한 요구 사항이 없다면, 기본적으로 고객에게 가장 많이 추천하는 인스턴스 타입이 바로 ‘C’로 시작하는 인스턴스 타입이다. 특히 고성능 컴퓨팅에 적합한 인스턴스는 ‘C’ 타입 이외에도 여러 종류를 검토할 수 있다. 우선 고성능 컴퓨팅의 워크로드는 <그림 1>처럼 크게 4개의 타입으로 구분할 수 있다.   그림 1. 고성능 컴퓨팅 워크로드에 사용되는 대표적인 EC2 인스턴스
작성일 : 2022-07-01
[포커스] AWS, “아이디어를 현실로 만드는 클라우드 인프라의 시대가 왔다”
아마존웹서비스(AWS)는 지난 5월 10~11일 연례 기술 콘퍼런스인 ‘AWS 서밋 코리아 2022’를 진행했다. 이 자리에서 AWS는 폭넓은 분야에서 디지털 혁신을 뒷받침하기 위한 클라우드 기술의 폭과 깊이를 더하겠다는 전략과 함께, 자사의 다양한 서비스 개발 방향 및 국내 산업분야의 적용사례 등을 소개했다. ■ 정수진 편집장   비즈니스 혁신 위한 클라우드의 성장세 이어간다 새로운 클라우드 기술과 성공사례를 소개하는 AWS 서밋(AWS Summit)은 올해로 8회째를 맞은 AWS의 연례 글로벌 콘퍼런스로, 국내서는 2015년 첫 시작됐다. AWS코리아의 함기호 대표는 “AWS 서비스의 발전은 클라우드 서비스에 대한 고객의 니즈와 기대가 높아졌기 때문이라고 보고 있으며, AWS는 투자와 지원을 이어가고 있다”면서, “이번 서밋은 클라우드 통한 비즈니스 혁신에 대한 고객들의 높은 관심을 반영하고자 했으며, 산업/기술 주제별로 90여 개의 강연 및 40여 개 고객사의 AWS 솔루션 도입 경험과 성공사례를 소개했다”고 전했다. AWS의 맷 우드(Matt Wood) 비즈니스 애널리틱스 담당 부사장은 기조발표에서 “IT 인프라와 소프트웨어를 구매하고 직접 업데이트 및 관리하는 시대는 지났다”고 선언했다. 클라우드 플랫폼에 새로운 기능이 빠르게 추가되고 있으며, 많은 기업과 공공영역에서 클라우드 서비스로 제공되는 탄력적 인프라를 사용해 혁신 제품을 구축하고 있다는 것이다. 우드 부사장에 따르면 AWS는 컴퓨팅과 데이터베이스부터 로보틱스, 머신러닝, VR(가상현실)/AR(증강현실), 애널리틱스 등 200개 이상의 서비스를 제공하고 있으며, 작년 한 해에만 3084개의 신규 서비스 및 기능을 플랫폼에 탑재시켰다. 이렇게 클라우드 서비스의 폭을 넓히면서 AWS는 아이디어를 실행하고 성과를 얻는 과정까지 빠르고 매끄럽게 이어질 수 있도록 지원한다는 전략이다. 또한, 아이디어를 실현하는 엔진의 역할을 할 수 있도록 개별 서비스의 기능도 깊이를 더하겠다는 것이 AWS의 설명이다. AWS는 국내서도 클라우드 시장에서 성장세를 이어간다는 계획이다. AWS는 지난 2016년 전세계 12번째로 서울 리전(region)을 개설한 이후 2019년과 2020년에는 세 번째와 네 번째 가용영역(Available Zone : AZ)을 개설했다. 서울 리전의 경우 개설 초기 24개 서비스로 시작해 현재는 160여 개의 서비스를 제공하고 있다. AWS 코리아에 따르면, 현재 국내의 AWS 활성 고객사는 수만 개이며, 파트너사는 1000여 개로 늘었다.   ▲ AWS의 맷 우드 부사장은 아이디어를 현실로 구현하도록 돕는 클라우드 서비스와 기능을 꾸준히 확대하고 있다고 소개했다.   디지털 전환의 밑거름은 데이터 이번 AWS 서밋에서 AWS는 자사의 다양한 클라우드 서비스를 소개했다. 우드 부사장은 “모든 산업에 걸쳐 클라우드에서 재창조(reinvention)가 일어나고 있으며, 모든 디지털 전환 사례가 데이터를 바탕으로 가속화되고 있다”면서, 데이터에 기반한 비즈니스 의사결정을 강조했다. 지속 성장이 가능한 비즈니스를 구축하기 위해 비즈니스의 주변 환경을 이해하는 것부터 시작해, 활용 가능한 데이터를 어떻게 의사결정에 활용할 것인지까지 전체적 관점에서 측정해야 한다는 것이다. AWS는 관계형 데이터베이스 시스템인 오로라(Amazon Aurora)를 통해 데이터의 구조를 최대한 활용하고, 데이터의 종류에 대한 정보를 최대한 활용할 수 있다는 점을 내세웠다. 오로라를 통해 데이터 저장소를 구축하면 데이터 관리 비용 및 데이터의 지연 시간을 줄이며, 데이터 기반 예측의 정확도를 높일 수 있는 것이다. AWS는 오로라로 더 나은 관계형 데이터베이스를 구축할 수 있으며, 상용 데이터베이스 수준의 보안, 성능, 가용성에 오픈소스 데이터베이스의 장점을 결합하는 등의 노력을 통해 2017년 이후 오로라의 사용량이 10배 이상 늘었다고 소개했다. 또한, 레드시프트(Amazon Redshift)는 엔터프라이즈용 데이터 웨어하우스를 단일 서비스로서 일반 사용자에게 제공한다. 레드시프트는 데이터 공유, 기계학습 기능 추가와 함께 쿼리 연동 기능, 하드웨어 가속기, 서버리스 기능 등을 제공하고 있다.   머신러닝의 성숙도 높이는 기술 및 교육 제공 한 곳에 모은 데이터를 유용한 정보로 변환해 지식을 축적할 수 있도록 지원하는 데이터 레이크(data lake)도 AWS의 관심사 중 하나이다. 이러한 데이터의 활용분야 중 하나가 빅데이터 기반의 머신러닝(ML)이다. 많은 고객들이 데이터 수집 및 분석에 기계학습을 통한 예측 분석을 활용하면서 디지털 전환을 추진하고 있다. AWS는 주요한 딥러닝 라이브러리에 대한 지원, 모델 훈련용 GPU 제공. 훈련된 모델을 애플리케이션에 임베드할 수 있는 서비스 제공 등을 통해 폭넓은 머신러닝 기능을 제공하고 있다고 소개했다. 머신러닝은 클라우드에서 딥러닝 학습이 가능해지면서 몇 년 새 기술 성숙도 또한 높아졌다. API(애플리케이션 프로그래밍 인터페이스)를 통해 다양한 애플리케이션과 머신러닝의 결합도 가능해졌다. AWS는 클라우드 서비스뿐 아니라 머신러닝 기반의 맞춤형 칩을 개발해 머신러닝 모델의 훈련 및 예측 지연 시간을 줄일 수 있다는 점을 내세웠다. Arm 아키텍처 기반으로 AWS가 개발한 범용 CPU 그래비톤(Graviton)은 현재 3세대까지 출시했는데, 높은 효율성과 파워를 제공하면서 범용 워크로드에서 가성비를 높인 것이 특징이다. 한편, 우드 부사장은 “2025년까지 2900만 명의 머신러닝 개발자를 트레이닝하는 것이 목표”라고 밝히기도 했다.   클라우드를 더욱 다양하게 활용하도록 지원 우드 부사장은 “거의 모든 산업에서 수백만 고객이 AWS를 사용하고 있는데, 이들 고객은 초기에는 비용 절감을 위해 클라우드를 도입하기 시작했지만 점차 더 큰 이점을 발견하고 있다”고 전했다. 마이크로서비스 아키텍처(MSA)는 컨테이너 형태의 작은 서비스를 결합하는 인프라 구조인데, 이는 코딩 작업 없이 애플리케이션이나 서비스를 구축하고 빠르게 출시할 때 유용하다는 것이 AWS의 설명이다. 또한, AWS는 나이트로(AWS Nitro)를 통해 다양한 서비스의 효율을 높일 수 있는 전용 소프트웨어와 하드웨어를 제공한다. 나이트로는 1대 또는 여러 대의 서버를 관리 위한 하이퍼바이저(hypervisor)를 대체해 대규모의 인프라를 관리할 수 있으며, 다양한 목적에 맞게 최신 프로세서를 포함한 500개 이상의 컴퓨팅 인스턴스 타입을 제공한다. 한편, AWS는 지역별 대규모 데이터센터인 리전뿐만 아니라 다양한 에지(edge) 환경에서 자사의 애플리케이션을 구동할 수 있도록 확장하고 있다. 이를 통해 AWS 서비스를 더욱 적은 비용으로 손쉽게 구축하고 빠르게 활용할 수 있다는 것이 AWS의 설명이다.   ▲ 마이크로서비스 아키텍처로 빠르게 구현한 삼성엔지니어링의 데이터 플랫폼   스마트 제조를 위한 클라우드 활용사례 소개 이번 AWS 서밋에서는 클라우드의 메가트렌드와 함께 금융, 리테일, 제조 및 하이테크, 미디어 통신, 공공 부문 등 국내 여러 산업영역에서 AWS 클라우드를 활용한 사례가 폭넓게 선보였다. 이 가운데 제조 산업에서는 ▲머신러닝을 활용한 생산 효율 향상 ▲사물인터넷(IoT) 플랫폼 구축 ▲MSA를 통한 플랜트 설계 환경 혁신 ▲비전 검사 체계 개선으로 스마트 공장 구현 ▲디바이스 빅데이터 분석 플랫폼 구축 등의 내용이 소개됐다. 한국타이어테크놀로지는 글로벌 공급 네트워크에 걸쳐 효율적인 재고 보충 및 안정적인 공급을 위한 수요계획 수립이 필요했는데, 전통적인 예측 방식으로 다양한 변수를 적용해 정확하게 수요를 예측하는데 어려움을 겪었다. 최적의 SCM 운영으로 효율을 높이고자 한 머신러닝을 수요예측에 적용하기 위해 한국타이어테크놀로지는 AWS의 프로토타이핑(Prototyping)을 통해 서비스 구축의 타당성을 검증하는 작업을 빠르게 진행했다. 또한, SCM 서버의 데이터 생성 - 데이터 전처리 - 데이터 저장/훈련/추론 - 예측 결과의 후처리 - 결과 데이터 전달까지 전체 프로세스를 빠르게 구축할 수 있었다. 코웨이는 정수기와 공기청정기 등 다수의 제품을 연결하기 위한 IoT 플랫폼을 AWS 구축 기반으로 구축했다. 기존 IoT 플랫폼을 AWS로 마이그레이션하는 과정을 몇 달만에 완료했는데, 서버리스 아키텍처를 채택해 리소스를 줄이면서, 프로젝트 운영의 안정성을 확보할 수 있었다. AWS 코리아는 “IoT 솔루션은 에지 디바이스, 통신, 네트워크, 서버, 데이터 분석까지 다양한 영역의 고민이 필요하다. AWS는 지속적인 변경 관리, 개선 부담을 덜 수 있는 디바이스 연결 및 관리, 데이터 저장/분석을 위한 솔루션 등을 폭넓게 제공한다. 또한, 인공지능/머신러닝과 통합해 인텔리전트 IoT 솔루션을 구축하도록 지원한다”고 설명했다. 삼성엔지니어링은 석유화학 플랜트를 개발하는 과정에서 도면이나 문서에 기반한 커뮤니케이션 대신 3D 모델과 해석 모델 및 도면 사이에 정합성을 확보하는 방식의 개발 체계 전환을 진행했다. 데이터를 기반으로 설계 작업을 자동화 및 효율화하는 것뿐 아니라 개발 과정의 데이터를 분석해 AI 모델을 생성하고 복잡한 문제를 해결할 수 있도록 하는 것이 핵심인데, 이런 데이터 플랫폼을 만들기 위해 삼성엔지니어링은 MSA에 주목했다. 새로 개발하는 시스템뿐 아니라 기존 시스템까지 잘 연결되는 것이 중요했기 때문에, 삼성엔지니어링은 서비스를 적절한 크기로 쪼개 개발하고 느슨하게 연결하는 방향을 설정했다. 그리고 각 애플리케이션이 공유하는 서비스는 중앙에서 일괄 개발하고, 각 앱은 이에 더해 개별 기능만 구현 및 관리하는 방식으로 전체 개발 시간과 비용을 절감할 수 있었다. 개발해야 하는 서비스가 줄면서 서비스 품질 향상 및 운영/유지보수의 효율화라는 효과도 얻었다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2022-06-02
몽고DB, AWS와 글로벌 협업 확대
몽고DB가 아마존웹서비스(Amazon Web Services, 이하 AWS)와 전략적 협업 계약을 다년 간으로 대폭 확대한다고 발표했다. 이번에 체결되는 6년 계약을 통해 몽고DB와 AWS는 광범위한 사업 계획을 수립했다. 계약 내용은 공동 고객이 더 수월하게 클라우드 채택 여정을 진전시킬 수 있도록 지원하는 것이다. 구체적으로는 영업 및 마케팅을 통합한 시장 진출 활동, 개발자 관련 활동 공유를 통한 개발자 교육과 개발자의 역량 강화, 양사의 기술 통합, AWS 기반 몽고DB 아틀라스(MongoDB Atlas on AWS)로의 온프레미스 워크로드를 원활하게 해 주는 커머셜 인센티브가 포함된다. 이 계약은 현재 체결된 몽고DB와 AWS의 다년 계약 관계를 토대로 체결된다. 목적은 AWS 기반 몽고DB 아틀라스의 고객 채택을 높이는 것이다. 고객 경험을 더욱 개선하려는 노력의 일환으로 몽고DB와 AWS는 영업, 고객 지원, 솔루션 아키텍처, 마케팅, 그 밖의 영역에서 협업하여 전 세계의 AWS 개발자들에게 몽고DB 아틀라스를 통한 전례 없는 경험을 제공하기로 합의했다. 여기에는 구체적으로는 워크로드 마이그레이션 인센티브 제고와 툴 개선을 통해 고객이 레거시 기술에서 또는 온프레미스 데이터센터에서 AWS 기반 몽고DB 아틀라스로 이동할 수 있도록 지원하는 일이 포함된다. 또한 몽고DB와 AWS는 서버리스, AWS 그래비톤(AWS Graviton) 프로세서, AWS 아웃포스트(AWS Outposts) 같은 영역에서 공동 기능을 제공하여 고객을 지원하기 위해 협업하는 것들이 포함되어 있다. AWS는 최종적으로 이번 파트너십은 몽고DB가 전 세계와 연방정부 위험 및 인증 관리 프로그램(FedRAMP, Federal Risk and Authorization Management Program)의 적용을 받는 미국 공공 부문으로 확장할 수 있도록 지원할 것이라고 전했다.   이러한 노력들은 최근 AWS 리인벤트에서 발표한 협업의 후속조치로, 이러한 노력에는 AWS 마켓플레이스(AWS Marketplace)에서 종량제(Pay-as-you go) 몽고DB 아틀라스 제품 및 아틀라스를 더 쉽게 찾을 수 있도록 지원하는 AWS 매니지먼트 콘솔(AWS Management Console)의 업데이트가 포함된다. 해당 콘솔은 AWS 마켓플레이스를 통한 고객들의 간편한 제품 검색과 구매 경험을 제공하게 될 것이다.   모우디 엘바야디(Moudy Elbayadi) 셔터플라이 CTO는 “몇 년 전 당사는 셔터플라이 전자상거래 플랫폼 전체를 퍼블릭 클라우드로 전환하는 전략적 이니셔티브에 착수했다. 인프라 관리가 복잡해짐에 따라 전반적인 비용이 많이 소모되면서 당사의 혁신 능력을 갉아먹고 있다는 사실을 깨달았기 때문이다. AWS에서 몽고DB 아틀라스를 활용한 결과 당사 플랫폼의 탄력성이 높아졌을 뿐 아니라 애플리케이션의 전반적인 성능도 개선되었다. 덕분에 당사 플랫폼은 특정 계절에 최대 수요가 몰려드는 성수기 동안 유연하게 확장할 수 있었다. 또한 당사 데이터베이스 관리와 차별화된 일상적인 업무 부담을 덜어낼 수 있어 재능있는 직원들이 개인화된 고객 경험을 구축하여 고객 만족도를 높이는데 전념할 수 있게 되었다"라고 말했다.   몽고DB는 AWS의 글로벌 서비스망을 활용하여 데이터베이스 서비스 성능을 향상시키고 고객이 전 세계 어디서나 애플리케이션을 저장하고 액세스하며 구축할 수 있도록 지원한다. 이러한 협업의 일환으로 몽고DB는 AWS 마켓플레이스를 활용하여 고객이 AWS에서 몽고DB 아틀라스를 운영 및 지원하고 세계적인 규모의 가용성과 뛰어난 성능, 개인정보 보호 기준을 충족하는 높은 보안 수준을 갖춘 애플리케이션을 구축할 수 있도록 지원한다. AWS 기반 몽고DB 아틀라스는 광범위한 AWS 서비스와 연계하여 고객이 광범위한 분석 접근 방식으로 데이터를 분석하고 머신러닝(ML)과 사물인터넷(IoT)에 첨단 서비스를 통합할 수 있도록 지원한다.   앨런 차브라(Alan Chhabra) 몽고DB 월드 와이드 파트너 부문 부사장은 “개발자가 개발자를 위해 설계한 몽고DB는 여러 지역, 여러 클라우드, 여러 배포 유형에 걸쳐 있는 애플리케이션 데이터 플랫폼을 제공한다. 그럼으로써 트랜잭션 워크로드와 최신 애플리케이션의 데이터 과제를 해결한다. AWS와의 협업을 지속적으로 확대함에 따라 다양한 산업의 더 많은 고객이 몽고DB 아틀라스를 통해 차세대 애플리케이션 활용을 추진할 수 있게 될 것이다”라고 덧붙였다.   루바 보르노(Ruba Borno) AWS 월드와이드 채널 및 얼라이언스 부분 부사장은 “몽고DB 수년 동안 AWS의 고객이자 신뢰할 수 있는 파트너였다. 몽고DB는 AWS의 광범위하고 심층적인 기능, 입증된 운영 성능 및 보안을 활용하여 기업이 소프트웨어와 데이터를 클라우드로 더 빠르게 이동하는 동시에 원활한 사용자 경험을 보장할 수 있도록 지원해왔다. AWS에서 몽고DB 아틀라스를 실행하여 고객에게 더 풍부한 애플리케이션 개발자 경험을 제공하고 고객이 데이터를 더 잘 활용할 수 있도록 지원한다. 몽고DB는 혁신을 추진하고 안정성을 향상시키며, 프라이빗 또는 퍼블릭 분야의 스타트업이든 대기업이든 또는 민간 및 공공 부문이든 관계없이 모든 고객이 클라우드를 통한 데이터 중심 조직으로 거듭날 수 있도록 지원할 것이다”라고 밝혔다.
작성일 : 2022-03-17
[포커스] AWS, “모든 컴퓨팅은 클라우드로 향하고 있다”
‘리인벤트(re:Invent)’는 아마존웹서비스(AWS)의 클라우드 기술과 사례를 폭넓게 소개하는 연례 이벤트이다. 2020년 12월에는 처음으로 온라인에서 리인벤트가 진행되었는데, 3주에 걸쳐 5개의 키노트 및 500여 개의 기술 세션이 라이브 스트리밍과 온디맨드로 진행되었다. 이번 리인벤트에서 AWS는 컴퓨팅, 데이터베이스, 머신러닝 등 거의 모든 IT 인프라를 클라우드에서 구현하기 위한 자사의 비전과 기술 개발 내용을 선보였다. 또한 제조와 플랜트 등 다양한 산업 분야의 디지털 혁신을 위한 전략과 사례도 소개했다. ■ 정수진 편집장   혁신을 위한 플랫폼 제공 AWS의 앤디 재시(Andy Jassy) CEO는 “AWS는 2020년 3분기 460억 달러의 매출을 기록했는데, 이는 전년 동기 대비 29% 성장한 수치이다. 3분기 매출을 비교할 때 2016년 10억 달러, 2018년 20억 달러, 2019년 30억 달러를 돌파했는데 갈 수록 성장폭이 커지고 있다는 것을 알 수 있다”고 자사의 성장세를 소개했다. 또한, “AWS뿐 아니라 클라우드의 진전이 코로나19의 글로벌 팬데믹으로 더욱 빨라졌다. 기업이 장기간 지속하는 것은 더욱 어려워지고 있으며, 이런 상황에서 기업의 생존과 성장을 위해 중요한 것은 가용성을 가진 기술과 올바른 문화의 리인벤션(reinvention : 재발명)”이라고 강조했다. 이와 함께, 리인벤션을 위해 폭넓은 역량과 툴을 갖춘 플랫폼을 선택해야 한다면서 자사의 강점을 설명했다.  “AWS는 모든 카테고리에서 경쟁사보다 훨씬 많은 기능을 사용할 수 있다. 이를 통해 기존 앱을 클라우드로 마이그레이션이나 전사적으로 클라우드를 적용하는 과정을 손쉽게 할 수 있다. 공격적인 톱다운 목표로 모든 것을 통합하고 있으며, 운영의 성숙도 역시 앞서 있다”는 것이 재시 CEO의 설명이다.   ▲ AWS의 앤디 재시 CEO는 “클라우드의 도입과 활용 속도가 코로나19 이후 빠르게 늘고 있으며, AWS 또한 성장세를 이어가고 있다”고 소개했다.   클라우드를 위한 폭넓은 기술 업데이트 재시 CEO는 키노트에서 컴퓨팅, 데이터, 머신러닝 등 세 영역을 중심으로 AWS의 클라우드 역량과 새로운 서비스를 폭 넓게 소개했다.   컴퓨팅 AWS의 컴퓨팅 서비스인 EC2는 고성능/메모리/스토리지에 중점을 둔 다양한 인스턴스를 추가하는 한편 머신러닝을 위한 인스턴스, 그래픽 워크로드를 위한 인스턴스 등 사용 목적에 맞는 클라우드 컴퓨팅 플랫폼을 제공한다는 점을 내세우고 있다. 또한 인텔, AMD, Arm 등 다양한 CPU 아키텍처를 지원하는 한편으로 가격대비 성능을 높이기 위해 자체 칩 개발에도 나서고 있다.  AWS는 지난 2015년 ‘안나푸르나 랩스(Annapurna Labs)’를 인수한 후 범용 컴퓨팅 인스턴스를 위한 프로세서를 시작으로 다양한 워크로드에 대응하는 프로세서를 개발했다. 2019년 공개한 그래비톤 2(Graviton 2) 프로세서는 모든 워크로드에서 가격 대 성능비를 크게 개선했다는 점을 내세웠으며, 이를 탑재한 신규 인스턴스도 추가했다. 이외에 머신러닝 훈련을 위해 비용효율을 높인 트레이니엄(Trainium) 프로세서를 2021년 선보일 계획이다. 애플리케이션과 실행 환경을 하나의 패키지로 만드는 ‘컨테이너(container)’는 클라우드의 주요 기술 중 하나로 꼽힌다. AWS는 쿠버네티스 기반의 EKS, 다중 컨테이너 조율을 위한 ECS, 서버리스 컴퓨팅을 위한 파게이트(AWS Fargate) 등 다양한 컨테이너 서비스를 내세우고 있다. 재시 CEO는 리인벤트 2020에서 여전히 선호도가 높은 온프레미스와 클라우드의 연결을 위해 온프레미스 데이터센터에서 클라우드와 동일하게 사용할 수 있는 ECS 애니웨어(Amazon ECS Anywhere)와 EKS 애니웨어(Amazon EKS Anywhere)를 선보였다. 그리고 서버리스 컴퓨팅 플랫폼인 람다(AWS Lambda) 기반 앱을 기존 컨테이너 기반 워크플로에서 개발할 수 있는 서비스도 소개했다.   데이터베이스 시간당 생성되는 데이터가 20년 전 1년간 만들어진 데이터보다 많아졌다. 그리고 앞으로 3년간 만들어지는 데이터는 지난 30년간 쌓인 데이터보다 많을 것으로 보인다. 재시 CEO는 “데이터베이스는 모든 애플리케이션과 서비스의 중심에 있지만 여전히 관리하기 어렵다”면서, ‘데이터의 리인벤트’를 위한 기술도 소개했다. AWS의 관계형 데이터베이스 서비스(RBS)인 오로라(Amazon Aurora)는 오픈소스 데이터베이스와 호환성을 통해 상용 DB 대비 비용 절감이 가능하다는 점을 내세웠고, 지금은 10만 개 이상의 고객사를 확보하고 있다. 여기에 서버리스 아키텍처에서 활용할 수 있는 오로라 서버리스(Amazon Aurora Serverless)도 선보였다. 리인벤트 2020에서 소개된 오로라 서버리스 V2는 1초 이내에 수백에서 수천 회의 트랜잭션 스케일업이 가능하고, 프로비저닝 비용을 줄일 수 있게 했다.  이외에도 AWS는 postgreSQL 데이터베이스를 코드를 거의 바꾸지 않고 오로라로 옮길 수 있는 서비스 및 데이터 레이크 안의 다양한 DB 사이에 데이터를 옮길 수 있는 글루 엘라스틱 뷰(AWS Glue Elastic Views) 등의 신규 서비스를 소개했다.   머신러닝 점차 많은 기업이 머신러닝을 도입하고 있지만, 재시 CEO는 여전히 머신러닝이 초기 단계에 있다고 보았다. 그러면서, 머신러닝의 개발과 최적화, 적용을 위한 AWS의 기술을 소개했다. 아마존 세이지메이커(Amazon SageMaker)는 개발자와 데이터 과학자가 머신러닝 모델을 개발하고 훈련시킬 수 있게 하는 서비스이다. 여기에 더해 AWS는 머신러닝 모델이 이해할 수 있는 형식으로 다양한 정보를 빠르게 변환하는 세이지메이커 데이터 랭글러(Amazon SageMaker Data Wrangler), 머신러닝 피처의 공유·보관·업로드를 지원하는 세이지메이커 피처 스토어(Amazon SageMaker Feature Store), 머신러닝을 위한 데이터 워크플로의 개발을 돕는 세이지메이커 파이프라인(Amazon SageMaker Pipelines) 등의 서비스를 소개했다.  재시 CEO는 “모델 구축을 직접 하지 않고 머신러닝을 활용하려면 비전 인식, 텍스트 추출, 검색, 챗봇, 번역, 자연어 처리 등 AWS의 AI 서비스를 활용할 수도 있다. 심지어 기술에 대한 고민 없이 머신러닝의 이점을 누리고 싶다면, 머신러닝 탑재형 클라우드 BI(비즈니스 인텔리전스) 서비스인 퀵사이트(Amazon QuickSight)나 자연어 질의를 빠르게 처리할 수 있는 퀵사이트 Q(Amazon QuickSight Q) 등의 서비스를 사용할 수 있다”고 소개했다.   모든 영역에서 리인벤션이 일어나고 있다 재시 CEO는 “클라우드와 머신러닝은 콜센터, 헬스케어, 미디어, 제조, 컴퓨터 비전 등 모든 분야에서 리인벤션을 가져오고 있다”면서, 자사의 폭넓은 서비스 포트폴리오를 소개했다. 이 가운데 제조산업에 대해서는 설계/생산 공정의 변화, 공급망의 변화, 제품의 변화 등에 맞춰 AWS 기반의 리인벤션을 제시하고 있다. “공장 운영에 머신러닝을 도입하면 데이터 기반의 예측정비를 통해 시간과 비용을 아낄 수 있다”는 것이 재시 CEO의 설명이다. 같이 보기 : [케이스 스터디] EPC 산업의 혁신을 위한 스마트 플랜트 리인벤트 2020에서 소개한 신규 서비스 가운데 모니트론(Amazon Monitron)은 아마존의 산업용 IoT(사물인터넷) 솔루션과 연계해 공장의 장비를 엔드 투 엔드로 모니터링하는 서비스로, 장비의 센서 데이터를 클라우드로 보내는 게이트웨이와 모니터링을 위한 모바일 앱을 제공한다. 룩아웃 포 이큅먼트(Amazon Lookout for Equipment)는 소음, 진동, 온도를 기준으로 산업용 장비의 상태를 판단하기 위한 위한 머신러닝 모델을 구축할 수 있는데, 이를 통해 장비의 예측정비를 지원한다.    ▲ AWS의 모니트론은 산업 장비를 IoT로 모니터링하고 예측정비에 도움을 줄 수 있는 솔루션이다.   한편, 재시 CEO는 “AWS는 대부분의 기업들이 자체 데이터센터를 운영하지 않는 시점이 올 것으로 전망했다. 컴퓨팅은 결국 클라우드로 이전하겠지만 일부 워크로드는 온프레미스가 유리하기도 하다”면서, “AWS는 클라우드를 중심으로 온프레미스와 다리를 놓을 수 있는 기술을 준비해 왔다”고 소개했다.  2019년 출시된 아웃포스트(AWS Outposts)가 대표적이다. 아웃포스트는 AWS 서비스가 탑재된 서버를 회사의 서버 랙에 설치해, 온프레미스로 AWS 서비스를 사용할 수 있게 한다. AWS가 배송, 설치, 유지보수를 맡게 된다. 리인벤트 2020에서 AWS는 1U(높이 1.75인치) 및 2U(높이 3.5인치) 크기의 아웃포스트 제품이 새롭게 선보였다.  AWS는 2019년 미국 로스앤젤레스에 ‘AWS 로컬 존’이라는 소규모의 리전을 추가해 속도 지연을 줄여 왔다. 이 로컬 존이 이번에 보스턴, 휴스턴, 마이애미에도 추가되었고, 2021년에는 미국 내 12개 주요 도시에 추가될 예정이다. 웨이브렝스(AWS Wavelength)는 5G 통신망을 통해 AWS 인프라와 서비스를 엣지 형태로 제공하기 위한 것이다. AWS는 웨이브렝스가 스마트 공장이나 자율주행, 모바일 게임 등을 위한 네트워크 수요에 대응할 수 있을 것으로 보고 있는데, 국내서는 SK텔레콤과 함께 대전에 웨이브렝스를 설립할 예정이라고 밝혔다.     기사 내용은 PDF로도 제공됩니다.
작성일 : 2020-12-30
Arm, 전자 설계 자동화를 AWS 클라우드로 구현
아마존웹서비스(AWS)는 Arm이 자사의 전자설계 자동화(EDA) 워크로드의 대부분을 포함한 클라우드 사용에 AWS를 활용할 것이라고 발표했다.  Arm은 Arm 네오버스(Neoverse) 코어를 사용한 그래비톤 2(Graviton 2) 기반 인스턴스를 활용해 EDA 워크로드를 AWS로 마이그레이션하고 있으며, 반도체 설계 검증의 연산 집약적인 작업에 온프레미스 데이터센터 대신 클라우드를 사용하게 되었다. 검증을 보다 효율적으로 수행하기 위해 Arm은 클라우드를 사용하여 실제 컴퓨팅 시나리오의 시뮬레이션을 실행하며, AWS의 사실상 무제한인 스토리지와 고성능 컴퓨팅 인프라를 활용해 동시 실행할 수 있는 시뮬레이션 수를 확장한다. AWS 클라우드로 마이그레이션을 시작한 이후 Arm은 AWS 클라우드에서 EDA 워크플로의 성능 시간을 6배 향상했다. 또한, AWS 클라우드에서 텔레미터링(원격 소스로부터 데이터 수집 및 통합)과 분석을 실행함으로써, Arm은 전사적으로 워크플로 효율성을 높이고 비용과 자원을 최적화하는데 도움이 되는 보다 강력한 엔지니어링, 비즈니스 및 운영 통찰력을 창출하고 있다. Arm은 AWS로 마이그레이션을 완료함에 따라 궁극적으로 글로벌 데이터 센터 풋프린트를 최소 45% 줄이고 온프레미스 컴퓨팅을 80% 줄일 계획이다. 고도로 특수화된 반도체 소자는 각 칩마다 최소 공간에서 최대 성능을 발휘하도록 고안된 한 자릿수 나노미터 수준(사람의 머리카락 너비보다 10만 배 더 작음)으로 설계된 수십억 개의 트랜지스터가 포함될 수 있다. EDA는 이러한 극한 엔지니어링을 가능하게 하는 핵심 기술 중 하나이다. EDA 워크플로는 복잡하며 프론트엔드 설계, 시뮬레이션 및 검증뿐 아니라 타이밍 및 전력 분석, 설계 규칙 검사, 칩 생산 준비를 위한 기타 애플리케이션을 포함하는 더 큰 규모의 백엔드 워크로드를 포함한다.  고도로 반복적인 워크플로로 인해, 보통 시스템 온 칩(SoC)과 같은 새로운 장치를 만드는 데에는 수개월 또는 심지어 수년이 걸리며 엄청난 컴퓨팅 파워를 수반한다. 이러한 워크로드를 온프레미스로 실행하는 반도체 기업은 여러 프로젝트를 동시에 진행하기 위해 끊임없이 비용, 일정 및 데이터 센터 리소스를 조정해야 한다. 결과적으로 이들 기업은 컴퓨팅 파워 부족으로 진행 속도를 늦추게 되거나, 유휴 컴퓨팅 용량 유지 비용을 부담하게 된다. Arm은 EDA 워크로드를 AWS로 마이그레이션함으로써 전통적 방식으로 관리되는 EDA 워크플로의 제약을 극복하고 대규모 확장 가능한 컴퓨팅 파워를 통해 탄력성을 확보하여, 동시 시뮬레이션 실행, 텔레미터링 및 분석 단순화, 반도체 설계에 필요한 반복 시간 단축, 납기 일정에 영향을 미치지 않고 테스트 주기 추가 등이 가능해졌다.  Arm은 아마존 엘라스틱 컴퓨트 클라우드(Amazon EC2)를 활용하여 다양한 종류의 특수 Amazon EC2 인스턴스 유형에서 EDA 워크플로를 최적화함으로써 비용과 일정을 간소화한다. 예를 들어 AWS 그래비톤2 기반 인스턴스로 고성능과 확장성을 확보함으로써, 수십만 대의 온프레미스 서버를 실행하는 것보다 비용 효율적인 운영이 가능하다. Arm은 머신러닝을 활용해 특정 워크로드에 최적의 Amazon EC2 인스턴스 유형을 추천하는 서비스인 AWS 컴퓨트 옵티마이저(AWS Compute Optimizer)를 통해 워크플로 간소화를 돕는다. 비용 이점 외에도 Arm은 AWS 그래비톤2 인스턴스의 고성능을 활용하여 엔지니어링 워크로드의 처리량을 증가시킴으로써, 이전 세대인 x86 프로세서 기반 M5 인스턴스 대비 달러당 처리량을 40% 이상 지속 향상시켰다. 또한 Arm은 AWS 파트너인 데이터브릭스(Databricks)의 서비스를 이용하여 클라우드에서 머신러닝 애플리케이션을 개발하고 실행한다. Amazon EC2에서 실행되는 데이터브릭스 플랫폼을 통해 Arm은 엔지니어링 워크플로의 모든 단계에서 데이터를 처리하여, 회사의 하드웨어 및 소프트웨어 그룹을 위한 실행 가능한 통찰력을 얻고 측정 가능한 엔지니어링 효율성 향상을 달성할 수 있다. Arm의 르네 하스(Rene Haas) IPG 대표는 "AWS와의 협력을 통해 우리는 엔지니어들이 귀중한 시간을 혁신에 집중할 수 있도록 효율성을 향상시키고 처리량을 최대화하는 데 초점을 맞추고 있다. 이제 Arm 네오버스 기반 프로세서가 장착된 AWS 그래비톤2 인스턴스를 사용해 Amazon EC2에서 실행할 수 있게 되어 엔지니어링 워크플로를 최적화하고 비용을 절감하며 프로젝트 일정을 단축하여, 그 어느 때보다 빠르고 비용 효율적으로 고객에게 강력한 결과를 제공하고 있다"고 말했다. AWS의 피터 드산티스(Peter DeSantis) 글로벌 인프라 및 고객 지원 부문 수석부사장은 "AWS는 차세대 EDA 워크로드에 필요한, 진정으로 탄력적인 고성능 컴퓨팅, 월등한 네트워크 성능 및 확장 가능한 스토리지를 제공하며, 이번 Arm과의 협력으로 고성능 Arm 기반 그래비톤2 프로세서를 실행하는 까다로운 EDA 워크로드를 지원할 수 있게 되어 매우 기쁘다. 그래비톤2 프로세서는 기존 세대인 x86 기반 인스턴스보다 최대 40% 높은 가격 대비 성능 우위를 제공할 수 있다"고 말했다.
작성일 : 2020-12-14