• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " AWS���������"에 대한 통합 검색 내용이 387개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
CAD&Graphics 2023년 12월호 목차
  18 THEME.  제품 개발과 엔지니어링을 혁신하는 디지털 기술 제조업을 위한 생성형 AI 기반의 제품 설계 및 디자인 / 강남우, 신동주 엔지니어링 VDI 환경을 구축하는 클라우드 기반의 원격 스트리밍 서비스 / 조상만 AWS 표준의 eVDI/HPC/CAE 관련 R&D 업무 환경 최적화 서비스 / 김완희 기업의 디지털 트윈 구축과 활용을 돕는 언리얼 엔진 / 진득호   INFOWORLD   Focus 37 CAE 컨퍼런스 2023, ‘CAE 분야의 AI 혁신과 디지털 트윈’ 주제로 최신 인사이트 공유 40 크레아폼, 휴대용 3D 스캐너로 정밀한 제조 데이터 획득과 활용 지원 42 제조산업의 디지털 전환과 AI 전략 소개한 덱스콘 2023 개최 44 부천국제금형콘퍼런스, 지능화를 통한 금형산업의 혁신 전략 짚다 46 뿌리산업의 미래 짚어보는 2023 뿌리산업 미래융합기술전시회 및 한국금형비전포럼 개최 48 경희대, “건축 설계 평가에 AI 도입해 정확성과 신뢰성 높인다”   People&Company 49 지멘스 디지털 인더스트리 소프트웨어 댄 스테이플 이사 AI·클라우드 강화한 솔리드 엣지 2024로 중소기업의 디지털 전환 돕는다   New Products 56 산업 분야의 고품질 시각화 위한 리얼타임 3D 솔루션 트윈모션 2023.2   Case Study 52 글로벌 엔지니어링 기업으로 발돋움하는 현대엔지니어링 클라우드의 가상화 기술로 플랜트 설계 인프라 혁신 54 꼭 확인해야 할 인터랙티브 3D 제품 컨피규레이터 네 가지 실시간 시각화 기술로 소비자 요구에 대응하는 마케팅 경험 강화   Column 17 캐드앤그래픽스 창간 30주년… 더불어 도약의 길로 / 최경화 60 CAE, MBSE를 넘어 DBSE로 / 양영진 63 트렌드에서 얻은 것 No.18 / 류용효 2024 트렌드 맵 66 디지털 지식전문가 조형식의 지식마당 / 조형식 챗GPT 대전환의 시대   특별기획 68 캐드앤그래픽스 창간 30주년 축하 인터뷰   80 News 84 New Books   Directory 139 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 86 새로워진 캐디안 2023 살펴보기 (14) / 최영석 캐디안 2023의 3D 객체 그리기 기능 Ⅴ 88 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2024 (8) / 천벼리 리스프 로드하기   Mechanical 91 국내 E-CAD 시장 분석과 전장설계 활용을 위한 제언 (2) / 구형서 E-CAD를 전장 설계에 활용하기 위한 제언 117 제품 개발 혁신을 가속화하는 크레오 파라메트릭 10.0 (7) / 김주현 MBD 사용하기   Reverse Engineering 96 이미지 정보의 취득, 분석 및 활용 (12) / 유우식 입체 이미지 정보의 유혹과 과제 106 포인트셰이프 디자인을 사용한 역설계 사례 / 드림티엔에스 플라스틱 병 스캔 데이터의 역설계 작업 과정   Analysis 111 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (4) / 나인플러스IT 유동 시뮬레이션을 통한 팬의 성능 향상 124 전열 해석 자동화 프로그램 BeHAP의 소개 및 사용법 / 김재원 버스바의 최적 설계 프로세스 단축하기   3D Printing 114 적층제조의 복잡성 해소하는 음함수 상호 운용성 기술의 소개 / 박지민 복잡한 설계 파일 처리 및 메시 없는 3D 프린팅 출력   PLM 136 제조기업의 미래를 위한 PLM 이야기 (10) / 김성희 PLM 시스템 구축의 긴 여정   캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기    
작성일 : 2023-11-29
AWS, 자체 설계한 차세대 프로세서 그래비톤4와 트레이니움2 공개
아마존웹서비스(AWS)는 연례 콘퍼런스 ‘AWS 리인벤트 2023’에서 차세대 자체 설계 칩 제품군인 AWS 그래비톤4(AWS Graviton4)와 AWS 트레이니움2(AWS Trainium2)를 발표했다. 그래비톤4와 트레이니움2는 머신러닝(ML) 트레이닝과 생성형 인공지능(AI) 애플리케이션을 포함한 워크로드에서 개선된 가격 대비 성능과 에너지 효율을 제공한다.  그래비톤4는 기존 그래비톤3 프로세서 대비 최대 30% 향상된 컴퓨팅 성능, 50% 더 많은 코어, 75% 더 많은 메모리 대역폭을 제공해 아마존 EC2(Amazon EC2)에서 실행되는 워크로드에서 가격 대비 성능과 에너지 효율을 높이며, 모든 고속 물리적 하드웨어 인터페이스를 완전히 암호화해 보안성을 높인 것이 특징이다. 그래비톤4는 메모리에 최적화된 아마존 EC2 R8g 인스턴스로 제공돼 고객이 고성능 데이터베이스, 인메모리 캐시, 빅데이터 분석 워크로드의 실행을 개선할 수 있도록 지원한다. R8g 인스턴스는 기존 세대 R7g 인스턴스보다 최대 3배 더 많은 vCPU와 3배 더 많은 메모리로 더 큰 인스턴스 크기를 제공한다. 고객은 이를 통해 더 많은 양의 데이터 처리, 워크로드 확장, 결과 도출 시간 개선, 총 소유 비용 절감을 달성할 수 있다. 그래비톤4 기반 R8g 인스턴스는 현재 프리뷰 버전으로 제공되며, 향후 몇 달 내에 정식 출시될 예정이다.  그래비톤은 아마존 오로라(Amazon Aurora), 아마존 엘라스티캐시(Amazon ElastiCache), 아마존 EMR(Amazon EMR), 아마존 메모리DB(Amazon MemoryDB), 아마존 오픈서치(Amazon OpenSearch), 아마존 RDS(Amazon RDS), AWS 파게이트(AWS Fargate), AWS 람다(AWS Lambda)등 AWS 관리형 서비스에서 지원된다. 현재 AWS는 전 세계적으로 150개 이상의 그래비톤 기반 아마존 EC2 인스턴스 유형을 제공하고 있다. 또한 200만 개 이상의 그래비톤 프로세서를 구축했고, 상위 100대 EC2 고객을 포함해 5만 개 이상의 고객이 애플리케이션의 가격 대비 성능 최적화를 위해 그래비톤 기반 인스턴스를 사용하고 있다.   ▲ 이미지 출처 : AWS 웹사이트 캡처   한편, 트레이니움2는 1세대 트레이니움 칩 대비 최대 4배 빠른 학습 속도를 제공하도록 설계됐으며, 최대 10만 개의 칩으로 구성된 EC2 울트라클러스터(UltraClusters)에 배포할 수 있다. 이를 통해 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 빠르게 학습시키고 에너지 효율을 최대 2배까지 높인다. 트레이니움2는 1세대 트레이니움 칩에 비해 최대 4배 빠른 학습 성능과 3배 더 많은 메모리 용량을 제공하는 동시에, 와트당 성능을 최대 2배까지 개선할 수 있도록 설계됐다. 트레이니움2는 단일 인스턴스에 16개의 트레이니움 칩이 포함된 아마존 EC2 Trn2 인스턴스로 제공될 예정이다. Trn2 인스턴스는 AWS 엘라스틱 패브릭 어댑터(EFA) 페타비트급 네트워킹과 상호 연결되어 고객이 차세대 EC2 울트라클러스터에서 최대 10만 개의 트레이니움2 칩을 규모에 맞게 확장해 최대 65 엑사플롭의 컴퓨팅을 제공하고, 슈퍼컴퓨터급 성능에 온디맨드 방식으로 액세스할 수 있도록 지원한다. 이로써 고객은 기존에는 몇 달이 소요되던 3000억 개 파라미터 규모 LLM의 학습을 단 몇 주 만에 수행할 수 있다. AWS는 “각 칩 세대마다 더 나은 가격 대비 성능과 에너지 효율을 제공하며, 고객에게 AMD, 인텔, 엔비디아 등 타사의 최신 칩이 포함된 칩/인스턴스 조합 외에도 다양한 선택권을 제공해 거의 모든 애플리케이션 또는 워크로드를 아마존 EC2에서 실행할 수 있도록 지원한다”고 설명했다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “고객에게 중요한 실제 워크로드에 집중해 칩을 설계함으로써, AWS는 고객에게 진보한 클라우드 인프라를 제공할 수 있게 됐다”면서, “그래비톤4는 5년 만에 출시한 4세대 칩으로서 광범위한 워크로드를 위해 지금까지 개발한 칩 중 가장 강력하고 에너지 효율적이다. 또한, 생성형 AI에 대한 관심이 급증함에 따라 트레이니움2는 고객이 더 낮은 비용으로 더 빠르게, 그리고 더 높은 에너지 효율로 ML 모델을 훈련할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2023-11-29
엔비디아, AWS와 협력 확대하며 생성형 AI 위한 인프라부터 서비스까지 제공
엔비디아는 아마존웹서비스(AWS)와 전략적 협력을 확대한다고 발표했다. 이번 협력으로 양사는 고객의 생성형 AI(generative AI) 혁신을 위한 최첨단 인프라, 소프트웨어, 서비스를 제공할 수 있도록 지원할 예정이다. 양사는 파운데이션 모델(foundation model) 훈련과 생성형 AI 애플리케이션 구축에 적합한 엔비디아와 AWS의 기술을 결합할 계획이다. 여기에는 차세대 GPU, CPU와 AI 소프트웨어를 갖춘 엔비디아의 멀티노드 시스템부터 AWS의 니트로(Nitro) 시스템 고급 가상화와 보안, EFA(Elastic Fabric Adapter) 상호 연결과 울트라클러스터(UltraCluster) 확장성까지 다양한 기술이 포함된다. AWS는 새로운 멀티노드 NV링크(NVLink) 기술이 적용된 엔비디아 GH200 그레이스 호퍼 슈퍼칩(Grace Hopper Superchips)을 클라우드에 도입한 최초의 클라우드 제공업체가 된다. 엔비디아 GH200 NVL32 멀티노드 플랫폼은 32개의 그레이스 호퍼 슈퍼칩과 엔비디아 NV링크 및 NV스위치(NVSwitch) 기술을 하나의 인스턴스로 연결한다. 이 플랫폼은 아마존 EC2(Elastic Compute Cloud) 인스턴스에서 사용할 수 있다. GH200 NVL32가 탑재된 단일 아마존 EC2 인스턴스는 최대 20TB의 공유 메모리를 제공함으로써 테라바이트 규모의 워크로드를 지원하며, AWS의 3세대 EFA 인터커넥트를 통해 슈퍼칩당 최대 400Gbps의 저지연, 고대역폭 네트워킹 처리량을 제공한다.      그리고, 엔비디아의 서비스형 AI 훈련인 엔비디아 DGX 클라우드(DGX Cloud)가 AWS에 호스팅된다. 이는 GH200 NVL32를 탑재한 DGX 클라우드로 개발자에게 단일 인스턴스에서 큰 공유 메모리를 제공한다. 엔비디아 DGX 클라우드는 기업이 복잡한 LLM(대규모 언어 모델)와 생성형 AI 모델을 훈련하기 위한 멀티노드 슈퍼컴퓨팅에 빠르게 액세스할 수 있도록 지원하는 AI 슈퍼컴퓨팅 서비스이다. AWS의 DGX 클라우드는 1조 개 이상의 파라미터에 이르는 최첨단 생성형 AI와 대규모 언어 모델의 훈련을 가속화하며, 이를 통해 통합된 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어와 함께 엔비디아 AI 전문가에게 직접 액세스할 수 있다. 한편, 엔비디아와 AWS는 세계에서 가장 빠른 GPU 기반 AI 슈퍼컴퓨터를 구축하기 위해 프로젝트 세이바(Project Ceiba)에서 협력하고 있다. 이 슈퍼컴퓨터는 엔비디아의 리서치와 개발팀을 위해 AWS가 호스팅하는 GH200 NVL32와 아마존 EFA 인터커넥트를 갖춘 대규모 시스템이다. 이는 1만 6384개의 엔비디아 GH200 슈퍼칩을 탑재하고 65 엑사플롭(exaflops)의 AI를 처리할 수 있다. 엔비디아는 이 슈퍼컴퓨터를 연구 개발에 활용해 LLM, 그래픽과 시뮬레이션, 디지털 생물학, 로보틱스, 자율주행 자동차, 어스-2(Earth-2) 기후 예측 등을 위한 AI를 발전시킬 계획이다. 이외에도, AWS는 세 가지의 새로운 아마존 EC2 인스턴스를 추가로 출시할 예정이다. 여기에는 대규모 최첨단 생성형 AI와 HPC 워크로드를 위한 엔비디아 H200 텐서 코어(Tensor Core) GPU 기반의 P5e 인스턴스가 포함된다. P5e 인스턴스에 탑재된 H200 GPU는 141GB의 HBM3e GPU 메모리를 제공하며, 최대 3200Gbps의 EFA 네트워킹을 지원하는 AWS 니트로 시스템을 결합해 최첨단 모델을 지속적으로 구축, 훈련, 배포할 수 있다. 또한 G6와 G6e 인스턴스는 각각 엔비디아 L4 GPU와 엔비디아 L40S GPU를 기반으로 하며 AI 미세 조정, 추론, 그래픽과 비디오 워크로드와 같은 애플리케이션에 적합하다. 특히 G6e 인스턴스는 생성형 AI 지원 3D 애플리케이션을 연결하고 구축하기 위한 플랫폼인 엔비디아 옴니버스(Omniverse)를 통해 3D 워크플로, 디지털 트윈과 기타 애플리케이션을 개발하는 데 적합하다. AWS의 아담 셀립스키(Adam Selipsky) CEO는 “AWS와 엔비디아는 세계 최초의 GPU 클라우드 인스턴스를 시작으로 13년 이상 협력해 왔다. 오늘날 우리는 그래픽, 게이밍, 고성능 컴퓨팅, 머신러닝, 그리고 이제 생성형 AI를 포함한 워크로드를 위한 가장 광범위한 엔비디아 GPU 솔루션을 제공한다. 우리는 차세대 엔비디아 그레이스 호퍼 슈퍼칩과 AWS의 강력한 네트워킹, EC2 울트라클러스터의 하이퍼스케일 클러스터링, 니트로의 고급 가상화 기능을 결합해 AWS가 GPU를 실행하기 가장 좋은 환경이 될 수 있도록 엔비디아와 함께 지속적으로 혁신하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 클라우드 워크로드를 혁신하고 가속 컴퓨팅을 다양한 콘텐츠 생성의 기반에 도입하고 있다. 모든 고객에게 비용 효율적인 최첨단 생성형 AI를 제공한다는 목표로, 엔비디아와 AWS는 전체 컴퓨팅 스택에 걸쳐 협력하고 있다. 이로써 AI 인프라, 가속 라이브러리, 기반 모델부터 생성형 AI 서비스를 확장한다”고 전했다.
작성일 : 2023-11-29
AWS, 업무용 생성형 AI 기반 어시스턴트 ‘아마존 Q’ 발표
아마존웹서비스(AWS)가 ‘AWS 리인벤트 2023’ 이벤트에서 업무용으로 설계돼 고객의 비즈니스에 맞춤화할 수 있는 새로운 유형의 생성형 인공지능(AI) 기반 어시스턴트인 ‘아마존 Q(Amazon Q)’를 발표했다. 고객은 아마존 Q를 사용해 긴급한 질문에 대한 관련성 높은 답변을 신속하게 얻고, 콘텐츠를 생성하며, 고객의 정보 저장소(repository)/코드/엔터프라이즈 시스템에 기반한 조치를 취할 수 있다. 생성형 AI 채팅 애플리케이션은 기업 조직의 비즈니스, 데이터, 고객, 운영 및 직원이 수행하는 업무와 상호작용하는 상대, 사용하는 정보와 접근 가능한 정보에 대해 알지 못한다. 또한 처음부터 직원들이 일상 업무에서 안전하게 사용하는 데 필요한 보안 및 개인정보 보호 기능을 갖추고 있지 않다. AWS는 고객이 모든 직원이 생성형 AI의 이점을 최대한 활용할 수 있도록 지원하고자 아마존 Q를 만들었다. 아마존 Q는 직원에게 정보와 조언을 제공해 업무를 간소화하고, 의사결정과 문제 해결을 가속화하며, 업무에서의 창의성과 혁신을 촉진하는 데 도움을 준다. 기업 고객의 엄격한 요구사항을 충족하도록 설계된 아마존 Q는 기존 신원과 역할, 권한에 따라 각 개별 사용자에게 맞게 맞춤형 상호작용을 제공할 수 있다. 또한 아마존 Q는 비즈니스 고객의 콘텐츠를 기반 모델 학습을 위해 사용하지 않는다. 또한, 아마존 Q는 AWS를 기반으로 구축하고, 내부적으로 작업하며, 비즈니스 인텔리전스(BI) 관리와 고객 센터 관리, 공급망 관리를 위해 AWS 애플리케이션을 사용하는 고객에게 생성형 AI 기반의 지원을 제공해, 모든 규모와 산업의 조직이 생성형 AI를 안전하게 사용할 수 있도록 지원한다. 아마존 Q는 개발자와 IT 전문가가 AWS에서 애플리케이션과 워크로드를 구축, 배포, 운영하는 방식을 혁신한다. 고객은 AWS 매니지먼트 콘솔의 대화형 인터페이스, 설명서 페이지, 자체 IDE, 슬랙(Slack) 또는 기타 타사 채팅 앱을 통해 아마존 Q에 액세스할 수 있다. 고객은 AWS 기능에 대해 알아보고, AWS 서비스 작동 방식을 조사하고, 솔루션을 설계하는 가장 좋은 방법을 찾고, 사용 사례에 가장 적합한 서비스를 파악하기 위해 질문함으로써 답변과 지침을 얻을 수 있다. 아마존 Q는 질문에 따라 인용문과 출처 링크가 포함된 간결한 답변을 제공하며, 고객은 후속 질문을 통해 더 자세한 정보를 얻고, 워크로드에 가장 적합한 옵션을 찾고, 시작을 위한 기본 단계에 대한 개요를 받을 수 있다. 한편, 고객은 아마존 Q를 비즈니스 데이터, 정보 및 시스템에 연결해 모든 것을 종합하고 맞춤형 지원을 제공해 직원들이 문제를 해결하고, 콘텐츠를 생성하고, 비즈니스와 관련된 조치를 취할 수 있도록 도울 수 있다. 아마존 S3, 드롭박스, 컨플루언스, 구글 드라이브, 마이크로소프트 365, 세일즈포스, 서비스나우, 젠데스크 등 널리 사용되는 데이터 소스를 위한 40개 이상의 기본 제공 커넥터와 내부 인트라넷, 위키, 런북 등을 위한 사용자 지정 커넥터를 구축할 수 있는 옵션을 통해 아마존 Q를 빠르고 쉽게 시작할 수 있다. 아마존 Q가 연결된 모든 정보를 종합하고 고객이 자체 어시스턴트를 배포할 준비가 되면, 아마존 Q는 직원이 고객의 기존 인증 시스템을 사용해 접근할 수 있는 웹 애플리케이션을 생성한다. 아마존 Q는 인증 시스템을 사용하여 사용자, 역할, 액세스 권한이 있는 시스템을 파악하기 때문에 직원은 세부적이고 미묘한 질문을 하고 해당 사용자가 볼 수 있는 정보만 포함된 맞춤형 결과를 얻을 수 있다. 직원들은 여러 데이터 소스에서 일일이 검색해야 했던 것을 아마존 Q에 질문할 수 있으며, 아마존 Q는 관련 콘텐츠를 종합하여 답변과 소스 링크를 공유한다. 또한 아마존 Q는 일상적인 커뮤니케이션을 간소화해 직원들이 블로그 게시물 생성, 문서 요약, 이메일 초안 작성, 회의 안건 작성과 같은 작업을 할 수 있도록 돕는다. 아마존 Q는 고객이 제공한 소스 자료와 지식에 정확하고 충실한 답변과 인사이트를 제공하며, 고객은 추가 관리 제어를 사용해 전체 주제를 차단하고 키워드를 사용해 질문과 최종 답변을 필터링할 수 있다. 관리자는 특정 직원이나 데이터 소스에 대한 특정 답변을 제한할 수도 있다.  아마존 Q는 현재 프리뷰 버전으로 사용할 수 있으며, AWS는 아마존 Q를 여러 서비스와 애플리케이션에 제공한다고 밝혔다. 여기에는 클라우드용 통합 BI서비스인 아마존 퀵사이트(Amazon QuickSight), 클라우드 고객센터 아마존 커넥트(Amazon Connect), 공급망에 대한 인사이트를 제공하는 AWS 서플라이 체인(AWS Supply Chain) 등이 있다. 아마존 커넥트를 위한 아마존 Q는 현재 사용 가능하며, AWS 서플라이 체인용 아마존 Q는 곧 출시될 예정이다. AWS의 스와미 시바수브라마니안(Swami Sivasubramanian) 데이터 및 AI 부문 부사장은 “데이터 우선 접근 방식과 엔터프라이즈급 보안 및 개인정보 보호를 기본 내장한 아마존 Q는 다양한 데이터 및 비즈니스 애플리케이션을 활용하든, 고객이 작업하는 모든 곳에 생성형 AI를 제공함으로써, 모든 조직에 새로운 가능성을 열어주는 생성형 AI 스택의 애플리케이션 레이어에 강력하게 추가된다”면서, “AWS는 목적에 맞게 구축된 인프라, 도구, 애플리케이션 등 스택의 세 가지 계층 모두에서 솔루션을 통해 고객이 생성형 AI를 활용할 수 있도록 지원하고 있다”고 말했다.
작성일 : 2023-11-29
아마존, “2025년까지 200만 명에게 무료 AI 기술 제공”
아마존은 오는 2025년까지 전 세계 200만 명에게 무료 인공지능(AI) 기술 훈련과 교육을 제공하기 위한 새로운 이니셔티브 ‘AI 레디(AI Ready)’를 발표했다. 아마존은 이를 위해 새로운 AI 분야 학습 과정과 이니셔티브를 개설하고 기존 교육 프로그램을 확장할 계획이다. 아마존은 AI 레디 이니셔티브의 일환으로 성인의 AI 및 생성형 AI 스킬 향상을 지원하기 위한 8개의 새로운 무료 강좌, 온라인 학습 플랫폼 유다시티(Udacity)와 함께하는 새로운 ‘아마존웹서비스(AWS) 생성형 AI 장학금’ 프로그램, 학생들이 생성형 AI에 대해 배울 수 있도록 설계된 코드닷오알지(Code.org)와의 새로운 협력을 발표했다. AWS는 직장에서 근무하고 있는 전문가를 지원하기 위해 누구나 참여할 수 있는 8개의 새로운 무료 AI 및 생성형 AI 교육과정을 발표했다. 수요가 많은 직무에 초점을 둔 신규 교육 프로그램은 기초부터 고급까지, 그리고 기술 전문가부터 비즈니스 리더를 위한 것까지 다양한 과정으로 구성됐다. 이러한 교육 과정은 AWS를 통해 제공되는 80개 이상의 무료 및 저비용 AI 및 생성형 AI 과정과 리소스를 보강한다. 비즈니스 과정 및 비기술 전문가를 위한 과정으로는 ▲생성형 AI의 기본 개념 소개 ▲의사결정자를 위한 생성형 AI 학습 기획 ▲AI 코드 생성기인 아마존 코드위스퍼러(Amazon CodeWhisperer) 소개 등이 있다. 또한, 개발자 및 기술 전문가를 위한 과정으로는 ▲프롬프트 엔지니어링 기초 ▲AWS에서의 로코드(low-code) 머신러닝 ▲AWS에서의 언어 모델 구축 ▲음성을 텍스트로 변환하는 AI 서비스 아마존 트랜스크라이브 시작하기(Amazon Transcribe) ▲아마존 베드록(Amazon Bedrock)을 활용한 생성형 AI 애플리케이션 구축 등이 있다.     이외에도 AWS는 ‘AWS 생성형 AI 장학금’을 통해 전 세계 소외 지역의 고등학생 및 대학생 5만여 명 이상에게 미화 1200만 달러 상당의 유다시티 장학금을 제공한다고 소개했다. 자격을 갖춘 학생은 유다시티에 새롭게 개설된 'AWS와 함께하는 생성형 AI 소개' 과정을 무료로 수강할 수 있다. AWS의 AI 전문가들이 만든 이 강좌는 수강생에게 기본적인 생성형 AI 개념을 소개하고 실습 프로젝트를 안내한다. 과정을 수료한 학생은 유다시티에서 자격증을 받아 향후 취업 시 사용할 수 있다. AWS의 스와미 시바수브라마니안(Swami Sivasubramanian) 데이터 및 AI 담당 부사장은 “혁신 기술인 AI가 지닌 잠재력을 최대한 이끌어내 오늘날 세계가 당면한 난제를 해결하기 위해서는, 배우고자 하는 의지를 지닌 모든 이가 AI 교육을 받을 수 있어야 한다”면서, “AI 레디의 목표는 새로운 이니셔티브를 통해 AI 교육의 공평한 경쟁을 지원하는 것이다. AWS는 이를 위해 비용 문제를 지속적으로 줄이고 기존의 무료 AI 교육 프로그램과 강좌를 확대해 이처럼 중요한 스킬에 대한 접근성을 높일 것”이라고 말했다.
작성일 : 2023-11-23
지멘스 EDA, AWS 클라우드에서 자율주행차 개발 검증 솔루션 제공
지멘스 디지털 인더스트리 소프트웨어, 지멘스 EDA 사업부는 AWS와 협력하여 자동차 디지털 트윈을 위한 개발 검증 솔루션인 ‘패이브360(PAVE360)’을 AWS 클라우드에서 제공한다고 밝혔다. 지멘스와 AWS는 양사 간 파트너십을 확장해, PAVE360를 사용하여 하드웨어와 소프트웨어를 동시에 개발하면서 SDV(소프트웨어 중심 차량)의 설계 단계를 ‘원점회귀(Shift-left : 소프트웨어 개발 과정에서 오류를 최대한 빨리 탐지하고 해결하도록 하는 개발 방법론)’ 방식으로 검증함으로써 자동차 산업의 혁신을 촉진하도록 지원할 계획이다. 개발자는 동시병렬적 접근 방식을 채택함으로써 설계주기 시간을 단축하고 타임 투 마켓을 앞당길 수 있다. 이와 함께 지멘스는 Arm과도 협력해 개발자들이 PAVE360 디지털 트윈 솔루션에서 실행되는 Arm 기반 기술을 AWS 클라우드 서비스를 통해 이용할 수 있도록 지원한다. AWS에 구축된 지멘스의 PAVE360에는 자동차 특정의 워크로드를 위해 구축된 Arm의 IP는 물론 기능 시스템 소프트웨어, 지멘스의 심센터 프리스캔(Simcenter Prescan)과 같은 실세계 스티뮬러스 및 알고리즘 개발 툴, 혼합 충실도(mixed-fidelity) EDA 모델링 및 시뮬레이션 엔진이 포함되어 있다. PAVE360은 다양한 소스를 통합해 가상 차량을 엔지니어의 데스크뿐만 아니라 보다 통합되고 안전한 클라우드에서도 제공하므로 제조업체의 자원과 비용이 절감된다. 따라서 고속 시뮬레이션을 지원하고자 많은 비용을 들여 IT를 업그레이드할 필요가 없어지며, 자동차 엔지니어는 보다 의미 있는 개선 작업에 집중할 수 있게 된다. 자동차 제조업체는 AWS에서 제공하는 PAVE360 솔루션을 이용함으로써 소프트웨어를 개발하고 Arm 기반의 주요 시스템 및 소프트웨어 구성 요소를 평가하는 작업을 IP 선택 및 설계 주기 초기에, 온프레미스 소프트웨어 사용의 부담 없이 수행할 수 있게 되었다. 이는 향후의 기술적, 상업적 문제 해결에 도움을 줄 뿐만 아니라, 개발자가 원점회귀 방식으로 하드웨어 및 소프트웨어의 경쟁 우위를 확보하도록 지원함으로써 까다로워지고 있는 타임 투 마켓 요건을 충족시킬 수 있게 해 준다. 개발자는 AWS 기술을 사용함으로써 기존의 온프레미스 모델링 및 시뮬레이션 인프라보다 빠르게 실시간에 가까운 시뮬레이션 속도를 경험할 수 있다.     지멘스 디지털 인더스트리 소프트웨어의 마이크 엘로우(Mike Ellow) 글로벌 세일즈 및 서비스, 고객 지원 부문 부사장은 “경쟁이 치열한 SDV 분야는 새로운 기능에 대한 소비자의 기대에 신속하게 대응하는 동시에 소프트웨어 개발 주기도 더욱 단축해야 한다는 압박을 받고 있다. 이로 인해 하드웨어와 소프트웨어의 동시 개발을 위한 원점회귀 방법론을 채택하고 포괄적인 디지털 트윈을 지향하는 추세가 나타나고 있다”면서, “Arm 기반의 AWS 클라우드 서비스에서 제공되는 PAVE360은 오늘날의 전통적인 개발 방법으로는 달성할 수 없는 조직 효율성을 실현할 수 있도록 지원한다”고 말했다. Arm의 딥티 바차니(Dipti Vachani) 자동차 사업부 제너럴 매니저이자 수석 부사장(SVP)은 “소프트웨어 중심 차량은 자동차 산업의 생존 수단으로서, 보다 빠르고 민첩한 개발을 위해 새로운 기술과 방법론을 필요로 한다”고 말하며, “지멘스의 PAVE360 솔루션은 갈수록 더 까다로워지는 소비자의 기대에 부응하기 위해 요구되는 자동차 시스템 개발 속도 향상에 도움을 주고 있다. 우리는 지멘스 및 AWS와 함께 IP 평가로부터 플릿 매니지먼트(fleet management)에 이르기까지 공급망 전반에 걸친 Arm 자동차 플랫폼에서 광범위한 사용 사례를 지원하고 있다”고 말했다. AWS의 웬디 바우어(Wendy Bauer) 자동차 및 제조 부문 부사장은 “자동차 산업 전반에 걸쳐 확산되고 있는 디지털 트윈 방식은 AWS의 컴퓨팅 역량과 세계 수준의 인프라를 사용하고 있다”고 말하며, “PAVE360을 이용해 정확한 임베디드 환경을 최적의 AWS 인스턴스에 매핑하는 한편으로 Arm의 자동차 향상 IP를 사용함으로써, OEM과 공급업체들은 소프트웨어 중심 차량 솔루션과 방법론을 가능하게 만들고 있다”라고 말했다.
작성일 : 2023-11-22
AWS, HD현대오일뱅크의 클라우드 이전 및 데이터 기반 운영 지원
아마존웹서비스(AWS)는 국내 정유 업체 HD현대오일뱅크의 디지털 혁신 강화, 오퍼레이션 향상 및 신속한 고객 요구 대응을 지원한다고 밝혔다. HD현대오일뱅크는 2024년까지 AWS 클라우드로 전면 이전할 계획으로, 핵심 고객 서비스 및 전사적 자원 관리를 담당하는 200대 이상의 서버를 포함해 온프레미스 워크로드 대부분의 이전을 진행 중이다. HD현대오일뱅크는 탄소 배출량을 줄이면서 증가하는 전력 수요를 충족하는데 핵심적인 역할을 하는 주요 업무를 AWS에서 운영함으로써, 기존 정유 및 석유화학 사업을 친환경 에너지 플랫폼으로 전환하는 것을 목표로 하고 있다. 지속가능한 교통수단에 대한 수요가 늘어남에 따라 국내에서 탄소 무배출 차량 수요가 급증하고 있다. HD현대오일뱅크는 전기차 충전 사업을 준비 중이며, 이를 위해 아마존 EKS(Amazon Elastic Kubernetes Service)를 활용하고 있다. 아마존 EKS는 HD현대오일뱅크가 전기차 충전 서비스를 위해 클라우드 상에서 쿠버네티스 컨테이너 애플리케이션을 시작, 운영, 확장할 수 있는 유연성을 제공하고, 충전량 배치 등 다양한 전기차 충전 서비스를 관리하고 자동화한다. AWS 클라우드를 활용함으로써 향후 확장될 충전소 인프라에 대해 탄력적인 시스템 대응이 가능하며, 이를 통해 충전소 운영 가시성을 높여 전반적인 효율성과 수익성에도 기여를 할 수 있을 것으로 기대하고 있다. HD현대오일뱅크는 아마존 베드록(Amazon Bedrock)과 같은 머신러닝(ML) 및 생성형 인공지능(AI) 기술을 사용하여 정유 공정 최적화, 유지보수 요구 사항 예측, 위험 관리, 실시간 운영 모니터링 등 혁신을 지속해나갈 계획이다. HD현대오일뱅크는 온프레미스에서 AWS로 이전함으로써, IT 관련 비용의 20%를 절감하는 것을 목표로 하고 있다. HD현대오일뱅크는 재고 관리 등의 프로세스를 최적화하며 에너지 수요 예측의 정확도를 높일 예정이다. 데이터센터 관리에 필요한 IT 자원이 줄어든 만큼 혁신과 고객 경험, 신규 사업 기회, 직원 역량 개발 전략에 집중한다는 계획이다. HD현대오일뱅크의 천경선 디지털전략부문장은 “AWS의 확장성과 안정성은 클라우드 퍼스트 전략의 목표를 달성하고 효율성을 높이며 고객 요구사항 처리 능력을 향상하는 데 매우 중요하다”며, “AWS는 나날이 증가하는 청정에너지 인프라에 대한 고객 수요 충족에 필요한 기반을 제공한다. 기존 온프레미스 IT 인프라를 AWS로 마이그레이션함으로써, 인프라 비용을 절감하고 프로세스 및 장비 성능을 최적화하여 효율성을 극대화할 수 있을 것으로 보고 있다. 향후, AWS의 생성형 AI 서비스를 활용하여 임직원의 생산성 향상에 기여하고 예측 정확성을 높일 것으로 기대하고 있다”고 밝혔다. AWS코리아의 함기호 대표는 “탄소 배출량을 줄이는 동시에 청정에너지에 대한 수요를 충족하는 것은 전 세계 기업들이 가장 중요하게 생각하는 과제”라며, “HD현대오일뱅크는 AWS의 첨단 클라우드 기술을 활용해 탄소 무배출 차량에 대한 수요를 충족하고, 정유 시설의 선제적인 관리를 위한 예측을 하는 동시에, 사업 목표를 달성해 나가고 있다”고 말했다.
작성일 : 2023-11-20
아비바, AWS 에너지 컴피턴시 인증 획득
아비바가 AWS의 에너지 컴피턴시(Amazon Web Services Energy Competency) 인증을 획득했다고 밝혔다. 이번 인증으로 아비바의 고객은 AWS의 클라우드 기술을 활용하여 복잡한 산업 시스템을 혁신하고, 지속 가능한 에너지 미래로의 전환을 가속화할 수 있게 됐다. AWS 에너지 컴피턴시 인증은 생산 설계 및 구축 단계부터 새로운 에너지 솔루션과 같은 자산 운영 및 최적화 등 전체 가치 사슬에 걸쳐 솔루션을 성공적 개발, 운영할 수 있도록 지원한다. 인증을 획득하기 위해서는 고객 레퍼런스 검증을 비롯한 여러 가지 엄격한 기술 검증이 요구된다. AWS는 솔루션의 원활한 통합과 배포를 지원하기 위해, 각 업계에서 풍부한 경험과 전문성을 갖춘 AWS 파트너를 식별할 수 있도록 AWS 컴피턴시 프로그램을 운영하고 있다. 아비바는 7000곳 이상의 AWS 파트너사 중 뉴에너지(New Energies)에 대한 AWS 에너지 컴피턴시 인증을 획득한 7개 기업 중 하나다. 현재 통용되는 디지털 도구는 국제에너지기구(IEA)가 에너지, 재료 및 모빌리티 산업을 위해 제시한 2050년 탄소중립 목표를 달성하는 데 필요한 온실가스(GHG) 배출량 감축의 최대 20%를 기여할 수 있다. 아비바는 다양한 산업 분야의 기업이 에너지 수요를 관리하고, 기업 운영을 최적화하며, 배출량을 추적 및 측정하는 데 도움이 되는 특수 목적의 산업용 소프트웨어 솔루션을 제공한다. 공급 측면에서 아비바 솔루션은 전체 에너지 시스템의 확장을 지원하여 저탄소 산업이 청정 수소 및 대규모 탄소 포집과 같은 실증 또는 프로토타입 단계의 기술 비용을 절감할 수 있도록 돕는다. 아비바의 브라이 딜런(Bry Dillon) 파트너 및 비즈니스 개발 담당 수석 부사장은 “아비바와 AWS는 차별화된 혁신적인 소프트웨어 솔루션을 통해 인더스트리얼 시장의 변화를 촉진하고 에너지 전환을 가속화하는 데 기여하고 있다”면서, “AWS 에너지 컴피턴시 인증은 아비바의 폭넓은 산업용 SaaS 솔루션 포트폴리오에 민첩성, 혁신, 서비스 역량을 더해 저탄소 미래로 나아가는 과정에서 연결성과 탄력성을 강화할 수 있는 방법을 제시한다”고 말했다. 
작성일 : 2023-11-14
신도리코, 클라우드 전환과 함께 프린팅 사업 확대 추진
신도리코가 아마존웹서비스(AWS)를 도입해 자사의 클라우드 MPS(Managed Print Service) 솔루션 사업을 확대한다고 밝혔다. 신도리코는 퍼블릭 클라우드 운영사로 CJ올리브네트웍스를 선정하고, 기존 자체 서버에서 운영하던 서비스를 AWS로 이관했다. 이러한 변화는 앞으로 다양한 서비스를 보다 유연하게 확장해 나갈 수 있도록 개발, 구축, 배포, 관리에 클라우드 MPS 서비스를 중단 없이 이어나가기 위한 ‘네이티브 클라우드’ 환경을 제공하기 위한 것이다. 신도리코는 대기업 및 공공기관, 정부기관, 중소사업자 등 다양한 고객층을 대상으로 서버를 이용한 온프레미스(on-premise) 환경에 최적화된 MPS 솔루션을 공급해왔다. 특히 패스트파이브, 스파크플러스 등 국내 주요 공유오피스 플랫폼 사업자에 클라우드 MPS 솔루션을 제공하면서 시장점유율을 키워왔다. 공유오피스 플랫폼 사업자는 전국 지점 어디에서나 대규모 입주사 사용자들에게 365일 상시 무중단으로 운영되어야 하는 점에서 무엇보다 안정적인 서비스 운영이 필수적이다. 신도리코는 AWS를 이용하게 되면 클라우드 공간을 무한하게 활용하고 스마트 업무 환경을 보다 안정적으로 구현할 수 있을 것으로 기대하고 있다.     신도리코의 클라우드 MPS 솔루션은 온프레미스 기반의 MPS 솔루션과는 다른 독자적인 클라우드 프린팅 기술을 제공한다. 복합기 이용 시 민감한 출력 데이터를 서버에 전송하지 않고 원하는 복합기에 사원증을 태그하여 출력할 수 있는 ‘Personal Uprint’ 솔루션을 자체 개발하여 높은 보안성을 제공한다. 또한 복합기 사용자는 전용 UI를 통해 문서 스캔, 출력 등 다양한 문서 업무를 편리하게 활용할 수 있고, 관리자 또한 사용자 및 입주사별 정보와 연동을 통해 사용량과 과금을 통합하여 관리할 수 있다. 이런 솔루션은 신도리코 출력 장비와 연계한 계약방식을 통해 합리적인 비용으로 이용할 수 있는데, 자동 설치 패키지를 이용하면 추가 비용 없이 소규모 기업에서도 손쉽게 스마트 오피스를 구축할 수 있다는 것이 신도리코의 설명이다. 신도리코의 김희수 영업본부장은 “최근 디지털 전환 및 공유오피스 확대로 문서 보안 및 문서 자동화 수요가 크게 늘고 있는 만큼, 안정적인 솔루션 공급을 위해 글로벌 무대에서 검증된 AWS와 협업하게 됐다”면서, “앞으로 솔루션 사업을 고도화해 기업들의 디지털 전환 및 비즈니스 생산성 향상 등을 종합적으로 지원하겠다”고 전했다.
작성일 : 2023-11-07
머신러닝용 아마존 EC2 캐퍼시티 블록에 엔비디아 H100 GPU 탑재
엔비디아는 아마존웹서비스(AWS)와 협력해 차세대 머신러닝 워크로드용 아마존 EC2 캐퍼시티 블록(Amazon Elastic Compute Cloud Capacity Blocks)에 자사의 H100 텐서 코어 GPU를 탑재한다고 밝혔다. 이번 협력을 통해 고객들은 아마존 일래스틱 컴퓨트 클라우드(EC2)로 고성능 머신러닝 워크로드용 아마존 EC2 울트라클러스터(UltraCluster)에 구축된 수백 개의 엔비디아 GPU를 확보할 수 있다. 머신러닝의 발전으로 모든 규모의 산업 분야 조직은 새로운 제품을 개발하고 비즈니스를 혁신할 수 있는 기회가 생겼다. 기존 머신러닝 워크로드에는 상당한 컴퓨팅 용량이 필요하다. 여기에 생성형 AI의 등장으로 파운데이션 모델(FM)과 대규모 언어 모델(LLM)을 훈련하는 데 사용되는 방대한 데이터세트를 처리하기 위해서는 보다 더 큰 컴퓨팅 용량이 요구된다. GPU 클러스터는 병렬 처리 기능이 결합돼 훈련과 추론 프로세스를 가속화함으로써 이 과제에 적합하다. 머신러닝용 아마존 EC2 캐퍼시티 블록은 새로운 소비형 아마존 EC2 사용 모델로, GPU 인스턴스에 쉽게 액세스해 머신러닝과 생성형 AI 모델을 훈련하고 배포할 수 있도록 함으로써 머신러닝을 대중화하는 데에 기여할 수 있다. EC2 캐퍼시티 블록을 통해 고객은 고성능 머신러닝 워크로드로 설계된 EC2 울트라클러스터에 배치된 수백 개의 엔비디아 GPU를 예약할 수 있다. 페타비트(peta-bit) 규모의 논블로킹(non-blocking) 네트워크에서 EFA(Elastic, Fabric Adapter) 네트워킹을 사용해 아마존 EC2에서 사용 가능한 높은 네트워크 성능을 제공할 수 있다. EC2 캐퍼시티 블록은 최대 8주 전에 미리 확보할 수 있으며, 예약 가능한 총 일수는 1일 단위로 1~14일이다. EC2 캐퍼시티 블록은 1~64개 인스턴스(512개 GPU)의 클러스터 크기로 엔비디아 H100 텐서 코어 GPU 기반의 아마존 EC2 P5 인스턴스에서 사용할 수 있다. 이를 통해 고객은 광범위한 머신러닝 워크로드를 유연하게 실행하고 필요한 GPU 시간만큼만 비용을 지불할 수 있다. EC2 캐퍼시티 블록은 고객이 중요한 머신러닝 프로젝트에 필요한 GPU 컴퓨팅 용량에 안정적이고 예측 가능하며 중단 없이 액세스할 수 있도록 지원한다. EC2 캐퍼시티 블록을 통해 EC2에서 머신러닝을 훈련하기 위한 높은 성능을 제공하는 EC2 P5 인스턴스를 예측 가능하도록 쉽게 이용할 수 있다. 또한 이를 통해 몇 번의 클릭만으로 GPU 인스턴스를 확보하고 머신러닝 개발을 계획할 수 있다. EC2 캐퍼시티 블록이 예약되면, 고객은 필요할 때 GPU 용량을 확보할 수 있다는 것을 알고 확실하게 머신러닝 워크로드 배포를 계획할 수 있다. 더불어 EC2 캐퍼시티 블록은 머신러닝 모델을 훈련하고 미세 조정과 짧은 실험, 향후 머신러닝 애플리케이션에 대한 수요 급증에 대비하기 위해 용량 보장이 필요할 때 사용될 수 있다. 또는 비즈니스 핵심 애플리케이션, 규제 요구 사항 또는 재해 복구 등 컴퓨팅 용량 보장이 필요한 다른 모든 워크로드 유형에 대해 온디맨드 용량 예약(On-Demand Capacity Reservations)을 계속 사용할 수 있다. EC2 캐퍼시티 블록은 AWS 미국 동부 오하이오 지역에서 사용할 수 있으며, 향후 다른 지역으로 확대될 예정이다.
작성일 : 2023-11-03