• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "EC2"에 대한 통합 검색 내용이 189개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
한국후지필름BI, 디지털 인쇄기 ‘레보리아 프레스’ 신제품 4종 출시
한국후지필름비즈니스이노베이션(한국후지필름BI)이 특수 토너를 탑재해 더욱 풍부한 컬러 표현이 가능한 고품질 디지털 인쇄기 ‘레보리아 프레스(Revoria Press)’ 신제품 4종을 출시했다. 한국후지필름BI는 2021년 7월 디지털 인쇄 브랜드 ‘레보리아’를 출범하고, 상업 인쇄의 디지털 전환을 가속화하기 위해 다양한 제품을 선보여 왔다. 고해상도 인쇄 품질과 인공지능(AI) 기반 이미지 최적화 기술을 적용한 레보리아 시리즈는 일반 복사부터 디자인·상업 인쇄 등 다양한 분야에서 활용되는데, 이번 신제품은 상업 인쇄에 특화된 ‘레보리아 프레스 EC2100S·EC2100’과 오피스 환경에서도 활용할 수 있는 ‘레보리아 프레스 SC285S·SC285’ 등 총 4종으로 구성됐다. 레보리아 프레스 EC2100S와 레보리아 프레스 SC285S는 CMYK 기본 컬러 외에도 클리어, 핑크 등 특수 토너를 추가해 색상 표현의 폭을 넓혔다. 향후에는 골드, 실버, 화이트 컬러를 추가하여 더욱 다채로운 색감 구현에 나설 예정이다. 또한, 하이엔드 모델에서 사용되는 ‘수퍼 EA-에코 토너(Super EA-Eco)’와 고화질 LED 프린트 헤드를 적용해 최대 2400dpi의 고해상도 출력을 지원하며, 정밀한 이미지 표현이 요구되는 상업 및 디자인 인쇄 환경에 최적화되었다.     이번 신제품은 전사 기능을 향상시키고 토너 상태를 안정화하여 엠보 용지나 거친 용지, 봉투에도 얼룩과 주름 없이 선명한 출력이 가능하다. 용지 수용성도 향상되어 90mm 너비의 봉투부터 330×1300mm 크기의 포스터와 세로형 달력까지 다양한 인쇄물의 고품질 출력이 가능하다. 레보리아 프레스 EC2100S·EC2100은 A4 기준 분당 100매, SC285S·SC285는 분당 85매를 최대 400gsm까지 용지 두께에 상관없이 최대 속도를 유지하며 출력할 수 있어, 상업 및 사내 인쇄 환경에서 더욱 효율적으로 활용할 수 있다. 새롭게 추가된 ‘스마트 모니터링 게이트(Smart Monitoring Gate D1)’ 기능은 인쇄 중 색상 변화와 앞뒤 정렬 상태를 실시간으로 감지하고 자동 보정해, 높은 인쇄 품질을 유지하면서도 생산성을 극대화한다. 더불어 AI를 기반으로 구축된 프린트 서버 ‘레보리아 플로우(Revoria Flow)’가 각 장면을 분석해 최적의 이미지 보정을 적용하며, 정전기 제거 장치와 말림 보정 기능 등 향상된 후가공 옵션을 통해 더욱 정밀한 출력 결과를 제공한다. 한국후지필름BI의 하토가이 준 대표는 “이번 신제품은 생동감 넘치는 컬러와 빠른 출력 속도로 상위 모델급 성능을 제공하며, 공간 효율적인 설계를 적용해 사내 인쇄부터 상업 인쇄까지 폭넓게 활용할 수 있다”면서, “앞으로도 고객의 다양한 요구에 부응하는 혁신적인설솔루션을 지속적으로 선보이며 디지털 인쇄 시장을 선도해 나갈 것”이라고 밝혔다.
작성일 : 2025-02-19
AWS, 딥시크-R1 모델 제공 시작… “생성형 AI 활용 확장 지원”
아마존웹서비스(AWS)는 딥시크-R1(DeepSeek-R1) 모델을 아마존 베드록(Amazon Bedrock)과 아마존 세이지메이커 AI(Amazon SageMaker AI)에서 제공한다고 발표했다. AWS는 이를 통해 기업이 최신 생성형 AI 모델을 보다 효과적으로 활용할 수 있으며, 비용 절감과 성능 향상을 동시에 누릴 수 있다고 밝혔다. 딥시크(DeepSeek)는 2023년에 중국 항저우에서 설립된 인공지능(AI) 스타트업으로, AI 모델 개발 비용을 기존보다 크게 낮춘 것으로 평가되면서 최근 주목을 받고 있다. 이 회사는 2024년 12월 6710억 개의 파라미터를 가진 딥시크-V3를 출시한 이후, 2025년 1월 20일 딥시크-R1, 딥시크-R1-제로, 딥시크-R1-디스틸 모델을 공개했다. 또한, 1월 27일에는 비전 기반 야누스-프로 7B(Janus-Pro 7B) 모델을 추가했다. 딥시크에 따르면, 메모리 사용량을 줄이고 속도를 높인 이들 모델은 기존 AI 모델 대비 90~95%의 비용을 절감해 비용 효율을 제공하며, 강화 학습 기법을 적용해 높은 추론 능력을 갖췄다. AWS는 고객들이 딥시크-R1 모델을 다양한 방식으로 활용할 수 있도록 지원한다는 계획이다. 아마존 베드록에서는 API를 통해 사전 학습된 모델을 쉽게 통합할 수 있으며, 아마존 세이지메이커 AI를 통해 맞춤형 학습과 배포가 가능하다. 또한, AWS 트레이니움(AWS Trainium)과 AWS 인퍼런시아(AWS Inferentia)를 활용하면 딥시크-R1-디스틸 모델을 더욱 경제적으로 운영할 수 있다. AWS는 보안성과 확장성을 강화하기 위해 아마존 베드록 가드레일(Amazon Bedrock Guardrails)을 활용할 것을 권장하며, 이를 통해 생성형 AI 애플리케이션의 입력 및 출력 데이터를 모니터링하고 유해 콘텐츠를 필터링할 수 있다. 딥시크-R1 모델은 현재 AWS에서 네 가지 방식으로 배포할 수 있다. 아마존 베드록 마켓플레이스(Amazon Bedrock Marketplace)에서는 모델 카탈로그에서 딥시크-R1을 검색하여 손쉽게 배포할 수 있으며, 아마존 세이지메이커 점프스타트(Amazon SageMaker JumpStart)를 통해 머신러닝 허브에서 클릭 한 번으로 배포 및 활용이 가능하다. 또한, 아마존 베드록 커스텀 모델 임포트를 활용하면 딥시크-R1-디스틸 모델을 맞춤형 모델로 가져와 활용할 수 있으며, AWS EC2 Trn1 인스턴스(AWS EC2 Trn1 Instance)를 사용하면 딥시크-R1-디스틸 모델을 AWS 트레이니움 및 AWS 인퍼런시아 기반 인프라에서 최적의 성능과 비용 효율성을 제공하며 실행할 수 있다. AWS는 “딥시크-R1 모델을 통해 고객들이 AI 기술을 더욱 효과적으로 활용하고, 안전하고 책임감 있는 AI 환경을 조성할 수 있도록 적극 지원할 예정”이라고 전했다.
작성일 : 2025-02-03
엔비디아, AWS에 엔비디아 NIM 제공 확대해 AI 추론 향상 지원
엔비디아가 아마존웹서비스(AWS)의 AI 서비스 전반에 자사의 NIM 마이크로서비스를 확장한다고 발표하면서, 이를 통해 생성형 AI 애플리케이션을 위한 더 빠른 AI 추론과 짧은 지연 시간을 지원한다고 전했다. 12월 4일 열린 ‘리인벤트(re:Invent)’ 연례 콘퍼런스에서 AWS는 엔비디아와의 협업을 확대해 주요 AWS AI 서비스 전반에 걸쳐 엔비디아 NIM 마이크로서비스를 확장한다고 발표했다.  엔비디아 NIM 마이크로서비스는 이제 AWS 마켓플레이스(Marketplace), 아마존 베드록 마켓플레이스(Bedrock Marketplace), 아마존 세이지메이커 점프스타트(SageMaker JumpStart)에서 직접 제공된다. 이로 인해 개발자가 일반적으로 사용되는 모델에 대해 엔비디아 최적화 추론을 대규모로 배포하는 것이 더욱 쉬워졌다.     엔비디아 NIM은 AWS 마켓플레이스에서 제공되는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼의 일부이다. 이는 개발자에게 클라우드, 데이터센터, 워크스테이션 전반에서 고성능 엔터프라이즈급 AI 모델 추론을 안전하고 안정적으로 배포하도록 설계된 사용하기 쉬운 마이크로서비스 세트를 제공한다. 사전 구축된 컨테이너는 엔비디아 트리톤 추론 서버(Triton Inference Server), 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 파이토치(PyTorch)와 같은 추론 엔진을 기반으로 구축됐다. 아울러 오픈 소스 커뮤니티 모델부터 엔비디아 AI 파운데이션(AI Foundation) 모델, 맞춤형 모델에 이르기까지 광범위한 범위의 AI 모델을 지원한다. NIM 마이크로서비스는 아마존 엘라스틱 컴퓨트 클라우드(Elastic Compute Cloud : EC2), 아마존 엘라스틱 쿠버네티스 서비스(Elastic Kubernetes Service : EKS), 아마존 세이지메이커를 비롯한 다양한 AWS 서비스에 배포할 수 있다. 개발자는 일반적으로 사용되는 모델과 모델 제품군으로 구축된 100개 이상의 NIM 마이크로서비스를 엔비디아 API 카탈로그에서 미리 볼 수 있다. 여기에는 메타의 라마 3(Llama 3), 미스트랄 AI의 미스트랄과 믹스트랄(Mixtral), 엔비디아의 네모트론(Nemotron), 스태빌리티 AI의 SDXL 등이 있다. 가장 일반적으로 사용되는 모델은 AWS 서비스에 배포하기 위한 자체 호스팅에 사용할 수 있으며, AWS의 엔비디아 가속 컴퓨팅 인스턴스에서 실행되도록 최적화돼 있다. 엔비디아는 다양한 산업 분야의 고객과 파트너가 AWS에서 NIM을 활용하며 시장에 더 빨리 진입하고, 생성형 AI 애플리케이션과 데이터의 보안과 제어를 유지하며, 비용을 절감하고 있다고 소개했다. 개발자는 고유한 필요와 요구사항에 따라 AWS에 엔비디아 NIM 마이크로서비스를 배포할 수 있다. 이를 통해 개발자와 기업은 다양한 AWS 서비스 전반에서 엔비디아에 최적화된 추론 컨테이너로 고성능 AI를 구현할 수 있다.
작성일 : 2024-12-06
제24회 공작기계인의 날 개최, 산업 발전의 주역들 한자리에
한국공작기계산업협회(KOMMA)는 12월 5일 서울 여의도 콘래드호텔에서 '제24회 공작기계인의 날' 행사를 성황리에 개최했다. 이날 행사에는 KOMMA 계명재 회장을 비롯해 산업통상자원부 제조산업정책관 박동일 국장 등 주요 인사와 업계 관계자 300여 명이 참석해 국내 공작기계 산업의 발전을 함께 축하했다. 계명재 회장은 개회사를 통해 "공작기계 산업은 국가 제조업의 근간이 되고 있다"며, "지속적인 혁신과 협력을 통해 글로벌 경쟁력을 강화해야 한다"고 강조했다. 또한, "회원사들의 이익을 대변하고 산업 발전을 위해 최선을 다하겠다"고 밝혔다. ▲ 공작기계인의 날 행사에서 개회사 중인 한국공작기계산업협회 계명재 회장 제조산업정책관 박동일 국장은 축사에서 "공작기계 산업은 4차 산업혁명의 핵심 동력으로, 정부는 기술 개발과 인재 양성을 위해 적극 지원하고 있다"며, "산업계와 긴밀한 협력을 통해 지속 가능한 성장을 이룰 수 있도록 노력하겠다"고 말했다. ▲ 공작기계인의 날 행사에서 축사 중인 산업통상자원부 제조산업정책관 박동일 국장 한편 이날 행사에서는 국내 공작기계 산업 발전에 기여한 공로자들에 대한 포상도 진행됐다. '올해의 공작기계인'으로 선정된 한국OSG 정태일 회장은 "절삭공구의 국산화를 통해 국가 산업 발전에 이바지할 수 있어 영광으로 생각한다"며, "앞으로도 품질 향상과 기술 개발에 매진하겠다"고 수상 소감을 전했다. ▲ 공작기계인의 날 행사에서 '올해의 공작기계인'에 선정된 한국OSG 정태일 회장 ▲ 공작기계인의 날에서 선보인 축하공연 이외에도 대통령 표창을 수상한 스맥의 류재희 상무를 비롯해 산업통상자원부장관 표창, 중소벤처기업부장관 표창 등 다양한 부문의 시상이 진행됐고, 식전 행사로는 SIMTOS 2026 팝업 이벤트와 국산 CNC 시스템 전시 및 상담회 열려 관심을 모았다. '공작기계인의 날'은 공작기계 산업의 현재와 미래를 조망하고, 업계 종사자들의 노고를 치하하는 뜻깊은 자리로 마련됐다. 앞으로도 지속적인 혁신과 협력을 통해 한국 공작기계 산업이 한걸음 더 성장하길 기대한다. 한편 국내 최대 생산제조기술전시회인 SIMTOS 2026은 2026년 4월 13일부터 17일까지 일산 킨텍스에서 열릴 예정이다.
작성일 : 2024-12-06
AWS, 딥러닝 및 생성형 AI를 위한 트레이니움2 인스턴스 출시
아마존웹서비스(AWS)는 ‘AWS 리인벤트’ 행사에서 AWS 트레이니움2(AWS Trainium2) 칩 기반의 아마존 EC2(Amazon EC2) 인스턴스를 공식 출시했다고 발표했다. 또한, AWS는 대규모 언어 모델(LLM) 및 파운데이션 모델(FM)의 학습과 추론을 지원하는 트레이니움2 울트라서버(Trn2 UltraServers)와 차세대 트레이니움3(Trainium3) 칩도 함께 공개했다. Trn2 인스턴스는 16개의 트레이니움2 칩을 탑재하여 최대 20.8 페타플롭스(PF)의 연산 성능을 제공한다. 이는 수십억 개의 매개변수를 가진 LLM의 학습 및 배포에 적합하다. Trn2 인스턴스는 동일한 비용으로 기존 GPU 기반 EC2 P5e 및 P5en 인스턴스 대비 30~40% 더 나은 가격 대비 성능을 제공하며, 메모리 대역폭도 개선되어 비용 효율성이 높다는 것이 AWS의 설명이다. Trn2 울트라서버는 새로운 EC2 제품군으로, 초고속 뉴런링크(NeuronLink) 기술을 사용해 64개의 트레이니움2 칩을 연결하여 최대 83.2 피크 페타플롭스의 연산 성능을 제공한다. 이는 단일 Trn2 인스턴스 대비 연산, 메모리, 네트워킹 성능을 각각 4배로 확장해 대규모의 모델 학습과 배포를 가능하게 한다. Trn2 인스턴스는 현재 미국 동부(오하이오) AWS 리전에서 사용 가능하며, 추가 리전에서도 곧 제공될 예정이다. Trn2 울트라서버는 현재 프리뷰 상태로 제공되고 있다. 한편, AWS는 앤스로픽(Anthropic)과 협력해 수십만 개의 트레이니움2 칩을 포함하는 EC2 울트라클러스터(UltraClusters)를 구축하고 있다고 밝혔다. 이 프로젝트는 ‘프로젝트 레이니어(Project Rainier)’로 명명되었으며, 현재 세대의 최첨단 AI 모델 훈련에 사용된 엑사플롭스의 5배 이상의 성능을 갖출 것으로 기대된다. 이외에도 AWS는 차세대 AI 학습 칩인 트레이니움3를 공개했다. 트레이니움3는 트레이니움2 대비 최대 2배 성능과 40% 개선된 에너지 효율성을 제공하며, 이를 통해 고객은 더 큰 모델을 더 빠르게 구축하고 실시간 성능을 극대화할 수 있다. AWS의 데이비드 브라운(David Brown) 컴퓨팅 및 네트워킹 부문 부사장은 “트레이니움2는 AWS가 개발한 칩 중 가장 강력한 성능을 자랑하며, 대규모 및 최첨단 생성형 AI 워크로드를 지원하기 위해 설계되었다. 이 칩은 학습과 추론 모두에서 최고의 가격 대비 성능을 제공한다”면서, “매개변수가 수조 개에 달하는 모델이 등장하면서, 고객들에게 대규모 모델을 효율적으로 학습하고 운영할 수 있는 새로운 접근 방식이 필요해졌다. Trn2 울트라서버는 AWS에서 가장 빠른 학습 및 추론 성능을 제공하며, 모든 규모의 조직이 세계 최대 모델을 더 빠르고 비용 효율적으로 학습하고 배포할 수 있도록 돕는다”고 전했다.
작성일 : 2024-12-04
[오늘마감] CAE 컨퍼런스 2024(11/8, 수원컨벤션센터) 초대 - 무료 선착순 이벤트
CAE 컨퍼런스 2024 내용이 보이지 않으면 여기를 클릭하세요!     CAE 컨퍼런스 2024 아젠다 - AI와 CAE 융합을 통한 차세대 제조 혁신 전략 [인사말] CAE컨퍼런스 준비위원회 / 강남우 위원장(KAIST 교수) [기조연설] 기술독립과 통섭에서 배우는 CAE 엔지니어를 위한 '판타레이' / 에스엔에이치 민태기 연구소장 [기조연설] AI/ML과 Digital Reality Platform을 통한 CAE 혁신 전략 / 헥사곤 매뉴팩처링 인텔리전스 전완호 본부장  [기조연설] SDV 체계 전환 및 차량SW 품질 경쟁력 강화 방안 / 현대오토에버 박경훈 실장 Low-code AI 플랫폼을 이용한 설계 생성/예측/최적화 방법 및 사례 / 나니아랩스 강남우 대표 HP 3D 프린팅 자동화 솔루션이 주도하는 산업의 디지털 트랜스포메이션 / HP 김태화 P3D Manager    " 최적설계 대중화를 위한 AADO 기술 소개 / 피도텍 최병열 연구위원 CAD(NX)와 CFD 융합을 통한 제품 설계 혁신 / KWT Solution 변성준 이사 가전 개발에서 CAE와 AI 활용 / LG전자 박우철 책임연구원     제품개발과 검증의 가속화를 위한 Simcenter AI Solutions /  지멘스 이종학 프로 [기조연설] 타이어 개발 프로세스에 대한 디지털 트윈 시스템 구축 / 금호타이어 김기운 전무 모빌리티 아키텍처 단계 타이어 시스템의 버추얼개발 프레임워크 / 현대자동차 김용대 글로벌R&D마스터     NVH 해석 분야에서의 고전적 방법론과 디지털 기술 융합 사례 / 현대모비스 정원태 책임연구원     폐회사(캐드앤그래픽스 최경화국장) & 경품 추첨  
작성일 : 2024-10-15
AWS, 오라클과 전략적 파트너십 발표 및 ‘오라클 데이터베이스@AWS’ 출시
아마존웹서비스(AWS)와 오라클은 고객이 전용 인프라 상의 오라클 자율운영 데이터베이스(Oracle Autonomous Database)와 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service)를 AWS 내에서 사용할 수 있게 하는 신규 오퍼링인 ‘오라클 데이터베이스@AWS(Oracle Database@AWS)’를 출시했다고 발표했다. 오라클 데이터베이스@AWS는 고객에게 오라클 클라우드 인프라스트럭처(OCI)와 AWS 간의 통합된 경험을 제공해 데이터베이스 관리와 과금, 통합 고객 지원 등을 간소화할 수 있도록 지원한다. 또한, 고객은 오라클 데이터베이스(Oracle Database)에 있는 엔터프라이즈 데이터를 아마존 엘라스틱 컴퓨트 클라우드(Amazon EC2), AWS 애널리틱스(AWS Analytics) 서비스 또는 아마존 베드록(Amazon Bedrock)을 포함한 AWS의 인공지능(AI) 및 머신러닝(ML) 서비스에서 실행되는 애플리케이션에 원활하게 연결할 수 있게 된다. 오라클 데이터베이스@AWS는 전용 인프라의 오라클 자율운영 데이터베이스와 오라클 RAC(Oracle Real Application Clusters)에서 실행되는 워크로드 등 AWS 상의 오라클 엑사데이터 데이터베이스 서비스에 대한 직접 액세스를 포함해, 고객이 모든 엔터프라이즈 데이터를 통합하여 혁신을 추진할 수 있도록 지원한다. 이 새로운 오퍼링은 오라클 데이터베이스와 AWS 상의 애플리케이션 간에 저지연 네트워크 연결을 제공한다. 이를 통해 고객은 완전히 자동화된 관리형 오라클 데이터베이스 서비스인 오라클 자율운영 데이터베이스와 오라클 엑사데이터 데이터베이스 서비스의 성능과 가용성, 보안, 비용효율성을 활용하는 동시에 AWS가 제공하는 보안, 민첩성, 유연성, 지속가능성 등을 확보할 수 있다. 오라클의 래리 엘리슨 회장 겸 CTO는 “멀티 클라우드에 대한 수요가 크게 증가하고 있는 가운데, 아마존과 오라클은 이러한 수요를 충족하고 고객에게 선택권과 유연성을 제공하기 위해 AWS 서비스와 오라클 자율운영 데이터베이스를 비롯한 최신 오라클 데이터베이스 기술을 원활하게 연결하고 있다. AWS 데이터센터 내부에 구축된 OCI를 통해 고객에게 최상의 데이터베이스와 네트워크 성능을 제공할 수 있다”고 말했다. AWS의 맷 가먼 CEO는 “고객들은 2008년부터 클라우드에서 오라클 워크로드를 실행할 수 있었고, 그 이후로 많은 보안에 민감한 거대한 조직들이 AWS에 오라클 소프트웨어를 배포하기로 선택했다. 새롭고 심도 깊은 이번 파트너십을 통해 AWS 내에서 오라클 데이터베이스 서비스를 제공하게 됨으로써 고객들은 세계에서 가장 널리 채택된 클라우드의 유연성과 안정성, 확장성을 그들이 사용 중인 엔터프라이즈 소프트웨어와 함께 활용할 수 있게 될 것”이라고 말했다. 오라클 데이터베이스@AWS는 고객이 클라우드로의 이전을 지속적으로 가속화하고 IT 환경을 현대화할 수 있도록 지원한다. 고객은 파이프라인을 구축할 필요 없이 오라클 데이터베이스 서비스와 AWS에서 실행 중인 애플리케이션 간의 데이터를 원활하고 안전하게 연결하고 분석하여 더 빠르고 심층적인 인사이트를 얻을 수 있다. 오라클 제로 다운타임 마이그레이션(Oracle Zero Downtime Migration)과 같은 마이그레이션 도구와의 호환성을 포함해, 클라우드로의 오라클 데이터베이스 마이그레이션을 간소화하고 가속화할 수 있는 유연한 옵션을 제공한다. 그리고, AWS 마켓플레이스를 통해 기존 AWS 약정으로 오라클 데이터베이스 서비스를 구매할 수 있는 간소화된 구매 경험과 기존 오라클 라이선스가 제공하는 BYOL(Bring Your Own License) 및 오라클 서포트 리워드(Oracle Support Rewards) 등 할인 프로그램 혜택을 활용할 수 있다. 고객은 AWS 매니지먼트 콘솔(AWS Management Console)이나 CLI(Command Line Interface), AWS 클라우드포메이션(AWS CloudFormation)과 같은 툴을 사용해 오라클 데이터베이스@AWS 환경을 쉽게 시작할 수 있다. 또한, AWS의 다중 가용 영역(AZ) 아키텍처를 활용해 여러 독립적인 위치에 걸쳐 애플리케이션을 설계할 수 있어 더 높은 수준의 가용성을 갖춘 워크로드를 구축하고 실행할 수 있다. 오라클 데이터베이스@AWS는 올해 말 프리뷰 버전으로 제공되며, 2025년에는 고객의 요구를 충족하기 위해 새로운 리전으로 확장되어 더 폭넓은 가용성을 제공할 예정이다. 기업 조직에서는 새로운 오라클 데이터베이스@AWS 기능을 통해 기존 기술을 활용하고 오라클 자율운영 데이터베이스 및 오라클 엑사데이터 데이터베이스 서비스를 AWS에서 배포, 관리, 사용하기 위한 완전히 통합된 경험을 즉시 시작할 수 있다. AWS와 오라클은 오라클 데이터베이스@AWS를 공동으로 출시하여 금융 서비스, 헬스케어, 제조, 소매, 통신, 유틸리티 등 다양한 산업 분야의 전 세계 조직들에 혜택을 제공할 예정이다.
작성일 : 2024-09-11
AWS, “AI 워크로드를 클라우드로 전환해 탄소 배출량 절감 가능”
아마존웹서비스(AWS)가 IT 워크로드를 온프레미스 인프라에서 AWS 클라우드 데이터센터로 이전하면 인공지능(AI) 활용에 따른 환경적 영향을 효과적으로 최소화할 수 있다는 새로운 연구 결과를 발표했다. AWS의 의뢰로 글로벌 IT 컨설팅 기업 엑센츄어(Accenture)에서 진행한 연구에 따르면, AWS의 글로벌 인프라에서 워크로드를 실행했을 때 온프레미스 대비 에너지 효율이 최대 4.1배 더 높은 것으로 나타났다. 특히 한국 기업들이 AWS상에서 AI 워크로드를 최적화할 경우 온프레미스 대비 탄소 배출을 최대 95%까지 줄일 수 있는 것으로 나타났다. 연구에 따르면 국내에서 컴퓨팅 부하가 높은 AI 워크로드를 AWS 데이터센터에서 실행할 경우, 에너지 효율이 더 높은 하드웨어 사용(22%)과 향상된 전력 및 냉각 시스템(50%)을 통해 온프레미스 대비 탄소 배출량을 72%까지 줄일 수 있다. 추가로 AWS에서 최적화하고 AI 전용 실리콘을 사용할 경우 AWS로 이전하고 최적화한 국내 기업은 AI 워크로드의 총 탄소 배출량을 최대 95%까지 감축할 수 있다. AWS가 에너지 효율을 혁신하는 대표적인 방법 중 하나는 자체 칩에 대한 투자다. AWS는 지난 2018년 자체 개발 맞춤형 범용 프로세서인 그래비톤(Graviton)을 첫 출시했다. 최신 프로세서인 그래비톤4의 성능은 기존 그래비톤보다 4배 향상되었으며, 동급의 아마존 EC2 인스턴스 대비 동일한 성능을 구현하는 데에 60% 더 적은 에너지를 사용하는 그래비톤3보다도 더 에너지 효율적이다. AWS는 생성형 AI 애플리케이션의 성능과 에너지 소비를 최적화하기 위해 AWS 트레이니움(AWS Trainium), AWS 인퍼런시아(AWS Inferentia)와 같은 AI 전용 실리콘을 개발하여 동급의 가속 컴퓨팅 인스턴스보다 높은 처리량을 달성했다. AWS 트레이니움은 생성형 AI 모델의 학습 시간을 몇 달에서 몇 시간으로 단축한다. 트레이니움2는 1세대 트레이니움에 비해 최대 4배 빠른 훈련 성능과 3배 더 많은 메모리 용량을 제공하는 동시에 에너지 효율(와트당 성능)을 최대 2배까지 개선하도록 설계되었다. 한편, AWS 인퍼런시아는 AWS 칩 중 가장 전력 효율이 높은 머신러닝 추론 칩이다. AWS 인퍼런시아2는 와트당 최대 50% 더 높은 성능을 제공하며, 동급 인스턴스 대비 최대 40%까지 비용을 절감할 수 있다.  이와 함께, AWS는 리소스 활용을 최적화하여 유휴 용량을 최소화하고 인프라의 효율성을 지속적으로 개선하고 있다고 전했다. AWS는 데이터센터 설계에서 대형 중앙 무정전전원공급장치(UPS)를 제거하는 대신 모든 랙에 통합되는 소형 배터리팩과 맞춤형 전원공급장치를 사용하여 전력 효율성을 개선하고 가용성을 높였다. 교류(AC)에서 직류(DC)로, 또는 그 반대로 전압을 변환할 때 발생하는 전력 손실을 줄이기 위해 중앙 UPS를 제거하고 랙 전원 공급 장치를 최적화하여 에너지 변환 손실을 약 35% 감소시켰다. AWS 데이터센터에서 서버 장비에 전력을 공급하는 것 다음으로 에너지 사용량이 많은 부분 중 하나는 냉각 시스템이다. 효율성을 높이기 위해 AWS는 장소와 시간에 따른 프리 쿨링(free air cooling) 등 다양한 냉각 기술을 활용하고 실시간 데이터를 통해 기상 조건에 적응한다. AWS의 최신 데이터센터 설계는 최적화된 공랭 솔루션과 엔비디아(NVIDIA)의 그레이스 블랙웰 슈퍼칩과 같은 가장 강력한 AI 칩셋을 위한 액체 냉각 기능을 통합한다. 유연한 다중 모드 냉각을 통해 기존 워크로드 혹은 AI 모델 등 실행하는 워크로드에 상관없이 성능과 효율성을 극대화할 수 있다. AWS는 SK텔레콤 등 자사의 고객들이 그래비톤의 탄소 절감 효과를 누리고 있다고 소개했다. AWS는 SK텔레콤의 차세대 AI 네트워크 관리 시스템인 탱고 솔루션 구축에 대규모 데이터 처리와 인공지능 및 머신러닝 워크로드에 최적화된 그래비톤 인스턴스를 제공함으로써, 온프레미스 대비 AWS 워크로드의 탄소배출량을 약 27% 감축하는데 기여했다. 또한, AWS는 자사의 클라우드 인프라가 스타트업, 기업, 헬스케어, 연구, 교육 기관 등 수만 곳의 한국 기업에게 신기술에 대한 접근성을 향상해 국내 비즈니스 생태계의 혁신과 성장을 지원하고 있다고 전했다. 종합에너지그룹 삼천리는 AWS를 활용해 대고객서비스 및 소비자 현장 지원 애플리케이션을 안정적으로 운영하고, 고객탄소발자국 툴(Customer Carbon Footprint Tool)을 통해 IT 운영에 따른 탄소 배출량을 상시 모니터링할 계획이다. AWS는 삼천리가 이번 클라우드 도입으로 향후 5년간 탄소배출량을 약 29.6% 감축할 것으로 기대하고 있다. AWS의 켄 헤이그(Ken Haig) 아시아 태평양 및 일본 에너지 및 환경 정책 총괄은 “전 세계 기업의 IT 지출 중 85%가 온프레미스에 집중된 상황에서, 한국 기업이 AWS상에서 AI 워크로드 최적화를 통해 탄소 배출량을 최대 95% 줄일 수 있다는 것은 지속가능성 측면에서 의미 있는 기회”라고 강조했다. 이어 “지속가능성의 혁신은 한국이 2050년까지 탄소 중립 목표를 달성하는데 중요한 역할을 할 것이며, 전력망에서 재생에너지 비중을 늘리려는 한국의 노력은 AI 워크로드의 탈탄소화를 앞당길 것”이라면서, “AWS는 데이터센터 설계 최적화부터 AI 전용 칩에 대한 투자까지 데이터센터 전반의 지속가능성을 위해 끊임없이 혁신하여 고객의 컴퓨팅 수요를 충족하기 위해 에너지 효율성을 지속적으로 높이고 있다”고 덧붙였다.
작성일 : 2024-09-04