• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "트레이닝"에 대한 통합 검색 내용이 253개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
유니티, 개발자 이벤트 ‘U Day Seoul’ 5월에 개최
유니티가 국내 개발자들을 대상으로 유니티의 최신 핵심 기술 및 로드맵, 활용 사례를 선보이는 ‘U Day Seoul’을 오는 5월 22일 판교 경기창조혁신센터에서 개최한다고 밝혔다. 이번 ‘U Day Seoul’은 5월 22일, 23일 양일간 유니티 코리아 공식 유튜브 채널을 통해 라이브 스트리밍되며, 사전 신청자는 무료로 참여 가능하다. 이번 행사는 총 20여 개의 기술 세션, 핸즈온 트레이닝 등의 다양한 프로그램으로 구성되어 있으며, 참가자들에게는 국내외 유니티 엔진 전문가들과 소통하고 최신 정보를 공유할 수 있는 기회가 제공된다.     주요 강연으로는 유니티의 김범주 APAC 애드버킷 리드가 소개하는 콘텐츠 제작을 간소화하는 신규 AI 플랫폼인 ‘유니티 뮤즈(Unity Muse)’에 관한 세션과 케이지로 다카하시(Keijiro Takahashi) 애드버킷이 소개하는 ‘런타임 사용을 위한 Unity UI Toolkit’, ‘산나비’로 ‘메이드 위드 유니티 코리아 어워드’에서 ‘베스트 스튜던트’ 부문에 선정된 바 있는 원더포션의 ‘인디 게임 개발기’ 등이 있다. 5월 23일에는 '유니티 센티스(Unity Sentis)' 및 DOTS(Data-Oriented Technology Stack), ECS(Entity Component System) 등 유니티 최신 기술을 활용해 게임 및 콘텐츠 개발을 배워볼 수 있는 ‘트레이닝 데이’도 별도의 신청을 통해 진행될 예정이다. 유니티 사용 중급 이상의 세션 난이도로 진행될 예정으로, 각 세션에는 김한얼 시니어 소프트웨어 엔지니어와 박우진 테크니컬 파트너 어드바이저, 오형규 유니티 테크니컬 트레이너가 참여해 강연 및 실습을 도울 예정이다. 유니티 코리아의 송민석 대표는 “유니티 국내 개발자들에게 유익한 정보를 제공하기 위해 다양한 강연을 마련했다”며, “이번 행사를 통해 소개된 새로운 기술과 활용 사례가 추후 개발자들의 개발 환경에서 더욱 유용하게 활용될 수 있도록 지속적으로 기여할 것”이라고 말했다.
작성일 : 2024-04-01
레노버, 기업에 맞춤형 생성형 AI 제공하는 하이브리드 AI 솔루션 공개
레노버가 엔비디아와 협력해 모든 기업 및 클라우드에 맞춤형 생성형 AI 애플리케이션을 제공하는 신규 하이브리드 AI 솔루션을 발표했다.  양사의 엔지니어링 협력을 통해 이번 하이브리드 AI 솔루션은 포켓에서 클라우드에 이르는 고객 데이터에 AI를 효과적으로 활용할 수 있도록 만들어졌다. 개발자들은 엔비디아 AI 엔터프라이즈 소프트웨어 실행에 최적화된 레노버 하이브리드 AI 솔루션을 통해 엔비디아 NIM 및 네모 리트리버(NeMo Retriever)와 같은 마이크로 서비스에 액세스할 수 있게 된다. 레노버는 대규모 AI 워크로드를 효율적으로 처리하기 위해 확장된 레노버 씽크시스템 AI 포트폴리오를 새롭게 공개했다. 이 포트폴리오는 두 개의 엔비디아 8방향 GPU 시스템을 탑재하고 있으며, AI 구현을 가속하기 위한 전력 효율성 및 거대 컴퓨팅 능력을 갖추고 있다. 생성형 AI, 자연어 처리(NLP) 및 대규모 언어 모델(LLM) 개발을 위해 설계됐으며, 엔비디아 HGX AI 슈퍼컴퓨팅 플랫폼에는 엔비디아 H100, H200 텐서 코어 GPU, 신규 엔비디아 그레이스 블랙웰 GB200 슈퍼칩, 엔비디아 퀀텀-X800 인피니밴드 및 스펙트럼-X800 이더넷 네트워킹 플랫폼이 포함되어 있다. 레노버 씽크시스템 AI 서버는 엔비디아 B200 텐서 코어 GPU를 탑재해 생성형 AI의 새로운 막을 열었다. 엔비디아 블랙웰 아키텍처는 생성형 AI 엔진, 엔비디아 NV링크(NVLink) 인터커넥트 및 향상된 보안 기능을 갖추고 있는 점이 특징이다. 또한, B200 GPU는 최대 25배 더 빠른 실시간 추론 성능으로 1조 매개변수를 갖춘 언어 모델을 지원한다. 이는 AI, 데이터 분석 및 HPC 워크로드에 최적 설계됐다.     신규 레노버 씽크시스템 SR780a V3 서버는 1.1대의 전력효율지수(PUE)를 갖춘 5U 시스템으로, 설치 공간을 절약할 수 있는 점이 특징이다. 한편, CPU와 GPU에는 레노버 넵튠 다이렉트 수냉식 기술과 엔비디아 NV스위치(NVSwitch) 기술이 사용되어 발열 문제없이 최대 성능을 유지할 수 있다. 레노버 씽크시스템 SR680a V3 서버는 듀얼 소켓 공랭 시스템으로, 엔비디아 GPU와 인텔 프로세서를 탑재하여 AI를 최대 활용할 수 있도록 설계됐다. 이 시스템은 업계 표준 19인치 서버 랙 타입으로써 과도한 공간을 차지하거나 선반을 필요로 하지 않는 고밀도 하드웨어로 구성되어 있다. 한편, 레노버 PG8A0N 서버는 엔비디아 GB200 그레이스 블랙웰 슈퍼칩을 탑재한 AI용 1U 서버이자 가속기용 개방형 수냉식 기술을 갖췄다. GB200은 45배 더 빠른 실시간 LLM 추론 성능과 더불어 40배 더 낮은 총소유비용(TCO), 40배 더 적은 에너지로 구동된다. 레노버는 엔비디아와의 긴밀한 협업을 통해 AI 트레이닝, 데이터 처리, 엔지니어링 설계 및 시뮬레이션을 위한 GB200 랙 시스템을 제공할 예정이다. 고객들은 레노버가 지닌 엔비디아 인증 시스템 포트폴리오를 통해 ‘엔비디아 AI 엔터프라이즈’를 사용할 수 있게 된다. 이는 프로덕션급 AI 애플리케이션 개발 및 배포를 위한 엔드 투 엔드 클라우드 네이티브 소프트웨어 플랫폼이다. 또한, 엔비디아 AI 엔터프라이즈에 포함된 엔비디아 NIM 추론 마이크로 서비스를 레노버 엔터프라이즈 인프라에서 실행함으로써, 고성능 AI 모델 추론을 할 수 있다. 또한, 레노버는 워크스테이션에서 클라우드에 이르기까지 엔비디아 OVX와 엔비디아 옴니버스 설계, 엔지니어링 및 구동을 지원하고 있다고 소개했다. 기업들이 맞춤형 AI, HPC 및 옴니버스 애플리케이션을 신속하게 구축할 수 있도록 레노버는 엔비디아 MGX 모듈형 레퍼런스 디자인을 통해 신속하게 모델을 구축하고 있다. 이로써 맞춤형 모델을 제공받은 CSP 업체들은 가속화된 컴퓨팅을 통해 AI 및 옴니버스 워크로드를 대규모 처리할 수 있게 된다. 엔비디아 H200 GPU를 기반으로 한 해당 시스템은 테라바이트급의 데이터를 처리하는 AI 및 고성능 컴퓨팅 애플리케이션을 통해 과학자와 연구자들이 직면한 문제를 해결할 수 있도록 돕는다. 이외에도 레노버는 엔비디아와 협력을 통해 대규모 AI 트레이닝, 미세 조정, 추론 및 그래픽 집약적 워크로드 처리를 위한 최대 4개의 RTX 6000 에이다 제너레이션(RTX 6000 Ada Generation) GPU를 제공하여 데이터 사이언스 워크스테이션을 강화했다. 이는 자동화된 워크플로를 통해 AI 개발자의 생산성을 향상시킨다. 엔비디아 AI 워크벤치(AI Workbench)를 갖춘 신규 레노버 워크스테이션은 소프트웨어 툴을 통해 추론, 대규모 시뮬레이션, 까다로운 워크플로를 위한 강력한 AI 솔루션을 개발 및 배포할 수 있도록 돕는다. 엔비디아 AI 워크벤치는 모든 개발자로 하여금 생성형 AI 및 머신 러닝 개발을 지원하는 솔루션이다. 레노버 씽크스테이션과 씽크패드 워크스테이션에서 이용 가능한 신규 엔비디아 A800 GPU는 AI용으로 특별히 설계되어, 모든 종류의 AI 워크플로를 활용하는 조직들을 위해 안전하고 프라이빗한 데이터 사이언스 및 생성형 AI 지원 환경을 제공한다. 레노버 인프라스트럭처 솔루션 그룹(ISG)의 커크 스카우젠 사장은 “레노버와 엔비디아는 전 세계 비즈니스를 위한 증강 지능(Augmented Intelligence)의 경계를 허물고 있다. 생성형 AI를 지원하는 최첨단 하이브리드 AI 솔루션 포트폴리오를 통해 데이터가 있는 어느 곳이든 AI 컴퓨팅을 활용할 수 있게 됐다”면서, “우리는 실시간 컴퓨팅, 전력 효율성, 배포 용이성 개선을 기반으로 새로운 AI 활용 사례가 시장에 나올 수 있는 변곡점에 놓여있다. 레노버는 엔비디아와 파트너십을 통해 효율성, 성능, 비용 측면에서 획기적인 발전을 이루어 모든 산업 군에서 AI 애플리케이션 활용을 가속화할 것이다. 또한, 리테일 경험 향상, 도시 재편, 스마트 제조 지원 등 기업들이 대규모 데이터셋의 인사이트를 즉시 활용할 수 있도록 도울 것”이라고 말했다. 엔비디아의 밥 피트(Bob Pette) 엔터프라이즈 플랫폼 부문 부사장은 “AI는 기업들이 데이터를 통해 새로운 인사이트를 얻고 생산성을 향상시킬 수 있는 강력한 힘”이라며, “엔비디아 기술과 통합된 레노버의 새로운 엔터프라이즈 AI 솔루션은 AI를 위한 컴퓨팅 성능을 강화하는 데 있어 중추적인 이정표일 뿐만 아니라, 기업들이 생성형 AI를 활용할 수 있도록 신뢰도 있는 하이브리드 시스템을 제공한다”고 말했다.
작성일 : 2024-03-19
델, “업무에 AI 활용하기 위해 워크스테이션 도입 고려하는 기업 증가”
한국 델 테크놀로지스는 한국IDG와 발간한 ‘업무용 PC 및 워크스테이션 사용 현황 조사’ 보고서에서 올해 AI 관련 IT 투자 계획을 갖고 있는 기업이나 공공기관 중에 워크스테이션을 최초로 도입하겠다는 곳이 약 63%로 나타났다고 밝혔다. 이번 조사는 AI 등 고부하 워크로드가 늘어나는 추세에 따라 워크스테이션의 도입 현황과 향후 전망을 파악하기 위해 실시됐으며, 2023년 11월 2주간 기업의 IT 담당자과 일반 사무직 및 제조·연구 개발 엔지니어 등 전문 직무 사용자 2725명을 대상으로 진행됐다. 조사에 따르면 AI 워크로드를 처리하기 위해 워크스테이션을 도입할 기업 및 공공기관들이 크게 늘어날 것으로 보인다. 현재 일반 업무용 PC만 사용하고 있으나 추후 AI 관련 업무를 위해 IT 기기 및 인프라 도입을 계획하고 있는 기업 및 공공기관의 63%가 워크스테이션 도입을 고려하고 있다고 밝혔다. 한편, 작년에 AI 관련 업무에 워크스테이션을 사용한 기업 및 공공기관은 10% 이하에 머물렀지만, 올해는 그 비율이 48.9%로 증가할 것으로 나타났다. 기업 규모 측면에서는 이미 워크스테이션을 사용하는 스타트업 중 AI 관련 업무에 워크스테이션 추가 도입을 계획하고 있다는 응답이 74.1%였다. 일반 업무용 PC만 사용하는 스타트업도 AI 관련 업무를 위해 워크스테이션을 새로 도입하려고 한다는 응답이 69.2%로, 대기업(66.7%)이나 중견기업(58.3%)보다 높게 나타났다. 대규모 IT 인프라를 활용하기 어려운 스타트업들이 AI 워크로드를 로컬에서 수행할 수 있는 워크스테이션에 높은 관심을 보이는 것으로 해석할 수 있다.  어떤 AI 워크로드에 워크스테이션을 본격적으로 활용할 계획인지 기업 및 공공기관의 IT 담당자들을 대상으로 조사한 결과, AI 모델 트레이닝(45.6%), 시뮬레이션 및 테스트(45.6%), 학습 데이터 준비 및 가공(25.0%) 순으로 나타났다. 이는 지난해 AI 모델 트레이닝(4.3%)과 시뮬레이션 및 테스트(2.9%)에 워크스테이션을 주로 활용했다는 수치와 차이가 나는 결과다.     또한, 이번 조사에 따르면 제조·연구개발 엔지니어(67.3%), IT 개발자(58.4%) 등 전문 직무 응답자의 과반수 이상이 추후 데이터 집약적인 업무를 처리하기 위해 워크스테이션 제품을 사용할 의향이 있다고 답했다. 현재 워크스테이션의 최대 활용 분야 역시 엔지니어링 영역에서 많이 사용하는 프로그램인 CAD/CAM(24.7%) 및 소프트웨어 개발(17.6%)인 만큼 고성능 CPU 및 GPU가 요구되는 분야에서 워크스테이션을 선호하는 것으로 나타났다.   한편 55.5%의 일반 사무직 응답자 또한 추후 업무를 위해 워크스테이션을 도입할 의사를 밝혔다. 최근 일반적인 업무 환경에서 다루는 워크로드의 규모가 전반적으로 증가한 것이 영향을 미친 것으로 보인다. 예컨대 일반 PC 사용자들이 다수의 오피스 소프트웨어를 사용하는 동시에 팀즈나 줌 등의 화상회의 프로그램까지 함께 사용하는 경우가 많아, 더 많은 컴퓨팅 파워가 필요해졌기 때문으로 풀이된다.  워크스테이션은 전문적인 업무를 처리할 수 있도록 설계돼 높은 성능과 안정성이 필수다. 현재 워크스테이션을 사용하는 응답자들은 워크스테이션의 CPU 및 GPU 성능(85.3%)과 스토리지 및 메모리(56.0%)를 고려해 도입했다고 답했으며, 시스템 안정성(39.7%)이 그 뒤를 이었다. 현재 일반 업무용 PC를 사용하고 있는 답변자들 또한 워크스테이션에 관심을 가지는 이유로 고성능(44.1%)을 꼽았고, 필요에 따라 성능을 편리하게 확장할 수 있는 유연성(33.7%)도 비교적 큰 비중을 차지해 고성능 시스템에 대한 수요가 지속될 것으로 보인다.  한국 델 테크놀로지스의 김경진 총괄사장은 “AI와 같은 고부하 워크로드의 증가로 새로운 변화가 빠르게 진행될수록, 국내 기업의 고성능 PC에 대한 수요는 계속 증가할 것이라는 점을 이번 조사를 통해 확인했다. 워크스테이션은 AI 혁신을 가속할 수 있는 최적화된 도구이자 비용 효율적인 대안”이라며, “델 테크놀로지스의 워크스테이션 제품군은 고성능과 안정성뿐 아니라 확장성과 보안 역량을 갖춘 제품군으로, 델 테크놀로지스는 기업들이 워크스테이션을 통해 비즈니스 가치를 극대화할 수 있도록 전략과 고객 지원 체계를 더욱 강화해 나갈 것”이라고 전했다.
작성일 : 2024-02-15
오라클, 2023년 가트너 ‘매직 쿼드런트 전략적 클라우드 플랫폼 서비스’ 부문 리더로 선정
오라클이 가트너가 발표한 2023년 ‘매직 쿼드런트 전략적 클라우드 플랫폼 서비스 부문(Magic Quadrant for Strategic Cloud Platform Services)’의 리더로 선정됐다고 전했다. 가트너가 정의하는 전략적 클라우드 플랫폼 서비스는 컴퓨팅과 네트워크, 스토리지를 포함한 인프라스트럭처 서비스, 관리형 애플리케이션 및 데이터 서비스를 포함한 플랫폼 서비스, 고객이 클라우드 기반 IT 제공 모델을 도입할 수 있도록 지원하는 혁신 서비스를 통합한 표준화∙자동화된 퍼블릭 클라우드 제품이다. 오라클은 SaaS뿐만 아니라 IaaS, PaaS 서비스도 제공하고 있다. 이를 통해 고객은 클라우드 또는 분산형 시스템에서 애플리케이션을 실행하는 방식과 위치에 있어 보다 다양한 선택지를 갖게 되며, 이와 같은 유연성을 통해 기업 조직은 데이터 주권 및 기타 규제 요구 사항을 보다 손쉽게 준수할 수 있다. 다양한 규모의 기업 조직이 오라클의 OCI 클라우드 서비스를 활용하고 있다.   OCI는 최근 오라클 데이터베이스앳애저(Oracle Database@Azure), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), AWS 기반 MySQL 히트웨이브 레이크하우스(MySQL HeatWave Lakehouse on AWS) 등의 분산형 클라우드 제품을 출시했다. 또한 클라우드 인프라스트럭처 플랫폼 오라클 알로이(Oracle Alloy)의 도입 사례가 늘고 있다. OCI의 분산형 클라우드 모델은 고객이 원하는 위치에서 동일한 100여 개의 OCI 클라우드 서비스를 일관된 가격에 제공하며 유연성을 제공한다. 이를 통해 OCI는 규제가 엄격한 산업 분야 고객들의 요구 사항도 충족할 수 있다. 현재 OCI는 2개의 EU 소버린 클라우드 리전을 포함해 전 세계 23개국에서 46개의 퍼블릭 클라우드 리전을 운영 중이며, 오라클의 퍼블릭 클라우드 리전은 해당 지역의 데이터 레지던시 및 데이터 주권 요구사항을 충족한다. 또한 오라클은 미국, 영국, 호주 정부용 클라우드 및 미국 국가 안보용 독립 클라우드 리전을 별도 운영 중이다. 고객은 이외에도 자체 데이터 센터에서 OCI 클라우드 서비스를 실행할 수 있으며, 파트너사는 오라클 알로이를 사용해 자사의 브랜드 클라우드 서비스를 맞춤 설정할 수 있다. 오라클 데이터베이스앳애저는 2023년 12월부터 미국 동부 지역에서 이용 가능하며, 고객은 마이크로소프트 애저 데이터 센터에 구축된 OCI에서 실행되는 오라클 데이터베이스 서비스에 직접 액세스할 수 있다. 이 새로운 서비스를 통해 고객은 OCI 기반 오라클 데이터베이스가 제공하는 모든 성능, 확장성, 워크로드 가용성이라는 이점과 마이크로소프트 애저가 제공하는 보안성, 유연성, 동급 최강의 서비스를 동시에 누릴 수 있다. 마이크로소프트는 오라클 외에 클라우드 마이그레이션, 멀티클라우드 배포 및 관리를 간소화할 수 있는 OCI 데이터베이스 서비스를 제공하는 하이퍼스케일러다. 한편, OCI는 대규모 모델 트레이닝 및 서비스를 위한 강력한 인프라를 제공한다. OCI는 엔비디아와의 파트너십을 통해 초저지연성 RoCE(RDMA over converged ethernet) 네트워크와 연결된 최신 GPU 기반 수퍼클러스터를 제공할 수 있게 된다. 또한 OCI는 코히어(Cohere)의 최첨단 거대 언어 모델(LLM)을 활용하고 오라클 고유의 산업 지식 및 데이터 인사이트를 통해 향상된 고성능 생성형 AI 모델을 제공한다. 오라클은 클라우드 애플리케이션, 산업 애플리케이션, 데이터베이스 포트폴리오에 해당 생성형 AI 서비스를 내장해 고객이 기존 비즈니스 프로세스 내에서 최신 혁신 기술을 활용할 수 있게 지원한다. 이외에도 최근 출시된 OCI 생성형 AI 서비스를 포함한 OCI AI 서비스는 사전 구축된 머신러닝 모델을 통해 다양한 서비스를 제공함으로써 개발자들이 AI를 애플리케이션 및 비즈니스 운영에 손쉽게 적용할 수 있게 한다. OCI의 클레이 마고요크(Clay Magouyrk) 총괄 부사장은 “오라클의 분산형 클라우드 전략은 고객의 다양한 니즈를 충족하고, OCI에 대한 글로벌 수요 증가에 대응하기 위해 설계되었다. 오늘날 모든 산업 분야, 모든 규모의 기업 조직이 OCI를 사용해 그들에게 필요한 유연성, 성능, 확장성, 가용성을 확보하고 있다. 기본으로 내장된 보안 세이프가드 기능과 효율적인 가격 대비 성능을 갖춘 오라클은 앞으로도 시장에서의 입지가 더욱 강화될 것이라고 기대한다”고 설명했다.
작성일 : 2023-12-13
[칼럼] 2024 산업 관련 미래 기술 트렌드와 전망 - 레노버 수미르 바티아 아태 사장
글 : 수미르 바티아(Sumir Bhatia) /  레노버 인프라스트럭처 솔루션 그룹(ISG) 아시아태평양 사장   레노버에서 바라본 2023-2024 기술 트렌드 전략적 탐색 및 향후 전망   2023 결산 -  5G와 엣지컴퓨팅의 융합, 대형 언어 모델(LLM)을 통한 생성형 AI, 메타버스 등 중추적인 역할  2023년은 다양한 기술들이 역동적으로 출현했던 한 해로써 IT 테크 생태계의 핵심적인 시기로 손꼽힌다. 특히 AI, 5G, 클라우드 컴퓨팅, 엣지 컴퓨팅, AR, VR 등에 이르는 테크 스펙트럼은 주목할 만한 진화의 과정을 겪어 왔다. IDC에서 실시한 ‘CIO 테크놀로지 플레이북(CIO Technology Playbook) 2023’ 조사에 따르면 한국 기업의 84%가 비즈니스 운영에 AI를 이미 사용하고 있거나 향후 12개월 내로 도입할 계획인 것으로 나타났다. 이처럼 수많은 한국 기업과 최고정보책임자(CIO)들은 AI도입에 대한 강한 의지를 가지고 있으나, 아직까지는 계획 초기 단계에 머물러 있는 것으로 드러났다. AI 투자를 통해 가치를 창출하려면 현 상황에 대한 집중 분석이 필요한 것처럼, CIO들은 AI가 가장 큰 영향력을 끼칠 수 있는 핵심 영역을 확인한 후 AI 도입에 대한 최종 의사 결정을 내릴 것으로 예상된다. 2023년을 마무리하며, 다음은 지난 한 해 동안 산업 전반을 재편하는 데 중추적인 역할을 한 핵심 기술들이다. •    5G와 엣지 컴퓨팅의 융합: 국내 5G 가입자가 약 3천만 명을 넘어서자 인프라 비용 및 보안 등 새로운 우려 사항이 발생하기 시작했다. 이러한 문제를 해결하기 위해 엣지 컴퓨팅을 선택하는 기업들이 점차 늘어나고 있으며, 기업들은 엣지를 통해 실시간 데이터 처리를 통한 예측 분석, 대역폭 최적화, 사용자 경험을 향상시키고 있다. •    대형언어모델(LLM)을 통한 생성형 AI 강화: LLM은 생성형 AI에 필수적인 요소로써, 자연어를 이해하고 콘텐츠를 생성하며 고객들과의 더 나은 상호 작용을 돕는다. 그러나 편향되거나 의도치 않은 콘텐츠를 생성할 수 있다는 우려 속 사용자 신뢰도를 유지하기 위해 LLM의 책임감있는 사용이 무엇보다 중요해졌다. •    메타버스의 발전: 메타버스는 기업들이 고객을 위한 몰입형 및 대화형 경험을 제공하기 위해 AR, VR, NFT를 활용하기 시작하며 주목받기 시작했다. 더불어 지금의 메타버스는 마케팅, 제품 개발 및 서비스 향상 등을 위한 도구로써 기업의 수익 구조를 새롭게 구성할 수 있는 수단으로 진화해가고 있다. 지금까지 기업들은 끊임없이 진화하는 디지털 환경에 발맞춰 왔다. 이러한 모멘텀을 지속하기 위해 기업 내 IT 리더 및 최고경험관리자(CXO)들은 2024년에 떠오를 미래 기술 트렌드에 대비할 필요가 있다. 2024 떠오를 미래 기술 트렌드 - 엣지 AI, 하이브리드 AI, 확장 현실(XR), 데이터 마스킹 등 제시  •       엣지 AI: 엣지 AI는 사물인터넷(IoT)과 결합되고 5G를 활용하며 개인정보 보호를 우선시하는 형태로, 향후 의료, 제조 및 소매업 등 다양한 산업에 혁신을 일으킬 것이다. 일례로 엣지 AI는 실시간 의료 진단 및 예측, 맞춤형 고객 경험을 가능케 한다. 또한, 자율주행 차량은 엣지 AI를 통해 도로에서의 신속한 의사결정이 가능하며 스마트 시티에서는 도시 상황을 실시간 분석함으로써 공공 안전을 향상시킬 수 있다. 이처럼 엣지 AI는 다양한 분야에서 패러다임의 전환을 불러올 것으로 예상된다. •       하이브리드 AI: 기업들은 생성형 AI 어플리케이션을 맞춤형으로 구현하기 위해 완전히 통합된 시스템을 필요로 한다. 이를 위해 엣지에서 클라우드에 이르는 다양한 환경에서의 AI 기반 컴퓨팅이 필요하게 될 것이다. •       확장 현실(XR)을 통한 메타버스 강화: 기업들은 XR을 활용하여 버츄얼 쇼룸 및 이벤트, 몰입형 트레이닝, 공동 작업 공간, 3D 데이터 시각화 등을 구현함으로써 메타버스에 대한 존재감을 향상시킬 수 있다. XR를 전략적으로 활용한다면 고객들의 참여도를 높이고 기업 혁신을 촉진할 수 있을 것이다. •       데이터 마스킹: 갈수록 증가하는 사이버 위협과 엄격한 데이터 보호 규정에 따라 데이터 마스킹 소프트웨어에 대한 수요가 크게 증가할 것으로 예상된다. 예를 들어 의료 분야에서는 환자 기록을 익명화하여 연구를 수행하고, 리테일 산업에서는 향후 분석에 쓰일 수 있는 고객 신원을 보호하며, 금융 기관은 테스트 중 중요한 데이터를 보호할 수 있게 된다. •       메타 클라우드: 멀티 클라우드 채택이 증가함에 따라, 여러 클라우드 환경과 공급업체의 사용으로 인해 조직 내 복잡성이 증가하고 있다. 메타 클라우드는 API를 활용해 호환성 계층을 구축하여 보다 복잡한 멀티 클라우드 환경을 관리하는 효과적인 방법을 제공한다. 또한, 기업들이 다양한 클라우드 플랫폼 전반에 걸쳐 데이터를 관리하고 애플리케이션을 지속적으로 보호할 수 있도록 지원한다. •       하이브리드 클라우드 데이터 관리 솔루션: 하이브리드 및 AI 시대의 고급 데이터 관리 솔루션은 복잡한 데이터 문제를 해결하는 클라우드 네이티브 아키텍처를 제공한다는 점에서 2024년에 중요한 역할을 하게 될 것이다. •       엔터프라이즈 AI: 기업 내 AI 채택이 증가하면서, 엔터프라이즈 AI 또한 2024년 주요 기술 트렌트로 부상할 것이다. 기업 및 조직 프레임워크 안에서 AI를 통해 필요한 정보를 추출하고 평가를 내리며 이를 통해 적절한 해결책을 제시할 수 있게 될 것이다. •       지속가능성 프레임워크: 기업들은 지속가능성 프레임워크 및 전략을 구축하고 환경 관리 시스템을 통합함으로써, 기업이 환경에 미치는 영향을 줄이고 운영 효율성을 높이는 데 초점을 맞출 것이다. 최근에는 데이터 센터 화재와 관련된 우려가 고조되며, 탄소 배출 및 에너지 소비 감축에 도움을 주는 액체 냉각 기술에 관심이 집중되고 있다. 전문적인 AI 제품이 만들어내는 시너지 효과는 지금의 기술 혁신 시대를 이끌어가는데 매우 중요하다. 기업 내 모든 디바이스 및 인프라 전반에 걸쳐 원활한 커뮤니케이션과 동일한 알고리즘 사용을 보장하기 위해서, 기업들은 AI에 대한 전반적인 준비가 필요하다. 한 해를 맞이하는 지금 새로운 기술들을 적극적으로 수용하는 자세를 갖춘다면, 시대의 흐름을 미리 읽을 뿐만 아니라 기업 경쟁력을 유지할 수 있을 것이다. 격변하는 IT 환경 속 비즈니스 흐름을 탐색하고 단순 생존을 넘어 성공을 이뤄내기 위한 열쇠는 유망 기술 트렌드를 능동적으로 파악하려는 자세에 달려 있다.
작성일 : 2023-12-12
AWS, 고성능·저지연 클라우드 객체 스토리지 ‘아마존 S3 익스프레스 원 존’ 정식 공개
아마존웹서비스(AWS)는 ‘AWS 리인벤트 2023(AWS re:Invent 2023)’ 이벤트에서 ‘아마존 S3 익스프레스 원 존(Amazon Simple Storage Service Express One Zone)’을 공개했다. 아마존 S3 익스프레스 원 존은 지연 시간에 민감한 고객의 애플리케이션에 한 자리 수 밀리초의 일관된 데이터 액세스를 제공하기 위해 설계된 고성능 단일 영역 아마존 S3 스토리지 클래스다. 아마존 S3 익스프레스 원 존은 지연 시간이 짧은 클라우드 객체 스토리지로, AWS 리전 내의 모든 AWS 가용 영역에서 표준 아마존 S3 보다 최대 50% 낮은 요청 비용으로 최대 10배 빠른 데이터 액세스 속도를 제공한다. 까다로운 워크로드의 경우, 고객은 컴퓨팅 리소스와 동일한 AWS 가용 영역에 아마존 S3 익스프레스 원 존 데이터를 배치해 컴퓨팅 성능과 비용을 최적화하는 동시에 데이터 처리 속도를 높일 수 있다. AWS의 클라우드 스토리지 서비스인 아마존 S3는 350조 개 이상의 객체를 보관하고 있으며 초당 평균 1억 건 이상의 요청을 처리한다. 하지만 ML 훈련 및 추론, 대화형 분석, 재무 모델 시뮬레이션, 실시간 광고, 미디어 콘텐츠 제작과 같은 새로운 사용 사례에서는 분당 수백만 번 데이터를 쓰고 액세스할 수 있으며, 성능 요구 사항을 충족하기 위해 일관된 한 자릿수 밀리초의 응답 시간이 필요하다. 예를 들어, 인공지능(AI) 및 ML 모델 학습에는 수백만 개의 이미지와 텍스트 한 줄을 몇 분 안에 처리해야 하는 경우가 많다. 성능이 중요한 애플리케이션의 스토리지 지연 시간, 애플리케이션 실행 시간, 컴퓨팅 비용을 줄이기 위해 고객들은 자주 액세스하는 데이터를 아마존 S3에서 맞춤형 캐싱 솔루션으로 옮기는 추세다. 그러나 이렇게 솔루션을 옮기면 복잡성이 증가하고 운영 부담이 커지며, 여러 API 세트를 사용하는 추가 스토리지 인프라를 유지해야 하므로 애플리케이션 수정이 필요하다. 또한 데이터가 인스턴스에 복사되는 동안 컴퓨팅 인프라가 실행되어야 하므로 유휴 컴퓨팅 시간이 발생하여 비용이 증가하고 비효율이 발생할 수 있다. 이번에 발표된 아마존 S3 익스프레스 원 존은 새로운 고성능 스토리지 클래스로, 머신러닝(ML) 트레이닝 및 추론, 대화형 분석, 미디어 콘텐츠 제작과 같은 요청 집약적인 작업을 위한 고성능의 스토리지 클래스다. 아마존 S3 익스프레스 원 존을 통해 고객은 필요에 따라 스토리지를 확장하거나 축소할 수 있으며, 현재 사용 중인 아마존 S3 API(Amazon S3 API)로 작업할 수 있다. 또한 전용 하드웨어와 소프트웨어에 데이터를 복제하고 저장함으로써 아마존 S3 스탠다드(Amazon S3 Standard)보다 최대 10배 빠른 액세스 속도를 제공하여 데이터 처리 속도를 높인다. 아마존 S3 익스프레스 원 존은 액세스 속도를 더욱 높이고 분당 수백만 건의 요청을 지원하기 위해 새로운 버킷 유형인 아마존 S3 디렉토리 버킷에 데이터를 저장한다. 아마존 S3 익스프레스 원 존을 사용하면 데이터 액세스 속도가 아마존 S3 스탠다드보다 최대 10배 빠르다. 따라서 데이터 레이크 쿼리가 최대 4배 더 빠르게 완료되어 분석에 소요되는 워크로드 시간이 단축되므로 데이터 분석가가 인사이트를 도출하고 더 빠르게 의사 결정을 내릴 수 있다. 아마존 S3 익스프레스 원 존을 통해 고객은 스토리지를 확장하거나 축소할 수 있으며, 애플리케이션이 현재 사용되는 것과 동일한 아마존 S3 API를 통해 데이터에 액세스하기 때문에 지연 시간이 짧은 워크로드를 위해 여러 개의 스토리지 시스템을 관리할 필요가 없다.  고객은 몇 번의 클릭만으로 새로운 아마존 S3 디렉토리 버킷(Amazon S3 directory bucket)을 생성하고, 생성한 아마존 S3 디렉토리 버킷에 직접 새 개체를 업로드하거나, AWS 관리 콘솔의 아마존 S3 배치 작업을 사용하여 다른 아마존 S3 스토리지 클래스에 있는 기존 데이터 세트의 개체를 복사할 수 있다. 아마존 S3 익스프레스 원 존은 아마존 S3용 마운트 포인트(Mountpoint for Amazon S3), 아마존 S3 서버사이드 암호화(Amazon S3 Server-Side Encryption), 아마존 S3 블록 퍼블릭 액세스(Amazon S3 Block Public Access)와 같은 아마존 S3 기능뿐만 아니라 아마존 EMR(Amazon EMR), 아마존 레드시프트(Amazon Redshift), 아마존 세이지메이커(Amazon SageMaker), 아마존 베드록(Amazon Bedrock)과 같은 AWS 서비스도 지원한다. 아마존 S3 익스프레스 원 존은 미국 동부(노던 버지니아), 미국 서부(오레곤), 유럽(스톡홀름), 아시아 태평양(도쿄)에서 사용할 수 있으며, 곧 추가 AWS 리전에서도 사용 가능하다. AWS의 제임스 키르쉬너(James Kirschner) 아마존 S3 제너럴 매니저는 “수백만 명의 고객이 저비용 아카이브 스토리지에서 페타바이트 규모의 데이터 레이크에 이르기까지 모든 용도로 아마존 S3를 사용하고 있으며, 매 밀리초가 중요한 가장 성능 집약적인 애플리케이션을 지원하기 위해 사용을 확대하고자 한다”면서, “아마존 S3 익스프레스 원 존은 지연 시간에 가장 민감한 애플리케이션에 가장 빠른 데이터 액세스 속도를 제공하며, 고객이 액세스 빈도가 높은 데이터 세트에 대해 분당 수백만 건의 요청을 처리하는 동시에 요청 및 컴퓨팅 비용을 절감할 수 있도록 지원한다”고 설명했다.
작성일 : 2023-12-06
유니버설 로봇, 울산대학교 공인 인증 트레이닝 센터 지정
유니버설 로봇은 울산대학교가 유니버설 로봇의 공인 인증 트레이닝 센터로 지정되었다고 밝혔다. 앞으로 유니버설 로봇 코리아는 울산대학교와 산학 협력 관계를 통해 ▲학생의 취업 및 현장 실습 ▲산학 협동 교육 프로그램 공동 개발 및 수행 ▲산학 협동 공동 연구 과제 도출 및 수행 ▲학교 교육 참여 ▲산학 협동 연구 및 교육 관련 인적 교류 등을 추진하게 된다. 유니버설 로봇은 현재 전 세계 120개 트레이닝 센터를 보유하고 있다. 유니버설 로봇 공식 인증 트레이닝 센터로 지정되려면 유니버설 로봇의 가이드라인을 바탕으로 협동로봇 교육을 진행할 수 있는 적합한 시설과 장비를 갖추어야 한다. 모든 공식 인증 트레이닝 센터는 각 지역의 유니버설 로봇 지사 및 파트너사에 의해 운영되며, 로봇에 대한 경험이 없는 일반인 및 비전문가의 눈높이에 맞추어 협동로봇 프로그래밍 기술 교육을 제공한다. 유니버설 로봇 코리아는 판교, 서울 강남, 부산, 수원, 대구 등에 공식 인증 트레이닝 센터를 운영하고 있으며, 최근 아산 스마트팩토리 마이스터고, 인하공업전문대학, 서울 로봇고등학교와 업무 협약을 맺은 바 있다. 울산대학교는 국내에서 열한 번째, 부산/울산/경남 지역 내 대학교로는 첫 번째 유니버설 로봇 공식 인증 트레이닝 센터로 지정됐다. 이번 센터 지정으로 유니버설 로봇은 울산대학교 학생 및 지역 산업체 재직자에게 협동로봇 교육 프로그램을 제공해 경남 지역 로봇 인재 양성에 힘쓸 계획이다.     울산대학교의 이재신 산학협력부총장은 “이번 공식 인증 트레이닝센터 지정으로 협동로봇 교육을 더욱 강화해 울산 및 경남 지역 내 로봇 산업 전문 인재를 양성하기 위해 더욱 노력하겠다”고 말했다. 유니버설 로봇의 이내형 대표는 “로봇 및 AI 융합 산업이 미래 사회의 주요 먹거리로 자리잡은 오늘날, 협동로봇 교육은 차세대 인재 양성을 위해 반드시 필요한 핵심 요소”라며, “앞으로도 유니버설 로봇 코리아는 로봇일상화 시대를 맞이하여 다양한 교육 관련 이니셔티브를 추진하는 것은 물론, ‘로봇과 함께 일하는’ 사회로 나아가는 데 힘을 기울일 것”이라고 말했다.
작성일 : 2023-11-27
인텔, “4세대 제온 프로세서와 가우디 가속기로 GPT-3 성능 향상”
인텔은 ML커먼스가 인텔 가우디2(Intel Gaudi2) 가속기 및 인텔 어드밴스드 매트릭스 익스텐션(Intel AMX)이 탑재된 4세대 인텔 제온 스케일러블 프로세서의 AI 모델 학습에 대한 업계 표준 MLPerf 트레이닝(MLPerf Training) v3.1 벤치마크 측정 결과를 발표했다고 밝혔다.  최신 ML커먼스의 MLPerf 결과는 지난 6월 발표한 MLPerf 트레이닝 결과보다 강력한 인텔의 AI 성능을 기반으로 한다. 벤치마크 결과에 따르면, 가우디2는 v3.1 학습 GPT-3 벤치마크에서 FP8 데이터 유형을 적용해 두 배 높은 성능을 보여줬다.  인텔 가우디2 및 4세대 제온 프로세서는 다양한 하드웨어 구성으로 우수한 AI 학습 성능을 입증해 점점 더 다양해지는 고객의 AI 컴퓨팅 요구 사항을 해결할 수 있다. 인텔은 “가우디2는 AI 컴퓨팅 요구사항에 있어 가격 대비 높은 성능을 제공한다. 가우디2에 대한 MLPerf 결과는 AI 가속기의 학습 성능이 향상되었음을 입증한다”고 밝혔다.   ▲ 인텔 가우디2 가속기   가우디2는 FP8 데이터 유형 구현으로 v3.1 학습 GPT-3 벤치마크에서 두 배의 성능 향상을 보였다. 6월 MLPerf 벤치마크 대비 학습 시간이 절반 이상으로 단축됐으며, 384개의 인텔 가우디2 가속기를 사용해 153.38분 만에 학습을 완료하기도 했다. 가우디2 가속기는 E5M2 및 E4M3 형식 모두에서 FP8을 지원하며 필요 시 지연 스케일링 옵션도 제공한다. 인텔 가우디2는 BF16을 사용해 20.2분 만에 64개의 가속기로 스테이블 디퓨전(Stable Diffusion) 멀티모달 모델에 대한 학습을 시연했다. 향후 MLPerf 트레이닝 벤치마크에서는 FP8 데이터 유형에 대한 스테이블 디퓨전 성능이 제출될 예정이다. 8개의 인텔 가우디2 가속기에서 BERT와 ResNet-50에 대한 벤치마크 결과는 각각 BF16을 사용하여 13.27분과 15.92분을 나타냈다. 한편, 4세대 제온 스케일러블 프로세서의 ResNet50, RetinaNet 및 BERT에 대한 결과는 2023년 6월 MLPerf 벤치마크에 제출된 기본 성능 결과와 유사하게 나타났다. DLRM dcnv2는 6월에 제출된 새로운 CPU 모델로, 4개의 노드만 사용해 227분의 학습 시간을 기록했다. 인텔은 “4세대 제온 프로세서의 성능을 통해 많은 엔터프라이즈 기업이 범용 CPU를 사용하여 기존 엔터프라이즈 IT 인프라에서 중소 규모의 딥 러닝 모델을 경제적이고 지속적으로 학습할 수 있으며, 특히 학습이 간헐적인 워크로드인 사용 사례에 적합하다”고 전했다. 한편, 인텔은 소프트웨어 업데이트 및 최적화를 통해 향후 MLPerf 벤치마크에서 AI 성능 결과가 더욱 향상될 것으로 예상하고 있다. 인텔은 고객에게 성능, 효율성 및 유용성을 요구하는 동적인 요구 사항을 충족하는 AI 솔루션에 대한 더 많은 선택지를 제공하겠다는 전략이다. 인텔 데이터센터 및 AI 그룹 총괄 산드라 리베라(Sandra Rivera) 수석부사장은 “인텔은 AI 포트폴리오를 지속적으로 혁신하고 있으며, 연이은 MLPerf 성능 결과를 통해 ML커먼스 AI 벤치마크의 기준을 높이고 있다. 인텔 가우디 및 4세대 제온 프로세서는 고객에게 뚜렷한 가격 대비 성능 이점을 제공하며 즉시 사용 가능하다. 인텔의 다양한 AI 하드웨어 및 소프트웨어 구성은 고객에게 AI 워크로드에 맞는 포괄적인 솔루션과 선택지를 제공한다”고 말했다.  
작성일 : 2023-11-10
[포커스] AWS, “클라우드와 생성형 AI로 산업 분야의 혁신 뒷받침한다”
아마존웹서비스(AWS)는 10월 11일 서울 코엑스에서 ‘AWS 인더스트리 위크 2023’을 진행했다. 이번 AWS 인더스트리 위크 2023에서는 리테일, 금융, 통신 및 미디어, 제조, 하이테크 등 산업 분야를 중심으로 최신 클라우드 트렌드와 활용도 높은 기술을 소개하고, 산업별 AWS 솔루션을 통한 혁신 사례를 소개했다. ■ 정수진 편집장     국내 클라우드 투자 확대로 경제 효과 창출 AWS코리아는 지난 2016년 전 세계 12번째로 서울 리전을 개설했다. 현재 서울 리전은 4개의 가용영역(AZ)과 다수의 에지 로케이션을 운영하고 있다. AWS코리아의 함기호 대표는 개회사에서 “매월 수만 명의 한국 고객들이 애플리케이션과 데이터베이스를 효율적으로 운영하고, 최첨단 클라우드 기술을 이용하며, 데이터를 로컬에 안전하게 저장하고 대기시간을 줄일 수 있게 됐다”면서, 서울 리전에 대한 AWS의 지속적인 투자가 한국 GDP에도 가시적인 영향을 주었다고 소개했다. AWS코리아에 따르면, 지난 5년간 AWS는 서울 리전의 데이터센터 인프라와 관련해 2조 7300억 원을 투자했으며, 한국 GDP에 약 4조 9100억 원의 경제적 효과를 기여한 것으로 추정된다. 함기호 대표는 “AWS는 향후 5년간 서울 리전의 데이터센터 공급망 구축과 운영을 위해 7조 8500억 원을 투자할 계획이다. 이번 투자를 통해 AWS는 건설, 시설 유지보수, 엔지니어링, 보안, 통신 등 다양한 산업분야에 걸쳐 2027년까지 한국 GDP에 약 15조 600억 원의 경제적 가치를 기여할 전망이며, 직/간접 그리고 유발 효과로 연평균 1만 2300개 이상의 전일제 일자리를 지원할 것으로 보인다”고 설명했다.   ▲ AWS코리아 함기호 대표   산업 분야에서 생성형 AI의 잠재력에 주목 AWS의 올리비에 클라인 수석 테크놀로지스트는 ‘AWS 생성형 AI 이야기 : 머신러닝에서 AI, 클라우드까지’라는 주제의 기조연설에서 생성형 AI(Generative AI)의 발전상과 함께 다양한 분야에서 비즈니스 운영을 혁신할 수 있는 AI의 잠재력에 대해 소개했다. 생성형 AI는 놀라운 잠재력으로 인해 AI 기술의 발전과 함께 데이터의 양이 크게 늘고, 확장 가능한 컴퓨팅 용량, 머신러닝(ML) 기술의 발전 등이 맞물리면서 생성형 AI는 최근 몇 년 사이에 테크 업계의 핵심 기술로 떠오르고 있다. 클라인 수석 테크놀로지스트는 “생성형 AI를 통해 향후 10년간 전 세계 GDP가 7조 달러 증가할 것으로 예상되며, 기업은 생산형 AI를 엔지니어링, 마케팅, 고객 서비스, 재무, 영업 등 다양한 비즈니스 영역에 적용할 수 있다”고 짚었다. 최근 다양한 생성형 AI 서비스가 등장해 미술, 음악, 텍스트, 이미지, 애니메이션, 동영상 등 크리에이티브 콘텐츠 제작 방식을 바꾸고 있다. 이외에도 생성형 AI는 챗봇, 가상 비서, AI 고객 센터, 개인화 및 콘텐츠 조정 기능을 강화하여 고객 경험을 향상시키는 데 기여할 수 있다. 기업 내부적으로는 대화형 검색, 콘텐츠 제작, 텍스트 요약, 코드 생성 등을 지원함으로써 조직의 생산성을 높인다. 지능형 문서 처리, 유지보수 지원, 품질 관리, 육안 검사, 합성 학습 데이터 생성을 통해 운영을 간소화할 수 있다는 점도 주목을 받고 있다. 일례로, LG는 아마존 세이지메이커를 활용한 AI 아티스트를 제작해 다양한 디자인을 생성하고 있으며, 오토데스크는 AWS와 협력해 항공기 구조물의 다양한 렌더링을 제작하고 구조 경량화 및 최적화를 진행하고 있다. 클라인 수석 테크놀로지스트는 “생성형 AI 기반의 합성 데이터로 AI를 학습시키면 기존 AI를 확장할 수 있고, 3D 시뮬레이션을 활용해 예외적인 상황에 대해 AI가 학습할 수 있는 합성 데이터를 만들 수도 있다”고 전했다.   ▲ AWS 올리비에 클라인 수석 테크놀로지스트   다양한 AI 기술 개발부터 지원 프로그램까지 AWS는 강력한 기능, 안전한 솔루션, 광범위한 교육 리소스를 통해 모든 사람이 생성형 AI에 액세스하고 혁신을 이룰 수 있도록 돕는다는 전략을 세웠고, 다양한 기술 개발을 추진하고 있다. 아마존 베드록(Amazon Bedrock)은 텍스트와 이미지 등 기초 모델(파운데이션 모델)에 액세스하기 위한 플랫폼이다. 확장성과 데이터 프라이버시를 보장하면서 커스터마이징 기능을 제공하여 사용자가 최소한의 레이블 데이터로 모델을 미세 조정할 수 있는 것이 특징이다. 이에 기반해 AWS가 선보인 아마존 베드록 에이전트는 생성형 AI 애플리케이션을 개발하기 위한 작업을 자동화할 수 있다. 아마존 코드위스퍼러(Amazon CodeWhisperer)는 AI가 실시간으로 코드를 제안함으로써 코딩 작업을 간소화하고 개발자의 생산성을 높인다. 클라인 수석 테크놀로지스트는 “코드위스퍼러를 사용한 생산성 챌린지 참가자들은 57% 더 빠르게 작업을 완료하고 27% 더 높은 성공률을 보였다. 액센츄어, 코흐 인더스트리스(Koch Industries), 스머그머그(SmugMug), 인포시스(Infosys), 퍼블리시스 사피엔트(Publicis Sapient), HCL테크 등에서 생산성을 높이고 성능을 개선하기 위해 코드위스퍼러를 사용하고 있다”고 소개했다. AWS 헬스스크라이브(HealthScribe)는 의료 분야에서 대화를 기반으로 임상 문서 생성을 가속화하는 서비스이다. 이 서비스는 음성 인식과 생성형 AI를 활용하여 포괄적인 임상 노트를 생성함으로써 의료 분야의 생산성 향상에 기여할 수 있다. 클라인 수석 테크놀로지스트는 생성형 AI를 위해 데이터 임베딩의 저장과 검색 효율을 높이고 데이터 중복을 줄여서 유지보수를 간소화하는 AWS의 벡터 데이터베이스 기능,  딥러닝 트레이닝 및 추론을 위한 성능과 비용 효과를 높이는 아마존 EC2 Inf2 인스턴스 및 Trn1 인스턴스를 포함한 전용 가속기와 ML 칩 등도 소개했다. 그러면서 “AWS는 생성형 AI를 통해 혁신을 주도하고 다양한 산업에서 채택을 가속화할 수 있는 광범위한 도구와 서비스를 제공하고 있다”고 전했다. AWS코리아는 국내 기업들이 생성형 AI의 활용을 지원하기 위한 프로그램을 운영한다고 밝혔다. AWS코리아의 생성형 AI 지원 프로그램은 기업들이 생성형 AI 분야의 핵심인 기초 모델을 개발하고 운영하기 위한 조기 투자를 실행하고, 글로벌 생성형 AI 시장을 주도할 수 있도록 돕는 것이 목표이다. 대규모 언어 모델(LLM), 멀티 모달 모델 및 타 전문 분야 모델을 포함한 모든 형태의 기초 모델을 개발하고 운영하는 기업에게 최대 100만 달러의 AWS 크레딧과 기술 및 비즈니스 지원, 파트너 에코 생성 지원과 공동 세일즈 마케팅을 제공한다. AWS코리아는 2023년 4분기부터 2024년 1분기까지 총 500만 달러의 투자가 진행될 예정이라고 밝혔다.     산업 분야의 클라우드 활용 방안과 사례 소개 한편, AWS코리아는 이번 인더스트리 위크 행사에서 리테일, 통신/미디어, 금융/핀테크, 제조, 하이테크 등 산업 분야에 걸쳐 확장되는 클라우드의 활용 사례와 이를 뒷받침하는 자사의 기술 및 솔루션을 소개했다. 리테일 분야에서는 지속 가능한 비즈니스 성장을 위한 리테일 전략으로 민첩성과 데이터를 꼽았고, 통신 및 미디어 분야에서는 비즈니스 다음 단계의 성공을 위한 통신 미디어에서의 클라우드 혁신 방안을 짚었다. 금융 및 핀테크 분야에서는 금융 비즈니스의 성장과 성공을 지원하는 금융 클라우드를, 하이테크 분야에서는 다양한 밸류체인에서 클라우드 활용을 통한 하이테크 비즈니스 혁신을 소개했다. 특히 제조 분야에서는 인공지능/머신러닝, 사물인터넷, 데이터, 지속가능성 등 제조업의 클라우드 트렌드를 짚었다. 그리고 ▲SK디스커버리의 그룹사 통합 데이터레이크 구축 ▲대규모의 IoT 로그 처리를 위한 수프리마의 아키텍처 변화 ▲HD현대일렉트릭의 스마트 에너지 플랫폼 구축과 적용 ▲두산에너빌리티의 현장 예측 진단 솔루션 클라우드화 ▲현대엔지니어링의 2D/3D 플랜트 설계 가상화 ▲LLM을 활용한 한국타이어의 고객 피드백 분석과 성능 개선 등이 발표됐다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-11-02