• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "인프라"에 대한 통합 검색 내용이 4,467개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아-구글 딥마인드, 대규모 언어 모델 혁신 위해 협력
엔비디아가 구글의 연례 개발자 콘퍼런스인 ‘구글 I/O 2024’에서 세 가지 새로운 협업 내용을 발표했다. 이번 협업으로 엔비디아와 구글은 세계적 수준의 성능을 갖춘 AI 기반 애플리케이션을 더 쉽게 만들 수 있도록 개발자를 지원할 예정이다. 텍스트, 이미지, 사운드와 같은 여러 유형의 데이터를 처리하는 모델이 점점 더 보편화되면서 생성형 AI를 구동하는 대규모 언어 모델(LLM)에 대한 혁신이 가속화되고 있다. 그러나 이러한 모델을 구축하고 배포하는 것은 여전히 어려운 과제다. 개발자는 모델을 빠르게 경험하고 평가해 사용 사례에 가장 적합한 모델을 결정한 다음, 비용 효율적일 뿐만 아니라 최상의 성능을 제공하는 방식으로 모델을 최적화할 수 있는 방법이 필요하다. 엔비디아는 이번 행사에서 구글이 선보인 두 가지 새로운 모델인 젬마 2(Gemma 2)와 팔리젬마(PaliGemma)를 최적화하기 위해 텐서RT-LLM(TensorRT-LLM)을 사용하고 있다. 이 두 모델은 모두 제미나이(Gemini)를 만드는 데 사용된 동일한 연구와 기술을 기반으로 구축됐으며, 각각 특정 영역에 중점을 둔다. 젬마 2는 광범위한 사용 사례를 위한 차세대 젬마 모델로, 획기적인 성능과 효율성을 위해 설계된 완전히 새로운 아키텍처가 특징이다. 팔리젬마는 PaLI-3에서 영감을 받은 개방형 시각 언어 모델(VLM)이다. 이는 SigLIP 시각 모델과 젬마 언어 모델을 포함한 개방형 구성 요소를 기반으로 구축됐으며, 이미지, 짧은 비디오 캡션, 시각적 이미지 질의응답, 이미지 내 텍스트 이해, 객체 감지나 분할과 같은 시각 언어 작업을 위해 설계됐다. 팔리젬마는 광범위한 시각 언어 작업에서 높은 수준의 미세 조정 성능을 탑재했고 엔비디아 JAX-툴박스(JAX-Toolbox)에서도 지원된다.   젬마 2와 팔리젬마는 대규모 AI 모델 배포를 간소화하는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼의 일부인 엔비디아 NIM 추론 마이크로서비스와 함께 제공될 예정이다. 새로운 두 모델에 대한 NIM 지원은 팔리젬마를 시작으로 API 카탈로그에서 사용할 수 있으며, 곧 엔비디아 NGC와 깃허브(GitHub)에서 컨테이너로 출시될 예정이다. 구글은 데이터 과학자에게 인기 있는 개발자 플랫폼 중 하나인 구글 코랩(Colab)에서 오픈 소스 GPU 데이터 프레임 라이브러리인 래피즈 cuDF(RAPIDS cuDF)가 기본으로 지원된다고 발표했다. 매월 1000만 명에 이르는 구글 코랩의 월간 사용자들은 이제 코드 변경 없이 단 몇 초 만에 엔비디아 L4 텐서 코어(Tensor Core) GPU를 사용해 판다스(pandas) 기반 파이썬(Python) 워크플로를 최대 50배까지 가속화할 수 있다. 구글 코랩을 사용하는 개발자는 래피즈 cuDF를 통해 탐색적 분석(exploratory analysis)과 생산 데이터 파이프라인의 속도를 높일 수 있다.  또한, 엔비디아와 구글은 엔비디아 RTX 그래픽을 사용해 AI PC를 활용하는 파이어베이스 젠킷(Firebase Genkit)에 대한 협업도 발표했다. 이는 개발자가 새로운 젬마 모델 제품군을 비롯한 생성형 AI 모델을 웹과 모바일 애플리케이션에 쉽게 통합해 맞춤형 콘텐츠, 시맨틱 검색(semantic search), 문의에 대한 답변을 제공할 수 있도록 지원한다. 개발자는 로컬 RTX GPU로 작업 줄기(work stream)를 시작한 다음, 작업을 구글 클라우드 인프라로 원활하게 이동할 수 있다. 개발자들은 모바일 개발자들이 주로 쓰는 프로그래밍 언어인 자바스크립트(JavaScript)를 사용하는 젠킷으로 앱을 더욱 쉽게 개발할 수 있다. 엔비디아와 구글 클라우드는 AI의 발전을 위해 다양한 분야에서 협력하고 있다고 전했다. 곧 출시될 그레이스 블랙웰(Grace Blackwell) 기반 DGX 클라우드 플랫폼과 JAX 프레임워크 지원부터 구글 쿠버네티스 엔진(Kubernetes Engine)에 엔비디아 네모(NeMo) 프레임워크 도입까지, 양사의 풀스택(full-stack) 파트너십은 사용자가 구글 클라우드에서 엔비디아 기술을 사용해 AI로 수행할 수 있는 작업의 가능성을 확장하고 있다.
작성일 : 2024-05-17
슈퍼마이크로, HPC와 AI 환경에 최적화된 데이터센터용 냉각 솔루션 출시
슈퍼마이크로컴퓨터가 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에 참가해 데이터센터 전력 소모량 감축과 동시에 AI 및 HPC 용량 확장을 목표로 할 때 직면하는 까다로운 요구사항을 충족할 수 있는 방안을 발표했다.   슈퍼마이크로는 콜드 플레이트, CDU, CDM, 냉각탑 전체 등을 포함한 수냉식 냉각 솔루션을 제공한다. 데이터센터에 수냉식 냉각 서버 및 인프라를 도입할 경우 데이터센터의 PUE가 크게 감소해 총 전력 소비량을 최대 40%까지 줄일 수 있다.   슈퍼마이크로 애플리케이션에 최적화된 고성능 서버는 높은 성능의 CPU 및 GPU를 탑재해 시뮬레이션, 데이터 분석 및 머신러닝에 적합하다. 슈퍼마이크로 4U 8-GPU 수냉식 냉각 서버는 엔비디아 H100/H200 HGX GPU를 통해 집적도가 높은 폼팩터에서 페타플롭스(PetaFlops) 수준의 AI 컴퓨팅 성능을 제공한다. 슈퍼마이크로는 곧 수냉식 X14 8U/6U 슈퍼블레이드, 랙마운트 X14 하이퍼, 그리고 슈퍼마이크로 X14 빅트윈을 출시할 예정이다. 다양한 HPC 최적화 서버 플랫폼이 P 코어(성능 코어)를 탑재한 콤팩트 멀티 노드 폼팩터 형태로 인텔 제온 6900을 지원한다.   슈퍼마이크로는 광범위한 수냉식 냉각 MGX 제품 포트폴리오를 지속적으로 출시하고 있다. 최근에는 새로운 인텔 가우디 3 가속기 및 AMD MI300X 가속기와 함께 인텔의 최신 가속기 지원을 확정했다. 랙당 최대 120개의 노드를 제공하는 슈퍼마이크로 슈퍼블레이드를 사용하면 대규모 HPC 애플리케이션을 단 몇 개의 랙에서 실행할 수 있다. 슈퍼마이크로는 인텔 제온 6 프로세서를 통합한 슈퍼마이크로 X14 서버를 비롯해 다양한 제품군을 ISC 2024에서 선보였다.     한편, 슈퍼마이크로는 ISC 2024에서 HPC 및 AI 환경을 위해 설계된 다양한 솔루션을 선보였다. 슈퍼마이크로의 새로운 4U 8-GPU 수냉식 냉각 서버는 엔비디아 HGX H100 및 H200 GPU를 탑재한 대표적인 제품군이다. 해당 제품을 비롯한 다양한 서버들이 출시되는 대로 엔비디아 B200 HGX GPU를 지원할 예정이다. 새로운 시스템은 고급 GPU를 탑재했으며, 고속 HBM3 메모리를 사용해 기존 시스템보다 더 많은 데이터를 GPU에 보다 가까이 가져와 AI 훈련 및 HPC 시뮬레이션을 가속화한다.    또한, 슈퍼마이크로는 ISC 2024에서 인텔 가우디 3 AI 액셀러레이터를 탑재한 8U 서버를 소개했다. 이 신규 서버는 AI 훈련 및 추론을 위해 설계됐으며, 기존 이더넷 패브릭과 직접 연결될 수 있다. 모든 인텔 가우디 3 가속기에 24개의 200Gb 이더넷 포트가 통합돼 유연한 개방형 표준 네트워킹을 제공한다. 또한 128GB의 HBM2e 고속 메모리가 포함된다. 인텔 가우디 3 가속기는 단일 노드에서 수천 개의 노드까지 효율적으로 확장 및 추가될 수 있도록 설계됐다. 이로 인해 생성형 AI 모델의 까다로운 요구 사항의 충족이 가능하다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 데이터센터에 종합 수냉식 냉각 솔루션과 같은 최신 기술을 도입하기 위해 AI 및 HPC 고객과 지속적으로 협력하고 있다”며, “슈퍼마이크로의 완전한 수냉식 냉각 솔루션은 랙당 최대 100kW를 처리할 수 있다. 이로 인해 데이터센터의 TCO(총 소유 비용) 감축과 AI 및 HPC 컴퓨팅의 집적도 향상이 가능하다. 당사는 빌딩 블록 아키텍처를 통해 최신 GPU와 가속기를 시장에 출시하고 있다. 또한, 새로운 랙 스케일 솔루션을 지속적으로 출시함으로써 고객에게 보다 신속하게 제품을 공급하고 있다. 이 프로세스는 검증된 공급업체와 함께 이루어진다”고 설명했다.
작성일 : 2024-05-17
엔비디아, “생성형 AI 통해 다양한 분야서 HPC 활용 연구 가속화 지원”
엔비디아가 생성형 AI를 통해 HPC(고성능 컴퓨팅) 작업을 가속화하며 코드 생성, 기상, 유전학, 재료 과학 분야의 연구를 지원하고 있다고 밝혔다. 생성형 AI는 국가와 기업 연구소에서 비즈니스와 과학을 위한 HPC를 가속화하며 기반을 다지고 있다. 샌디아 국립 연구소(Sandia National Laboratories)는 세계 최대 규모의 슈퍼컴퓨터에서 사용하도록 설계된 병렬 프로그래밍 언어인 코코스(Kokkos)로 코드를 자동으로 생성하는 시도를 하고 있다. 여러 국립 연구소의 연구진이 개발한 이 특수 언어는 수만 대의 프로세서에서 작업을 수행하는 데 필요한 미묘한 부분까지도 처리할 수 있다. 샌디아 국립 연구소의 연구진들은 검색 증강 생성(RAG) 기술을 사용해 코코스 데이터베이스를 생성하고 AI 모델과 연결하고 있다. 이들은 다양한 RAG 접근 방식을 실험하면서 초기 테스트에서 긍정적인 결과를 보여주고 있다. 과학자들이 평가하게 될 RAG 옵션 중에는 네모 리트리버(NeMo Retriever)와 같은 클라우드 기반 서비스도 있다.     이러한 모델 조정과 RAG를 통한 코파일럿 구축은 시작에 불과하다. 연구진들은 궁극적으로 기후, 생물학, 재료 과학과 같은 분야의 과학 데이터로 훈련된 파운데이션 모델의 활용을 목표로 하고 있다. 일기 예보 분야의 연구원과 기업들은 기상, 기후 연구를 위한 서비스와 소프트웨어 세트인 엔비디아 어스-2(Earth-2)의 생성형 AI 모델인 코디프(CorrDiff)를 채택하고 있다. 코디프는 기존 대기 모델의 25km 해상도를 2km까지 조정할 수 있다. 또한, 결합할 수 있는 예측 수를 100배 이상 확장해 예측 신뢰도를 높일 수 있다. 자체 소형 위성 네트워크에서 데이터를 수집하는 기업인 스파이어(Spire)의 톰 고완(Tom Gowan) 머신러닝 및 모델링 책임자는 “생성형 AI를 통해 더 빠르고 정확한 예보가 가능해지고 있다”고 전했다. 스위스에 본사를 둔 메테오매틱스(Meteomatics)는 최근 자사의 일기 예보 사업에도 엔비디아의 생성형 AI 플랫폼을 사용할 계획이라고 발표했다. 메테오매틱스의 마틴 펜글러(Martin Fengler) CEO는 “엔비디아와의 협력은 에너지 기업들이 날씨 변동에 대한 빠르고 정확한 인사이트를 통해 재생 에너지 운영을 극대화하고 수익성을 높이는 데 도움이 될 것”이라고 말했다. 마이크로소프트는 생성형 AI로 재료 과학 분야의 작업을 가속화하는 연구를 진행했다. 마이크로소프트의 매터젠(MatterGen) 모델은 원하는 특성을 나타내는 새롭고 안정적인 물질을 생성한다. 이 접근 방식을 통해 화학, 자기, 전자, 기계 등의 기타 원하는 특성을 지정할 수 있다. 마이크로소프트 연구팀은 엔비디아 A100 GPU를 사용해 애저(Azure) AI 인프라에서 매터젠을 훈련시켰으며, 카본3D(Carbon3D)와 같은 기업은 상업용 3D 프린팅 작업에서 재료 과학에 생성형 AI를 적용하며 기회를 찾고 있다. 엔비디아는 “이는 연구자들이 생성형 AI를 통해 HPC와 과학 분야에서 할 수 있는 일의 시작에 불과하다”면서, “현재 사용 가능한 엔비디아 H200 텐서 코어 GPU와 곧 출시될 엔비디아 블랙웰(Blackwell) 아키텍처 GPU는 새로운 차원의 작업을 실현시킬 것”이라고 기대했다.
작성일 : 2024-05-16
델, 클라우드 서비스 및 에지 워크로드 위한 파워엣지 서버 신모델 공개
델 테크놀로지스가 클라우드 서비스 사업자(CSP)를 위한 서버 신제품 2종과 및 에지 워크로드를 위한 컴팩트한 구성의 신제품 2종을 발표했다. 델이 이번에 파워엣지 서버 포트폴리오에 추가한 신제품은 다양한 규모의 CSP를 비롯해 에지 데이터를 서비스하는 소규모 사업자들이 인프라 운영을 간소화할 수 있도록 설계됐다. 또한 차세대 기술들을 적용하고 다양한 범위의 워크로드 처리에 용이하게끔 향상된 성능을 구현했다. ‘델 파워엣지 R670 CSP 에디션(Dell PowerEdge R670 CSP Edition)’과 ‘델 파워엣지 R770 CSP 에디션(Dell PowerEdge R770 CSP Edition)’ 서버는 CSP 기업이 가상화나 데이터 분석과 같은 고밀도 및 스케일 아웃 클라우드 워크로드를 구동하는데 최적화된 성능을 제공한다. R670 CSP 에디션과 R770 CSP 에디션을 도입하는 고객은 ‘델 얼리 액세스 프로그램(Dell Early Access Program)’을 활용해 해당 제품의 설계를 사전에 검토하여 서비스 개시일부터 즉시 운영 환경을 확장할 수 있다.   ▲ 델 파워엣지 R770 CSP 에디션   이번에 공개한 두 신모델은 델 테크놀로지스의 스마트 쿨링(Smart Cooling) 기술로 설계되어 에너지 효율적이며 변화하는 환경에 지능적으로 적응이 가능하다. 냉기 통로(cold aisle)를 최적화한 전면부 I/O나 유연한 구성이 가능한 컴팩트한 폼 팩터로 구축 및 서비스가 간편하여 전문 데이터 센터에 적합하다. 파워엣지 R670 CSP 에디션과 R770 CSP 에디션은 인텔 제온 6 이피션트(Intel Xeon 6 Efficient) 코어 프로세서를 탑재하여 이전 세대 제품 대비 랙당 최대 2.3배 향상된 성능을 제공한다. 오픈BMC(OpenBMC) 기반의 ‘델 오픈 서버 매니저(Dell Open Server Manager)’가 탑재되어 대규모 이기종 환경을 위한 개방형 에코시스템에서 관리를 간소화한다. 델은 이번 CSP 에디션 서버를 통해 파워엣지 포트폴리오에 ‘데이터센터-모듈러 하드웨어 시스템(DC-MHS) 아키텍처를 처음 선보인다. DC-MHS 아키텍처는 서버를 표준화하고 설계 및 고객 선택권을 개선하여 기존 인프라스트럭처에 보다 쉽게 서버를 통합할 수 있도록 지원한다. ‘오픈 컴퓨트 프로젝트(Open Compute Project)’의 일부인 DC-MHS는 델과 인텔을 포함한 6개 기업이 협력해 데이터센터, 에지 및 엔터프라이즈 인프라의 상호 운용성을 높이기 위해 하드웨어 기술을 새롭게 설계하는 이니셔티브이다. ‘델 파워엣지 T160(Dell PowerEdge T160)’ 및 ‘델 파워엣지 R260(Dell PowerEdge R260)’은 강력하고 고밀도의 서버 구성을 필요로 하는 소규모 기업 및 원격 사무실에 적합한 컴팩트 사이즈로 제공된다. 일반 서버 대비 42%의 크기로 물리적 설치 공간이 거의 절반에 불과한 스택형 T160은 도색을 입히지 않은 메탈 섀시를 비롯한 지속 가능한 소재의 사용을 늘려 탄소 배출량을 줄였으며, 이전 세대와 비교해 전력 효율이 최대 23% 향상됐다. R260 또한 물리적 설치 공간을 24% 줄여 높은 활용도를 제공한다. 두 서버 모두 인텔 제온 E-2400 프로세서를 탑재하여 이전 세대 대비 두 배의 성능을 제공한다. T160은 에지 환경의 근거리에 구축해 실시간 데이터 처리를 수행하려는 조직에 이상적이다. R260은 지연 시간을 최대 50%까지 줄여서 에지 환경에 근접한 가상화 구축에 적합하다. 열악한 환경에서도 안정적으로 구동할 수 있도록 필터 베젤이 장착되어 있어 먼지 및 윤활용제로부터 내부 하드웨어를 보호하고, 공기 흐름을 방해하지 않아 최적의 성능과 방음을 보장한다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “컴퓨팅 집약적인 워크로드를 실행하는 동시에 전력 소비를 줄이고 탄소 배출량을 관리하기 위해 최신 기술이 적용된 서버로 교체하고자 하는 수요가 늘어나고 있다”고 말하며, “델 파워엣지 포트폴리오에는 30년 이상 IT 인프라 기술의 중추적인 역할을 맡아온 델의 경험이 집약되어 있다. 델은 에지, 코어 데이터센터, 클라우드 전반의 워크로드를 지원함으로써 고객들이 계속해서 진화하는 비즈니스 요구에 효과적으로 대응하도록 돕는다”고 덧붙였다. 델 파워엣지 R670 CSP 에디션과 R770 CSP 에디션은 7월 중 일부 클라우드 서비스 공급업체를 대상으로 출시되며, 이후 전체적인 공식 판매가 이루어질 예정이다. 델 파워엣지 T160 및 R260은 5월 중 한국을 비롯한 전 세계에 출시될 예정이다.
작성일 : 2024-05-16
오라클, AI로 애플리케이션 개발 속도 높이는 ‘오라클 코드 어시스트’ 발표
오라클은 AI 코딩 동반 툴인 오라클 코드 어시스트(Oracle Code Assist)를 통해 애플리케이션 속도를 높이고 코드 일관성을 개선할 수 있다고 소개했다. 대규모 언어 모델(LLM)을 기반으로 오라클 클라우드 인프라스트럭처(OCI)에서 실행되며 OCI 기반 자바(JAVA), SQL 및 애플리케이션 개발에 최적화된 오라클 코드 어시스트는 개발자에게 기업의 모범 사례 및 코드베이스에 맞춤화해 맥락에 특화된 제안 기능을 제공한다. 오라클 코드 어시스트는 대부분의 모던 프로그래밍 언어로 작성된 코드를 업데이트하고 업그레이드 및 리팩터링(소프트웨어 개발 과정에서 기존 코드를 변경하지 않고 코드의 구조와 디자인을 개선하는 과정)하는 데에도 사용할 수 있도록 설계될 예정이다.     AI 기반 소프트웨어 개발은 소프트웨어의 개념화 및 생성, 테스트, 관리 방식에 혁신을 불러일으켰다. 개발자는 AI 지원 도구를 사용하면 새로운 아이디어를 탐색하고 신규, 업그레이드 또는 리팩터링된 코드를 위한 지능형 제안을 받을 수 있다. 또한 일상적인 작업을 자동화하는 기능 덕분에, AI 도구가 소프트웨어 개발 수명 주기(SDLC)의 모든 단계에서 핵심적인 부분으로 자리잡게 됐다. 오라클은 “오라클 코드 어시스트는 코드 스니펫(snippet), 종속성 분석(dependency analysis), 오류 완화 대안(error mitigation alternatives), 테스트 사례, 주석(annotation), 요약 및 문서화를 제공해 SDLC의 각 단계를 처리하여 이 기술 분야의 주된 사례로 꼽힐 것으로 기대한다”고 전했다.  이와 더불어 젯브레인 인텔리제이 IDEA(JetBrains IntelliJ IDEA), 또는 마이크로소프트 비주얼 스튜디오 코드(Microsoft Visual Studio Code)용 개발 환경 플러그인으로 배포되는 오라클 코드 어시스트는 개발자가 애플리케이션 실행 위치와 상관없이 애플리케이션을 구축, 최적화, 업그레이드하는 데 도움을 주는 전문가 의견을 반영한 피드백을 제공하도록 훈련될 계획이다. 오라클 코드 어시스트는 수년에 걸친 애플리케이션 및 소프트웨어 개발 과정에서 개발된 폭넓은 소프트웨어 저장소를 기반으로 훈련된다. 오라클은 오라클 코드 어시스트가 OCI의 서비스 API, 코딩 패턴 및 자바, SQL, OCI는 물론, 넷스위트(NetSuite)의 스위트스크립트(SuiteScript) 등을 통한 오라클의 자체 소프트웨어 개발 모범 사례를 활용해 미세 조정하여, 배포되는 소프트웨어 및 애플리케이션의 위치와 관계없이 기업 조직에 적합한 서비스를 제공할 수 있을 것으로 기대하고 있다. 오라클 코드 어시스트는 코드 생성(Code Generation), 코드 주석(Code Annotation), 코드 설명 가능성(Code Explainability), 더욱 빨라진 코드 검토(Faster Code Reviews), 테스트 커버리지 생성(Test Coverage Generation) 등의 기능을 통해 애플리케이션 개발 속도를 높일 예정이다. 또한, 오라클 코드 어시스트는 맞춤형 제안(Tailored Suggestions), 코드 생성 컨텍스트(Code Origination Context), 자동 언어 업그레이드(Automated Language Upgrades), 코드 분석(Code Analysis), OCI 최적화 제안(OCI Optimization Suggestions) 등을 통해 개발자가 코드 일관성 및 최적화를 개선하도록 돕는다: 오라클 클라우드 인프라스트럭처의 아난드 크리슈난 제품 관리 부사장은 “커스텀 애플리케이션은 전 세계 모든 기업 조직이 스스로를 차별화하기 위해 사용하는 방식이다. 하지만 애플리케이션의 구축, 배포, 유지 관리에는 노동력과 시간이 많이 든다”면서, “오라클 코드 어시스트를 활용하는 기업들은 개발자가 애플리케이션 속도 및 코드 일관성을 개선하여 애플리케이션을 안전하고 강력하며, 규정을 준수하는 방식으로 장기간 유지 관리할 수 있도록 지원할 수 있다”고 설명했다.
작성일 : 2024-05-13
오라클, 엔터프라이즈 데이터 및 애플리케이션용 AI 기능 제공하는 ‘오라클 데이터베이스 23ai’ 출시
오라클이 ‘오라클 데이터베이스 23ai(Oracle Database 23ai)’의 정식 출시를 발표했다. 오라클의 최신 융합형 데이터베이스인 오라클 데이터베이스 23ai는 폭넓은 클라우드 서비스를 통해 사용 가능하다.  장기 지원 릴리스인 오라클 데이터베이스 23ai는 데이터베이스 AI 기능 사용 간소화, 앱 개발 가속화, 미션 크리티컬 워크로드 실행 등을 지원하는 오라클 AI 벡터 검색(Oracle AI Vector Search) 및 기타 300개 이상의 신기능을 제공한다. AI 벡터 검색 기능은 고객의 문서, 이미지 및 기타 비정형 데이터 검색과 프라이빗 비즈니스 데이터 검색을 안전하게 결합시키고, 그 과정에서 데이터를 별도의 장소로 이동하거나 복제하지 않는다. 오라클 데이터베이스 23ai는 AI 알고리즘 적용을 위해 데이터를 별도의 장소로 이동시키는 대신, 데이터가 저장된 장소에서 바로 AI 알고리즘을 실행한다. “결과적으로 오라클 데이터베이스 내에서 AI 알고리즘이 실시간으로 실행되며 효과, 효율성, 보안성이 향상된다”는 것이 오라클의 설명이다. 오라클 AI 벡터 검색은 특정 단어, 픽셀 또는 데이터 값이 아닌 개념적 콘텐츠를 기반으로 문서, 이미지, 관계형 데이터를 간편하게 검색할 수 있는 기능이다. AI 벡터 검색은 LLM 자연어 인터페이스를 통한 프라이빗 비즈니스 데이터 쿼리를 지원하고, LLM이 더욱 정확하고 관련성 높은 결과를 생성하는데 기여한다. 또한 개발자는 AI 벡터 검색을 사용해 신규 및 기존 애플리케이션에 시맨틱 검색 기능을 손쉽게 추가할 수 있다. 이제 오라클 데이터베이스의 모든 미션 크리티컬 기능이 AI 벡터와 함께 투명하게 작동하므로 오라클의 고객사는 자사의 미션 크리티컬 애플리케이션에도 AI 벡터 검색을 적용할 수 있다. 동일한 고성능 데이터베이스에서 비즈니스 데이터 및 벡터 데이터를 함께 저장 및 처리하므로, 고객사는 기존의 데이터 보안 태세를 그대로 유지하며 자사의 비즈니스 애플리케이션에 AI 벡터 검색을 원활하게 통합해 새롭고 혁신적인 AI 사용 사례를 구현할 수 있다.     오라클 데이터베이스 23ai에 새롭게 추가되는 데이터용 AI 기능으로는 엑사데이터 스마트 스토리지를 사용하면 AI 벡터 검색을 가속화할 수 있는 오라클 엑사데이터 시스템 소프트웨어 24ai(Oracle Exadata System Software 24ai), 이기종 벡터 스토어 간의 실시간 벡터 복제 기능이 추가된 OCI 골든게이트 23ai(OCI GoldenGate 23ai) 등이 있다. 앱 개발을 가속화하기 위한 기능도 제공된다.  JSON 관계형 이원성(JSON Relational Duality)을 통해 일부 애플리케이션의 데이터 사용 방식과 관계형 데이터베이스의 데이터 저장 방식이 불일치하는 문제를 해결할 수 있도록 하고, 운영 속성 그래프(Operational Property Graph)는 개발자가 속성 그래프 쿼리를 사용해 데이터 간 및 데이터 내부의 연결성을 탐색하기 위한 애플리케이션을 간단히 구축할 수 있도록 지원한다. 상시 무료 자율운영 데이터베이스(Always Free Autonomous Database) 서비스는 오라클 APEX(Oracle APEX), 셀렉트AI(Select AI), 데이터베이스 도구(Database Tools), 머신러닝(Machine Learning), 그래프(Graph) 등의 다양한 도구가 내장된, 클라우드에서 무제한 사용 가능한 무료 자율운영 데이터베이스 서버리스(Autonomous Database Serverless) 인스턴스를 2개 제공한다.  오라클 데이터베이스 23ai는 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service), 오라클 엑사데이터 클라우드앳커스터머(Oracle Exadata Cloud@Customer), 오라클 기본 데이터베이스 서비스(Oracle Base Database Service), 오라클 데이터베이스앳애저(Oracle Database@Azure) 상의 오라클 클라우드 인프라스트럭처(OCI) 서비스 사용자들에게 제공된다. 오라클의 후안 로이자(Juan Loaiza) 미션 크리티컬 데이터베이스 기술 총괄 부사장은 “오라클 데이터베이스 23ai는 전 세계의 기업 고객들을 위한 ‘게임 체인저(game changer)’다. 이번 릴리스를 통해 선보이는 혁신적인 AI 기술들의 중요성을 감안해 제품명을 오라클 데이터베이스 23ai로 변경했다”면서, “새로운 통합 개발 패러다임과 미션 크리티컬 기능이 결합된 AI 벡터 검색은 개발자 및 데이터 전문가가 지능형 앱을 간단히 구축하고, 개발자 생산성을 향상시키며 미션 크리티컬 워크로드를 실행할 수 있도록 지원한다”고 소개했다.
작성일 : 2024-05-09
슈나이더 일렉트릭, 영국 기후 스타트업에 소프트웨어 중심 자동화 솔루션 공급
슈나이더 일렉트릭이 영국의 기후 스타트업인 브릴리언트 플래닛(Brilliant Planet)에 ‘에코스트럭처 오토메이션 엑스퍼트(EcoStruxure Automation Expert : EAE)’ 솔루션을 공급했다. 브릴리언트 플래닛은 미세조류(microalgae)로 상승하는 지구 온도를 억제하는 기술을 갖고 있다. 대기 중의 이산화탄소를 끌어내기 위해서 해안 사막과 야외 연못에서 미세조류를 전문적으로 재배하고 있으며, 이는 동일한 숲 면적보다 최대 30배 이상의 대기 중 탄소를 격리할 수 있다. 실제로 대기 중에서 이산화탄소를 격리하는 탄소 포집 기술은 기후 변화에 대처하기 위한 중요한 노력 중 하나다. 브릴리언트 플래닛은 모로코에 위치한 시설에서 전세계 현장에 배포할 수 있는 탄소 포집 플랫폼을 개발하고 있으며, 이 프로세스에는 필요에 따라 쉽게 확장할 수 있는 매우 유연하고 효율적인 제어 시스템의 구축을 필요로 했다. 슈나이더 일렉트릭은 브릴리언트 플래닛에 운영에 대한 가시성과 제어를 제공하기 위해 영국 엔지니어링 기업인 플래티넘 일렉트리컬 엔지니어링(Platinum Electrical Engineering)과 함께 소프트웨어 중심 범용 자동화 솔루션인 EAE를 공급했다. 슈나이더 일렉트릭의 EAE는 IEC61499 국제 표준을 기반으로 한 범용 자동화 솔루션이다. 개발툴과 컨트롤러, 아카이브, 시스템 통합 기구 등으로 구성된 분산형 자동화 시스템으로, 프로그래밍 소프트웨어(IDE)와 범용 제어 장치(PLC), PC 등과 상호 연동되어 운영된다.     개방형 플랫폼인 EAE는 기본 하드웨어 인프라와 상관없이 독립적으로 소프트웨어 애플리케이션을 모델링하고 배포해 소프트웨어 중심의 자동화 애플리케이션을 구축할 수 있다. 엔지니어는 소모적인 수작업을 자동화하고, 중복 작업을 제거해 업무 효율성을 높일 수 있다. 이를 통해 기존의 자동화 작업을 수행하는데 걸리는 시간을 2~7배 단축할 수 있다. 또한, EAE는 개방성과 호환성을 가진 것이 특징이다. 자동화 시스템 중 타사 PLC가 탑재되더라도 소프트웨어는 정상 작동하기 때문이다. 여기에 드래그앤드롭 방식 인터페이스 구성으로 작업자도 손쉽게 사용할 수 있다. 슈나이더 일렉트릭의 산지스 싱(Sanjith Singh) 소프트웨어 중심 자동화 부문 글로벌 부사장은 “지속 가능성과 차세대 산업 자동화라는 사명을 달성하려면 신뢰할 수 있는 얼라이언스 파트너와 소중한 고객으로 구성된 네트워크가 필요하다”면서, “브릴리언트 플래닛이 슈나이더 일렉트릭의 EAE 솔루션을 통해 기후 변화 문제에 대응하기 위한 지속 가능한 솔루션을 제공할 수 있길 기대한다”라고 설명했다.
작성일 : 2024-05-09
매스웍스, 의료 소프트웨어 개발 가속화 위한 엔비디아 홀로스캔 통합 기능 출시
매스웍스는 의료 기기 구축을 위한 엔비디아의 실시간 AI 컴퓨팅 소프트웨어 플랫폼인 엔비디아 홀로스캔(NVIDIA Holoscan)에서 매트랩(MATLAB)을 사용할 수 있는 통합 기능을 발표했다. 의료기기 엔지니어는 실시간 데이터 처리와 추론을 위해 기존의 매트랩 알고리즘과 함수를 GPU 가속 엔비디아 홀로스캔 오퍼레이터(Holoscan Operator)로 래핑하여, 스트리밍 데이터를 분석하고 시각화 애플리케이션의 개발 및 배포를 가속화할 수 있다. 의료기기 엔지니어는 최첨단 소재와 전자기기 활용 기술의 속도감 있는 혁신과 더불어 복잡하게 변화하는 국제 규제를 준수해야 한다. 이로 인해 많은 기기가 시장에 출시된 지 얼마 지나지 않아 구형이 되었고, ‘소프트웨어 의료기기(SaMD)’의 등장을 촉진시켰다. 소프트웨어 의료 기기는 하드웨어에 종속되지 않고 의료 기기의 사용 목적에 부합하는 기능을 가지며 독립적인 형태의 소프트웨어만으로 이뤄진 의료 기기를 말한다. 엔지니어는 소프트웨어 의료기기가 시장에서 지속적인 경쟁력을 유지할 수 있도록 소프트웨어 정의 워크플로를 개발하여 초기 배포 이후의 추가 소프트웨어 기능을 통합할 수 있게 해야 한다. 엔비디아 홀로스캔은 센서 처리 플랫폼으로, 실시간 인사이트를 제공하는 AI 및 고성능 컴퓨팅 애플리케이션의 개발 및 배포를 간소화한다. 또한 에지에서 스트리밍 데이터의 확장 가능한 소프트웨어 정의 처리에 필요한 풀 스택 인프라를 제공해 최신 AI 애플리케이션을 임상 환경에 도입할 수 있도록 지원한다. 의료기기 엔지니어는 홀로스캔과 매트랩의 통합 기능을 통해 영상 및 신호 처리, 필터링, 변환, 딥러닝 알고리즘과 관련된 기존의 내장된 행렬 연산과 복잡한 툴박스 함수를 사용할 수 있다. 매트랩으로 홀로스캔 파이프라인을 구현하려면 매트랩 함수 생성, GPU 코더(GPU Coder)를 통한 가속화된 CUDA 코드 생성, 홀로스캔 오퍼레이터 래퍼 생성 및 새로운 매트랩 오퍼레이터(MATLAB Operator)를 사용한 홀로스캔 애플리케이션 재구축의 4 단계를 거쳐야 한다. 이러한 과정으로 구축된 소프트웨어 정의 워크플로는 매트랩과 홀로스캔의 추가적인 통합 검증 및 확인 기능을 통해 IEC 62304 등의 산업 규정 및 표준을 준수하도록 할 수 있다.     엔비디아의 데이비드 뉴올니(David Niewolny) 의료 기술 부문 사업 개발 책임자는 “의료 기술 산업은 인공지능에 의해 혁신을 거듭하고 있다”며, “엔비디아와 매스웍스는 의료 등급의 엔비디아 홀로스캔 플랫폼 내에서 성장 중인 매트랩 개발 커뮤니티에 호환성 높은 개발 환경을 제공함으로써 의료 기술 분야의 AI 기반 혁신을 가속화하고 있다”고 말했다. 매스웍스의 데이비드 리치(David Rich) 제품 마케팅 부서장은 “이제 엔지니어들은 엔비디아 홀로스캔을 통해 매트랩 함수를 작성하고 수천 배 더 빨리 실행할 수 있다”며, “수백만 명의 고객이 산업 규정과 표준을 준수하는 제품을 설계, 개발 및 테스트하고자 하는 가운데, 업계 리더인 엔비디아와의 협업으로 의료 기기 혁신을 주도할 수 있게 됐다”고 말했다.
작성일 : 2024-05-09
올플랜, 건축 설계-시공 워크플로를 위한 올플랜 2024 업데이트 발표
BIM 솔루션 제공업체인 올플랜은 건설 생산성을 강화하고 설계-시공 워크플로를 혁신하기 위한 올플랜 2024(Allplan 2024)의 최신 업데이트를 발표했다. 올플랜 2024-1 서비스 릴리스는 건설을 보다 효율적으로 계획하고 실행할 수 있는 확장된 도구를 제공한다. 최신 버전의 새로운 클라우드 기반 프로세스와 향상된 BIM 기능은 보다 지속 가능한 설계와 신속한 프로젝트 납품을 지원한다. 올플랜 2024-1은 원클릭 LCA(Life Cycle Assessment : 전과정평가)와 통합되어 빠르고 쉽게 분석할 수 있다. 이 도구를 사용하면 건물의 탄소 발자국을 평가하고, 자재와 시공 방법을 평가하고, 지속가능성을 위해 BIM 모델을 최적화할 수 있다. BIM 속성이 LCA 클라우드로 자동 전송되므로 사용자는 손쉽게 보고서를 생성할 수 있으며, 모델이 변경되면 이전 LCA 조정 사항이 자동으로 업데이트되므로 다시 매핑할 필요가 없다. 빈 공간(void)에 대한 프로비저닝을 생성하는 작업은 특히 규모가 크고 복잡한 프로젝트에서 시간이 많이 소요되는 프로세스로 꼽힌다. 올플랜 2024-1에서는 이 작업을 더 빠르고 원활하게 수행하기 위한 기능이 최적화되어 시간을 절약할 수 있다. 또한 속성 매핑의 최적화와 보이드 생성을 위해 IFC 파일에서 가져온 원통형 형상을 적용하는 기능이 더욱 향상되어, 디자이너의 일상적인 작업이 더욱 효율적으로 개선되었다.     구조 엔지니어와 상세 설계자의 작업에서는 국가별 표준을 준수하는 것이 필수이다. 올플랜 2024-1에서는 형상 코드 관리자(Shape Code Manager)가 통합되고, 새로운 영국 표준인 BS 8666 2020에 기반한 고객별 철근 형상을 지원한다. 이를 통해 영국뿐만 아니라 영국 표준 또는 고객별 철근 형상을 사용하는 다른 많은 국가에서도 일상적인 작업이 쉬워졌다. 클라우드 기반 프로세스는 효율적인 설계를 지원하여 워크플로를 구축하고 협업을 뒷받침한다. 올플랜 2024-1의 오버레이 관리자(Overlay Manager)는 2D 도면과 3D 모델을 조합하고 상호 작용을 통해 불일치를 식별하며, 불확실성을 해소할 수 있다. 사용자는 여러 도면을 모델과 함께 시각화하고, 마크업을 만들어 이슈와 슬라이드쇼에 저장할 수 있으며, 페더레이션된 모델을 2D 계획으로 편리하게 확장할 수 있다. 새로운 올플랜 클라우드 뷰어(Allplan Cloud Viewer)를 통한 시간 절약형 IFC 파일 미리보기는 수정본을 완전히 업로드하고 생성하기 전에 빠르게 시각적으로 확인할 수 있다. 또한 올플랜 2024는 이슈에 대한 정보 콘텐츠를 개선하고 협업을 강화하며, 오류를 줄이고 확인 프로세스를 가속화하여 BIM콜랩(BIMcollab) 이슈 관리 도구와 원활하게 통합할 수 있다. 기본으로 제공되는 시공 계획 도구에 굴착 버팀목용 시트 파일 벽체를 소개하는 기술 미리보기가 포함되어, 건설 프로젝트의 정밀한 계획을 위한 옵션이 확대된 것도 특징이다. 코너 프로파일과 함께 단일, 이중, 삼중 형태로 제공되는 이러한 프로파일은 유연성을 높이고 다양한 지형 조건을 지원한다. 파라메트릭 구성 요소는 위치 조정을 쉽게 하기 위해 쓰인다. 올플랜 2024용 BIM2 폼(BIM2 form) 애드온에는 페리 트리오(Peri TRIO)가 통합되어, 비용 효율적인 거푸집 계획을 위한 옵션이 확대되었다. 기존에는 거푸집 계획을 수동으로 처리하거나 외부 공급업체에 의존함에 따라 비용과 프로젝트 관리 문제가 발생했다. 이 툴을 사용하면 거푸집 벽체 구성 요소의 자동 할당이 용이하게 이루어진다. 이를 통해 올플랜 사용자는 다양한 거푸집 계획을 효율적으로 수립하여 아웃소싱 비용을 절감할 수 있다. 올플랜의 에두아르도 라자로토(Eduardo Lazzarotto) 최고 제품 및 전략 책임자는 “최신 Allplan 2024-1 서비스 릴리스는 확장된 도구, 클라우드 기반 프로세스, 향상된 BIM 기능을 통해 사용자가 더 높은 효율성으로 프로젝트를 계획하고 실행할 수 있도록 지원한다. 이는 더 빠른 납기뿐만 아니라 지속가능성을 실현하고 품질을 높이는 데에도 도움이 된다. 워크플로를 간소화하고 프로젝트 일정을 단축함으로써 사용자가 뛰어난 건축 설계, 견고한 교통 인프라 엔지니어링, 더 나은 지속 가능한 건축 환경 구축 등 진정으로 중요한 일에 더 많은 시간과 에너지를 투자할 수 있도록 지원한다”고 전했다.
작성일 : 2024-05-08
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional Services)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08