• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "서버"에 대한 통합 검색 내용이 3,687개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
슈퍼마이크로, HPC와 AI 환경에 최적화된 데이터센터용 냉각 솔루션 출시
슈퍼마이크로컴퓨터가 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에 참가해 데이터센터 전력 소모량 감축과 동시에 AI 및 HPC 용량 확장을 목표로 할 때 직면하는 까다로운 요구사항을 충족할 수 있는 방안을 발표했다.   슈퍼마이크로는 콜드 플레이트, CDU, CDM, 냉각탑 전체 등을 포함한 수냉식 냉각 솔루션을 제공한다. 데이터센터에 수냉식 냉각 서버 및 인프라를 도입할 경우 데이터센터의 PUE가 크게 감소해 총 전력 소비량을 최대 40%까지 줄일 수 있다.   슈퍼마이크로 애플리케이션에 최적화된 고성능 서버는 높은 성능의 CPU 및 GPU를 탑재해 시뮬레이션, 데이터 분석 및 머신러닝에 적합하다. 슈퍼마이크로 4U 8-GPU 수냉식 냉각 서버는 엔비디아 H100/H200 HGX GPU를 통해 집적도가 높은 폼팩터에서 페타플롭스(PetaFlops) 수준의 AI 컴퓨팅 성능을 제공한다. 슈퍼마이크로는 곧 수냉식 X14 8U/6U 슈퍼블레이드, 랙마운트 X14 하이퍼, 그리고 슈퍼마이크로 X14 빅트윈을 출시할 예정이다. 다양한 HPC 최적화 서버 플랫폼이 P 코어(성능 코어)를 탑재한 콤팩트 멀티 노드 폼팩터 형태로 인텔 제온 6900을 지원한다.   슈퍼마이크로는 광범위한 수냉식 냉각 MGX 제품 포트폴리오를 지속적으로 출시하고 있다. 최근에는 새로운 인텔 가우디 3 가속기 및 AMD MI300X 가속기와 함께 인텔의 최신 가속기 지원을 확정했다. 랙당 최대 120개의 노드를 제공하는 슈퍼마이크로 슈퍼블레이드를 사용하면 대규모 HPC 애플리케이션을 단 몇 개의 랙에서 실행할 수 있다. 슈퍼마이크로는 인텔 제온 6 프로세서를 통합한 슈퍼마이크로 X14 서버를 비롯해 다양한 제품군을 ISC 2024에서 선보였다.     한편, 슈퍼마이크로는 ISC 2024에서 HPC 및 AI 환경을 위해 설계된 다양한 솔루션을 선보였다. 슈퍼마이크로의 새로운 4U 8-GPU 수냉식 냉각 서버는 엔비디아 HGX H100 및 H200 GPU를 탑재한 대표적인 제품군이다. 해당 제품을 비롯한 다양한 서버들이 출시되는 대로 엔비디아 B200 HGX GPU를 지원할 예정이다. 새로운 시스템은 고급 GPU를 탑재했으며, 고속 HBM3 메모리를 사용해 기존 시스템보다 더 많은 데이터를 GPU에 보다 가까이 가져와 AI 훈련 및 HPC 시뮬레이션을 가속화한다.    또한, 슈퍼마이크로는 ISC 2024에서 인텔 가우디 3 AI 액셀러레이터를 탑재한 8U 서버를 소개했다. 이 신규 서버는 AI 훈련 및 추론을 위해 설계됐으며, 기존 이더넷 패브릭과 직접 연결될 수 있다. 모든 인텔 가우디 3 가속기에 24개의 200Gb 이더넷 포트가 통합돼 유연한 개방형 표준 네트워킹을 제공한다. 또한 128GB의 HBM2e 고속 메모리가 포함된다. 인텔 가우디 3 가속기는 단일 노드에서 수천 개의 노드까지 효율적으로 확장 및 추가될 수 있도록 설계됐다. 이로 인해 생성형 AI 모델의 까다로운 요구 사항의 충족이 가능하다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 데이터센터에 종합 수냉식 냉각 솔루션과 같은 최신 기술을 도입하기 위해 AI 및 HPC 고객과 지속적으로 협력하고 있다”며, “슈퍼마이크로의 완전한 수냉식 냉각 솔루션은 랙당 최대 100kW를 처리할 수 있다. 이로 인해 데이터센터의 TCO(총 소유 비용) 감축과 AI 및 HPC 컴퓨팅의 집적도 향상이 가능하다. 당사는 빌딩 블록 아키텍처를 통해 최신 GPU와 가속기를 시장에 출시하고 있다. 또한, 새로운 랙 스케일 솔루션을 지속적으로 출시함으로써 고객에게 보다 신속하게 제품을 공급하고 있다. 이 프로세스는 검증된 공급업체와 함께 이루어진다”고 설명했다.
작성일 : 2024-05-17
델, 클라우드 서비스 및 에지 워크로드 위한 파워엣지 서버 신모델 공개
델 테크놀로지스가 클라우드 서비스 사업자(CSP)를 위한 서버 신제품 2종과 및 에지 워크로드를 위한 컴팩트한 구성의 신제품 2종을 발표했다. 델이 이번에 파워엣지 서버 포트폴리오에 추가한 신제품은 다양한 규모의 CSP를 비롯해 에지 데이터를 서비스하는 소규모 사업자들이 인프라 운영을 간소화할 수 있도록 설계됐다. 또한 차세대 기술들을 적용하고 다양한 범위의 워크로드 처리에 용이하게끔 향상된 성능을 구현했다. ‘델 파워엣지 R670 CSP 에디션(Dell PowerEdge R670 CSP Edition)’과 ‘델 파워엣지 R770 CSP 에디션(Dell PowerEdge R770 CSP Edition)’ 서버는 CSP 기업이 가상화나 데이터 분석과 같은 고밀도 및 스케일 아웃 클라우드 워크로드를 구동하는데 최적화된 성능을 제공한다. R670 CSP 에디션과 R770 CSP 에디션을 도입하는 고객은 ‘델 얼리 액세스 프로그램(Dell Early Access Program)’을 활용해 해당 제품의 설계를 사전에 검토하여 서비스 개시일부터 즉시 운영 환경을 확장할 수 있다.   ▲ 델 파워엣지 R770 CSP 에디션   이번에 공개한 두 신모델은 델 테크놀로지스의 스마트 쿨링(Smart Cooling) 기술로 설계되어 에너지 효율적이며 변화하는 환경에 지능적으로 적응이 가능하다. 냉기 통로(cold aisle)를 최적화한 전면부 I/O나 유연한 구성이 가능한 컴팩트한 폼 팩터로 구축 및 서비스가 간편하여 전문 데이터 센터에 적합하다. 파워엣지 R670 CSP 에디션과 R770 CSP 에디션은 인텔 제온 6 이피션트(Intel Xeon 6 Efficient) 코어 프로세서를 탑재하여 이전 세대 제품 대비 랙당 최대 2.3배 향상된 성능을 제공한다. 오픈BMC(OpenBMC) 기반의 ‘델 오픈 서버 매니저(Dell Open Server Manager)’가 탑재되어 대규모 이기종 환경을 위한 개방형 에코시스템에서 관리를 간소화한다. 델은 이번 CSP 에디션 서버를 통해 파워엣지 포트폴리오에 ‘데이터센터-모듈러 하드웨어 시스템(DC-MHS) 아키텍처를 처음 선보인다. DC-MHS 아키텍처는 서버를 표준화하고 설계 및 고객 선택권을 개선하여 기존 인프라스트럭처에 보다 쉽게 서버를 통합할 수 있도록 지원한다. ‘오픈 컴퓨트 프로젝트(Open Compute Project)’의 일부인 DC-MHS는 델과 인텔을 포함한 6개 기업이 협력해 데이터센터, 에지 및 엔터프라이즈 인프라의 상호 운용성을 높이기 위해 하드웨어 기술을 새롭게 설계하는 이니셔티브이다. ‘델 파워엣지 T160(Dell PowerEdge T160)’ 및 ‘델 파워엣지 R260(Dell PowerEdge R260)’은 강력하고 고밀도의 서버 구성을 필요로 하는 소규모 기업 및 원격 사무실에 적합한 컴팩트 사이즈로 제공된다. 일반 서버 대비 42%의 크기로 물리적 설치 공간이 거의 절반에 불과한 스택형 T160은 도색을 입히지 않은 메탈 섀시를 비롯한 지속 가능한 소재의 사용을 늘려 탄소 배출량을 줄였으며, 이전 세대와 비교해 전력 효율이 최대 23% 향상됐다. R260 또한 물리적 설치 공간을 24% 줄여 높은 활용도를 제공한다. 두 서버 모두 인텔 제온 E-2400 프로세서를 탑재하여 이전 세대 대비 두 배의 성능을 제공한다. T160은 에지 환경의 근거리에 구축해 실시간 데이터 처리를 수행하려는 조직에 이상적이다. R260은 지연 시간을 최대 50%까지 줄여서 에지 환경에 근접한 가상화 구축에 적합하다. 열악한 환경에서도 안정적으로 구동할 수 있도록 필터 베젤이 장착되어 있어 먼지 및 윤활용제로부터 내부 하드웨어를 보호하고, 공기 흐름을 방해하지 않아 최적의 성능과 방음을 보장한다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “컴퓨팅 집약적인 워크로드를 실행하는 동시에 전력 소비를 줄이고 탄소 배출량을 관리하기 위해 최신 기술이 적용된 서버로 교체하고자 하는 수요가 늘어나고 있다”고 말하며, “델 파워엣지 포트폴리오에는 30년 이상 IT 인프라 기술의 중추적인 역할을 맡아온 델의 경험이 집약되어 있다. 델은 에지, 코어 데이터센터, 클라우드 전반의 워크로드를 지원함으로써 고객들이 계속해서 진화하는 비즈니스 요구에 효과적으로 대응하도록 돕는다”고 덧붙였다. 델 파워엣지 R670 CSP 에디션과 R770 CSP 에디션은 7월 중 일부 클라우드 서비스 공급업체를 대상으로 출시되며, 이후 전체적인 공식 판매가 이루어질 예정이다. 델 파워엣지 T160 및 R260은 5월 중 한국을 비롯한 전 세계에 출시될 예정이다.
작성일 : 2024-05-16
오라클, 엔터프라이즈 데이터 및 애플리케이션용 AI 기능 제공하는 ‘오라클 데이터베이스 23ai’ 출시
오라클이 ‘오라클 데이터베이스 23ai(Oracle Database 23ai)’의 정식 출시를 발표했다. 오라클의 최신 융합형 데이터베이스인 오라클 데이터베이스 23ai는 폭넓은 클라우드 서비스를 통해 사용 가능하다.  장기 지원 릴리스인 오라클 데이터베이스 23ai는 데이터베이스 AI 기능 사용 간소화, 앱 개발 가속화, 미션 크리티컬 워크로드 실행 등을 지원하는 오라클 AI 벡터 검색(Oracle AI Vector Search) 및 기타 300개 이상의 신기능을 제공한다. AI 벡터 검색 기능은 고객의 문서, 이미지 및 기타 비정형 데이터 검색과 프라이빗 비즈니스 데이터 검색을 안전하게 결합시키고, 그 과정에서 데이터를 별도의 장소로 이동하거나 복제하지 않는다. 오라클 데이터베이스 23ai는 AI 알고리즘 적용을 위해 데이터를 별도의 장소로 이동시키는 대신, 데이터가 저장된 장소에서 바로 AI 알고리즘을 실행한다. “결과적으로 오라클 데이터베이스 내에서 AI 알고리즘이 실시간으로 실행되며 효과, 효율성, 보안성이 향상된다”는 것이 오라클의 설명이다. 오라클 AI 벡터 검색은 특정 단어, 픽셀 또는 데이터 값이 아닌 개념적 콘텐츠를 기반으로 문서, 이미지, 관계형 데이터를 간편하게 검색할 수 있는 기능이다. AI 벡터 검색은 LLM 자연어 인터페이스를 통한 프라이빗 비즈니스 데이터 쿼리를 지원하고, LLM이 더욱 정확하고 관련성 높은 결과를 생성하는데 기여한다. 또한 개발자는 AI 벡터 검색을 사용해 신규 및 기존 애플리케이션에 시맨틱 검색 기능을 손쉽게 추가할 수 있다. 이제 오라클 데이터베이스의 모든 미션 크리티컬 기능이 AI 벡터와 함께 투명하게 작동하므로 오라클의 고객사는 자사의 미션 크리티컬 애플리케이션에도 AI 벡터 검색을 적용할 수 있다. 동일한 고성능 데이터베이스에서 비즈니스 데이터 및 벡터 데이터를 함께 저장 및 처리하므로, 고객사는 기존의 데이터 보안 태세를 그대로 유지하며 자사의 비즈니스 애플리케이션에 AI 벡터 검색을 원활하게 통합해 새롭고 혁신적인 AI 사용 사례를 구현할 수 있다.     오라클 데이터베이스 23ai에 새롭게 추가되는 데이터용 AI 기능으로는 엑사데이터 스마트 스토리지를 사용하면 AI 벡터 검색을 가속화할 수 있는 오라클 엑사데이터 시스템 소프트웨어 24ai(Oracle Exadata System Software 24ai), 이기종 벡터 스토어 간의 실시간 벡터 복제 기능이 추가된 OCI 골든게이트 23ai(OCI GoldenGate 23ai) 등이 있다. 앱 개발을 가속화하기 위한 기능도 제공된다.  JSON 관계형 이원성(JSON Relational Duality)을 통해 일부 애플리케이션의 데이터 사용 방식과 관계형 데이터베이스의 데이터 저장 방식이 불일치하는 문제를 해결할 수 있도록 하고, 운영 속성 그래프(Operational Property Graph)는 개발자가 속성 그래프 쿼리를 사용해 데이터 간 및 데이터 내부의 연결성을 탐색하기 위한 애플리케이션을 간단히 구축할 수 있도록 지원한다. 상시 무료 자율운영 데이터베이스(Always Free Autonomous Database) 서비스는 오라클 APEX(Oracle APEX), 셀렉트AI(Select AI), 데이터베이스 도구(Database Tools), 머신러닝(Machine Learning), 그래프(Graph) 등의 다양한 도구가 내장된, 클라우드에서 무제한 사용 가능한 무료 자율운영 데이터베이스 서버리스(Autonomous Database Serverless) 인스턴스를 2개 제공한다.  오라클 데이터베이스 23ai는 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service), 오라클 엑사데이터 클라우드앳커스터머(Oracle Exadata Cloud@Customer), 오라클 기본 데이터베이스 서비스(Oracle Base Database Service), 오라클 데이터베이스앳애저(Oracle Database@Azure) 상의 오라클 클라우드 인프라스트럭처(OCI) 서비스 사용자들에게 제공된다. 오라클의 후안 로이자(Juan Loaiza) 미션 크리티컬 데이터베이스 기술 총괄 부사장은 “오라클 데이터베이스 23ai는 전 세계의 기업 고객들을 위한 ‘게임 체인저(game changer)’다. 이번 릴리스를 통해 선보이는 혁신적인 AI 기술들의 중요성을 감안해 제품명을 오라클 데이터베이스 23ai로 변경했다”면서, “새로운 통합 개발 패러다임과 미션 크리티컬 기능이 결합된 AI 벡터 검색은 개발자 및 데이터 전문가가 지능형 앱을 간단히 구축하고, 개발자 생산성을 향상시키며 미션 크리티컬 워크로드를 실행할 수 있도록 지원한다”고 소개했다.
작성일 : 2024-05-09
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional Services)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08
[피플 & 컴퍼니] 데이터킷 필리프 블라슈 CEO
CAD 데이터 변환과 상호운영성 기술로 한국 시장 공략 강화   데이터킷(Datakit)은 CAD 데이터 변환 프로그램인 크로스매니저(CrossManager)의 개발사로, 크로스매니저는 파트너사인 몰드케어를 통해 국내 공급되고 있다. 데이터킷의 필리프 블라슈(Philippe Blache) CEO는 다양한 설계 관련 정보의 변환과 상호운영성을 통해 제조·건축 등 산업 영역에서 더 많은 가치를 제공한다는 비전을 제시하고 있다. ■ 정수진 편집장    ▲ 데이터킷 필리프 블라슈 CEO   데이터킷은 어떤 회사인지 1994년 프랑스에서 설립된 데이터킷은 CAD, CAM, CAE, BOM, PLM, 계측, BIM, 건설 등 다양한 소프트웨어 간의 상호 호환 운용성(interoperability) 분야에 집중하고 있는 기업이다.  데이터킷의 데이터 변환 솔루션은 설계, 제조, 검사 및 보관 전반에 걸쳐 연결성을 구축하여, 제품 개발 프로세스의 디지털 전환을 가속화하고 시장 출시에 걸리는 시간을 줄인다. 데이터킷은 수년간 표준화 특히 STEP AP242 표준에 참여했으며, LOTAR(Long Term Archiving and Retrieval) 협회 워크숍 및 MBx 상호 운용성 포럼에 참여하고 있다. 또한 빌딩스마트(BuildingSMART)의 IFC 구현자 포럼 회원으로서 BIM 커뮤니티에도 참여하고 있다.   크로스매니저의 특징에 대해 소개한다면 크로스매니저를 사용하면 모델과 관련된 많은 기능을 포함한 크고 상세한 다중 파일 변환이 가능하다. 크로스매니저는 ▲2D 도면, 3D B-Rep 및 메시(mesh) 표현을 비롯해 ▲부품, 어셈블리 및 색상/질감 등 속성과 ▲PMI(제품 제조 정보), FD&T(Functional Dimensioning and Tolerancing), GD&T(기하공차), 메타데이터, 자재/공급업체/비용 등 속성을 포함한 제품 제조 정보까지 다양한 정보를 변환할 수 있다. 또한 CAD 소프트웨어 별 고유(native) 파일 및 표준 형식 파일로 변환할 수 있는 수백 가지의 기능과 솔루션을 제공한다.   크로스매니저가 다른 솔루션과 차별화되는 점은 무엇인지 데이터킷은 30년 동안 상호 호환 운용성에 초점을 맞추고 있으며, 시장에서 가장 특별하고 폭넓은 경험을 제공하기 위해 R&D에 노력을 기울여 왔다. 크로스매니저 변환기를 사용하면 모델과 관련된 광범위한 데이터를 변환 및 보존할 수 있으며, 최신 버전의 CAD 소프트웨어와의 호환성을 위해 수백 가지 CAD별 고유 파일 및 중립 포맷에 대한 분기별 업데이트를 제공한다. 또한, 확장 가능한 단일 또는 멀티 포맷 라이선스, 컴퓨터나 서버에서 실행되는 고정/원격/플로팅 라이선스, 영구 또는 구독 라이선스 등 다양한 유형의 라이선스를 제공한다. 이외에 크로스매니저 어드밴스 버전에서는 자동화 프로세스 및 일괄 처리가 가능하다. 크로스매니저는 설계회사의 CAD 투 CAD(CAD-to-CAD) 변환에 가장 많이 사용되지만, 제조 또는 제조 부품의 정확성 확인, FEA(유한요소해석) 그리고 사실적인 렌더링, 시각화, 시뮬레이션, 메타버스, 견적 준비 등의 요구를 충족시키기 위한 기반으로도 사용된다.   ▲ 데이터킷의 크로스매니저는 다양한 네이티브 포맷 및 중립 포맷의 CAD 데이터를 변환하는 기능을 제공한다.   CAD 데이터 변환 솔루션의 성장세에 대해서는 어떻게 보는지 모델 기반 엔지니어링과 관련된 광범위한 기능을 포함한 크고 상세한 다중 파일 변환에 대한 요구는 기업 내부 그리고 다른 기업 간에도 계속 늘어날 것으로 본다. 다른 한편으로는 이런 업무는 전문가들의 작업이 되고 있으며, 데이터킷과 같은 기업이 글로벌하면서 세부적으로 필요한 접근 방식을 지원할 수 있다. 또한, 다른 산업과 다른 작업 습관을 가진 BIM(빌딩 정보 모델링) 영역은 데이터 변환 시장에 거대한 성장 잠재력을 제공하고 있다. 형상과 치수뿐 아니라 다양한 정보를 포함하면서 CAD 데이터가 복잡해지고 있다. 이런 상황에서 CAD 데이터를 효과적으로 변환하고 활용하기 위해 필요한 점이 있다면 무엇이라고 보는지 우리는 사용자와 사용자의 의도에 초점을 맞춘다. 사용자의 프로필, 직업, 일하는 방식, 설계/제조/검사 파트나 어셈블리와 관련하여 사용자가 100%의 정확도와 최고의 성능을 기대하고 있는지, 아니면 설계에서 보관에 이르기까지 전체 제품 수명주기의 자동화를 개선하기 위해 기능, PMI 또는 2D 데이터와 같은 특정 데이터를 요구하는지를 알아야 한다.   최근에는 CAD 솔루션들이 자체적으로 데이터 호환에 관한 기능을 강화하고 있는데, CAD 데이터 변환 전용의 솔루션이 필요한 이유에 대해 소개한다면 실제로 많은 CAD 솔루션이 데이터 변환 기능을 제공한다. 데이터킷은 광범위한 시장에서의 경험과 인지도를 바탕으로, 우리의 솔루션 중 일부를 글로벌 소프트웨어 업체에 제공하고 있다. 또한 데이터킷의 솔루션은 최종 사용자에게 직접 제안된다. 최종 사용자를 위한 전용 솔루션이 크로스매니저이며, 임베디드 OEM 구매가 아닌 사용자가 필요로 하는 형식에 대한 파일 간 변환을 제공한다. 사실 설계 회사의 관점에서 보면, 파일을 읽고 선택한 형식으로 쓸 수 있도록 하는 것이 숙제이다. 크로스매니저를 사용하면 선택한 형식의 PMI와 같은 데이터를 포함된 파일이나 어셈블리를 읽고 쓸 수 있다는 점에서 확실한 가치를 가진다고 본다.   ▲ 데이터킷은 다양한 설계 정보의 변환 기능을 독립형 제품 및 CAD 플러그인으로 제공하고 있다.   한국 시장에 대한 전망과 한국 내 크로스매니저 비즈니스 계획에 대해 소개한다면 지난 3월에 한국을 비롯해 아시아 지역 각국의 파트너사를 만나 크로스매니저의 비즈니스를 위한 미팅을 진행했는데, 데이터킷의 기술 데이터 변환 솔루션이 한국 시장의 요구를 충족한다고 믿는다. 우리는 크로스매니저의 한국어 버전을 제공하고 있으며, 소프트웨어 공급업체와의 파트너십에 대해서도 자신감을 갖고 있다. 또한, 한국 파트너사인 몰드케어에서는 한국 내 기업에게 크로스매니저와 솔리드웍스 전용 플러그인을 공급하고 있다. 지난 한국 방문을 통해 몰드케어와 긴밀히 협력하기로 얘기를 나누었고, SIMTOS와 같은 전시회에 참가하는 등 시장 확대를 위해 더 많은 기회를 함께 모색하기로 했다. 우리는 한국 생산 현장의 작업자가 설계 . 생산 . 출시까지의 프로세스를 쉽게 도와주고, 제품의 품질을 보장하는 신뢰할 수 있는 데이터 변환 솔루션을 개발하고 있다고 확신한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[포커스] 레노버, “더 많은 CPU 코어로 워크스테이션 성능 높인다”
워크스테이션은 렌더링과 해석 등 전문 분야에 쓰이고 있으며, 최근에는 성장하는 인공지능 분야에도 대응하고 있다. 이런 분야에서 많은 양의 데이터를 빠르게 처리하기 위한 워크스테이션의 성능은 꾸준히 중요한 요구사항 중 하나로 여겨지고 있다. 특히 핵심 연산을 담당하는 CPU 코어의 수가 많을 수록 워크스테이션의 전반적인 성능도 높아진다. 한국레노버는 AMD CPU를 탑재한 씽크스테이션(thinkStation) 워크스테이션의 신제품을 발표하면서, 늘어난 CPU 코어로 더 높은 성능을 제공한다는 점을 강조했다. ■ 정수진 편집장     최대 96코어의 라이젠 스레드리퍼 프로 CPU 탑재 레노버는 2023년 6월 인텔 CPU 기반의 씽크스테이션 P5/P7/PX 라인업을 출시했는데, 이번에 발표된 씽크스테이션 P8은 큰 틀에서 이들 제품과 비슷한 특징을 갖고 있다. 가장 큰 차이점이라면 AMD의 라이젠 스레드리퍼 프로 7000WX(Ryzen Threadripper PRO 7000WX) 시리즈 CPU를 탑재했다는 것이다. 씽크스테이션 P8은 스레드리퍼 프로 7945WX부터 7995WX까지 CPU를 선택할 수 있는데, 가장 높은 사양의 7995WX는 96 코어 192 스레드를 제공한다. 씽크스테이션 PX에서 선택할 수 있는 최고 사양인 인텔 제온 플래티넘 8490H의 60 코어보다 많다.  AMD코리아의 김홍필 이사는 스레드리퍼 프로 7000WX 시리즈가 늘어난 코어 수를 바탕으로 더 높은 성능을 제공한다고 소개하면서. 특히 렌더링이나 시뮬레이션 등의 작업에서는 CPU 코어의 수가 작업 속도에 많은 영향을 준다고 짚었다. “2D CAD에서는 코어 수가 작업 속도에 주는 영향이 상대적으로 적지만, 최근에는 제조뿐 아니라 건설 설계에서도 2D에서 3D CAD로 전환이 일어나고 있다. 또한 시뮬레이션의 사용이 확대되면서 CPU 성능에 대한 요구가 늘고 있다”는 것이 김홍필 이사의 설명이다.   고성능 워크스테이션을 위한 구조 설계 및 성능 제공 또한 씽크스테이션 P8은 AMD 라데온 프로 W7900 등 하이엔드 GPU를 3개까지 탑재할 수 있고, PCIe Gen 5 슬롯, 8채널 메모리 아키텍처 등 고사양 워크스테이션을 위한 기능을 지원한다. 고성능의 하드웨어인만큼 열이 많이 발생하게 되는데, 씽크스테이션 P8은 P5/P7/PX과 마찬가지로 고성능 스포츠카 업체 애스턴마틴과 함께 설계한 섀시 디자인으로 이를 해결하고자 했다. 한국레노버의 이형우 상무는 “씽크스테이션 P8은 CPU, GPU, 저장장치 및 파워 섹터로 내부 공간을 나누고 각 섹터별로 냉각팬을 장착했다. CPU 팬과 서멀 장치를 이중으로 구성하고, CPU의 위아래에 4개씩 메모리 슬롯이 있어서 효율적인 열 관리가 가능하다. 전반적으로 공기 흐름이 원활하도록 내부를 디자인하면서, 내부 컴포넌트를 손쉽게 탈부착 및 교체할 수 있게 했다”고 설명했다. 씽크스테이션 P8은 타워형 데스크톱 워크스테이션이면서 데이터센터에도 유연하게 적용할 수 있도록 랙 구성에 최적화됐다. 밀스펙 테스트를 거쳐 내구성과 안정성을 확보하고, ISV 인증을 통해 산업별 전문 소프트웨어를 안정적으로 사용할 수 있도록 한다. 이외에 원격으로 워크스테이션을 사용하도록 돕는 TGX 솔루션을 통해 원격 업무에 대응할 수 있게 했다.   ▲ 레노버는 효율적인 열 관리를 위해 씽크스테이션 P8의 내부를 디자인했다.   AI 시장에 대응해 워크스테이션 비즈니스 성장 추진 한국레노버의 신규식 대표는 “워크스테이션은 시뮬레이션을 통해 자연세계의 새로운 지식을 얻고 이를 산업에 적용하는 데에 중요한 역할을 하고 있다”면서, “특히 챗GPT가 등장하면서 워크스테이션 시장에서도 생성형 AI가 주요한 이슈로 떠오르고, 이에 대응하려는 노력이 강화되고 있다. 생성형 AI와 LLM(대규모 언어 모델) 등을 중심으로 워크스테이션 시장이 성장할 것으로 보인다”고 전했다. AI는 빠르게 발전하고 있으며 모든 기업이 AI 관련 활동을 확대하고 있다. 컴퓨팅 성능이 발전하면서 AI가 본격적으로 구현되고 있는 상황인데, AI 서비스를 배포하기 전에 워크스테이션으로 테스트를 하거나 서버와 데이터센터가 아닌 워크스테이션에서 AI 환경을 구현하려는 움직임도 확산되는 것으로 보인다. 레노버는 이런 흐름이 워크스테이션 시장에 긍정적인 영향을 줄 것으로 기대하고 있다. 신규식 대표는 레노버의 강점으로 글로벌 공급망과 함께 비즈니스 전략의 실행 능력을 꼽았다. 비슷한 전략이라도 하드웨어/소프트웨어 파트너 및 워크스테이션 전문 파트너와 협력해 효과적으로 실행할 수 있는 것이 레노버의 차별점이라는 설명이다. 또한 신규식 대표는 레노버의 워크스테이션 비즈니스가 꾸준히 성장하고 있다면서, 전반적인 성장 모멘텀을 확보해 올해는 시장 평균보다 높은 성장률을 목표로 삼고 있다고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[포커스] 오라클, 모던 데이터 플랫폼 및 데이터베이스 혁신 전략 발표
한국오라클이 지난 4월 16일 ‘모던 데이터 플랫폼 및 데이터베이스 혁신 전략’을 주제로 기자간담회를 열고, 융합형 데이터베이스(Converged DB)를 중심으로 한 오라클의 포괄적인 기업 데이터 관리 기술의 현재와 미래에 대해 소개했다.  ■ 박경수 기자   기자간담회에는 ‘DB의 아버지’라 불리는 오라클의 앤디 멘델손(Andy Mendelsohn) DB 서버 기술개발사업부 총괄 부사장이 참석해 ‘데이터, AI 및 앱 개발의 미래’를 주제로 발표하고, 오라클 DB 솔루션이 향후 AI 시대를 주도할 데이터 플랫폼의 미래 시장에서 어떤 가치를 갖고 있는지 설명했다.   오라클 모던 데이터 플랫폼 오라클 모던 데이터 플랫폼(Oracle Modern Data Platform)은 전체 라이프사이클을 간소화하고 더 빠른 속도로 통찰력을 제공한다는 점이 특징이다. 단일 플랫폼 상에서 모든 트랜잭션, 웨어하우스, 분석 및 인공지능(AI)/머신러닝(ML) 자산에 대한 수집, 선별(curation) 및 관리를 통해 기업이 데이터에 대한 더 큰 통제 권한을 얻을 수 있다. 오라클은 온프레미스, 하이브리드, 규제, 퍼블릭 클라우드 솔루션 등 원하는 형식이 무엇이든 지원할 수 있다고 강조했다. 모던 데이터 플랫폼은 기업 조직에 데이터 저장, 처리 및 분석을 위한 통합 환경을 제공하는 중앙 집중형 인프라로, 일반적으로 데이터 웨어하우스, 데이터 레이크, 추출, 변환, 로드(ETL) 파이프라인 및 분석 도구 등의 기술들을 포함하고 있다.  모던 데이터 플랫폼은 표준화 및 통합된 데이터 관리 접근방식을 확립해 기업 조직이 귀중한 통찰력을 얻고, 데이터 기반 의사결정을 내릴 수 있도록 하는 지원하는 것을 주된 목표로 삼는다. 단일 통합 저장소에서 데이터 자산을 중앙 집중형으로 관리해 데이터에 대한 더 쉬운 액세스, 협업 및 통제를 가능케 한다.   ▲ 오라클 모던 데이터 플랫폼 기자간담회 모습   융합형 데이터베이스 중심의 기업 데이터관리 앤디 멘델손 부사장은 “오라클의 데이터베이스 비전은 기업 앱 및 분석 개발 운영을 어떠한 활용 사례 및 규모에서든 수월하게 만드는 것”이라며, “전략적 핵심은 기업의 개발뿐만 아니라, 생성형 AI 및 LLM 결합을 통해 생성까지 쉽게 만드는 것”이라고 말했다. 이러한 비전 달성을 지원하는 두 가지 핵심 축은 ‘융합형 DB’ 및 ‘자율운영 DB’이다. 오라클의 융합형 DB는 23c 버전을 클라우드 환경으로 정식 출시됐고, 곧 사내구축형 환경으로도 출시될 예정이다. 멘델손 부사장은 오라클이 2023년 9월에 발표한 차세대 융합형 DB인 오라클 DB 23c가 기존 관계형 모델과 JSON 및 그래프 모델 간의 통합을 구현하는 혁신을 이뤘다고 소개했다. 또한 최근의 앱은 관계형뿐만 아니라 JSON, 그래프 등 다양한 데이터 유형이 혼합 운영되는 가운데, 개발자는 오라클 DB 23c를 통해 3가지 유형의 데이터 장점을 모두 활용하는 앱을 개발, 운영하고 있으며 그 과정에서 데이터의 일관성을 손쉽게 유지할 수 있다고 설명했다. 융합형 DB는 멀티 모델, 멀티 테넌트 및 멀티 워크로드 DB로, 각 개발팀이 원하는 데이터 모델과 액세스 방법을 지원하면서 불필요한 기능으로 방해받지 않도록 한다. 또한 각 개발 팀이 필요로 하는 모든 워크로드(OLTP, 분석, IoT 등)를 탁월한 성능으로 지원한다.  한편 오라클은 지난해 9월 오라클 데이터베이스23c(Oracle Database 23c)에 AI 벡터를 사용하는 시맨틱 검색 기능을 추가할 계획이라고 발표했다. AI 벡터 검색(AI Vector Search)이라는 기능 모음에는 새로운 벡터 데이터 유형, 벡터 인덱스, 벡터 검색 SQL 연산자 등이 포함되어 있다.   ▲ 오라클의 앤디 멘델손 DB 서버 기술개발사업부 총괄 부사장   생성형 AI 기술과 데이터베이스 접목 멘델손 부사장은 또 오라클 DB 비전과 관련해 생성형 AI를 접목한 융합형 DB(Converged Database)와 이를 구동하는 자율운영 DB(Oracle Autonomous Database)를 통해 모던 앱 및 분석을 생성 및 운영하는 작업이 간소화될 것이라고 강조했다. 이를 통해 융합 개방형 SQL DB가 기존 단일목적 상용 DB를 대체함으로써, 기업 개발자와 IT 전문가가 데이터 통합 시간을 줄이고 혁신에 더 집중하도록 돕는다는 전략이다. 오라클은 생성형 AI 기능을 자사 DB 포트폴리오에 내장하고 있는데, 기업이 오라클의 AI 기반 애플리케이션을 구축하도록 지원하기 위함이다. 대표적인 예로, 기업은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 또한 오라클은 OCI 데이터 사이언스(OCI Data Science)의 기능도 확장하고 있으며, 이를 통해 기업이 허깅페이스(Hugging Face)의 트랜스포머(Transformers) 또는 파이토치(PyTorch)와 같은 오픈소스 라이브러리를 사용해 복수의 LLM을 구축, 훈련, 배포 및 관리하도록 지원한다.   ▲ 차세대 융합형 데이터베이스, 오라클 DB 23c   오라클 글로벌 분산형 자율운영 데이터베이스 오라클 글로벌 분산형 자율운영 데이터베이스(Oracle Globally Distributed Autonomous Database)는 기업이 데이터 레지던시 요건을 충족시키고, 비즈니스 크리티컬 애플리케이션에 생존성을 제공하며, 클라우드급 DB 성능을 제공하도록 지원하는 완전 자동화된 분산형 클라우드 DB다.  또한 Oracle DB 샤드 세트로 분산된 단일 논리적 오라클 DB로, 각 샤드는 논리적 DB 데이터의 하위 집합을 호스팅하는 독립적인 오라클 DB 인스턴스다. 다수 샤드를 하나의 OCI 가용성 도메인, 여러 OCI 가용성 도메인 또는 리전, 또는 상이한 지역의 OCI 리전에서 실행해 각각 성능 극대화, 최상의 가용성 확보 및 데이터 레지던시 요건을 지원할 수 있다. 이 밖에도 기업의 핵심 워크로드 구동에 최적화된 고성능 및 고안정성을 제공하는 동시에, 데이터 주권 및 보안 강화를 지원하는 오라클의 서비스로는 오라클 융합형 DB(Oracle Converged Database), 오라클 자율운영 DB(Oracle Autonomous Database), 오라클 엑사데이터 클라우드앳커스터머(Oracle Exadata Cloud@Customer), MySQL 히트웨이브(MySQL HeatWave) 등이 있다. 또한 오라클은 기업 요구사항을 충족시킬 수 있는 DB 및 분석 서비스에 지속적으로 투자하고 있다.   멀티 클라우드 지원 오라클의 또 다른 전략적 핵심은 '멀티 클라우드 지원'이다. 오라클과 마이크로소프트는 주로 애저(Azure) 클라우드 이용 약정 계약을 맺고 있다. 애저 환경에서 자사의 앱 및 오라클 DB를 함께 운영하길 원하는 양사 고객들을 위해 ‘오라클 데이터베이스앳애저(Oracle Database@Azure)’를 발표했다.  해당 오퍼링은 물리적인 엑사데이터(Exadata) 하드웨어를 애저 클라우드 리전 안에 위치시켜 애저 클라우드 데이터 센터 안에서 바로 엑사데이터 기반 클라우드 서비스를 제공하는 변화를 선보였다. 이를 통해 양사 고객들은 기존 애저 클라우드 서비스에 대한 이용 약정 계약 금액만으로 애저 클라우드 및 오라클 데이터베이스 클라우드 서비스를 모두 사용할 수 있게 됐다. 향후 오라클은 MS 외에도 타 클라우드 기업들과 파트너십 확대를 전략적 목표로 삼고 있으며, 올해 오라클 클라우드 월드에서 관련 내용을 소개할 예정이다.  이번 기자간담회를 통해 오라클은 오라클 DB에 많은 양의 비즈니스 데이터를 보유한 기업들이 강력한 AI 기술 및 SQL을 손쉽게 활용해 간단한 방식으로 데이터 검색을 지원하는데 초점을 맞추고 있다는 것을 알 수 있다. 이를 통해 기업은 내부 독점 데이터를 더 잘 활용하는 것은 물론 이해할 수 있게 될 것으로 전망하고 있다. 또한 표준 SQL 기반으로 제공되는 AI 기술이기 때문에 컴퓨터 공학 부문에서 높은 학위가 없다고 하더라도 SQL을 이용할 수 있는 모든 DBA(데이터베이스 관리자)가 활용할 수 있다는 점도 특징이다.    질의 응답 Q. 오라클 DB의 자연어 질문 및 답변 지원 기능과 관련해, 이를 일반적 챗GPT와 비교 시, 기업 내 환경에서는 일반 사용자들이 경험하는 환각현상 같은 것들이 허용되지 않고 정확해야 하는데 이에 대한 관점은 A. 회사 내 데이터에 대해 LLM 기반 검색은 말씀하신 그런 LLM 모델로는 좋은 답을 제공할 수 없다. 말씀한 모델은 인터넷에 공개된 방대한 데이터에 대해 훈련됐지만, 기업 보유의 프라이빗 데이터에 대해서는 전혀 알지 못하기 때문이다. 비즈니스적인 질문을 비즈니스 데이터에 대해 할 경우에 자연어로 질문을 할 때 LLM이 올바른 SQL 질문을 만들 수 있도록 도울 수 있는 데이터 강화가 필요하다. 그래서 사용자의 질문의 맥락에 따라서 가장 적절하다고 생각되는 데이터베이스 스키마를 생성 및 제공해야 한다.  이에 오라클은 LLM이 SQL 생성 후 적절한 오라클 데이터베이스에 있는 스키마만 참조할 수 있도록 하며, 인터넷 공개 데이터로 답변하지 않도록 한다. 애널리스트들이 자주 묻는 질문을 알고 있기 때문에, 이것을 기반으로 관계형 뷰를 만들어서 여기서 가장 자주 묻는 질문에 해당하는 스키마 생성 및 이를 LLM에 전송해서 기업 맥락에 맞는 답변할 수 있도록 보완한다.    Q. 자율운영 DB 개념과 다른 리전에서 고가용성 및 레지던스 확보를 지원하는 기능에 대해 설명해 달라 A. 글로벌 분산형 자율운영 DB는 전 세계적으로 각국 정부가 데이터 주권 규제 강화하고 있는 추세를 지원하고자 출시했다. 예를 들어 현대기아자동차 같이 글로벌하게 운영하는 기업은 전 세계 고객에 대한 DB를 갖고 있다. 데이터 주권 규제로 인해 고객 DB를 국가별로 분산해서 나눠서 관리해야 하는 의무가 있다. 하나의 단일한 고객 DB를 통합해서 관리할 수 없고, 중국, EU 등으로 나눠서 관리해야 하며 이것을 데이터베이스 샤딩이라는 용어로 표현하고 있다. 그래서 23c에서 글로벌 샤딩을 쉽게 만드는 기술을 포함하고 있다.   Q. 파운데이션 LLM 사업을 직접 하지 않는 이유와 최근에 등장하는 경쟁력 있는 MS 오픈 AI, 구글 제미나이 등에 모델을 올리기 어려운 점에 대한 관점은 A. 챗GPT 같은 파운데이션 LLM 모델 개발 구축에 많은 비용이 들며, 시장의 무료 모델을 쓸 수 있기 때문이다. 또한 셀렉트 AI 등 오라클이 AI로 LLM 활용을 지원하는 기술들 중 좋은 API로 연결해 시중의 인기 있는 널리 사용되고 있는 LLM 모델과 잘 연동되고 지원하도록 기술을 고도화하고 있다. 오라클 클라우드 관점에서 오픈AI 등 LLM 벤더와 파트너십을 맺어서 오라클 클라우드를 사용하도록 움직이고 있다. 말하자면 프라이빗 LLM 만들 수 있도록 지원하는 것이다. 현재 AI 커뮤니티에서 굉장히 많은 개발 움직임이 있는데, 그 중 하나가 업무별로 특화된 LLM을 만드는 것이다. 이 경우 운영 비용이 굉장히 저렴해질텐데, 예를 들면 SQL 생성에 특화된 LLM 만든다고 했을 때, 이런 쪽과 협력해서 특화된 기술을 저렴한 비용으로 사용할 수 있도록 하는 협력을 진행하고 있다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
KAIST-네이버-인텔, 공동연구센터에서 AI 반도체의 새로운 생태계 만든다
KAIST와 네이버, 인텔이 새로운 인공지능 반도체의 생태계 구축을 위해 ‘NAVER · intel · KAIST AI 공동연구센터(NIK AI Research Center)’를 설립하는 업무협약(MOU)을 체결했다. 세 기관의 전략적인 제휴는 인공지능 반도체 및 인공지능 서버와 데이터센터의 운영에 필요한 오픈소스용 소프트웨어 개발 등 인공지능 분야에서 각자 보유하고 있는 하드웨어 및 소프트웨어 기술과 역량을 융합함으로써 새로운 인공지능 반도체 생태계를 구축하는 한편, 시장과 기술주도권 확보를 위해 선제적으로 도전하기 위한 것이다. KAIST와 네이버클라우드는 이번 MOU 체결을 계기로 올 상반기 중에 KAIST에 NIK AI 공동연구센터를 설치하고 7월부터 본격적인 연구에 들어갈 계획이다. KAIST에서는 고대역폭메모리(HBM) 등 인공지능 반도체 설계와 인공지능 응용설계(AI-X) 분야에서 세계적인 석학으로 꼽히는 전기및전자공학부 김정호 교수가, 네이버클라우드에서는 인공지능 반도체 설계 및 인공지능 소프트웨어 전문가인 이동수 이사가 공동연구센터장을 맡는다. 또 KAIST 전산학부 성민혁 교수와 네이버클라우드 권세중 리더가 각각 부센터장으로서 공동연구센터를 이끈다. 공동연구센터의 운영 기간은 3년으로, 연구 성과와 참여기관의 필요에 따라 연장할 수 있는 것으로 알려졌다. KAIST에 설치되는 공동연구센터가 핵심 연구센터로서 기능과 역할을 맡는데, KAIST에서 인공지능과 소프트웨어 분야 전문가인 20명 내외의 교수진과 100여명의 석·박사 대학원생들이 연구진으로 참여한다. 초기 2년간은 인텔의 하바나랩스가 개발한 인공지능 학습 및 추론용 칩 ‘가우디(GAUDI)’를 위한 플랫폼 생태계 공동 구축을 목적으로 20~30개 규모의 산학 연구과제를 진행한다. 또한 자연어 처리, 컴퓨터 비전과 머신러닝 등 주로 인공지능 분야 오픈소스용 소프트웨어 개발 위주로 연구가 이뤄질 예정인데 자율 주제 연구가 50%, 인공지능 반도체의 경량화 및 최적화에 관한 연구가 각각 30%와 20%를 차지한다.  이를 위해 네이버와 인텔은 네이버 클라우드 플랫폼 기반의 가우디2를 KAIST 공동연구센터에 제공하며, KAIST 연구진은 가우디2를 이용한 논문 등 연구 실적을 매년 공개한다. 이 밖에 인공지능, 클라우드 등 각자가 보유한 역량 외에 공동 연구에 필요한 각종 인프라 시설과 장비 등을 공유하는 한편, 연구 인력의 상호 교류를 위해 공동연구센터에 필요한 공간과 행정인력을 지원하는 등 다양한 협력 활동을 전개할 방침이다. KAIST의 김정호 교수는 “KAIST는 가우디 시리즈의 활용을 통해 인공지능 개발, 반도체 설계와 운영 소프트웨어 개발 등에서 기술 노하우를 확보할 수 있다”면서, “특히 대규모 인공지능 데이터센터 운영 경험과 향후 연구개발에 필요한 인공지능 컴퓨팅 인프라를 확보할 수 있다는 점에서 이번 공동연구센터 설립이 큰 의미가 있다”고 강조했다. 네이버클라우드의 이동수 이사는 “네이버클라우드는 KAIST와 함께 다양한 연구를 주도해 나가며 하이퍼클로바X 중심의 인공지능 생태계가 확장되기를 기대한다”면서, “공동연구센터를 통해 국내 인공지능 연구가 보다 활성화되고 인공지능 칩 생태계의 다양성이 확보되기를 바란다”고 말했다.
작성일 : 2024-04-30
지멘스, 하드웨어 기반 반도체 검증 솔루션 ‘벨로체 CS’ 발표
지멘스 디지털 인더스트리 소프트웨어, 지멘스 EDA 사업부는 하드웨어 기반의 인증 및 검증 시스템인 벨로체 CS(Veloce CS)를 출시했다. 하드웨어 에뮬레이션, 엔터프라이즈 프로토타이핑 및 소프트웨어 프로토타이핑을 통합한 벨로체 CS는 에뮬레이션을 위해 제작된 지멘스의 새로운 크리스탈 가속기 칩(Crystal accelerator chip)과 엔터프라이즈 및 소프트웨어 프로토타이핑을 위한 AMD 버설 프리미엄(Versal Premium) VP1902 FPGA adaptive SoC(시스템 온 칩) 등 두 가지 첨단 집적 회로(IC)를 기반으로 구축되었다. 벨로체 CS 솔루션에는 ▲ 에뮬레이션용 벨로체 스트라토 CS 하드웨어(Veloce Strato CS hardware for emulation) ▲ 엔터프라이즈 프로토타이핑을 위한 벨로체 프리모 CS 하드웨어(Veloce Primo CS hardware for enterprise prototyping) ▲ 소프트웨어 프로토타이핑을 위한 벨로체 proFPGA CS 하드웨어(Veloce proFPGA CS hardware for software prototyping) 등 세 가지 새로운 제품이 포함된다. 세 플랫폼 모두에서 일관성, 속도 및 모듈성을 위해 설계된 벨로체 CS 시스템은 4000만 개의 게이트부터 최대 400억 개 이상의 게이트를 통합하는 설계까지 지원한다. 또한 벨로체 CS는 각 작업마다 고유한 요구 사항이 있기 작업에 적합한 툴을 선택하여 향상된 가시성과 일관성으로 전체 시스템 워크로드를 실행한다. 이를 통해 프로젝트 완료 시간을 줄이고 검증 주기당 비용을 절감할 수 있다.     지멘스는 주요 고객 및 파트너와 협력하여 하드웨어와 완전히 통합되는 새로운 소프트웨어 아키텍처를 개발했다. 벨로체 스트라토 CS는 기존 벨로체 스트라토에 비해 에뮬레이션 성능이 최대 5배까지 향상되어 높은 가시성을 유지하며, 4000만 게이트(MG)에서 400억 개 이상의 게이트(BG)로 확장할 수 있다. AMD의 최신 버설 프리미엄 VP1902 FPGA를 기반으로 하는 벨로체 프리모 CS는 정합적인 엔터프라이즈 프로토타이핑 시스템으로, 역시 40MG에서 40+BG까지 확장할 수 있다. 벨로체 스트라토 CS와 벨로체 프리모 CS 솔루션은 모두 동일한 운영체제에서 실행되므로, 플랫폼 간에 원활하게 이동할 수 있는 자유도와 함께 정합성을 제공한다. 따라서 램프업(ramp up), 설정 시간, 디버그 및 워크로드 실행을 가속화할 수 있다. 또한, 벨로체 proFPGA CS는 AMD 버설 프리미엄 VP1902 FPGA 기반 적응형 SoC를 활용하여 빠르고 포괄적인 소프트웨어 프로토타이핑 솔루션을 제공하며, 하나의 FPGA에서 수백 개까지 확장할 수 있다. 향상된 성능을 바탕으로 유연한 모듈식 설계와 함께 고객이 펌웨어, 운영 체제, 애플리케이션 개발 및 시스템 통합 작업을 가속화할 수 있도록 지원한다. 벨로체 CS는 최신 AMD 에픽(EPYC) CPU 기반 HP DL385g11 서버와 함께 실행할 수 있는 인증을 받았다. 전체 벨로체 CS 시스템은 간편한 설치, 저전력, 뛰어난 냉각, 컴팩트한 설치 공간을 위해 최신 데이터센터 요구 사항을 완벽하게 준수하는 모듈식 블레이드 구성으로 제공된다. 또한 벨로체 proFPGA CS 솔루션은 데스크톱 랩 버전을 제공하여 추가적인 사용자의 유연성을 높여준다. 벨로체 스트라토 CS 시스템은 현재 일부 파트너 고객에게 제공되고 있으며, 세 가지 하드웨어 플랫폼의 일반 출시는 2024년 여름으로 예정되어 있다. 벨로체 CS 시스템은 클라우드 지원과 함께 일반 출시될 예정이다. 지멘스 디지털 인더스트리 소프트웨어의 장 마리 브루넷(Marie Brunet) 하드웨어 기반 검증 부문 부사장 겸 총괄 매니저는 “벨로체 CS는 세 가지 시스템이 완벽하게 일치하는 고속 모듈식 하드웨어 기반 검증 시스템을 제공한다”면서, “벨로체 CS 시스템을 통해 우리는 진보된 전자 제품을 제공하는 데에 필수적인 역할을 하는 하드웨어, 소프트웨어 및 시스템 엔지니어의 특정 요구 사항을 해결하고 있다. 작업에 적합한 툴을 제공함으로써 전체 검증 프로세스의 속도를 높이고 총 소요 비용을 절감하여 수익성을 높일 수 있는 벨로체 CS의 혁신을 실현하고 있다”고 전했다.
작성일 : 2024-04-25
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25