• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "추론"에 대한 통합 검색 내용이 242개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
매스웍스, 의료 소프트웨어 개발 가속화 위한 엔비디아 홀로스캔 통합 기능 출시
매스웍스는 의료 기기 구축을 위한 엔비디아의 실시간 AI 컴퓨팅 소프트웨어 플랫폼인 엔비디아 홀로스캔(NVIDIA Holoscan)에서 매트랩(MATLAB)을 사용할 수 있는 통합 기능을 발표했다. 의료기기 엔지니어는 실시간 데이터 처리와 추론을 위해 기존의 매트랩 알고리즘과 함수를 GPU 가속 엔비디아 홀로스캔 오퍼레이터(Holoscan Operator)로 래핑하여, 스트리밍 데이터를 분석하고 시각화 애플리케이션의 개발 및 배포를 가속화할 수 있다. 의료기기 엔지니어는 최첨단 소재와 전자기기 활용 기술의 속도감 있는 혁신과 더불어 복잡하게 변화하는 국제 규제를 준수해야 한다. 이로 인해 많은 기기가 시장에 출시된 지 얼마 지나지 않아 구형이 되었고, ‘소프트웨어 의료기기(SaMD)’의 등장을 촉진시켰다. 소프트웨어 의료 기기는 하드웨어에 종속되지 않고 의료 기기의 사용 목적에 부합하는 기능을 가지며 독립적인 형태의 소프트웨어만으로 이뤄진 의료 기기를 말한다. 엔지니어는 소프트웨어 의료기기가 시장에서 지속적인 경쟁력을 유지할 수 있도록 소프트웨어 정의 워크플로를 개발하여 초기 배포 이후의 추가 소프트웨어 기능을 통합할 수 있게 해야 한다. 엔비디아 홀로스캔은 센서 처리 플랫폼으로, 실시간 인사이트를 제공하는 AI 및 고성능 컴퓨팅 애플리케이션의 개발 및 배포를 간소화한다. 또한 에지에서 스트리밍 데이터의 확장 가능한 소프트웨어 정의 처리에 필요한 풀 스택 인프라를 제공해 최신 AI 애플리케이션을 임상 환경에 도입할 수 있도록 지원한다. 의료기기 엔지니어는 홀로스캔과 매트랩의 통합 기능을 통해 영상 및 신호 처리, 필터링, 변환, 딥러닝 알고리즘과 관련된 기존의 내장된 행렬 연산과 복잡한 툴박스 함수를 사용할 수 있다. 매트랩으로 홀로스캔 파이프라인을 구현하려면 매트랩 함수 생성, GPU 코더(GPU Coder)를 통한 가속화된 CUDA 코드 생성, 홀로스캔 오퍼레이터 래퍼 생성 및 새로운 매트랩 오퍼레이터(MATLAB Operator)를 사용한 홀로스캔 애플리케이션 재구축의 4 단계를 거쳐야 한다. 이러한 과정으로 구축된 소프트웨어 정의 워크플로는 매트랩과 홀로스캔의 추가적인 통합 검증 및 확인 기능을 통해 IEC 62304 등의 산업 규정 및 표준을 준수하도록 할 수 있다.     엔비디아의 데이비드 뉴올니(David Niewolny) 의료 기술 부문 사업 개발 책임자는 “의료 기술 산업은 인공지능에 의해 혁신을 거듭하고 있다”며, “엔비디아와 매스웍스는 의료 등급의 엔비디아 홀로스캔 플랫폼 내에서 성장 중인 매트랩 개발 커뮤니티에 호환성 높은 개발 환경을 제공함으로써 의료 기술 분야의 AI 기반 혁신을 가속화하고 있다”고 말했다. 매스웍스의 데이비드 리치(David Rich) 제품 마케팅 부서장은 “이제 엔지니어들은 엔비디아 홀로스캔을 통해 매트랩 함수를 작성하고 수천 배 더 빨리 실행할 수 있다”며, “수백만 명의 고객이 산업 규정과 표준을 준수하는 제품을 설계, 개발 및 테스트하고자 하는 가운데, 업계 리더인 엔비디아와의 협업으로 의료 기기 혁신을 주도할 수 있게 됐다”고 말했다.
작성일 : 2024-05-09
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional Services)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08
몽고DB, 생성형 AI로 최신 애플리케이션 구축 지원
몽고DB가 기업이 생성형 AI로 신속하게 최신 애플리케이션을 구축 및 배포하도록 지원하는 ‘몽고DB AI 애플리케이션 프로그램(MongoDB AI Applications Program : MAAP)’을 발표했다. 새롭게 선보인 MAAP은 기업 고객을 위한 몽고DB 및 파트너사의 전략적 자문과 전문 서비스를 비롯해 통합된 엔드투엔드 기술 스택을 제공한다. MAAP에는 컨설팅 및 파운데이션 모델(FM), 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공기업 등이 초기 파트너로 참여해 몽고DB와 함께 고객이 고도화된 AI 기반 애플리케이션으로 비즈니스의 어려움을 해결하도록 지원할 방침이다. 이를 위해 MAAP은 생성형 AI를 빠르고 효율적으로 애플리케이션에 도입하길 원하는 기업을 위해 필요한 기술 스택과 전문성을 제공하는 원스톱 솔루션으로 설계됐다. 모든 기업은 생성형 AI가 주도한 혁신 속에서 경쟁 우위를 점하고 고객의 높아진 기대치를 뛰어넘기 위해 애플리케이션 현대화를 추진하고 있다. 전 산업군의 기업이 새로운 기술 변화의 이점을 누리기 위해 나서고 있지만, 새로운 종류의 애플리케이션을 안전하고 안정적으로 구축, 배포 및 확장하는 데 필요한 데이터 전략과 기술을 갖추지 못한 경우가 많다. 이들 중 상당수는 확장이 불가능한 레거시 기술로 인해 비효율적인 데이터 작업 방식을 고수하고 있으며, 일부는 불필요한 복잡성과 비용을 야기하는 단일 목적의 볼트온(bolt-on) 솔루션을 사용하고 있다. 이러한 경우, 기업은 기존의 기술과 애드온(add-on) 솔루션으로 인해 장기적인 성공보다는 PoC(Proof of Concept) 수준의 단기적인 결과에 머물게 된다. 몽고DB가 새롭게 선보인 MAAP은 기업이 가진 비즈니스 문제를 파악하고 역추적하며, 솔루션을 신속하게 구축 및 반복해 혁신적인 생성형 AI 애플리케이션 생산에 최적화된 전략적 프레임워크와 전문 서비스, 기술 로드맵을 제공한다. 몽고DB는 통합 개발자 데이터 플랫폼에서 기업이 생성형 AI 애플리케이션을 배포할 수 있는 기술을 MAAP에 접목했으며, 이와 함께 컨설팅 및 FM, 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공 기업과의 파트너십을 기반으로 엔드 투 엔드 솔루션을 제공한다. 대표적으로 앤스로픽(Anthropic), 애니스케일(Anyscale), 아마존웹서비스(AWS), 코히어(Cohere), 크레달.ai(Credal.ai), 파이어웍스.ai(Fireworks.ai), 구글 클라우드(Google Cloud), 그래비티나인(gravity9), 랭체인(LangChain), 라마인덱스(LlamaIndex), 마이크로소프트 애저(Microsoft Azure), 노믹(Nomic), 피어아일랜드(PeerIslands), 퓨어인사이트(Pureinsights), 투게더 AI(Together AI) 등 기업이 MAAP의 초기 파트너사로 참여해 고객에게 필요한 기술, 풀 서비스 및 전문가 지원을 제공한다. MAAP은 기업에 대한 고도로 맞춤화된 분석에 기반한다. 먼저 몽고DB 프로페셔널 서비스(MongoDB Professional Services)는 조직의 현재 기술 스택을 평가하고 고객과 협력해 해결해야 할 비즈니스 문제를 파악한다. 이어 컨설팅 파트너와 함께 전략적 로드맵을 개발하고 프로토타입을 신속하게 마련해 결과물이 고객의 기대에 부합하는지 검증하며, 이를 실제 운영 환경에서 사용할 수 있도록 완전하게 구축된 애플리케이션을 최적화한다. 고객은 필요에 따라 새로운 생성형 AI 기능을 개발하기 위한 몽고DB 프로페셔널 서비스를 계속 지원받을 수 있다. 기업은 조직 전반과 고객을 위한 애플리케이션에 배포된 새로운 기술이 예상대로 작동하며 민감한 데이터를 노출하지 않는다는 확신을 가질 수 있어야 한다. MAAP의 파트너사는 안전성과 신뢰성, 유용성을 보장하도록 설계된 FM을 제공한다. 기업은 FM을 강력한 거버넌스 제어와 자체 데이터를 사용하는 검색 증강 생성(RAG) 등의 기술과 결합함으로써 FM이 제공하는 데이터를 정확히 제어하고 정확도 개선에 필요한 컨텍스트를 제공하며 환각현상(hallucination)을 줄일 수 있다. 또한 기업은 MAAP 파트너를 통해 도메인별 사용 사례에 최적화된 미세 조정 및 추론 서비스도 사용하며, 앤스로픽, 코히어, 메타(Meta), 미스트랄(Mistral), 오픈AI(OpenAI) 등 모델을 기반으로 빠른 AI 모델 응답 시간을 확보할 수 있다. 이처럼 MAAP은 사용 사례에 필요한 생성형 AI 참조 아키텍처, 통합 기술, 규정 등 실무 중심의 전문 서비스를 제공해 의도대로 작동하는 안전한 고성능 애플리케이션을 구축할 수 있다. MAAP은 생성형 AI를 대규모로 도입할 준비가 되지 않은 기업에게 안전한 비공개 샌드박스 환경에서 진행되는 맞춤형 프로토타입 세션을 제공한다. 예를 들어 전략, 운영, IT, 소프트웨어 개발 등 조직의 여러 부서가 전문가 세션에 참여해 다양한 의견을 모으고, 생성형 AI를 통해 해결할 수 있는 내부 비즈니스 과제를 파악하는 데 맞춤형 MAAP을 활용할 수 있다. 나아가 몽고DB 프로페셔널 서비스가 주도하는 해커톤을 통해 솔루션을 공동 구축하고 내부 사용 사례에 대한 효과를 테스트한다. 즉, MAAP은 생성형 AI가 특정 비즈니스 문제를 해결하는 실질적인 솔루션을 신속하게 구축하는 데 필요한 교육, 리소스 및 기술을 제공한다. 몽고DB의 앨런 차브라(Alan Chhabra) 월드와이드 파트너 부문 수석부사장은 “기민함이 필요한 스타트업부터 탄탄한 입지를 구축한 글로벌 기업까지 몽고DB의 다양한 고객이 생성형 AI에 많은 관심을 보이고 있다. 이들은 몽고DB의 최신 기술과 포괄적인 서비스를 활용해 혁신적인 아이디어를 실제 애플리케이션으로 전환하고 있으나 일부 기업은 여전히 비즈니스 문제 해결을 위해 생성형 AI를 통합할 최상의 방법을 고민하고 있다”고 전했다. 또한, “MAAP은 강력한 개발자 데이터 플랫폼인 몽고DB 아틀라스(MongoDB Atlas)와 몽고DB가 보유한 전문성 및 서비스, 그리고 생성형 AI 업계 리더들과의 전략적 파트너십을 통해 규모를 막론하고 모든 기업이 생성형 AI를 자신 있게 도입하고 구현할 수 있는 포괄적인 로드맵을 제공한다. 몽고DB와 파트너는 MAAP을 통해 고객의 생산성을 높이고 고객과의 상호 작용을 혁신하며 업계 발전을 주도하는 데 생성형 AI를 활용할 수 있도록 지원한다”고 말했다.
작성일 : 2024-05-07
[포커스] 로크웰 오토메이션, AI·클라우드 접목한 디지털 제조 기술 소개
로크웰 오토메이션이 지난 3월 열린 ‘2024 스마트공장·자동화산업전’에 참가해 생산 최적화부터 디지털 전환과 지속가능성을 위한 자사의 기술을 선보였다. 로크웰 오토메이션은 생산/제어 설비부터 클라우드 및 AI(인공지능) 소프트웨어까지 폭넓은 솔루션 포트폴리오를 바탕으로 제조기업의 빠른 디지털 전환을 지원한다는 비전을 소개했다. ■ 정수진 편집장   제조 혁신을 위해 클라우드와 AI에 대한 관심 증가 로크웰 오토메이션의 스콧 울드리지 아태지역 사장은 로크웰 오토메이션의 연례 스마트 제조 리포트 내용을 인용해 “에너지 비용, 물가, 인건비의 상승에 대응하기 위한 자동화와 최적화가 제조산업이 꼽은 주요 과제였다. 또한, 많은 기업이 기술 투자를 늘릴 계획을 갖고 있는데, 기술 투자 분야 중에서는 클라우드와 SaaS(서비스형 소프트웨어)가 몇 년간 각광을 받고 있다. 제조 플랫폼을 쉽고 일관된 방식으로 배포하는 데에 기업들이 관심을 가진 것으로 볼 수 있다”고 소개했다. 로크웰 오토메이션에 따르면, 물가 상승과 인력 부족 문제에 대응해 생산성을 높이기 위한 목적으로 기업들이 AI에 대한 투자를 확대하고 있는 것으로 나타났다. 특히 생성형 AI 및 인과추론 AI가 많은 관심을 받고 있으며, 이미 투자 성숙 단계에 접어든 기업도 적지 않은 상황이다. 로크웰 오토메이션의 설문조사에서는 응답 기업의 85%가 AI 도입 계획이 있다고 답했다. 제조산업에서 AI를 활용하는 목적으로는 품질 개선, 사이버 보안, 로보틱스, 경로 최적화, AMR(자율 이동 로봇) 등이 꼽히면서, AI는 산업 자동화의 핵심 기술로 자리매김할 전망이다.   ▲ 공장의 VR 시뮬레이션을 위한 로크웰 오토메이션의 에뮬레이트3D 플랫폼   스마트한 디지털 제조의 지향점은 자율 운영 공장 로크웰 오토메이션 코리아의 이용하 대표이사는 “전 세게 디지털 전환 시장은 작년 9372억 달러 규모이고, 오는 2032년에는 7조 33억 달러까지 성장할 것”이라면서, “특히 제조 시스템과 공장이 많은 아시아 태평양 지역은 시장 비중은 낮지만 가장 빠르게 성장할 전망”이라고 소개했다. 이런 성장세의 배경으로는 최신 기술의 발전과 함께 코로나19 이후 비즈니스 운영의 디지털화에 대한 요구가 늘어난 점이 꼽힌다. 로크웰 오토메이션이 제조 디지털 전환의 핵심으로 꼽은 것은 ‘스마트 제조’이다. 스마트 제조는 생산 최적화, 직원 역량 강화, 탄력성 구축, ,지속가능성 추진, 트랜스포메이션 가속화 등의 비즈니스 결과를 목표로 한다.  로크웰 오토메이션은 미래의 자동화 공장이 사람의 개입을 최소화하면서 스스로 학습하고 최적화하는 형태가 될 것으로 보고 있다. 또한, 자동화 역량의 개선과 적응형 기술의 결합을 통해 자율 운영 공장으로 진화할 것으로 전망한다. 울드리지 사장은 “로크웰 오토메이션은 산업 자동화 및 디지털 전환 분야의 전문 기업으로서 산업 트렌드를 이해하고 기술 전문성을 갖추고 있다. 이런 역량을 바탕으로 최근의 주요한 트렌드인 자율 운영 분야에 대응하고 있다”고 설명했다. 로크웰 오토메이션은 제조 엔지니어와 데이터 과학자의 참여를 통해 AI 기술을 내재화하고 있으며, 다양한 기술을 추가할 수 있는 비선형성과 알고리즘 기반의 최적화를 지원한다. 또한, 엔비디아와의 파트너십을 통해 AI 칩으로 제조 데이터를 분석하고 자율 운영 공장으로 발전시켜 나간다는 계획을 소개하기도 했다.   ▲ 로크웰 오토메이션은 스마트공장·자동화산업전에서 디지털 제조를 위한 자사의 기술을 소개했다.   디지털 제조를 위한 기술 포트폴리오 제공 로크웰 오토메이션은 디지털 제조를 위한 자사의 핵심 역량으로 신규 공장 설계, 자동화 및 제어, 생산 물류, 에지 컴퓨팅 및 클라우드 등 폭넓은 기술 포트폴리오를 소개했다. 공장 및 생산 라인의 설계를 위해서 로크웰 오토메이션은 시뮬레이션 기반으로 공장을 건설하기 전에 테스트와 최적화를 할 수 있는 에뮬레이트3D(Emulate3D) 플랫폼을 제공한다. 자동화/제어 영역에서는 챗GPT(ChatGPT)로 빠르게 제어 코드를 생성하고, 개별 제어기에 AI를 내장해 빠른 문제 해결을 지원한다. 생산 물류 분야에서는 AI를 활용해 AGV(무인 운반 차량)의 효율적인 이동 경로를 생성하거나 이동형 로봇, 독립 카트 등의 기술을 적용해 창고 . 생산 시설 . 창고의 사이클을 자동화할 수 있도록 돕는다. 에지/클라우드를 위해서는 드라이버/PLC/에지에 AI를 탑재해 다수의 현장을 한 곳에서 관리하거나 ERP와 연결하는 등의 이점을 제공한다. 또한 MES(제조 실행 시스템), 데이터 애널리틱스 및 시각화 등을 위한 제조 산업 클라우드를 지원한다. 사이버 보안도 클라우드와 AI의 도입 과정에서 중요한 요소인데, 로크웰 오토메이션은 고객사의 시스템 구축 및 운영을 위해 직접 모니터링을 지원하며 엔지니어링 서비스와 원격 모니터링을 연중 무휴로 제공하고 있다. 이용하 대표이사는 국내 스마트 공장의 시장 가능성에 대해서 긍정적으로 전망했다. 또한 “무엇보다 디지털 전환은 빠르게 시작하는 것이 중요하다. 로크웰 오토메이션은 공장의 설계와 운영, 사이버 보안, 유지보수를 위한 폭넓은 솔루션과 서비스를 제공한다. 또한 디지털 전환을 위한 기술, 인력, 경험, 사례를 갖고 있는 것도 강점이다. 이를 바탕으로 제조산업 고객의 디지털 전환을 효과적으로 지원할 것”이라고 전했다. 울드리지 사장은 “한국은 디지털 기술 도입의 선두주자라고 생각한다. AI, 클라우드, 에지 등의 기술 개발에 있어서도 한국이 글로벌 시장을 선도하면서 회복탄력성을 갖춘 제조 환경을 확산시키는 데에 기여할 것으로 기대한다”고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
KAIST-네이버-인텔, 공동연구센터에서 AI 반도체의 새로운 생태계 만든다
KAIST와 네이버, 인텔이 새로운 인공지능 반도체의 생태계 구축을 위해 ‘NAVER · intel · KAIST AI 공동연구센터(NIK AI Research Center)’를 설립하는 업무협약(MOU)을 체결했다. 세 기관의 전략적인 제휴는 인공지능 반도체 및 인공지능 서버와 데이터센터의 운영에 필요한 오픈소스용 소프트웨어 개발 등 인공지능 분야에서 각자 보유하고 있는 하드웨어 및 소프트웨어 기술과 역량을 융합함으로써 새로운 인공지능 반도체 생태계를 구축하는 한편, 시장과 기술주도권 확보를 위해 선제적으로 도전하기 위한 것이다. KAIST와 네이버클라우드는 이번 MOU 체결을 계기로 올 상반기 중에 KAIST에 NIK AI 공동연구센터를 설치하고 7월부터 본격적인 연구에 들어갈 계획이다. KAIST에서는 고대역폭메모리(HBM) 등 인공지능 반도체 설계와 인공지능 응용설계(AI-X) 분야에서 세계적인 석학으로 꼽히는 전기및전자공학부 김정호 교수가, 네이버클라우드에서는 인공지능 반도체 설계 및 인공지능 소프트웨어 전문가인 이동수 이사가 공동연구센터장을 맡는다. 또 KAIST 전산학부 성민혁 교수와 네이버클라우드 권세중 리더가 각각 부센터장으로서 공동연구센터를 이끈다. 공동연구센터의 운영 기간은 3년으로, 연구 성과와 참여기관의 필요에 따라 연장할 수 있는 것으로 알려졌다. KAIST에 설치되는 공동연구센터가 핵심 연구센터로서 기능과 역할을 맡는데, KAIST에서 인공지능과 소프트웨어 분야 전문가인 20명 내외의 교수진과 100여명의 석·박사 대학원생들이 연구진으로 참여한다. 초기 2년간은 인텔의 하바나랩스가 개발한 인공지능 학습 및 추론용 칩 ‘가우디(GAUDI)’를 위한 플랫폼 생태계 공동 구축을 목적으로 20~30개 규모의 산학 연구과제를 진행한다. 또한 자연어 처리, 컴퓨터 비전과 머신러닝 등 주로 인공지능 분야 오픈소스용 소프트웨어 개발 위주로 연구가 이뤄질 예정인데 자율 주제 연구가 50%, 인공지능 반도체의 경량화 및 최적화에 관한 연구가 각각 30%와 20%를 차지한다.  이를 위해 네이버와 인텔은 네이버 클라우드 플랫폼 기반의 가우디2를 KAIST 공동연구센터에 제공하며, KAIST 연구진은 가우디2를 이용한 논문 등 연구 실적을 매년 공개한다. 이 밖에 인공지능, 클라우드 등 각자가 보유한 역량 외에 공동 연구에 필요한 각종 인프라 시설과 장비 등을 공유하는 한편, 연구 인력의 상호 교류를 위해 공동연구센터에 필요한 공간과 행정인력을 지원하는 등 다양한 협력 활동을 전개할 방침이다. KAIST의 김정호 교수는 “KAIST는 가우디 시리즈의 활용을 통해 인공지능 개발, 반도체 설계와 운영 소프트웨어 개발 등에서 기술 노하우를 확보할 수 있다”면서, “특히 대규모 인공지능 데이터센터 운영 경험과 향후 연구개발에 필요한 인공지능 컴퓨팅 인프라를 확보할 수 있다는 점에서 이번 공동연구센터 설립이 큰 의미가 있다”고 강조했다. 네이버클라우드의 이동수 이사는 “네이버클라우드는 KAIST와 함께 다양한 연구를 주도해 나가며 하이퍼클로바X 중심의 인공지능 생태계가 확장되기를 기대한다”면서, “공동연구센터를 통해 국내 인공지능 연구가 보다 활성화되고 인공지능 칩 생태계의 다양성이 확보되기를 바란다”고 말했다.
작성일 : 2024-04-30
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
델, 제조분야 에지 AI 환경 지원하는 포트폴리오 및 생태계 확대
델 테크놀로지스가 제조업체의 AI 활용을 돕기 위해 자사의 에지(edge) 포트폴리오를 확대한다고 밝혔다. 이를 위해 델은 현대오토에버, 인텔 등과 협력해 에지 파트너 에코시스템을 강화함으로써, 제조 고객들이 AI를 통해 데이터로부터 더 많은 가치를 창출할 수 있도록 지원한다. 제조업체에서는 AI를 통해 에지 데이터를 보다 빠르고 정확하게 수집, 분석, 처리할 수 있다. IDC는 AI가 향후 수년간 에지 컴퓨팅의 성장을 주도할 것으로 예상하며, 2024년 전 세계 에지 컴퓨팅 투자가 2023년 대비 15.4% 증가한 2320억 달러(약 317조 원)에 이를 것으로 전망했다. 델은 ‘제조 에지 환경을 위한 델 검증 설계(Dell Validated Design for Manufacturing Edge)’에 현대오토에버의 오퍼링을 결합해 제조업체들이 AI 기반 팩토리로 전환하게끔 돕는다. 현대오토에버는 제조업체의 운영 간소화 및 디지털 연속성을 위해 기존의 IT 및 OT 인프라와 통합 가능한 스마트 공장 솔루션을 제공한다. ‘제조 에지를 위한 델 검증 설계’에 현대오토에버의 ‘네오팩토리 IoT(NeoFactory IoT)’ 소프트웨어를 통합하여 공장 프로세스에 AI 기반으로 최적화하고 성과를 촉진할 수 있다. 공장 관리자는 장비 성능을 신속하게 모니터링하여 이상현상을 감지하고, 예측 유지 보수를 통해 다운타임을 줄이는 한편 생산성을 높일 수 있다. 또한 공정 낭비로 인한 비용을 제거하고 프로세스 직행 수율을 향상시키는 효과를 얻게 된다. 제조 에지를 위한 델 검증 설계는 델의 에지 운영 소프트웨어 플랫폼인 ‘델 네이티브엣지(Dell NativeEdge)’에서 지원된다. 제조업체는 인프라스트럭처 구축을 간소화하고, 공장 현장에서 여러 애플리케이션을 관리하며, 인프라스트럭처와 애플리케이션을 신속하게 확장하는 동시에 공장의 보안을 유지 및 강화할 수 있다. 현대오토에버 차세대 스마트팩토리 추진실은 “델과의 협력을 통해 현대오토에버의 네오팩토리 IoT는 에지에서 실시간 데이터와 AI를 사용하여 의사 결정을 내리고 비즈니스 성장을 촉진함으로써 현대적인 제조 방식을 한층 고도화한다. 델 네이티브엣지와 통합으로 확장 가능하고 안전한 솔루션을 제공함으로써 제조 역량을 제고하고 디지털 혁신의 새로운 기준을 재정의할 계획”이라고 밝혔다. 델은 제조 에지를 위한 델 검증 설계가 다양한 파트너 및 독립 소프트웨어 공급업체(ISV)로 구성된 에코시스템을 지원하여 제조업체가 공장 현장의 데이터를 관리하는 방식에 대한 폭넓은 선택권과 유연성을 제공한다고 설명했다. XM프로(XMPro)를 통한 확장된 디지털 트윈 기능, 코그넥스(Cognex)의 AI 지원 스마트 카메라를 통한 고급 품질 관리, 클래로티(Claroty)의 향상된 온프레미스 위협 감지 기능 등 델의 파트너 에코시스템은 제조업체의 환경을 지원하는 데 필요한 기술을 지속적으로 혁신하고 제공한다. 델은 에지에서 AI 및 머신러닝 애플리케이션을 구축하고 관리할 수 있는 더 많은 유연성과 선택권을 제공하기 위해 ‘인텔 타이버 엣지(Intel Tiber Edge)’ 플랫폼의 일부인 ‘오픈비노(OpenVINO)’ 툴킷을 지원하는 ‘델 네이티브엣지 블루프린트(Dell NativeEdge Blueprints)’를 선보인다. 양사의 통합 기술은 에지 컴퓨팅 자원의 오케스트레이션 및 관리를 간소화하여 인텔 기반 하드웨어에 안전하고 원활하게 애플리케이션을 배포할 수 있도록 지원한다. 최적화된 AI 추론으로 실시간 인사이트를 도출하고 기업의 운영 효율성을 개선하는데 도움이 된다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “공장에서 데이터를 생성하는 모든 지점에서 비즈니스 가치를 발견할 수 있다. 장비 상태, 부품 생산 현황, 조립 라인의 공정 및 안전을 위한 모니터링 카메라, 포장 및 물류 등 수많은 곳에서 방대한 양의 데이터가 생성된다. 제조기업이 델을 선택함으로써 데이터의 가치와 AI의 가능성을 실현시킬 수 있도록 혁신 기술을 지속적으로 제공하고자 한다”고 말했다.
작성일 : 2024-04-24
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
대원씨티에스-딥엑스, AI 솔루션 확산 위해 ‘맞손’, 딥엑스 총판 계약 체결
  대원씨티에스와 딥엑스가 AI 솔루션 확산을 위해 총판계약을 체결했다.(좌로부터 대원씨티에스 정명천 회장, 딥엑스 김녹원 대표, 대원씨티에스 하성원 대표) 대원씨티에스는 4월 11일, 국내 최대의 AI 반도체 스타트업인 딥엑스와 총판 계약을 체결했다. 대원씨티에스는 11일, 판교 딥엑스 본사에서 김녹원 대표이사, 정명천 대원씨티에스 회장 등 양사 관계자들이 참석한 가운데 온디바이스 AI 솔루션을 전산업으로 확산하기 위해 B2B, B2C 비즈니스 총판 계약을 체결했다고 밝혔다. 대원씨티에스는 1988년 창립된 회사로 국내에서 AMD, 델, 슈퍼마이크로, 케이투스 등 글로벌 반도체 및 서버 업체들의 국내 총판을 담당하고 있다. 또한 LG, 삼성, HP 등 국내외 IT 제조사와 총판 계약을 통해 국내 IT 제품의 유통을 주도해왔으며, 작년 7,200억의 유통 매출을 달성했다. 생성형 AI 기술의 확산과 더불어 AI 인프라 시장이 확대되면서 AI 반도체가 주목받고 있다. 전통적인 반도체 기업을 비롯해 글로벌 빅테크 기업들까지 AI 반도체 개발에 뛰어들고 있다. 추론 기술을 구현하기 위한 인공신경망(NPU) 알고리즘을 저전력, 고속으로 처리할 수 있는 AI 반도체는 디지털 4차 혁명과 더불어 어느 산업보다 빠르게 성장하고 있다. 가트너는 오는 2027년 AI 반도체 시장이 1194억 달러로 현재보다 3배 이상 성장할 것으로 전망하고 있다. AI 반도체 시장 선점을 위해 정부에서도 지원을 아끼지 않고 있다. 과학기술정보통신부와 산업통상자원부는 AI 일상화를 지원하기 위해 국내 7대 주력산업이 참여하는 AI 반도체 협업포럼을 출범시켰다. 이런 상황에 대원씨티에스와 딥엑스의 전략적 유통 협력 계약 체결은 남다른 의미를 갖는다. 양사의 계약 체결로 대원씨티에스는 기존 데이터센터 시장에서 NPU 서버, 스토리지, AI 네트워킹 솔루션 공급에서 더 나아가 엣지 인프라 환경까지 영역을 확대해 나간다는 계획이다. 대원씨티에스는 딥엑스와의 협업을 통해 AI를 위한 단일 패키지 솔루션을 공급할 수 있을 것으로 기대된다. 국내 대형 유통 네트워크를 보유하고 있는 대원씨티에스와의 협업은 딥엑스의DX-V1 및 DX-M1과 같은 온디바이스 AI 반도체 제품을 양산 초기부터 대형 유통 네트워크를 통해 고객에게 효율적으로 공급할 수 있다는 전략적 가치가 있다. 더불어 대원씨티에스는 딥엑스가 협력을 타진하고 있는 글로벌 서버 개발사들인 델, 슈퍼마이크로, 케이투스 등의 국내 총판 유통사이기 때문에 딥엑스의 서버 시장 공략에서도 시너지를 발휘할 것으로 기대하고 있다. 대원씨티에스의 하성원 대표는 “그동안 국내 시장에서 다양한 서버 업체들의 총판을 담당하면서 GPU 서버 중심의 AI 인프라 시장을 타깃으로 해왔다”면서 “이번에 딥엑스와의 총판 계약 체결로 명실상부한 국내 AI 인프라 구축 솔루션 전문업체로 거듭날 계획”이라고 밝혔다. 딥엑스 김녹원 대표는 “대원씨티에스의 탄탄하고 폭넓은 유통망과 딥엑스의 우수한 기술력의 제품으로 AI 반도체 시장에서 입지를 확대해 나가겠다. 올해 하반기부터 양산되는 4개의 AI 반도체로 구성된 1세대 제품을 통해 글로벌 시장 공략을 본격화하면서 AI 일상화 시대를 열어가겠다”고 밝혔다.  
작성일 : 2024-04-14
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12