• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "RAG"에 대한 통합 검색 내용이 1,308개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, “생성형 AI 통해 다양한 분야서 HPC 활용 연구 가속화 지원”
엔비디아가 생성형 AI를 통해 HPC(고성능 컴퓨팅) 작업을 가속화하며 코드 생성, 기상, 유전학, 재료 과학 분야의 연구를 지원하고 있다고 밝혔다. 생성형 AI는 국가와 기업 연구소에서 비즈니스와 과학을 위한 HPC를 가속화하며 기반을 다지고 있다. 샌디아 국립 연구소(Sandia National Laboratories)는 세계 최대 규모의 슈퍼컴퓨터에서 사용하도록 설계된 병렬 프로그래밍 언어인 코코스(Kokkos)로 코드를 자동으로 생성하는 시도를 하고 있다. 여러 국립 연구소의 연구진이 개발한 이 특수 언어는 수만 대의 프로세서에서 작업을 수행하는 데 필요한 미묘한 부분까지도 처리할 수 있다. 샌디아 국립 연구소의 연구진들은 검색 증강 생성(RAG) 기술을 사용해 코코스 데이터베이스를 생성하고 AI 모델과 연결하고 있다. 이들은 다양한 RAG 접근 방식을 실험하면서 초기 테스트에서 긍정적인 결과를 보여주고 있다. 과학자들이 평가하게 될 RAG 옵션 중에는 네모 리트리버(NeMo Retriever)와 같은 클라우드 기반 서비스도 있다.     이러한 모델 조정과 RAG를 통한 코파일럿 구축은 시작에 불과하다. 연구진들은 궁극적으로 기후, 생물학, 재료 과학과 같은 분야의 과학 데이터로 훈련된 파운데이션 모델의 활용을 목표로 하고 있다. 일기 예보 분야의 연구원과 기업들은 기상, 기후 연구를 위한 서비스와 소프트웨어 세트인 엔비디아 어스-2(Earth-2)의 생성형 AI 모델인 코디프(CorrDiff)를 채택하고 있다. 코디프는 기존 대기 모델의 25km 해상도를 2km까지 조정할 수 있다. 또한, 결합할 수 있는 예측 수를 100배 이상 확장해 예측 신뢰도를 높일 수 있다. 자체 소형 위성 네트워크에서 데이터를 수집하는 기업인 스파이어(Spire)의 톰 고완(Tom Gowan) 머신러닝 및 모델링 책임자는 “생성형 AI를 통해 더 빠르고 정확한 예보가 가능해지고 있다”고 전했다. 스위스에 본사를 둔 메테오매틱스(Meteomatics)는 최근 자사의 일기 예보 사업에도 엔비디아의 생성형 AI 플랫폼을 사용할 계획이라고 발표했다. 메테오매틱스의 마틴 펜글러(Martin Fengler) CEO는 “엔비디아와의 협력은 에너지 기업들이 날씨 변동에 대한 빠르고 정확한 인사이트를 통해 재생 에너지 운영을 극대화하고 수익성을 높이는 데 도움이 될 것”이라고 말했다. 마이크로소프트는 생성형 AI로 재료 과학 분야의 작업을 가속화하는 연구를 진행했다. 마이크로소프트의 매터젠(MatterGen) 모델은 원하는 특성을 나타내는 새롭고 안정적인 물질을 생성한다. 이 접근 방식을 통해 화학, 자기, 전자, 기계 등의 기타 원하는 특성을 지정할 수 있다. 마이크로소프트 연구팀은 엔비디아 A100 GPU를 사용해 애저(Azure) AI 인프라에서 매터젠을 훈련시켰으며, 카본3D(Carbon3D)와 같은 기업은 상업용 3D 프린팅 작업에서 재료 과학에 생성형 AI를 적용하며 기회를 찾고 있다. 엔비디아는 “이는 연구자들이 생성형 AI를 통해 HPC와 과학 분야에서 할 수 있는 일의 시작에 불과하다”면서, “현재 사용 가능한 엔비디아 H200 텐서 코어 GPU와 곧 출시될 엔비디아 블랙웰(Blackwell) 아키텍처 GPU는 새로운 차원의 작업을 실현시킬 것”이라고 기대했다.
작성일 : 2024-05-16
레드햇-퀄컴, 소프트웨어 정의 차량의 혁신 가속화 위한 비전 제시
레드햇과 퀄컴테크놀로지는 기술 협력을 통해 소프트웨어 정의 차량(SDV)의 가상 테스트와 배포를 위한 플랫폼을 제공한다고 발표했다. 이 플랫폼은 ‘레드햇 차량용 운영체제(Red Hat In-Vehicle Operating System)’를 기반으로 한다. 양사는 이번 협력을 통해 마이크로서비스 기반 ADAS(Advanced Driver Assistance Systems : 첨단 운전자 지원 시스템) 애플리케이션의 엔드 투 엔드 개발과 배포를 통해 SDV를 가속화할 수 있는 방법을 제시할 예정이다. 퀄컴의 스냅드래곤 라이드 플렉스(SnapdRAGon Ride Flex) SoC(System on Chip)와 레드햇 차량용 운영체제를 기반으로 하는 이 플랫폼은 자동차 제조업체가 클라우드에서 기능을 개발하고 이러한 컨테이너 네이티브 워크로드 및 애플리케이션을 테스트 시설이나 차량에 배포할 수 있게 하는 것을 목표로 한다. 레드햇과 퀄컴은 자동차 테스트와 혁신에 대한 접근 방식을 쇄신하기 위해 SDV와 클라우드로 전환하는 추세가 이어지는 것으로 보고 있다. 자동차 제조업체는 클라우드 네이티브 워크로드를 통해 확장 가능한 온디맨드 컴퓨팅 리소스의 성능을 활용해 인공지능(AI) 모델과 소프트웨어 업데이트를 포괄적으로 테스트할 수 있다. 그리고 무선으로 차량 소프트웨어를 업데이트(OTA : Over-The-Air)함으로써 고객에게 새로운 기능과 향상된 성능, 강화된 안전성 등을 더 원활히 제공하고 차량을 기술 혁신의 속도에 발맞춰 유지할 수 있다. 이러한 접근 방식은 개발 프로세스를 간소화할 뿐만 아니라 자동차 제조업체가 진화하는 소비자 요구에 더욱 신속히 대응해 자동차 산업을 지속적으로 개선하고 혁신할 수 있도록 지원한다. 레드햇과 퀄컴은 이번 협력이 SDV를 성공적으로 실현하는데 있어 중요한 역할을 할 것으로 기대하고 있다. 양사의 협력을 통해 자동차 제조업체는 소프트웨어 수정 사항과 신기능, 수익 창출 서비스를 차량에 배포하기에 앞서 프로토타입을 클라우드 상에서 더 잘 제작할 수 있게 될 예정이다. 또한, 소프트웨어 업데이트를 공장의 테스트 랩 또는 운행 중인 차량에 직접 배포할 수 있어 시스템 테스트를 개선하고 비용과 출시 시간을 줄일 수 있다. 예를 들어, 자동차 제조업체는 퀄컴의 AI 기술과 스냅드래곤 라이드 플렉스 SoC를 사용하여 소프트웨어 수정 사항, SDV용 신기능 및 수익 창출 서비스의 개발과 배포를 가속화할 수 있다. 우선 인클라우드 에뮬레이션 구성을 통해 AI 객체 감지 모델의 프로토타입을 제작하고 검증할 수 있다. 그런 다음 이를 클라우드 환경에서 테스트하고 개선함으로써 차량에 배포하기 전에 정확성과 효율성을 확인할 수 있다. 이 모든 과정은 개방형 표준 기반 플랫폼인 레드햇 차량용 운영체제를 통해 이루어지므로, 고객은 모바일 장치에서 애플리케이션이나 소프트웨어를 업그레이드하는 것과 동일한 방식으로 차량을 업데이트할 수 있다. 레드햇은 자동차 산업 전반에 걸쳐 SDV을 위한 오픈소스 솔루션을 제공하기 위해 딜로이트(Deloitte), 이타스(ETAS), 제너럴모터스 등 기업과 협력하고 있다고 전했다.
작성일 : 2024-05-13
오라클, AI로 애플리케이션 개발 속도 높이는 ‘오라클 코드 어시스트’ 발표
오라클은 AI 코딩 동반 툴인 오라클 코드 어시스트(Oracle Code Assist)를 통해 애플리케이션 속도를 높이고 코드 일관성을 개선할 수 있다고 소개했다. 대규모 언어 모델(LLM)을 기반으로 오라클 클라우드 인프라스트럭처(OCI)에서 실행되며 OCI 기반 자바(JAVA), SQL 및 애플리케이션 개발에 최적화된 오라클 코드 어시스트는 개발자에게 기업의 모범 사례 및 코드베이스에 맞춤화해 맥락에 특화된 제안 기능을 제공한다. 오라클 코드 어시스트는 대부분의 모던 프로그래밍 언어로 작성된 코드를 업데이트하고 업그레이드 및 리팩터링(소프트웨어 개발 과정에서 기존 코드를 변경하지 않고 코드의 구조와 디자인을 개선하는 과정)하는 데에도 사용할 수 있도록 설계될 예정이다.     AI 기반 소프트웨어 개발은 소프트웨어의 개념화 및 생성, 테스트, 관리 방식에 혁신을 불러일으켰다. 개발자는 AI 지원 도구를 사용하면 새로운 아이디어를 탐색하고 신규, 업그레이드 또는 리팩터링된 코드를 위한 지능형 제안을 받을 수 있다. 또한 일상적인 작업을 자동화하는 기능 덕분에, AI 도구가 소프트웨어 개발 수명 주기(SDLC)의 모든 단계에서 핵심적인 부분으로 자리잡게 됐다. 오라클은 “오라클 코드 어시스트는 코드 스니펫(snippet), 종속성 분석(dependency analysis), 오류 완화 대안(error mitigation alternatives), 테스트 사례, 주석(annotation), 요약 및 문서화를 제공해 SDLC의 각 단계를 처리하여 이 기술 분야의 주된 사례로 꼽힐 것으로 기대한다”고 전했다.  이와 더불어 젯브레인 인텔리제이 IDEA(JetBrains IntelliJ IDEA), 또는 마이크로소프트 비주얼 스튜디오 코드(Microsoft Visual Studio Code)용 개발 환경 플러그인으로 배포되는 오라클 코드 어시스트는 개발자가 애플리케이션 실행 위치와 상관없이 애플리케이션을 구축, 최적화, 업그레이드하는 데 도움을 주는 전문가 의견을 반영한 피드백을 제공하도록 훈련될 계획이다. 오라클 코드 어시스트는 수년에 걸친 애플리케이션 및 소프트웨어 개발 과정에서 개발된 폭넓은 소프트웨어 저장소를 기반으로 훈련된다. 오라클은 오라클 코드 어시스트가 OCI의 서비스 API, 코딩 패턴 및 자바, SQL, OCI는 물론, 넷스위트(NetSuite)의 스위트스크립트(SuiteScript) 등을 통한 오라클의 자체 소프트웨어 개발 모범 사례를 활용해 미세 조정하여, 배포되는 소프트웨어 및 애플리케이션의 위치와 관계없이 기업 조직에 적합한 서비스를 제공할 수 있을 것으로 기대하고 있다. 오라클 코드 어시스트는 코드 생성(Code Generation), 코드 주석(Code Annotation), 코드 설명 가능성(Code Explainability), 더욱 빨라진 코드 검토(Faster Code Reviews), 테스트 커버리지 생성(Test CoveRAGe Generation) 등의 기능을 통해 애플리케이션 개발 속도를 높일 예정이다. 또한, 오라클 코드 어시스트는 맞춤형 제안(Tailored Suggestions), 코드 생성 컨텍스트(Code Origination Context), 자동 언어 업그레이드(Automated Language Upgrades), 코드 분석(Code Analysis), OCI 최적화 제안(OCI Optimization Suggestions) 등을 통해 개발자가 코드 일관성 및 최적화를 개선하도록 돕는다: 오라클 클라우드 인프라스트럭처의 아난드 크리슈난 제품 관리 부사장은 “커스텀 애플리케이션은 전 세계 모든 기업 조직이 스스로를 차별화하기 위해 사용하는 방식이다. 하지만 애플리케이션의 구축, 배포, 유지 관리에는 노동력과 시간이 많이 든다”면서, “오라클 코드 어시스트를 활용하는 기업들은 개발자가 애플리케이션 속도 및 코드 일관성을 개선하여 애플리케이션을 안전하고 강력하며, 규정을 준수하는 방식으로 장기간 유지 관리할 수 있도록 지원할 수 있다”고 설명했다.
작성일 : 2024-05-13
몽고DB, 생성형 AI로 최신 애플리케이션 구축 지원
몽고DB가 기업이 생성형 AI로 신속하게 최신 애플리케이션을 구축 및 배포하도록 지원하는 ‘몽고DB AI 애플리케이션 프로그램(MongoDB AI Applications Program : MAAP)’을 발표했다. 새롭게 선보인 MAAP은 기업 고객을 위한 몽고DB 및 파트너사의 전략적 자문과 전문 서비스를 비롯해 통합된 엔드투엔드 기술 스택을 제공한다. MAAP에는 컨설팅 및 파운데이션 모델(FM), 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공기업 등이 초기 파트너로 참여해 몽고DB와 함께 고객이 고도화된 AI 기반 애플리케이션으로 비즈니스의 어려움을 해결하도록 지원할 방침이다. 이를 위해 MAAP은 생성형 AI를 빠르고 효율적으로 애플리케이션에 도입하길 원하는 기업을 위해 필요한 기술 스택과 전문성을 제공하는 원스톱 솔루션으로 설계됐다. 모든 기업은 생성형 AI가 주도한 혁신 속에서 경쟁 우위를 점하고 고객의 높아진 기대치를 뛰어넘기 위해 애플리케이션 현대화를 추진하고 있다. 전 산업군의 기업이 새로운 기술 변화의 이점을 누리기 위해 나서고 있지만, 새로운 종류의 애플리케이션을 안전하고 안정적으로 구축, 배포 및 확장하는 데 필요한 데이터 전략과 기술을 갖추지 못한 경우가 많다. 이들 중 상당수는 확장이 불가능한 레거시 기술로 인해 비효율적인 데이터 작업 방식을 고수하고 있으며, 일부는 불필요한 복잡성과 비용을 야기하는 단일 목적의 볼트온(bolt-on) 솔루션을 사용하고 있다. 이러한 경우, 기업은 기존의 기술과 애드온(add-on) 솔루션으로 인해 장기적인 성공보다는 PoC(Proof of Concept) 수준의 단기적인 결과에 머물게 된다. 몽고DB가 새롭게 선보인 MAAP은 기업이 가진 비즈니스 문제를 파악하고 역추적하며, 솔루션을 신속하게 구축 및 반복해 혁신적인 생성형 AI 애플리케이션 생산에 최적화된 전략적 프레임워크와 전문 서비스, 기술 로드맵을 제공한다. 몽고DB는 통합 개발자 데이터 플랫폼에서 기업이 생성형 AI 애플리케이션을 배포할 수 있는 기술을 MAAP에 접목했으며, 이와 함께 컨설팅 및 FM, 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공 기업과의 파트너십을 기반으로 엔드 투 엔드 솔루션을 제공한다. 대표적으로 앤스로픽(Anthropic), 애니스케일(Anyscale), 아마존웹서비스(AWS), 코히어(Cohere), 크레달.ai(Credal.ai), 파이어웍스.ai(Fireworks.ai), 구글 클라우드(Google Cloud), 그래비티나인(gravity9), 랭체인(LangChain), 라마인덱스(LlamaIndex), 마이크로소프트 애저(Microsoft Azure), 노믹(Nomic), 피어아일랜드(PeerIslands), 퓨어인사이트(Pureinsights), 투게더 AI(Together AI) 등 기업이 MAAP의 초기 파트너사로 참여해 고객에게 필요한 기술, 풀 서비스 및 전문가 지원을 제공한다. MAAP은 기업에 대한 고도로 맞춤화된 분석에 기반한다. 먼저 몽고DB 프로페셔널 서비스(MongoDB Professional Services)는 조직의 현재 기술 스택을 평가하고 고객과 협력해 해결해야 할 비즈니스 문제를 파악한다. 이어 컨설팅 파트너와 함께 전략적 로드맵을 개발하고 프로토타입을 신속하게 마련해 결과물이 고객의 기대에 부합하는지 검증하며, 이를 실제 운영 환경에서 사용할 수 있도록 완전하게 구축된 애플리케이션을 최적화한다. 고객은 필요에 따라 새로운 생성형 AI 기능을 개발하기 위한 몽고DB 프로페셔널 서비스를 계속 지원받을 수 있다. 기업은 조직 전반과 고객을 위한 애플리케이션에 배포된 새로운 기술이 예상대로 작동하며 민감한 데이터를 노출하지 않는다는 확신을 가질 수 있어야 한다. MAAP의 파트너사는 안전성과 신뢰성, 유용성을 보장하도록 설계된 FM을 제공한다. 기업은 FM을 강력한 거버넌스 제어와 자체 데이터를 사용하는 검색 증강 생성(RAG) 등의 기술과 결합함으로써 FM이 제공하는 데이터를 정확히 제어하고 정확도 개선에 필요한 컨텍스트를 제공하며 환각현상(hallucination)을 줄일 수 있다. 또한 기업은 MAAP 파트너를 통해 도메인별 사용 사례에 최적화된 미세 조정 및 추론 서비스도 사용하며, 앤스로픽, 코히어, 메타(Meta), 미스트랄(Mistral), 오픈AI(OpenAI) 등 모델을 기반으로 빠른 AI 모델 응답 시간을 확보할 수 있다. 이처럼 MAAP은 사용 사례에 필요한 생성형 AI 참조 아키텍처, 통합 기술, 규정 등 실무 중심의 전문 서비스를 제공해 의도대로 작동하는 안전한 고성능 애플리케이션을 구축할 수 있다. MAAP은 생성형 AI를 대규모로 도입할 준비가 되지 않은 기업에게 안전한 비공개 샌드박스 환경에서 진행되는 맞춤형 프로토타입 세션을 제공한다. 예를 들어 전략, 운영, IT, 소프트웨어 개발 등 조직의 여러 부서가 전문가 세션에 참여해 다양한 의견을 모으고, 생성형 AI를 통해 해결할 수 있는 내부 비즈니스 과제를 파악하는 데 맞춤형 MAAP을 활용할 수 있다. 나아가 몽고DB 프로페셔널 서비스가 주도하는 해커톤을 통해 솔루션을 공동 구축하고 내부 사용 사례에 대한 효과를 테스트한다. 즉, MAAP은 생성형 AI가 특정 비즈니스 문제를 해결하는 실질적인 솔루션을 신속하게 구축하는 데 필요한 교육, 리소스 및 기술을 제공한다. 몽고DB의 앨런 차브라(Alan Chhabra) 월드와이드 파트너 부문 수석부사장은 “기민함이 필요한 스타트업부터 탄탄한 입지를 구축한 글로벌 기업까지 몽고DB의 다양한 고객이 생성형 AI에 많은 관심을 보이고 있다. 이들은 몽고DB의 최신 기술과 포괄적인 서비스를 활용해 혁신적인 아이디어를 실제 애플리케이션으로 전환하고 있으나 일부 기업은 여전히 비즈니스 문제 해결을 위해 생성형 AI를 통합할 최상의 방법을 고민하고 있다”고 전했다. 또한, “MAAP은 강력한 개발자 데이터 플랫폼인 몽고DB 아틀라스(MongoDB Atlas)와 몽고DB가 보유한 전문성 및 서비스, 그리고 생성형 AI 업계 리더들과의 전략적 파트너십을 통해 규모를 막론하고 모든 기업이 생성형 AI를 자신 있게 도입하고 구현할 수 있는 포괄적인 로드맵을 제공한다. 몽고DB와 파트너는 MAAP을 통해 고객의 생산성을 높이고 고객과의 상호 작용을 혁신하며 업계 발전을 주도하는 데 생성형 AI를 활용할 수 있도록 지원한다”고 말했다.
작성일 : 2024-05-07
씨이랩, AI 엑스포에서 비전 AI 특화 제품 선보여
AI 영상 분석 전문기업인 씨이랩은 5월 1일~3일 서울 코엑스에서 열리는 ‘2024 국제인공지능대전(AI EXPO KOREA 2024)’을 통해 영상분야에 특화된 AI 제품을 선보였다고 전했다. 씨이랩은 이번 전시회에서 ▲AI 영상 분석 서비스 ‘비디고(VidiGo)’ ▲합성 데이터 생성 솔루션 ‘엑스젠(X-GEN)’ ▲쿠버네티스 기반 AI 플랫폼 ‘아스트라고(astRAGo)’ 등 자사의 비전 AI 기술이 적용된 주요 제품을 출품했다. 특히 씨이랩은 클라우드 기반 AI 영상분석 서비스 비디고의 신규 버전인 ‘비디고 서치엔진(VidiGo Search Engine)’을 공개했다. 비디고 서치엔진은 영상을 시청하지 않고도 검색을 통해 특정 객체나 장면을 AI가 빠르게 찾아낸다. 영상을 요약하거나 숏폼을 제작하는 ‘비디고 하이라이트(VidiGo Highlight)’의 후속 제품이다. 씨이랩의 최원준 리더는 “비디고 하이라이트는 누구나 쉽게 AI 영상 분석을 진행할 수 있도록 카카오톡 채널을 통해 출시한 반면, 비디고 서치엔진은 대규모의 영상을 보유한 기업을 타기팅하고 있다. 이번 행사에서 비디고의 주요 타깃인 미디어 산업 분야의 참관객들에게 높은 관심을 받았다”고 말했다.     한편, 씨이랩은 AI 엑스포의 부대행사로 ‘비전 AI의 현재와 미래’라는 주제의 세미나를 진행했다. 세미나에서 씨이랩의 채정환 부사장은 “현재의 AI 시장은 초거대 언어 모델(LLM) 중심으로 발전해왔고, 머지않아 초거대 비전 모델(LVM : Large Vision Model) 중심으로 확대될 것으로 전망한다”고 밝히며, 엔비디아 옴니버스 플랫폼과의 협력을 통한 LVM 구성 전략을 제시했다.
작성일 : 2024-05-03
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
레노버, 비즈니스를 위한 AI PC ‘씽크패드 X1 시리즈’ 신제품 출시
한국레노버가 AI 기반의 PC인 씽크패드 X1 카본 12세대와 씽크패드 X1 투인원 9세대를 출시하면서, AI PC 포트폴리오를 확대한다고 밝혔다.   ▲ 씽크패드 X1 카본 12세대   인텔 코어 울트라 7 프로세서가 탑재한 씽크패드 X1 카본 12세대와 씽크패드 X1 투인원 9세대는 프로세서에 내장된 NPU(신경망 처리 장치)로 더 높은 성능을 제공한다. 또한 전력 소모는 줄이고 높은 보안 수준을 제공한다. 기본 내장된 인텔 그래픽, 최대 64GB 메모리, 2TB 저장장치로 사용자는 언제 어디서나 고급 콘텐츠를 제작할 수 있다. 42% 높아진 발열 처리 능력과 하판의 새로운 통풍 장치는 고성능 작업에도 낮은 온도와 저소음을 유지시켜준다.   두 제품 모두 120Hz 주사율과 400니트(nit) 밝기를 지원하는 최대 2.8K 해상도의 16:10 비율 프리미엄 OLED 디스플레이를 내장했다. 100% sRGB로 선명하고 생생하게 색을 표현하며, TUV 라인란드의 아이세이프(Eyesafe) 인증을 받아 장시간 업무에도 눈의 피로가 덜하다. 돌비 애트모스를 갖춘 듀얼 스피커는 입체적인 사운드를 제공한다. 씽크패드 X1 시리즈 신제품은 하이브리드 업무 환경에서 일상이 된 화상 회의를 위해 8MP 해상도의 MIPI 카메라를 탑재했다. 저조도 비디오 향상 기능을 갖춰 화상 회의 플랫폼 ‘줌(Zoom)’의 인증을 받았다.   ▲ 씽크패드 X1 투인원 9세대   레노버는 사용자 편의성을 높이기 위해 트랙패드와 트랙포인트를 개선하고, 시각장애인을 위해 촉각으로도 자판을 구별할 수 있도록 했다. 씽크패드 X1 투인원 9세대는 유연한 360도 힌지로 북 모드, 디스플레이 모드, 텐트 모드, 태블릿 모드 등 다양한 방식으로 활용할 수 있다. USB C 타입으로 충전 가능한 레노버 슬림펜을 통해 자유롭게 필기하고 그림을 그리며 아이디어를 도출할 수 있다. 씽크패드 X1 카본 12세대와 씽크패드 X1 투인원 9세대는 제품 개발부터 생산, 소비, 폐기, 재활용 전 과정에서 환경·사회·경제적 영향을 고려하며 지속가능성을 강화했다. 재활용 가능한 마그네슘, 알루미늄, 하이브리드, PCC 플라스틱 소재를 커버와 스피커, 배터리, 케이블, 키캡, 어댑터 등 구성품에 적극 채택했다. 포장은 대나무와 사탕수수를 활용했다.  한국레노버는 씽크패드 X1 시리즈 신제품 출시를 기념해 레노버 공식 온라인 스토어에서 씽크패드 X1 카본 12세대 구매 고객에게 백팩, 마우스 등 액세서리류를 1000원 특가에 제공한다고 밝혔다. 또한 4월 19일까지 씽크패드 X1 카본 12세대를 구매하면 M15 80% 할인, 워런티 60% 할인(프리미어 서포트 플러스 선택 고객 한정)과 같은 혜택이 주어진다. 구매 기간과 상관 없이 씽크패드 X1 카본 12세대를 커스터마이징 주문 제작(CTO)할 경우 금액에 따라 최대 73만원까지 할인이 적용된다. 한국레노버의 신규식 대표는 “AI 혁신 기술, 향상된 사용자 경험, 환경에 책임을 다하는 디자인을 모두 갖춘 씽크패드 X1 시리즈 신제품은 기업 고객에게 새로운 AI 경험을 선사한다”면서, “한국레노버는 AI PC 포트폴리오를 지속적으로 확대하며 기업 고객의 기술 혁신을 지원할 것”이라고 전했다.
작성일 : 2024-04-11
퓨어스토리지, 애저 VM웨어 솔루션용 외장형 블록 스토리지 솔루션 출시
퓨어스토리지는 마이크로소프트 애저(Azure)에서 VM웨어 워크로드의 총소유비용(TCO)을 개선하기 위해 애저 VM웨어 솔루션(Azure VMware Solution) 용 외장형 블록 스토리지를 출시한다고 밝혔다. 퓨어 클라우드 블록 스토어(Pure Cloud Block Store)는 스토리지 사용량이 높은 VM웨어 워크로드를 운영하는 고객에게 애저 VM웨어 솔루션의 컴퓨팅 및 스토리지 용량 요구사항을 충족시키면서 클라우드 지출을 최적화할 수 있는 유연성을 제공하는 것이 특징이다. 클라우드 도입이 가속화됨에 따라 기업들은 애저 환경에서 블록 기반 스토리지의 일부 또는 전체를 클라우드로 마이그레이션하고자 하지만, 온프레미스 대비 일관되지 않은 스토리지 레이어 관리와 데이터 증가에 따른 컴퓨팅 및 스토리지의 독립적 확장 필요성 등의 어려움에 직면하고 있다. 애저 VM웨어 솔루션은 고객이 온프레미스 데이터센터에서 애저로 VM웨어 기반 워크로드를 이전하거나 확장할 수 있도록 지원한다. 그러나 일부 스토리지 사용량이 높은 VM웨어 워크로드의 경우 마이그레이션 시 상당한 비용이 발생할 수 있다. 퓨어스토리지의 애저 VM웨어 솔루션용 클라우드 블록 스토어는 스토리지 활용을 극대화하고, 애저 VM웨어 솔루션에 대한 지출을 최소화하여 고객이 VM웨어를 애저로 원활하게 마이그레이션할 수 있도록 돕는다. 이를 통해 고객은 오랫동안 익숙해진 온프레미스 VM웨어 환경을 퍼블릭 클라우드에서도 동일하게 경험할 수 있게 된다. 애저 VM웨어 솔루션용 클라우드 블록 스토어는 스토리지와 컴퓨팅 리소스를 분리해 고객이 컴퓨팅 노드와 스토리지 용량을 독립적으로 확장할 수 있도록 지원한다. 또한, 퓨어스토리지는 클라우드에 중복 제거, 압축 및 패턴 제거 등 정교한 데이터 절감 기능과 씬 프로비저닝을 통해 효율적이고 최적화된 스토리지 환경을 제공한다. 스토리지와 컴퓨팅 리소스를 분리하는 기능을 통해 고객은 기존 마이그레이션에 많은 비용이 소요됐던 VM웨어 워크로드를 애저 VM웨어 솔루션으로 마이그레이션할 수 있게 되었다. 이를 통해 비용을 과도하게 늘리지 않고도 애저 VM웨어 솔루션의 이점을 누릴 수 있다. 한편, 고객은 온프레미스와 애저에서 퓨어스토리지 사용 시 원활한 데이터 이동성을 실현하고 하이브리드 VM웨어 환경을 구축할 수 있다. 퓨어스토리지 고객은 구독형 스토리지 서비스인 에버그린//원(Evergreen//One)을 활용하여 상황에 따라 온프레미스 플래시어레이(FlashArray) 시스템에서 애저의 퓨어 클라우드 블록 스토어(Pure Cloud Block Store)로 용량을 재배치할 수 있다.  퓨어스토리지의 네이슨 홀(Nathan Hall) 아시아 태평양 및 일본(APJ) 지역 부사장은 “애저 VM웨어 솔루션을 위한 퓨어 클라우드 블록 스토어는 퓨어스토리지와 마이크로소프트의 파트너십 확대로 이뤄진 성과”라면서, “퓨어스토리지는 마이크로소프트와 공동 설계한 자동화된 통합을 통해 스토리지가 고객의 애저 VM웨어 솔루션 환경에 안정적으로 프로비저닝되고, 추가적인 조정 없이도 일관된 관리를 보장한다”고 말했다.
작성일 : 2024-04-08