• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 코텍스 AI"에 대한 통합 검색 내용이 26개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
유아이패스-스노우플레이크, 에이전틱 자동화와 코텍스 AI 결합 위한 파트너십 체결
에이전틱 자동화 기업인 유아이패스가 AI 데이터 클라우드 기업 스노우플레이크와 파트너십을 통해 에이전틱 자동화 플랫폼(UiPath Agentic Automation)과 스노우플레이크 코텍스 AI(Snowflake Cortex AI)를 결합한다고 발표했다. 이번 협력으로 기업은 데이터 인사이트를 기반으로 더 빠르고 지능적으로 작동하는 자율형 프로세스를 구축해, 엔터프라이즈 전반에서 조직의 비전을 실질적인 성과로 이어갈 수 있게 됐다. 유아이패스 에이전틱 자동화 플랫폼과 스노우플레이크 코텍스 에이전트(Cortex Agents)의 결합으로, 기업은 엔터프라이즈급 자동화 플랫폼과 데이터 플랫폼을 통합해 활용할 수 있게 됐다. 이번 통합을 통해 유아이패스 마에스트로(UiPath Maestro)는 로코드·노코드 등 다양한 특화 에이전트를 오케스트레이션할 수 있는 범위를 확장했으며, 고객은 스노우플레이크 내 정형·비정형 데이터에서 도출한 인사이트를 즉시 실행하는 새로운 유형의 데이터 에이전트를 활용할 수 있다.   스노우플레이크 코텍스 에이전트는 조직이 엔터프라이즈 전반의 데이터를 연결해 인사이트를 도출하는 강력한 AI 에이전트를 구축할 수 있도록 지원한다. 이 에이전트는 정형 데이터 분석을 위한 코텍스 애널리스트(Cortex Analyst)와 비정형 데이터 검색을 위한 코텍스 서치(Cortex Search)의 정확도를 토대로, AI 모델과 데이터 간의 간극을 메운다. 이를 통해 기업은 복잡한 질문에도 비즈니스 맥락에 맞는 정확한 답변을 얻을 수 있다. 유아이패스 에이전트는 이러한 인사이트를 활용해 기존 프로세스를 효율화하고 새로운 프로세스를 생성하며, 기존 레거시 시스템이나 워크플로를 변경하지 않고도 이를 실행할 수 있다.   스노우플레이크의 베리스 굴테킨(Baris Gultekin) AI 부사장은 “데이터는 모든 지능형 기업의 핵심 기반”이라며, “스노우플레이크 플랫폼을 유아이패스의 에이전틱 자동화 설루션과 결합하면, 기업은 데이터 인사이트를 자연스럽게 실행으로 이어갈 수 있다. 양사는 기업이 데이터를 실시간으로 이해하고 정확하게 실행할 수 있도록 지원함으로써 혁신을 촉진하고 운영 효율을 높이며, 실질적인 비즈니스 성과를 창출하고 있다”고 말했다.   유아이패스의 그레이엄 쉘든(Graham Sheldon) 최고제품책임자(CPO)는 “데이터의 진정한 가치는 인사이트가 의사결정으로 이어질 때 드러난다”면서, “스노우플레이크 코텍스 AI를 유아이패스 플랫폼과 결합하면, 기업은 기존 시스템을 변경하지 않고도 신뢰할 수 있는 인사이트를 즉시 활용할 수 있다. 또한 유아이패스 플랫폼은 특정 벤더에 종속되지 않아, 기업이 각자의 환경에 맞게 에이전틱 자동화를 유연하고 안전하게 확장할 수 있다”고 말했다.
작성일 : 2025-10-23
멘딕스, 스노우플레이크와 협력해 자동차 산업의 SW 개발 혁신 가속
지멘스의 사업부인 멘딕스는 AI 데이터 클라우드 기업인 스노우플레이크와 협력을 지속하면서, 기업이 최신 소프트웨어 개발을 통해 데이터 기반 가치 창출을 더욱 가속화할 수 있도록 지원한다고 밝혔다. 멘딕스는 스노우플레이크와 협업을 통해 양사의 고객에게 여러 비즈니스 성과를 제공할 수 있었다고 전했다. 산업 분야의 한 제조 기업은 멘딕스와 함께 스노우플레이크의 데이터 툴을 활용해 16주 만에 애플리케이션을 구현하고 배포할 수 있었다. 또 다른 산업 분야의 제조 기업은 노후화된 시스템을 최신 포트폴리오로 교체하고, 4개월 만에 첫 번째 신규 애플리케이션을 구현 및 출시했다. 한 대형 석유 및 가스 기업은 100개 이상의 멘딕스 애플리케이션을 구현했으며, 그 중 75%가 스노우플레이크와 연결되어 있다. 데이터 엔지니어는 이러한 통합 툴을 통해 사일로(silo) 형태로 운영되던 사내 개발자 팀뿐 아니라 비즈니스 최종 사용자와도 협업하여 소프트웨어 개발을 지원할 수 있다. 항공우주 분야의 한 제조업체는 멘딕스와 스노우플레이크의 통합 기능을 활용해 데이터 보안을 유지하고, 작업 현장의 운영 효율을 개선했다. 스노우플레이크의 AI 데이터 클라우드(AI Data Cloud) 동적 데이터 마스킹 기능은 민감한 데이터를 제한하고, 보호할 수 있도록 지원하며, 멘딕스 플랫폼은 애플리케이션 개발 라이프사이클 전반을 제어할 수 있는 내장 가드레일을 제공한다. 한 교통 당국은 멘딕스를 활용해 10개 이상의 애플리케이션을 구현하고, 다양한 소스에서 데이터를 수집한 다음, 이를 스노우플레이크로 전달해 분석을 수행하는 단일 통합 관리 및 모니터링(SPOG : Single Pane of Glass) 체계를 구축했다. 이를 통해 데이터에 대한 가시성을 확보하고, 프로세스 및 의사결정 개선을 위한 인사이트를 도출할 수 있다.     멘딕스는 공동 고객들에게 더 큰 가치를 제공하기 위해, 2025년 5월 스노우플레이크의 자동차 설루션 출시와 함께 스노우플레이크 데이터 클라우드 제품 파트너가 되었다. 스노우플레이크의 자동차 설루션은 고객에게 더 빠르고 효율적인 개발 주기를 지원하는 확장 가능한 플랫폼을 비롯해 공급업체와 재고 시스템, 물류 파트너 전반에 대한 실시간 공급망 가시성, 그리고 AI/ML 기반의 고급 분석 기능 등을 제공한다. 멘딕스 플랫폼은 핵심 기술 구성요소가 유연하게 설계되어 있어 스노우플레이크가 새로운 모델이나 기능을 도입하더라도 멘딕스와 쉽게 연동이 가능하다는 점을 내세운다. 이를 통해 더 많은 사용자가 스노우플레이크 AI를 활용하여 자동차 업계 고유의 요구사항을 충족하고, ‘개념 검증(Proof-of-Concept)에서 실제 운영(Production)’에 이르기까지 원활하게 적용할 수 있도록 한다는 것이 멘딕스의 설명이다. 점점 더 많은 기업들이 데이터의 중앙집중화에 대한 중요성을 인식함에 따라, 멘딕스와 스노우플레이크는 고객들에게 보다 포괄적인 설루션을 제공하는데 주력하고 있다. 양사의 이번 파트너십은 기업들이 디지털 혁신 프로젝트를 추진하고, 여러 플랫폼을 도입하는 과정에서 AI 사일로를 제거하고, 데이터에 대한 포괄적인 거버넌스와 제어권을 유지할 수 있도록 지원하는 데에 초점을 맞추고 있다. 스노우플레이크의 팀 롱(Tim Long) 글로벌 제조 부문 책임자는 “스노우플레이크 고객들은 기존 분석 방식을 뛰어넘는 새로운 차원의 설루션을 필요로 하고 있다. 우리는 멘딕스와의 협업을 바탕으로, 고객들이 스노우플레이크의 코텍스 AI(Cortex AI)를 활용해 지능적이고, 실행 가능한 엔터프라이즈 애플리케이션을 신속하게 개발할 수 있도록 지원하고 있다.”며, “이러한 원활한 통합 환경을 통해 고객들이 새로운 차원의 비즈니스 가치를 실현할 수 있을 것으로 기대한다”고 밝혔다.
작성일 : 2025-09-16
세일즈포스, AI 에이전트 플랫폼에 구글 제미나이 도입 
세일즈포스가 구글 클라우드와 전략적 파트너십을 확장한다고 발표했다. 세일즈포스는 구글의 AI 모델과 클라우드 인프라를 기반으로 기업이 비즈니스 환경에 최적화된 AI 모델을 자유롭게 선택하고, AI 에이전트를 안전하게 구축할 수 있도록 지원 역량을 지속 강화해 나갈 계획이다. 2024년 9월 구글과의 전략적 파트너십을 발표한 세일즈포스는 이번 파트너십 확장을 통해 자사의 AI 에이전트 플랫폼 ‘에이전트포스’에 구글의 최신 AI 모델인 ‘제미나이(Gemini)’를 도입한다. 또한, 에이전트포스, 데이터 클라우드, 커스터머 360 등 주요 AI 서비스를 구글 클라우드에서 운영할 수 있도록 지원하여, 기업이 특정 AI 모델에 종속되지 않고 비즈니스 목표에 맞는 최적의 AI 모델을 선택할 수 있는 환경을 마련했다. 제미나이의 도입으로 에이전트포스는 이미지, 오디오 및 비디오 데이터를 모두 처리할 수 있는 멀티모달 기능을 구현할 수 있으며, 제미나이의 200만 ‘토큰 컨텍스트 윈도우(Two-million-token Context Windows)’를 활용해 더욱 복잡한 잡업을 처리할 수 있게 된다. 또한, 구글의 ‘버텍스 AI(Vertex AI)’와의 연동으로 실시간 검색 및 분석 기능이 한층 강화되어 보다 신뢰할 수 있는 답변 제공이 가능해진다. 세일즈포스는 제미나이가 포함된 에이전트포스를 각 산업군별 현업 환경에서 다양한 방식으로 활용할 수 있다고 소개했다. 보험 업계에서는 사고 현장 사진과 음성 증언을 AI가 자동 분석해 보험금 청구의 타당성을 즉시 평가하고, 음성 합성 기술을 활용해 고객에게 결과를 전달할 수 있다. 공급망 관리(SCM) 분야에서는 AI가 커머스 클라우드의 배송 추적 데이터와 구글 검색의 실시간 기상 정보, 항구 혼잡도 등을 종합 분석해 잠재적인 위험을 사전에 파악할 수 있도록 지원한다.     세일즈포스는 이번 파트너십을 통해 AI 보안과 신뢰도 강화에도 주력할 계획이다. 세일즈포스의 고객은 이제 세일즈포스의 ‘통합 플랫폼(Unified Platform)’을 구글 클라우드의 AI 최적화 인프라에서 운영할 수 있으며, 세일즈포스의 ‘아인슈타인 트러스트 레이어(Einstein Trust Layer)’로부터 제공되는 ▲다이나믹 그라운딩 ▲제로 데이터 리텐션 ▲독성검사 등의 기능을 바탕으로 엔터프라이즈급 보안 환경을 경험할 수 있다. 또한 이후 세일즈포스의 제품이 구글 클라우드에 출시될 경우, 고객은 구글 클라우드 마켓플레이스에서 세일즈포스의 각종 설루션을 구매할 수 있다. 이번 파트너십 확대는 고객 서비스 부문에도 변화를 가져온다. 세일즈포스는 서비스 클라우드와 구글의 ‘고객 인게이지먼트 제품군(Customer Engagement Suite)’의 통합으로 AI 기반의 실시간 음성 번역, 상담원 간 지능형 업무 전환, 맞춤형 상담 가이드 등 고도화된 컨택센터 기능을 제공할 것이라고 밝혔다. 이를 통해 기업은 모든 고객접점 채널에서 일관된 AI 기반 상담 서비스를 제공할 수 있으며, 고객 문의의 특성에 따라 효율적인 상담원 연계가 가능해진다. 이외에도 세일즈포스는 AI 기반 지능형 생산성 플랫폼 슬랙(Slack)과 구글 워크스페이스의 통합을 기반으로 협업 환경을 한층 강화할 것이라고 밝혔다. 세일즈포스에 따르면 슬랙에서 구글 드라이브 파일을 검색 및 활용하는 기능과 지메일(Gmail)과 슬랙 간의 연동 등의 기능을 포함한다. 데이터 분석 환경 역시 한층 고도화될 예정이다. 세일즈포스는 데이터 클라우드와 구글의 빅쿼리(BigQuery), 코텍스 프레임워크(Cortex Framework) 간의 연결성을 강화하여, 기업이 조직 내 데이터 전반에 걸쳐 AI 에이전트를 안전하고 손쉽게 구축할 수 있게 될 것이라고 밝혔다. 이에 더해 세일즈포스의 지능형 데이터 분석 플랫폼, 태블로(Tableau)와 구글의 루커(Looker) 및 빅쿼리 간의 통합을 바탕으로 모든 플랫폼상의 비즈니스 데이터를 단일 플랫폼 내에서 분석 및 시각화할 수 있는 데이터 분석 환경을 제공할 것이라고 전했다. 세일즈포스의 스리니 탈라프라가다(Srini Tallapragada) 최고 엔지니어링 및 고객 성공 책임자는 “세일즈포스와 구글 클라우드는 고객이 최적의 AI 모델과 애플리케이션을 자유롭게 선택하고 활용할 수 있는 개방적이고 유연한 환경을 만들어 나가고 있다”면서, “세일즈포스는 엔터프라이즈급 AI 에이전트 플랫폼을 통해 기업의 신속한 AI 도입과 비즈니스 가치 창출을 지원하고 있으며, ‘디지털 레이버(Digital Labor)’ 플랫폼으로서 구글 클라우드와 함께 전 세계 기업의 AI 혁신 가속화를 견인할 것”이라고 밝혔다. 세일즈포스 코리아의 손부한 대표는 “구글 클라우드와의 이번 파트너십을 기점으로, 국내 기업들 또한 AI 기술을 보다 안전하고 유연한 환경에서 도입 및 활용할 수 있게 될 것으로 기대한다”면서, “이미 국내 시장에서도 대기업을 필두로 AI 에이전트 기반의 혁신을 가속화하고 있으며, 그 중심에서 세일즈포스는 신뢰할 수 있는 파트너로서 인간과 AI 에이전트가 함께 협업하는 새로운 미래를 만들어 나가기 위한 지원을 아끼지 않을 것”이라고 전했다.
작성일 : 2025-02-26
스노우플레이크, 거버넌스 준수하고 정확도 높인 AI 에이전트 ‘코텍스 에이전트’ 출시
스노우플레이크가 정형 혹은 비정형 데이터에 액세스해 자동으로 업무를 실행하는 AI 에이전트인 ‘코텍스 에이전트(Cortex Agents)’를 출시했다. 이를 통해 기업은 데이터 전문가 없이도 데이터를 검색, 분석해 엔터프라이즈 데이터를 더욱 효과적으로 관리할 수 있게 되었다. 코텍스 에이전트는 퍼블릭 프리뷰로 제공되며, 코텍스 애널리스트(Cortex Analyst)와 코텍스 서치(Cortex Search) 기능을 강화해 자동으로 데이터를 통합, 검색하고, 복잡한 쿼리를 분석해 정확한 답변을 생성한다. 이 과정에서 기업들은 정확성, 효율성 및 거버넌스를 실현할 수 있다, 코텍스 애널리스트는 정형화된 SQL 데이터를 분석하며, 앤스로픽(Anthropic)의 클로드 3.5 소넷(Claude 3.5 Sonnet)을 활용해 텍스트를 SQL로 변환하는 데 정확도를 높였다. 사용자가 자연어로 데이터를 조회하고 인사이트를 도출할 수 있으며 복잡한 추론, 코드 생성, 멀티모달 데이터 분석을 수행할 수 있는 엔터프라이즈급 AI 기능을 제공한다. 코텍스 서치는 텍스트, 오디오, 이미지, 비디오 등 비정형 데이터의 검색 정확도를 높인다. 스노우플레이크는 “오픈AI 임베딩 모델 대비 최소 11% 높은 정확도를 기록하며 다양한 벤치마크 테스트에서 우수한 성능을 입증했다”고 밝혔으며, 이 외에도 대규모 데이터 인덱싱, 맞춤형 벡터 임베딩 모델 선택 기능이 추가됐다.     정확한 데이터 분석, 보안 유지 및 거버넌스 준수는 AI 에이전트가 기업 환경에서 효과적으로 확장되기 위한 필수 요소다. 코텍스 에이전트는 다양한 데이터 소스를 검색하고, 보안 정책을 준수하며 신뢰할 수 있는 결과를 제공하도록 설계됐다. 배포 이후에도 성능과 동작을 지속적으로 모니터링하고 개선할 수 있어, 기업이 AI 에이전트를 안전하게 확장하면서 보안과 컴플라이언스를 유지할 수 있도록 돕는다. 예를 들어, 재무 분석가는 정형 데이터인 수익 데이터와 비정형 데이터인 재무 보고서 및 시장 데이터와 결합해야 하는 경우가 많다. 엔드 투 엔드 거버넌스를 통해 안전하게 AI에 정보를 제공하는 것이 필요한데, 이 때 코텍스 에이전트를 활용하면 된다. 코텍스 에이전트는 두 데이터 소스의 통합, 검색 및 처리를 단순하게 해 기업들은 쉽게 대규모로 고품질 에이전트를 구축할 수 있도록 지원한다.  스노우플레이크의 크리스티안 클레이너만(Christian Kleinerman) 제품 담당 수석 부사장은 “AI 전략은 데이터 전략 없이는 존재할 수 없다”면서, “많은 고객이 AI 가치를 극대화하기 위해 데이터를 체계적으로 관리하고 거버넌스를 구축하는데 어려움을 겪고 있다. 스노우플레이크는 코텍스 에이전트를 통해 고객들이 데이터 전문가가 아니더라도 더욱 쉽게 데이터를 관리하고 실질적인 성과를 얻을 수 있도록 지원하고 있다”고 강조했다.
작성일 : 2025-02-21
스노우플레이크, 앱 성성 도구에서 딥시크-R1 프리뷰 지원
스노우플레이크가 자사의 생성형 AI 기반 애플리케이션 생성 도구인 ‘코텍스 AI(Cortex AI)’에서 ‘딥시크-R1(DeepSeek-R1)’ 모델을 지원한다고 밝혔다. 딥시크-R1은 지도학습(SFT) 없이 대규모 강화학습(RL)만으로 훈련된 오픈소스 모델로 자체검증, 스스로 답을 찾는 추론하는 사고체계(CoT), 추론 생성 등이 가능하다. 딥시크-R1은 스노우플레이크 코텍스 AI를 통해 서버리스 추론에 사용할 수 있는 비공개 프리뷰 형태로 제공된다. 배치(SQL 함수)와 대화형(파이썬 및 REST API) 모두를 통해 액세스할 수 있어 기존 데이터 파이프라인, 애플리케이션 및 통합 개발 환경(IDE)에 통합된다. 코텍스 AI는 고객이 코텍스 가드(Cortex Guard)를 활성화할 수 있도록 해 잠재적으로 유해한 콘텐츠를 필터링하고, 고객이 생성형 AI 애플리케이션을 대규모로 안전하게 배포할 수 있도록 한다. 스노우플레이크는 모델이 안전한 서비스 범위 내에서만 작동하고 고객 데이터가 모델 제공자와 공유되지 않도록 보장한다고 소개했다. 또한, 모델이 정식 출시되면 고객은 역할 기반 액세스 제어(RBAC)를 통해 딥시크-R1에 대한 접근을 설정해 거버넌스를 관리할 수 있다고 덧붙였다. 현재 미국 내 고객의 스노우플레이크 계정에서 사용할 수 있다. 스노우플레이크 코텍스 AI는 대규모 언어 모델(LLM) 추론, 파인튜닝, 검색 기반 생성(RAG) 기능을 포함한 종합 툴 세트를 제공하고 있다. 이를 통해 정형 및 비정형 데이터를 함께 분석하고 AI 기반 애플리케이션을 쉽게 구축할 수 있다. 메타, 미스트랄, 스노우플레이크를 포함한 주요 오픈소스 및 폐쇄형 LLM 모두 지원함으로써 간편하게 AI를 통합할 수 있게 한다. 스노우플레이크 AI 연구팀은 “딥시크-R1의 추론 비용을 추가로 절감해 고객에게 더 큰 비용 대비 성능 효율성을 제공할 계획”이라면서, “딥시크-R1을 통해 기업은 최첨단 AI 기술을 기반으로 한 생성형 AI 애플리케이션을 보다 빠르게 제공함으로써 생태계에서 혁신의 새로운 표준을 제시하게 될 것”이라고 말했다.
작성일 : 2025-02-05
매스웍스, 매트랩/시뮬링크 모델에서 구동 가능한 퀄컴 헥사곤 NPU 하드웨어 지원 패키지 출시
매스웍스는 스냅드래곤(Snapdragon) 프로세서 제품군에 내장된 기술인 퀄컴 헥사곤(Qualcomm Hexagon) NPU(신경망 처리 장치)를 위한 하드웨어 지원 패키지를 출시했다고 발표했다. 매스웍스 하드웨어 지원 패키지는 퀄컴의 헥사곤 NPU 아키텍처에 최적화된 매트랩(MATLAB) 및 시뮬링크(Simulink) 모델의 코드 생성을 자동화하여, 데이터 정확도와 표준 규정 준수를 향상시키는 동시에 워크플로 생산성을 개선한다. 이를 기반으로 엔지니어는 매스웍스 소프트웨어와 모델 기반 설계(Model-Based Design)를 사용해 NPU에 대한 심층적인 지식 없이도 임베디드 애플리케이션을 위한 프로덕션 품질의 C 코드를 배포할 수 있다. 헥사곤 NPU용 매스웍스 하드웨어 지원 패키지는 컴파일 오류, 수작업으로 작성한 프레임워크에 대한 의존, 수동 수치 검증, 모델로의 코드 역추적 문제 등 개발 프로세스에서 발생하는 주요 난제들을 해결한다. 헥사곤 NPU 및 해당 툴 체인에 대한 심층적인 지식이 없는 엔지니어도 해당 패키지를 사용해 시뮬링크에서 직접 PIL(Processor-in-the-Loop) 시뮬레이션을 실행할 수 있다. 이를 통해 엔지니어는 실제 하드웨어 배포에 앞서 최적화된 타깃 코드가 효율적, 안정적으로 정확히 동작하는지 확인 가능하다. 매스웍스의 소프트웨어는 ARM 코텍스-M(ARM Cortex-M), ARM 코텍스-A(Cortex-A), ARM 코텍스-R(Cortex-R)과 아우릭스 TC3x(AURIX TC3x), 아우릭스(AURIX TC4x), 그리고 암(Arm)과 엔비디아(NVIDIA)의 GPU를 포함한 다양한 프로세서에 대한 코드 생성을 이미 최적화한 바 있다.     퀄컴 테크놀로지의 비네쉬 수쿠마(Vinesh Sukumar) 제품 관리 부문 선임 책임자는 “퀄컴의 사명은 엔지니어가 스냅드래곤 프로세서의 잠재력을 최대한 활용하는 혁신적 제품과 애플리케이션을 만들어 낼 수 있도록 돕는 것”이라며, “고성능 NPU 애플리케이션에 대한 수요가 지속적으로 증가하는 가운데 매스웍스와 퀄컴은 협업을 통해 개발자가 헥사곤 NPU에 최적화된 임베디드 애플리케이션을 효율적으로 개발할 수 있도록 지원하게 됐다”고 말했다. 매스웍스의 짐 텅(Jim Tung) 펠로우는 “모델 기반 설계의 강점과 헥사곤 NPU의 고급 기능이 결합됨으로서 엔지니어는 고품질 NPU 애플리케이션을 더욱 쉽게 구축할 수 있게 됐다”면서, “퀄컴과의 협업은 수동 프로세스를 제거하고 고도로 자동화된 워크플로를 도입하는 데 중점을 두어, 엔지니어링 조직이 제품 출시에 소요되는 기간을 단축하고 최적의 성능을 보장할 수 있도록 지원한다”고 말했다.
작성일 : 2024-09-24
스노우플레이크, “코텍스 AI에서 라마 3.1 호스팅 개시”
스노우플레이크는 기업이 강력한 AI 애플리케이션을 대규모로 쉽게 활용 및 구축할 수 있도록 스노우플레이크 코텍스 AI(Snowflake Cortex AI)에서 메타의 라마 3.1에 대한 호스팅을 개시한다고 발표했다. 라마 3.1은 다중 언어 오픈소스 대규모 언어 모델(LLM)의 컬렉션이다. 이번에 출시한 서비스에는 메타에서 가장 큰 규모이자 강력한 성능의 오픈소스 LLM인 라마 3.1 405B가 제공된다. 스노우플레이크는 실시간의 고처리량 추론을 구현함은 물론 강력한 자연어 처리 및 생성 애플리케이션의 보편화를 증진하는 추론 시스템 스택을 개발하고 오픈 소싱한다. 스노우플레이크의 AI 리서치팀은 추론 및 파인튜닝에 대해 라마 3.1 405B를 최적화함으로써 서비스 개시 첫날부터 거대한 128K 컨텍스트 윈도를 지원한다. 동시에 기존 오픈소스 솔루션에 비해 엔드 투 엔드 지연시간은 최대 3분의 1로 낮아지고 처리량은 1.4배 높아진 실시간 추론을 구현한다. 또한, 코텍스 AI에서 하나의 GPU 노드만을 사용해 거대 모델을 미세 조정할 수 있어 개발자와 사용자 모두에게 비용과 복잡성을 완화해준다. 메타와 협력을 통해 스노우플레이크 고객은 AI 데이터 클라우드에서 메타의 최신 모델에 원활하게 액세스하고 파인튜닝하여 배포할 수 있다. 스노우플레이크는 사용이 간편하고 효율성 및 신뢰도 높은 방법은 물론, 기본적으로 내장된 신뢰도 및 안전성에 대한 포괄적인 접근방식을 제공한다.     스노우플레이크 AI 리서치팀은 AI 커뮤니티에 정기적으로 기여하고 최첨단 LLM 기술 구축 방식에 대한 투명성을 높여 오픈소스 혁신의 한계를 넓혀가고 있다. 또한, 라마 3.1 405B의 출시와 더불어 딥스피드(DeepSpeed), 허깅페이스(HuggingFace), vLLM 및 보다 폭넓은 AI 커뮤니티와의 협업을 통해 자사의 초거대 LLM 추론 및 파인튜닝 시스템 최적화 스택을 오픈 소스화하고 있다. 이러한 혁신을 통해 수천억 개의 매개변수 모델에 대한 오픈소스 추론 및 파인튜닝 시스템에 필요한 새로운 최첨단 솔루션을 구축한다. 초거대 모델의 규모 및 메모리에 대한 요구사항은 실시간 유스케이스에 요구되는 저지연성 추론과 비용 효율을 위한 높은 처리량, 그리고 다양한 엔터프라이즈급 생성형 AI 유스케이스에 필요한 긴 컨텍스트 지원을 실현하고자 하는 사용자에게 있어 상당한 도전 과제다. 모델 및 활성 상태 저장에 대한 메모리 요구사항도 파인튜닝을 어렵게 하며, 훈련을 위한 모델의 상태에 맞춰야 하는 대규모 GPU 클러스터에 데이터 과학자가 액세스할 수 없는 경우도 빈번하다. 스노우플레이크는 초거대 LLM 추론 및 파인튜닝 시스템 최적화 스택은 고급 병렬화 기술과 메모리 최적화를 통해 복잡하고 고비용의 인프라가 없어도 효율적인 AI 처리가 가능하다고 설명했다. 라마 3.1 405B의 경우 스노우플레이크의 시스템 스택은 단일 GPU 노드 하나로도 실시간의 고처리량 성능을 발휘하고 다중 노드 설정 전반에 걸쳐 128k 개의 거대한 컨텍스트 윈도를 지원한다. 이러한 유연성은 차세대 하드웨어와 레거시 하드웨어 모두에 유효해, 보다 광범위한 기업들이 이용할 수 있다. 또한 데이터 과학자들이 전보다 적은 개수의 GPU 상에서 복합 정밀 기술을 사용해 라마 3.1 405B를 파인튜닝할 수 있으므로 대규모 GPU 클러스터에 대한 필요성이 사라진다. 이에 따라 기업들은 강력한 엔터프라이즈급 생성형 AI 애플리케이션을 보다 편리하고 효율적이며 안전하게 채택하고 배포할 수 있다. 스노우플레이크의 AI 리서치팀은 기업들이 이러한 유스케이스를 코텍스 AI에서 쉽게 적용할 수 있도록 모델 증류, 안전 가드레일, 검색 증강 생성(RAG), 합성 데이터 생성 등 파인튜닝에 최적화된 인프라도 개발했다. 한편, 스노우플레이크는 코텍스 AI에 구축된 모든 LLM 애플리케이션 및 자산을 유해한 콘텐츠로부터 더욱 강도 높게 보호하기 위해 업계 선도 기업과 협업하고 있다고 전했다. 메타의 모델 또는 AI21 랩스(AI21 Labs), 구글, 미스트랄 AI(Mistral AI), 레카(Reka) 및 스노우플레이크 등이 제공하는 LLM을 통해 스노우플레이크 코텍스 가드를 일반인들이 이용할 수 있도록 공개하고 있다는 것이다. 스노우플레이크의 비벡 라구나단(Vivek Raghunathan) AI 엔지니어링 부사장은 “스노우플레이크의 AI 리서치팀은 기업과 오픈 소스 커뮤니티가 라마 3.1 405B 등의 최첨단 오픈 모델을 적극 활용해 효율 극대화를 위한 추론 및 파인튜닝을 가능하게 한다”면서, “스노우플레이크는 메타의 첨단 모델을 스노우플레이크 코텍스 AI를 통해 고객에게 직접 제공할 뿐만 아니라, 더 폭넓은 생태계에서 AI를 고도화하기 위해 128K 컨텍스트 윈도와 다중노드 추론, 파이프라인 병렬화, 8비트 부동 소수점 양자화 등을 지원하는 새로운 연구 및 오픈소스 코드로 기업과 AI 커뮤니티의 역량을 강화하고 있다”고 말했다.
작성일 : 2024-09-09
스노우플레이크, AI 데이터 클라우드 콘퍼런스 ‘스노우플레이크 월드 투어 서울’ 개최
스노우플레이크가 오는 9월 10일 삼성동 코엑스 컨벤션센터에서 AI 데이터 클라우드 콘퍼런스인 ‘스노우플레이크 월드 투어(Snowflake World Tour) 서울’을 개최한다고 밝혔다. 한국에서 3회차를 맞이한 이번 행사는 스노우플레이크 전문가와 고객, 파트너가 참여해 스노우플레이크 AI 데이터 클라우드의 최신 기술을 소개하고 교보문고, 넥슨코리아, 삼성전자 등 국내외 우수 고객 사례를 공유할 예정이다. 또한 스노우플레이크 교육 및 자격증 맛보기 세션과 업계 동료들과 직접 인사이트를 나눌 수 있는 다양한 프로그램도 스노우플레이크, 스트림릿(Streamlit), 아파치 에어플로우(Apache Airflow), 디비티랩스(dbt labs) 커뮤니티 존에 마련했다. 기조연설에는 크리스티안 클레이너만(Christian Kleinerman) 제품 담당 수석부사장, 제프 홀란(Jeff Hollan) 애플리케이션 및 개발자 플랫폼 부문장과 최기영 한국 지사장이 나선다. 이번 행사는 데이터 엔지니어, 데이터 분석가, 기술 및 비즈니스 리더 등을 대상으로 기업의 전략에 필요한 엔터프라이즈 AI를 제대로 활용해 비즈니스 프로세스를 혁신하고, 새로운 인사이트를 발굴하도록 지원하는 AI 데이터 클라우드를 소개할 예정이다.       이번 행사에서는 완전 관리형 서비스 ‘스노우플레이크 코텍스(Cortex)’와 오픈소스로 공개한 ‘폴라리스 카탈로그(Polaris Catalog)’, ‘스노우플레이크 코파일럿(Snowflake Copilot)’, 기업용 대규모 언어 모델(LLM) 등 업그레이드된 AI 기술에 대한 자세한 내용을 공개한다. 또한, 스노우플레이크의 통합된 서비스와 완전 관리형 플랫폼이 가진 아키텍처의 차별점도 만나볼 수 있다. 특히, 업그레이드된 스노우플레이크 AI 데이터 클라우드는 여러 종류의 데이터를 한 곳에 모아 조직원들이 안전한 환경 내에서 쉽고 빠르게 데이터를 활용해 새로운 비즈니스 인사이트를 발굴하도록 지원하는 엔터프라이즈 AI 솔루션이다. 스노우플레이크의 이러한 아키텍처는 데이터의 종류나 위치에 종속되지 않는 상호운용성을 제공하고, 유연한 컴퓨팅 엔진으로 효율적인 AI 워크로드를 지원한다. 또한 스노우플레이크 호라이즌을 통해 조직 내외부의 데이터를 안전하게 관리하며, 손쉬운 데이터 공유 및 협업으로 기업의 비즈니스 혁신을 가속한다.  오후부터 트랙별로 나눠 진행되는 세션에서는 스노우플레이크 AI 데이터 클라우드로 기업의 데이터 기반을 강화하고 가치를 창출한 다양한 고객 사례를 소개한다. 네페스(NEPES), F&F, 리만코리아(Riman Korea)와 스타트업 베슬에이아이(Vessl.ai), 발트루스트(Waldlust) 등과 더불어 블룸버그(Bloomberg), 캔바(CANVA), 팩트세트(FactSet) 등 글로벌 기업의 엔터프라이즈 AI 여정도 함께 공유할 예정이다. 스노우플레이크코리아의 최기영 지사장은 “스노우플레이크는 고객이 안전하고 강력한 데이터 거버넌스를 확립해 비즈니스 성공을 위한 엔터프라이즈 AI 전략을 수립할 수 있도록 지원한다”며, “이번 행사를 통해 스노우플레이크의 혁신 기술과 고객 사례를 소개하고, 데이터 전문가들이 서로 교류할 수 있는 장을 마련함으로써, 데이터 활용에 어려움을 겪는 기업들은 필요한 레퍼런스와 해결책을 찾을 수 있을 것”이라고 전했다.
작성일 : 2024-08-21
SAP, “엔터프라이즈 클라우드 포트폴리오 전반에 비즈니스 AI 도입”
SAP가 미국 올랜도에서 열린 연례 콘퍼런스 ‘SAP 사파이어(SAP Sapphire)’에서 AI 시대에 비즈니스를 한 단계 더 발전시키는 방법을 보여주는 혁신적인 AI 혁신과 파트너십을 공개했다. SAP는 미션 크리티컬한 프로세스를 지원하는 엔터프라이즈 클라우드 포트폴리오에 비즈니스 AI(Business AI)를 도입하고 AI의 한계를 뛰어넘는 기업들과 협력함으로써, 글로벌 비즈니스에 새로운 인사이트와 독창성을 불어넣는다는 비전을 소개했다. SAP는 엔터프라이즈 솔루션 전반에 비즈니스 AI를 탑재해 사용자에게 풍부한 인사이트를 제공함으로써, 더 나은 결과를 제공하고 창의적인 문제 해결력을 높일 수 있도록 지원한다. ▲보상 추천 기능으로 인사 관리자를 지원하는 SAP 석세스팩터스(SAP SuccessFactors)의 AI 생성 보고서 ▲판매가 가장 높을 것으로 예측되는 영업사원과 제품의 조합을 예측하는 SAP 세일즈 클라우드(SAP Sales Cloud)의 예측 기능 등이 대표적인 사례이다. 한편, SAP 비즈니스 테크놀로지 플랫폼(SAP BTP)은 아마존웹서비스(AWS), 메타 및 미스트랄 AI의 대규모 언어 모델을 생성형 AI 허브에 추가하고 있다. SAP AI 코어(AI Core)의 이 기능을 통해 SAP 애플리케이션용 생성형 AI 사용 사례를 더 쉽게 구축할 수 있다. SAP의 자연어 생성형 AI 코파일럿 솔루션인 ‘쥴(Joule)‘도 SAP 솔루션 포트폴리오 전반으로 확장하고 있다. 쥴은 여러 시스템의 데이터를 신속하게 정렬하고 맥락화하여 스마트한 통찰력을 제공하는 생성형 AI다. 2023년 가을 SAP 석세스팩터스 솔루션에 도입되었으며, 현재 SAP S/4HANA 클라우드 솔루션과 SAP 빌드, SAP 통합 스위트(SAP Integration Suite) 등에도 내장돼 있다. 오는 연말까지 SAP 아리바(SAP Ariba)와 SAP 애널리틱스 클라우드(SAP Analytics Cloud) 솔루션에도 적용될 예정이다. 또한 SAP는 쥴을 마이크로소프트 365의 코파일럿(Copilot)과 통합해 쥴의 활용 범위를 확장할 계획도 발표했다. 이 통합은 사용자에게 워크플로에 내장된 통합 환경을 제공하고, SAP와 마이크로소프트 365의 비즈니스 애플리케이션이 상호작용하면서 사용자가 정보에 원활하게 접근할 수 있게 해준다.   ▲ 사파이어 2024에서 기조연설을 진행한 SAP 크리스찬 클라인 CEO   SAP의 크리스찬 클라인(Christian Klein) CEO는 “사파이어 2024에서 발표한 혁신적인 비즈니스 AI가 업무 방식 전반에 변화를 가져올 것”이라면서, “SAP는 빠르게 변화하는 비즈니스 환경에서 고객이 민첩함과 독창성을 발휘할 수 있도록 실제 성과에 기여하는 혁신 기술을 제공하겠다“고 말했다. 한편, SAP는 업계 기술 기업과 파트너십을 맺고 생성형 AI가 엔터프라이즈 수준에서 구현할 수 있는 한계를 뛰어넘기 위해 노력하고 있다고 소개했다. SAP는 “AWS 및 마이크로소프트와의 협력 확대와 더불어 구글 클라우드, 메타, 미스트랄 AI, 엔비디아와의 파트너십을 통해 AI 지원 기술의 힘을 활용하여 빠른 속도로 혁신하고 더욱 풍부한 실제 결과를 제공할 수 있을 것”이라고 전했다. SAP와 구글 클라우드는 쥴 및 SAP 공급망용 통합 비즈니스 플래닝(SAP Integrated Business Planning for Supply Chain)에 구글 클라우드의 제미나이(Gemini) 모델 AI 어시스턴트 및 구글 클라우드 코텍스(Google Cloud Cortex) 프레임워크의 데이터 기반을 통합할 예정이다. SAP는 메타의 라마 3(Llama 3)를 활용해 SAP 애널리틱스 클라우드에서 고도로 맞춤화된 분석 애플리케이션을 렌더링하는 스크립트를 생성할 예정이다. 메타의 차세대 AI 모델은 언어의 뉘앙스와 문맥 이해에 강점을 갖고 있어, 기업의 비즈니스 요구 사항을 가시적인 성과로 전환하는 데에 적합하다. 그리고 SAP는 미스트랄 AI의 새로운 대규모 언어 모델도 SAP AI 코어의 생성형 AI 허브에 추가할 예정이다. 또한, SAP는 엔터프라이즈급 비즈니스 애플리케이션에 최첨단 기술을 탑재하기 위해 엔비디아와 제품 간 파트너십을 강화할 계획이다. SAP는 쥴을 라이즈 위드 SAP(RISE with SAP) 구현을 위한 AI 어시스턴트 역할을 하도록 훈련시키면, 엔비디아의 최첨단 AI 모델이 SAP 컨설팅 자산을 선별하여 구현 관련 질문에 대한 관련성 있고 정확한 답변을 제공할 수 있다고 밝혔다. 이외에도 SAP 인텔리전트 제품 추천 솔루션에 생성형 AI를 도입함에 따라, 엔비디아 옴니버스 클라우드 API(NVIDIA Omniverse Cloud API)는 복잡한 제조 제품 및 구성을 산업용 디지털 트윈으로 시뮬레이션할 수 있도록 지원한다.
작성일 : 2024-06-05
스노우플레이크-엔비디아, 맞춤형 AI 앱 구축 위한 협력 강화
스노우플레이크가 미국 샌프란시스코에서 열린 ‘스노우플레이크 서밋 2024’에서 기업들이 자사 플랫폼에서 엔비디아 AI를 기반으로 맞춤형 AI 데이터 애플리케이션을 구축할 수 있도록 엔비디아와의 협력을 강화한다고 발표했다.  스노우플레이크와 엔비디아는 양사의 AI 기반 애플리케이션, 모델 및 하드웨어를 통합해 고객이 비즈니스 전반에 걸쳐 쉽고 효율적이며 안전하게 엔터프라이즈 AI를 도입할 수 있도록 지원할 계획이다. 스노우플레이크는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어를 적용해, 네모 리트리버(NeMo Retriever) 마이크로서비스를 완전 관리형 LLM(대규모 언어 모델) 및 벡터 검색 서비스인 스노우플레이크 코텍스 AI(Snowflake Cortex AI)에 통합했다. 이를 통해 고객들은 맞춤형 모델을 다양한 비즈니스 데이터에 원활히 연결하고 정확한 응답을 제공할 수 있게 된다.  개방성을 특징으로 내세우는 엔터프라이즈급 LLM인 스노우플레이크 아크틱(Snowflake Arctic)은 엔비디아 텐서RT-LLM(TRT-LLM) 소프트웨어를 지원해 최적화된 성능을 제공한다. 또한, 엔비디아 NIM(NVIDIA Inference Microservice) 추론 마이크로서비스로도 사용할 수 있게 돼 더 많은 개발자가 아크틱에서 인사이트를 얻을 수 있다.     기업들은 AI를 적용할 수 있는 다양한 방법들을 모색하고 있고, 맞춤화된 모델을 생성하기 위해 데이터 활용은 더욱 중요해졌다. 스노우플레이크와 엔비디아는 기업이 맞춤형 사례별 AI 솔루션을 빠른 속도로 구축하고, 엔터프라이즈 AI의 잠재력을 실현할 수 있도록 돕는다는 비전을 밝혔다. 스노우플레이크와 엔비디아는 네모 리트리버와 같은 엔비디아의 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어 제품군의 핵심 기술을 코텍스 AI에 통합하기 위해 협력하고 있다. 이를 통해 기업들은 AI 투자를 극대화하는 맞춤형 AI 기반 애플리케이션을 효율적으로 구축하고 활용할 수 있게 된다.  또한, 양사의 협력을 통해 고객들은 엔비디아 AI 소프트웨어 기반의 AI 솔루션 NIM을 스노우파크 컨테이너 서비스(Snowpark Container Services)에 네이티브 앱의 형태로 배포해 사용할 수 있다. 이를 통해 기업은 스노우플레이크 내 일련의 파운데이션 모델을 쉽게 배포할 수 있게 된다.  지난 4월 출시된 스노우플레이크 아크틱은 엔비디아 H100 텐서 코어 GPUs(H100 Tensor Core GPUs)를 통해 학습되었으며, 엔비디아 NIM에 통합돼 사용할 수 있어 몇 초 만에 시작할 수 있다. 엔비디아가 호스팅하는 아크틱 NIM은 엔비디아 AI 카탈로그(AI Catalog)를 통해 실시간으로 제공돼 개발자가 무료 크레딧을 사용하여 선호하는 인프라를 선택해 개방성이 높은 기업용 LLM을 배포할 수 있도록 지원한다.  스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “엔비디아의 풀스택 가속 컴퓨팅 및 소프트웨어와 스노우플레이크의 최신 AI 기능을 코텍스 AI에 통합시키는 것은 시장 판도를 바꿀 것”이라며, “양사는 모든 산업과 모든 기술 수준의 고객이 쉽고 효율적이며 안전하게 맞춤형 AI 애플리케이션을 기업 데이터에 구축할 수 있는 AI 의 새로운 시대를 열고자 노력하고 있다”고 강조했다.  엔비디아의 젠슨 황(Jensen Huang) CEO는 “데이터는 AI 산업 혁명의 필수재다. 두 기업의 협력으로 고객이 기업 고유의 데이터를 정제하고 가치 있는 생성형 AI로 전환할 수 있도록 지원할 것”이라고 말했다.
작성일 : 2024-06-04