• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "세트"에 대한 통합 검색 내용이 946개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
아비바, “마이크로소프트와 산업용 AI 어시스턴트 개발 협력”
아비바가 하노버 산업 박람회(하노버 메세)에서 마이크로소프트와 협업을 통해 개발한 산업용 AI 어시스턴트를 선보였다. 마이크로소프트 애저 오픈AI 서비스(Microsoft Azure OpenAI Service)에서 실행되는 산업용 AI 어시스턴트는 인더스트리 5.0 혁신을 위한 가상의 ‘주제 전문가(SME)’이다. “제조 산업 기업이 미션 크리티컬 환경에서 복잡한 질문에 답하는 방식에 대한 패러다임의 전환을 담았다”는 것이 아비바의 설명이다. 아비바의 AI 어시스턴트는 가상 전문가 역할을 수행하여 흩어진 데이터 세트에서 인사이트를 추출하는 방대한 작업을 간소화하여 여러 단계의 복잡한 질문에 해답을 제공한다. 50년 이상 산업용 소프트웨어 및 분석 분야에서 쌓아온 아비바의 전문성을 활용하는 직관적인 인터페이스를 통해 대규모 언어 모델(LLM)과 생성형 AI를 활용할 수 있게끔 지원한다. 보안과 신뢰성을 위한 요소가 기본으로 내장되고, 엄격한 엔지니어링 프롬프트와 교차 크리틱 방법론을 통해 분석 품질을 향상시켜 견고하고 투명한 답변을 제공하며, 출처와 인용을 참조하도록 보장한다. 데이터 보안 및 소유권을 보호하기 위해 독점 데이터는 LLM 또는 기타 타사 소스와 혼합되지 않도록 설계됐다. 아비바는 마이크로소프트와 협력해 산업 인텔리전스 제공을 가속화하여 고객이 혁신의 힘을 활용할 수 있도록 지원한다. 마이크로소프트의 솔루션과 아비바의 산업 전문 지식 및 소프트웨어를 통해 기업은 기술의 힘을 활용하여 민첩하고 탄력적이며 환경적인 지속 가능 동력을 확보할 수 있다. 마이크로소프트는 아비바와 긴밀하게 공동의 혁신을 수행하고 있는 파트너로, 마이크로소프트 패브릭(Microsoft Fabric)과 커넥트(CONNECT, 구 AVEVA Connect)의 상호 운용성을 약속한 초기 ISV 중 하나이다. 아비바의 롭 맥그리비(Rob McGreevy) CPO는 “산업 환경을 위한 AI를 설계할 때, 우리는 안전하고 보안이 유지되며 지속 가능한 프로세스와 결과를 제공해야 하는 막중한 책임을 인식하고 있다. 그렇기 때문에 포트폴리오 전반에 걸쳐 AI 기능을 도입할 때 항상 산업 환경과 관련된 요구 사항과 엄격함을 인식하는 도메인별 전문 지식을 통해 포트폴리오를 강화한다”면서, “아비바의 산업용 AI 어시스턴트는 최고 수준의 보안 및 전문 지식과 결합된 통합 데이터를 활용하여 고객이 안심하고 실시간으로 정보를 조사할 수 있도록 지원한다. 이 모든 오퍼링은 ‘커넥트(CONNECT)’ 인텔리전스 플랫폼을 통해 마이크로소프트와 함께 사용 및 확장이 가능하다”고 소개했다. 마이크로소프트의 매트 커너(Matt Kerner) 수석 부사장은 “마이크로소프트 애저의 AI 및 클라우드 기능과 아비바의 산업용 AI 전문성을 결합하면 산업이 대규모로 운영되는 방식을 혁신할 수 있는 힘을 갖게 된다. 직관적인 AI 어시스턴트 인터페이스를 통해 운영자와 경영진은 인사이트를 얻고, 결과를 조사하고, 성능을 최적화하는 것이 더 쉬워진다”고 말했다.
작성일 : 2024-04-23
엔비디아, AI 기반 워크플로 강화하는 RTX A400과 A1000 GPU 출시
엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다.   ▲ 엔비디아 RTX A1000   엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다. 엔비디아 RTX A400과 A1000 GPU에 탑재된 2세대 RT 코어는 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어는 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다. 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다. A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W에 불과하며, 콤팩트하고 에너지 효율적인 워크스테이션에 인상적인 기능을 제공한다.  엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.
작성일 : 2024-04-18
효성인포메이션시스템, ‘AI EXPO KOREA 2024’에서 비즈니스 혁신 위한 AI 플랫폼 전략 제시
효성인포메이션시스템이 ‘AI EXPO KOREA(국제인공지능대전) 2024’ 전시에 참가해, 고성능 AI 연산 환경부터 고성능 데이터 처리까지 지원하는 AI 플랫폼 전략 및 비즈니스 혁신을 위한 솔루션을 제시한다고 전했다. 한국인공지능협회와 서울메쎄가 주최하는 AI EXPO KOREA 2024는 5월 1일~3일 서울 코엑스 D홀에서 진행된다. 올해 7회를 맞는 이 행사는 약 300개사 500부스가 참가할 전망이다. 효성인포메이션시스템은 AI 비즈니스를 위해 필요한 GPU 서버부터 초고성능 스토리지, 네트워크를 사전 설계해 통합한 ‘효성 AI 플랫폼’을 체험할 수 있는 공간을 마련했다. AI 도입을 고민하는 관람객을 위한 전문가 컨설팅과 함께 다양한 프로모션도 진행한다. 최근 인간과 유사한 지능과 자가 학습 능력을 갖춘 AGI(일반인공지능)가 등장하며 AI 비즈니스에도 큰 변화가 일고 있다.  AGI의 등장은 더 큰 데이터 세트와 복잡한 AI 모델이 필요함을 의미하며, 이에 따라 GPU 시스템 및 데이터 처리 효율이 보다 중요해졌다. 효성인포메이션시스템은 AI 연산 환경부터 고성능 데이터 처리, AI솔루션까지 고객의 AI 전환을 위한 핵심 경쟁력을 제공한다. 고성능 AI 연산 환경을 위해 슈퍼마이크로와 협업하여 GPU 서버를 시장에 공급하고, 고성능 병렬파일 스토리지 ‘HCSF’를 통해 GPU 성능을 뒷받침하는 고성능 데이터 처리를 지원한다. 또한, AI/ML옵스 솔루션, GPU 데이터베이스, 인메모리 데이터베이스, 고속 네트워크 등 국내외 다양한 파트너사와 연계 및 확장 제안을 통해 고객에게 AI 인프라 구현을 위한 솔루션을 제시한다. 효성인포메이션시스템은 AI 시스템 설계 관련해 기획 단계부터 컨설팅이 가능한 전문 인력과 기술 노하우를 보유하고 있으며, 2023년부터 국내 은행권, 공공기관, 유통 대기업, 연구기관, 의료기업 등을 중심으로 AI/GPU 인프라, 빅데이터 플랫폼 구축 사업에서 성공사례를 확보했다고 밝혔다. 효성인포메이션시스템의 양정규 대표이사는 “많은 기업들이 AI 도입을 검토하고 있지만 최적화된 AI 시스템 설계를 위해서는 기획 단계부터 풍부한 경험의 파트너를 만나는 것이 중요하다”면서, ”AI 인프라 구현은 효성인포메이션시스템에 맡기고, 고객은 비즈니스 혁신에만 집중할 수 있도록 당사의 모든 기술력과 노하우를 제공할 것”이라고 전했다.  
작성일 : 2024-04-15
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
엔비디아, 3D 그래픽 만드는 생성형 AI 모델 ‘라떼3D’ 공개
엔비디아가 몇 초 만에 텍스트를 3D 그래픽으로 변환하는 생성형 AI 모델 라떼3D(Large-scale Amortized Text-To-Enhanced3D Synthesis : LATTE3D)를 공개했다. 가상 3D 프린터처럼 텍스트 프롬프트를 1초 안에 사물과 동물의 3D 그래픽으로 변환할 수 있는 라떼3D는 표준 렌더링 애플리케이션에 널리 사용되는 포맷으로 제작됐다. 비디오 게임, 광고 캠페인, 디자인 프로젝트 또는 로보틱스용 가상 훈련장 개발 등을 위한 가상 환경을 쉽게 구현할 수 있다. 라떼3D는 엔비디아 리서치 데모에 사용된 엔비디아 RTX A6000과 같은 단일 GPU에서 추론을 실행할 때 거의 즉각적으로 3D 형상을 생성할 수 있게 됐다. 크리에이터는 처음부터 디자인을 시작하거나 3D 애셋 라이브러리를 일일이 찾아보는 대신, 라떼3D를 사용해 머릿속에 아이디어가 떠오르는 즉시 세부적인 개체를 생성할 수 있다.     모델은 텍스트 프롬프트에 따라 몇 가지 다른 3D 모양 옵션을 생성해 크리에이터에게 선택권을 제공한다. 선택된 개체는 몇 분 내에 더 높은 품질로 최적화된다. 그런 다음 사용자는 해당 그래픽을 그래픽 소프트웨어 애플리케이션이나 엔비디아 옴니버스(Omniverse)와 같은 플랫폼으로 전송할 수 있다. 이를 통해 오픈USD(OpenUSD) 기반 3D 워크플로와 애플리케이션을 사용할 수 있다. 연구진은 동물과 일상 사물이라는 두 가지 특정 데이터세트에 대해 라떼3D를 훈련시키고, 개발자는 동일한 모델 아키텍처를 사용해 다른 데이터 유형에 대해 AI를 훈련시킬 수 있다. 예를 들어, 3D 식물 데이터세트를 훈련한 라떼3D 버전은 조경 디자이너가 고객과 브레인스토밍하면서 나무, 꽃 덤불, 다육식물로 정원 렌더링을 빠르게 작성하는데 도움을 줄 수 있다. 가정 내 사물에 대해 훈련된 모델은 집을 3D 시뮬레이션으로 채울 아이템을 생성할 수 있다. 이런 경우 개발자는 테스트하거나 실제 환경에 배치하기 전에 개인 비서 로봇을 훈련할 수 있다. 라떼3D의 훈련에는 엔비디아 A100 텐서 코어(Tensor Core) GPU가 사용됐다. 3D 그래픽 외에도 챗GPT(ChatGPT)를 통해 생성된 다양한 텍스트 프롬프트를 훈련했다. 이를 통해 사용자가 특정 3D 개체를 설명할 때 제시할 수 있는 다양한 문구를 처리하는 능력을 향상시켰다. 예를 들어, 다양한 개 종류를 묘사하는 프롬프트에서는 모두 개 모양을 생성하도록 학습시켰다. 토론토 AI 연구소에서 라떼3D를 개발한 엔비디아의 산자 피들러(Sanja Fidler) AI 리서치 담당 부사장은 “1년 전만 해도 AI 모델이 이 정도 품질의 3D 비주얼을 생성하는데 1시간이 걸렸지만, 이제는 10~12초 정도면 충분하다. 훨씬 더 빠른 속도로 결과를 생성할 수 있게 되면서 업계 전반의 크리에이터들이 거의 실시간으로 텍스트를 3D로 생성할 수 있게 됐다”고 말했다.
작성일 : 2024-03-25
스노우플레이크, “데이터 클라우드 플랫폼으로 AI 기술의 생산성 높인다”
데이터 클라우드 기업 스노우플레이크의 마이크 스카펠리(Mike Scarpelli) 최고재무책임자(CFO)가 한국을 방문해 “AI 시대에 발맞춰 고객이 애플리케이션 전략을 구축하고 실행하는 과정에 스노우플레이크 데이터 클라우드 플랫폼에서 AI 및 LLM 기술로 생산성을 높일 수 있도록 지속적으로 지원할 것”이라고 강조했다. 스노우플레이크는 3월 13일 국내 주요 기업 임원들을 초청해 이그젝큐티브 라운드테이블 고객 세미나를 진행했다. 이 행사에서 마이크 스카펠리 CFO와 존 로버슨(Jon Robertson) APJ 세일즈 총괄, 크리스 차일드(Chris Child) 스노우플레이크 제품 시니어 디렉터가 데이터 및 AI 전략과 전망을 공유했다. 또한 스노우플레이크 코리아 최기영 사장과 한국 딜로이트 그룹 김우성 전무를 비롯해 CJ프레시웨이, BC카드, LG유플러스 등의 고객사가 연사로 참여해 데이터 및 생성형 AI 등에 대한 인사이트와 경험을 전했다. 스카펠리 CFO는 AI 검색 엔진 니바(Neeva) 인수, AI 솔루션 제공업체 미스트랄 AI(Mistral AI) 파트너십 등 AI 지원을 가속화하기 위한 스노우플레이크의 노력을 설명했다. 그는 “전략적인 인수합병과 시의적절한 투자를 통해 고객에게 민주화된 AI 경험을 제공할 수 있게 되었다”며, “고객이 보안과 거버넌스가 보장된 스노우플레이크 플랫폼에서 AI 및 LLM을 활용해 쉽고 비용 효율적으로 애플리케이션을 구축하고, 이를 기반으로 혁신적인 AI 성공 사례를 만들어 나가기를 바란다”고 말했다. 차일드 시니어 디렉터는 2023년 인수한 데이터 앱 개발 플랫폼 스트림릿(Streamlit)에 대해 “스트림릿은 고객이 데이터 분석을 통해 유의미한 인사이트를 빠르게 확보하고 대화형 애플리케이션 구축 기능을 활용해 쉽게 풀스택 AI 앱을 개발할 수 있도록 한다”며, “이처럼 스노우플레이크는 통합된 데이터를 보다 효과적으로 활용하고 새로운 비즈니스 모델을 창출할 수 있도록 지원한다”고 말했다. 한국 딜로이트 그룹의 김우성 전무는 ‘AI 시대의 엔터프라이즈 데이터 관리 방안’을 주제로 한 발표에서 “정제되지 않은 데이터로 생성형 AI를 더 잘 활용할 수 있도록 ▲통합 ▲분석 ▲관리 및 표준화 ▲거버넌스 수립이 가능한 시스템 요건을 갖춘 유연한 데이터 플랫폼을 선택해야 한다”고 언급하며, “스노우플레이크는 4가지 요건을 모두 충족하는 데이터 플랫폼 기업”이라고 설명했다. 패널 토크에서는 CJ프레시웨이 김종호 디지털 혁신 담당과 BC카드 데이터 사업본부 오성수 본부장, LG유플러스 데이터 전략 및 관리 총괄 조연호 책임이 각사에서 데이터 클라우드 플랫폼을 활용하는 사례와 효과에 대해 설명했다. CJ프레시웨이 김종호 디지털 혁신 담당은 “데이터를 활용해 새로운 비즈니스 기회를 창출하면서 동시에 기업의 생산성을 높이기 위해 클라우드 전환을 고려하게 되었다”며, “클라우드 전환으로 데이터를 IT부서에서 받아 활용하는 것이 아니라 현업 직원들이 직접 공유하고 분석할 수 있게 되었다”고 전했다. LG유플러스 마이데이터 서비스를 총괄하고 있는 조연호 책임은 스노우플레이크를 도입하게 된 이유에 대해 “마이데이터 서비스는 고객의 신용정보와 같이 민감한 개인정보를 다루는 만큼 안전한 데이터 관리를 위한 보안 환경 구축이 필수”라며, “스노우플레이크는 금융보안원의 클라우드 서비스 공급자(CSP) 안정성 평가를 완료했을 뿐 아니라 강력한 보안성과 일관된 거버넌스를 제공해 개인화된 데이터 시대에 적합하다”고 설명했다. 또한 스노우플레이크의 데이터 거래 플랫폼 마켓플레이스에서 데이터 세트를 제공하고 있는 BC카드 데이터 사업본부 오성수 본부장은 데이터 기반 솔루션 제공업체로서 데이터를 통한 수익화 모델을 성공적으로 구축한 경험을 소개했다. 그는 “스노우플레이크 마켓플레이스는 자사가 보유한 유의미한 데이터를 더 많은 잠재 고객에게 도달해 공유할 수 있는 기회를 제공했다”며, “마켓플레이스는 기업이 민감한 정보는 철저히 보호하면서도 데이터 비즈니스를 확장하고 경쟁력을 향상하는 데에 적합한 플랫폼”이라고 말했다.
작성일 : 2024-03-20
엔비디아, “3D 콘텐츠도 생성형 AI로 만든다”
엔비디아가 비주얼 콘텐츠 제공업체를 위해 새로운 이미지 제어 기능인 3D 생성형 AI를 출시한다고 발표했다. 이는 비주얼 생성형 AI를 위한 멀티모달 아키텍처인 엔비디아 에디파이(NVIDIA Edify)에 기반하고 있다. 3D 애셋 생성은 에디파이가 개발자와 비주얼 콘텐츠 제공업체에 제공하는 최신 기능 중 하나로, 개발자가 AI 이미지 생성을 더욱 창의적으로 제어할 수 있도록 돕는다. 멀티미디어 콘텐츠 및 데이터 제공업체인 셔터스톡(Shutterstock)은 에디파이 아키텍처 기반으로 만들어진 API(애플리케이션 프로그래밍 인터페이스)에 대한 얼리 액세스를 제공한다. 에디파이 아키텍처는 크리에이터가 텍스트 프롬프트나 이미지를 사용해 가상 장면의 3D 오브젝트를 빠르게 생성할 수 있도록 한다. 비주얼 콘텐츠 크리에이터이자 마켓플레이스인 게티이미지(Getty Images)는 상업적으로 안전한 생성형 AI 서비스에 맞춤형 미세 조정 기능을 추가해 기업 고객이 각자의 브랜드 가이드라인과 스타일에 맞는 비주얼을 생성할 수 있도록 지원할 예정이다. 또한 이 서비스에는 고객이 생성된 이미지를 더욱 세밀하게 제어할 수 있는 새로운 기능이 추가된다. 엔비디아 GTC에서 발표된 추론용 마이크로서비스 모음인 엔비디아 NIM을 통해 개발자는 게티이미지와 셔터스톡에서 사전 훈련된 에디파이 모델을 API로 테스트해 볼 수 있다. 또한 엔비디아 DGX 클라우드에 구축된 AI 파운드리인 엔비디아 피카소(Picasso)를 통해 에디파이 아키텍처를 사용해 자체 생성형 AI 모델을 훈련하고 배포할 수 있다.     셔터스톡의 3D AI 서비스는 얼리 액세스로 제공된다. 이 서비스를 통해 크리에이터는 세트 드레싱(set dressing)과 아이디어 구상을 위해 가상 오브젝트를 생성할 수 있다. 이 기능을 사용하면 장면 프로토타입 제작에 필요한 시간을 줄일 수 있어, 아티스트는 캐릭터와 오브젝트 제작에 더 많은 시간을 할애할 수 있다. 크리에이티브 전문가는 이 도구를 사용해 텍스트 프롬프트나 참조 이미지에서 애셋을 빠르게 생성하고 인기 있는 3D 포맷 중에서 선택해 파일을 내보낼 수 있다. 에디파이 3D 기반 서비스에는 생성된 콘텐츠를 필터링하는 안전 장치도 내장되어 있다. 한편, 엔비디아는 에디파이의 확신을 위해 다양한 협력을 진행할 예정이라고 소개했다. 일례로, 엔비디아와 어도비(Adobe)는 에디파이를 기반으로 한 새로운 3D 생성 AI 기술을 수백만 명의 파이어플라이(Firefly)와 크리에이티브 클라우드(Creative Cloud) 크리에이터에게 제공하기 위해 협력하고 있다. HP와 셔터스톡은 디자이너에게 다양한 프로토타입 옵션을 제공하는 에디파이 3D를 사용해 사용자 맞춤형 3D 프린팅을 개선하기 위한 협업을 GTC에서 선보였다. 셔터스톡의 3D AI 생성기를 사용하면 콘셉트를 빠르게 반복해 디지털 애셋을 만들 수 있다. HP는 자동화된 워크플로를 통해 디지털 애셋을 3D 프린팅 가능한 모델로 변환할 수 있으며, HP 3D 프린터는 이러한 모델을 실제 프로토타입으로 변환시켜 제품 디자인에 영감을 불어넣는다. 또한 셔터스톡은 텍스트나 이미지 프롬프트에서 생성된 360 HDRi 환경을 사용해 경량의 3D 장면을 조명하는 에디파이 기반 도구를 구축하고 있다. 다쏘시스템은 3D 콘텐츠 제작을 위한 애플리케이션인 3D익사이트(3DEXCITE)를 통해 CGI 스튜디오 카타나(CGI studio Katana)와 함께 엔비디아 옴니버스(Omniverse)를 기반으로 한 워크플로에 셔터스톡의 생성 360 HDRi API를 통합하고 있다.
작성일 : 2024-03-20
델, 엔비디아 기반의 ‘AI 팩토리 솔루션’ 선보여
델 테크놀로지스가 엔비디아와 엔터프라이즈 AI 적용 확산을 위해 전략적 협력을 강화하면서, 신규 솔루션인 ‘델 AI 팩토리 위드 엔비디아(Dell AI Factory with NVIDIA)’를 비롯해 ‘델 생성형 AI 솔루션(Dell Generative AI Solutions)’ 포트폴리오를 확대한다고 밝혔다. 이는 기업과 기관이 자체 보유한 데이터와 AI 툴, 그리고 온프레미스 인프라를 보다 안전하고 빠르게 통합하여 생성형 AI 투자 효과를 극대화하도록 돕는 것이 핵심이다. 델과 엔비디아는 델의 엔드-투-엔드 생성형 AI 솔루션 포트폴리오를 강화하고, 고객들이 비즈니스 혁신을 가속화하는 한편 생산성을 높일 수 있도록 지원할 계획이다. ‘델 AI 팩토리 위드 엔비디아’는 델의 서버, 스토리지, 클라이언트 디바이스, 소프트웨어 및 서비스와 엔비디아의 AI 인프라 및 소프트웨어 팩키지를 결합한 엔드-투-엔드 솔루션으로 고속 네트워크 패브릭을 기반으로 구성된다. 엄격한 테스트와 검증을 거친 랙 단위 설계가 가능하며, 이를 통해 데이터로부터 가치 있는 통찰력과 성과를 이끌어낼 수 있도록 돕는다. 이 솔루션은 또한 엔터프라이즈 데이터 보안 분야의 기존 오퍼링들을 비롯해 보안 및 개인 정보 보호를 위한 델의 서비스 오퍼링과 함께 활용할 수 있다.      ‘델 AI 팩토리 위드 엔비디아’는 모델 생성 및 튜닝에서부터 증강, 그리고 추론에 이르는 생성형 AI의 전체 수명주기에 걸쳐 다양한 AI 활용 사례와 애플리케이션을 지원한다. 델이 제공하는 프로페셔널 서비스를 활용해 조직에서는 전략을 세우고, 데이터를 준비하여 구현하고 적용하기 까지의 과정을 가속할 수 있으며, 조직 전반의 AI 역량을 향상시킬 수 있다. 이 솔루션은 기존의 채널 파트너를 통해 구매하거나, ‘델 에이펙스(Dell APEX)’ 구독형 모델을 통해 도입할 수 있다. 델 파워엣지 XE9680(Dell PowerEdge XE9680) 서버는 ‘엔비디아 B200 텐서 코어 GPU’를 포함한 신규 엔비디아 GPU 모델을 지원할 예정이며, 이를 통해 최대 15배 높은 AI 추론 성능과 TCO 절감을 기대할 수 있다. 또한 델 파워엣지 서버는 엔비디아 블랙웰 아키텍처 기반의 다른 여러 GPU와 H200 텐서 코어 GPU, 엔비디아 퀀텀-2 인피니밴드(NVIDIA Quantum-2 InfiniBand) 및 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워킹 플랫폼도 지원할 예정이다. ‘검색 증강 생성을 위한 델과 엔비디아의 생성형 AI 솔루션(Dell Generative AI Solutions with NVIDIA - Retrieval-Augmented Generation)’은 ‘엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)’의 새로운 마이크로서비스를 활용하여 사전 검증된 풀스택 솔루션을 제공함으로써 RAG(검색 증강 생성) 기술 도입을 가속한다. 자체 보유한 고유 데이터 및 지식 베이스와 같이 사실에 근거한 새로운 데이터 세트를 통해 생성형 AI 모델 품질을 개선하고 결과 정확도를 높일 수 있다. ‘모델 훈련을 위한 델과 엔비디아의 생성형 AI 솔루션(Dell Generative AI Solutions with NVIDIA - Model Training)은 자체적으로 도메인 맞춤형 AI 모델을 구축하려는 기업 및 기관들을 위해 사전 검증된 풀스택 솔루션을 제공한다. 이와 함께 ‘생성형 AI를 위한 델 프로페셔널 서비스(Dell Professional Services for GenAI)’는 포트폴리오 전반에 대한 통합, 관리, 보호를 지원하여 비즈니스 성과를 더 빠르게 달성할 수 있게끔 돕는다. 델 구현 서비스(Dell Implementation Services)에는 델의 신규 RAG 솔루션 및 모델 훈련을 비롯해 보안 위험을 평가하고 영향을 최소화하도록 돕는 ‘생성형 AI 데이터 보호를 위한 자문 서비스(Advisory Services for GenAI Data Security)’ 등이 포함된다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “AI 팩토리는 향후 산업군 별로 인텔리전스를 창출하는 핵심 역할을 할 것”이라고 전망하며, “엔비디아와 델은 함께 기업이 AI 팩토리를 통해 기업들이 자체 보유한 고유의 데이터를 강력한 인사이트로 전환할 수 있도록 지원하고 있다”고 말했다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “엔터프라이즈 고객들은 복잡한 AI 요구에 대응하고 이를 빠르게 해결할 수 있는 솔루션을 갈망하고 있다. 델과 엔비디아가 협력하는 이유도 여기에 있다”고 설명하며 “양사의 노력으로 탄생한 턴키 솔루션은 데이터와 사용 사례를 원활하게 통합하고, 맞춤형 생성 AI 모델 개발을 간소화한다”고 덧붙였다.
작성일 : 2024-03-19