• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "CEO"에 대한 통합 검색 내용이 2,393개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
알테어, “심솔리드에 전자 부품 설계의 해석/설계 기능 확장”
알테어가 칩, 인쇄회로기판(PCB) 및 집적회로(IC) 등 전자 부품에서 전체 시스템에 이르기까지 빠르고 정확한 다중 물리 시뮬레이션을 지원하는 '알테어 심솔리드'를 2024년 2분기 중 출시한다고 밝혔다. 심솔리드는 복잡한 형상의 구조 문제를 빠르고 정확하게 예측하는 시뮬레이션 소프트웨어로, 전처리 과정 없이 빠르게 시뮬레이션할 수 있다는 점이 특징이다. 전자 CAD(ECAD)에서 해석 단계로 넘어갈 때 필수인 메시 생성은 매우 복잡하고 오래 걸리는 작업이다. 하지만 심솔리드는 메시 생성을 제거해 시뮬레이션 속도를 기존 대비 최대 25배까지 향상시킨다. 이는 엔지니어들이 더 빠르고 효율적으로 설계 대안을 탐색하고 최적화할 수 있음을 의미한다.     이번 출시로 조선, 항공우주와 자동차 산업에서 대형 구조물 구조 해석에 많이 쓰이던 심솔리드는 이제 전자 산업을 위한 기능까지 확장하게 됐다. 최신 버전은 반도체 칩, PCB와 IC의 구조 및 열 해석을 지원한다. 또한 신호 무결성(SI), 전력 무결성(PI), 전자기 호환성/간섭(EMC/EMI) 등 복잡한 요소들을 반영한 시뮬레이션도 할 수 있고, 단위는 미터에서 나노미터까지 지원해 반도체 칩 설계에도 적용이 가능하다. 알테어는 심솔리드에 향후 전자기 해석 기능도 추가할 계획이다. 이를 통해 전자회로와 전자 부품의 전자기적 특성도 함께 시뮬레이션 할 수 있게 된다. 효율적인 메시리스(meshless) 환경에서 열, 구조, 전자기 등 다양한 해석 기능을 통합적으로 제공해 엔지니어들이 보다 나은 설계 결정을 내릴 수 있도록 지원한다는 목표다. 알테어의 짐 스카파 CEO는 “전자 산업이 점점 복잡해지고, 소형화에 대한 요구가 커지면서 엔지니어들은 종종 시뮬레이션의 정확성과 신속성 사이에서 타협해야 하는 상황에 직면한다”면서, “심솔리드는 PCB와 IC의 복잡한 세부 사항까지도  빠르고 정확하게 분석할 수 있도록 도와주기 때문에 전자부품 설계 및 해석 과정의 효율성과 정확성을 높일 수 있을 것”이라고 말했다.
작성일 : 2024-04-22
알테어, '데이터 패브릭' 전문 기업 케임브리지 시맨틱스 인수
알테어가 기업 내 분산된 다양한 데이터를 통합하고 관리하는 ‘데이터 패브릭’ 솔루션과 데이터를 그래프 형태로 모델링하는 ‘그래프 데이터베이스’ 기술을 보유한 전문 기업 ‘케임브리지 시맨틱스(Cambridge Semantics)’를 인수했다고 발표했다. 케임브리지 시맨틱스는 2007년 IBM 첨단기술그룹 출신의 혁신/엔지니어링 팀이 설립한 기업이다. 이번 인수로 알테어는 IBM 네티자(IBM Netezza)와 아마존 레드시프트(Amazon Redshift) 데이터웨어하우스 개발에 핵심적인 역할을 한 케임브리지 시맨틱스의 기술 인력도 영입하게 됐다.  알테어의 샘 마할링감 최고기술책임자(CTO)는 “이번 인수로 알테어의 분석/데이터 사이언스 팀에 탁월한 데이터웨어하우징 전문성을 보유하게 됐다”면서, “데이터 생성에서 실제 비즈니스 영향까지, 전체 데이터 라이프사이클을 완벽히 이해하는 엔지니어링 그룹을 갖추게 됐다”고 설명했다. 케임브리지 시맨틱스의 지식 그래프, 데이터 거버넌스, 가상화, 검색 기술은 알테어의 데이터 분석 플랫폼인 ‘래피드마이너’에 통합돼 기존 데이터 준비, ETL, 데이터 사이언스, BI, MLOps, 워크로드 관리 등의 기능과 시너지를 낼 예정이다. 알테어의 짐 스카파 CEO는 “지식그래프는 데이터 패브릭의 핵심 요소로서 기업의 분산 데이터를 통합해 통찰력 있는 의사결정과 혁신적 데이터 활용을 가능케 한다”면서, “케임브리지 시맨틱스 인수로 대규모 데이터와 복잡한 질의 처리, 비즈니스 컨텍스트를 제공하여 AI의 단점인 할루시네이션(hallucination : 환각현상) 문제의 해결이 가능한 최고 수준의 지식 그래프 기술을 확보했다”고 밝혔다.  
작성일 : 2024-04-19
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
폼랩, 빠르고 가장 경제적인 3D 프린터 폼 4/폼 4B 출시
폼랩이 자사의 4세대 데스크톱 레진 3D 프린터인 폼 4(Form 4)와 폼 4B(Form 4B)를 출시했다. 폼 4와 폼 4B는 기존 폼 3보다 최대 5배 빠른 속도로 평균 부품 제작을 2시간 내외로 줄여 제품 디자이너 및 엔지니어, 제조업체, 헬스케어 분야의 생산성 향상과 시장 출시 기간 단축을 지원한다. 폼 4와 폼 4B는 폼랩의 새로운 저강도 디스플레이(Low Force Display : LFD) 프린터 엔진과 향상된 재료 라이브러리, 새로운 자동 후처리 시스템 및 직관적인 사용자 경험 등이 특징이다. 소재에 따라 폼 3+보다 최소 2배에서 최대 5배 빠른 속도로 제품을 인쇄해 시제품 반복 제작 또는 mSLA(광조형) 기술을 사용한 일괄 생산이 가능하다. 시간당 수직 프린트 속도는 최대 100mm로 대부분의 제품은 2시간 이내, 소형 부품은 몇 분 이내에 제작할 수 있다. 또한 레이저 및 검류계 기술에서 출발해 초고출력 백라이트(16 mw/㎠), 독자적인 이형 텍스처, LPU 4(Light Processing Unit 4), 이중 레이어의 유연한 필름 레진 탱크를 탑재했다.     신뢰성과 경제성도 갖추었다. 오래 지속되는 재료 탱크(7만 5000 레이어 이상)와 광 처리 장치(100만 레이어 이상), 40% 낮은 레진 가격, 30% 더 큰 프린트 볼륨, 3.5배 더 높은 처리량으로 부품당 비용을 최대 40% 절약할 수 있으며, 정밀 가열, 힘 감지 및 이물질 감지 기능이 있어 높은 수준의 프린트 성공률을 제공한다는 것이 폼랩의 설명이다. 50미크론 픽셀, 높은 기준 조명, 고급 픽셀 스무딩, 가벼운 터치 지원이 가능해 다양한 상황에서 정확하게 맞는 부품 생산이 가능하며, 자동 레진 처리, 즉각적인 재료 변경, 자동 후처리 및 퀵 릴리스(신속 분리) 기술이 탑재된 빌드 플랫폼을 통해 누구나 15분이면 3D 프린트 방법을 손쉽게 습득할 수 있다. 이에 더해 폼랩은 재료 라이브러리에 폼 4 에코시스템을 활용해 폼 3보다 2~5배 더 빠르게 프린트할 수 있는 새롭게 재구성된 4가지 범용 레진, 고속 프로토타입 및 교정용 모델 제작을 위한 고속 모델 레진, 정확한 치과용 모델이 제작 가능한 정밀 모델 등 6가지 새로운 레진을 추가했다. 폼 4는 폼랩의 재료 라이브러리에서 17개 이상의 다른 성능 재료를 사용할 수 있도록 검증이 완료되었으며, 새로운 재료가 정기적으로 추가될 예정이다. 폼 4B는 15개의 추가 생체 적합성 재료와 호환되어 치과 및 의료 산업의 혁신을 지원한다. 마이크로소프트의 마크 혼슈케(Mark Honschke) 적층 가공 프로토타이핑 책임자는 “마이크로소프트의 모든 하드웨어 카테고리를 지원하는 폼랩이 출시한 폼 4는 엔지니어링 등급의 재료가 필요한 프로젝트에 있어서 빠른 프린트 시간으로 고성능 부품을 제작하는 것은 물론, 24시간 내 여러 번의 반복 제작이 가능해졌다”고 말했다. 포드 자동차의 브루노 알베스(Bruno Alves) AM/IM 개발 엔지니어는 “폼 4의 속도와 다양한 소재 덕분에 매일 여러 개의 프로토타입과 제조 보조 부품을 제작할 수 있게 됐다”면서, “폼 4는 부품 설계 및 생산 방식을 바꾸어 제품 개발의 효율성을 높이는 데 도움을 주고 있다”고 말했다. 폼랩의 맥스 로보브스키(Max Lobovsky) CEO는 “13만 대 이상의 프린터와 3억 개 이상의 부품을 제작하며 얻은 강점과 통찰력을 바탕으로 출시한 SLA 프린터 폼 4는 폼랩과 고객뿐 아니라 3D 프린팅 업계 전체에 큰 도약이 될 것”이라면서, “폼 4의 안정성과 새로운 차원의 속도는 모든 산업에서 우리의 고객이 신제품을 제작하고 개발하는 방식을 변화시킬 것”이라고 전했다.
작성일 : 2024-04-18
슈퍼마이크로, X14 서버 제품군에 6세대 인텔 제온 프로세서 탑재 예정
슈퍼마이크로컴퓨터(SMCI)가 향후 6세대 인텔 제온 프로세서를 지원할 X14 서버 포트폴리오를 공개했다. 이번 신제품에는 슈퍼마이크로의 빌딩 블록 아키텍처, 랙 플러그 앤 플레이 및 수냉식 냉각 솔루션, 그리고 인텔 제온 6 프로세서 제품군이 결합됐으며, 이를 통해 다양한 워크로드와 규모에 최적화된 솔루션을 높은 성능과 효율성으로 제공하는 데에 초점을 맞추었다. 슈퍼마이크로는 고객이 솔루션 구축 기간을 단축할 수 있도록 조기 배송 프로그램을 통해 일부 고객에게 새로운 서버에 대한 조기 액세스를 제공하고, 점프스타트 프로그램으로 테스트 및 검증용 무료 원격 액세스도 지원할 예정이다. 랙 스케일의 신규 X14 서버는 공용 인텔 플랫폼을 활용해 통합 아키텍처를 갖춘 인텔 제온 6 프로세서에 대한 소켓 호환성을 지원한다. 이 프로세서 포트폴리오는 클라우드, 네트워킹, 분석 및 확장 워크로드에 대해 와트당 성능을 높이는 E-코어(효율 코어) SKU와 AI, HPC, 스토리지 및 에지 워크로드에 대해 코어당 성능을 높이는 P-코어(성능 코어) SKU로 제공된다. 인텔 AMX(Intel Advanced Matrix Extensions)에서 FP16을 새롭게 지원하는 인텔 엑셀러레이터 엔진도 내장된다. 새로운 슈퍼마이크로 X14 서버는 노드당 최대 576개의 코어는 물론 PCIe 5.0, 모든 장치 유형에 대한 CXL 2.0, NVMe 스토리지 및 최신 GPU 가속기를 지원해 AI 워크로드를 구동하는 사용자의 애플리케이션 실행 시간을 단축시킨다. 고객은 광범위한 슈퍼마이크로 X14 서버에서 E-코어 및 P-코어를 갖춘 인텔 제온 6 프로세서를 활용할 수 있으며, 이로 인해 소프트웨어 재설계를 최소화하고 새로운 서버 아키텍처의 이점을 누릴 수 있다.     인텔의 라이언 타브라(Ryan Tabrah) 부사장 겸 제온 E-코어 제품 부문 총괄은 “제온 6 CPU는 공용 소프트웨어 스택을 포함한 공통 플랫폼 설계에서 각각 최적화된 두 개의 마이크로아키텍처를 제공한다. 고객은 온프레미스, 클라우드, 또는 에지에서 업계 또는 배포 모델과 관계없이 다양한 워크로드 요구사항에 대한 최고의 가치를 얻을 수 있다. 슈퍼마이크로와의 강력한 파트너십은 차세대 프로세서의 이점을 고객에게 제공하는 데 도움이 될 것”이라고 설명했다. 슈퍼마이크로의 찰스 리앙(Charles Liang) CEO는 “슈퍼마이크로는 수냉식 100kW 랙 1,350개를 포함해 전 세계적으로 매월 5000개의 랙을 생산할 수 있는 능력을 지녔으며, 2주의 짧은 리드 타임을 제공한다. 현재 가장 진보된 AI 하드웨어를 비롯해 완전한 맞춤형 워크로드 최적화 솔루션을 랙 스케일로 설계, 구축, 검증 및 제공하는 것에서 타의 추종을 불허한다”면서, “슈퍼마이크로는 폭넓은 애플리케이션 최적화 솔루션의 설계 및 제공하는 것에 있어서 업계를 선도하고 있다. 인텔 제온 6 프로세서를 탑재한 X14 서버는 광범위한 슈퍼마이크로의 포트폴리오를 한층 더 확대할 것”이라고 전했다.
작성일 : 2024-04-17
헥사곤, 아이터스 디지털 인수로 설비자산 성능 관리 솔루션 역량 확보
헥사곤 자산 수명주기 인텔리전스 사업부(헥사곤 ALI)가 설비자산 성능 관리(APM) 소프트웨어 공급기업인 아이터스 디지털(Itus Digital)을 인수했다고 발표했다. 아이터스 디지털은 헥사곤의 모든 제품, 특히 헥사곤 설비 관리 솔루션(HxGN EAM) 플랫폼에 더해져 완성된다. 설비자산 성능 관리는 설비 관리 운영에서 신뢰성 최적화, 가동 시간 향상, 비용 절감에 중점을 둔다. 아이터스 디지털은 SaaS(서비스형 소프트웨어) 기반의 솔루션을 통해 설비자산의 성능을 최대화한다. 아이터스의 APM 플랫폼은 전체 설비자산 관리 전략과 플랜트 디지털 트윈의 라이프사이클을 관리하며, 이는 설비 고장 모드, 설비 모니터링을 통해 설비자산의 잠재 리스크가 올라가거나 위험요소를 설비 리스크 평가, 설비관리 업무 우선순위화를 통해 관리한다. 이러한 APM 플랫폼은 빠르고 쉬운 구축을 통해 기존의 설비관리 전략을 고도화하기 위해 개발됐다. 헥사곤의 파올로 구글리엘미니(Paolo Guglielmini) CEO는 “이번에 전략적으로 인수를 한 아이터스 디지털의 APM 기술은 헥사곤 EAM 플랫폼과 결합해 산업 기업 고객의 설비자산 안정성과 가용성을 개선해 시간과 비용을 최소화하고, 고객사의 규모나 업종에 관계 없이 최고의 기회를 제공하게 됐다는 점에서 의미가 크다”고 전했다.
작성일 : 2024-04-15
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
[포커스] 모두솔루션, 지스타캐드 시장 확대 및 파트너십 강화 전략 소개
모두솔루션이 지난 3월 13일 ‘지스타캐드(GstarCAD) 파트너 콘퍼런스’를 진행했다. 지스타캐드를 국내에 판매하는 파트너사를 대상으로 한 이번 콘퍼런스에서는 지스타캐드의 비즈니스 현황과 향후 개발 계획 등이 소개됐다. ■ 정수진 편집장     대안 CAD의 퍼포먼스 향상과 생태계 구축 추진 지스타캐드는 2D CAD 시장에서 사실상의 표준으로 쓰이는 오토캐드와 호환되면서 가벼운 퍼포먼스와 저렴한 가격을 앞세운 이른바 ‘대안 CAD’ 제품 중 하나이다. 중국의 지스타소프트(Gstarsoft)가 개발하고, 국내에서는 모두솔루션이 공급한다. 지스타소프트의 루샹(Lu Xiang) CEO는 “작년 중국 상하이 증시에 상장한 이후 10억 위안(약 1800억 원) 이상의 투자를 유치했다”면서, R&D를 통한 제품 라인업 확대 및 인지도 강화를 위한 마케팅을 강화할 수 있는 기반을 마련했다고 전했다. 지스타소프트는 중국 시장에서는 직접 판매 중심으로, 해외 시장에서는 600여개의 파트너사를 통한 비즈니스를 진행한다. 해외 비즈니스 비중을 장기적으로 50%까지 늘리는 것이 목표이다. 이외에 클라우드 비즈니스도 진행한다. 1500만 명의 MAU(월간 활성 사용자)를 기록한 모바일용 CAD 뷰어를 시작으로, 최근에는 클라우드 제품인 ‘지스타캐드 365’를 개발했다. 루샹 CEO는 지스타캐드 개발의 핵심 요소로 품질, 성능, API(애플리케이션 프로그래밍 인터페이스), 신기능 등 네 가지를 꼽았다. 소프트웨어의 안정성과 함께 속도를 높여 도면 작업 시간을 줄이는 것이 가장 큰 관건이다. 또한 API를 통해 서드파티 생태계를 구축하는 동시에, 오토캐드 서드파티 툴을 지스타캐드용으로 마이그레이션하는 노력도 기울일 예정이다.    3D/클라우드/AI 등 제품 라인업 확대 루샹 CEO는 제품의 성능을 높이는 기술 개발에 집중하면서, 제품 라인업을 넓힐 계획이라고 전했다. 2D CAD에서 나아가 BIM(빌딩 정보 모델링) 시장을 겨냥한 3D CAD로 제품군을 확대하는 한편, 모바일 CAD 뷰어와 클라우드 CAD 등 신기능과 신제품을 제공하는 개발도 추진할 계획이다.  클라우드 CAD 제품인 ‘지스타캐드 365’는 한국 출시를 준비하고 있다. 클라우드에 설계 데이터를 저장함으로써 디바이스의 제약 없이 협업과 공유가 가능하다는 점을 내세운다. 2D 설계 외에 기계, BIM 등 제품군을 개발할 계획이며, 협업 기능은 구독 라이선스로 판매될 가능성이 있는 것으로 알려졌다. 루샹 CEO는 “AI에 대한 기대가 높은 상황에서 CAD에 AI를 접목하는 방법에 대해서도 연구 중이다. AI는 건축 설계 등에서 작업 시간을 줄일 수 있을 것으로 기대하고 있다”고 전했다.   ▲ 지스타소프트는 클라우드 CAD 제품군을 넓히고, 국내 시장에도 선보일 계획이다.   생태계 중심으로 국내 비즈니스 강화 계획 모두솔루션은 지난 2019년 지스타캐드 누적 판매 1만 카피를 기록한 이후, 2023년에는10만 카피를 돌파했다고 밝혔다. 국내 시장에서 선호도가 높아지고 있으며, 파트너 숫자 증가 등 파트너 비즈니스도 꾸준히 활성화되고 있다는 것이 모두솔루션의 평가이다. 지스타캐드의 한국 비즈니스에 대해서 루샹 CEO는 “한국 시장은 지난 2008년 이후 매년 40%씩 성장하면서 빠른 증가세를 보이고 있다”면서, 한국 고객에 대한 지원 조직을 확대하고, 한국 고객의 요구에 대응하기 위해 모두솔루션과의 R&D 협력을 강화할 것”이라고 밝혔다. 모두솔루션은 오토캐드 사용자의 지스타캐드 이전 지원 및 서드파티 지원 확대를 포함한 사용자 생태계 구축을 추진할 계획이다. 오토캐드용 서드파티 툴 중 하나인 ‘드림플러스’에 대응하는 ‘매직플러스’의 기능 개발을 시작해, 올 연말에는 기본 기능의 개발을 완료할 예정이다. 파트너 지원 시스템 또한 개선해 파트너 사이트 및 발주 시스템을 새롭게 구축할 계획이다. 모두솔루션의 정충구 대표이사는 “국내에서는 중견기업 시장을 중심으로 지스타캐드 고객을 늘려 왔는데, 최근에는 대기업 고객을 발굴하는 데에 힘을 기울이면서 실제 대기업 고객 확보가 이뤄지고 있다”면서, 시장 확대와 함께 서드파티 관련 개발 및 파트너십을 강화할 계획이라고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01