• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "프레임"에 대한 통합 검색 내용이 2,067개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아-구글 딥마인드, 대규모 언어 모델 혁신 위해 협력
엔비디아가 구글의 연례 개발자 콘퍼런스인 ‘구글 I/O 2024’에서 세 가지 새로운 협업 내용을 발표했다. 이번 협업으로 엔비디아와 구글은 세계적 수준의 성능을 갖춘 AI 기반 애플리케이션을 더 쉽게 만들 수 있도록 개발자를 지원할 예정이다. 텍스트, 이미지, 사운드와 같은 여러 유형의 데이터를 처리하는 모델이 점점 더 보편화되면서 생성형 AI를 구동하는 대규모 언어 모델(LLM)에 대한 혁신이 가속화되고 있다. 그러나 이러한 모델을 구축하고 배포하는 것은 여전히 어려운 과제다. 개발자는 모델을 빠르게 경험하고 평가해 사용 사례에 가장 적합한 모델을 결정한 다음, 비용 효율적일 뿐만 아니라 최상의 성능을 제공하는 방식으로 모델을 최적화할 수 있는 방법이 필요하다. 엔비디아는 이번 행사에서 구글이 선보인 두 가지 새로운 모델인 젬마 2(Gemma 2)와 팔리젬마(PaliGemma)를 최적화하기 위해 텐서RT-LLM(TensorRT-LLM)을 사용하고 있다. 이 두 모델은 모두 제미나이(Gemini)를 만드는 데 사용된 동일한 연구와 기술을 기반으로 구축됐으며, 각각 특정 영역에 중점을 둔다. 젬마 2는 광범위한 사용 사례를 위한 차세대 젬마 모델로, 획기적인 성능과 효율성을 위해 설계된 완전히 새로운 아키텍처가 특징이다. 팔리젬마는 PaLI-3에서 영감을 받은 개방형 시각 언어 모델(VLM)이다. 이는 SigLIP 시각 모델과 젬마 언어 모델을 포함한 개방형 구성 요소를 기반으로 구축됐으며, 이미지, 짧은 비디오 캡션, 시각적 이미지 질의응답, 이미지 내 텍스트 이해, 객체 감지나 분할과 같은 시각 언어 작업을 위해 설계됐다. 팔리젬마는 광범위한 시각 언어 작업에서 높은 수준의 미세 조정 성능을 탑재했고 엔비디아 JAX-툴박스(JAX-Toolbox)에서도 지원된다.   젬마 2와 팔리젬마는 대규모 AI 모델 배포를 간소화하는 엔비디아 AI 엔터프라이즈(AI Enterprise) 소프트웨어 플랫폼의 일부인 엔비디아 NIM 추론 마이크로서비스와 함께 제공될 예정이다. 새로운 두 모델에 대한 NIM 지원은 팔리젬마를 시작으로 API 카탈로그에서 사용할 수 있으며, 곧 엔비디아 NGC와 깃허브(GitHub)에서 컨테이너로 출시될 예정이다. 구글은 데이터 과학자에게 인기 있는 개발자 플랫폼 중 하나인 구글 코랩(Colab)에서 오픈 소스 GPU 데이터 프레임 라이브러리인 래피즈 cuDF(RAPIDS cuDF)가 기본으로 지원된다고 발표했다. 매월 1000만 명에 이르는 구글 코랩의 월간 사용자들은 이제 코드 변경 없이 단 몇 초 만에 엔비디아 L4 텐서 코어(Tensor Core) GPU를 사용해 판다스(pandas) 기반 파이썬(Python) 워크플로를 최대 50배까지 가속화할 수 있다. 구글 코랩을 사용하는 개발자는 래피즈 cuDF를 통해 탐색적 분석(exploratory analysis)과 생산 데이터 파이프라인의 속도를 높일 수 있다.  또한, 엔비디아와 구글은 엔비디아 RTX 그래픽을 사용해 AI PC를 활용하는 파이어베이스 젠킷(Firebase Genkit)에 대한 협업도 발표했다. 이는 개발자가 새로운 젬마 모델 제품군을 비롯한 생성형 AI 모델을 웹과 모바일 애플리케이션에 쉽게 통합해 맞춤형 콘텐츠, 시맨틱 검색(semantic search), 문의에 대한 답변을 제공할 수 있도록 지원한다. 개발자는 로컬 RTX GPU로 작업 줄기(work stream)를 시작한 다음, 작업을 구글 클라우드 인프라로 원활하게 이동할 수 있다. 개발자들은 모바일 개발자들이 주로 쓰는 프로그래밍 언어인 자바스크립트(JavaScript)를 사용하는 젠킷으로 앱을 더욱 쉽게 개발할 수 있다. 엔비디아와 구글 클라우드는 AI의 발전을 위해 다양한 분야에서 협력하고 있다고 전했다. 곧 출시될 그레이스 블랙웰(Grace Blackwell) 기반 DGX 클라우드 플랫폼과 JAX 프레임워크 지원부터 구글 쿠버네티스 엔진(Kubernetes Engine)에 엔비디아 네모(NeMo) 프레임워크 도입까지, 양사의 풀스택(full-stack) 파트너십은 사용자가 구글 클라우드에서 엔비디아 기술을 사용해 AI로 수행할 수 있는 작업의 가능성을 확장하고 있다.
작성일 : 2024-05-17
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional Services)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08
몽고DB, 생성형 AI로 최신 애플리케이션 구축 지원
몽고DB가 기업이 생성형 AI로 신속하게 최신 애플리케이션을 구축 및 배포하도록 지원하는 ‘몽고DB AI 애플리케이션 프로그램(MongoDB AI Applications Program : MAAP)’을 발표했다. 새롭게 선보인 MAAP은 기업 고객을 위한 몽고DB 및 파트너사의 전략적 자문과 전문 서비스를 비롯해 통합된 엔드투엔드 기술 스택을 제공한다. MAAP에는 컨설팅 및 파운데이션 모델(FM), 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공기업 등이 초기 파트너로 참여해 몽고DB와 함께 고객이 고도화된 AI 기반 애플리케이션으로 비즈니스의 어려움을 해결하도록 지원할 방침이다. 이를 위해 MAAP은 생성형 AI를 빠르고 효율적으로 애플리케이션에 도입하길 원하는 기업을 위해 필요한 기술 스택과 전문성을 제공하는 원스톱 솔루션으로 설계됐다. 모든 기업은 생성형 AI가 주도한 혁신 속에서 경쟁 우위를 점하고 고객의 높아진 기대치를 뛰어넘기 위해 애플리케이션 현대화를 추진하고 있다. 전 산업군의 기업이 새로운 기술 변화의 이점을 누리기 위해 나서고 있지만, 새로운 종류의 애플리케이션을 안전하고 안정적으로 구축, 배포 및 확장하는 데 필요한 데이터 전략과 기술을 갖추지 못한 경우가 많다. 이들 중 상당수는 확장이 불가능한 레거시 기술로 인해 비효율적인 데이터 작업 방식을 고수하고 있으며, 일부는 불필요한 복잡성과 비용을 야기하는 단일 목적의 볼트온(bolt-on) 솔루션을 사용하고 있다. 이러한 경우, 기업은 기존의 기술과 애드온(add-on) 솔루션으로 인해 장기적인 성공보다는 PoC(Proof of Concept) 수준의 단기적인 결과에 머물게 된다. 몽고DB가 새롭게 선보인 MAAP은 기업이 가진 비즈니스 문제를 파악하고 역추적하며, 솔루션을 신속하게 구축 및 반복해 혁신적인 생성형 AI 애플리케이션 생산에 최적화된 전략적 프레임워크와 전문 서비스, 기술 로드맵을 제공한다. 몽고DB는 통합 개발자 데이터 플랫폼에서 기업이 생성형 AI 애플리케이션을 배포할 수 있는 기술을 MAAP에 접목했으며, 이와 함께 컨설팅 및 FM, 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공 기업과의 파트너십을 기반으로 엔드 투 엔드 솔루션을 제공한다. 대표적으로 앤스로픽(Anthropic), 애니스케일(Anyscale), 아마존웹서비스(AWS), 코히어(Cohere), 크레달.ai(Credal.ai), 파이어웍스.ai(Fireworks.ai), 구글 클라우드(Google Cloud), 그래비티나인(gravity9), 랭체인(LangChain), 라마인덱스(LlamaIndex), 마이크로소프트 애저(Microsoft Azure), 노믹(Nomic), 피어아일랜드(PeerIslands), 퓨어인사이트(Pureinsights), 투게더 AI(Together AI) 등 기업이 MAAP의 초기 파트너사로 참여해 고객에게 필요한 기술, 풀 서비스 및 전문가 지원을 제공한다. MAAP은 기업에 대한 고도로 맞춤화된 분석에 기반한다. 먼저 몽고DB 프로페셔널 서비스(MongoDB Professional Services)는 조직의 현재 기술 스택을 평가하고 고객과 협력해 해결해야 할 비즈니스 문제를 파악한다. 이어 컨설팅 파트너와 함께 전략적 로드맵을 개발하고 프로토타입을 신속하게 마련해 결과물이 고객의 기대에 부합하는지 검증하며, 이를 실제 운영 환경에서 사용할 수 있도록 완전하게 구축된 애플리케이션을 최적화한다. 고객은 필요에 따라 새로운 생성형 AI 기능을 개발하기 위한 몽고DB 프로페셔널 서비스를 계속 지원받을 수 있다. 기업은 조직 전반과 고객을 위한 애플리케이션에 배포된 새로운 기술이 예상대로 작동하며 민감한 데이터를 노출하지 않는다는 확신을 가질 수 있어야 한다. MAAP의 파트너사는 안전성과 신뢰성, 유용성을 보장하도록 설계된 FM을 제공한다. 기업은 FM을 강력한 거버넌스 제어와 자체 데이터를 사용하는 검색 증강 생성(RAG) 등의 기술과 결합함으로써 FM이 제공하는 데이터를 정확히 제어하고 정확도 개선에 필요한 컨텍스트를 제공하며 환각현상(hallucination)을 줄일 수 있다. 또한 기업은 MAAP 파트너를 통해 도메인별 사용 사례에 최적화된 미세 조정 및 추론 서비스도 사용하며, 앤스로픽, 코히어, 메타(Meta), 미스트랄(Mistral), 오픈AI(OpenAI) 등 모델을 기반으로 빠른 AI 모델 응답 시간을 확보할 수 있다. 이처럼 MAAP은 사용 사례에 필요한 생성형 AI 참조 아키텍처, 통합 기술, 규정 등 실무 중심의 전문 서비스를 제공해 의도대로 작동하는 안전한 고성능 애플리케이션을 구축할 수 있다. MAAP은 생성형 AI를 대규모로 도입할 준비가 되지 않은 기업에게 안전한 비공개 샌드박스 환경에서 진행되는 맞춤형 프로토타입 세션을 제공한다. 예를 들어 전략, 운영, IT, 소프트웨어 개발 등 조직의 여러 부서가 전문가 세션에 참여해 다양한 의견을 모으고, 생성형 AI를 통해 해결할 수 있는 내부 비즈니스 과제를 파악하는 데 맞춤형 MAAP을 활용할 수 있다. 나아가 몽고DB 프로페셔널 서비스가 주도하는 해커톤을 통해 솔루션을 공동 구축하고 내부 사용 사례에 대한 효과를 테스트한다. 즉, MAAP은 생성형 AI가 특정 비즈니스 문제를 해결하는 실질적인 솔루션을 신속하게 구축하는 데 필요한 교육, 리소스 및 기술을 제공한다. 몽고DB의 앨런 차브라(Alan Chhabra) 월드와이드 파트너 부문 수석부사장은 “기민함이 필요한 스타트업부터 탄탄한 입지를 구축한 글로벌 기업까지 몽고DB의 다양한 고객이 생성형 AI에 많은 관심을 보이고 있다. 이들은 몽고DB의 최신 기술과 포괄적인 서비스를 활용해 혁신적인 아이디어를 실제 애플리케이션으로 전환하고 있으나 일부 기업은 여전히 비즈니스 문제 해결을 위해 생성형 AI를 통합할 최상의 방법을 고민하고 있다”고 전했다. 또한, “MAAP은 강력한 개발자 데이터 플랫폼인 몽고DB 아틀라스(MongoDB Atlas)와 몽고DB가 보유한 전문성 및 서비스, 그리고 생성형 AI 업계 리더들과의 전략적 파트너십을 통해 규모를 막론하고 모든 기업이 생성형 AI를 자신 있게 도입하고 구현할 수 있는 포괄적인 로드맵을 제공한다. 몽고DB와 파트너는 MAAP을 통해 고객의 생산성을 높이고 고객과의 상호 작용을 혁신하며 업계 발전을 주도하는 데 생성형 AI를 활용할 수 있도록 지원한다”고 말했다.
작성일 : 2024-05-07
언리얼 엔진 5.4 프리뷰 : 콘텐츠 생성의 퍼포먼스와 효율 강화
자료 제공 : 에픽게임즈 주요 특징 : 큰 메시 없이 높은 비주얼 퀄리티를 구현하는 나나이트 업데이트, 다양한 렌더링 성능 개선, 포트나이트의 모션 매칭 기능 포함, 컨트롤 릭과 시퀀서로 애니메이션 구현, 멀티 프로세스 쿠킹 속도 향상, 신규 오디오 인사이트 프로파일링 툴 제공, 프로시저럴 콘텐츠 생성 프레임워크 향상 등   에픽게임즈는 지난 3월 게임 개발자 콘퍼런스 GDC 2024의 오프닝 이벤트인 ‘스테이트 오브 언리얼(State of Unreal)’을 통해 ‘언리얼 엔진 5.4 프리뷰 1’ 출시 소식을 알렸다. 이 자리에서는 스카이댄스 뉴 미디어(Skydance New Media)의 새로운 앙상블 어드벤처 신작 ‘Marvel 1943 : Rise of Hydra’ 제작에 사용된 언리얼 엔진 5.4의 기능과 함께 UEFN(포트나이트 언리얼 에디터)에서 메타휴먼을 사용할 수 있게 됐다는 소식도 전해졌다.   ▲ 언리얼 엔진 5.4 프리뷰 1(이미지 출처 : 언리얼 엔진 홈페이지)   언리얼 엔진 5.4 프리뷰 1 출시 먼저 언리얼 엔진 5.4 프리뷰 1이 4월 말에 정식 출시됐다. 언리얼 엔진 5.4에는 디스크에서 큰 메시를 만들지 않고도 훨씬 높은 비주얼 퀄리티를 구현할 수 있는 나나이트 테셀레이션과 같은 나나이트(Ninite)의 주요 업데이트를 비롯하여 다양한 렌더링 성능 개선에 대한 업데이트가 진행된다.  언리얼 엔진 5.4의 애니메이션에도 발전이 있었다. ‘포트나이트’ 챕터 5 출시 이후 모든 플랫폼의 포트나이트에 사용되어 온 모션 매칭 기능이 포함되어, 게임 속 캐릭터에 간단하고 효율적으로 애니메이션을 적용할 수 있게 되었다. 2024년 말에는 이번 키노트 데모에서 사용된 로코모션과 트래버스 데이터세트와 함께 하이엔드 모션 캡처 데이터로 제작된 500개 이상의 AAA급 애니메이션이 포함된 무료 샘플 학습 프로젝트도 무료로 공개할 예정이다. 또한 ‘레고 포트나이트’ 개발 과정에서 대대적인 테스트를 거친 덕분에 별도로 여러 애플리케이션에서 작업할 필요 없이 컨트롤 릭과 시퀀서로 게임에 애니메이션을 구현할 수 있다.  뿐만 아니라 이제 멀티 프로세스 쿠킹의 속도가 최대 3배까지 빨라져, 에디터에서 쿠킹 시 더 적은 양의 셰이더를 컴파일할 수 있다. 사운드 디자이너는 이제 강력한 차세대 오디오의 제작, 이해, 디버그를 지원하는 신규 오디오 인사이트 프로파일링 툴을 사용할 수 있게 되었다.  한편 엔진에서 제공되는 프로시저럴 콘텐츠 생성 프레임워크도 향상되었다. 이번에 출시되는 PCG 바이옴 제작 플러그인은 유연한 데이터 기반 툴의 구체적인 샘플로, 최신 업데이트에서 제공하는 체계적인 접근 방식을 통해 개발되었다.    ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   스카이댄스 뉴 미디어가 선보이는 언리얼 엔진 5.4 기능 스카이댄스 뉴 미디어의 수상 경력에 빛나는 작가이면서 디렉터인 에이미 헤닉(Amy Hennig)과 그의 팀은 스테이트 오브 언리얼에서 새로운 앙상블 어드벤처 신작 ‘Marvel 1943 : Rise of Hydra’를 세계 최초로 선보였다. 스카이댄스는 리얼타임 시네마틱과 툴 데모를 진행하며 새로운 나나이트 및 볼류메트릭 렌더링 등 언리얼 엔진 5.4의 기능을 선보였다.    ▲ 스카이댄스가 GDC 2024에서 선보인 데모 영상   그의 팀은 나나이트 테셀레이션을 사용해 신에 높은 비주얼 퀄리티와 풍성한 디테일을 구현하고 애니메이션과 리얼타임 스트리밍을 지원하는 스파스 볼륨 텍스처로 메모리 사용량을 최소화하는 방법을 보여주었다. 불균질 볼륨이 셀프 섀도잉으로 시네마틱 퀄리티의 볼류메트릭 애셋을 렌더링하는 것과 단단한 표면에 그림자를 드리우고, 포그와 파티클과 같은 다른 반투명 이펙트와 합성되는 볼륨을 함께 선보였다. 스카이댄스는 최신 메타휴먼 애셋 표준과 메타휴먼 애니메이터를 사용해 배우의 강렬한 연기를 내러티브 속 주인공인 매력적인 애니메이션 캐릭터로 전환했다. 3래터럴 팀은 고해상도 4D 스캔을 활용해 메타휴먼 애셋의 퀄리티를 더욱 업그레이드하고, 스캔한 인물의 모습이 메타휴먼에 표현되도록 보정하는 방식으로 캐릭터 제작을 지원했다. 이 프로젝트는 스카이댄스의 베테랑 팀이 주도했으며 온전히 언리얼 엔진으로 제작되었다.   ▲ Marvel 1943 : Rise of Hydra(이미지 출처 : 언리얼 엔진 홈페이지)   UEFN에 메타휴먼 도입 GDC 2023에서 포트나이트 언리얼 에디터(UEFN)와 크리에이터 이코노미 2.0을 출시한 지 1년이 지났다. 그동안 크리에이터들은 8만 개가 넘는 UEFN 섬을 퍼블리싱했고, 에픽게임즈는 첫해에 3억 2000만 달러 이상의 참여 기반 수익금을 크리에이터에게 지급했다. 올해 GDC에서 에픽게임즈는 2024 로드맵을 통해 다양한 신규 기능을 소개했다. 우선 UEFN에 메타휴먼을 도입했다. 메타휴먼 크리에이터와 메타휴먼 애니메이터를 사용해 포트나이트 섬을 위한 고퀄리티 NPC를 손쉽게 제작하고 애니메이션을 적용할 수 있게 되었다. 메타휴먼 크리에이터는 UEFN 또는 언리얼 엔진에서 사용할 수 있도록 리깅된 사실적인 디지털 휴먼을 단 몇 분 만에 제작할 수 있는 무료 온라인 애플리케이션이다. 메타휴먼 애니메이터는 아이폰이나 스테레오 헤드마운트 카메라로 캡처한 영상을 메타휴먼용 고퀄리티 페이셜 애니메이션으로 변환한다. 메타휴먼 애니메이터로 만든 페이셜 애니메이션은 모든 메타휴먼 캐릭터 또는 UEFN에서 제공되는 포트나이트 캐릭터에 적용할 수 있다. 에픽게임즈는 크리에이터가 UEFN에서 메타휴먼으로 사실적인 환경에 실감 나는 휴먼 캐릭터를 구현하는 방법을 보여주는 탈리스만(Talisman) 데모도 공개했다. 이 데모에는 메타휴먼과 고퀄리티 환경이 포트나이트 섬의 룩 앤 필을 어떻게 완전히 바꿔놓았는지를 확인할 수 있다.   ▲ 탈리스만 데모 영상   또한, 신규 마블러스 디자이너(Marvelous Designer) 및 CLO의 지원을 통해 탈리스만 데모 속 메타휴먼의 역동적인 의상을 제작할 수 있게 됐다. UEFN 크리에이터는 마블러스 디자이너의 1년 무료 라이선스를 받을 수 있으며, 이 라이선스를 활용하면 새로운 언리얼 엔진 5.4 워크플로를 사용해 다이내믹 클로딩을 제작한 다음 UEFN 프로젝트로 임포트할 수 있다.   ▲ 탈리스만 데모(이미지 출처 : 언리얼 엔진 홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[칼럼] 디지털 엔지니어링의 프레임워크와 네 가지 스피어
디지털 지식전문가 조형식의 지식마당   지난 호 칼럼에서 디지털 수명 주기 프레임워크에 대해서 설명하였다. 일반적으로 프레임워크(framework)는 복잡한 문제를 해결하거나 복잡한 구조를 구축할 때 기반으로 쓰이는 기본 구조를 말한다. 디지털 엔지니어링은 매우 복잡한 문제를 해결해야 한다. 특히 제품 개발과 동시에 제품의 디지털 트윈(digital twin)도 개발해야 한다.  이것은 제품 개발에서 두 가지 트윈인 물리적 트윈과 디지털 트윈을 동시해 개발해야 하는 것을 의미하며, 이것을 모두 충족할 수 있는 디지털 스레드(digital thread) 환경을 구축해야 한다. 또한 최근에 화두로 부상하고 있는 소프트웨어 정의 x 또는 소프트웨어 중심 x(software-defined x)의 프로세스를 포함해야 한다.    그림 1. 디지털 제품/시스템 수명주기 프레임워크    <그림 1>의 프레임워크에서는 지식과 기술의 영역으로 정의한 네 가지 스피어(sphere)로 크게 분류하였다.  각 스피어는 고유의 특성이 있어서 그 분야의 전문 특성과 지식이 있다. 또한 각 스피어 사이에는 보이지 않는 경험과 지식과 패러다임의 벽이 존재한다. 스피어를 사용한 이유는 보이지 않는 장벽을 가지고 있기 때문이다. 첫 번째 영역은 제품 또는 시스템으로 대표되는 물리적 스피어(physical sphere)이며, 제품 부품으로 구성되어 있다. 이것을 가상 스피어와 비교한다면 디지털 트윈이 되는 것으로 공장에서 직접 생산되는 물리적 실체(physical entity)이다. 두 번째는 가상 스피어(virtual sphere)이다. 디지털 트윈은 가상 스피어로 가상세계(virtual world)이며 현실세계(real world)의 제품이나 시스템과 연동된다. 이것은 물리적 스피어의 경험과 지식 그리고 감각과 패러다임이 존재한다. 단지 소프트웨어 코딩 지식이나 제품의 물리적 지식이나 경험이 있다고 자동적으로 가상 스피어의 디지털 트윈을 만들 수 있는 것이 아니다. 세 번째는 정보 스피어(information sphere)로 현재까지 제품 개발에 핵심적 역할을 하고 있는 산업용 소프트웨어(industrial software) 영역이다. 이곳에는 다양한 컴퓨터 지원 개발 기술(CAx : Computer-Aided Everything)이 있으며, 대표적으로 컴퓨터 지원 설계 시스템(CAD), 컴퓨터 지원 제조(CAM), 컴퓨터 지원 해석 시스템(CAE) 등으로 제품의 데이터와 정보를 생성한다. 생성된 데이터는 제품 수명주기 관리(PLM) 시스템 안에서 자동화되고 저장된다.  네 번째는 사이버 스피어(cyber sphere)로 소프트웨어 중심 x의 영역이다. 주로 코딩의 영역으로 물리적 기능을 가상화(virtualization)하는 영역이다.    그림 2. 네 가지 스피어   가상 스피어와 사이버 스피어는 디지털 영역(digital domain)이지만, 정보 스피어는 물리적 영역(physical domain)과 디지털 영역으로 구분된다. 왜냐면 디지털 목업(digital mockup)이나 시뮬레이션(simulation)도 있지만 아직도 이 영역에서 물리적 시험(physical test) 등이 많이 필요하며, 미래에도 완전히 디지털화(digitalization)하기에는 갈 길이 멀다. 앞으로 가장 발전할 분야는 사이버 스피어 분야이다. 현재는 소프트웨어 정의 x로 발전 중이지만, 가까운 미래에는 소프트웨어 플랫폼(software platfom)으로 발전할 가능성이 높다.  그러나 새로운 기술과 접근 방법에는 리스크가 많다. 이런 리스크 관리를 하지 않으면 제품 개발이나 엔지니어링 분야에서 크게 낭패를 볼 수 있다. 다른 비즈니스 분야의 디지털 전환이나 인공지능 분야와 다르게 산업 분야는 리스크(risk)가 소비자나 사용자에게 엄청난 파급효과가 있다.   최근 보잉의 사례에서 보는 것과 같이 과도한 디지털 전환으로 아날로그 지식 엔지니어를 해고하는 바람에 엄청난 위기를 가져오고 있다. 지난 1월 보잉 737 맥스 항공기의 문짝이 비행 중 뜯어져 나가는 사고가 발생했다. 알고 보니 조립 과정에서 아예 나사를 빼먹었기 때문이라는 사실이 드러나 충격을 줬다. 보잉이 지난 20년 동안 비용 절감을 위해 아웃소싱을 대폭 확대하면서 숙련된 엔지니어들이 떠났고, 결국 심각한 항공기 품질 저하로 이어졌다.   지난 4차 산업혁명의 초기에 제너럴 일렉트릭(GE)은 디지털 트윈 사업을 제일 먼저 시작했다. 야심차게 시작한 프레딕스(Predix) 플랫폼은 실패하였고, GE 디지털 회사는 다른 회사에게 팔려갔다. 2000년대 초에도 지엠(GM) 자동차가 CAD와 PLM에 지나치게 의존하다가 기업이 어려워진 적이 있다. 기술은 어디까지 기술적 역량이지, 인간의 다양한 역량을 대체할 수 없다. 이런 사례는 현재 진행 중인 디지털 전환과 인공지능 전환(AI transformation)에 대해서 많은 교훈을 준다. 대부분 실제 경험보다는 연구만 하는 학자나 미디어에서 아직 리스크가 많은 기술에 대해 지나치게 낙관적으로 접근한다. 기술 낙관론이라는 낙관주의 편향(optimism bias)이다. 실제 산업계에서는 이런 것이 커다란 위험요소가 된다.    결론적으로 이런 접근방법에서 가장 중요한 것은 속도보다는 방향성이다.  네 가지 스피어에서 접근방법은 각 스피어의 지식과 경험과 패러다임이 어떻게 연결 및 연동할 것인가에 대한 구체적인 방법과 도구를 발굴해야 한다. 그리고 이에 대한 디지털 전략과 디지털 리스크를 만들어야 한다. 그러므로 이런 프레임워크를 사용해서 구체적인 실행 목록을 만드는데 사용할 수 있다. “완벽한 형태는 공이며, 모든 것은 구체에서 시작한다.(The perfect form is the sphere, and everything originates from the sphere.)” - 플라톤   ■ 조형식 항공 유체해석(CFD) 엔지니어로 출발하여 프로젝트 관리자 및 컨설턴트를 걸쳐서 디지털 지식 전문가로 활동하고 있다. 현재 디지털지식연구소 대표와 인더스트리 4.0, MES 강의, 캐드앤그래픽스 CNG 지식교육 방송 사회자 및 컬럼니스트로 활동하고 있다. 보잉, 삼성항공우주연구소, 한국항공(KAI), 지멘스에서 근무했다. 저서로는 ‘PLM 지식’, ‘서비스공학’,  ‘스마트 엔지니어링’, ‘MES’, ‘인더스트리 4.0’ 등이 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
CAD&Graphics 2024년 5월호 목차
  INFOWORLD   Focus 17 디지털 제조 & 뿌리산업 컨퍼런스, 디지털 기술 기반의 제조산업 혁신 및 성장 전략 소개 22 빌드스마트포럼 2024, Al와 메타버스의 시너지로 변화하는 AEC 탐구 24 마이다스아이티, 제조산업을 위한 CAE 기술과 솔루션 로드맵 제시 26 로크웰 오토메이션, AI·클라우드 접목한 디지털 제조 기술 소개 28 한국산업지능화협회, ‘2024 스마트공장엑스포와 산업지능화 콘퍼런스’ 개최 51 오라클, 모던 데이터 플랫폼 및 데이터베이스 혁신 전략 발표 54 델 테크놀로지스, AI 시대 겨냥한 기업용 PC 제품군 소개 56 레노버, “더 많은 CPU 코어로 워크스테이션 성능 높인다”   People&Company 30 한국알테어 이승훈 기술 총괄 본부장 더욱 빠르고 효율적인 제품 개발을 위한 AI 기술 본격화 추진 33 데이터킷 필리프 블라슈 CEO CAD 데이터 변환과 상호운영성 기술로 한국 시장 공략 강화   Case Study 36 책임감 있는 AI 활용 및 향상된 모델 훈련 유니티 뮤즈의 텍스처/스프라이트 생성 및 파운데이션 모델 New Products 40 리브랜딩과 함께 건축 설계의 생산성 강화 캐드마스터 2025 44 AI로 생산성 높이는 기업용 PC 프로세서 라이젠 프로 8040/8000 시리즈 46 AI 기반 워크플로 강화하는 전문가용 GPU RTX A400/A1000 48 콘텐츠 생성의 퍼포먼스와 효율 강화 언리얼 엔진 5.4 프리뷰 58 이달의 신제품   Column 62 디지털 지식전문가 조형식의 지식마당 / 조형식 디지털 엔지니어링의 프레임워크와 네 가지 스피어 64 책에서 얻은 것 No. 19 / 류용효 기업 성장 맵 – 엔비디아 편   On Air 73 캐드앤그래픽스 CNG TV 지식방송 지상중계 배터리 산업 동향과 배터리 최적화를 위한 설계/시뮬레이션 기술 60 New Books 68 News   Directory 123 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 74 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 오픈AI CLIP 모델의 이해/코드 분석/개발/사용 82 복잡한 모델에서 인사이트를 얻고 설계 의사결정을 돕는 직스캐드 (2) / 이소연 포인트 클라우드 기능 85 새로워진 캐디안 2024 살펴보기 (5) / 최영석 캐디안 2024의 스크립트 기능 88 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2025 (1) / 천벼리 아레스 캐드 2025의 새로운 기능   Reverse Engineering 94 문화유산 분야의 이미지 데이터베이스와 활용 사례 (5) / 유우식 고지도 데이터베이스   Analysis 103 시뮤텐스 소프트웨어를 활용한 복합소재 해석 (2) / 씨투이에스코리아 시뮤필의 복합재 수지 해석 기능 소개 106 앤시스 워크벤치를 활용한 해석 성공사례 / 노은솔 PyMAPDL의 기초부터 활용까지 110 산업 디지털 전환을 위한 버추얼 트윈 (1) / 안치우 1D 시뮬레이션을 위한 카티아 다이몰라 120 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (9) / 나인플러스IT 미래 자동차 설계를 위한 DNS, LES, RANS 시뮬레이션   Mechanical 114 제품 개발 혁신을 가속화하는 크레오 파라메트릭 10.0 (12) / 김주현 사용자 정의 피처의 생성 및 활용   캐드앤그래픽스 2024년 5월호 목차 from 캐드앤그래픽스  
작성일 : 2024-04-30
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
어도비, “AI로 프리미어 프로의 비디오 워크플로 향상시킨다”
어도비가 프리미어 프로(Adobe Premiere Pro)에서 영상 제작 및 제작 워크플로를 재구상할 생성형 AI 혁신을 공개했다. 이는 빠른 속도의 영상 제작을 위해 전문 편집자에게 필요한 새로운 창의적 가능성을 제공한다. 올해 프리미어 프로에 새롭게 도입될 새로운 생성형 AI 툴을 통해 사용자는 장면에서 개체를 추가 또는 제거하거나 기존 클립을 확장하는 등 전체 영상 편집을 간소화할 수 있다. 새로운 편집 워크플로는 이미지, 벡터, 디자인, 텍스트 효과를 포함한 파이어플라이(Firefly) 제품군에 추가될 새로운 비디오 모델에 의해 구동될 예정이다. 어도비는 이미징, 영상, 오디오 및 3D와 같이 어도비가 깊은 전문성을 갖고 있는 영역에서 파이어플라이 AI 모델을 지속적으로 개발하고 있으며, 이 모델들을 크리에이티브 클라우드(Creative Cloud)와 어도비 익스프레스(Adobe Express)에 통합할 예정이다. ‘생성형 확장(Generative Extend)’ 기능은 프레임을 매끄럽게 추가해 클립을 더 길게 만들 수 있어, 보다 쉽게 편집 시간을 맞추고 부드러운 전환을 추가할 수 있다. ‘개체 추가 및 제거(Object Addition & Removal)’ 기능은 간단하게 개체를 선택하고 추적한 후 교체하는 기능이다. ‘텍스트를 영상으로(Text to Video)’ 기능은 간단하게 프롬프트에 텍스트를 입력하거나 참조 이미지를 업로드해, 프리미어 프로에서 새로운 영상(footage)을 생성할 수 있다.    ▲ 프리미어 프로에 추가되는 개체 제거 기능   또한 어도비는 크리에이티브 클라우드의 파트너 및 플러그인 생태계를 바탕으로, 서드파티 생성형 AI 모델을 프리미어 프로와 같은 어도비 애플리케이션에 직접 가져오는 비전도 미리 공개했다. 어도비는 초기 탐색 단계에서 전문 영상 편집자가 향후 프리미어 프로에 통합된 오픈AI(Open AI) 및 런웨이(Runway)의 영상 생성 모델을 활용해 자신의 프로젝트에서 편집 가능한 B-롤을 생성하는 법을 제시했다. 또한 피카 랩스(Pika Labs)와 생성형 확장(Generative Extend) 툴을 함께 사용해 마지막 장면을 몇 초 더 늘리는 방법도 소개했다. 이 밖에도 어도비는 새로운 페이드 핸들(fade handles), 클립 배지(clip badges), 동적 파형(dynamic waveforms), AI 기반 카테고리 태깅(AI-based category tagging) 등 프리미어 프로의 AI 구동 오디오 워크플로를 곧 출시한다고 밝혔다. 여기에는 ▲클립 핸들을 드래그해 오디오 페이드 효과를 만듦으로써 빠른 맞춤형 오디오 전환 생성 ▲AI가 오디오 클립을 자동 태그하고 새로운 아이콘을 추가 ▲새로운 시각적 표시기를 통해 클립에 적용된 효과를 쉽게 확인하고 시퀀스에서 효과 매개 변수를 자동 실행 ▲클립의 트랙 높이 변경에 맞춰 파형 크기의 지능적 조정 ▲원치 않는 노이즈를 즉시 제거하거나 녹음 품질이 낮은 대화를 개선하는 AI 구동 음성 향상 등의 기능이 포함된다. 어도비는 어도비 파이어플라이와 다양한 서드파티 모델로 구동되는 새로운 생성형 AI 역량을 제공함으로써, 고객이 프리미어 프로에서 매일 사용하는 워크플로를 벗어나지 않고도 다양한 신규 역량을 활용할 수 있도록 지원할 것이라고 밝혔다. 어도비는 오는 5월 새로운 생성형 AI 영상 툴과 프리미어 프로의 새로운 오디오 워크플로를 출시할 계획이다. 어도비의 애슐리 스틸(Ashley Still) 크리에이티브 제품 그룹 수석 부사장은 “어도비는 크리에이터의 비전 실현을 위한 새로운 역량과 유연성을 제공하기 위해 영상 제작 및 제작 워크플로의 모든 단계를 재구상하고 있다”면서, “프리미어 프로의 핵심 워크플로에 생성형 AI 혁신을 도입함으로써 영상 편집자가 매일 겪는 실질적인 고충을 해결하는 동시에 자신의 작업에 더 집중할 수 있는 여유를 제공한다”고 전했다.
작성일 : 2024-04-16
델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원
델 테크놀로지스는 자사의 고성능 AI 서버인 ‘델 파워엣지 XE9680(Dell PowerEdge XE9680)’에 ‘인텔 가우디 3(Intel Gaudi 3)’ AI 가속기 지원을 추가한다고 밝혔다. 델은 데이터 집약적이고 복잡한 워크로드를 효과적으로 지원하게끔 설계된 XE9680의 확장된 라인업을 통해 AI 활용을 고려하는 엔터프라이즈 고객들에게 더 넓어진 선택지를 제공하게 됐다고 전했다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써, 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다.     안전성과 확장성에 중점을 두고 설계된 XE9680은 가우디3 가속기를 추가함으로써 보다 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블(Intel Xeon Scalable) 프로세서를 2개를 장착했으며, 고난도의 AI/ML 워크로드에 대한 데이터 처리 및 분석에 최적화되어 있다. 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 대응하기 위한 스펙을 갖췄다. 가우디3는 또한 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결이 가능해 인프라를 단순화하고, 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 또한 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 높인다. 기존 하드웨어 성능을 넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 것도 특징이다. 인텔 가우디 3 AI 가속기를 탑재한 파워엣지 XE9680 서버 모델은 2024년 안에 국내 출시될 계획이다  한국 델 테크놀로지스의 김경진 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”면서, “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고 미래에 필요하게 될 요구 성능에 대비하는 동시에, 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 덧붙였다.
작성일 : 2024-04-15
Qt그룹, 퀄컴과 협력해 산업용 IoT 기기 UI 개발 간소화
애플리케이션 및 기기 인터페이스 개발 플랫폼 업체인 Qt그룹이 산업용 IoT(사물인터넷) 기기의 그래픽 사용자 인터페이스(GUI) 및 소프트웨어 품질 보증 개발을 간소화하기 위해 퀄컴 테크놀로지스와 협력한다고 밝혔다. 이번 협력을 통해 퀄컴의 고성능 프로세서에 Qt그룹의 크로스플랫폼 개발 툴을 포팅할 수 있게 되어, IoT 기기 제조 과정에서 UI 솔루션 개발 및 테스트 방식을 간소화할 수 있게 되었다. 또한, 로봇부터 보안 카메라까지 임베디드 기기를 쉽게 제조할 수 있도록 초소형 컴퓨터 시스템인 SoM(시스템 온 모듈)을 대규모로 쉽고 빠르게 개발할 수 있다. 뿐만 아니라 Qt를 지원하는 퀄컴의 프로세서에 액세스하는 OEM(주문자상표부착생산) 기업은 Qt그룹의 소프트웨어 개발 및 품질 보증 툴을 이용하여 생산 장벽을 낮출 수 있다. IoT 제품 개발 시에 Qt 개발 툴과 프레임워크를 활용하면 고급 3D 그래픽 기능을 디바이스 UI에 적용할 수 있다. “게임 엔진과 같은 다른 프레임워크에는 IoT 디바이스 GUI에 불필요한 기능이 포함되어 있지만, Qt 프레임워크는 IoT 기기에 맞게 기능을 조정하기 때문에 개발자는 훨씬 낮은 하드웨어 요구 사항에서 UI를 설계하고 실행할 수 있다”는 것이 Qt그룹의 설명이다. 제품의 설계, 개발 및 품질 보증을 위한 Qt그룹의 툴은 개발자와 디자이너 간의 긴밀한 협력을 촉진하며, 동일한 프레임워크 내에서 동시에 작업할 수 있도록 지원하여 워크플로를 간소화하는 것을 목표로 한다. 특히 저전력 및 임베디드 디바이스를 위한 크로스 플랫폼 개발에 적합하다. 퀄컴의 만빈더 싱(Manvinder Singh) IoT 전략 및 파트너 솔루션 개발 담당 부사장은 “퀄컴은 제조업체가 칩셋을 사용하여 수직적 시장(vertical market)을 위한 우수한 하드웨어 및 소프트웨어 솔루션을 개발할 수 있는 산업 생태계를 구축하는 것을 중요하게 생각한다”면서, “Qt그룹과의 이번 협력을 통해 창의적인 제품 솔루션을 즉각 개발할 수 있는 준비된 솔루션을 제공할 수 있게 되었다”고 전했다. Qt그룹의 유하페카 니에미(Juhapekka Niemi) 제품 관리 수석 부사장은 “Qt 기술의 장점은 다양한 산업 분야에서 구현된 이력이 있다는 점이다. 이제는 IoT용 하드웨어 및 소프트웨어 벤더에게 필요한 UI/UX 개발 및 QA 툴을 즉시 제공하여, GUI 개발을 간소화하고 제품 출시에 소요되는 시간을 단축할 수 있도록 도울 수 있다”고 말했다.
작성일 : 2024-04-15