• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "애플리케이션"에 대한 통합 검색 내용이 4,201개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오라클, AI로 애플리케이션 개발 속도 높이는 ‘오라클 코드 어시스트’ 발표
오라클은 AI 코딩 동반 툴인 오라클 코드 어시스트(Oracle Code Assist)를 통해 애플리케이션 속도를 높이고 코드 일관성을 개선할 수 있다고 소개했다. 대규모 언어 모델(LLM)을 기반으로 오라클 클라우드 인프라스트럭처(OCI)에서 실행되며 OCI 기반 자바(JAVA), SQL 및 애플리케이션 개발에 최적화된 오라클 코드 어시스트는 개발자에게 기업의 모범 사례 및 코드베이스에 맞춤화해 맥락에 특화된 제안 기능을 제공한다. 오라클 코드 어시스트는 대부분의 모던 프로그래밍 언어로 작성된 코드를 업데이트하고 업그레이드 및 리팩터링(소프트웨어 개발 과정에서 기존 코드를 변경하지 않고 코드의 구조와 디자인을 개선하는 과정)하는 데에도 사용할 수 있도록 설계될 예정이다.     AI 기반 소프트웨어 개발은 소프트웨어의 개념화 및 생성, 테스트, 관리 방식에 혁신을 불러일으켰다. 개발자는 AI 지원 도구를 사용하면 새로운 아이디어를 탐색하고 신규, 업그레이드 또는 리팩터링된 코드를 위한 지능형 제안을 받을 수 있다. 또한 일상적인 작업을 자동화하는 기능 덕분에, AI 도구가 소프트웨어 개발 수명 주기(SDLC)의 모든 단계에서 핵심적인 부분으로 자리잡게 됐다. 오라클은 “오라클 코드 어시스트는 코드 스니펫(snippet), 종속성 분석(dependency analysis), 오류 완화 대안(error mitigation alternatives), 테스트 사례, 주석(annotation), 요약 및 문서화를 제공해 SDLC의 각 단계를 처리하여 이 기술 분야의 주된 사례로 꼽힐 것으로 기대한다”고 전했다.  이와 더불어 젯브레인 인텔리제이 IDEA(JetBrains IntelliJ IDEA), 또는 마이크로소프트 비주얼 스튜디오 코드(Microsoft Visual Studio Code)용 개발 환경 플러그인으로 배포되는 오라클 코드 어시스트는 개발자가 애플리케이션 실행 위치와 상관없이 애플리케이션을 구축, 최적화, 업그레이드하는 데 도움을 주는 전문가 의견을 반영한 피드백을 제공하도록 훈련될 계획이다. 오라클 코드 어시스트는 수년에 걸친 애플리케이션 및 소프트웨어 개발 과정에서 개발된 폭넓은 소프트웨어 저장소를 기반으로 훈련된다. 오라클은 오라클 코드 어시스트가 OCI의 서비스 API, 코딩 패턴 및 자바, SQL, OCI는 물론, 넷스위트(NetSuite)의 스위트스크립트(SuiteScript) 등을 통한 오라클의 자체 소프트웨어 개발 모범 사례를 활용해 미세 조정하여, 배포되는 소프트웨어 및 애플리케이션의 위치와 관계없이 기업 조직에 적합한 서비스를 제공할 수 있을 것으로 기대하고 있다. 오라클 코드 어시스트는 코드 생성(Code Generation), 코드 주석(Code Annotation), 코드 설명 가능성(Code Explainability), 더욱 빨라진 코드 검토(Faster Code Reviews), 테스트 커버리지 생성(Test Coverage Generation) 등의 기능을 통해 애플리케이션 개발 속도를 높일 예정이다. 또한, 오라클 코드 어시스트는 맞춤형 제안(Tailored Suggestions), 코드 생성 컨텍스트(Code Origination Context), 자동 언어 업그레이드(Automated Language Upgrades), 코드 분석(Code Analysis), OCI 최적화 제안(OCI Optimization Suggestions) 등을 통해 개발자가 코드 일관성 및 최적화를 개선하도록 돕는다: 오라클 클라우드 인프라스트럭처의 아난드 크리슈난 제품 관리 부사장은 “커스텀 애플리케이션은 전 세계 모든 기업 조직이 스스로를 차별화하기 위해 사용하는 방식이다. 하지만 애플리케이션의 구축, 배포, 유지 관리에는 노동력과 시간이 많이 든다”면서, “오라클 코드 어시스트를 활용하는 기업들은 개발자가 애플리케이션 속도 및 코드 일관성을 개선하여 애플리케이션을 안전하고 강력하며, 규정을 준수하는 방식으로 장기간 유지 관리할 수 있도록 지원할 수 있다”고 설명했다.
작성일 : 2024-05-13
매스웍스, 의료 소프트웨어 개발 가속화 위한 엔비디아 홀로스캔 통합 기능 출시
매스웍스는 의료 기기 구축을 위한 엔비디아의 실시간 AI 컴퓨팅 소프트웨어 플랫폼인 엔비디아 홀로스캔(NVIDIA Holoscan)에서 매트랩(MATLAB)을 사용할 수 있는 통합 기능을 발표했다. 의료기기 엔지니어는 실시간 데이터 처리와 추론을 위해 기존의 매트랩 알고리즘과 함수를 GPU 가속 엔비디아 홀로스캔 오퍼레이터(Holoscan Operator)로 래핑하여, 스트리밍 데이터를 분석하고 시각화 애플리케이션의 개발 및 배포를 가속화할 수 있다. 의료기기 엔지니어는 최첨단 소재와 전자기기 활용 기술의 속도감 있는 혁신과 더불어 복잡하게 변화하는 국제 규제를 준수해야 한다. 이로 인해 많은 기기가 시장에 출시된 지 얼마 지나지 않아 구형이 되었고, ‘소프트웨어 의료기기(SaMD)’의 등장을 촉진시켰다. 소프트웨어 의료 기기는 하드웨어에 종속되지 않고 의료 기기의 사용 목적에 부합하는 기능을 가지며 독립적인 형태의 소프트웨어만으로 이뤄진 의료 기기를 말한다. 엔지니어는 소프트웨어 의료기기가 시장에서 지속적인 경쟁력을 유지할 수 있도록 소프트웨어 정의 워크플로를 개발하여 초기 배포 이후의 추가 소프트웨어 기능을 통합할 수 있게 해야 한다. 엔비디아 홀로스캔은 센서 처리 플랫폼으로, 실시간 인사이트를 제공하는 AI 및 고성능 컴퓨팅 애플리케이션의 개발 및 배포를 간소화한다. 또한 에지에서 스트리밍 데이터의 확장 가능한 소프트웨어 정의 처리에 필요한 풀 스택 인프라를 제공해 최신 AI 애플리케이션을 임상 환경에 도입할 수 있도록 지원한다. 의료기기 엔지니어는 홀로스캔과 매트랩의 통합 기능을 통해 영상 및 신호 처리, 필터링, 변환, 딥러닝 알고리즘과 관련된 기존의 내장된 행렬 연산과 복잡한 툴박스 함수를 사용할 수 있다. 매트랩으로 홀로스캔 파이프라인을 구현하려면 매트랩 함수 생성, GPU 코더(GPU Coder)를 통한 가속화된 CUDA 코드 생성, 홀로스캔 오퍼레이터 래퍼 생성 및 새로운 매트랩 오퍼레이터(MATLAB Operator)를 사용한 홀로스캔 애플리케이션 재구축의 4 단계를 거쳐야 한다. 이러한 과정으로 구축된 소프트웨어 정의 워크플로는 매트랩과 홀로스캔의 추가적인 통합 검증 및 확인 기능을 통해 IEC 62304 등의 산업 규정 및 표준을 준수하도록 할 수 있다.     엔비디아의 데이비드 뉴올니(David Niewolny) 의료 기술 부문 사업 개발 책임자는 “의료 기술 산업은 인공지능에 의해 혁신을 거듭하고 있다”며, “엔비디아와 매스웍스는 의료 등급의 엔비디아 홀로스캔 플랫폼 내에서 성장 중인 매트랩 개발 커뮤니티에 호환성 높은 개발 환경을 제공함으로써 의료 기술 분야의 AI 기반 혁신을 가속화하고 있다”고 말했다. 매스웍스의 데이비드 리치(David Rich) 제품 마케팅 부서장은 “이제 엔지니어들은 엔비디아 홀로스캔을 통해 매트랩 함수를 작성하고 수천 배 더 빨리 실행할 수 있다”며, “수백만 명의 고객이 산업 규정과 표준을 준수하는 제품을 설계, 개발 및 테스트하고자 하는 가운데, 업계 리더인 엔비디아와의 협업으로 의료 기기 혁신을 주도할 수 있게 됐다”고 말했다.
작성일 : 2024-05-09
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional Services)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08
몽고DB, 생성형 AI로 최신 애플리케이션 구축 지원
몽고DB가 기업이 생성형 AI로 신속하게 최신 애플리케이션을 구축 및 배포하도록 지원하는 ‘몽고DB AI 애플리케이션 프로그램(MongoDB AI Applications Program : MAAP)’을 발표했다. 새롭게 선보인 MAAP은 기업 고객을 위한 몽고DB 및 파트너사의 전략적 자문과 전문 서비스를 비롯해 통합된 엔드투엔드 기술 스택을 제공한다. MAAP에는 컨설팅 및 파운데이션 모델(FM), 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공기업 등이 초기 파트너로 참여해 몽고DB와 함께 고객이 고도화된 AI 기반 애플리케이션으로 비즈니스의 어려움을 해결하도록 지원할 방침이다. 이를 위해 MAAP은 생성형 AI를 빠르고 효율적으로 애플리케이션에 도입하길 원하는 기업을 위해 필요한 기술 스택과 전문성을 제공하는 원스톱 솔루션으로 설계됐다. 모든 기업은 생성형 AI가 주도한 혁신 속에서 경쟁 우위를 점하고 고객의 높아진 기대치를 뛰어넘기 위해 애플리케이션 현대화를 추진하고 있다. 전 산업군의 기업이 새로운 기술 변화의 이점을 누리기 위해 나서고 있지만, 새로운 종류의 애플리케이션을 안전하고 안정적으로 구축, 배포 및 확장하는 데 필요한 데이터 전략과 기술을 갖추지 못한 경우가 많다. 이들 중 상당수는 확장이 불가능한 레거시 기술로 인해 비효율적인 데이터 작업 방식을 고수하고 있으며, 일부는 불필요한 복잡성과 비용을 야기하는 단일 목적의 볼트온(bolt-on) 솔루션을 사용하고 있다. 이러한 경우, 기업은 기존의 기술과 애드온(add-on) 솔루션으로 인해 장기적인 성공보다는 PoC(Proof of Concept) 수준의 단기적인 결과에 머물게 된다. 몽고DB가 새롭게 선보인 MAAP은 기업이 가진 비즈니스 문제를 파악하고 역추적하며, 솔루션을 신속하게 구축 및 반복해 혁신적인 생성형 AI 애플리케이션 생산에 최적화된 전략적 프레임워크와 전문 서비스, 기술 로드맵을 제공한다. 몽고DB는 통합 개발자 데이터 플랫폼에서 기업이 생성형 AI 애플리케이션을 배포할 수 있는 기술을 MAAP에 접목했으며, 이와 함께 컨설팅 및 FM, 클라우드 인프라, 생성형 AI 프레임워크 및 모델 호스팅 제공 기업과의 파트너십을 기반으로 엔드 투 엔드 솔루션을 제공한다. 대표적으로 앤스로픽(Anthropic), 애니스케일(Anyscale), 아마존웹서비스(AWS), 코히어(Cohere), 크레달.ai(Credal.ai), 파이어웍스.ai(Fireworks.ai), 구글 클라우드(Google Cloud), 그래비티나인(gravity9), 랭체인(LangChain), 라마인덱스(LlamaIndex), 마이크로소프트 애저(Microsoft Azure), 노믹(Nomic), 피어아일랜드(PeerIslands), 퓨어인사이트(Pureinsights), 투게더 AI(Together AI) 등 기업이 MAAP의 초기 파트너사로 참여해 고객에게 필요한 기술, 풀 서비스 및 전문가 지원을 제공한다. MAAP은 기업에 대한 고도로 맞춤화된 분석에 기반한다. 먼저 몽고DB 프로페셔널 서비스(MongoDB Professional Services)는 조직의 현재 기술 스택을 평가하고 고객과 협력해 해결해야 할 비즈니스 문제를 파악한다. 이어 컨설팅 파트너와 함께 전략적 로드맵을 개발하고 프로토타입을 신속하게 마련해 결과물이 고객의 기대에 부합하는지 검증하며, 이를 실제 운영 환경에서 사용할 수 있도록 완전하게 구축된 애플리케이션을 최적화한다. 고객은 필요에 따라 새로운 생성형 AI 기능을 개발하기 위한 몽고DB 프로페셔널 서비스를 계속 지원받을 수 있다. 기업은 조직 전반과 고객을 위한 애플리케이션에 배포된 새로운 기술이 예상대로 작동하며 민감한 데이터를 노출하지 않는다는 확신을 가질 수 있어야 한다. MAAP의 파트너사는 안전성과 신뢰성, 유용성을 보장하도록 설계된 FM을 제공한다. 기업은 FM을 강력한 거버넌스 제어와 자체 데이터를 사용하는 검색 증강 생성(RAG) 등의 기술과 결합함으로써 FM이 제공하는 데이터를 정확히 제어하고 정확도 개선에 필요한 컨텍스트를 제공하며 환각현상(hallucination)을 줄일 수 있다. 또한 기업은 MAAP 파트너를 통해 도메인별 사용 사례에 최적화된 미세 조정 및 추론 서비스도 사용하며, 앤스로픽, 코히어, 메타(Meta), 미스트랄(Mistral), 오픈AI(OpenAI) 등 모델을 기반으로 빠른 AI 모델 응답 시간을 확보할 수 있다. 이처럼 MAAP은 사용 사례에 필요한 생성형 AI 참조 아키텍처, 통합 기술, 규정 등 실무 중심의 전문 서비스를 제공해 의도대로 작동하는 안전한 고성능 애플리케이션을 구축할 수 있다. MAAP은 생성형 AI를 대규모로 도입할 준비가 되지 않은 기업에게 안전한 비공개 샌드박스 환경에서 진행되는 맞춤형 프로토타입 세션을 제공한다. 예를 들어 전략, 운영, IT, 소프트웨어 개발 등 조직의 여러 부서가 전문가 세션에 참여해 다양한 의견을 모으고, 생성형 AI를 통해 해결할 수 있는 내부 비즈니스 과제를 파악하는 데 맞춤형 MAAP을 활용할 수 있다. 나아가 몽고DB 프로페셔널 서비스가 주도하는 해커톤을 통해 솔루션을 공동 구축하고 내부 사용 사례에 대한 효과를 테스트한다. 즉, MAAP은 생성형 AI가 특정 비즈니스 문제를 해결하는 실질적인 솔루션을 신속하게 구축하는 데 필요한 교육, 리소스 및 기술을 제공한다. 몽고DB의 앨런 차브라(Alan Chhabra) 월드와이드 파트너 부문 수석부사장은 “기민함이 필요한 스타트업부터 탄탄한 입지를 구축한 글로벌 기업까지 몽고DB의 다양한 고객이 생성형 AI에 많은 관심을 보이고 있다. 이들은 몽고DB의 최신 기술과 포괄적인 서비스를 활용해 혁신적인 아이디어를 실제 애플리케이션으로 전환하고 있으나 일부 기업은 여전히 비즈니스 문제 해결을 위해 생성형 AI를 통합할 최상의 방법을 고민하고 있다”고 전했다. 또한, “MAAP은 강력한 개발자 데이터 플랫폼인 몽고DB 아틀라스(MongoDB Atlas)와 몽고DB가 보유한 전문성 및 서비스, 그리고 생성형 AI 업계 리더들과의 전략적 파트너십을 통해 규모를 막론하고 모든 기업이 생성형 AI를 자신 있게 도입하고 구현할 수 있는 포괄적인 로드맵을 제공한다. 몽고DB와 파트너는 MAAP을 통해 고객의 생산성을 높이고 고객과의 상호 작용을 혁신하며 업계 발전을 주도하는 데 생성형 AI를 활용할 수 있도록 지원한다”고 말했다.
작성일 : 2024-05-07
스트라타시스, 고해상도 프린팅이 가능한 산업용 3D 프린터 H350 v1.5 출시
스트라타시스가 나일론(PA) 계열 및 PP 파우더 재료 기반 자사의 선택적흡수융합(SAF : Selective Absorption Fusion) 기술을 고도화해 한층 업그레이드한 고해상도 3D 프린터 ‘H350 버전 1.5 (H350 V1.5)’를 출시했다. 스트라타시스는 이번 업그레이드로 보다 폭넓은 산업 공정에서 한층 정밀해진 3D 프린팅을 적층제조(additive manufacturing)에 도입할 수 있을 것으로 기대하고 있다. H350 V1.5는 센서와 원격 서비스 기능이 개선되어 프린터 작동과 관리가 간편해졌다. 기존의 H350 모델도 펌웨어 업데이트를 통해 SAF 기술이 적용된 고해상도 프린팅을 구현할 수 있다. SAF 기술 고도화로 추가된 고해상도 기능은 더욱 정교한 프린팅을 지원한다. 이를 통해 제조기업은 3D 프린팅 공정을 안정적으로 반복해 적층제조를 빠르게 확장하고, 복잡한 부품의 제작과 설계까지 제작 역량을 확장할 수 있다. 항공우주, 자동차, 의료 등의 산업 분야의 기업은 SAF 열 제어를 활용해 기어 및 메커니즘과 같이 부드럽고 정밀한 기능이 필요한 애플리케이션을 제작할 수 있다.      스트라타시스의 아담 엘리스(Adam Ellis) 기업 애플리케이션 매니저는 “고해상도 프린팅을 통해 더 강한 내구성, 이동식 조립 공정 및 새로운 범위의 애플리케이션을 고객에게 제공할 수 있게 됐다”면서, “이번 기술 출시로 고객의 생산 역량을 확장 및 개선하고 제조 분야에서 3D 프린팅 도입을 확대하는 데 도움이 될 것”이라고 말했다. 스트라타시스의 토벤 랑가(Torben Lange) SAF 연구 개발 담당 부사장은 “추가 기능이 업그레이드된 H350은 고객이 원하는 성능에 부합하는 제품으로, 특히 적층제조 및 SAF 기술의 이점을 극대화할 수 있도록 지원한다”면서, “새로운 애플리케이션과 사용 사례를 통해 제조업체는 속도나 품질 저하 없이 보다 복잡한 부품을 생산할 수 있게 될 것”이라고 말했다.
작성일 : 2024-05-07
IBM, 국내서도 AWS 마켓플레이스 소프트웨어 포트폴리오 확대
IBM은 한국을 포함한 전 세계 92개국에서 아마존웹서비스(AWS) 마켓플레이스를 통해 공급하는 자사 소프트웨어 포트폴리오를 확대한다고 발표했다. AWS 마켓플레이스는 AWS에서 가동되는 소프트웨어를 쉽게 찾고, 테스트, 구매, 배포할 수 있도록 독립 소프트웨어 벤더(ISV)의 수천 개 소프트웨어 목록을 제공하는 디지털 카탈로그다. 이미 IBM 소프트웨어가 제공되는 덴마크, 프랑스, 독일, 영국, 미국을 시작으로 서비스 국가가 확대되면서, 고객은 보다 간단한 구매 절차를 통해 AWS 약정 비용을 IBM 소프트웨어 구매에 사용해 효율을 높일 수 있다. 글로벌 시장조사기업 카날리스(Canalys)의 연구에 따르면 클라우드 마켓플레이스들은 지난 5년간 연평균 84% 성장률을 기록하며 450억 달러 규모로 성장할 것으로 예상돼 서비스형 소프트웨어(SaaS) 시장에서 가장 빠르게 발전하는 시장으로 부상했다. 마켓플레이스는 구매 주기 단축, 결제 통합, 소프트웨어 배포의 신속한 확장에 도움이 된다. 이번 발표를 통해 고객은 AWS 마켓플레이스에서 44개의 제품 라인업과 29개의 SaaS 제품 등 IBM의 인공지능(AI) 및 데이터 기술을 더 많이 이용할 수 있게 된다. 여기에는 기업이 AI 프로젝트를 구축, 확장 및 관리할 수 있도록 지원하는 왓슨x의 구성 요소가 포함되어 있다. 개방형 데이터 레이크하우스 구조에 구축된 맞춤형 데이터 저장소인 왓슨x.데이터와 AI 개발자를 위한 차세대 기업용 플랫폼인 왓슨x.ai를 이용할 수 있으며, IBM의 AI 어시스턴트인 왓슨x.어시스턴트와 왓슨x. 오케스트레이트도 이용할 수 있다. 왓슨x.거버넌스는 곧 출시될 예정이다. 다른 소프트웨어로는 IBM의 대표 데이터베이스인 데이터용 Db2 클라우드 팩과 앱티오(Apptio), 터보노믹(Turbonomic), 인스타나(Instana)를 포함한 자동화 소프트웨어 포트폴리오, IBM 보안 및 지속 가능성 소프트웨어 포트폴리오가 있다. 모두 AWS 기반의 레드햇 오픈시프트 서비스를 기반으로 구축되었다. 고객은 클라우드 중심 소프트웨어(cloud-native)를 통해 AWS에 소프트웨어를 배포할 수 있으며, SaaS 및 구독을 포함한 유연한 라이선싱을 통해 고객이 원하는 방식으로 쉽게 구매할 수 있다. 또한, IBM은 AWS 마켓플레이스에서 AWS 전용으로 설계된 15개의 새로운 IBM 컨설팅 전문 서비스 및 자산을 출시한다. 고객의 요구와 수요에 맞춰 데이터 및 애플리케이션 현대화, 보안 서비스, 맞춤형 산업별 솔루션에 중점을 두고 있으며, 일부 서비스에는 생성형 AI 기능이 포함된다. 또한 IBM 컨설팅은 2만 4000개의 AWS 인증과 최신 AWS 기술 전문가로 구성된 전담 팀을 통해 업계 모범 사례에 기반한 맞춤형 추천으로 고객을 지원할 예정이다. AWS의 매트 얀치신(Matt Yanchyshyn) AWS 마켓플레이스 및 파트너 서비스 총괄 매니저는 “IBM의 글로벌 확장은 양사의 전 세계 고객들에게 혁신의 기회를 열어줄 것”이라면서, “이제 고객들은 AWS 마켓플레이스의 속도와 간소화된 절차를 활용해 IBM의 최첨단 솔루션에 보다 쉽게 접근함으로써 디지털 혁신을 가속화하고 대규모 혁신을 추진할 수 있다. AWS와 IBM의 이번 협력 확대는 오늘날의 급변하는 환경에서 고객이 성공하는 데 필요한 도구와 리소스를 제공하려는 양사 공동의 노력이 반영된 것”이라고 말했다. IBM의 닉 오토(Nick Otto) 글로벌 전략적 파트너십 총괄은 “AWS 마켓플레이스에서 IBM 소프트웨어 포트폴리오의 가용성을 확대해 전 세계 기업들이 비즈니스 발전에 도움이 되는 다양한 IBM AI 및 하이브리드 클라우드 제품을 보다 간소화된 방식으로 활용할 수 있게 될 것”이라며, “AWS와의 협력은 고객의 요구를 충족하기 위해 다른 기업과 협력하여 고객이 IBM과 최대한 쉽게 비즈니스를 진행하고 혁신을 가속화하는 방법을 보여주는 대표적인 예”라고 말했다.
작성일 : 2024-05-03
아비바, 산업 인텔리전스 플랫폼 ‘커넥트’ 출시
아비바가 산업 인텔리전스 플랫폼인 ‘커넥트(CONNECT)’를 공개했다. 기존에 ‘아비바 커넥트’에서 ‘커넥트’로 변경된 이 플랫폼은 슈나이더 일렉트릭, RIB, ETAP 및 광범위한 파트너 공급업체의 애플리케이션의 연동을 지원하여 고객이 운영하고 있는 산업 생태계 전반의 인사이트를 통합하고, 지능형 디지털 트윈을 구축할 수 있도록 돕는다. 이를 통해 고객은 각 분야의 의사결정권자가 신뢰할 수 있고 실행 가능한 인사이트를 기반으로 성과를 높이고 효율성을 최적화하는 동시에 지속가능성을 극대화하여 ROI를 높일 수 있다. 새롭게 출시된 커넥트는 전체 산업 라이프사이클을 실시간으로 아우르는 개방적이고 중립적인 디지털 플랫폼으로, 기본 데이터 서비스, 시각화 서비스, 모델링 및 분석 기능, 애플리케이션 개발 서비스와 더불어 서비스 및 사용 관리 기능을 제공한다. 데이터, 디지털 트윈, 산업 인공지능, 심층적인 도메인 전문 지식을 단일 환경 내에 통합하며, 마이크로소프트 애저(Microsoft Azure) 클라우드 기반으로 고객이 역량을 손쉽게 확장하고 향상된의 지속가능성을 경험할 수 있도록 지원한다. 커넥트는 원격 자산, 아비바의 애플리케이션, 타사 데이터 소스를 하나의 안전한 단일 플랫폼으로 결합하여 산업 기업이 클라우드에 대한 기술 투자를 최대한 활용할 수 있도록 지원함으로써 고유한 산업 생태계를 구축할 수 있도록 한다. 아비바에 따르면 현재 전 세계에서 수만 명의 월간 액티브 유저가 커넥트를 사용하고 있다. 커넥트에서 지원되는 주요 제품으로는 아비바 파이(AVEVA PI) 시스템, AVEVA Operations Control(운영 제어), AVEVA Unified Engineering(통합 엔지니어링), AVEVA Advanced Analytics(고급 분석), AVEVA Asset Information Managament(자산 정보 관리), RIB CostX 등이 있다.     한편, 아비바는 새로운 산업 애플리케이션 시장의 기반을 형성하기 위해 커넥트 중심의 다양한 파트너십을 확대하고 있다고 전했다. 예를 들어, 아비바와 마이크로소프트는 아비바의 산업 인텔리전스 플랫폼인 커넥트와 마이크로소프트의 제조업 클라우드(Microsoft Cloud for Manufacturing)를 사용하여 생산 실행 데이터와 공급망 생산 계획 데이터를 마이크로소프트 패브릭(Microsoft Fabric)에서 통합하고 컨텍스트화한다. 아비바의 캐스퍼 허즈버그(Caspar Herzberg) CEO는 “연결된 산업 경제 전략은 생태계 전반에서 글로벌 협업의 이점을 실현한다. 업계를 선도하는 산업 인텔리전스 플랫폼인 커넥트를 통해 산업 조직에서는 가치 사슬에 대한 총체적인 이해를 바탕으로 모든 단계에서 실시간 혁신을 촉진할 수 있다. 분석과 AI로 강화된 고유의 강력한 데이터 에코시스템은 마찰이 발생하지 않는 단일 환경에서 탁월한 효율성을 제공하여, 더 스마트하게 엔지니어링하고, 더 효율적으로 운영하며, 수익성을 높일 수 있도록 지원한다”고 말했다. 또한 “커넥트는 산업 디지털 트랜스포메이션의 다음 물결(Industrial DX 2.0)을 가속한다. 클라우드에서 서비스되는 AI 기반 플랫폼이 산업 정보를 공유하고 통합하여 기업, 파트너 및 고객의 효율성, 생산성 및 지속 가능성을 향상시킨다. 워크플로 간소화부터 실시간 모니터링 및 제어, 원격 협업 개선, 산업 자산의 엔드 투 엔드 수명 주기 성능 극대화에 이르기까지 업계의 디지털 트랜스포메이션 요구 사항을 해결한다”고 덧붙였다.
작성일 : 2024-05-03
오픈AI CLIP 모델의 이해/코드 분석/개발/사용
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 생성형 AI의 멀티모달 딥러닝 기술 확산의 계기가 된 오픈AI(OpenAI)의 CLIP(Contrastive Language-Image Pre-Training, 2021) 코드 개발 과정을 분석하고, 사용하는 방법을 정리한다.    ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast CLIP은 구글이 개발한 자연어 번역 목적의 트랜스포머 모델, 비전 데이터 변환에 사용되는 VAE(Variational Autoencoder) 개념을 사용하여 멀티모달 학습 방식을 구현하였다. 이번 호에서는 그 과정을 설명하고 파이토치로 직접 구현하는 과정을 보여준다. CLIP을 이용하면 유튜브, 넷플릭스와 같은 영상에서 자연어로 질의해 해당 장면을 효과적으로 검색할 수 있다. 참고로, CLIP에서는 트랜스포머가 핵심 컴포넌트로 사용되었다. CLIP과 같이 트랜스포머가 자연어 번역 이외에 멀티모달의 핵심 기술이 된 이유는 비정형 데이터를 연산 가능한 차원으로 수치화할 수 있는 임베딩 기술의 발전과 트랜스포머의 Key, Query, Value 입력을 통한 여러 학습 데이터 조합이 가능한 특징이 크게 작용했다.    그림 1. 멀티모달 시작을 알린 오픈AI의 CLIP 모델(Learning Transferable Visual Models From Natural Language Supervision, 2021)   트랜스포머와 VAE를 이용한 멀티모달 CLIP 네트워크를 좀 더 깊게 파헤쳐 보도록 한다. 앞서 설명된 트랜스포머, 임베딩과 관련된 개념에 익숙하다면, CLIP을 이해하고 구현하는 것이 그리 어렵지는 않을 것이다.    CLIP에 대한 이해 오픈AI에서 개발한 CLIP 모델은 공유 임베딩 공간 내에서 이미지 및 텍스트 형식을 통합하는 것을 목표로 했다. 이 개념은 기술과 함께 이미지와 텍스트를 넘어 다른 양식을 수용한다.(멀티모달) 예를 들어, 유튜브 등 비디오 애플리케이션 내에서 텍스트 검색 성능을 개선하기 위해 공통 임베딩 공간에서 비디오 및 텍스트 형식을 결합하여 모델을 학습시켰다. 사실, 임베딩 텐서를 잠재 공간(Latent Space)으로 이기종 데이터를 변환, 계산, 역변환할 수 있다는 아이디어는 VAE 기술, 구글의 트랜스포머 논문(2017)을 통해 개발자들 사이에 암시되어 있었다. 이를 실제로 시도해본 연구가 CLIP이다.  참고로, CLAP(Contrastive Language-Audio Pretraining)은 동일한 임베딩 공간 내에서 텍스트와 오디오 형식을 통합하는 또 다른 모델로, 오디오 애플리케이션 내에서 검색 기능을 개선하는 데 유용하다. CLIP은 다음과 같은 응용에 유용하다. 이미지 분류 및 검색 : CLIP은 이미지를 자연어 설명과 연결하여 이미지 분류 작업에 사용할 수 있다. 사용자가 텍스트 쿼리를 사용하여 이미지를 검색할 수 있는 보다 다양하고 유연한 이미지 검색 시스템을 허용한다. 콘텐츠 조정 : CLIP은 부적절하거나 유해한 콘텐츠를 식별하고 필터링하기 위해 이미지와 함께 제공되는 텍스트를 분석하여, 온라인 플랫폼의 콘텐츠를 조정하는 데 사용할 수 있다. 참고로, 메타 AI(Meta AI)는 최근 이미지, 텍스트, 오디오, 깊이, 열, IMU 데이터 등 6가지 양식에 걸쳐 공동 임베딩을 학습하는 이미지바인드(ImageBind)를 출시했다. 두 가지 모달리티를 수용하는 최초의 대규모 AI 모델인 CLIP은 이미지바인드 및 기타 다중 모달리티 AI 시스템을 이해하기 위한 전제 조건이다. CLIP은 배치 내에서 어떤 N×N(이미지, 텍스트) 쌍이 실제 일치하는지 예측하도록 설계되었다. CLIP은 이미지 인코더와 텍스트 인코더의 공동 학습을 통해 멀티모달 임베딩 공간을 만든다. CLIP 손실은 트랜스포머의 어텐션 모델을 사용하여, 학습 데이터 배치에서 N개 쌍에 대한 이미지와 텍스트 임베딩 간의 코사인 유사성을 최대화하는 것을 목표로 한다.  다음은 이를 설명하는 의사코드이다. 1. img_en = image_encoder(I)   # [n, d_i] 이미지 임베딩 인코딩을 통한 특징 추출  2. txtxt_emdn = textxt_emdncoder(T)    # [n, d_t] 텍스트 임베딩 인코딩을 통한 특징 추출 3. img_emd = l2_normalize(np.dot(img_en, W_i), axis=1)    # I×W 결합(조인트) 멀티모달 임베딩 텐서 계산 4. txt_emd = l2_normalize(np.dot(txtxt_emdn, W_t), axis=1)  # T×W 결합(조인트) 멀티모달 임베딩 텐서 계산 5. logits = np.dot(img_emd, txt_emd.T) * np.exp(t)   # I×T * E^t 함수를 이용한 [n, n]코사인 유사도 계산 6. labels = np.arange(n) 7. loss_i = cross_entropy_loss(logits, labels, axis=0)  # 이미지 참값 logits과 예측된 label간 손실 8. loss_t = cross_entropy_loss(logits, labels, axis=1)  # 텍스트 참값 logits과 예측된 label간 손실 9. loss = (loss_i + loss_t)/2   # 이미지, 텍스트 손실 평균값   실제 오픈AI 논문에는 <그림 2>와 같이 기술되어 있다.(동일하다.)   그림 2     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-05-02
RTX A400/A1000 : AI 기반 워크플로 강화하는 전문가용 GPU
개발 및 공급 : 엔비디아 주요 특징 : AI 처리를 위한 3세대 텐서 코어 및 레이 트레이싱을 위한 2세대 RT 코어 탑재, 암페어 아키텍처 기반의 CUDA 코어 탑재해 그래픽/컴퓨팅 처리속도 향상, 전문가 작업의 데이터를 처리속도 향상 위한 메모리 대역폭 증가, 효율적인 비디오 처리를 위한 인코딩/디코딩 엔진 탑재 등   엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   향상된 성능으로 창의성 및 효율 향상 지원 RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다. 엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다.   ▲ 엔비디아 RTX A1000   차세대 기능을 통한 성능 강화 A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W이며, 콤팩트하고 에너지 효율적인 워크스테이션을 위해 향상된 기능을 제공한다.  2세대 RT 코어 : 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어 : 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다.  암페어 아키텍처 기반 쿠다 코어 : 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. 4GB/8GB 메모리 : A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 인코딩/디코딩 엔진 : 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다.   RTX 솔루션의 활용 범위 확대 엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
라이젠 프로 8040/8000 시리즈 : AI로 생산성 높이는 기업용 PC 프로세서
개발 및 공급 : AMD 주요 특징 : 4nm 젠 4 아키텍처 기반으로 성능 및 전력 효율 향상, 와이파이 7 기술 지원, 일부 모델에 NPU 기반 AI 엔진 탑재 등     AMD는 비즈니스 환경에서 높은 생산성과 프리미엄급 AI 및 연결 경험을 제공하는 새로운 기업용 모바일 및 데스크톱 AI PC 프로세서를 공개했다. 새로운 AMD 라이젠 프로 8040(Ryzen PRO 8040) 시리즈는 기업용 노트북과 모바일 워크스테이션을 위해 개발된 x86 프로세서이다. AMD는 비즈니스 사용자를 위한 AI 지원 데스크톱 프로세서인 AMD 라이젠 프로 8000 시리즈 데스크톱 프로세서도 출시했다. 이 제품은 낮은 전력 소모로 첨단 성능을 제공하도록 설계되었다. AMD는 이번에 새롭게 공개된 일부 모델에 AMD 라이젠 AI(AMD Ryzen AI)를 탑재했다. 새로운 라이젠 AI 기반 프로세서는 CPU, GPU 및 전용 온칩 NPU(Neural Processing Unit)를 탑재한다. 전용 NPU의 경우 최대 16 TOPS의 연산 성능을 제공하며, 전체 시스템은 최대 39 TOPS로 이전 세대보다 향상된 전용 AI 프로세싱 성능을 제공한다. 새로운 라이젠 AI 지원 프로세서를 장착한 기업용 PC는 AI 기반 협업과 콘텐츠 제작, 데이터 및 분석 워크로드에서 더 높은 성능과 향상된 사용자 경험을 제공한다. 또한, AMD 프로 기술이 추가됨에 따라 IT 관리자들은 IT 운영을 간소화하고, 조직 전반에 걸쳐 보다 신속하게 PC를 구축할 수 있는 엔터프라이즈급 관리 기능을 사용할 수 있다. AMD는 정교한 공격으로부터 프로세서와 클라우드를 방어할 수 있는 통합 보안 기능 및 안정성과 신뢰성 및 플랫폼 수명을 갖춘 엔터프라이즈 소프트웨어 등의 이점을 제공한다고 전했다. 새로운 라이젠 프로 8040 시리즈 모바일 프로세서는 2024년 2분기부터 HP와 레노버를 포함한 OEM 파트너사를 통해 공급될 예정이며, 라이젠 프로 8000 시리즈 데스크톱 프로세서는 2024년 2분기부터 OEM 파트너사인 HP와 레노버, 일부 채널 파트너 플랫폼을 통해 공급될 예정이다.   라이젠 프로 8040 시리즈      전문가용 노트북 및 모바일 워크스테이션을 위한 AMD 라이젠 프로 8040 시리즈 모바일 프로세서는 집약적인 비즈니스 및 AI 워크로드에 최적화된 효율과 프로세싱 성능을 제공한다. 이 프로세서는 까다로운 모바일 워크스테이션 애플리케이션에서 최대 30% 향상된 성능을 제공하는 4nm의 ‘젠 4(Zen 4)’ 아키텍처를 기반으로 하며, 최대 8개의 고성능 코어를 탑재한다. 일부 모델에는 AMD 라이젠 AI를 탑재하고 AMD RDNA 3 그래픽을 통합했는데, AMD는 “경쟁사 프로세서 대비 화상회의 시 84% 더 적은 전력으로 최대 72% 더 높은 성능을 제공한다”고 설명했다. 또한, 라이젠 프로 8040 시리즈 프로세서 기반 PC는 와이파이 7(WiFi-7) 기술도 활용할 수 있다. 시리즈 중 최상위 제품인 AMD 라이젠 9 프로 8945HS는 8개의 코어와 16개의 스레드, 24MB 캐시 및 라데온(Radeon) 780M 그래픽을 탑재하고 있다. 이 프로세서는 테크니컬 컴퓨팅, 멀티미디어 콘텐츠 제작, 개별 그래픽 등 리소스 집약적 애플리케이션에 필요한 연산 성능을 제공하며, 3D 렌더링, 비디오 인코딩 및 사진 편집 등과 같은 까다로운 그래픽 관련 워크로드를 처리한다. 이번에 발표된 라이젠 프로 8040 시리즈는 6 코어 12 스레드의 라이젠 5 프로 8540U부터 8 코어 16 스레드의 라이젠 9 프로 8945HS까지 8종이다. 이 중 8540U를 제외한 7개 제품에서 라이젠 AI를 지원한다.   라이젠 프로 8000 시리즈     기업용 데스크톱을 위한 AMD 라이젠 프로 8000 시리즈 프로세서는 4nm 공정 기술을 기반으로 최대 8개의 고성능 젠 4 코어를 탑재했으며, 일부 모델은 전용 AI 엔진을 탑재하여 향상된 전력 및 효율과 몰입형 AI 경험을 제공한다.  AMD 라이젠 프로 8000 시리즈 프로세서를 장착한 데스크톱은 주요 비즈니스 애플리케이션 및 데이터에 대한 보다 빠른 액세스와 초고속 데이터 전송, 원활한 워크플로를 위해 최신 DDR5 및 PCIe 4를 지원하며, 일부 모델은 와이파이 7 기반의 차세대 연결성도 제공한다. 라인업 중 최상위 제품인 AMD 라이젠 8700G 프로세서는 고성능 8 코어 16 스레드, 24MB 캐시 및 통합 AMD 라데온 780M 그래픽을 탑재한다. AMD 라이젠 8700G는 AMD의 성능 테스트에서 경쟁 제품 대비 더 적은 전력을 소모하면서도 최대 19% 향상된 성능을 제공하는 것으로 나타났다. AMD는 “AMD 라이젠 7 프로 8799G 프로세서를 탑재한 기업용 데스크톱은 특정 테스트를 기준으로 경쟁사 프로세서에 비해 최대 47% 향상된 시스템 성능과 3배 향상된 그래픽 성능을 제공한다”고 전했다. 이번에 발표된 라이젠 프로 8000 시리즈는 4 코어 8 스레드의 라이젠 3 프로 8300GE부터 8 코어 16 스레드의 라이젠 7 프로 8700G까지 8종이며, 라이젠 5 프로 8600G 및 8600GE, 라이젠 7 프로 8700G 및 8700GE 등 네 종이 라이젠 AI를 지원한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02