• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "네트워크"에 대한 통합 검색 내용이 3,337개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오라클-구글 클라우드, 멀티 클라우드의 배포/관리/마이그레이션 강화하는 파트너십 발표
오라클은 구글 클라우드와 멀티 클라우드 분야의 협력을 강화한다고 발표했다. 이제 양사의 고객은 오라클 클라우드 인프라스트럭처(OCI)와 구글 클라우드 기술을 결합하여 애플리케이션 마이그레이션 및 현대화를 가속화할 수 있게 됐다. 구글 클라우드의 크로스 클라우드 인터커넥트(Cross-Cloud Interconnect)는 전 세계 11개 리전에서 지원될 예정이며, 양사의 고객은 이 서비스를 활용하여 클라우드 간 데이터 전송 비용 없이 범용 워크로드를 배포할 수 있다. 또한, 올해 하반기에는 오라클 데이터베이스 및 네트워크 성능과 함께 OCI와 동일한 기능 및 가격 정책을 갖춘 새로운 서비스인 오라클 데이터베이스 앳 구글 클라우드(Oracle Database@Google Cloud)를 사용할 수 있게 된다. 새로운 멀티 클라우드 기능은 구글 클라우드에서 오라클 데이터베이스 인스턴스를 배포, 관리, 사용할 수 있는 통합된 환경과 함께, 양사 클라우드 서비스 간의 자유로운 데이터 이동 및 신규 클라우드 네이티브 애플리케이션 배포를 지원한다. 오라클과 구글 클라우드는 양사의 고객이 오라클 및 구글 클라우드의 기능을 최대한 활용할 수 있을 뿐만 아니라 획기적인 클라우드 혁신을 이룰 수 있을 것으로 기대하고 있다. 양사는 오라클 데이터베이스 앳 구글 클라우드를 공동으로 출시하여 금융 서비스 및 보건/의료, 리테일, 제조 등 다양한 산업 분야의 전 세계 기업 고객을 위한 서비스를 함께 제공할 계획이다.     고객은 오라클 데이터베이스 앳 구글 클라우드를 사용하여 OCI에서 실행되고 구글 클라우드 데이터센터에 배포된 오라클 데이터베이스 서비스에 직접 액세스할 수 있다. 이 신규 서비스는 클라우드 마이그레이션을 가속화하여 자사의 IT 환경을 현대화하고 데이터 관리 및 분석, 버텍스 AI(Vertex AI), 제미니(Gemini) 기반 모델을 비롯한 구글 클라우드 인프라, 툴링, AI 서비스를 활용하고자 하는 고객을 지원하기 위해 설계되었다.  이 서비스는 오라클 등 마이그레이션 도구와의 호환성을 비롯해 오라클 데이터베이스의 구글 클라우드로의 마이그레이션을 간소화 및 가속화할 수 있는 유연한 마이그레이션 옵션을 제공한다. 고객은 기존 구글 클라우드 약정을 사용해 오라클 데이터베이스 서비스를 구매하고, 구글 클라우드 마켓플레이스(Google Cloud Marketplace)를 통한 간소화된 구매 및 계약 경험을 얻을 수 있다. 전체 오라클 데이터베이스 서비스 포트폴리오의 배포를 위한 구글 클라우드 내 통합 운영 환경(데이터센터)은 단순성, 보안성 및 짧은 지연 시간을 지원한다.  오라클은 구글 클라우드와 오라클이 함께 제공하는 통합된 고객 경험 및 지원을 제공하게 될 것이라고 설명했다. 또한, 양사는 오라클 데이터베이스에 저장된 고객의 데이터를 버텍스 AI 및 제미니 기본 모델을 비롯한 구글의 AI 서비스와 연결하여 고객 서비스, 직원 서비스, 크리에이티브 스튜디오, 개발자 환경 등을 지원하는 AI 애플리케이션 및 에이전트를 위한 엔터프라이즈급 신뢰도를 제공할 계획이다. 오라클은 북미와 유럽 지역을 시작으로 오라클 데이터베이스 서비스를 전 세계 구글 클라우드 데이터센터에서 직접 운영 및 관리할 예정이다. 오라클 엑사데이터 데이터베이스 서비스, 오라클 자율운영 데이터베이스 서비스, 오라클 RAC(Oracle Real Application Clusters)는 올해 하반기에 미국 동부와 미국 서부, 영국 남부, 독일 중부의 4개 리전에서 우선 제공되며, 이후 전 세계의 다른 구글 클라우드 리전으로 확장될 예정이다. 오라클 클라우드 인프라스트럭처와 구글 크로스 클라우드 인터커넥트는 고객이 별도의 교차 클라우드 데이터 전송 요금 없이 OCI 리전 및 구글 클라우드 리전 모두에 워크로드를 배포할 수 있도록 지원한다. 이 서비스를 지원하는 리전은 두 주요 클라우드 제공업체 간의 원활한 상호 운용성을 위한 저지연성, 고처리량, 비공개 연결을 제공한다. 양사의 공통 고객은 호주 동부/남동부, 브라질 동부, 캐나다 남동부, 독일 중부, 인도 서부/동부, 싱가포르, 스페인 중부, 영국 남부, 미국 동부 등 11개 크로스 클라우드 인터커넥트 리전에서 온보딩을 시작할 수 있으며, 대상 리전은 향후 확장될 예정이다.  오라클의 래리 앨리슨(Larry Ellison) 회장은 “고객은 여러 클라우드를 유연하게 사용할 수 있기를 원한다”면서, “구글과 오라클은 갈수록 늘어나고 있는 멀티 클라우드 수요를 충족하기 위해 구글 클라우드 서비스와 최신 오라클 데이터베이스 기술을 원활하게 연결하고 있다. 구글 클라우드 데이터센터에 OCI 하드웨어를 설치하여 양사의 고객을 위해 최상의 데이터베이스 및 네트워크 성능을 제공할 예정”이라고 말했다. 구글과 알파벳의 순다 피차이(Sundar Pichai) CEO는 “오라클과 구글 클라우드는 많은 공동 기업 고객을 보유하고 있다”면서, “양사의 새로운 파트너십은 구글 클라우드의 혁신적인 플랫폼 및 AI 기능과 오라클의 데이터베이스 및 애플리케이션을 함께 활용하고자 하는 고객에게 큰 도움이 될 것”이라고 말했다.
작성일 : 2024-06-13
시스코, AI 기반 신기술 및 투자 계획 소개… “10억 달러 AI 펀드 마련”
시스코가 연례 행사인 ‘시스코 라이브 2024(Cisco LIVE 2024)’에서 자사의 전체 포트폴리오에 걸쳐 인공지능(AI) 기반 기능이 한층 더 강화된 네트워킹, 보안, 가시성 솔루션을 공개했다. 이번에 공개된 솔루션은 고객이 전체 디지털 발자국(digital footprint)을 연결 및 보호하고 디지털 회복탄력성을 구축하는 데 필요한 가시성과 인사이트를 제공한다. 시스코는 AI가 단지 ‘새롭게 부상한 기술적 터닝포인트’가 아니라, “전체 조직을 연결하고 보호하며 기업의 성장과 확장을 지원하고, 모두를 위한 포용적인 미래를 가능하게 하는 디지털 회복탄력성의 원천”이라고 설명했다.   ▲ 시스코 라이브 2024에서 연설하는 시스코 척 로빈스 회장   시스코는 AI와 네트워킹을 결합해 더 쉬운 인공지능을 구현할 수 있도록 지원한다고 밝혔다. 시스코가 엔비디아와 함께 개발한 시스코 넥서스 하이퍼패브릭(Cisco Nexus HyperFabric) AI 클러스터는 AI 포드 및 데이터센터 워크로드를 한 곳에서 손쉽게 설계, 배포, 모니터링, 품질 보증할 수 있는 것이 특징이다. 설계부터 검증된 배포, 모니터링, 품질 보증에 이르기까지 엔터프라이즈급 AI 인프라를 위한 모든 과정을 사용자에게 안내한다. 시스코 사우전드아이즈(Cisco ThousandEyes)에 탑재된 새로운 AI 네이티브 디지털 경험 어슈런스 기능은 고객이 언제 어디서나 모든 엔터프라이즈, 클라우드, 서비스형 소프트웨어(SaaS), 인터넷 네트워크에 대한 가시성을 확보하고 관리할 수 있게 지원한다.    AI와 보안을 결합해 안전한 인공지능 사용을 지원하는 것 또한 시스코가 내세우는 주요 전략 중 하나이다. 시스코는 시스코 시큐리티 클라우드에 도입된 신규 기능을 통해 복잡하고 초 분산된 환경에서 안전하게 기업을 보호할 수 있도록 지원한다. 고객은 방화벽 인프라, 새로운 텔레메트리 소스, 뛰어난 네트워크 가시성 및 AI 네이티브 관리 아키텍처로 뒷받침되는 AI 보안 태세를 구축할 수 있다. 시스코는 AMD 펜산도 데이터 처리 장치(DPU)와 인텔 인프라 처리 장치(IPU)에 시스코 하이퍼쉴드(Hypershield)를 지원한다고 발표했다. 이로써 기업들은 클라우드에서 데이터센터, 에지까지 AI 기반의 분산 보안 아키텍처를 구축할 수 있게 됐으며, 동시에 향상된 성능과 에너지 효율을 확보할 수 있다. 최근 스플렁크를 인수한 시스코는 이번 행사에서 신규 AI 어시스턴트와 스플렁크 로그 옵저버빌리티(Splunk Log Observability)의 기능을 시스코 앱다이나믹스 애플리케이션 성능 모니터링(APM)과 결합한 솔루션인 앱다이나믹스 로그 옵저버 커넥트(AppDynamics Log Observer Connect)를 출시했다고 발표했다. 사용자는 이를 이용해 의미 있는 가이던스와 인사이트를 확보하여 빠르고 정확하게 정보에 입각한 의사 결정을 내릴 수 있다. 웹엑스 고객센터에 탑재된 새로운 기능은 기업이 대화형 셀프서비스 경험을 직접 설계 및 관리하고, 고객센터 상담원을 위한 AI 어시스턴트를 제공하며, 서드파티 버추얼 에이전트 솔루션을 도입할 수 있도록 지원한다. 웹엑스 스위트용 AI 어시스턴트는 조만간 모든 고객 대상으로 제공될 예정이다. IT 관리자는 웹엑스 컨트롤 허브(Webex Control Hub)에서 원격 기기 접근 관리 기능을 활용할 수 있고, 시스코 스페이스 데스크 예약(Desk Reservation with Cisco Spaces)을 통해 사무 공간과 시스코 협업 기기를 쉽게 찾고 예약할 수 있도록 지원한다.  시스코의 척 로빈스(Chuck Robbins) 회장은 “시스코는 인프라와 데이터의 연결 방식, 기업 보호를 혁신하는 독보적인 위치에 있으며, AI 시대에 엔터프라이즈 고객에게 알맞은 전략적 파트너”라고 전했다. 한편, 시스코 인베스트먼트는 안전하고 신뢰할 수 있는 AI 솔루션을 개발하고 확장하기 위해 10억 달러(약 1조 3700억 원) 규모의 글로벌 AI 투자 펀드를 조성한다고 발표했다. 시스코는 고객 준비도, 컴퓨트 인프라, 파운데이션 모델, 모델 개발 및 트레이닝 등 여러 핵심 분야의 발전을 위해 기업용 대규모 언어 모델(LLM)로 유명한 캐나다의 인공지능 기업 코히어, 프랑스의 미스트랄 AI, 미국의 데이터 레이블링 스타트업 스케일 AI 등에 전략적 투자를 진행 중이다.
작성일 : 2024-06-05
인텔, 컴퓨텍스 2024에서 ‘AI 에브리웨어’ 구현 가속화하는 기술 소개
인텔은 대만에서 진행된 컴퓨텍스(Computex)에서 데이터센터, 클라우드와 네트워크에서 에지 및 PC에 이르기까지 AI 생태계를 가속화할 기술 및 아키텍처를 공개했다. 인텔은 “이를 통해 고객은 더 많은 처리 능력, 첨단 전력 효율성, 낮은 총소유비용(TCO)을 통해 AI 시스템에서의 가능성을 실현할 수 있다”고 설명했다. 인텔의 팻 겔싱어(Pat Gelsinger) CEO는 컴퓨텍스 기조연설에서 AI 기회를 가속화할 개방형 표준과 인텔의 생태계를 강조하면서, 인텔이 AI 혁신을 이끌고 차세대 기술을 예정보다 앞서 제공하고 있다는 점을 소개했다. 인텔은 6개월 만에 5세대 인텔 제온(5th Gen Intel Xeon) 프로세서를 출시한데 이어 제온 6 첫 제품을 선보였으며, 가우디 AI 가속기를 선공개하고 기업 고객에게 비용 효율적인 고성능 생성형 AI 훈련 및 추론 시스템을 제공했다. 또한, 800만 대 이상의 디바이스에 인텔 코어 Ultra(Intel Core Ultra) 프로세서를 탑재해 AI PC 시대를 열었고, 올해 말 출시 예정인 클라이언트 아키텍처도 공개했다. 디지털 혁신이 가속화됨에 따라 기업들은 노후화된 데이터센터 시스템을 교체하여 비용 절감, 지속 가능성 목표 달성, 물리적 공간 및 랙 공간 활용 극대화하고 기업 전반에 걸쳐 새로운 디지털 역량을 창출해야 한다는 압박에 직면해 있다. 제온 6 플랫폼 및 프로세서 제품군은 이러한 과제를 해결할 목적으로 효율 코어(Efficient -core) 및 성능 코어(Performance-core) 모델이 설계되었으며, AI 및 기타 고성능 컴퓨팅 요구사항부터 확장 가능한 클라우드 네이티브 애플리케이션에 이르기까지 폭넓은 워크로드 및 사용 사례를 처리할 수 있다는 점을 내세운다. E-코어와 P-코어는 모두 공통의 소프트웨어 스택과 하드웨어 및 소프트웨어 공급업체의 개방형 생태계와 호환 가능한 아키텍처를 기반으로 구축되었다. 가장 먼저 출시되는 제온 6 프로세서는 인텔 제온 6 E-코어(코드명 시에라 포레스트)이며, 제온 6 P-코어(코드명 그래나이트 래피즈)는 다음 분기에 출시될 예정이다. 고집적도 코어 및 높은 와트당 성능을 갖춘 인텔 제온 6 E-코어는 전력 비용을 낮추면서 효율적인 컴퓨팅을 제공한다. 향상된 성능 및 전력 효율성은 클라우드 네이티브 애플리케이션 및 콘텐츠 전송 네트워크, 네트워크 마이크로서비스, 소비자 디지털 서비스 등 가장 까다로운 고밀도 스케일아웃 워크로드에 적합하다. 또한, 제온 6 E-코어는 집적도를 높여 랙 수준을 3대 1로 통합할 수 있으며, 미디어 트랜스코딩 워크로드에서 2세대 인텔 제온 프로세서 대비 최대 4.2배의 랙 레벨 성능 향상과 최대 2.6배의 와트당 성능 향상을 고객에게 제공할 수 있다. 더 적은 전력과 랙 공간을 사용하는 제온 6 프로세서는 혁신적인 새로운 AI 프로젝트를 위한 컴퓨팅 용량과 인프라를 확보한다. 인텔 제온 프로세서는 AI 워크로드를 위해 특별히 설계된 인텔 가우디 AI 가속기와 함께 시스템에서 구동한다. 인텔은 “대규모 언어 모델(LLM)의 훈련 및 추론을 위한 MLPerf 벤치마크 결과에서 가우디 아키텍처는 엔비디아의 H100보다 낮은 총 운영 비용으로 빠른 배포 시간을 제공하는 가격 대비 성능의 이점을 제공하여 고객이 원하는 생성형 AI 성능을 제공할 수 있다”고 전했다. 시스템 공급업체(SP)에 제공되는 8개의 인텔 가우디 2 가속기와 범용 베이스보드(UBB)가 포함된 표준 AI 키트는 6만 5000 달러로 동급 경쟁 플랫폼 가격의 3분의 1 수준으로 예상된다. 8개의 인텔 가우디 3 가속기와 UBB가 포함된 키트는 12만 5000 달러에 판매되며, 이는 동급 경쟁 플랫폼 가격의 약 3분의 2 수준이다. 인텔 가우디 3 가속기는 생성형 모델 훈련 및 추론 작업에서 성능 향상을 제공하여 기업이 자체 데이터의 가치를 실현할 수 있도록 지원한다. 인텔은 “8192개 가속기 클러스터를 갖춘 인텔 가우디 3는 동급 규모의 엔비디아 H100 GPU 클러스터에 비해 학습 시간이 최대 40% 빠르며, 64개 가속기 클러스터의 경우 엔비디아 H100의 라마2 700억개(Llama2-70B) 모델에 비해 최대 15% 빠른 학습 처리량을 제공할 것으로 예상된다”면서, “또한 인텔 가우디 3는 라마2 700억개(Llama2-70B) 및 미스트랄 70억개(Mistral-7B)와 같은 LLM을 실행할 때 엔비디아 H100 대비 평균 최대 2배 빠른 추론7을 제공할 것으로 예상된다”고 전했다. 인텔은 데이터센터를 넘어 에지와 PC에서도 AI를 강화하고 있다. AI PC가 2027년까지 신규 PC 중 60%를 차지할 것으로 예상됨에 따라, 인텔은 AI PC를 위한 하드웨어 및 소프트웨어 플랫폼을 발빠르게 구축했다. 100개 이상의 독립 소프트웨어 제작사(ISV)와 협력해 300개의 기능을 제공하고, 코어 울트라 플랫폼 전반에 걸쳐 500개의 AI 모델을 지원하고 있다. 인텔은 AI PC용 차세대 플래그십 프로세서인 루나 레이크(Lunar Lake)의 아키텍처와 관련한 세부 내용을 공개했다. 그래픽과 AI 처리 성능에서 발전을 이루고, 얇고 가벼운 디자인을 위한 전력 효율적인 컴퓨팅 성능에 중점을 둔 루나 레이크는 최대 40% SoC 전력과 3배 이상의 AI 컴퓨팅을 제공한다. 연말 성수기를 겨냥해 2024년 3분기에 시장에 출시할 예정이다. 인텔은 “다른 기업들이 AI PC 시장에 진입할 준비를 하는 동안, 인텔은 이미 대규모로 제품을 공급하고 있으며, 2024년 1분기 동안 경쟁사를 모두 합친 것보다 더 많은 AI PC 프로세서를 공급하고 있다”면서, “루나 레이크는 20개의 PC 제조사를 통해 80개 이상의 다양한 AI PC 디자인을 공급할 예정이며, 올해 4000만 개 이상의 코어 울트라 프로세서 출하 목표 달성을 예상하고 있다”고 전했다. 겔싱어 CEO는 “AI는 업계 역사상 가장 중대한 혁신의 시대를 주도하고 있다. 실리콘의 마법은 다시 한번 기하급수적인 컴퓨팅 성능의 진전을 가져올 것이며 이는 인간의 잠재력의 한계를 뛰어넘고 향후 수년간 전세계 경제를 견인할 것”이라면서, “인텔은 반도체 제조부터 PC, 네트워크, 에지 및 데이터센터 시스템에 이르기까지 AI 시장 기회의 전 영역에 걸쳐 혁신을 창출하고 있는 기업이다. 인텔의 최신 제온, 가우디 및 코어 울트라 플랫폼은 인텔의 하드웨어 및 소프트웨어 생태계의 역량과 결합하여, 미래의 엄청난 기회를 극대화하는 데 필요한 유연하고 안전하며 지속가능하고 비용효율적인 솔루션을 고객에게 제공한다”고 전했다.
작성일 : 2024-06-04
전기/기계 엔지니어의 역량을 강화하는 통합 AI 열 해석
성공적인 유동 해석을 위한 케이던스의 CFD 기술 (10)   케이던스 셀시우스 스튜디오(Cadence Celsius Studio)는 전자 시스템의 열 해석과 열 응력, 전자 제품 냉각을 해결하기 위한 AI 기반 열 플랫폼이다. 현재 제공되는 제품은 대부분 포인트 툴 솔루션으로 구성되어 있지만, 셀시우스 스튜디오는 전기 및 기계/열 엔지니어가 형상 단순화, 조작, 변환 없이 단일 플랫폼 내에서 동시에 설계 및 해석할 수 있는 통합 플랫폼으로 완전히 새로운 접근 방식을 도입했다.   ■ 자료 제공 : 나인플러스IT, www.vifs.co.kr   셀시우스 스튜디오는 전열 공동 시뮬레이션, 전자 냉각, 열 응력을 하나의 솔루션으로 통합한다. 또한 설계 중 다중 물리 분석으로 셀시우스 스튜디오를 원활하게 사용할 수 있으므로, 설계자는 설계 프로세스 초기에 열 무결성 문제를 발견하고 이상적인 열 설계를 발견하기 위해 생성형 AI 최적화와 새로운 모델링 알고리즘을 효율적으로 활용할 수 있다. 그 결과 협업이 개선되고 설계 반복이 줄어들며 예측 가능한 설계 일정이 가능해지는 간소화된 워크플로를 통해 처리 시간을 단축하고 출시 기간을 단축할 수 있다.   셀시우스 스튜디오의 주요 이점 셀시우스 스튜디오는 복잡한 열 해석, 열 응력, 전자 냉각 등의 문제를 해결할 수 있다.    매끄러운 통합 셀시우스 스튜디오는 케이던스의 버추소, 알레그로, 이노베이티브, 옵티멀리티 및 AWR 구현 기술과 통합된다.   디자인 인사이트 전체 설계 공간을 빠르고 효율적으로 탐색하여 최적의 설계에 수렴할 수 있도록 통합된 옵티멀리티 AI(Optimality AI) 기반 기술을 통해 지원한다.   시스템 레벨의 열 해석 전체 시스템 분석을 위해 유한 요소법(FEM)과 전산 유체 역학(CFD)을 결합한다.   생산성 향상 기존 솔루션보다 최대 10배 빠른 성능을 달성하는 대규모 병렬 실행을 제공한다.   셀시우스 스튜디오의 솔루션 구성 전열(Electrothermal) 해석 셀시우스 스튜디오는 다양한 ECAD 및 MCAD 파일 형식을 지원하며, 전기 및 열 시뮬레이션을 위한 재료 및 부품 관리자를 제공한다. 정적 및 과도 전열 공동 시뮬레이션을 모두 제공하며 케이던스의 클래리티, 시그리티, 스펙터 솔버와 원활하게 통합된다.     기구 응력(Mechanical Stress) 셀시우스 스튜디오는 선형 및 비선형 재료 구조 모델뿐만 아니라 뒤틀림 및 응력 분석을 위한 정적 및 준정적 솔버, 수분 솔버, 고온고습(HTHH) 분석을 지원한다. 설계자는 설계 조립 공정과 재료 고장 및 신뢰성 분석을 위한 다단계 시뮬레이션을 수행할 수 있다. 3D-IC 뒤틀림/응력 시뮬레이션을 위한 글로벌 및 로컬 모델이 있다.     머신러닝/인공지능(ML/AI) 셀시우스 스튜디오는 열 설계 및 관리를 위한 AI 기반 최적화와 DFM 검증을 위한 몬테카를로 분석 및 민감도 연구, 열 RC 및 컴팩트 모델 생성 및 네트워크 시뮬레이션을 통합한다. 메타모델 칩/패키지/서버는 빠른 열 성능, 특성화 및 평가를 제공한다.   전자 냉각(Electronic Cooling) 셀시우스 스튜디오는 전체 전자 시스템의 열 효율을 최적화하기 위한 전자 냉각 시뮬레이션을 제공한다.       ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-06-03
언리얼 엔진 5.4 : 비주얼 콘텐츠 제작의 퍼포먼스 . 품질 . 생산성 향상
개발 및 공급 : 에픽게임즈 주요 특징 : 캐릭터 애니메이션을 위한 툴세트 업데이트, 나나이트 연산 머티리얼을 통한 변수 레이트 셰이딩 도입, 렌더링 퍼포먼스 개선 및 셰이더 컴파일 최적화, 파생 데이터 캐시를 위한 클라우드 스토리지 시스템 지원, 분산 컴파일 솔루션인 언리얼 빌드 액셀러레이터 추가 등   ▲ 언리얼 엔진 5.4 기능 하이라이트 영상   언리얼 엔진 5.4가 정식 출시됐다. 이번 버전은 게임 개발자와 모든 산업 분야의 크리에이터를 위해 퍼포먼스, 비주얼 퀄리티, 생산성에 대한 신규 기능과 개선 사항을 제공하며, 에픽게임즈가 ‘포트나이트’ 챕터 5, ‘로켓 레이싱’, ‘포트나이트 페스티벌’, ‘LEGO 포트나이트’를 제작하고 출시하기 위해 내부적으로 사용한 툴세트를 선보였다.   애니메이션 캐릭터 리깅 및 애니메이션 제작 이번 버전에서는 언리얼 엔진의 기본 애니메이션 툴세트가 대폭 업데이트되었다. 더 이상 여러 외부 애플리케이션에서 번거롭게 작업할 필요 없이, 엔진에서 직접 캐릭터를 쉽고 빠르게 리깅하고 애니메이션을 제작할 수 있게 되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   신규 실험 단계 기능인 ‘모듈형 컨트롤 릭’을 활용하면 복잡하고 세분화된 그래프 대신 이해하기 쉬운 모듈형 파트로 애니메이션 릭을 제작할 수 있다. ‘자동 리타기팅’은 이족보행 캐릭터 애니메이션을 재사용할 때 뛰어난 결과물을 더 쉽게 얻을 수 있다. 또한, ‘스켈레탈 에디터’가 확장되고 새로운 디포머 기능 세트들이 추가되어 ‘디포머 그래프’를 더 손쉽게 이용할 수 있다. 애니메이션 제작 측면에서는 애니메이션 툴세트를 보다 직관적이고 강력하게 만드는 동시에 워크플로를 간소화하는 데 중점을 두었다. 새로운 실험단 계 기능인 ‘기즈모’, 개편된 ‘애님 디테일’, ‘컨스트레인트’ 시스템 업그레이드 및 향상, 애님 클립에 애니메이션을 추가하는 과정을 대폭 간소화시켜 주는 신규 기능인 ‘레이어드 컨트롤 릭’ 등을 제공한다. 뿐만 아니라 언리얼 엔진의 비선형 애니메이션 에디터인 ‘시퀀서’는 시퀀서 트리의 다양한 측면에서 가독성과 사용성이 대폭 향상되었다. 이번 버전에 도입된 다른 신규 기능 중에는 ‘키프레임 스크립트’ 방식도 추가되어, 커스텀 애니메이션 툴 제작의 가능성이 열리게 되었다.   애니메이션 게임플레이 이전 버전에서 실험 단계 기능으로 도입되었던 ‘모션 매칭’이 정식 버전이 되었다. 이 기능은 ‘포트나이트 배틀 로얄’에서 철저한 테스트를 거쳐 모바일부터 콘솔까지 모든 플랫폼에서 100개 이상의 캐릭터와 NPC에 적용되었다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   모션 매칭은 애니메이션 기능을 위한 확장 가능한 차세대 프레임워크이다. 런타임에서 애니메이션 클립을 선택하고 전환하기 위해 복잡한 로직을 사용하는 대신, 게임 내 캐릭터의 현재 모션 정보를 키로 사용하여 상대적으로 큰 규모의 캡처된 애니메이션 데이터베이스를 검색하는 방식을 활용한다. 또한, 이번 버전에서는 언리얼 엔진의 애니메이터 친화적인 툴세트를 강력하고 뛰어난 성능과 메모리 확장이 가능한 툴로 만드는 데 중점을 두었으며, 개발자가 내부에서 일어나는 작업을 파악할 수 있는 디버깅 툴세트를 추가했다. 게임플레이 측면에서도 ‘선택기’를 추가하여, 이제 게임 컨텍스트를 활용해 애니메이션을 선택할 수 있게 되었다. 이 시스템은 변수를 사용해 선택을 알리고, 이 선택에 따라 변수를 설정하여 게임플레이 로직에 다시 정보를 제공할 수 있다.   렌더링 나나이트 언리얼 엔진 5의 가상화된 마이크로폴리곤 지오메트리 시스템인 ‘나나이트(Ninite)’는 원본 메시를 변경하지 않고도 렌더링 시 균열이나 범프 같은 미세한 디테일을 추가할 수 있게 해주는 신규 실험 단계 기능 ‘테셀레이션’을 시작으로 지속적인 향상이 이루어지고 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   나나이트 연산 머티리얼을 통한 ‘변수 레이트 셰이딩(Variable Rate Shading : VRS)’의 도입으로 퍼포먼스가 대폭 향상되었으며, 랜드스케이프에 도로를 생성하는 것과 같은 작업에 유용한 ‘스플라인 메시 워크플로’도 지원된다. 또한, UV 보간을 비활성화하는 신규 옵션을 활용하면 버텍스 애니메이션 텍스처를 월드 포지션 오프셋 애니메이션에 사용할 수 있게 되어, 이제 ‘AnimToTexture’ 플러그인을 나나이트 지오메트리와 함께 사용할 수 있다.   템포럴 슈퍼 해상도 이번 버전에서 ‘템포럴 슈퍼 해상도(Temporal Super Resolution : TSR)’의 안정성과 성능이 향상되어, 타깃 플랫폼에 관계 없이 예측 가능한 결과물을 얻을 수 있게 되었다. 그 중 새로운 히스토리 리저렉션 휴리스틱과 픽셀 애니메이션을 사용하는 머티리얼에 플래그를 지정하는 기능 덕분에 고스팅 현상이 감소되었다. 또한, TSR의 비헤이비어(behavior)를 더 손쉽게 미세조정하고 디버깅할 수 있는 ‘신규 시각화 모드’를 추가했고, 타깃 퍼포먼스에 따라 제어할 수 있도록 엔진 퀄리티 설정에 다양한 신규 옵션도 추가됐다.   렌더링 퍼포먼스 에픽게임즈는 60Hz 경험을 목표로 하는 많은 개발자를 위해 언리얼 엔진 5.4의 렌더링 퍼포먼스 향상에 노력을 기울였다. 이를 통해 더 높은 수준의 병렬화를 지원하기 위한 시스템 리팩터링과 하드웨어 레이 트레이싱에 GPU 인스턴스 컬링이 추가되어, 이제 추가적인 프리미티브 유형과 최적화된 패스 트레이서의 이점을 활용할 수 있게 되었다. 또한, 셰이더 컴파일도 더욱 최적화되어 프로젝트 쿠킹 시간이 눈에 띄게 향상되었다.   무비 렌더 그래프   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   언리얼 엔진 5.4는 단방향 콘텐츠를 제작하는 크리에이터를 위해 무비 렌더 큐에 실험 단계 기능으로 주요 업데이트를 선보였다. ‘무비 렌더 그래프(Movie Render Graph : MRG)’로 불리는 이 신규 노드 기반 아키텍처를 통해 사용자는 단일 샷을 렌더링하는 그래프를 구성하거나, 대규모 아티스트 팀의 경우 복잡한 멀티샷 워크플로 전반에 걸쳐 확장하도록 설계할 수 있다. 그래프는 파이프라인 친화적이며 스튜디오는 파이썬 훅(Python Hook)으로 툴을 제작하고 자동화할 수 있다. MRG에는 ‘렌더 레이어’가 제공되어 전경과 배경 요소를 분리하는 등 포스트 컴포지팅을 위한 고퀄리티 요소를 손쉽게 생성할 수 있으며, 패스 트레이서와 디퍼드 렌더러를 모두 지원한다.   AI 및 머신러닝 신경망 엔진 언리얼 엔진 5.4에는 ‘신경망 엔진(NNE)’이 실험 단계 기능에서 베타 기능으로 업데이트되었다. NNE는 에디터와 런타임 애플리케이션을 모두 지원하며, 개발자는 사전 트레이닝된 신경망 모델을 로드하여 효율적으로 실행할 수 있다. 사용 예시로는 툴링, 애니메이션, 렌더링, 피직스 등이 있으며, 이들은 플랫폼 및 모델 지원별로 각기 다른 요구사항을 갖추고 있다. NNE는 필요에 따라 백엔드를 쉽게 교체할 수 있도록 공통 API를 제공하여 이러한 다양한 요구사항을 해결한다. 또한, 서드파티 개발자가 플러그인에서 NNE 인터페이스를 구현할 수 있도록 확장성 훅 역시 제공된다.   개발자 반복 작업 클라우드 및 로컬 파생 데이터 캐시 이번 출시를 통해 새롭게 선보이는 ‘언리얼 클라우드 DDC’는 언리얼 엔진 파생 데이터 캐시(DDC)를 위한 자체 호스팅 클라우드 스토리지 시스템이다. 여러 장소에 분산된 사용자와 팀을 위해 설계된 이 기능을 사용하면, 공용 네트워크 연결을 통해 언리얼 엔진 캐시 데이터를 효율적으로 공유할 수 있다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   유지보수가 용이하고 안정적이며 접근성이 뛰어난 이 솔루션은 여러 지역에 걸쳐 언리얼 클라우드 DDC로 호스팅되는 엔드포인트 간에 데이터를 자동으로 복제하여, 사용자가 언제나 가장 가까운 엔드포인트에 접속할 수 있도록 지원한다. OIDC 로그인 및 인증으로 보호되는 이 시스템은 에픽게임즈의 AWS를 통해 실전 검증을 마쳤으며, 애저(Azure)에 대한 디플로이 가이드라인을 함께 제공한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지 영상 캡처   또한, 이번 버전에서는 새로운 ‘언리얼 Zen Storage’ 서버 아키텍처를 사용하여 로컬 DDC가 향상되었다. 이를 통해 데이터 컨디셔닝 퍼포먼스가 향상된 것은 물론, 에디터 로드 시간이 더욱 빨라졌다. 또한, 에디터에서 플레이(PIE) 워크플로가 제공되며 캐시 쓰기, 제거, 데이터 복제 방지를 더욱 효과적으로 제어할 수 있다.   멀티 프로세스 쿡 언리얼 엔진 5.3에 베타 기능으로 도입되었던 ‘멀티 프로세스 쿡’이 이제 정식 버전으로 제공된다. 이 기능을 통해 개발자는 콘텐츠를 내부 UE 포맷에서 플랫폼별 포맷으로 변환할 때 추가 CPU 및 메모리 리소스를 활용할 수 있어, 빌드 팜 서버 또는 로컬 워크스테이션에서 쿠킹된 결과물을 얻는 데 걸리는 시간을 크게 줄일 수 있다.   언리얼 빌드 액셀러레이터 이번 버전에서 새롭게 선보이는 ‘언리얼 빌드 액셀러레이터(Unreal Build Accelerator : UBA)’는 C++를 위한 확장 가능한 분산 컴파일 솔루션으로, 언리얼 빌드 툴 및/또는 언리얼 호드의 원격 실행(연산 작업) 시스템과 함께 빌드 컴파일 시간을 단축하는 데 사용된다. 현재 베타 기능인 UBA는 이번 버전에서 C++ 컴파일 작업을 위한 윈도우 OS를 지원하며, 네이티브 맥OS 및 리눅스 지원은 프로세스 유휴 감지 및 셰이더 컴파일과 함께 실험 단계로 제공된다.   미디어 및 엔터테인먼트 모션 그래픽 언리얼 엔진 5.4는 복잡한 2D 모션 그래픽 제작용 전문 툴로 구성된 새로운 ‘모션 디자인 모드’를 실험 단계 기능으로 선보였다. 주요 방송사의 프로덕션 테스트와 피드백을 바탕으로 개발된 이 기능은 모션 디자이너에게 향상된 사용자 경험과 지속적인 생산성을 제공하고자 설계되었으며, 3D 클로너, 이펙터, 모디파이어, 애니메이터 등을 포함한 포괄적인 툴세트를 제공한다.   ▲ 이미지 출처 : 언리얼 엔진 홈페이지   버추얼 프로덕션 버추얼 프로덕션을 도입하는 영화 제작자들은 이제 정식 버전으로 제공되는 언리얼 엔진의 버추얼 카메라 툴에서 이루어진 업데이트와 함께 기존 iOS 플랫폼은 물론 이제 안드로이드까지 지원되어 많은 혜택을 누릴 수 있게 되었다. 또한, 맥OS용 언리얼 엔진에서도 버추얼 카메라 워크플로가 완전히 지원된다. 이 모바일 애플리케이션은 ‘언리얼 VCam’이라는 새로운 이름으로 애플 앱 스토어 및 구글 플레이에서 다운로드할 수 있다. VR 스카우팅에서는 ‘XR 크리에이티브 프레임워크’를 활용하는 완전히 커스터마이징이 가능한 새로운 툴키트를 실험 단계 기능으로 선보였다. 이를 통해 오큘러스(Oculus)와 밸브 인덱스(Valve Index) 등의 OpenXR HMD를 지원하여 기존 버추얼 스카우팅 툴키트보다 대폭 향상된 사용자 경험을 제공한다.  ICVFX의 경우, 새로운 ‘뎁스 오브 필드’ 보정 기능을 통해 nDisplay로 렌더링된 디지털 콘텐츠의 DOF 감쇠량을 영화 카메라에 보이는 대로 정확히 제어할 수 있어, 더 나은 클로즈업 뷰티 샷을 얻을 수 있게 되었다. 또한, ‘멀티 프로세스 내부 프러스텀’을 추가하여 영화 카메라로 보이는 장면을 더 많은 GPU와 하드웨어 리소스로 분할 렌더링할 수 있으며, SMPTE 2110 지원에 대한 다양한 안정성 및 개선 사항을 추가했다.    리눅스 지원 리눅스를 사용하는 스튜디오도 해당 플랫폼에서 향상된 에디터 안정성을 경험할 수 있으며, 실험 단계로 제공되는 벌칸(Vulkan) 레이 트레이싱 지원을 통해 많은 이점을 누릴 수 있다.   의상 시뮬레이션 USD 임포터 패널 클로스 에디터에 새로운 USD 임포터가 추가되면서, ‘Marvelous Designer’ 또는 ‘CLO’에서 의상과 시뮬레이션 파라미터를 임포트하여 단 몇 분 만에 실시간으로 시뮬레이션을 구성할 수 있게 되었다. 자동 시뮬레이션 그래프 설정, 스키닝, 레벨 오브 디테일(LOD) 생성 기능과 함께 이 새로운 워크플로를 사용하면 관련 경험이 없는 사용자도 언리얼 엔진 캐릭터의 사실적인 의상을 제작할 수 있도록 지원한다.   그 외 개선 사항 언리얼 엔진 5.4의 신규 기능과 향상된 기능 관련한 전체 내용을 확인하려면 출시 노트를 참고하면 된다. 언리얼 엔진 5.4 출시 노트 : https://dev.epicgames.com/documentation/ko-kr/unreal-engine/unreal-engine-5.4-release-notes   비게임 분야를 위한 새로운 가격 모델 출시 에픽게임즈는 2023년 미국 뉴올리언스에서 열린 ‘언리얼 페스트’에서 2024년부터 일반 산업 분야를 위한 시트 기반의 엔터프라이즈 소프트웨어 가격 모델을 제공하겠다고 발표한 바 있다. 이번 언리얼 엔진 5.4 출시와 함께 에픽게임즈는 비게임 분야를 위한 새로운 시트 기반의 언리얼 구독 플랜을 출시했다. 가격 변경 사항은 언리얼 엔진 5.3 또는 그 이전 버전을 사용하는 신규 또는 기존 사용자에게는 적용되지 않으며, 5.4 버전 이상을 사용할 사용자에게만 적용된다. 각 시트는 언리얼 엔진 5.4 및 구독 기간 동안 출시되는 후속 버전과 함께 언리얼 엔진과 호환되는 창작 툴인 ‘트윈모션(Twinmotion)’과 ‘리얼리티캡처(RealityCapture)’까지 세 개 제품을 한 명의 사용자가 이용할 수 있도록 제공된다. 또한, 세 개의 제품을 모두 사용할 수 있는 30일 무료 체험판도 제공된다. 보다 더 자세한 내용은 언리얼 엔진 홈페이지에서 확인할 수 있다. 한편, 이번 언리얼 엔진 5.4 출시를 기점으로 트윈모션과 리얼리티캡처도 이제 학생, 교육자, 개인 사용자 그리고 회사의 연간 총매출이 100만 달러 미만인 경우 모두 무료로 사용할 수 있다. 에픽게임즈는 다양한 산업 분야의 팀들이 고퀄리티 3D 경험을 효율적으로 제작할 수 있도록 트윈모션과 리얼리티캡처를 구독 플랜에 포함하여 제공하며, 2025년 말까지 두 제품을 언리얼 엔진에 완전히 통합할 계획이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-06-03
[포커스] AWS, 산업 혁신 지원하는 포괄적 클라우드/AI 기술 소개
아마존웹서비스(AWS)가 연례 클라우드 기술 콘퍼런스인 ‘AWS 서밋 서울 2024(AWS Summit Seoul 2024)’를 5월 16~17일 진행했다. 이번 AWS 서밋에서는 생성형 AI와 클라우드 분야의 기술 혁신과 미래 비전에 관한 내용이 소개됐다. ■ 정수진 편집장     AWS는 10주년을 맞은 이번 행사에 10만 명 이상이 참석했다고 밝혔다. 이틀 동안 진행된 AWS 서밋에서는 다양한 산업 분야와 기술 주제에 대한 100여 개 이상의 강연이 진행됐으며, 생성형 AI 솔루션 데모 및 산업별 클라우드 활용 관련 세션과 데모가 선보였다. AWS코리아의 함기호 대표이사는 개회사에서 “AWS는 국내 AWS 리전에 200개 이상의 서비스를 출시하는 등 지난 15년간 국내에 투자를 이어오면서, 다양한 산업 분야에서 혁신 기업 고객을 지원해 왔다. 앞으로도 국내 기업을 위한 클라우드를 제공하면서 이들의 혁신을 뒷받침할 것”이라고 소개했다. 또한, 생성형 AI 혁신을 주도하기 위한 앤트로픽(Anthropic)과의 전략적 파트너십에 대해서도 소개했다. 앤트로픽은 대화형 인공지능인 클로드(Claude)를 AWS의 생성형 AI 애플리케이션 구축 서비스인 아마존 베드록(Amazon Bedrock)에 제공하며, AI 연구개발과 모델 구축/배포에 AWS의 서비스와 프로세서를 사용한다. 또한 AWS는 앤트로픽에 대규모 투자를 진행할 예정이다.   혁신을 위한 인공지능 기술의 장벽 허문다 AWS의 프로페셔널 서비스 및 생성형 AI 혁신센터를 총괄하는 프란체스카 바스케즈(Francessca Vasquez) 부사장은 AWS 서밋 첫째 날 기조연설에서 생성형 AI를 통한 비즈니스 혁신 방법에 대해 소개했다. 바스케즈 부사장은 “디지털 기술 혁신은 새로운 가능성을 열어왔다. 클라우드 컴퓨팅은 다양한 기업이 비즈니스를 개발하고 확장할 수 있도록 지원했고, AWS는 네트워크, 스토리지, 데이터베이스, 컴퓨팅 등의 서비스를 제공하면서 클라우드 기술에 대한 접근성을 높여왔다”고 설명했다. 클라우드 다음의 혁신 기술로 AWS는 인공지능에 주목하고 있다. 작년에 특히 두드러진 생성형 AI의 발전은 데이터를 해석하고 상호작용하는 방법을 완전히 바꿔놓았으며, 제품을 개발하고 비즈니스를 개척하는 방식을 근본적으로 변화시켰다는 것이 바스케즈 부사장의 설명이다. 그는 “AWS는 업무 효율뿐 아니라 복잡한 추론 작업의 자동화를 위해 AI 기술의 장벽을 허물도록 지원하고자 한다”고 전했다.   ▲ 생성형 AI를 위한 AWS의 포괄적 기술 스택   생성형 AI 위한 포괄적 기술 지원 많은 기업이 생성형 AI에 주목하고 있지만, 한편으로 생성형 AI를 도입하는 과정에서 어려움을 겪고 있다. 이를 지원하기 위해 AWS는 ▲파운데이션 모델의 훈련 및 추론을 위한 인프라 ▲파운데이션 모델 및 LLM(대규모 언어 모델) 기반 애플리케이션 개발 플랫폼 ▲파운데이션 모델 및 LLM의 활용을 위한 애플리케이션 등 생성형 AI를 위한 포괄적인 기술을 제공한다.   파운데이션 모델 훈련·추론 인프라 AWS는 자사 클라우드에서 엔비디아 H100 GPU를 제공하고, GPU의 운영을 최적화하도록 지원한다. 그리고 프로젝트 세이바(Project Ceiba)를 통해 엔비디아 GPU를 탑재한 AI 슈퍼컴퓨터를 구축하고 있다. 한편으로 AWS는 AI 맞춤형 칩셋의 자체 개발도 진행 중이다. 여기에는 기계학습 가속기인 트레이니움(AWS Trainium)과 딥러닝/생성형 AI 추론 애플리케이션을 위한 가속기인 인퍼런시아(AWS Inferentia) 등이 있는데, AWS는 이를 통해 AI 학습과 추론에 드는 비용을 줄이면서 성능과 에너지 효율을 높일 수 있을 것으로 기대하고 있다.   파운데이션 모델·LLM 기반 앱 개발 플랫폼 완전 관리형 서비스인 아마존 베드록(Amazon Bedrock)은 다양한 파운데이션 모델(FM)을 API를 통해 사용할 수 있게 해 준다. 사용자는 베드록이 제공하는 모델 평가 도구를 활용해 목적에 맞는 고성능 FM을 선택할 수 있다. 베드록에서 제공하는 미세 조정(fine-tuning), 검색 증강 생성(RAG) 등의 기능 세트와 보안 기능은 기업이 자체 데이터를 이용하여 비즈니스 관련 애플리케이션을 안전하게 구축할 수 있도록 돕는다. 바스케즈 부사장은 “현대의 모든 비즈니스는 데이터 비즈니스라고 할 수 있다. AWS는 포괄적인 데이터 서비스 세트를 제공하며, 데이터의 활용을 극대화하기 위한 클라우드 활용 방안을 제시한다. 그리고 베드록을 통해 맞춤화된 엔터프라이즈 데이터를 활용한 앱 개발을 지원한다”고 소개했다.   파운데이션 모델·LLM 활용 앱 AWS의 생성형 AI 기반 어시스턴트인 아마존 Q(Amazon Q)는 다양한 비즈니스 요구에 대응해 최적화가 가능하다는 점을 내세운다. AI 코딩 어시스턴트인 아마존 Q 디벨로퍼(Amazon Q Developer)가 한 가지 사례이다.  아마존 Q는 애플리케이션의 개발부터 구축까지 모든 단계에서 효율을 높일 수 있도록 지원하며, 아마존 Q와 베드록은 개발자가 복잡한 생성형 AI 애플리케이션을 빠르고 효율적으로, 안전하게 구축할 수 있도록 돕는다.   ▲ AWS와 현대자동차는 클라우드로 자동차의 다양한 정보를 분석하고, 생성형 AI로 새로운 콘텐츠를 제안해 주는 기술 데모를 선보였다.   클라우드/AI 활용한 산업 혁신 사례와 인사이트 소개 이틀 간 진행된 이번 AWS 서밋의 기조연설에서는 우아한형제들의 송재하 CTO, SK텔레콤의 정석근 AI 사업 총괄, 인프랩의 이동욱 CTO, 카카오페이증권의 조지훈 실장, 샌드버드의 구정진 CTO 등이 AWS 기술에 기반한 혁신 사례에 대해 소개했다. 그리고 아마존의 워너 보겔스(Werner Vogels) CTO와 맷 우드(Matt Wood) AI 서비스 부사장이 온라인 대담을 통해 클라우드 및 AI 기술에 대한 인사이트를 공유했다. 강연 세션에서는 기술 트렌드와 함께 제조/하이테크, 금융/핀테크, 통신/미디어 및 엔터테인먼트, 유통/소비재 상품 등 산업분야별로 비즈니스 트렌드 및 기술 활용 사례가 소개됐다. 이 중 제조/하이테크 분야에서는 ▲현대자동차의 실시간 차량 데이터 수집과 활용을 통한 인포테인먼트 진화 ▲GS에너지의 AI 전략 및 통합 분석 플랫폼 ▲두산디지털이노베이션의 AI 및 머신러닝을 활용한 설비 관리 전략 ▲한화큐셀의 가상 파워 플랜트 플랫폼 구축 ▲인코어드의 에너지 솔루션 고도화 등 AWS 기술 활용 사례가 발표됐다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-06-03
대원씨티에스, 초소형 PC 애즈락 데스크미니 X600 정식 출시
대원씨티에스가 미니 PC보다 더 작은 크기의 초소형 APU 폼팩터 디자인을 갖춘 ‘애즈락 데스크미니’를 국내 시장에 정식 출시했다. 애즈락 데스크미니는 완제품 형태로 출시되며 시피유와 메모리, 스토리지만 용도에 맞춰 추가하면 공간절약형 초소형 데스크톱 PC를 현장에서 손쉽게 완성할 수 있다. 높은 성능과 공간 효율, 탄탄한 안정성 등의 핵심 요건을 동시에 충족 가능한 솔루션이라는 것이 대원씨티에스의 설명이다.     이 제품이 내세우는 강점은 작은 크기 대비 높은 확장성과 탄탄한 성능 보장이다. 가로 15cm, 세로 15cm에 넓이는 8cm로 약 1.92리터 크기의 본체가 고성능 데스크톱 구성에 필요한 모든 기능을 지원한다. 메인보드는 X600 칩셋을 사용했으며, AM5 소켓에 대응하는 AMD 라이젠 7000/8000 시리즈 CPU를 장착할 수 있다. 단, TDP는 최대 65W 미만이어야 하며, 시피유 쿨러는 기본 포함하고 있다. 메모리는 노트북에 사용하는 것과 같은 DDR5-6400+ SO-DIMM 규격 제품을 장착하며, 듀얼뱅크로 최대 96GB 용량을 구성할 수 있다. 스토리지는 2280 M.2 규격을 최대 2개, 2.5인치 규격 SATA SSD는 최대 2개까지 장착할 수 있다. 특히 M.2 규격은 PCIe Gen5와 Gen4 규격을 각각 대응하며, SATA 방식 스토리지는 2개 장착 시 데이터 신뢰도를 높일 수 있어 기업 환경이 선호하는 RAID 0, 1 방식으로 동작시킬 수 있다. 디스플레이는 내장 그래픽을 사용 HDMI와 DP1.4 포트에 연결 시 최대 4K 해상도, 120Hz 주사율을 구현한다. 또한 산업 환경 또는 출력에서 쓰이는 D-Sub 출력 단자도 제공한다. 사운드는 리얼텍 ALC269 칩셋 오디오를 사용했으며, 네트워크는 리얼텍 RTL8125BG 칩셋을 사용해 최대 2.5G 드래곤 네트워크 성능을 제공한다. 표준 기가바이트 이더넷 대비 대역폭이 최대 2.5배까지 향상된 규격이며, 무선 와이파이는 M.2 소켓 옵션으로 확장할 수 있다. 이 외에 120W 용량의 어댑터를 통해 전력을 공급받는다. 옵션으로 제공하는 VESA 마운트를 활용하면 회의실 또는 세미나실 모니터나 대형 TV 제품 후면에 설치할 수도 있다. 대원씨티에스는 국내 정식으로 공급하는 애즈락 데스크미니 X600 제품에 대해 메인보드 제품은 최대 3년, 어댑터 제품은 최대 1년간 서비스를 보장한다. 대원씨티에스는  자체 운영하는 직영 서비스 센터를 통해 프리미엄 기술지원과 서비스를 제공한다고 소개했다. 대원씨티에스의 남혁민 본부장은 “설치 공간에 제약이 적은 초소형 디자인의 미니 PC는 기업 그리고 학원, 공부방 등을 중심으로 문의가 이어지고 있다. 무엇보다 완제품 형태로 공급하고 있어 완성도가 높고, 미려한 디자인을 갖춰 만족도가 높은 것이 특징”이라면서, “애즈락 데스크미니 X600는 부담 없는 비용 투자로 만족이 높은 AMD 라이젠 기반의 초소형 PC 제품으로, 초소형 PC에 대한 니즈 충족에 합리적인 대안이 될 것”이라고 전했다.
작성일 : 2024-05-30
HPE, 미국 아르곤 국립 연구소에 엑사스케일 슈퍼컴퓨터 제공
HPE는 미국에서 열린 ‘국제 슈퍼컴퓨팅 컨퍼런스(ISC 2024)’에서 미국 에너지부 산하 아르곤 국립 연구소에 인텔과 협력해 엑사스케일 슈퍼컴퓨터인 ‘오로라(Aurora)’를 공급했다고 발표했다. 오로라는 시스템의 87%만 가동한 상태에서 1.012 엑사플롭(exaflop)에 도달하면서, ‘TOP500’ 슈퍼컴퓨터 차트에서 전 세계 두 번째로 빠른 슈퍼컴퓨터로 등재되었다. 오로라는 HPE가 두 번째로 제작한 엑사스케일 시스템일 뿐만 아니라 대규모의 인공지능 지원(AI-capable) 시스템이다. HPC 및 AI 워크로드 처리 성능을 측정하는 HPL 혼합 정밀도(Mixed-Precision : MxP) 벤치마크에서 전체 시스템의 89%만을 가동한 상태에서 10.6 엑사플롭을 달성했다. 엑사스케일 컴퓨팅 시스템은 초당 10의 18제곱 번의 작업을 처리할 수 있으며, 이러한 대규모 컴퓨팅 역량을 통해 인류가 당면한 어려운 문제를 해결해 나갈 수 있다. 오로라는 엑사스케일의 규모와 범위를 지원할 수 있도록 설계된 HPE 크레이 EX 슈퍼컴퓨터(HPE Cray EX supercomputer)로 구축됐다. 또한, 오로라는 단일 시스템으로는 개방형 이더넷 기반 슈퍼컴퓨팅 인터커넥트 솔루션인 HPE 슬링샷(HPE Slingshot)이 최대 규모로 배포된 시스템이기도 하다. 이러한 패브릭 시스템은 오로라의 컴퓨팅 노드 엔드포인트 7만 5000개, 2400개의 스토리지 및 서비스 네트워크 엔드포인트를 5600개의 스위치와 연결한다. 이를 통해 오로라의 컴퓨팅 블레이드 1만 624개, 인텔 제온 CPU 맥스 시리즈 프로세서(Intel Xeon CPU Max Series Processor) 2만 1248개 및 인텔 데이터 센터의 GPU 6만 3744개 유닛 전반에 걸쳐 고속 네트워킹을 지원함으로써 성능을 향상시킨다.     초기 설계 단계부터 AI 지원 시스템으로 개발된 오로라를 기반으로 연구원들은 생성형 AI 모델을 구동함으로써 과학 발전을 더욱 가속할 수 있게 되었다. 일례로 과학자들은 인간 두뇌 속 800억 개의 뉴런에 대해 더 깊이 연구하기 위한 브레인 매핑(brain mapping : 뇌 지도화) 연구, 딥러닝을 활용한 고에너지 입자 물리학, 머신 러닝 기술을 통한 신약 설계 및 개발 등 오로라를 활용해 초기 AI 기반 연구를 진행한 바 있다. 오로라 엑사스케일 슈퍼컴퓨터는 HPE, 인텔, 미국 에너지부, 아르곤 국립 연구소간 파트너십의 결과로, 혁신 엔지니어링 기술로 과학 기술 발전에 이바지하기 위해 공동 투자 및 협력을 진행했다. 오로라 초기 과학 프로그램(Aurora Early Science Program)을 통해 입증된 바와 같이 민관 부문의 파트너십은 과학 기술 진보를 위해서 필수이다. 나아가, 연구원들은 오로라 시스템의 최적화 및 스트레스 테스트(stress-test) 과정의 일환으로 이미 다양한 프로그래밍 모델, 언어 및 애플리케이션을 시스템에서 성공적으로 실행했다. HPE의 트리시 댐크로거(Trish Damkroger) HPC 및 AI 인프라 솔루션 담당 수석 부사장 겸 총괄은 “오로라는 세계가 당면한 가장 어려운 문제들을 해결하고 획기적인 과학 기술을 발견하기 위한 대규모 컴퓨팅 역량을 제공할 수 있으며, 이러한 오로라를 통해 엑사스케일 컴퓨팅에 또 하나의 이정표를 만들어갈 수 있게 되었다”면서, “HPE는 미국 에너지부, 아르곤 국립 연구소, 그리고 인텔과의 견고한 파트너십을 통해 이러한 대규모 수준의 시스템을 현실화할 수 있게 된 점을 자랑스럽게 여기며, 이러한 성과는 혁신적인 공동 엔지니어링, 다양한 부서들의 협력 그리고 무엇보다 과학 발전과 인류를 위해 최첨단 기술을 발전시키겠다는 핵심 가치를 공유함으로써 달성할 수 있었다”고 말했다.
작성일 : 2024-05-23
델, 대규모 AI 위한 포트폴리오 ‘델 AI 팩토리’ 발표
델 테크놀로지스는 DTW(델 테크놀로지스 월드) 행사에서 ‘델 AI 팩토리(Dell AI Factory)’를 발표하면서 디바이스, 데이터센터, 클라우드에 걸친 광범위한 AI 포트폴리오를 제시했다.  ‘델 AI 팩토리’는 PC, 서버, 스토리지, 데이터 보호 및 네트워킹을 아우르는 델의 엔드-투-엔드 AI 포트폴리오를 바탕으로 구성됐다.  델은 증가하는 AI 수요를 충족하기 위한 목적형 설계의 오퍼링들을 추가하며 이 포트폴리오를 확장하고 있다. 기업과 기관에서는 델과 델의 파트너사들이 구성한 개방형 생태계를 바탕으로 각각의 고유한 목적에 부합하는 AI 애플리케이션을 구축할 수 있다.     델은 스냅드래곤 X 엘리트(Snapdragon X Elite) 및 스냅드래곤 X 플러스(Snapdragon X Plus) 프로세서를 기반으로 새로운 마이크로소프트 AI 경험을 제공하는 신제품 코파일럿+ PC(Copilot+ PC) 제품군을 공개했다. 이 제품들은 전문가 및 일반 소비자를 대상으로 하며, 향상된 성능과 배터리 지속시간을 갖춘 내장형 AI가 포함되어 있다. 사용자는 GPU, CPU, NPU 전반에 걸친 로컬 컴퓨팅 및 프로세싱을 기반으로 사용자들은 혁신적인 PC 환경을 경험할 수 있다. 델 파워스케일 F910(Dell PowerScale F910) 올플래시 파일 스토리지는 최대 127% 향상된 성능과 높은 상면 효율을 바탕으로 AI 워크로드의 까다로운 문제들을 해결하고 AI 인사이트 도출 시간을 단축한다. 파워스케일 ‘프로젝트 라이트닝(Project Lightning)’은 새로운 고성능 병렬 파일 시스템(parallel file system) 소프트웨어 아키텍처로 향후 ‘델 파워스케일’ 제품군에 통합될 예정이며, 대규모의 복잡한 AI 워크플로의 학습 시간을 단축한다. AI 데이터 보호를 위한 델 솔루션(Dell Solution for AI Data Protection)은 델의 데이터 보호 소프트웨어, 어플라이언스 및 레퍼런스 구성을 기반으로 중요한 AI 애플리케이션 및 AI 데이터를 효과적으로 보호한다. 델 파워스위치 Z9864F-ON(Dell PowerSwitch Z9864F-ON)은 브로드컴 토마호크 5(Broadcom Tomahawk 5) 칩셋과 최신 네트워크 아키텍처를 기반으로 뛰어난 처리량, 짧은 지연시간, 간편한 확장성을 제공하며, AI 애플리케이션의 네트워크 성능을 2배로 높여 가장 까다로운 네트워킹 환경도 충족할 수 있게끔 설계됐다. 델 파워엣지 XE9680(Dell PowerEdge XE9680) 서버는 브로드컴 400G PCIe 5.0세대 이더넷 어댑터를 지원한다. 파워엣지 서버와 파워스위치 Z9864F-ON, 그리고 400G PCIe 5.0세대 이더넷 어댑터의 조합으로 강력한 이더넷 패브릭을 구축하고 성능, 확장성 및 효율성을 향상시킬 수 있다.  또한, 델은 파트너들과 긴밀한 협력을 통해 고객들이 쉽게 AI를 시작할 수 있도록 견고하게 통합된 솔루션을 제공한다고 설명했다. 델 테크놀로지스는 생성형 AI의 온프레미스 구축과 관련해 허깅 페이스와 협력한 인프라 솔루션 공급업체로서 ‘델 엔터프라이즈 허브 온 허깅페이스(Dell Enterprise Hub on Hugging Face)’를 새롭게 소개했다. 허깅페이스의 오픈 플랫폼을 활용해 기업들은 온프레미스 델 인프라에서 손쉽고 안전하게 맞춤형의 개방형 LLM(대규모 언어 모델)을 훈련하고 구축할 수 있으며 챗봇이나 고객지원과 같은 AI 서비스를 더 빨리 구축할 수 있다. 델은 메타(Meta)와의 협력을 공고히 하면서 메타 라마 3(Meta Llama 3) 모델을 온프레미스 델 인프라 상에 간편하게 구축하도록 지원하고, 테스트 결과, 성능 데이터, 구축 레시피 등을 제공한다. 마이크로소프트 애저 AI 서비스를 위한 델 솔루션(Dell Solution for Microsoft Azure AI Services)은 음성 트랜스크립션 및 번역 기능과 같은 AI 서비스의 구축 속도를 높여주며, ‘마이크로소프트 애저를 위한 델 에이펙스 클라우드 플랫폼(Dell APEX Cloud Platform for Microsoft Azure)’ 상에서 구동된다. 이외에도 델은 AI 이니셔티브를 통해 비즈니스 성과를 개선할 수 있도록 광범위한 AI 프로페셔널 서비스 포트폴리오를 지속적으로 확장해 나가고 있다고 전했다. 마이크로소프트 코파일럿 솔루션을 위한 구축 서비스(Implementation Services for Microsoft Copilot solutions)는 깃허브, 보안, 윈도, 및 세일즈 등 다양한 분야에서 코파일럿 환경을 도입 시 필요한 전문가 지침을 제공해 업무생산성을 향상시키도록 지원한다. 델 엔터프라이즈 허브 온 허깅페이스 가속 서비스(Accelerator Services for Dell Enterprise Hub on Hugging Face)는 허깅 페이스 내 델 포털을 사용할 때 신속한 AI 프로토타이핑을 할 수 있도록 각종 툴 및 모델을 선택하고 활용 사례를 적용할 수 있도록 전략적 조언을 제공한다. 한국 델 테크놀로지스의 김경진 총괄 사장은 “AI는 전례없는 속도로 비즈니스를 혁신하고 있다. 이제 모든 데이터센터는 AI의 속도와 규모를 다룰 수 있도록 설계되어야 하며, AI PC는 생산성 및 협업 방식을 혁신할 것”이라면서, “델은 광범위한 ‘델 AI 팩토리’ 포트폴리오와 파트너 생태계를 통해 온프레미스와 엣지, 클라우드 환경 전반에서 완벽하게 제어할 수 있는 AI 구축을 지원하고자 한다”고 전했다.
작성일 : 2024-05-21
파수, 파로스 인수하면서 OT 보안 시장에 진출
파수가 OT 보안 전문기업 파로스네트웍스를 인수하고 OT(운영기술) 보안 시장에 본격 진출한다고 밝혔다. 파수는 차별화된 역량과 노하우를 갖춘 파로스를 기반으로 중요도가 높아지고 있는 OT 보안 시장을 개척해 나갈 계획이다. OT 보안은 제조, 에너지, 운송 산업 등의 장비, 시설 등 물리적 인프라를 관리하는 OT 시스템을 안전하게 보호하는 것을 목표로 한다. ICS(산업제어시스템) 등을 포함한 OT 시스템이 공격받으면 공장이나 발전소가 멈추거나 오작동할 수 있어 막대한 경제적, 인적, 환경적 피해를 초래할 수 있다. 과거 폐쇄적으로 운영되던 OT 시스템은 디지털 전환의 확산으로 IT 시스템과 연결되면서 사이버 공격에 노출될 위험성이 높아졌다. 실제 최근 대형 제조기업 및 국가기반시설을 대상으로 사이버 공격이 급증함에 따라, EU는 강력한 징벌적 과징금을 부여하는 ‘네트워크 및 정보 시스템 지침2(NIS2)’을 제정했으며 국내에도 관련 법제화의 목소리가 높아지고 있다. 파수가 인수한 파로스는 OT 보안 솔루션 컨설팅 전문업체로 15년 이상의 노하우를 기반으로 국내 초대형 공장 등을 포함한 다수의 대기업 고객과 구축 사례를 보유하고 있다. 특히 단순한 OT 보안 솔루션 공급을 넘어 구축부터 운영, 안정화까지 OT 보안을 도입하고 적용하기 위한 전 과정을 지원하는 역량과 레퍼런스를 갖췄다.     파수는 최근 기업용 LLM ‘엘름(Ellm)’을 출시하며 기업용 생성형 AI 시장에 뛰어든 데 이어, 이번에 파로스 인수를 통해 OT 보안까지 사업을 확장하게 됐다. 특히 국내도 OT 보안 의무화의 가능성이 점차 높아짐에 따라 관련 수요도 급증할 것으로 예상돼, OT 보안이 AI 사업과 함께 파수의 새로운 성장동력이 될 수 있을 것이라 기대된다. 파수는 파로스의 역량과 노하우를 기반으로 개화하는 OT 시장을 선점할 수 있도록 다양한 서비스를 개발할 예정이다. 파수의 조규곤 대표는 “IoT와 IIoT(산업용 사물 인터넷), 스마트 공장과 산업 자동화 등 운영 시스템이 급속도로 고도화되면서 OT 보안의 필요성도 커지고 있다”면서, “하지만 IT 시스템과는 전혀 다른 독립적인 프로토콜과 운영 환경 등으로 보안 적용이 늦어지고 있으며, 특히 국내는 전문성과 노하우의 부족으로 OT 보안 도입에 어려움을 겪고 있다”고 설명했다. 또한, “파수의 일원이 된 파로스는 구축부터 운영, 안정화에 이르는 독보적인 OT 보안 역량과 레퍼런스를 갖췄다”며, “파수와 파로스의 시너지를 기반으로 급성장이 기대되는 OT 보안 시장을 이끌어 나갈 수 있도록 노력하겠다”고 덧붙였다.
작성일 : 2024-05-20