• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "서버"에 대한 통합 검색 내용이 3,884개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
E8, 보안형 매핑 설루션 ‘NDX 클라우드’ 출시
이에이트가 글로벌 수준의 기술력과 국내 보안 요구를 결합한 보안형 클라우드 매핑 설루션 ‘(NDX 클라우드(NDX CLOUD)’를 공식 출시한다고 밝혔다. 이에이트는 “디지털 트윈은 단순한 가상 모델링을 넘어, 현실 세계의 데이터를 실시간으로 연결해 예측과 제어가 가능한 ‘지능형 운영 시스템’으로 진화하고 있다”면서, “이를 위한 플랫폼 개발은 이제 선택이 아닌 필수“라고 설명했다. 다만 국내 공공 및 산업 환경은 여전히 데이터 주권과 보안 규제로 인해 디지털 전환에 가장 큰 걸림돌이 되고 있다. 이에이트는 이러한 문제를 극복하기 위해, 글로벌 기술이 검증된 정밀 측량·매핑 엔진을 기반으로 국내 보안 환경에 최적화된 클라우드 플랫폼을 개발했다. NDX 클라우드는 픽스포디(PIX4D)와의 협업을 통해 확보한 글로벌 기술력 위에, 국내 보안 표준과 서버 운영 요건을 충족하는 구조로 설계됐다. 국내 서버 운영, 폐쇄망·온프레미스 설치 지원, 권한 기반 접근 제어 등으로 정부 과제에서 요구되는 높은 수준의 보안 요건을 충족하며, 이를 통해 외산 설루션의 한계였던 국내 데이터 주권 문제와 보안 인증 제약을 동시에 해소했다.     이에이트는 이번 설루션을 기반으로 정부 디지털 트윈, 공간 정보 고도화, 스마트시티, 국방 등 주요 공공 프로젝트 진출을 가속화할 계획이다. 이와 더불어 E8는 온톨로지 AI 기반 플랫폼 ‘NDX 프로 AI(NDX PRO AI)’를 중심으로 산업형 AI 생태계 구축에도 속도를 내고 있다. 이에이트는 데이터의 의미와 관계를 이해하는 온톨로지 AI 기술이 자사의 ‘AI for Humanity’ 비전을 구현하는 핵심 축이며, 산업 전반의 AI 전환을 이끄는 기반이 될 것으로 기대한다고 전했다. 이에이트 관계자는 “NDX 클라우드는 글로벌 기술 검증과 국내 보안 최적화를 결합한 플랫폼으로, 공공과 산업 전반의 디지털 인프라 전환을 빠르게 앞당길 것”이라며, “향후 온톨로지 기반 AI 디지털 트윈 플랫폼과 연계해 산업 데이터를 지능적으로 관리·분석하는 서비스로 발전시킬 계획”이라고 말했다.
작성일 : 2025-10-31
한국산업지능화협회, ‘SMATOF 2025’ 및 ‘제조 AX 혁신 콘퍼런스’ 개최
한국산업지능화협회가 공동 주관하는 경남 대표 스마트팩토리 & 자동화산업 전문전시회인 ‘제9회 창원 국제 스마트팩토리 및 생산제조기술전(이하 SMATOF 2025)’이 10월 29일 개막했다. 협회는 올해 처음으로 ‘산업 AI 특별관’을 구성해, 산업 AI 기술과 플랫폼을 선도하는 기업들의 혁신 사례와 설루션을 선보였다. 이번 특별관에는 서버키트, 온스트림, 이웨이브솔루션, 넘프, 나이스솔루션 등 주요 기업들이 참여해 산업 AI 기반의 제조 혁신 사례를 공유했다. 또한 태국국제로지스틱스협회, 말레이시아 제조업 연맹, 베트남호치민자동화협회 등 해외 주요 제조 관련 기관을 통해 약 70여 개사의 바이어가 방한했다. 행사 기간 동안 ▲1:1 수출상담회 ▲스마트 등대공장 및 경남 미래전략산업 대표공장 시찰 프로그램 등을 통해 우리 기업들과의 글로벌 네트워킹과 협력 기회를 마련했다.     한편, 10월 30일 개최된 ‘2025 제조 AX 혁신 콘퍼런스’는 창원의 5대 주력산업인 기계, 항공, 방산, 자동차, 미래 모빌리티 분야를 중심으로, DX·AX 선도기업의 실제 기술 적용 사례와 성공 전략이 공유된다. 기조 세션에서는 ▲AWS가 ‘제조AX 추진 전략, 데이터에서 더 많은 가치를!’이라는 주제로, 최적의 제조 AX 성과를 달성할 수 있는 방안과 실제 사례를 소개했다. ▲유비씨는 ‘From DX to AX : 앞서가는 기업들이 선택한 무인화·자율화 디지털 트윈 전략’을 주제로, DX 단계를 넘어 자율화(AX) 시대를 여는 핵심 전략과 2차전지, 조선, 물류 등 실제 산업 사례를 소개했다. ▲B&R 인더스트리얼 오토메이션은 ‘AI와 자동화의 융합 : 제조 혁신을 가속하는 트랜스포메이션 전략’을 주제로, AI와 클라우드 협업을 통해 엔지니어링 환경을 혁신하는 방법을 제시했다. 이 밖에도 일반 세션에서는 온로봇 코리아, 넘프, 온스트림, 서버키트가 참여해 스마트 공장 설루션, 로컬 LLM 적용 사례, 공정 최적화 및 예지보전 등 제조 AI 적용 전략과 실무적 인사이트를 공유했다. 한국산업지능화협회 김태희 혁신기획센터장은 ‘이번 행사를 계기로 지역과 기업 간의 협력 네트워크를 강화하고, 산업 현장의 디지털 전환(DX) 및 인공지능 전환(AX)을 지속적으로 지원해 나가겠다’고 밝혔다.  한편, SMATOF는 내년부터 격년제가 아닌 매년 개최되며, 2026년에는 10월 14일~16일 창원컨벤션센터(CECO)에서 열릴 예정이다.
작성일 : 2025-10-30
IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 정식 출시
IBM은 자사의 메인프레임 시스템 IBM z17 및 IBM 리눅스원 5(IBM LinuxONE 5)에 적용 가능한 인공지능(AI) 가속기 ‘스파이어 엑셀러레이터(Spyre Accelerator)’를 정식 출시한다고 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며, 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계되었다. 12월 초부터는 파워11(Power11) 서버용 제품도 제공될 예정이다. 오늘날 IT 환경은 기존의 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 전환되고 있으며, AI 에이전트는 저지연(low-latency) 추론과 실시간 시스템 반응성을 요구한다. 기업은 처리량의 저하없이 가장 까다로운 엔터프라이즈 업무와 AI 모델을 동시에 처리할 수 있는 메인프레임과 서버 인프라를 필요로 한다. IBM은 이러한 수요에 대응하기 위해서 생성형 및 에이전트 기반 AI를 지원하면서도 핵심 데이터, 거래, 애플리케이션의 보안과 복원력을 유지할 수 있는 AI 추론 전용 하드웨어가 필수적이라고 판단했다. 스파이어 엑셀러레이터는 기업이 중요한 데이터를 사내 시스템(온프레미스, on-premise) 내에서 안전하게 관리할 수 있도록 설계되었으며, 운영 효율성과 에너지 절감 효과도 함께 제공한다.     스파이어 엑셀러레이터는 IBM 리서치 AI 하드웨어 센터의 혁신 기술과 IBM 인프라 사업부의 개발 역량이 결합된 결과물이다. 시제품으로 개발된 이후 IBM 요크타운 하이츠 연구소의 클러스터 구축과 올버니대학교 산하 ‘신흥 인공지능 시스템 센터(Center for Emerging Artificial Intelligence Systems)’와의 협업을 통해 빠른 반복 개발 과정을 거쳐 완성도를 높였다. 이렇게 기술적 완성도를 높여 온 시제품 칩은 현재는 IBM Z, 리눅스원, 파워 시스템에 적용 가능한 기업용 제품으로 진화했다. 현재 스파이어 엑셀러레이터는 32개의 개별 가속 코어와 256억 개의 트랜지스터를 탑재한 상용 시스템온칩(SoC, system-on-a-chip) 형태로 완성되었다. 5나노미터 공정 기술을 기반으로 제작된 각 제품은 75와트(Watt) PCIe 카드에 장착되며, IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. IBM 고객들은 스파이어 엑셀러레이터를 통해 빠르고 안전한 처리 성능과 사내 시스템 기반의 AI 가속 기능을 활용할 수 있다. 이는 기업이 IBM Z, 리눅스원, 파워 시스템 상에서 데이터를 안전하게 유지하면서도 AI를 대규모로 적용할 수 있게 되었음을 의미한다. 특히, IBM Z 및 리눅스원 시스템에서는 텔럼 II(Telum II) 프로세서와 함께 사용되어 보안성, 저지연성, 높은 거래 처리 성능을 제공한다. 이를 통해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에 다중 AI 모델을 적용할 수 있다. IBM 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 기업 업무 흐름에 맞춘 종합적인 AI 활용이 가능하다. 고객은 해당 서비스를 한 번의 클릭으로 설치할 수 있으며, 온칩 가속기(MMA)와 결합된 파워용 스파이어 엑셀러레이터는 생성형 AI를 위한 데이터 변환을 가속화해 심층적인 프로세스 통합을 위한 높은 처리량을 제공한다. 또한 128개 토큰 길이의 프롬프트 입력을 지원하며, 이를 통해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. 이러한 성능은 IBM의 소프트웨어 스택, 보안성, 확장성, 에너지 효율성과 결합되어, 기업이 생성형 AI 프레임워크를 기존 업무에 통합해 나가는 여정을 효과적으로 지원한다. IBM 인프라 사업부 최고운영책임자(COO)이자 시스템즈 사업부 총괄 배리 베이커(Barry Baker) 사장은 “스파이어 엑셀러레이터를 통해 IBM 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다. 이 기술 혁신은 고객이 AI 기반 핵심 업무를 보안성과 복원력, 효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다”고 말했다. IBM 반도체 및 하이브리드 클라우드 부문 무케시 카레(Mukesh Khare) 부사장은 “IBM은 2019년 AI 리서치 하드웨어 센터를 설립해, 생성형 AI와 대규모 언어 모델(LLM)이 본격적으로 확산되기 이전부터 AI의 연산 수요 증가에 대응해 왔다. 최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데, 해당 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다”면서, “이번 스파이어 칩의 정식 출시로 IBM 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 되었다”고 설명했다.
작성일 : 2025-10-28
한국산업지능화협회, SMATOF 2025 및 ‘제조 AX 혁신 콘퍼런스’ 개최
한국산업지능화협회는 스마트 공장 및 자동화 산업 전문전시회인 ‘제9회 창원 국제 스마트팩토리 및 생산제조기술전(이하 SMATOF 2025)’이 10월 29일~31일 3일간 창원컨벤션센터(CECO)에서 개최된다고 전했다. 이번 행사는 경상남도와 창원특례시가 주최하고 한국산업지능화협회, 경남관광재단, 경남로봇산업협회, FA저널, 인더스트리 뉴스가 공동 주관한다. 창원시는 창원국가산단에 혁신 가치를 더해 미래 산업의 새로운 성장동력을 창출하기 위해 다양한 중장기 비전을 추진하고 있다. 이를 위해 ▲‘창원산업혁신파크’ 조성을 통한 산업 구조의 대전환 ▲제조업에 첨단 기술을 접목하는 디지털·인공지능 전환(DX·AX) 준비 ▲산업 공간에 문화적 요소를 융합한 ‘창원문화선도산단’ 조성 등을 단계적으로 구체화하며 산업 생태계 혁신에 속도를 내고 있다. 이에 발맞추어 올해로 9회차를 맞이한 SMATOF 2025는 ‘창원산단의 재도약, 제조업의 디지털 혁신을 DRIVE하다’를 주제로 개최되며, 디지털 전환(digitalization), 산업혁명(revolution), 혁신(innovation), 비전(vision), 전시회(exhibition) 다섯 가지 키워드로 구성하여 스마트 제조업의 미래상을 제시할 예정이다. 또한 태국국제로지스틱스협회, 말레이시아 제조업 연맹, 베트남호치민자동화협회 등 해외 제조 분야 주요 협회를 통해 약 70여 개사의 바이어가 방한한다. 주최 측은 바이어와 참가기업 간 1:1 수출상담회를 운영하고, 스마트 등대공장 및 경남 미래전략산업 대표공장 시찰 프로그램을 진행해 우리 기업들의 해외 시장 진출과 글로벌 네트워킹을 지원할 예정이다.     한편, 한국산업지능화협회는 제조업 전반에 걸친 AX 확산을 위해 올해 처음 ‘산업AI 특별관’을 선보인다고 전했다. 이 특별관에는 산업 AI 기술과 플랫폼을 공급하는 대표 기업들이 참여하며, 서버키트, 온스트림, 이웨이브솔루션, 넘프, 나이스솔루션 등 기업들이 산업 AI 혁신 사례와 설루션을 선보인다. 10월 30일에 개최되는 ‘2025 제조 AX 혁신 콘퍼런스’는 창원컨벤션센터 1층에 새로 오픈한 ‘더그레이드’에서 열릴 예정이다. 창원의 5대 주력산업인 기계, 항공, 방산, 자동차, 미래모빌리티 분야에 산업 AI 도입과 디지털·인공지능 전환을 지원할 수 있는 기업들이 참여해, 핵심 전략과 실증 사례를 공유한다. 기조 세션에서는 아마존웹서비스(AWS)가 참여해 ‘제조 AX 추진 전략, 데이터에서 더 많은 가치를’이라는 주제로 산업 AI 우수 비즈니스 모델 사례를 발표할 예정이다. 한국산업지능화협회의 이길선 전무이사는 “창원은 국내 제조산업의 중심지로, 디지털·인공지능 대전환을 통해 글로벌 산업 수도로 도약을 준비하고 있다”면서, “이번 행사를 통해 경남 지역 제조 기반의 수요기업과 산업 AI 설루션 공급기업 간 협력 네트워크를 강화하고, 선도 기업의 비즈니스 모델과 혁신 사례를 공유함으로써 지역 산업 전반의 디지털·AI 전환 확산을 적극 지원하겠다”고 밝혔다.
작성일 : 2025-10-23
HPE, 에릭슨과 협력해 듀얼모드 5G 코어 설루션 검증
HPE는 에릭슨과 협력해 통신 서비스 사업자가 멀티벤더 인프라 스택을 구축하는 과정에서 직면하는 핵심 과제를 해결하기 위한 공동 검증 랩 설립을 발표했다. 이번 협력은 클라우드 네이티브 기반의 AI 지원 듀얼모드 5G 코어 설루션의 검증을 통해, 새로운 서비스 도입 과정의 복잡성을 관리하면서도 고성능·확장성·효율성을 갖춘 네트워크를 구축해야 하는 증가하는 수요에 대응한다. HPE와 에릭슨은 이를 기반으로 통신사들이 운영을 간소화하고 혁신을 가속화하며, 초연결 시대의 요구사항을 충족할 수 있도록 지원할 계획이다. 공동 검증 랩은 상호운용성 테스트를 수행하고 검증된 설루션이 통신사의 요구사항을 충족하는지 확인하는 테스트 환경으로 활용된다. 이 스택은 에릭슨의 듀얼모드 5G 코어 설루션과 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) Gen12 서버, 앱스트라 데이터센터 디렉터(Apstra Data Center Director) 기반으로 관리되는 HPE 주니퍼 네트워킹(HPE Juniper Networking) 패브릭, 그리고 레드햇 오픈시프트(Red Hat OpenShift)로 구성된다. ▲‘에릭슨 듀얼 모드 5G 코어’는 5G와 4G 네트워크를 모두 지원하는 설루션으로, 효율적인 확장 및 미래 대비 네트워크 구축을 원하는 통신사의 복잡성과 운영 비용을 절감한다. ▲‘HPE 프로라이언트 DL360 및 DL380 Gen12 서버’는 인텔 제온 6 프로세서를 탑재해 AMF, UPF, SMF 등 네트워크 집약적 텔코 CNF(Containerized Core Network Functions)를 위한 최적의 성능을 제공한다. 또한 칩에서 클라우드까지 보안을 구현한 HPE Integrated Lights Out(iLO) 7을 통해 모든 계층에서 내장형 보안을 제공한다. ▲‘HPE 주니퍼 네트워킹 고성능 패브릭’은 QFX 시리즈 스위치와 앱스트라 데이터센터 디렉터를 기반으로 인텐트 기반 자동화(Intent-based Automation)와 AIOps 기반 보증 기능을 통해 운영 효율을 강화하고 비용을 절감한다. ▲‘레드햇 오픈시프트’는 공통 클라우드 네이티브 텔코 플랫폼으로서, 통신사가 새로운 서비스를 빠르게 개발·배포·확장할 수 있는 민첩성을 제공한다. 이를 통해 시장 출시 시간을 단축하고 기존 배포 주기를 개선하며, 코어에서 에지까지 일관되고 자동화된 운영 경험을 제공해 복잡한 네트워크 기능 배포 및 관리를 간소화한다.     스웨덴 에릭슨 본사 인근에 위치한 이번 검증 랩은 2025년 말 가동을 시작할 예정이다. 또한 실제 고객 테스트와 피드백을 통해 검증을 진행하고, 2026년 상반기에는 통합 설루션의 상용 검증을 완료해 시장 출시 속도를 높이고 라이프사이클 관리 효율을 강화할 계획이다. HPE의 페르난도 카스트로 크리스틴(Fernando Castro Cristin) 텔코 인프라 사업부 부사장 겸 총괄은 “HPE는 에릭슨과의 전략적 파트너십을 바탕으로 통신사가 5G 및 AI 중심의 경제에서 성공할 수 있도록 혁신적인 기술 설루션을 제공하는 데 주력하고 있다”면서, “에릭슨의 클라우드 네이티브 듀얼모드 5G 코어와 레드햇 오픈시프트를 검증된 차세대 HPE 컴퓨트 인프라 및 HPE 주니퍼 네트워킹 패브릭과 통합함으로써, HPE는 통신사가 신속한 서비스 배포와 수요 기반 확장, 트래픽 변동에 대한 유연한 대응, 예측 가능한 라이프사이클 관리, 그리고 빠르게 진화하는 기술 환경에 적응할 수 있는 새로운 통합 설루션을 개발하고 있다”고 말했다. 에릭슨의 크리슈나 프라사드 칼루리(Krishna Prasad Kalluri) 코어 네트웍스 설루션 및 포트폴리오 부문 총괄은 “에릭슨은 5G 및 코어 네트워크 분야의 글로벌 리더로서, 통신사가 클라우드 네이티브 네트워크로 전환하는 여정을 간소화할 수 있도록 개방성과 혁신을 지속적으로 추진하고 있다”며, “HPE와의 협력 및 공동 검증 랩 설립은 멀티벤더 인프라 환경에서 클라우드 네이티브 5G 코어 설루션 개발을 한층 더 발전시키는 중요한 계기가 될 것”이라고 밝혔다.
작성일 : 2025-10-20
AWS, 포괄적 AI 에이전트 플랫폼 ‘아마존 베드록 에이전트코어’ 출시
아마존웹서비스(AWS)가 포괄적인 에이전틱 플랫폼인 ‘아마존 베드록 에이전트코어(Amazon Bedrock AgentCore)’를 출시한다고 발표했다. AWS는 “미션 크리티컬 시스템 구축 경험을 바탕으로 개발된 아마존 베드록 에이전트코어는 안전하고 신뢰할 수 있으며 확장 가능한 종합 에이전트 플랫폼으로, 에이전트의 비결정적 특성에 최적화된 프로덕션 환경을 제공한다”고 소개했다. 에이전트코어는 기업이 AI 에이전트를 파일럿에서 프로덕션까지 신속하게 전환하고 개발자가 에이전트를 구축, 배포, 운영하는 데 필요한 완전한 기반을 제공한다. 개발자는 복잡한 워크플로를 처리할 수 있도록 에이전트에 도구, 메모리, 데이터를 손쉽게 연결할 수 있으며, 몇 줄의 코드로 안전하고 확장 가능한 런타임 환경에 배포할 수 있다. 또한 엔터프라이즈급 접근 제어 및 관리 기능을 통해 안정적으로 운영할 수 있다. 이 모든 기능은 인프라를 관리 없이 원하는 모델이나 프레임워크를 자유롭게 선택해 쉽게 시작할 수 있다. 에이전트코어는 구축부터 배포, 운영까지 에이전트 개발 수명주기 전반에 걸쳐 완전 관리형 서비스를 제공하는 에이전틱 플랫폼이다. 기업은 원하는 모델이나 프레임워크를 자유롭게 조합해 사용할 수 있으며 엔터프라이즈급 인프라 및 도구에 대한 액세스와 함께 높은 유연성을 제공한다. 에이전트코어는 통합 또는 개별 사용이 가능한 컴포저블(composable) 서비스를 제공한다. 기업은 크루AI, 구글 ADK, 랭그래프, 라마인덱스, 오픈AI 에이전트 SDK, 스트랜드 에이전트 등 선호하는 프레임워크와 아마존 베드록에서 제공되는 모델 또는 오픈AI, 제미나이 등 아마존 베드록 외부 모델을 사용하여 필요한 에이전트코어 서비스를 선택할 수 있다.     에이전트코어 코드 인터프리터(AgentCore Code Interpreter)는 격리된 환경에서 에이전트가 코드를 안전하게 생성하고 실행할 수 있게 하며, 에이전트코어 브라우저(AgentCore Browser)는 대규모 웹 애플리케이션 상호작용을 지원한다. 에이전트코어 게이트웨이(AgentCore Gateway)는 기존 API와 AWS 람다(AWS Lambda) 함수를 에이전트 호환 도구로 전환하고 기존 모델 컨텍스트 프로토콜(Model Context Protocol : MCP) 서버에 연결하며, 지라, 아사나, 젠데스크 등 서드파티 비즈니스 도구 및 서비스와의 원활한 통합을 제공한다. 에이전트코어 아이덴티티(AgentCore Identity)를 통해 에이전트는 오스(OAuth) 표준을 사용한 적절한 인증 및 권한 부여로 이러한 도구에 안전하게 액세스하고 운영할 수 있다. AI 에이전트는 컨텍스트를 유지하고 상호작용을 통해 학습할 수 있어야 한다. 에이전트코어 메모리(AgentCore Memory)는 개발자가 복잡한 메모리 인프라를 관리하지 않고도 정교하고 컨텍스트를 인식하는 경험을 만들 수 있도록 지원하며, 에이전트가 사용자 선호도, 과거 상호작용, 관련 컨텍스트에 대한 상세한 이해를 구축하고 유지할 수 있게 한다. 아마존 클라우드워치(Amazon CloudWatch) 기반의 에이전트코어 옵저버빌리티(AgentCore Observability)는 실시간 대시보드와 상세한 감사 추적을 통해 포괄적인 모니터링을 제공한다. 기업은 모든 에이전트 작업을 추적하고 문제를 신속하게 디버깅하며 성능을 지속적으로 최적화할 수 있다. 오픈텔레메트리(OpenTelemetry : OTEL) 호환성을 통해 다이나트레이스, 데이터독, 아리제 피닉스, 랭스미스, 랭퓨즈 등 기존 모니터링 도구와 통합된다. 에이전트 워크로드는 기존 애플리케이션과 달리 실행 시간이 불규칙하다. 에이전트코어 런타임(AgentCore Runtime)은 이러한 변동성(variability)에 대응해 필요에 따라 제로에서 수천 개의 세션으로 자동 확장되며 장시간 실행 작업을 위한 업계 최고 수준의 8시간 런타임을 제공한다. 에이전트코어는 에이전트가 안전하게 작동할 수 있도록 모든 서비스에 보안을 내장했다. 가상 프라이빗 클라우드(VPC) 환경과 AWS 프라이빗링크(AWS PrivateLink)를 지원하여 네트워크 트래픽을 비공개로 안전하게 유지한다. 에이전트코어 런타임은 마이크로VM 기술을 통해 매우 높은 수준의 보안을 제공하여 각 에이전트 세션에 고유한 격리된 컴퓨팅 환경을 제공함으로써 데이터 유출을 방지하고 모든 상호작용의 무결성을 유지한다. 에이전트코어는 키로(Kiro), 커서AI(Cursor A)I와 같은 통합 개발 환경(IDE)과 호환되는 MCP 서버를 통해 프로덕션급 에이전트 구축을 지원한다. AWS는 “시작까지 단 몇 분밖에 걸리지 않지만 이는 단순한 도구가 아니라 강력한 보안을 유지하면서 제로에서 수천 개의 세션으로 즉시 확장할 수 있는 완전한 기능의 프로덕션급 설루션”이라고 소개했다. 아마존 디바이스 운영 및 공급망(Amazon Devices Operations & Supply Chain) 팀은 에이전트코어를 사용하여 에이전틱 제조 접근 방식을 개발하고 있다. AI 에이전트들은 제품 사양을 사용하여 함께 작업하며 수동 프로세스를 자동화하며 협업한다. 한 에이전트는 제품 요구사항을 읽고 품질 관리를 위한 상세한 테스트 절차를 만들고, 다른 에이전트는 제조 라인의 로봇에 필요한 비전 시스템을 훈련시킨다. 그 결과 기존에 며칠이 걸리던 객체 감지 모델 미세 조정이 1시간 이내에 높은 정밀도로 단축됐다. 에이전트코어는 뭄바이, 싱가포르, 시드니, 도쿄, 더블린, 프랑크푸르트, 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오리건) 등 9개 AWS 리전에서 정식 출시됐다. 기업은 에이전트코어에서 작동하도록 설계된 AWS 마켓플레이스(AWS Marketplace)의 사전 구축된 에이전트 및 도구를 통해 가치 실현 시간을 가속화할 수 있다.
작성일 : 2025-10-17
인텔, 추론 최적화 데이터센터용 GPU 신제품 발표
인텔은 2025 OCP 글로벌 서밋에서, 자사 AI 가속기 포트폴리오에 추가되는 주요 제품인 인텔 데이터센터용 GPU 신제품 코드명 ‘크레센트 아일랜드(Crescent Island)’를 발표했다. 이 GPU는 증가하는 AI 추론 워크로드 수요를 충족하도록 설계되었으며, 고용량 메모리·에너지 효율적인 성능을 제공한다. 추론이 주요한 AI(인공지능) 워크로드로 자리잡으며, 강력한 칩 이상의 요소, 즉 시스템 차원의 혁신이 성공을 가늠하는 주요 요소가 되었다. 하드웨어부터 오케스트레이션까지, 추론은 다양한 컴퓨팅 유형을 개발자 중심의 개방형 소프트웨어 스택과 통합하는 워크로드 중심의 개방형 접근 방식을 필요로 하며, 이러한 접근 방식은 배포 및 확장이 용이한 시스템으로 제공된다. 인텔은 “인텔 제온 6 프로세서, 인텔 GPU를 기반으로 구축한 설루션을 통해 AI PC부터 데이터 센터, 산업용 에지까지 엔드 투 엔드 설루션을 제공할 수 있는 입지를 갖추고 있다”면서, “성능, 에너지 효율성, 개발자 연속성을 위한 시스템 공동 설계 및 OCP(Open Compute Project)와 같은 커뮤니티와의 협력을 통해 AI 추론이 가장 필요한 모든 곳에서 실행될 수 있도록 지원하고 있다”고 전했다. 코드명 크레센트 아일랜드로 명명된 새로운 데이터센터 GPU는 공랭식 엔터프라이즈 서버에 맞춰 전력 및 비용 최적화를 이루었으며, 추론용 워크플로에 최적화된 대용량 메모리 및 대역폭을 제공하도록 설계되었다. 와트당 성능(PPW)이 최적화된 Xe3P 마이크로아키텍처에 기반을 둔 크레센트 아일랜드 GPU는 160GB의 LPDDR5X 메모리를 탑재했다. 또한 ‘서비스형 토큰(Token-as-a-Service)’ 공급업체 및 추론 사용 사례에 적합한 광범위한 데이터 유형을 지원한다. 인텔의 이기종 AI 시스템을 위한 개방형 통합 소프트웨어 스택은 조기 최적화 및 이터레이션(iteration) 작업이 가능하도록 현재 아크 프로 B(Arc Pro B) 시리즈 GPU에서 개발 및 테스트 중이다. 새로운 데이터센터용 GPU의 고객 샘플링은 2026년 하반기에 제공될 예정이다. 인텔의 사친 카티(Sachin Katti) 최고기술책임자(CTO)는 “인공지능은 정적 학습에서 에이전트형 AI가 주도하는 실시간·전역 추론으로 전환되고 있다”면서, “이러한 복잡한 워크로드를 확장하려면 적절한 실리콘을 적절한 작업에 매칭하는 이종 시스템이 필요하다. 인텔의 Xe 아키텍처 데이터센터 GPU는 토큰 처리량이 급증함에 따라 고객이 필요로 하는 효율적인 헤드룸 성능과 더 큰 가치를 제공할 것”이라고 밝혔다. 
작성일 : 2025-10-15
인텔, 팬서 레이크 아키텍처 공개하면서 18A 공정 기반의 AI PC 플랫폼 제시
인텔은 차세대 클라이언트 프로세서인 인텔 코어 울트라 시리즈 3(코드명 팬서 레이크)의 아키텍처 세부 사항을 공개했다. 2025년 말 출시 예정인 팬서 레이크는 미국에서 개발 및 제조되며, 진보된 반도체 공정인 인텔 18A로 제작된 인텔의 첫 번째 제품이 될 것으로 보인다. 인텔 코어 울트라 시리즈 3 프로세서는 인텔 18A 기반으로 제조된 클라이언트 시스템 온 칩(SoC)으로, 다양한 소비자 및 상업용 AI PC, 게이밍 기기, 에지 설루션을 구동할 예정이다. 팬서 레이크는 확장 가능한 멀티 칩렛 아키텍처를 도입하여 파트너사들에게 폼 팩터, 세그먼트, 가격대 전반에 걸쳐 향상된 유연성을 제공한다. 인텔이 소개한 팬서 레이크의 주요 특징은 ▲루나 레이크 수준의 전력 효율과 애로우 레이크 급 성능 ▲최대 16개의 새로운 P-코어 및 E-코어로 이전 세대 대비 50% 이상 향상된 CPU 성능 제공 ▲최대 12개의 Xe 코어를 탑재한 새로운 인텔 아크 GPU로, 이전 세대 대비 50% 이상 향상된 그래픽 성능 제공 ▲최대 180 플랫폼 TOPS(초당 수 조의 연산)를 지원하는 차세대 AI 가속화를 위한 균형 잡힌 XPU 설계 등이다.     인텔은 팬서 레이크를 PC뿐 아니라 로봇 공학을 포함한 에지 애플리케이션으로 확장할 계획이다. 새로운 인텔 로봇 공학 AI 소프트웨어 제품군과 레퍼런스 보드는 정교한 AI 기능을 갖춘 고객이 팬서 레이크를 제어 및 AI /인식 모두에 활용하여 비용 효율적인 로봇을 신속하게 혁신하고 개발할 수 있도록 지원한다.  팬서 레이크는 2025년 대량 생산을 시작하며, 첫 번째 SKU는 연말 이전에 출하될 예정이다. 또한 2026년 1월부터 폭넓게 시장에 공급될 예정이다.  한편, 인텔은 또한 2026년 상반기에 출시될 예정인 인텔 18A 기반 서버 프로세서인 제온 6+(코드명 클리어워터 포레스트)를 미리 공개했다. 팬서 레이크와 클리어워터 포레스트는 물론 인텔 18A 공정으로 제조된 여러 세대의 제품들은 모두 애리조나주 챈들러에 위치한 인텔의 공장인 팹 52에서 생산된다. 인텔의 차세대 E-코어 프로세서인 인텔 제온 6+는 인텔이 지금까지 개발한 가장 효율적인 서버 프로세서로, 인텔 18A 공정으로 제작된다. 인텔은 2026년 상반기에 제온 6+를 출시할 계획이다.  제온 6+의 주요 특징은 ▲최대 288개의 E-코어 지원 ▲전 세대 대비 사이클당 명령어 처리량(IPC) 17% 향상 ▲밀도, 처리량 및 전력 효율의 개선 등이다. 클리어워터 포레스트는 하이퍼스케일 데이터센터, 클라우드 제공업체 및 통신사를 위해 설계되어 조직이 워크로드를 확장하고 에너지 비용을 절감하며 더 지능적인 서비스를 제공할 수 있도록 지원한다.  인텔 18A는 미국에서 개발 및 제조된 최초의 2나노미터급 노드로, 인텔 3 대비 와트당 성능이 최대 15% 향상되고 칩 밀도가 30% 개선되었다. 이 공정은 미국 오리건 주 공장에서 개발 및 제조 검증 과정을 거쳐 초기 생산을 시작했으며, 현재 애리조나 주에서 대량 생산을 향해 가속화되고 있다. 인텔은 향후 출시될 자사의 클라이언트 및 서버 제품에서 최소 3세대에 인텔 18A 공정을 활용할 계획이다. 인텔 18A는 10년 만에 선보이는 인텔의 새로운 트랜지스터 아키텍처 리본FET(RibbonFET)를 적용해, 더 큰 확장성과 효율적인 스위칭을 통해 성능과 에너지 효율을 높인다. 그리고 새로운 백사이드 전원 공급 시스템인 파워비아(PowerVia)를 통해 전력 흐름과 신호 전달을 개선한다. 인텔의 첨단 패키징 및 3D 칩 적층 기술인 포베로스(Foveros)는 여러 칩렛을 적층 및 통합하여 고급 시스템 온 칩(SoC) 설계로 구현함으로써 시스템 수준에서 유연성, 확장성 및 성능을 제공한다.  인텔의 립부 탄(Lip-Bu Tan) CEO는 “우리는 향후 수십 년간 미래를 형성할 반도체 기술의 큰 도약으로 가능해진 흥미진진한 컴퓨팅의 새 시대에 접어들고 있다”며, “차세대 컴퓨팅 플랫폼은 선도적인 공정 기술, 제조 역량 및 첨단 패키징 기술과 결합되어 새로운 인텔을 구축하는 과정에서 전사적 혁신의 촉매가 될 것이다. 미국은 항상 인텔의 최첨단 연구개발, 제품 설계 및 제조의 본거지였다. 미국내 운영을 확대하고 시장에 새로운 혁신을 선보이면서 이러한 유산을 계승해 나가게 되어 자랑스럽게 생각한다”고 말했다.
작성일 : 2025-10-10
프로세스 자동화 Ⅲ - 유로 형상 설계 최적화
최적화 문제를 통찰하기 위한 심센터 히즈 (8)   이번 호에서는 파이프 유로 형상 설계 최적화를 위해 NX CAD와 심센터 스타-CCM+(Simcenter STAR-CCM+)를 사용하여 CAD 치수 변수를 수정하며 유동해석의 자동화 워크플로를 구성하고 최적화를 진행하는 과정을 소개한다. ■ 연재순서 제1회 AI 학습 데이터 생성을 위한 어댑티브 샘플링과 SHERPA의 활용 제2회 근사모델 기반의 최적화 vs. 직접 검색 기반의 최적화 제3회 수집 또는 측정된 외부 데이터의 시각화 및 데이터 분석 제4회 산포특성을 가지는 매개변수의 상관성 및 신뢰성 분석 제5회 실험 측정과 해석 결과 간의 오차 감소를 위한 캘리브레이션 분석 제6회 프로세스 자동화 Ⅰ – 구조 설계 최적화 제7회 프로세스 자동화 Ⅱ – 모터 설계 최적화 제8회 프로세스 자동화 Ⅲ – 유로 형상 설계 최적화 제9회 프로세스 자동화 Ⅳ – 다물리 시스템 최적화 제10회 프로세스 자동화 Ⅴ – 제조 공정 효율성 최적화   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 히즈를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR   이번에 사용할 심센터 스타-CCM+는 2006년에 첫 버전이 공개되었으며, 통합된 환경과 클라이언트-서버 접근 방식은 당시의 CFD 해석 방법에 새로운 패러다임을 제시했다. 첫 출시 이후 주요 기능이 빠르게 확장되었는데, 대표적으로 코드의 기반이 되는 ‘메시 파이프라인(mesh pipeline)’과, 산업용 CFD 최초로 다면체(polyhedral) 메시 기술을 도입한 점이 큰 변화였다. 2010년에는 컴퓨팅 하드웨어의 가격이 저렴해지는 반면, 라이선스 비용이 하드웨어 활용의 제약이 된다는 시장의 목소리를 반영해 ‘파워 세션(Power Session) 라이선스’를 도입하였고, 이를 통해 하나의 고정 비용으로 무제한 코어에서 대규모 병렬 해석을 수행할 수 있게 되어, 소프트웨어 사용 비용과 하드웨어 활용 간의 한계를 완전히 해소하는 사용 환경을 마련하였다. 2012년에는 업계 최초로 ‘오버셋 메시(overset meshes)’ 기능을 도입해 실제 현장에서 움직이는 격자 기반 해석을 더욱 직관적으로 구현할 수 있게 되었고, 2015년에는 산업용 CFD를 넘어 유체-구조 연성 등 진정한 다중물리 해석을 지원하기 위해 유한요소(finite elements) 해석 솔버를 통합했으며 전자기 해석까지 기능을 확장했다. 오늘날 스타-CCM+는 자동화 기능, 설계 탐색 도구, 포괄적인 다중물리 해석, 그리고 산업을 선도하는 데이터 분석 및 협업형 가상현실 환경까지 지원하며 그 성장을 지속하고 있다. 그 외에도 다양한 혁신적 진보를 이루었지만, 이 내용만으로도 지난 짧은 기간 내 스타-CCM+가 얼마나 빠르게 발전했는지 잘 보여준다고 할 수 있다.   그림 1   프로세스 자동화 다분야 설계 최적화(MDO : Multidisciplinary Design Optimization) 수행 시 설계 및 분석에서 효율적인 데이터 교환 및 프로세스 연동이 필수이므로, 데이터를 신속하고 정확하게 받기 위해서는 다이렉트 인터페이스 포털(Direct Interface Portal)이 필요하다. HEEDS(히즈)에서는 심센터 스타-CCM+를 위한 포털(Portal)을 제공하므로 빠른 설정이 가능하다. 그림 2는 HEEDS에서 제공하는 다양한 설루션의 다이렉트 인터페이스 포털 목록이다.   그림 2   <그림 3>은 파이프 유로 설계 최적화 자동화 워크플로의 주요 단계와 각 툴의 역할을 요약한다.   그림 3   첫째, NX_CAD 포털에서는 HEEDS가 NX CAD의 파트 파일(*.prt)을 NX Expressions를 활용하여 변수(치수 등)를 자동으로 수정한다. 수정된 파이프 형상이 파라솔리드(parasolid) 형식(*.x_t)으로 내보내지는데, 이 파일에는 해석에 필요한 Named Face(경계면) 정보를 포함한다. 둘째, STAR-CCM+ 포털에서는 스타-CCM+ 해석 파일(*. sim)이 전달받은 신규 형상(*.x_t)을 읽고, 메시 업데이트와 경계조건 수정이 자동으로 적용된다. 이후 유동 해석이 수행된 뒤, 결과값은 HEEDS가 자동 추출한다. <그림 3>은 NX CAD와 스타-CCM+ 간의 입력/출력 파일 흐름, 형상 전송, 변수-응답 데이터 매핑 관계를 시각적으로 정리한다. 이처럼 각 단계를 자동화로 설정하면 설계 변수 변경부터 해석 실행 및 결과 평가까지 전체 최적화 과정을 빠르고 효율적으로 반복할 수 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-10-02