• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "네트워크"에 대한 통합 검색 내용이 3,502개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
에이수스, 엔비디아 GB10 기반 AI 슈퍼컴퓨터 ‘어센트 GX10’ 국내 출시
에이수스 코리아는 엔비디아 GB10 그레이스 블랙웰(Grace Blackwell) 기반의 개인용 AI 슈퍼컴퓨터 ‘Ascent GX10(어센트 GX10)’을 국내 공식 출시한다고 밝혔다. 에이수스 어센트 GX10은 높은 AI 성능과 공간 효율을 제공한다. 손바닥 정도의 사이즈임에도 최대 1000TOPs의 AI 성능을 구현하여 AI 연구원, 데이터 과학자뿐만 아니라 AI 기반 개발 및 연구를 필요로 하는 개인 및 기업 프로젝트에도 최적의 성능을 제공한다.     어센트 GX10은 내장된 GB10 그레이스 블랙웰 슈퍼칩을 통해 FP4 정밀도 기준 최대 1페타플롭의 AI 성능을 지원한다. 이를 위해 최신 세대 CUDA(쿠다) 코어와 5세대 텐서(Tensor) 코어를 탑재하였으며, NVLink C2C 인터커넥트를 통해 연결된 20개의 Arm 아키텍처 기반 고효율 코어를 포함하고 있다. 또한 128GB의 통합 시스템 메모리를 통해 최대 2000억개의 매개변수를 처리할 수 있으며, 엔비디아 커넥트X(NVIDIA ConnectX) 네트워크 인터페이스 카드를 활용해 GX10 시스템 두 대를 연결하여 라마 3.1(Llama 3.1)과 같이 더 많은 매개변수를 가진 대형 AI 모델도 효율적으로 학습하고 처리할 수 있다. 에이수스는 어센트 GX10이 가진 성능을 최대한 발휘할 수 있는 간편한 AI 모델 개발을 위한 쉬운 개발 환경을 제공한다. 개발자는 엔비디아 AI 소프트웨어 라이브러리를 사용할 수 있으며, 엔비디아 NGC 카탈로그와 엔비디아 개발자 포털에서 제공되는 소프트웨어 개발 키트(SDK), 오케스트레이션 도구, 프레임워크, 모델 등 다양한 리소스를 지원받을 수 있다. 여기에 더해 에이전트 AI 애플리케이션 구축을 위한 엔비디아 블루프린트(NVIDIA Blueprints)와 NIM 마이크로 서비스도 지원하여 다양한 연구 및 개발, 테스트가 가능하다. 에이수스는 국내 공식 대리점인 코잇, 크로스젠, 유니퀘스트, 대원CTS를 통해 어센트 GX10의 구매 및 상담이 가능하다고 전했다.
작성일 : 2025-10-31
OSC모듈러산업협회 출범… 제조형 스마트 건설 혁신 시동
제조형 건설 혁신을 주도할 ‘(가칭)OSC모듈러산업협회’가 10월 28일 창립총회를 개최하고 공식 출범했다. 이번 창립총회에서는 김인한 M3시스템즈 대표이사가 초대회장으로 추대되었으며, 협회의 정관 승인, 조직 구성 및 추진계획 등이 의결되었다. 또한 관련 건설·제조·자동화·로봇·IT 분야의 기업 및 국토교통부의 인사들이 참석하였으며, 최근 OSC(Off-Site Construction : 탈현장 건설) 모듈러로의 전환 흐름 속에서 민간 주도의 활동기구 탄생에 기대감을 표명했다. 최근 국내 건설산업은 현장 시공 중심의 전통 방식에서 벗어나 ▲공장 제조 기반 DfMA 설계 ▲로봇 기반 자동 조립 ▲BIM/AI 기반 스마트 생산 제어 체계 ▲탄소중립 실현을 위한 저탄소 OSC 시스템 등으로 전환하려는 노력을 계속하고 있다. 이에 따라 모듈러·철골·PC 등 OSC 기반 기술을 통합적으로 이끌 민간 주도형 산업 거버넌스 구축 필요성이 지속 제기되어 왔다. OSC 모듈러는 탈현장 공법과 조립형 건축 유닛 생산을 아우르며, 설계·제조·조립·운영 전 과정을 공장 중심으로 수행하는 제조형 건설 방식이다. 이는 건설 산업 전반의 생산성, 비용, 품질 그리고 친환경성을 동시에 혁신할 미래 주력 산업으로 빠르게 부상하고 있다. 이번에 출범한 OSC모듈러산업협회는 ▲기술·품질 표준화 체계 구축 ▲정책·제도 기반 강화 및 인증·조달 체계 확립 ▲생애주기 기반 산업 생태계 및 민관 협력 네트워크 조성 ▲핵심 기술 고도화 및 전문 인력 양성 ▲시장 활성화 및 수요자 인식 제고 ▲글로벌 경쟁력 강화 및 친환경 지속가능성 확보 등을 핵심 목표로 제시하였다. 협회는 이후 분야별 전문분과를 구성하고 연구조합을 결성하여 각종 연구개발 사업 발굴, 산업계 공동 R&D 등을 적극적으로 추진할 계획이다. 초대회장으로 선출된 김인한 대표는 “OSC 모듈러는 건설을 제조업 수준의 혁신산업으로 도약시킬 핵심 동력”이라며 “협회를 중심으로 민간 기술 역량과 정부 정책이 맞물리는 산업 생태계를 구축해 글로벌 시장 선점에 나서겠다”고 밝혔다.  
작성일 : 2025-10-28
다쏘시스템, “LCA·DPP 연계 프로젝트 수주로 국내 기업의 지속가능성 경쟁력 강화 지원”
다쏘시스템이 바이오소재 스타트업인 마이셀과 함께 LCA(전과정평가)와 DPP(디지털 제품여권)를 코피니티엑스(Cofinity-X)와 연계하는 프로젝트를 공식 수주했다고 밝혔다. 이번 프로젝트는 국내 기업이 LCA·DPP·지속가능성(sustainability)을 선제적으로 도입한 사례로, 다쏘시스템은 “주도적 기술 파트너로 참여해 국제 표준 기반의 데이터 협업 체계를 구축했다는 점에서 큰 의미를 갖는다”고 설명했다. LCA는 제품의 전체 생명주기 동안 발생하는 온실가스 배출량을 계산하고 관리하는 기법이며, DPP는 모든 제조품이 다른 나라로 수출될 때 반드시 제출해야 하는 제품의 디지털 형태 여권이다. 두 제도는 유럽연합(EU)을 중심으로 확산 중이며, 특히 중소기업의 대응 여부가 완성품 기업의 DPP 완전성에 직접적인 영향을 미치기 때문에 국가 산업 전반의 경쟁력과 직결되는 핵심 과제로 떠오르고 있다. 유럽연합은 이미 CBAM(탄소국경조정제도)과 디지털 제품 여권(DPP) 제도를 도입하며 공급망 전반의 데이터 투명성 강화를 추진하고 있다. 이에 따라 글로벌 시장에서는 소재 기업에게 LCA 기반의 탄소 배출량과 지속가능성 데이터 제공이 필수 요건으로 자리 잡고 있다. 이번 계약을 통해 마이셀은 월 단위로 LCA·DPP 데이터를 발행하고 코피니티엑스 데이터스페이스와 직접 연계하는 체계를 구축하게 되었다. 다쏘시스템은 “이는 한국 기업이 유럽 공식 LCA·DPP 네트워크에 연결된 첫 사례”라면서, 프로젝트 전 과정에서 데이터 수집과 분석, 국제 표준 인증을 담당하는 트레스웍스, 시스템 통합, 글로벌 네트워크 연계를 아우르는 IBCT와 함께 엔드 투 엔드 서비스 체계를 구현했다고 전했다. 다쏘시스템은 향후 다양한 산업 분야에서 한국 기업이 국제 시장 경쟁력을 강화할 수 있도록 협력과 지원을 확대해 나갈 계획이다.     다쏘시스템코리아의 정운성 대표이사는 “이번 계약은 한국 기업들이 LCA와 DPP를 단순한 규제 대응이 아닌 전략적 경쟁력의 도구로 전환하는 중요한 계기가 될 것”이라며, “다쏘시스템은 데이터 기반 협업과 플랫폼을 통해 국내 산업이 지속가능성 측면에서 한 단계 도약할 수 있도록 적극 지원하겠다”고 밝혔다. 마이셀의 사성진 대표이사는 “이번 프로젝트는 단순한 데이터 보고 체계를 넘어, 소재 단계부터 투명한 ESG 데이터 생태계를 구현하는 새로운 산업 모델이다. 마이셀은 앞으로도 제품별 정밀한 탄소 및 지속가능성 데이터를 기반으로 글로벌 시장에서 신뢰받는 ESG 선도 소재 기업으로 성장할 것”이라고 전했다. 코피니티엑스의 토마스 뢴쉬(Thomas Rösch) 대표이사는 “이번 프로젝트는 한국과 유럽을 데이터로 연결하는 첫 사례이자, 글로벌 공급망에서 지속가능성을 실현하는 중요한 전환점”이라며, “코피니티엑스는 한국 기업이 LCA·DPP를 통해 새로운 사업 기회를 창출할 수 있도록 든든한 연결고리가 되겠다”고 덧붙였다.
작성일 : 2025-10-27
[신간] IT 트렌드 2026
김지현 지음 / 2만 원 / 크레타    AI로 만드는 부의 지도와 미래 전략 기술의 변화 속도는 인간의 시간을 훨씬 뛰어넘고 있다. 지난 1년간의 변화는 과거 10년을 무색하게 했고, 한 달의 변화가 작년 한 해를 압축할 정도다. 불과 1년 전만 해도 AI는 삶 속에 스며들 것으로 전망했지만, 이제는 거대한 비약을 이루며 서비스와 제품이 쏟아져 나오는 현실에 직면했다. 기술은 더 이상 선택지가 아니며, 사회, 경제, 문화, 기업, 정치, 외교까지 압도하고 비즈니스 모델은 이를 기반으로 매년 180도 변화한다. 2026년을 관통하는 IT 키워드는 'AI 에이전트 시대의 개막'과 '메타버스의 부활' 두 가지로 압축된다. AI는 이제 도구가 아닌, 인간을 대신해 움직이는 새로운 인터페이스 개념으로 기기와 소프트웨어, 앱과 서비스 전체에 탑재되어 우리의 손발이 될 것이다. 메타버스는 MR(혼합현실) 디바이스와 AI 에이전트가 결합하면서 긴 잠에서 깨어나 다시 한번 도약할 것으로 전망된다. 이 책은 AI 에이전트와 메타버스가 이끄는 세 번째 혁명의 문 앞에서, 다가올 2026년을 준비하기 위한 IT 기술의 흐름과 전략, 그리고 대한민국의 미래를 담았다. AI 에이전트가 여는 새로운 플랫폼 시대와 대한민국의 소버린 AI 전략 2026년 IT 산업은 '일하는 AI'가 현실이 되는 해다. 대답하고 글을 생성하던 AI는 이제 목표를 이해하고 계획을 세워 스스로 일을 끝내는 디지털 대리인으로 거듭났다. 지난 3년간 LLM에서 RLM, LAM으로 이어지는 진화는 'AI 에이전트'라는 형태, 즉 인간과 나란히 일하는 파트너로서 AX(AI 트랜스포메이션)를 이끌고 있다. 이 책은 이러한 변화 속에서 개인과 기업이 어떤 기술을 자동화하고 어떠한 역량을 쌓아야 하는지 명확히 제시하고자 했다. 동시에 미국과 중국의 AI 패권 경쟁 속에서 한국이 취해야 할 AI 전략, 즉 '소버린 AI'를 향한 의지를 강조했다. 한국은 반도체와 네트워크 강점을 기반으로 AI 데이터센터, 국산 LLM, 산업별 에이전트 서비스 생태계를 동시에 키워야 하는 시점을 맞이했다. 기업 또한 AX 전략을 강화하고, AI 윤리, 안정성, 데이터 주권 문제에 대한 책임의식도 가져야 한다고 역설했다. 이 책은 기술, 산업, 국가 전략을 동시에 관통하며 2026년을 준비하는 기업 리더와 실무자에게 꼭 필요한 전략서가 될 것이다. 생각하는 AI와 행동하는 AI가 만나 혁신가 AI가 활동하는 2026년, 이 책을 통해 실행 가능한 통찰을 얻길 바란다.
작성일 : 2025-10-22
HPE, 에릭슨과 협력해 듀얼모드 5G 코어 설루션 검증
HPE는 에릭슨과 협력해 통신 서비스 사업자가 멀티벤더 인프라 스택을 구축하는 과정에서 직면하는 핵심 과제를 해결하기 위한 공동 검증 랩 설립을 발표했다. 이번 협력은 클라우드 네이티브 기반의 AI 지원 듀얼모드 5G 코어 설루션의 검증을 통해, 새로운 서비스 도입 과정의 복잡성을 관리하면서도 고성능·확장성·효율성을 갖춘 네트워크를 구축해야 하는 증가하는 수요에 대응한다. HPE와 에릭슨은 이를 기반으로 통신사들이 운영을 간소화하고 혁신을 가속화하며, 초연결 시대의 요구사항을 충족할 수 있도록 지원할 계획이다. 공동 검증 랩은 상호운용성 테스트를 수행하고 검증된 설루션이 통신사의 요구사항을 충족하는지 확인하는 테스트 환경으로 활용된다. 이 스택은 에릭슨의 듀얼모드 5G 코어 설루션과 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) Gen12 서버, 앱스트라 데이터센터 디렉터(Apstra Data Center Director) 기반으로 관리되는 HPE 주니퍼 네트워킹(HPE Juniper Networking) 패브릭, 그리고 레드햇 오픈시프트(Red Hat OpenShift)로 구성된다. ▲‘에릭슨 듀얼 모드 5G 코어’는 5G와 4G 네트워크를 모두 지원하는 설루션으로, 효율적인 확장 및 미래 대비 네트워크 구축을 원하는 통신사의 복잡성과 운영 비용을 절감한다. ▲‘HPE 프로라이언트 DL360 및 DL380 Gen12 서버’는 인텔 제온 6 프로세서를 탑재해 AMF, UPF, SMF 등 네트워크 집약적 텔코 CNF(Containerized Core Network Functions)를 위한 최적의 성능을 제공한다. 또한 칩에서 클라우드까지 보안을 구현한 HPE Integrated Lights Out(iLO) 7을 통해 모든 계층에서 내장형 보안을 제공한다. ▲‘HPE 주니퍼 네트워킹 고성능 패브릭’은 QFX 시리즈 스위치와 앱스트라 데이터센터 디렉터를 기반으로 인텐트 기반 자동화(Intent-based Automation)와 AIOps 기반 보증 기능을 통해 운영 효율을 강화하고 비용을 절감한다. ▲‘레드햇 오픈시프트’는 공통 클라우드 네이티브 텔코 플랫폼으로서, 통신사가 새로운 서비스를 빠르게 개발·배포·확장할 수 있는 민첩성을 제공한다. 이를 통해 시장 출시 시간을 단축하고 기존 배포 주기를 개선하며, 코어에서 에지까지 일관되고 자동화된 운영 경험을 제공해 복잡한 네트워크 기능 배포 및 관리를 간소화한다.     스웨덴 에릭슨 본사 인근에 위치한 이번 검증 랩은 2025년 말 가동을 시작할 예정이다. 또한 실제 고객 테스트와 피드백을 통해 검증을 진행하고, 2026년 상반기에는 통합 설루션의 상용 검증을 완료해 시장 출시 속도를 높이고 라이프사이클 관리 효율을 강화할 계획이다. HPE의 페르난도 카스트로 크리스틴(Fernando Castro Cristin) 텔코 인프라 사업부 부사장 겸 총괄은 “HPE는 에릭슨과의 전략적 파트너십을 바탕으로 통신사가 5G 및 AI 중심의 경제에서 성공할 수 있도록 혁신적인 기술 설루션을 제공하는 데 주력하고 있다”면서, “에릭슨의 클라우드 네이티브 듀얼모드 5G 코어와 레드햇 오픈시프트를 검증된 차세대 HPE 컴퓨트 인프라 및 HPE 주니퍼 네트워킹 패브릭과 통합함으로써, HPE는 통신사가 신속한 서비스 배포와 수요 기반 확장, 트래픽 변동에 대한 유연한 대응, 예측 가능한 라이프사이클 관리, 그리고 빠르게 진화하는 기술 환경에 적응할 수 있는 새로운 통합 설루션을 개발하고 있다”고 말했다. 에릭슨의 크리슈나 프라사드 칼루리(Krishna Prasad Kalluri) 코어 네트웍스 설루션 및 포트폴리오 부문 총괄은 “에릭슨은 5G 및 코어 네트워크 분야의 글로벌 리더로서, 통신사가 클라우드 네이티브 네트워크로 전환하는 여정을 간소화할 수 있도록 개방성과 혁신을 지속적으로 추진하고 있다”며, “HPE와의 협력 및 공동 검증 랩 설립은 멀티벤더 인프라 환경에서 클라우드 네이티브 5G 코어 설루션 개발을 한층 더 발전시키는 중요한 계기가 될 것”이라고 밝혔다.
작성일 : 2025-10-20
오라클, OCI 전용 리전25 통해 소버린 AI 및 클라우드 서비스 배포 지원
오라클은 더 많은 기업이 퍼블릭 클라우드의 민첩성, 경제성 및 확장성을 누릴 수 있도록 오라클 클라우드 인프라스트럭처(OCI) 전용 리전25(Dedicated Region25)를 출시했다고 발표했다. 기업은 OCI 전용 리전25를 통해 단 몇 주 내에 최소 3개의 랙으로 구성된 풀스택 OCI 환경을 구축할 수 있으며, 공간 제약이 있는 환경에서도 손쉽게 전용 리전을 배포할 수 있다. 지난 2020년 처음 출시된 OCI 전용 리전(OCI Dedicated Region)은 대규모 하이퍼스케일 폼팩터에서 더욱 유연한 배포 형태로 발전해 왔다. 현재 전 세계적으로 60개 이상의 OCI 전용 리전과 오라클 알로이(Oracle Alloy) 리전이 운영 중이거나 계획되어 있으며, 고객은 성능, 거버넌스, 퍼블릭 OCI 환경의 호환성을 저해하지 않으면서 자사 비즈니스 규모에 최적화된 배포 모델을 선택할 수 있다.     OCI 전용 리전25는 OCI의 분산형 클라우드 제품군에 속하며, 모듈형 인프라와 간소화된 서비스 설계를 갖춘 엔터프라이즈급 소버린 클라우드를 통해 공공 및 민간 조직이 민첩성을 높이고 제품 출시 기간을 단축하도록 지원한다. 오라클은 “200개 이상의 AI 및 클라우드 서비스가 내장된 완전한 퍼블릭 클라우드 리전을 3개 랙만으로 구축 가능하고, 하이퍼스케일 수준까지 확장 가능하며, 고객 데이터센터 내에서 안전하게 운영할 수 있도록 지원한다”고 소개했다. 이에 따라 시공간적 제약 혹은 규제 관련 제약으로 전용 클라우드 리전 운영이 어려웠던 고객도 혁신을 가속화하고 새로운 비즈니스 모델을 구현할 수 있게 된다는 것이 오라클의 설명이다. 기존의 전용 클라우드 리전은 많은 조직의 전면적 클라우드 전환에 걸림돌이 되었다. OCI 전용 리전25는 ▲고도화된 네트워크 중심의 모듈형 확장성 ▲하이퍼컨버지드 표준 인프라 ▲통합 다계층(multi-layered) 보안 ▲SaaS, AI를 포함한 퍼블릭 클라우드 수준의 서비스 제공 ▲데이터 주권 요건 지원 ▲오라클 운영 클라우드 리전 등의 이점을 제공하여 클라우드 전환의 방해요소를 제거한다. OCI 전용 리전25는 최소 3개 랙으로 시작해 다운타임이나 재설계 없이 네트워크 확장 랙을 추가함으로써 하이퍼스케일까지 원활하게 확장할 수 있다. 그리고 오라클의 표준화된 고밀도 컴퓨팅 및 스토리지 랙을 활용해 데이터센터 공간 및 전력 사용을 절감할 수 있다. 고객은 더 높은 신뢰성, 빠른 복구 시간, 최대 가동 시간을 확보할 수 있으며, 복잡한 운영 부담 없이 컴팩트한 규모로 운영 가능하다. OCI 전용 리전25는 물리, 가상 전 계층에 걸친 다중적 보안 장치로 데이터와 워크로드를 보호해 높은 수준의 보안, 프라이버시, 규제 요건을 충족할 수 있도록 한다. 통합 다계층 보안 기능으로는 생체인식 잠금(biometric-locked) 랙, 암호화된 소프트웨어 정의 네트워크 패브릭 등이 포함된다. 또한 200개 이상의 OCI AI 및 클라우드 서비스를 고객 환경에서 직접 제공함으로써 데이터 주권 및 데이터 지역성 요건을 충족하면서도 퍼블릭 OCI와 동일한 운영 환경을 구현할 수 있다. 이외에도 정부 및 공공기관이 전체 오라클 클라우드 스택을 자체 환경에 배포하고 데이터 및 시스템에 대한 완전한 통제권을 유지할 수 있도록 함으로써 엄격한 수준의 데이터 주권, 프라이버시, 보안, 규제 요건을 충족할 수 있도록 지원한다. OCI 전용 리전25는 오라클이 직접 운영하는 완전한 클라우드 운영 서비스 형태로 제공되므로, 고객은 인프라 관리가 아닌 혁신에 집중할 수 있다. 스콧 트와들 OCI 제품 및 산업 담당 수석 부사장은 “기업은 가장 큰 가치 창출이 가능한 곳에서 AI와 클라우드 서비스를 자유롭게 구동하길 원하며, 소버린 AI(sovereign AI)에 대한 관심이 높아짐에 따라 데이터의 위치와 데이터 통제에 대한 요건이 엄격해져 이러한 요구 사항이 더욱 강화되고 있다”면서, “OCI 전용 리전25의 출시로 오라클은 사실상 모든 데이터센터로 오라클 클라우드의 역량을 확장할 수 있게 되었다. 이 새로운 배포 옵션은 탁월한 유연성, 운영 단순성 및 엔터프라이즈급 데이터 주권을 제공해 전용 클라우드의 기준을 새롭게 정의하고, 고객이 미래 혁신을 대비할 수 있도록 돕는다”고 말했다.
작성일 : 2025-10-20
AWS, 포괄적 AI 에이전트 플랫폼 ‘아마존 베드록 에이전트코어’ 출시
아마존웹서비스(AWS)가 포괄적인 에이전틱 플랫폼인 ‘아마존 베드록 에이전트코어(Amazon Bedrock AgentCore)’를 출시한다고 발표했다. AWS는 “미션 크리티컬 시스템 구축 경험을 바탕으로 개발된 아마존 베드록 에이전트코어는 안전하고 신뢰할 수 있으며 확장 가능한 종합 에이전트 플랫폼으로, 에이전트의 비결정적 특성에 최적화된 프로덕션 환경을 제공한다”고 소개했다. 에이전트코어는 기업이 AI 에이전트를 파일럿에서 프로덕션까지 신속하게 전환하고 개발자가 에이전트를 구축, 배포, 운영하는 데 필요한 완전한 기반을 제공한다. 개발자는 복잡한 워크플로를 처리할 수 있도록 에이전트에 도구, 메모리, 데이터를 손쉽게 연결할 수 있으며, 몇 줄의 코드로 안전하고 확장 가능한 런타임 환경에 배포할 수 있다. 또한 엔터프라이즈급 접근 제어 및 관리 기능을 통해 안정적으로 운영할 수 있다. 이 모든 기능은 인프라를 관리 없이 원하는 모델이나 프레임워크를 자유롭게 선택해 쉽게 시작할 수 있다. 에이전트코어는 구축부터 배포, 운영까지 에이전트 개발 수명주기 전반에 걸쳐 완전 관리형 서비스를 제공하는 에이전틱 플랫폼이다. 기업은 원하는 모델이나 프레임워크를 자유롭게 조합해 사용할 수 있으며 엔터프라이즈급 인프라 및 도구에 대한 액세스와 함께 높은 유연성을 제공한다. 에이전트코어는 통합 또는 개별 사용이 가능한 컴포저블(composable) 서비스를 제공한다. 기업은 크루AI, 구글 ADK, 랭그래프, 라마인덱스, 오픈AI 에이전트 SDK, 스트랜드 에이전트 등 선호하는 프레임워크와 아마존 베드록에서 제공되는 모델 또는 오픈AI, 제미나이 등 아마존 베드록 외부 모델을 사용하여 필요한 에이전트코어 서비스를 선택할 수 있다.     에이전트코어 코드 인터프리터(AgentCore Code Interpreter)는 격리된 환경에서 에이전트가 코드를 안전하게 생성하고 실행할 수 있게 하며, 에이전트코어 브라우저(AgentCore Browser)는 대규모 웹 애플리케이션 상호작용을 지원한다. 에이전트코어 게이트웨이(AgentCore Gateway)는 기존 API와 AWS 람다(AWS Lambda) 함수를 에이전트 호환 도구로 전환하고 기존 모델 컨텍스트 프로토콜(Model Context Protocol : MCP) 서버에 연결하며, 지라, 아사나, 젠데스크 등 서드파티 비즈니스 도구 및 서비스와의 원활한 통합을 제공한다. 에이전트코어 아이덴티티(AgentCore Identity)를 통해 에이전트는 오스(OAuth) 표준을 사용한 적절한 인증 및 권한 부여로 이러한 도구에 안전하게 액세스하고 운영할 수 있다. AI 에이전트는 컨텍스트를 유지하고 상호작용을 통해 학습할 수 있어야 한다. 에이전트코어 메모리(AgentCore Memory)는 개발자가 복잡한 메모리 인프라를 관리하지 않고도 정교하고 컨텍스트를 인식하는 경험을 만들 수 있도록 지원하며, 에이전트가 사용자 선호도, 과거 상호작용, 관련 컨텍스트에 대한 상세한 이해를 구축하고 유지할 수 있게 한다. 아마존 클라우드워치(Amazon CloudWatch) 기반의 에이전트코어 옵저버빌리티(AgentCore Observability)는 실시간 대시보드와 상세한 감사 추적을 통해 포괄적인 모니터링을 제공한다. 기업은 모든 에이전트 작업을 추적하고 문제를 신속하게 디버깅하며 성능을 지속적으로 최적화할 수 있다. 오픈텔레메트리(OpenTelemetry : OTEL) 호환성을 통해 다이나트레이스, 데이터독, 아리제 피닉스, 랭스미스, 랭퓨즈 등 기존 모니터링 도구와 통합된다. 에이전트 워크로드는 기존 애플리케이션과 달리 실행 시간이 불규칙하다. 에이전트코어 런타임(AgentCore Runtime)은 이러한 변동성(variability)에 대응해 필요에 따라 제로에서 수천 개의 세션으로 자동 확장되며 장시간 실행 작업을 위한 업계 최고 수준의 8시간 런타임을 제공한다. 에이전트코어는 에이전트가 안전하게 작동할 수 있도록 모든 서비스에 보안을 내장했다. 가상 프라이빗 클라우드(VPC) 환경과 AWS 프라이빗링크(AWS PrivateLink)를 지원하여 네트워크 트래픽을 비공개로 안전하게 유지한다. 에이전트코어 런타임은 마이크로VM 기술을 통해 매우 높은 수준의 보안을 제공하여 각 에이전트 세션에 고유한 격리된 컴퓨팅 환경을 제공함으로써 데이터 유출을 방지하고 모든 상호작용의 무결성을 유지한다. 에이전트코어는 키로(Kiro), 커서AI(Cursor A)I와 같은 통합 개발 환경(IDE)과 호환되는 MCP 서버를 통해 프로덕션급 에이전트 구축을 지원한다. AWS는 “시작까지 단 몇 분밖에 걸리지 않지만 이는 단순한 도구가 아니라 강력한 보안을 유지하면서 제로에서 수천 개의 세션으로 즉시 확장할 수 있는 완전한 기능의 프로덕션급 설루션”이라고 소개했다. 아마존 디바이스 운영 및 공급망(Amazon Devices Operations & Supply Chain) 팀은 에이전트코어를 사용하여 에이전틱 제조 접근 방식을 개발하고 있다. AI 에이전트들은 제품 사양을 사용하여 함께 작업하며 수동 프로세스를 자동화하며 협업한다. 한 에이전트는 제품 요구사항을 읽고 품질 관리를 위한 상세한 테스트 절차를 만들고, 다른 에이전트는 제조 라인의 로봇에 필요한 비전 시스템을 훈련시킨다. 그 결과 기존에 며칠이 걸리던 객체 감지 모델 미세 조정이 1시간 이내에 높은 정밀도로 단축됐다. 에이전트코어는 뭄바이, 싱가포르, 시드니, 도쿄, 더블린, 프랑크푸르트, 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오리건) 등 9개 AWS 리전에서 정식 출시됐다. 기업은 에이전트코어에서 작동하도록 설계된 AWS 마켓플레이스(AWS Marketplace)의 사전 구축된 에이전트 및 도구를 통해 가치 실현 시간을 가속화할 수 있다.
작성일 : 2025-10-17
오라클, 대규모 클라우드 AI 클러스터 ‘OCI 제타스케일10’ 공개
오라클이 클라우드 환경 내의 대규모 AI 슈퍼컴퓨터인 ‘오라클 클라우드 인프라스트럭처(OCI) 제타스케일10(Zettascale10)’을 발표했다. OCI 제타스케일10은 여러 데이터센터에 걸쳐 수십만 개의 엔비디아 GPU를 연결하여 멀티 기가와트급 클러스터를 형성하며, 최대 16 제타플롭스(zettaFLOPS)에 이르는 성능을 제공한다. OCI 제타스케일10은 스타게이트의 일환으로 미국 텍사스주 애빌린에서 오픈AI(OpenAI)와 협력하여 구축한 대표 슈퍼클러스터를 구성하는 기반 패브릭이다. 차세대 오라클 액셀러론 RoCE(Oracle Acceleron RoCE) 네트워킹 아키텍처를 기반으로 구축된 OCI 제타스케일10은 엔비디아 AI 인프라로 구동된다. 오라클은 강화된 확장성, 클러스터 전반에 걸친 초저지연 GPU-GPU 통신, 가격 대비 높은 성능, 향상된 클러스터 활용도, 대규모 AI 워크로드에 필요한 안정성을 제공한다는 점을 내세운다. OCI 제타스케일10은 2024년 9월 출시된 첫 번째 제타스케일 클라우드 컴퓨팅 클러스터의 차세대 모델이다. OCI 제타스케일10 클러스터는 대규모 기가와트급 데이터센터 캠퍼스에 배치되며, 2킬로미터 반경 내에서 밀도를 높여 대규모 AI 학습 워크로드에 최적화된 GPU-GPU 지연 성능을 제공한다. 이 아키텍처는 오픈AI와 협력하여 애빌린 소재 스타게이트 사이트에 구축 중에 있다. OCI는 고객에게 OCI 제타스케일10의 멀티기가와트 규모 배포를 제공할 계획이다. 초기에는 최대 80만 개의 엔비디아GPU를 탑재한 OCI 제타스케일10 클러스터 배포를 목표로 한다. 이는 예측 가능한 성능과 강력한 비용 효율을 제공하며, 오라클 액셀러론의 초저지연 RoCEv2 네트워킹으로 높은 GPU-GPU 대역폭을 구현한다. OCI는 현재 OCI 제타스케일10 주문을 접수 중이라고 전했다. 이 제품은 2026년 하반기 출시 예정으로, 최대 80만 개의 엔비디아 AI 인프라 GPU 플랫폼을 기반으로 제공될 예정이다. 오라클의 마헤쉬 티아가라얀 OCI 총괄 부사장은 “OCI 제타스케일10을 통해 우리는 OCI의 혁신적인 오라클 액셀러론 RoCE 네트워크 아키텍처를 차세대 엔비디아 AI 인프라와 결합해 전례 없는 규모에서 멀티기가와트급 AI 용량을 제공한다. 고객은 성능 단위당 전력 소비를 줄이면서 높은 안정성을 달성해 가장 큰 규모의 AI 모델을 실제 운영 환경에 구축, 훈련 및 배포할 수 있다. 또한 강력한 데이터 및 AI 주권 제어 기능을 통해 오라클의 분산형 클라우드 전반에서 자유롭게 운영할 수 있다”고 말했다. 오픈AI의 피터 호셸레(Peter Hoeschele) 인프라 및 산업 컴퓨팅 부문 부사장은 “OCI 제타스케일10 네트워크 및 클러스터 패브릭은 오라클과 함께 구축한 슈퍼클러스터인 텍사스주 애빌린에 위치한 대표 스타게이트 사이트에서 최초로 개발 및 배포되었다. 고도로 확장 가능한 맞춤형 RoCE 설계는 기가와트 규모에서 패브릭 전체 성능을 극대화하면서도 대부분의 전력을 컴퓨팅에 집중시켜 준다. 오라클과 협력하여 애빌린 사이트를 비롯한 스타게이트 프로젝트 전반을 전개해 나갈 수 있어 매우 기쁘게 생각한다”고 말했다.
작성일 : 2025-10-16
슈나이더 일렉트릭, 실시간 모터 관리 설루션으로 해양산업 효율 향상 지원
슈나이더 일렉트릭이 조선·해양 산업의 설비 운용 효율과 안정성을 높일 수 있는 방법으로 자사의 실시간 모터 관리 설루션인 ‘테시스 테라(TeSys Tera)’를 제시했다. 조선·해양 산업에서 모터는 전기 에너지를 회전 및 기계 에너지로 변환하는 핵심 장비로, 전체 전력 소비의 약 80%를 차지할 만큼 에너지 소모가 큰 설비다. 때문에 모터의 안정적인 운전과 체계적인 유지관리는 산업 전반의 효율과 직결되며, 최근에는 친환경 규제 강화 및 스마트 선박 기술 도입에 따라 더욱 정교한 모터 관리 설루션의 필요성이 부각되고 있다. 슈나이더 일렉트릭의 테시스 테라는 이러한 산업 트렌드에 부합하는 디지털 기반의 고도화된 모터 관리 시스템이다. 테시스 테라는 지정된 통신 버스를 통해 모터의 상태, 운전 전류, 전압, 전력, 역률, 외부 냉각 팬 동작까지 실시간으로 수집·모니터링하며, 인더스트리 4.0 표준을 충족해 중앙 제어 시스템과의 연동을 지원한다. 슈나이더 일렉트릭은 “특히 모터 권선과 베어링, 본체 온도를 측정하는 외부 센서를 통해 과열이나 냉각 이상 등 이상 징후를 사전에 감지할 수 있어 치명적인 고장을 예방하고 유지보수 비용을 절감에도 기여한다. 또한 고조파까지 정밀하게 측정할 수 있는 기능은 슈나이더 일렉트릭의 고도화된 전력 관리 기술력을 잘 보여준다”고 소개했다.     진단 기능과 관련해서는 각 보호 기능별 트립(차단) 횟수를 개별적으로 기록하며, 최대 100개의 이벤트를 시간 정보와 함께 순차적으로 저장하는 FIFO(선입선출) 방식 로그 기능을 지원한다. 더불어 열 메모리, 선 전류, 접지 전류 등 20개의 상세 고장 로그를 기록해 고장 원인 분석과 시스템 개선에 유용한 데이터를 제공한다. 시동 전류 곡선은 최대 250포인트까지 기록할 수 있어, 실제 운전 조건에 따른 보호 설정(Trip Class 등)을 최적화할 수 있으며, 시간 기반의 로그 데이터는 공정 정지나 시스템 장애 발생 시 정확한 사건 순서(SOE)를 파악할 수 있게 해준다. 이는 24시간 가동이 필수적인 조선·해양 현장에서 더욱 높은 신뢰성과 운영 효율성을 확보하는 데 도움이 된다. 아울러 테시스 테라는 온도 센서를 활용해 모터 권선, 베어링, 본체 각각에 대해 개별적인 보호 기능을 제공해 과열로 인한 손상을 사전에 방지한다. 모든 보호 기능은 활성화/비활성화, 경보 및 차단 수준 설정, 자동 또는 원격 리셋 기능(시간 지연 포함) 등 사용자가 공정 환경에 맞춰 완벽하게 구성할 수 있다. 또 외부 디지털·아날로그 입력도 고장 조건으로 인식하도록 설정 가능하다. 사용자 친화적인 소프트웨어 인터페이스도 특징이다. 윈도우 기반의 다국어 지원 소프트웨어는 메뉴와 아이콘 중심의 직관적인 UI를 제공한다. 동일 기능 내 여러 데이터를 한 화면에서 탐색할 수 있도록 안내형 내비게이션을 지원함으로써, 복잡한 설정이나 진단 과정도 간소화했다. 또한 별도의 HMI(Human-Machine Interface)를 통해 현장에서 직접 제어기 구성 및 파라미터 변경이 가능하며, 제어 키패드가 내장된 HMI는 상태 확인과 제어 명령을 로컬에서 즉시 수행할 수 있어 네트워크 연결이 원활하지 않은 환경에서도 독립적인 운용이 가능하다. 슈나이더 일렉트릭 코리아 파워 프로덕트 사업부의 김은지 본부장은 “슈나이더 일렉트릭의 디지털 모터 관리 설루션 테시스 테라는 실시간 디지털 모니터링과 정밀한 보호 기능을 통해 모터의 성능 저하와 고장을 사전에 방지함으로써 조선 및 해양 산업의 안전성과 생산성을 높이는 필수적인 설루션으로 주목받고 있다”고 말했다. 한편 슈나이더 일렉트릭 코리아는 오는 10월 21일부터 부산 벡스코에서 개최되는 조선·해양 산업 전문 전시회인 ‘코마린(KORMARINE) 2025’에 참가해 테시스 테라를 선보일 예정이라고 전했다.
작성일 : 2025-10-16