• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " AI 인프라"에 대한 통합 검색 내용이 2,658개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
E8, 보안형 매핑 설루션 ‘NDX 클라우드’ 출시
이에이트가 글로벌 수준의 기술력과 국내 보안 요구를 결합한 보안형 클라우드 매핑 설루션 ‘(NDX 클라우드(NDX CLOUD)’를 공식 출시한다고 밝혔다. 이에이트는 “디지털 트윈은 단순한 가상 모델링을 넘어, 현실 세계의 데이터를 실시간으로 연결해 예측과 제어가 가능한 ‘지능형 운영 시스템’으로 진화하고 있다”면서, “이를 위한 플랫폼 개발은 이제 선택이 아닌 필수“라고 설명했다. 다만 국내 공공 및 산업 환경은 여전히 데이터 주권과 보안 규제로 인해 디지털 전환에 가장 큰 걸림돌이 되고 있다. 이에이트는 이러한 문제를 극복하기 위해, 글로벌 기술이 검증된 정밀 측량·매핑 엔진을 기반으로 국내 보안 환경에 최적화된 클라우드 플랫폼을 개발했다. NDX 클라우드는 픽스포디(PIX4D)와의 협업을 통해 확보한 글로벌 기술력 위에, 국내 보안 표준과 서버 운영 요건을 충족하는 구조로 설계됐다. 국내 서버 운영, 폐쇄망·온프레미스 설치 지원, 권한 기반 접근 제어 등으로 정부 과제에서 요구되는 높은 수준의 보안 요건을 충족하며, 이를 통해 외산 설루션의 한계였던 국내 데이터 주권 문제와 보안 인증 제약을 동시에 해소했다.     이에이트는 이번 설루션을 기반으로 정부 디지털 트윈, 공간 정보 고도화, 스마트시티, 국방 등 주요 공공 프로젝트 진출을 가속화할 계획이다. 이와 더불어 E8는 온톨로지 AI 기반 플랫폼 ‘NDX 프로 AI(NDX PRO AI)’를 중심으로 산업형 AI 생태계 구축에도 속도를 내고 있다. 이에이트는 데이터의 의미와 관계를 이해하는 온톨로지 AI 기술이 자사의 ‘AI for Humanity’ 비전을 구현하는 핵심 축이며, 산업 전반의 AI 전환을 이끄는 기반이 될 것으로 기대한다고 전했다. 이에이트 관계자는 “NDX 클라우드는 글로벌 기술 검증과 국내 보안 최적화를 결합한 플랫폼으로, 공공과 산업 전반의 디지털 인프라 전환을 빠르게 앞당길 것”이라며, “향후 온톨로지 기반 AI 디지털 트윈 플랫폼과 연계해 산업 데이터를 지능적으로 관리·분석하는 서비스로 발전시킬 계획”이라고 말했다.
작성일 : 2025-10-31
아마존, “한국 클라우드 인프라에 7조 원 추가 투자 계획”
아마존웹서비스(AWS)는 2025년부터 2031년까지 한국 내 AI 및 클라우드 컴퓨팅 기술 지원을 위한 데이터센터 인프라 확충에 7조 원(약 50억 달러)을 추가 투자할 계획이라고 발표했다. AWS는 현재까지 한국 클라우드 인프라에 5조 6000억 원(40억 달러) 이상을 투자해왔으며, 2031년까지 아마존의 국내 총 투자 규모는 12조 6000억 원(90억 달러)을 넘어설 전망이다. AWS의 확장된 인프라는 국내 기업이 머신러닝과 분석부터 복잡한 업무를 자율적으로 처리할 수 있는 새로운 AI 에이전트(AI agent)에 이르기까지 AI의 모든 기능을 폭넓게 활용할 수 있도록 지원한다. AWS는 AI 도입 여정의 어느 단계에 있든 기업이 안정적이고 확장 가능한 기반 위에서 혁신을 이어갈 수 있도록 지원하고 있다고 소개했다. AWS의 하이메 발레스(Jaime Vallés) 아시아·태평양·일본(APJ) 총괄 부사장은 “7조 원 규모의 이번 신규 투자는 모든 규모의 한국 기업의 디지털 전환을 지원하고 한국이 글로벌 AI 강국으로 도약하는 데 기여하고자 하는 우리의 장기적 약속을 더욱 공고히 하는 것”이라며, “AWS는 세계적 수준의 데이터센터 인프라를 확장함으로써 한국의 기술적 미래에 투자하고 있다. 한국 기업이 가장 발전된 컴퓨팅 성능과 특화된 AI 도구를 활용해 빠르게 혁신하고, 생성형 AI가 제공하는 막대한 기회를 활용할 수 있도록 지원하게 되어 기쁘다”라고 말했다. 김정관 산업통상자원부 장관은 “AWS의 대규모 AI 인프라 투자는 한국이 글로벌 AI 강국으로 도약하는 데 크게 기여할 것”이라며, “생산성 정체와 글로벌 보호무역 확산 등 우리 산업이 직면한 위기를 극복하기 위해서는 AI 전환(AX)이 유일한 해법이며, AWS가 구축할 AI 인프라는 산업 전반의 AX를 가속화한다는 점에서 더욱 의미가 크다. 정부는 국내외 기업들이 AI 인프라 확충과 AX 확산을 위한 적극적인 투자와 비즈니스 활동을 전개할 수 있도록 적극 지원하겠다”고 말했다. 이번 신규 투자는 AWS가 한국의 국가 AI 기반 강화를 위해 SK그룹과 협력하에 추진 중인 ‘울산 AI 존’에 대한 투자를 포함한다. 2027년 운영을 시작할 예정인 이 AI 특화 시설은 SK그룹이 건설을 담당하고, AWS는 자사의 AI 및 클라우드 역량을 한국 고객에게 제공할 계획이다. 한편, AWS는 빠르게 성장하는 스타트업부터 대기업, 주요 정부 기관에 이르기까지 수천 개의 한국 고객들이 자사의 기술을 활용해 AI 여정을 가속화하고 비용을 절감하며 민첩성을 높이고 혁신을 추진하고 있다고 전했다. AWS는 고성능 컴퓨팅 인프라와 특화된 AI 하드웨어에 대한 전략적 투자를 확대해, 향후 생성형 AI와 에이전틱 AI(agentic AI) 혁신을 위한 기술적 기반을 구축하고 있다. 여기에는 트레이니움(Trainium)과 인퍼런시아(Inferentia) 칩과 같은 특수 목적 하드웨어를 갖춘 고도의 보안 인프라부터, 아마존 베드록(Amazon Bedrock)을 통해 앤트로픽, 오픈AI 등이 제공하는 100개 이상의 AI 모델에 접근하고, AI 에이전트를 통해 경쟁력을 강화하는 것까지 포함된다. AWS는 한국의 조직들이 안전하고 대규모로 AI 혁신을 가속화할 수 있도록 필요한 도구와 서비스를 제공하고 있다고 소개했다. AWS코리아 함기호 대표는 “다년에 걸친 이번 투자 계획은 한국의 디지털 전환 여정을 지원하고자 하는 AWS의 확고한 의지를 보여준다”며, “확장된 클라우드 인프라는 모든 규모의 국내 기업이 글로벌 시장에서 경쟁력을 확보하고, 데이터 주권을 유지하면서 첨단 AI 기술을 활용할 수 있도록 지원할 것이다. 이번 투자를 통해 한국 경제에 기여하고, 대규모 AI 혁신을 가능하게 하며, 사회 전반에 실질적인 혜택을 제공하게 되어 기쁘다”고 말했다.
작성일 : 2025-10-29
IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 정식 출시
IBM은 자사의 메인프레임 시스템 IBM z17 및 IBM 리눅스원 5(IBM LinuxONE 5)에 적용 가능한 인공지능(AI) 가속기 ‘스파이어 엑셀러레이터(Spyre Accelerator)’를 정식 출시한다고 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며, 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계되었다. 12월 초부터는 파워11(Power11) 서버용 제품도 제공될 예정이다. 오늘날 IT 환경은 기존의 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 전환되고 있으며, AI 에이전트는 저지연(low-latency) 추론과 실시간 시스템 반응성을 요구한다. 기업은 처리량의 저하없이 가장 까다로운 엔터프라이즈 업무와 AI 모델을 동시에 처리할 수 있는 메인프레임과 서버 인프라를 필요로 한다. IBM은 이러한 수요에 대응하기 위해서 생성형 및 에이전트 기반 AI를 지원하면서도 핵심 데이터, 거래, 애플리케이션의 보안과 복원력을 유지할 수 있는 AI 추론 전용 하드웨어가 필수적이라고 판단했다. 스파이어 엑셀러레이터는 기업이 중요한 데이터를 사내 시스템(온프레미스, on-premise) 내에서 안전하게 관리할 수 있도록 설계되었으며, 운영 효율성과 에너지 절감 효과도 함께 제공한다.     스파이어 엑셀러레이터는 IBM 리서치 AI 하드웨어 센터의 혁신 기술과 IBM 인프라 사업부의 개발 역량이 결합된 결과물이다. 시제품으로 개발된 이후 IBM 요크타운 하이츠 연구소의 클러스터 구축과 올버니대학교 산하 ‘신흥 인공지능 시스템 센터(Center for Emerging Artificial Intelligence Systems)’와의 협업을 통해 빠른 반복 개발 과정을 거쳐 완성도를 높였다. 이렇게 기술적 완성도를 높여 온 시제품 칩은 현재는 IBM Z, 리눅스원, 파워 시스템에 적용 가능한 기업용 제품으로 진화했다. 현재 스파이어 엑셀러레이터는 32개의 개별 가속 코어와 256억 개의 트랜지스터를 탑재한 상용 시스템온칩(SoC, system-on-a-chip) 형태로 완성되었다. 5나노미터 공정 기술을 기반으로 제작된 각 제품은 75와트(Watt) PCIe 카드에 장착되며, IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. IBM 고객들은 스파이어 엑셀러레이터를 통해 빠르고 안전한 처리 성능과 사내 시스템 기반의 AI 가속 기능을 활용할 수 있다. 이는 기업이 IBM Z, 리눅스원, 파워 시스템 상에서 데이터를 안전하게 유지하면서도 AI를 대규모로 적용할 수 있게 되었음을 의미한다. 특히, IBM Z 및 리눅스원 시스템에서는 텔럼 II(Telum II) 프로세서와 함께 사용되어 보안성, 저지연성, 높은 거래 처리 성능을 제공한다. 이를 통해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에 다중 AI 모델을 적용할 수 있다. IBM 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 기업 업무 흐름에 맞춘 종합적인 AI 활용이 가능하다. 고객은 해당 서비스를 한 번의 클릭으로 설치할 수 있으며, 온칩 가속기(MMA)와 결합된 파워용 스파이어 엑셀러레이터는 생성형 AI를 위한 데이터 변환을 가속화해 심층적인 프로세스 통합을 위한 높은 처리량을 제공한다. 또한 128개 토큰 길이의 프롬프트 입력을 지원하며, 이를 통해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. 이러한 성능은 IBM의 소프트웨어 스택, 보안성, 확장성, 에너지 효율성과 결합되어, 기업이 생성형 AI 프레임워크를 기존 업무에 통합해 나가는 여정을 효과적으로 지원한다. IBM 인프라 사업부 최고운영책임자(COO)이자 시스템즈 사업부 총괄 배리 베이커(Barry Baker) 사장은 “스파이어 엑셀러레이터를 통해 IBM 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다. 이 기술 혁신은 고객이 AI 기반 핵심 업무를 보안성과 복원력, 효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다”고 말했다. IBM 반도체 및 하이브리드 클라우드 부문 무케시 카레(Mukesh Khare) 부사장은 “IBM은 2019년 AI 리서치 하드웨어 센터를 설립해, 생성형 AI와 대규모 언어 모델(LLM)이 본격적으로 확산되기 이전부터 AI의 연산 수요 증가에 대응해 왔다. 최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데, 해당 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다”면서, “이번 스파이어 칩의 정식 출시로 IBM 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 되었다”고 설명했다.
작성일 : 2025-10-28
도시철도 정거장 건축공사 과정의 이해(개정판)
[자료] 도시철도 정거장 건축공사 과정의 이해(개정판)  발행 : 2025. 7. 형식 : pdf 613 page 제작 : 인천광역시 도시철도건설본부   인천도시철도는 시민의 일상과 가장 밀접한 교통수단이자 인천의 미래 경쟁력을 견인하는 중요한 인프라입니다. 그 중심에 “검단연장선”이 있습니다. 택지개발사업으로 급속한 도시 팽창과 인구 증가로 발전해 온 검단신도시는 교통 인프라 확충이 절실히 요구 되던 지역이었습니다. 이러한 시민의 오랜 염원과 기대 속에서 검단연장선이 2025년 6월 28일 개통하였습니 다. 인천도시철도 1호선의 서북쪽 끝을 더욱 확장한 이번 연장은 검단과 계양, 부평, 송도국제도시를 잇는 교통 의 중심축이자 공항철도와 서울지하철 7호선으로 접근성이 좋아져서 시민 이동 편의를 크게 증진하는 전환점이 될 것입니다. 이번 사례집은 인천1호선 검단 및 송도연장선의 건축 시공 과정과 주요 기술 사례, 그리고 시행착오와 극복 과 정을 생생하게 담아낸 소중한 기록입니다. 도시철도 건설이라는 복합 공정 속에서 수많은 현장 기술자와 관계자 들이 흘린 땀과 헌신이 이 한 권에 응축되어 있습니다. 이 사례집이 향후 도시철도 건설과 유지관리의 귀중한 자료가 되기를 바라며, 인천이 더욱 편리하고 안전한 대 중교통 도시로 도약하는데 큰 밑거름이 되기를 기대합니다. 검단연장선의 성공적인 개통을 위해 애써주신 모든 분께 깊은 감사의 말씀을 드리며, 무엇보다 공사 기간 동안 불편을 감내해 주신 검단 지역 시민 여러분께 진심 어린 감사 인사를 전합니다. 2025년 7월 1일 인천도시철도건설본부장 이 근 천   자료 확인하기 링크    
작성일 : 2025-10-24
앤시스-한화에어로스페이스, 차세대 항공 엔진 개발 위한 디지털 협력 MOU 체결
앤시스코리아가 10월 23일 서울 국제항공우주 및 방위산업 전시회(ADEX 2025)에서 한화에어로스페이스와 함께 국내 항공엔진 개발 역량 강화와 디지털 엔지니어링 기반 혁신 생태계 조성을 위한 업무협약(MOU)을 체결했다고 밝혔다.   이번 협약은 한화에어로스페이스의 차세대 항공엔진 개발 프로젝트에 앤시스코리아의 첨단 시뮬레이션 기술과 디지털 엔지니어링 역량을 결합해, 설계부터 검증·운용까지 전 과정을 디지털 중심으로 혁신하기 위한 협력의 일환이다. 양사는 ▲앤시스의 첨단 시뮬레이션 기술 및 기술 지원을 기반으로 한 공동 기술 협력 ▲한화에어로스페이스의 투자 및 협력 인프라 구축 ▲디지털 미션 엔지니어링(DME) 분야의 상호 협력을 추진할 예정이다.   특히 DME는 실제 운용 환경을 가상으로 재현하여 시스템 수준의 성능을 통합적으로 분석할 수 있는 차세대 엔지니어링 접근법으로, 기존의 부품 단위 해석을 넘어 비행 궤적, 대기 조건, 임무 환경 등 실제 상황을 반영한 ‘디지털 트윈’ 시뮬레이션을 구현할 수 있다. 이를 통해 한화에어로스페이스는 개발 과정에서 발생할 수 있는 리스크를 최소화하고, 시험 주기 단축·개발비 절감·품질 향상 등 실질적인 성과를 기대할 수 있다. 앤시스코리아는 이번 MOU를 통해 엔진 설계부터 임무 수행까지 전 과정을 아우르는 시뮬레이션 기술을 지원할 계획이다. DME 기반의 통합 해석을 통해 개발 효율과 신뢰성을 높이는 한편, 국내 디지털 엔지니어링 생태계를 한층 고도화할 방침이다. 또한 앞으로 국내 항공·방산 기업들과의 협력을 확대해 항공우주 기술의 글로벌 경쟁력 강화에도 기여할 예정이다.   앤시스코리아 박주일 대표는 “이번 협력은 한국 항공우주산업의 디지털 혁신을 가속화하기 위한 중요한 이정표”라며, “앤시스의 시뮬레이션과 디지털 미션 엔지니어링 역량을 통해 한화에어로스페이스의 엔진 개발 전 과정이 한 단계 진화할 것으로 기대한다”고 말했다.  
작성일 : 2025-10-24
가트너, 2026년부터 주목해야 할 10대 AI 전망 발표
가트너가 2026년부터 주목해야 할 최우선 AI 전략 전망 10가지를 발표했다. 이 전망은 ▲AI 시대의 인재 ▲AI 주권 ▲인시디어스 AI(Insidious AI) 등 세 가지 핵심 트렌드로 분류된다. 가트너는 2027년까지 생성형 AI와 AI 에이전트의 사용이 지난 30년간 생산성 도구 시장에 발생한 가장 큰 도전 과제가 될 것이며, 580억 달러 규모의 시장 재편을 촉발할 것이라고 전망했다. 생성형 AI의 발전에 따라 기업은 업무 효율을 높이기 위해 생성형 AI 혁신을 우선순위에 둘 것으로 보인다. 과거의 형식과 호환성은 중요성이 낮아져, 진입 장벽은 낮아지고 다양한 공급업체 간의 새로운 경쟁이 촉발될 것으로 전망된다. 일상적 생성형 AI의 비용 구조와 패키징은 시간이 지나면서 변화할 것으로 보인다. 업체들은 유료 기능을 무료로 전환하고, 무료 제품을 더 넓은 사용자층에 적합하도록 만들 것이다. 2027년까지 기업 채용 과정의 75%가 모집 단계에서 업무용 AI 역량 인증 및 테스트를 포함하게 될 것으로 예상된다. 기업은 표준화된 프레임워크와 맞춤형 설문조사를 통해 지원자의 AI 활용 능력을 진단하고, 인력 내 기술 격차를 해소할 수 있을 것이다. 이러한 추세는 정보 수집, 보존, 종합이 핵심인 직종에서 특히 두드러질 것이다. 생성형 AI 역량이 급여와 점점 더 밀접하게 연계됨에 따라, 지원자들은 AI 역량 개발에 더 큰 가치를 두게 될 것이다. 이에 따라 문제 해결, 생산성 향상, 합리적 의사결정 능력을 입증하는 것이 필수 요건으로 부상할 것으로 예상된다. 한편, 가트너는 2026년까지 생성형 AI 사용으로 인한 비판적 사고력 저하로 전 세계 기업의 50%가 채용 과정에서 ‘AI 프리(AI Free)’ 능력 평가를 요구할 것으로 보았다. 기업이 생성형 AI 활용을 확대함에 따라, 채용 절차는 독립적 사고 능력을 갖춘 지원자와 AI가 생성한 결과물에 지나치게 의존하는 지원자를 구분하는 방향으로 변화할 것으로 보인다. 모집 과정에서는 AI 도움 없이 문제 해결, 증거 평가 및 판단 능력을 입증하는 역량이 점점 더 중요한 평가 기준이 될 것이다. 인간의 추론 능력을 별도로 평가하기 위한 전문 테스트 방법과 플랫폼이 등장하면서, AI 프리 평가 도구 및 서비스에 대한 2차 시장이 형성될 가능성도 높다. 2027년까지 전 세계 국가의 35%가 고유한 컨텍스트 데이터를 활용하는 지역 특화 AI 플랫폼에 고착될 전망이다. 기술적, 지정학적 요인으로 인해, 기업들은 엄격한 규제, 언어적 다양성, 문화적 적합성에 대응하기 위해 AI 설루션을 특성화할 수밖에 없으며, 그 결과 AI 환경은 파편화될 것으로 보인다. 지역 간 차이가 증가됨에 따라 범용 AI 설루션은 점차 사라질 것으로 예상된다. 다국적 기업은 글로벌 시장에 통합형 AI를 배포함에 있어 복잡한 과제에 직면하게 될 것이며, 고유한 규제 준수와 데이터 거버넌스 요구 조건을 가진 다양한 플랫폼 파트너십을 관리해야 할 것이다. 가트너는 2028년까지 고객 대면 비즈니스 프로세스의 80%에 다중 에이전트 AI를 활용하는 기업이 시장을 장악할 것으로 보았다. 고객관계관리(CRM) AI가 일상적인 업무를 처리하고, 인간은 복잡하고 감정적 요소가 중요한 상호작용에 집중하는 하이브리드 AI 모델이 업계 표준으로 자리 잡을 것이다. 고객은 계속해서 거래 실행이나 제품 정보 확인에는 AI 지원 완전 셀프서비스를 선호하는 반면, 복잡한 문제 해결이나 청구 분쟁 등에서는 인간을 선호할 것이다. 최소한의 노력과 신속한 서비스에 대한 고객의 기대가 일반화되면서, CRM 프로세스에 다중 에이전트 AI를 도입하지 못한 기업은 경쟁 우위를 상실할 위험이 있다. 한편, 2028년에는 B2B 구매의 90%가 AI 에이전트를 통해 이루어지며, AI 에이전트 거래로 15조 달러 이상의 B2B 지출이 발생할 것으로 보인다. 새로운 생태계에서 검증 가능한 운영 데이터는 화폐처럼 작용하며, 디지털 신뢰 프레임워크와 검증 가능성을 필수 전제로 하는 데이터 기반 경제를 촉진할 것이다. 컴포저블 마이크로서비스, API 우선, 클라우드 네이티브, 헤드리스 아키텍처로 설계된 제품은 상당한 경쟁 우위를 확보할 것이다. AI 위험 예방책 부족으로 인한 ‘AI발 사고’ 관련 소송은 2026년까지 1000건을 돌파할 전망이다. AI 관련 안전 관리 실패로 인한 사고와 피해 사례가 증가함에 따라 규제 기관의 감시 및 통제 강화, 리콜, 법 집행 기관의 개입, 소송 비용 증가가 예상된다. 규제 감독이 강화되면서 조직은 법적 의무 준수를 넘어, AI 위험 예방책을 활용해 비즈니스 시스템의 안전성과 투명성을 최우선 과제로 삼아야 하는 압박에 직면하게 될 것이다. AI 사용과 의사결정 거버넌스 실패의 영향은 지역별 법적·규제 체계의 차이에 따라 달라지며, 이는 조직이 다양한 위험과 책임에 노출될 수 있음을 의미한다. 또한, 2030년에는 금전거래의 22%가 이용 약관을 내장한 형태로 프로그래밍할 수 있게 되어 AI 에이전트에게 경제적 주체성을 부여할 것으로 보인다. 프로그래머블 머니는 M2M(Machine-To-Machine) 협상, 자동화된 상거래, 시장 탐색, 데이터 자산 수익화를 가능하게 함으로써 새로운 비즈니스 모델을 창출하고, 공급망 관리와 금융 서비스와 같은 산업을 근본적으로 재편하고 있다. 실시간으로 프로그래밍 가능한 거래는 마찰 감소, 유동성 향상, 운영 비용 절감을 통해 효율성을 높이고, 궁극적으로 자율 비즈니스 운영의 부상을 뒷받침할 것이다. 그러나 프로그래머블 머니 플랫폼과 블록체인 인프라 간의 파편화된 기준과 상호운용성 부족은 시장의 성장을 저해하고, AI 에이전트와 기계 고객이 완전한 경제 주체로 기능하는 것을 제한할 것이다. 2027년까지 프로세스 중심 서비스 계약의 비용 대비 가치 격차는 에이전트 AI 재설계를 통해 적어도 50% 감소할 것으로 전망됐다. AI 에이전트는 숨겨진 지식을 발견하도록 진화하며, 이러한 지식과의 상호작용 자체가 프로세스의 핵심이 될 것이다. AI 에이전트가 활용하는 숨겨진 지식은 새로운 가치 자산으로 이어질 것으로 예상된다. 한편, 표준화된 워크플로가 문맥적 오케스트레이션으로 대체됨에 따라 지속적인 혁신 기반 가격 책정은 인건비에 의해 제한되지 않을 것이다. 가트너는 2027년까지 파편화된 AI 규제가 전 세계 경제의 50%로 확산하며, 50억 달러 규모의 규정 준수 투자를 일으키게 될 것으로 보았다. 2024년에만 1000건 이상의 AI 관련 법률이 제안됐지만, 어떤 법률도 AI를 일관되게 정의하지 못하고 있다. AI 거버넌스는 혁신을 촉진하는 동시에 장벽으로 작용할 수 있다. 기술의 잠재력을 터뜨리는 것은 AI 사용 능력이다. 안전한 미래를 위해 기업들은 기술 담당 리더들에게 항구적인 ‘법률 및 규제’ 마인드맵 구축을 요구하게 될 것이다. 한편 보안과는 별개로, 새로운 형태로 등장하고 진화하는 AI의 위험을 관리하기 위해 전담 인력과 전문 소프트웨어를 갖춘 AI 거버넌스 프로그램이 표준으로 자리잡게 될 것이다. 가트너의 다릴 플러머(Daryl Plummer) 수석 VP 애널리스트는 “급격한 기술 변화가 가져오는 위험과 기회는 인간의 행동과 선택에 점점 더 큰 영향을 미치고 있다”면서, “기업의 CIO와 경영진은 미래에 대비하기 위해 기술 변화뿐만 아니라 행동 양식 변화 또한 최우선 과제로 삼아야 한다”고 말했다.
작성일 : 2025-10-23
한국후지필름BI, 직장인 AI·AX 설루션 인식 조사 결과 발표
한국후지필름비즈니스이노베이션(이하 한국후지필름BI)이 지난 9월 18일부터 9월 30일까지 20대부터 50대 직장인 1180명을 대상으로 실시한 ‘직장인 AI·AX 설루션 인식 조사’ 결과를 발표했다. 이번 조사는 AI 기술이 업무 현장에 어떤 방식으로 도입·활용되고 있는지와 이에 대한 직장인들의 인식을 알아보기 위해 실시됐다. 조사에 따르면 응답자의 66%가 현재 업무에서 인공지능(AI) 툴을 활용하고 있다고 답했다. 이는 직장인 3명 중 2명이 AI를 업무에 도입해 사용 중임을 의미하며, AI 기술이 빠르게 직장 내 업무 환경 전반으로 확산되고 있음을 보여준다. 가장 많이 사용되는 AI 툴(복수응답)은 챗지피티(ChatGPT, 85%)가 압도적인 비중을 차지했으며, 이어 제미나이(Gemini, 36%), 퍼플렉시티(Perplexity, 27%), 마이크로소프트 코파일럿(Microsoft Copiliot, 15%)순으로 나타났다. AI 툴 사용자들은 ‘업무 속도 향상’(70%)과 ‘결과물 품질 개선’(46%)을 주요 만족 요인으로 꼽았다. 반면, 응답자의 절반 가까이(48%)는 “효율은 높아졌지만 정확도와 의존성 문제도 경험했다”고 답했으며, ‘개인정보·영업비밀 유출 위험’(47%)과 ‘답변의 편향성·공정성 문제’(44%) 역시 주요 우려 요인으로 지적됐다. 이는 기업에서의 AI 툴 활용 확산의 지속을 위해선 보안과 신뢰성 확보가 뒷받침되어야 함을 보여준다. 한편, AI 툴을 사용하지 않는 직장인 중 절반은 ‘회사 차원의 지원 부재’(48%)를 비사용 이유로 꼽았다. 이들 중 향후 AI 툴 도입 의향이 있는 응답자들은 ‘회사 계정·툴 제공’(69%)과 ‘교육 및 가이드 제공’(57%)을 필요 요소로 선택해, AI 확산의 관건이 개인 역량보다 조직적 인프라와 정책 정비에 있음을 시사했다. 조직 차원의 AI 툴 도입 현황을 묻는 질문에서는 ‘아직 도입하지 않았다’는 응답이 47%로 가장 높았으며, 도입의 주요 장벽으로는 ‘데이터 보안 및 관리 문제’(37%)가 꼽혔다. 이는 개인뿐 아니라 조직 차원에서도 보안에 대한 우려가 AI 도입을 주저하게 만드는 핵심 요인으로 작용하고 있음을 보여준다. 결국 AI 도입의 핵심 과제는 보안이며, 디지털 전환(DX)과 AI 혁신(AX)의 성공 역시 AI에 대한 신뢰도 확보에 달려 있음을 시사한다. 한국후지필름BI의 하토가이 준 대표는 “이번 조사를 통해 AI가 이미 업무 환경에서 적극 활용되고 있지만, 결과물의 정확도와 보안, 조직 차원의 인프라 부족 등 다양한 과제가 남아있음을 확인했다”며, “앞으로 한국후지필름BI는 AI를 기반으로 협업·자동화 환경을 고도화해 중소기업 시장의 차세대 업무 생태계 구축을 선도해 나갈 것”이라고 말했다.  
작성일 : 2025-10-23
HPE, 에릭슨과 협력해 듀얼모드 5G 코어 설루션 검증
HPE는 에릭슨과 협력해 통신 서비스 사업자가 멀티벤더 인프라 스택을 구축하는 과정에서 직면하는 핵심 과제를 해결하기 위한 공동 검증 랩 설립을 발표했다. 이번 협력은 클라우드 네이티브 기반의 AI 지원 듀얼모드 5G 코어 설루션의 검증을 통해, 새로운 서비스 도입 과정의 복잡성을 관리하면서도 고성능·확장성·효율성을 갖춘 네트워크를 구축해야 하는 증가하는 수요에 대응한다. HPE와 에릭슨은 이를 기반으로 통신사들이 운영을 간소화하고 혁신을 가속화하며, 초연결 시대의 요구사항을 충족할 수 있도록 지원할 계획이다. 공동 검증 랩은 상호운용성 테스트를 수행하고 검증된 설루션이 통신사의 요구사항을 충족하는지 확인하는 테스트 환경으로 활용된다. 이 스택은 에릭슨의 듀얼모드 5G 코어 설루션과 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) Gen12 서버, 앱스트라 데이터센터 디렉터(Apstra Data Center Director) 기반으로 관리되는 HPE 주니퍼 네트워킹(HPE Juniper Networking) 패브릭, 그리고 레드햇 오픈시프트(Red Hat OpenShift)로 구성된다. ▲‘에릭슨 듀얼 모드 5G 코어’는 5G와 4G 네트워크를 모두 지원하는 설루션으로, 효율적인 확장 및 미래 대비 네트워크 구축을 원하는 통신사의 복잡성과 운영 비용을 절감한다. ▲‘HPE 프로라이언트 DL360 및 DL380 Gen12 서버’는 인텔 제온 6 프로세서를 탑재해 AMF, UPF, SMF 등 네트워크 집약적 텔코 CNF(Containerized Core Network Functions)를 위한 최적의 성능을 제공한다. 또한 칩에서 클라우드까지 보안을 구현한 HPE Integrated Lights Out(iLO) 7을 통해 모든 계층에서 내장형 보안을 제공한다. ▲‘HPE 주니퍼 네트워킹 고성능 패브릭’은 QFX 시리즈 스위치와 앱스트라 데이터센터 디렉터를 기반으로 인텐트 기반 자동화(Intent-based Automation)와 AIOps 기반 보증 기능을 통해 운영 효율을 강화하고 비용을 절감한다. ▲‘레드햇 오픈시프트’는 공통 클라우드 네이티브 텔코 플랫폼으로서, 통신사가 새로운 서비스를 빠르게 개발·배포·확장할 수 있는 민첩성을 제공한다. 이를 통해 시장 출시 시간을 단축하고 기존 배포 주기를 개선하며, 코어에서 에지까지 일관되고 자동화된 운영 경험을 제공해 복잡한 네트워크 기능 배포 및 관리를 간소화한다.     스웨덴 에릭슨 본사 인근에 위치한 이번 검증 랩은 2025년 말 가동을 시작할 예정이다. 또한 실제 고객 테스트와 피드백을 통해 검증을 진행하고, 2026년 상반기에는 통합 설루션의 상용 검증을 완료해 시장 출시 속도를 높이고 라이프사이클 관리 효율을 강화할 계획이다. HPE의 페르난도 카스트로 크리스틴(Fernando Castro Cristin) 텔코 인프라 사업부 부사장 겸 총괄은 “HPE는 에릭슨과의 전략적 파트너십을 바탕으로 통신사가 5G 및 AI 중심의 경제에서 성공할 수 있도록 혁신적인 기술 설루션을 제공하는 데 주력하고 있다”면서, “에릭슨의 클라우드 네이티브 듀얼모드 5G 코어와 레드햇 오픈시프트를 검증된 차세대 HPE 컴퓨트 인프라 및 HPE 주니퍼 네트워킹 패브릭과 통합함으로써, HPE는 통신사가 신속한 서비스 배포와 수요 기반 확장, 트래픽 변동에 대한 유연한 대응, 예측 가능한 라이프사이클 관리, 그리고 빠르게 진화하는 기술 환경에 적응할 수 있는 새로운 통합 설루션을 개발하고 있다”고 말했다. 에릭슨의 크리슈나 프라사드 칼루리(Krishna Prasad Kalluri) 코어 네트웍스 설루션 및 포트폴리오 부문 총괄은 “에릭슨은 5G 및 코어 네트워크 분야의 글로벌 리더로서, 통신사가 클라우드 네이티브 네트워크로 전환하는 여정을 간소화할 수 있도록 개방성과 혁신을 지속적으로 추진하고 있다”며, “HPE와의 협력 및 공동 검증 랩 설립은 멀티벤더 인프라 환경에서 클라우드 네이티브 5G 코어 설루션 개발을 한층 더 발전시키는 중요한 계기가 될 것”이라고 밝혔다.
작성일 : 2025-10-20
오라클, OCI 전용 리전25 통해 소버린 AI 및 클라우드 서비스 배포 지원
오라클은 더 많은 기업이 퍼블릭 클라우드의 민첩성, 경제성 및 확장성을 누릴 수 있도록 오라클 클라우드 인프라스트럭처(OCI) 전용 리전25(Dedicated Region25)를 출시했다고 발표했다. 기업은 OCI 전용 리전25를 통해 단 몇 주 내에 최소 3개의 랙으로 구성된 풀스택 OCI 환경을 구축할 수 있으며, 공간 제약이 있는 환경에서도 손쉽게 전용 리전을 배포할 수 있다. 지난 2020년 처음 출시된 OCI 전용 리전(OCI Dedicated Region)은 대규모 하이퍼스케일 폼팩터에서 더욱 유연한 배포 형태로 발전해 왔다. 현재 전 세계적으로 60개 이상의 OCI 전용 리전과 오라클 알로이(Oracle Alloy) 리전이 운영 중이거나 계획되어 있으며, 고객은 성능, 거버넌스, 퍼블릭 OCI 환경의 호환성을 저해하지 않으면서 자사 비즈니스 규모에 최적화된 배포 모델을 선택할 수 있다.     OCI 전용 리전25는 OCI의 분산형 클라우드 제품군에 속하며, 모듈형 인프라와 간소화된 서비스 설계를 갖춘 엔터프라이즈급 소버린 클라우드를 통해 공공 및 민간 조직이 민첩성을 높이고 제품 출시 기간을 단축하도록 지원한다. 오라클은 “200개 이상의 AI 및 클라우드 서비스가 내장된 완전한 퍼블릭 클라우드 리전을 3개 랙만으로 구축 가능하고, 하이퍼스케일 수준까지 확장 가능하며, 고객 데이터센터 내에서 안전하게 운영할 수 있도록 지원한다”고 소개했다. 이에 따라 시공간적 제약 혹은 규제 관련 제약으로 전용 클라우드 리전 운영이 어려웠던 고객도 혁신을 가속화하고 새로운 비즈니스 모델을 구현할 수 있게 된다는 것이 오라클의 설명이다. 기존의 전용 클라우드 리전은 많은 조직의 전면적 클라우드 전환에 걸림돌이 되었다. OCI 전용 리전25는 ▲고도화된 네트워크 중심의 모듈형 확장성 ▲하이퍼컨버지드 표준 인프라 ▲통합 다계층(multi-layered) 보안 ▲SaaS, AI를 포함한 퍼블릭 클라우드 수준의 서비스 제공 ▲데이터 주권 요건 지원 ▲오라클 운영 클라우드 리전 등의 이점을 제공하여 클라우드 전환의 방해요소를 제거한다. OCI 전용 리전25는 최소 3개 랙으로 시작해 다운타임이나 재설계 없이 네트워크 확장 랙을 추가함으로써 하이퍼스케일까지 원활하게 확장할 수 있다. 그리고 오라클의 표준화된 고밀도 컴퓨팅 및 스토리지 랙을 활용해 데이터센터 공간 및 전력 사용을 절감할 수 있다. 고객은 더 높은 신뢰성, 빠른 복구 시간, 최대 가동 시간을 확보할 수 있으며, 복잡한 운영 부담 없이 컴팩트한 규모로 운영 가능하다. OCI 전용 리전25는 물리, 가상 전 계층에 걸친 다중적 보안 장치로 데이터와 워크로드를 보호해 높은 수준의 보안, 프라이버시, 규제 요건을 충족할 수 있도록 한다. 통합 다계층 보안 기능으로는 생체인식 잠금(biometric-locked) 랙, 암호화된 소프트웨어 정의 네트워크 패브릭 등이 포함된다. 또한 200개 이상의 OCI AI 및 클라우드 서비스를 고객 환경에서 직접 제공함으로써 데이터 주권 및 데이터 지역성 요건을 충족하면서도 퍼블릭 OCI와 동일한 운영 환경을 구현할 수 있다. 이외에도 정부 및 공공기관이 전체 오라클 클라우드 스택을 자체 환경에 배포하고 데이터 및 시스템에 대한 완전한 통제권을 유지할 수 있도록 함으로써 엄격한 수준의 데이터 주권, 프라이버시, 보안, 규제 요건을 충족할 수 있도록 지원한다. OCI 전용 리전25는 오라클이 직접 운영하는 완전한 클라우드 운영 서비스 형태로 제공되므로, 고객은 인프라 관리가 아닌 혁신에 집중할 수 있다. 스콧 트와들 OCI 제품 및 산업 담당 수석 부사장은 “기업은 가장 큰 가치 창출이 가능한 곳에서 AI와 클라우드 서비스를 자유롭게 구동하길 원하며, 소버린 AI(sovereign AI)에 대한 관심이 높아짐에 따라 데이터의 위치와 데이터 통제에 대한 요건이 엄격해져 이러한 요구 사항이 더욱 강화되고 있다”면서, “OCI 전용 리전25의 출시로 오라클은 사실상 모든 데이터센터로 오라클 클라우드의 역량을 확장할 수 있게 되었다. 이 새로운 배포 옵션은 탁월한 유연성, 운영 단순성 및 엔터프라이즈급 데이터 주권을 제공해 전용 클라우드의 기준을 새롭게 정의하고, 고객이 미래 혁신을 대비할 수 있도록 돕는다”고 말했다.
작성일 : 2025-10-20