• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "네트워킹"에 대한 통합 검색 내용이 749개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔–구글, 차세대 AI 및 클라우드 인프라 협력 확대
인텔과 구글은 차세대 AI와 클라우드 인프라 발전을 위해 다년간 협력하기로 했다. 양사는 이번 협력을 통해 최신 이기종 AI 시스템을 대규모로 구현하는 과정에서 중앙처리장치(CPU)와 주문형 인프라 처리 장치(IPU)의 역할을 강화한다는 계획이다. 최근 인공지능 도입이 빨라지면서 인프라는 더욱 복잡한 이기종 구조로 변하고 있다. 이에 따라 데이터 처리와 시스템 성능을 관리하기 위한 CPU 의존도가 높아지는 추세다. 인텔과 구글은 인텔 제온 프로세서의 여러 세대에 걸쳐 협력하며 구글의 글로벌 인프라 전반에서 성능과 에너지 효율, 총 소유 비용을 개선할 예정이다. 구글 클라우드는 최신 인텔 제온 6 프로세서를 탑재한 C4와 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스에 인텔 제온 프로세서를 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론과 범용 컴퓨팅까지 넓은 범위의 워크로드를 지원한다. 동시에 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU의 공동 개발을 확대하고 있다. 프로그래밍이 가능한 이 가속기는 호스트 CPU가 맡던 네트워킹, 스토리지, 보안 기능을 분담한다. 이를 통해 자원 활용도를 높이고 효율성을 개선하며 하이퍼스케일 AI 환경에서 더욱 예측 가능한 성능을 구현할 수 있다. IPU는 최신 데이터 센터 아키텍처의 핵심 요소로 꼽힌다. 기존 CPU가 담당하던 인프라 작업을 처리해 효율적인 컴퓨팅 성능을 제공하기 때문이다. 클라우드 서비스 제공업체는 이를 활용해 시스템 복잡성을 높이지 않고도 인프라를 확장할 수 있다. 제온 CPU와 IPU는 긴밀하게 통합된 플랫폼을 구성해 범용 컴퓨팅과 특정 목적에 특화된 가속 기능을 균형 있게 제공한다. 이번 협력 확대는 AI 시대에 필요한 개방적이고 확장 가능한 인프라를 발전시키려는 양사의 노력을 담고 있다. 인텔과 구글은 범용 컴퓨팅과 AI 시스템 설계에 특화된 가속 기능을 결합해 복잡성을 줄이고 효율적인 확장이 가능한 AI 시스템 설계 방식을 구현해 나갈 계획이다. 인텔의 립 부 탄 CEO는 “AI는 인프라 구축과 확장 방식을 재편하고 있다”면서, “AI 확장을 위해서는 가속기 이상의 균형 잡힌 시스템이 필수이며 CPU와 IPU는 최신 AI 워크로드가 요구하는 성능과 유연성을 제공하는 핵심 역할을 한다”고 설명했다. 구글 AI 인프라 부문의 아민 바흐다트 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습부터 배포까지 AI 시스템의 핵심 요소로 남아 있다”면서, “인텔은 20년 가까이 신뢰해 온 파트너로 인텔의 제온 로드맵을 통해 워크로드의 성능과 효율 요구 사항을 지속적으로 충족할 수 있을 것으로 확신한다”고 전했다.
작성일 : 2026-04-10
HPE, 엔비디아와 손잡고 차세대 AI 팩토리 및 슈퍼컴퓨팅 혁신 가속화
HPE가 대규모 AI 팩토리와 슈퍼컴퓨터를 위한 'HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오'의 주요 혁신 사항을 발표했다. 이번 발표는 고객이 AI를 더 효율적으로 확장하고 배포하며, 데이터에서 인사이트를 도출하는 시간을 단축하는 데 중점이다. HPE는 엔비디아와 협력해 구축한 이번 풀스택 AI 설루션이 컴퓨팅, GPU, 네트워킹, 액체 냉각, 소프트웨어 및 서비스를 긴밀하게 통합해 대규모 환경과 국가별 소버린 환경에 최적화했다고 밝혔다. 현재 아르곤 국립 연구소, 독일 슈투트가르트 고성능 컴퓨팅 센터, 허드슨 리버 트레이딩, 한국과학기술정보연구원 등 세계적인 연구 기관과 AI 기업들이 HPE의 인프라를 채택해 혁신을 가속하고 있다. HPE는 자사의 슈퍼컴퓨팅 플랫폼인 ‘HPE 크레이 슈퍼컴퓨팅 GX5000’에 엔비디아의 최신 설루션을 적용한다. 먼저 액체 냉각 방식의 ‘엔비디아 베라 CPU 컴퓨트 블레이드’를 도입한다. 각 ‘HPE 크레이 슈퍼컴퓨팅 GX240 컴퓨트 블레이드’는 최대 16개의 엔비디아 베라 CPU를 탑재해 까다로운 AI 워크로드를 지원한다. 이는 랙 하나 당 최대 40개의 블레이드와 640개의 CPU, 5만 6320개의 엔비디아 올림푸스 코어를 확장할 수 있다. 또한 엔비디아 퀀텀-X800 인피니밴드를 통해 초고속 네트워킹 환경을 제공한다. 이 스위치는 포트당 800Gb/s의 연결성을 지원하며 높은 전력 효율을 갖춘 것이 특징이다.     대규모 및 소버린 환경을 위한 ‘HPE AI 팩토리’ 포트폴리오도 강화한다. HPE는 1조 개 이상의 매개변수를 가진 거대 모델을 위해 설계된 차세대 시스템 ‘HPE 기반 엔비디아 베라 루빈 NVL72’ 랙 스케일 시스템을 선보인다. 이 시스템은 36개의 CPU와 72개의 루빈 GPU, 6세대 NV링크 네트워킹 등을 탑재해 대규모 환경에서 높은 효율을 낸다. 이와 함께 새로운 AI 서버인 ‘HPE 컴퓨트 XD700’도 출시한다. 엔비디아 HGX 루빈 NVL8을 기반으로 한 이 서버는 랙당 최대 128개의 루빈 GPU를 지원하며, 이전 세대보다 두 배 향상된 GPU 집적도를 통해 전력과 냉각 비용을 절감한다. 이외에도 모든 HPE AI 팩토리 포트폴리오에서 ‘엔비디아 RTX PRO 6000 블랙웰 서버 에디션’ GPU를 사용할 수 있게 된다. 소프트웨어와 서비스 측면에서는 엔비디아 클라우드 파트너 프로그램 인증을 획득해 클라우드 서비스 제공사의 검증 프로세스를 간소화한다. 수세 가상화 및 랜처 프라임 스위트를 통한 멀티 테넌시 옵션도 확장해 가상머신용 GPU 패스스루 등을 지원한다. 레드햇 엔터프라이즈 리눅스 및 오픈시프트와의 통합은 물론, AI 팩토리의 운영과 확장을 돕는 ‘엔비디아 미션 컨트롤’ 소프트웨어도 제공할 예정이다. HPE의 트리시 담크로거 수석부사장은 “세계 최고 성능의 엑사스케일 슈퍼컴퓨터 3대를 구축한 HPE는 최첨단 AI 워크로드와 고성능컴퓨팅을 결합해 과학적 혁신을 주도하고 있다”면서, “엔비디아와 협력해 의학, 생명과학, 제조 등 다양한 분야에서 한계를 뛰어넘는 데 필요한 성능을 제공하겠다”고 밝혔다. 엔비디아의 크리스 매리어트 부사장은 “기업과 국가가 AI의 잠재력을 실현하려면 대규모 모델 학습과 고성능컴퓨팅 워크로드를 처리할 인프라가 필수”라면서, “양사가 공동 개발한 인프라는 가속 컴퓨팅과 액체 냉각 기술을 결합해 인사이트 도출 시간을 단축한다”고 설명했다.
작성일 : 2026-04-06
정부, 4230억원 규모 AX 사업 통합 공고 설명회 3월 25일 예정...산업 제조 AI 전환 가속화
산업 현장의 인공지능 전환을 가속화하기 위해 정부 부처들이 힘을 모은다. 산업통상자원부, 과학기술정보통신부, 중소벤처기업부는 2026년 주요 AI 전환(AX) 사업을 통합 공고하고, 기업들의 사업 참여 편의를 높이기 위한 범부처 협력을 본격적으로 가동한다고 밝혔다. 이번 통합 공고는 지난해 10월 체결된 산업 전반의 AX 확산을 위한 업무협약의 후속 조치다. 그동안 기업들이 각 부처의 사업을 개별적으로 확인해야 했던 번거로움을 해소하고, AI 3대 강국 도약을 위해 산업 및 제조 AX 분야에서 원팀으로 대응한다는 취지다. 총 사업 규모는 4230억원에 달하며, 오는 4월에는 지역 AX 실증밸리 조성 및 혁신기술개발 등 지역 관련 사업도 합동으로 공고할 예정이다.   AI 에이전트 및 AX 스프린트 사업 신규 추진 3개 부처는 올해부터 각 분야의 특성을 살린 AI 에이전트 사업을 신규로 추진한다. 산업부는 생산계획, 공급망 관리, 재고 운영 등 제조 현장의 핵심 과업을 대상으로 AI 에이전트를 개발하고 실증한다. 과기정통부는 의료 초음파와 상담 서비스 등 공공성과 국민 체감도가 높은 분야의 에어전틱 AI 핵심기술 확보에 집중한다. 중기부는 식품, 뷰티, 제약 등 소비자 밀착형 중소 제조 분야를 중심으로 비정형 작업 대응을 위한 다중 AI 에이전트 기술개발을 지원할 계획이다. 유망 분야에서 AI 기반 제품과 서비스를 조기에 상용화하기 위한 AX 스프린트(AX-Sprint) 사업도 부처별로 차별화하여 전개한다. 산업부는 제조설비 점검 로봇과 가전 등 일상 제품에 AI를 적용하며, 과기정통부는 네트워크, 보안 등 생활 밀접 분야의 AI 융합을 추진한다. 중기부는 중소 제조 현장의 공정 혁신을 위한 응용 솔루션 보급에 주력한다. 제조 현장 혁신 위한 산업 AI 솔루션 및 스마트공장 지원 산업 전반의 AX 확산을 위한 기존 주요 사업들도 이번 공고에 포함되었다. 산업부는 제조 현장에 즉시 적용 가능한 산업 AI 솔루션 실증 및 확산 지원 사업을 지속하며, 과기정통부는 AI 가상융합 산업혁신 프로젝트와 AI 바우처 사업을 통해 서비스 개발과 기술 도입을 지원한다. 중기부는 중소 및 중견기업의 사업장에 특화된 AI를 지원하는 스마트공장 사업을 공고하여 현장 중심의 디지털 전환을 뒷받침한다. 통합 공고는 3월 19일부터 각 부처 및 유관기관 홈페이지를 통해 게시된다. 상세한 지원 내용과 절차는 산업부, 과기정통부, 중기부를 비롯해 한국산업기술진흥원, 정보통신산업진흥원, 스마트제조혁신추진단 등 11개 기관의 누리집에서 확인할 수 있다.  아울러 3개 부처는 3월 25일 서울 웨스틴 조선 호텔에서 공동 사업설명회를 개최한다. 이번 설명회는 사업 참여 희망 기업을 대상으로 상세 안내와 질의응답, 네트워킹 기회를 제공하며, 지역 기업들의 참여를 독려하기 위해 유튜브 생중계도 병행한다. 정부는 앞으로도 부처 간 강점을 결합한 연계 사업을 지속적으로 발굴하여 국가 인공지능 전략을 체계적으로 이행해 나갈 방침이다.   3개 부처 통합 공고 대상 사업
작성일 : 2026-03-15
앤시스코리아, 2026 글로벌 기업 협업 프로그램 ASK·ASK SPACE 참가 기업 모집
앤시스코리아가 중소벤처기업부 및 창업진흥원과 함께 2026 글로벌 기업 협업 프로그램 ‘ASK(애스크)’ 및 ‘ASK SPACE(애스크 스페이스)’의 참여 희망 기업을 모집한다고 밝혔다. ASK(Ansys/Startup/Korea)는 스마트 모빌리티(자율주행, 전기차), 전자전기(반도체, 통신 등), 헬스케어, 건설기계, 에너지 등 미래 유망 산업 분야 창업기업을 대상으로 엔지니어링 시뮬레이션 기반 제품 개발 환경을 제공해 생산성 혁신과 글로벌 시장 진출을 지원하는 프로그램이다. 관련 분야 업력 10년 이내의 창업기업이라면 신청할 수 있다. ASK SPACE는 위성 시스템, 발사체 및 추진 시스템, 우주 탐사 및 플랫폼 기술, 지상 지원 시스템 등 우주항공 산업 분야 창업기업을 대상으로 운영되는 특화 프로그램이다. 우주산업 분야 업력 10년 이내의 기업을 대상으로 엔지니어링 시뮬레이션 기반 연구개발 역량 확보와 글로벌 경쟁력 강화를 지원한다. 앤시스코리아는 최종 선정된 기업에게 ▲엔지니어링 시뮬레이션 설루션 라이선스 및 클라우드 지원 ▲전문 기술 교육 및 컨설팅 ▲글로벌 웨비나 및 기술 세미나 ▲글로벌 콘퍼런스·박람회 참가 및 홍보 ▲투자 유치 및 네트워킹 기회 등을 제공할 예정이다. 창업기업 평가는 3월 요건 검토 및 서류평가를 거쳐 4월 발표평가 후 최종 선정된다. 선정 기업은 4월부터 11월까지 약 8개월간 협약을 통해 프로그램 지원을 받게 된다. 또한 올해는 전 주관기관과 글로벌 기업, 창업기업이 함께 참여하는 통합 프로그램이 운영된다. 5월 ‘밋업 데이’를 통해 글로벌 기업과 창업기업 간 협업 매칭과 네트워킹을 지원하고, 7월부터 11월까지는 해외 시장 진출을 위한 ‘글로벌 로드쇼’를 통해 글로벌 투자자와 파트너를 대상으로 한 데모데이가 진행된다. 12월에는 연간 추진 성과 공유와 우수 사례 발표를 위한 성과공유회가 개최될 예정이다. 이번 모집은 3월 16일까지 진행되며, 앤시스코리아는 산업 전반과 우주항공 분야를 아우르는 두 개의 협업 프로그램을 운영해 폭넓은 산업군의 창업기업 성장을 지원할 계획이다. 자세한 내용과 신청 방법은 ‘K-Startup 창업지원포털’ 공식 홈페이지에 게시된 공고를 통해 확인할 수 있다.
작성일 : 2026-03-04
엔비디아, 메타와 차세대 AI 인프라 구축 위한 파트너십 체결
엔비디아가 메타와 온프레미스와 클라우드를 아우르는 차세대 AI 인프라 구축을 위한 장기 전략적 파트너십을 체결했다고 밝혔다. 메타는 자사의 장기적인 AI 인프라 로드맵 지원을 위해 훈련과 추론에 최적화된 하이퍼스케일 데이터센터를 구축할 예정이다. 이번 파트너십을 통해 엔비디아 CPU와 수백만 대의 엔비디아 블랙웰(Blackwell), 루빈(Rubin) GPU가 메타의 페이스북 오픈 스위칭 시스템(Facebook Open Switching System) 플랫폼에 대규모로 배포되며, 엔비디아 스펙트럼-X 이더넷(Spectrum-X Ethernet) 스위치가 함께 통합될 예정이다. 엔비디아와 메타는 데이터센터 프로덕션 애플리케이션에 Arm 기반 엔비디아 그레이스(Grace) CPU를 배포하기 위해 지속적으로 협력 중이다. 이는 메타의 장기적인 인프라 전략의 일환으로, 데이터센터 전반에서 전력 대비 성능을 개선하고 있다. 이번 협력은 엔비디아 그레이스 단독 아키텍처의 첫 대규모 배포 사례로, CPU 생태계 라이브러리에 대한 공동 설계와 소프트웨어 최적화 투자를 통해 세대별 전력 대비 성능을 지속적으로 향상시키고 있다. 또한 양사는 엔비디아 베라 CPU 배포를 위해 협력하고 있으며, 2027년 대규모 배포 가능성을 검토하고 있다. 이를 통해 메타의 에너지 효율적인 AI 컴퓨팅 역량을 한층 확장하고, Arm 기반 소프트웨어 생태계 발전을 가속화할 계획이다. 메타는 엔비디아 GB300 기반 시스템을 도입하고, 온프레미스 데이터센터와 엔비디아 클라우드 파트너(NVIDIA Cloud Partner : NCP) 배포 환경을 아우르는 통합 아키텍처를 구축할 예정이다. 이를 통해 운영을 간소화하는 동시에 성능과 확장성을 극대화할 수 있다. 또한 메타는 인프라 전반에 엔비디아 스펙트럼-X 이더넷 네트워킹 플랫폼을 도입해, AI 규모에 최적화된 네트워킹을 제공하고 있다. 이를 통해 예측 가능한 저지연 성능을 보장하고, 활용도를 극대화하며, 운영과 전력 효율성을 향상시킬 예정이다. 한편, 메타는 엔비디아 컨피덴셜 컴퓨팅(Confidential Computing)을 왓츠앱(WhatsApp)의 프라이빗 프로세싱(private processing)에 도입했다. 이를 통해 사용자 데이터의 기밀성과 무결성을 보장하는 동시에, 메시징 플랫폼 전반에 AI 기반 기능을 구현할 수 있다. 양사는 왓츠앱을 넘어 메타 포트폴리오 전반에 엔비디아 컨피덴셜 컴퓨팅 역량을 확장하기 위해 협력하며, 대규모 프라이버시 강화를 위한 AI를 지원하고 있다. 엔비디아와 메타의 엔지니어링 팀은 메타의 핵심 워크로드 전반에 걸쳐 최첨단 AI 모델을 최적화하고 가속화하기 위한 심층 공동 설계를 진행하고 있다. 이러한 협력은 엔비디아의 풀스택 플랫폼과 메타의 대규모 프로덕션 워크로드를 결합해, 전 세계 수십억 명이 사용하는 새로운 AI 기능의 성능과 효율성을 향상시키는 것을 목표로 한다.     엔비디아의 젠슨 황 창립자 겸 CEO는 “메타처럼 대규모로 AI를 배포하는 기업은 없다. 메타는 최첨단 연구를 산업 규모의 인프라와 통합해 수십억 명의 사용자를 위한 세계 최대 수준의 개인화와 추천 시스템을 제공하고 있다. 엔비디아는 CPU, GPU, 네트워킹, 소프트웨어 전반에 걸친 긴밀한 공동 설계를 통해 메타 연구진과 엔지니어들이 차세대 AI 혁신을 위한 기반을 구축할 수 있도록 엔비디아 풀스택 플랫폼을 제공하고 있다”고 말했다. 메타의 마크 저커버그 창립자 겸 CEO는 “엔비디아와의 협력을 확대해 베라 루빈 플랫폼을 활용한 최첨단 클러스터를 구축함으로써, 전 세계 모든 사람에게 개인 맞춤형 슈퍼 인텔리전스를 제공하게 돼 매우 기쁘게 생각한다”고 말했다.
작성일 : 2026-02-20
시스코, ‘시스코 라이브 EMEA 2026’에서 AI 시대를 위한 혁신 기술 공개
시스코는 네덜란드 암스테르담에서 열린 ‘시스코 라이브 EMEA 2026(Cisco Live EMEA 2026)’ 콘퍼런스에서 에이전틱 AI 도입을 촉진하기 위한 일련의 혁신적인 기술들을 공개하면서, 에이전틱 AI를 구현하는 데 필수적인 핵심 인프라 제공 역량을 한층 더 고도화했다고 밝혔다. 시스코가 이번에 선보인 신규 제품들은 고객이 보다 높은 보안성과 신뢰성을 갖춘 에이전틱 AI(agentic AI) 를 활용할 수 있도록 지원한다. 시스코의 실리콘 원(Silicon One) G300은 고객이 AI 클러스터 구축을 대규모로 확장할 수 있도록 지원한다. G300은 ‘지능형 콜렉티브 네트워킹(Intelligent Collective Networking)’을 통해 최적화되지 않은 트래픽 대비 네트워크 활용률을 33% 높이고, 작업 완료 시간을 28% 단축한다. 시스코는 하이퍼스케일러, 네오클라우드, 소버린 프라이빗 구축, 서비스 제공업체, 엔터프라이즈 등 AI 네트워크 구축을 추진하는 고객을 위해 G300 기반 시스코 N9100 및 시스코 8000 시스템을 도입하고 있다. 함께 발표된 시스코 ‘넥서스 원(Nexus One) 통합 관리 플랫폼’은 온프레미스 및 클라우드 기반 데이터센터 환경 전반의 운영을 간소화한다. 이와 같은 시스코의 AI 인프라 혁신은 데이터센터 운영의 복잡성을 줄이고 수익성을 높여, 고객이 AI 투자 가치를 극대화할 수 있도록 돕는다. 새롭게 선보이는 에이전틱옵스(AgenticOps) 혁신은 시스코 제품 포트폴리오에 걸쳐 AI 시대에 IT 운영의 자동화·확장·단순화를 가능하게 한다. 시스코 에이전틱옵스는 시스코 네트워킹, 시큐리티 클라우드 컨트롤(Security Cloud Control), 시스코 넥서스 원, 스플렁크(Splunk) 등에서 수집되는 크로스 도메인 텔레메트리를 바탕으로 시스템 전반에 대한 통합 가시성을 제공한다. 이번에 추가된 새로운 기능에는 네트워킹, 보안, 가시성 영역을 아우르는 다양한 도구와 기술, 그리고 플랫폼 고도화 요소가 포함된다. 대규모 업데이트가 이뤄진 시스코 AI 디펜스(Cisco AI Defense)는 AI 공급망 거버넌스와 에이전틱 도구 사용에 대한 런타임 보호 기능을 제공해, 침해나 조작 위험을 대폭 낮춘다. 아울러 AI 기반으로 고도화된 시스코 보안 액세스 서비스 엣지(Secure Access Service Edge : SASE)는 에이전틱 AI 상호작용과 도구 요청에 대한 의도 인식 기반 검사를 지원한다. 이를 통해 에이전틱 트래픽이 ‘왜(why)’, ‘어떻게(how)’ 발생하는지까지 평가해 새로운 유형의 위협을 사전에 차단한다. 기업은 이러한 통합 기능을 활용해 에이전트 무결성과 상호작용에 대한 통제력을 유지하면서도, AI 기술을 안전하게 도입·운영할 수 있다.     한편, 시스코는 엄격한 데이터 소버린 요구사항을 갖춘 조직을 지원하기 위해 영국, 프랑스, 스페인에 시스코 핵심 국가 서비스 센터(Cisco Critical National Services Centers : CNSC)를 구축했다고 전했다. 이 센터는 전용 시설과 분리된 운영 프로세스, 보안 인가를 받은 검증된 인력을 기반으로 엄격한 소버린 통제 하에 운영된다. CNSC는 기존 시스코 기술 지원 센터(Technical Assistance Center : TAC) 채널을 보완해, 고객의 데이터 처리 정책을 준수하는 안전하고 승인된 경로를 통해 기술 지원 이슈 해결을 지원한다. 시스코는 독일을 포함해 현재 유럽 지역에 총 4개의 CNSC를 운영 중이며, 이탈리아에서도 추가 CNSC 1곳을 구축 중이다. 시스코의 지투 파텔 사장 겸 최고제품책임자(CPO)는 “AI 혁신은 그 어느 때보다 빠르게 진행되고 있으며, 우리는 고객이 빠르게 움직이면서도 안전하고 보안적으로 AI를 도입하는 데 필요한 핵심 인프라를 제공하고 있다”면서, “이번 발표는 실리콘과 시스템, 에이전틱옵스, 보안과 가시성에서의 혁신이 유기적으로 결합돼 데이터센터부터 업무 환경, 그 너머까지 고객 가치를 창출하는 ‘통합 플랫폼’으로서 시스코가 가진 힘을 보여준다”고 말했다.
작성일 : 2026-02-11
마이크로소프트, 차세대 AI 추론 가속기 ‘마이아 200’ 공개
마이크로소프트가 대규모 AI 토큰 생성의 경제성을 개선하기 위해 설계된 추론 가속기 ‘마이아 200(Maia 200)’을 공개했다. 마이아 200은 마이크로소프트 애저(Azure) 환경에서 AI 모델을 더욱 빠르고 경제적으로 구동할 수 있도록 지원하며 차세대 AI 인프라의 핵심 역할을 수행할 예정이다. 마이아 200은 TSMC의 3나노미터(nm) 공정을 기반으로 고성능 AI 추론에 최적화된 구조를 갖췄다. 특히 초당 7TB 대역폭의 216GB HBM3e 메모리 시스템과 네이티브 FP8/FP4 텐서 코어, 그리고 데이터 이동 엔진을 유기적으로 결합해 거대 모델에 최적화된 추론 성능을 제공하는 것이 특징이다. 마이아 200은 1400억 개 이상의 트랜지스터를 탑재해 대규모 AI 워크로드에 특화된 설계를 갖췄다. 750W SoC TDP(설계 전력) 범위 내에서 각 칩은 FP4 기준 10 PFLOPS 초과, FP8 기준 5 PFLOPS 초과 성능을 제공한다. 이러한 연산 성능은 대규모 모델 구동을 원활히 지원하며, 향후 등장할 차세대 모델까지 대응 가능한 수준의 성능 여유를 확보한다. 또한 데이터 공급 병목 현상 해결을 위해 메모리 하위 시스템을 전면 재설계해 토큰 처리량을 최적화했다.     이러한 성능은 대규모 클러스터 환경에서도 일관되게 구현된다. 마이크로소프트는 표준 이더넷 기반의 새로운 2계층 스케일업 네트워크를 도입했으며, 맞춤형 전송 계층과 통합 NIC를 통해 독점적인 패브릭 없이도 성능과 신뢰성, 비용 이점을 확보했다. 각 가속기는 초당 2.8TB의 양방향 전용 스케일업 대역폭을 지원하며, 이는 최대 6144개의 가속기를 연결하는 대규모 클러스터 전체에서 일관된 성능을 유지하고 애저 인프라의 전력 소모와 전체 소유 비용(TCO)을 절감하는 기반이 된다. 시스템 효율은 개별 단위인 트레이와 랙 수준의 정밀한 연결 구조를 통해 구현된다. 하나의 트레이 내부에 탑재된 4개의 가속기를 직접 연결해 내부 통신 효율을 높였으며, 동일한 통신 프로토콜을 사용해 랙 단위까지 원활하게 확장할 수 있도록 설계했다. 이러한 통합 네트워킹 환경은 프로그래밍을 단순화하고 워크로드의 유연성을 높여 시스템 운영 효율을 강화한다. 마이크로소프트는 “실제 연산 성능에서 마이아 200은 4비트 정밀도(FP4) 기준 3세대 아마존 트레이니움(Amazon Trainium) 대비 3배 높은 처리량을 기록했으며, 8비트 정밀도(FP8)에서도 구글의 7세대 TPU를 상회한다”고 소개했다. 마이크로소프트는 이러한 기술력을 바탕으로 자사 인벤토리 내 최신 하드웨어 대비 달러당 성능을 30% 개선하며 효율적인 추론 시스템을 구축했다. 마이크로소프트의 이기종AI 인프라에서 핵심 역할을 수행할 마이아 200은 오픈AI의 최신 GPT-5.2 모델을 비롯한 다양한 모델을 지원한다. 이로써 마이크로소프트 파운드리(Microsoft Foundry)와 마이크로소프트 365 코파일럿(Microsoft 365 Copilot)의 가격 대비 성능 효율을 제공한다. 마이크로소프트 슈퍼인텔리전스 팀은 차세대 사내 모델 개선을 위한 합성 데이터 생성 및 강화 학습에 마이아 200을 투입할 계획이다. 이 칩은 고품질 도메인 특정 데이터의 생성 및 필터링 속도를 가속화해 후속 학습에 정교한 신호를 공급하는 중추 역할을 맡게 된다. 마이아 200은 아이오와주 디모인(Des Moines) 인근 미국 중부(US Central) 데이터 센터 지역을 시작으로 배포가 진행된다. 향후 애리조나주 피닉스(Phoenix) 인근 US West 3 지역 등으로 확대될 예정이다. 마이크로소프트 실리콘 개발 프로그램은 칩 출시 전 시스템 전반을 검증하는 엔드 투 엔드 방식을 원칙으로 한다. 설계 초기부터 LLM의 연산 및 통신 패턴을 모델링하는 프리 실리콘 환경을 구축해, 실제 칩 제작 전 이미 실리콘과 네트워킹, 시스템 소프트웨어를 하나의 체계로 최적화했다. 데이터센터 투입 준비도 설계 단계부터 병행했다. 백엔드 네트워크와 2세대 액체 냉각 시스템 등 복잡한 요소를 조기 검증하고 애저 제어 플레인)과 네이티브로 통합했다. 그 결과 마이아 200은 첫 부품 입고 수일 만에 실제 모델 구동에 성공했으며, 칩 입고부터 데이터 센터 배치까지의 기간을 기존 대비 절반 이하로 단축했다. 칩부터 소프트웨어, 데이터 센터를 아우르는 엔드투엔드 방식은 자원 활용률을 높이고 클라우드 규모에서의 비용 및 전력 효율을 지속적으로 개선한다. 마이크로소프트는 대규모 AI 시대가 본격화됨에 따라 인프라가 기술적 가능성을 결정짓는 핵심 요소가 될 것으로 내다보고 있다. 마이아 가속기 프로그램은 다세대 로드맵을 기반으로 설계됐으며, 향후 지속적인 혁신을 통해 새로운 벤치마크를 제시하고 핵심 AI 워크로드에 최적화된 성능과 효율을 제공할 예정이다.
작성일 : 2026-01-27
레노버, 신규 AI 추론 서버 출시하며 실시간 엔터프라이즈 AI 혁신 가속화
레노버가 AI 추론 워크로드를 위해 설계된 엔터프라이즈 서버, 설루션 및 서비스를 새롭게 선보이며 ‘레노버 하이브리드 AI 어드밴티지’ 포트폴리오를 확장했다. 레노버는 차세대 AI 시대를 준비하며 추론 기술의 혁신을 통해 리테일 현장의 고객 거래부터 중환자실의 신속 진단 및 치료 계획 수립 등 고도화된 헬스케어 분야에 이르기까지, 실제 현장에서 AI 구현을 가로막는 다양한 장벽을 해소해 나가고 있다고 전했다. AI 추론은 대형 언어 모델(LLM)을 학습시키는 단계에서 벗어나, 학습이 완료된 모델을 활용해 새로운 데이터를 분석하고 실제 환경에서 즉각적인 의사 결정을 내리는 방향으로의 중대한 전환점을 통과하고 있다. 학습에서 실행으로의 이동은 AI에 투입된 막대한 자본을 가시적인 비즈니스 성과와 경쟁 우위로 전환한다. 레노버의 새로운 AI 추론 포트폴리오는 클라우드, 데이터센터, 에지 전반에 분산된 데이터를 통합·연결해, 최적의 성과를 낼 수 있는 환경에서 AI 워크로드를 구동함으로써 투자 대비 효과를 높인다. 글로벌 리서치 기업 퓨처럼(Futurum)은 글로벌 AI 추론 인프라 시장이 2024년 50억 달러에서 2030년 488억 달러로 성장해, 향후 6년간 연평균 성장률(CAGR) 46.3%를 기록할 것으로 전망했다. 레노버는 새로운 AI 추론 서버를 통해 다양한 규모의 비즈니스 워크로드를 지원한다. 레노버의 추론 최적화 포트폴리오는 최신 GPU, 메모리, 네트워킹 기술을 기반으로 설계됐다. 레노버 씽크시스템(ThinkSystem) SR675i는 대규모 확장성을 바탕으로 어디서든 전체 LLM을 구동할 수 있도록 설계된 고성능 AI 추론 서버이다. 제조, 중증 헬스케어, 금융 서비스 환경에서의 대규모 워크로드 처리와 가속 시뮬레이션을 지원한다.   레노버 씽크시스템 SR650i는 고밀도 GPU 컴퓨팅을 기반으로 한 가속 AI 추론 성능을 제공하는 서버로, 기존 데이터센터 환경에서 손쉬운 구축·확장이 가능하다. 레노버 씽크엣지(ThinkEdge) SE455i는 소형 폼팩터로 설계돼 리테일, 통신, 산업 환경에 최적화된 에지 서버로, 데이터가 생성되는 위치에서 초저지연 AI 추론을 구현하며, -5°C부터 55°C까지의 폭넓은 온도 범위에서도 작동하는 안정성을 제공한다.   레노버 넵튠(Neptune)의 선도적인 수랭 및 공랭 냉각 기술은 높은 수준의 AI 워크로드 성능을 요구하는 기업이 직면한 에너지 효율 과제를 해결하고, 레노버 트루스케일(TruScale)의 종량제 모델과 결합해 민첩성과 보안, 예산을 모두 유지하면서 최적의 성능과 효율을 달성하도록 지원한다. 레노버의 엔터프라이즈 AI 하드웨어는 대규모 AI 설루션의 구축과 운영을 지원하는 검증된 모듈형 프레임워크인 레노버 하이브리드 AI 팩토리(Lenovo Hybrid AI Factory)의 핵심 기반이다. 인프라와 소프트웨어, 서비스를 통합하는 레노버 하이브리드 AI 어드밴티지에서, 하이브리드 AI 팩토리는 기업이 AI 도입을 통해 실질적인 성과를 도출할 수 있도록 돕는다. 레노버 하이브리드 AI 플랫폼은 새로운 레노버 AI 추론 서버를 중심으로 스토리지, 네트워킹, 소프트웨어, 오케스트레이션을 통합한 단일 시스템을 제공해 인프라, 데이터, 관리 영역을 유기적으로 연결한다. 이를 통해 시장 출시 속도를 가속화하고 배포 리스크를 줄이는 동시에, 기업의 투자 대비 최적화된 가치를 제공한다. 새롭게 선보이는 플랫폼은 레노버의 폭넓은 AI 생태계를 기반으로, 엔터프라이즈 환경에서 요구되는 고도화된 AI 추론 과제들을 지원한다. 레노버 씽크애자일(ThinkAgile) HX 및 뉴타닉스(Nutanix) AI 기반의 레노버 하이브리드 AI 추론은 중앙 집중형 공유 추론 역량을 통해 가상화 환경에서 GPU 활용률을 극대화하고, 성능과 확장성을 향상시키는 동시에 비용 효율을 제공한다. 레드햇(Red Hat) AI 기반 레노버 하이브리드 AI 추론은 강력한 AI 환경을 위한 확장형 엔터프라이즈 플랫폼으로, 유연성, 강화된 보안, 높은 성능을 바탕으로 복잡한 워크로드와 향후 성장을 지원하며, 에이전틱 AI를 위한 견고한 기반을 원하는 기업에 적합하다. 캐노니컬 우분투 프로(Canonical Ubuntu Pro) 기반 레노버 하이브리드 AI 추론은 비용 효율적이고 간소화된 구성으로 AI 도입을 쉽게 시작할 수 있도록 지원하는 설루션으로, 신속한 배포와 실험에 적합하며 레노버 씽크시스템 SR650i의 확장성을 활용해 사용 편의성과 에이전틱 AI 접근성을 위한 필수 보안 기능을 제공한다.   AI 기술이 진화함에 따라 레노버 하이브리드 AI 팩토리 서비스(Lenovo Hybrid AI Factory Services)는 비즈니스 및 산업별 추론 워크로드에 최적화된 고성능 추론 환경을 구축·운영할 수 있도록 새로운 자문, 구축, 관리형 서비스 역량을 제공해 기업의 유연한 대응을 지원한다. ▲초기 단계부터 서버 성능을 최적화해 장기적인 안정성, 효율성, 확장성을 확보하고 빠른 투자 성과 실현을 지원하고 ▲레노버 프리미어 서포트(Premier Support)를 통해 데이터센터 운영의 안정적인 상시 지원이 가능하다. ▲추론 및 AI 운영 변화에 맞춰 손쉽게 규모를 확장할 수 있는 레노버 트루스케일 서비스형 인프라스트럭처(Lenovo TruScale Infrastructure-as-a-Service) 기반의 유연한 금융 옵션도 제공한다. 새롭게 선보인 레노버 하이브리드 AI 팩토리 추론 서비스는 도입 전 과정에서의 복잡성을 낮춰 기업의 AI 도입을 가속화하고 가치를 극대화하도록 설계됐다. 이 AI 서비스는 엔터프라이즈 제품 라이프사이클 전반을 지원하겠다는 레노버의 약속을 실현하며, 기업이 안정성과 확장성을 바탕으로 미션 크리티컬 AI 운영을 관리하고 혁신을 추진하도록 돕는다. 레노버 수석부사장 겸 레노버 인프라스트럭처 솔루션 그룹(ISG) 사장인 애슐리 고라크푸르왈라(Ashley Gorakhpurwalla)는 “오늘날 기업은 데이터가 생성되는 즉시 인사이트로 전환할 수 있는 AI를 필요로 한다”면서, “레노버의 새로운 추론 최적화 인프라는 대규모 데이터를 즉각 실행 가능한 인텔리전스로 전환하여 보다 정교한 의사결정, 강화된 보안, 빠른 혁신을 가능하게 하는 실시간 경쟁 우위를 제공한다”고 말했다.
작성일 : 2026-01-26
레드햇, “엔비디아 플랫폼에 최적화된 풀 스택 AI 설루션 제공”
레드햇은 엔터프라이즈 오픈소스 기술을 엔터프라이즈 AI 발전과 랙 스케일(rack-scale) AI 혁신에 맞춰 조율하기 위해 엔비디아와의 협업을 확장한다고 발표했다. 산업 전반에서 개별 서버를 넘어 통합된 고밀도 시스템으로 나아가는 가운데, 레드햇은 ‘엔비디아용 레드햇 엔터프라이즈 리눅스(Red Hat Enterprise Linux for NVIDIA)’를 통해 이러한 전환의 출발점을 제공하겠다는 계획이다. 엔비디아용 레드햇 엔터프라이즈 리눅스(RHEL)는 엔비디아 루빈(NVIDIA Rubin) 플랫폼에 최적화되고, 레드햇 오픈시프트(Red Hat OpenShift)와 레드햇 AI(Red Hat AI)에서의 향후 생산성 향상을 위해 튜닝된 엔터프라이즈 리눅스 플랫폼의 특별 에디션이다. 새로운 엔비디아 베라(NVIDIA Vera) CPU와 최첨단 엔비디아 루빈 GPU를 탑재한 엔비디아 루빈 플랫폼은 에이전틱 AI와 고급 추론 분야에서 큰 폭의 도약을 실현하기 위해 설계됐다. 이 새로운 플랫폼에 대한 0일 차 지원을 시작으로 레드햇은 자사의 하이브리드 클라우드 포트폴리오를 엔비디아의 혁신 기술에 최적화함으로써, 기업들이 하이브리드 클라우드 전반에서 엔터프라이즈급 신뢰성과 일관된 운영 모델을 바탕으로 AI 이니셔티브를 보다 원활하게 확장할 수 있도록 지원할 계획이다. 엔비디아 베라 루빈 플랫폼에 대한 RHEL의 지원은 2026년 하반기에 제공될 예정이다. 엔비디아 베라 루빈 플랫폼은 기가스케일(gigascale) AI 팩토리(AI Factory)를 위한 전력 효율적 CPU인 베라 CPU를 비롯해 블루필드-4(BlueField-4) 데이터 프로세서와 엔비디아 베라 루빈 NVL72 랙 스케일 설루션 등의 기술을 도입했다. 이에 레드햇은 레드햇 AI 포트폴리오 전반에서 엔비디아 루빈 플랫폼에 대한 0일 차 지원을 제공한다. RHEL은 고급 하드웨어와 최신 AI에 필요한 복잡한 소프트웨어 생태계를 잇는다. RHEL은 레드햇 오픈시프트와 레드햇 AI를 포함한 레드햇의 하이브리드 클라우드 설루션 포트폴리오의 핵심 구성 요소로서 AI 라이프사이클 전반에 걸쳐 엔비디아 컨피덴셜 컴퓨팅(NVIDIA Confidential Computing)을 지원할 계획이다. 이를 통해 GPU, 메모리 및 모델 데이터에 대한 강화된 보안 기능을 제공하며 기업이 가장 민감한 AI 워크로드를 철저히 보호하고 있다는 암호화 증명을 제공할 것이다. 레드햇 오픈시프트는 엔비디아 루빈 플랫폼 고객에게 쿠버네티스 기반의 엔터프라이즈 하이브리드 클라우드 플랫폼에 대한 즉각적인 접근을 제공한다. 가속 컴퓨팅의 배포, 구성 및 라이프사이클 관리를 자동화하기 위해 레드햇 오픈시프트는 엔비디아 인프라 소프트웨어와 엔비디아 CUDA X(NVIDIA CUDA X) 라이브러리 지원을 추가하여 광범위한 가속화된 워크로드의 성능을 최적화한다. 또한 엔비디아 블루필드에 대한 지원은 향상된 네트워킹, 고급 클러스터 관리 및 개선된 리소스 활용도를 통해 보다 일관된 엔터프라이즈 수준의 운영 경험을 제공한다. 레드햇 AI는 레드햇의 프로덕션 레디(production-ready) 엔터프라이즈 AI 플랫폼으로 엔비디아와의 새로운 통합 기능을 추가하여 레드햇 AI 인퍼런스 서버, 레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI) 및 레드햇 오픈시프트 AI(Red Hat OpenShift AI) 상에서 엔비디아 오픈소스 모델을 활용한 분산 추론 지원을 확대한다. 여기에는 엔비디아 네모트론(NVIDIA Nemotron) 제품군을 넘어 비전, 로보틱스 및 특정 산업 분야를 대상으로 하는 다른 엔비디아 오픈 모델에 대한 지원 확대도 포함된다. 엔비디아용 레드햇 엔터프라이즈 리눅스는 기존 운영체제의 메인 빌드와 호환된다. 향후 엔비디아용 레드햇 엔터프라이즈 리눅스의 개선 사항이 RHEL에 반영되면, 고객은 생산 환경의 요구 사항에 맞춰 기존 RHEL로 쉽게 전환할 수 있다. 이 과정에서 고객은 생산 시스템이 예상 성능 수준과 애플리케이션 호환성을 유지할 수 있다는 신뢰를 가질 수 있다. 양사는 이러한 새로운 비전을 통해 고객에게 랙 스케일 AI의 최신 혁신을 지원하는 즉시 출시 가능한 엔터프라이즈급 리눅스 플랫폼을 제공한다는 전략이다. 레드햇의 맷 힉스(Matt Hicks) 사장 겸 CEO는 “엔비디아의 아키텍처 혁신은 AI를 필수 기술로 만들었으며, 컴퓨팅 스택이 산업의 미래를 정의할 것임을 증명했다”면서, “이러한 변화를 출시 시점에 맞춰 대응하기 위해 레드햇과 엔비디아는 레드햇의 하이브리드 클라우드 및 AI 포트폴리오 전반에서 최신 엔비디아 아키텍처에 대한 0일 차(Day 0) 지원을 제공할 계획이다. 양사는 오픈소스의 역량을 통해 차세대 엔터프라이즈 AI를 가속화하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “레드햇은 오픈소스 소프트웨어로 엔터프라이즈 컴퓨팅을 혁신했다”면서, “AI 시대에는 칩과 시스템부터 미들웨어, 모델, 그리고 AI 라이프사이클에 이르기까지 컴퓨팅 스택 전체가 근본적으로 재창조되고 있다. 양사는 베라 루빈 플랫폼을 시작으로 기업에 AI를 제공하기 위해 오픈소스를 산업화하고 있다”고 말했다.
작성일 : 2026-01-07
[피플&컴퍼니] OSC모듈러산업협회 김인한 회장
현장 노동에서 공장 제조로…건설 산업의 패러다임 혁신 이끌 것   ‘OSC 모듈러’는 탈현장(Off-Site Construction) 공법과 조립형 건축 유닛 생산을 아우르며, 설계·제조·조립·운영 등의 전체 과정을 공장 중심으로 수행하는 제조형 건설 방식이다. 이는 건설 산업 전반의 생산성, 비용, 품질 그리고 친환경성을 동시에 혁신할 미래 주력 산업으로 주목받고 있다. 이런 흐름에서 국내 제조형 건설 혁신을 주도하기 위한 OSC모듈러산업협회가 2025년 10월 공식 출범했다. OSC모듈러산업협회의 초대 회장은 경희대학교 건축학과의 김인한 교수가 맡았다. 김인한 교수는 엠쓰리시스템즈 대표이사, 한국스마트건설융합학회 학회장, 빌딩스마트협회 수석부회장을 맡고 있다. ■ 정수진 편집장     OSC모듈러산업협회의 설립 배경에 대해 소개한다면 최근 몇 년간 국내 건설 산업에 자동화, AI(인공지능) 로봇을 활용한 스마트 건설 기법이 적용되면서 ‘현장 노동’에서 ‘공장 제조’ 중심으로 건설 방식과 패러다임이 변화하고 있으며, OSC 모듈러(modular) 공법이 점점 건설 산업의 핵심축으로 부상하고 있다. 이러한 변화와 업계의 목소리에 부응하고자 설립된 OSC모듈러산업협회는 건설 산업의 발전을 목적으로 설립된 민간 주도 협회이다. 지속가능성, 생산성 향상과 기술 표준화, 시장 활성화 및 정부의 공공주택 공급 확대 정책 기여라는 목표를 안고 첫걸음을 내딛고 있다.   협회의 주요 사업 계획에 대해 소개한다면 지난 2025년 10월 28일 창립총회를 열고 공식 출범한 OSC모듈러산업협회는 건설업계 및 학계, 정부 기관과의 협업을 통해 산업 거버넌스를 구축할 계획이다. 2026년 협회의 주요 사업으로는 ▲포럼 및 공청회 등 행사 개최를 통한 대국민 홍보 및 시장 확산 추진 ▲전문 분야간 OSC·모듈러 협의체 출범 및 운영 개시 ▲OSC 모듈러 기술 ·품질 표준 제정 추진 ▲스마트 모듈러 공동 연구 정부 과제 참여 추진 등을 계획하고 있다.   최근 협회에서 주목하고 있는 기술 트렌드나 업계의 변화는 어떤 것인지 최근 국내 대형 건설사는 공장 기반 모듈러 제조와 자동화 기술을 강화하고 있는 중이다. 공장에서 모듈을 미리 제작하고, 이를 현장에서 조립함으로써 품질 통제와 생산 효율을 극대화하고 있다. 특히 산업용 로보틱스, 자동화 설비를 통한 반복 공정의 속도를 높이기 위해 자동화가 확대되고 있는 추세이다.   OSC모듈러산업협회의 차별화 포인트나 강점이 있다면 타 기관의 경우 건설 산업의 특정 분야를 중심으로 활동하고 있다. 한편, OSC모듈러산업협회는 로봇, 자재 등 산업 자원을 포함하여 OSC, 모듈러 설계, 제조, 시공 등 산업계 전체를 아우르는 생태계를 구축하고 있다. 이를 통해 실무 관점의 공동 대응이 가능하며, 산업 현장의 공통 이슈를 해결할 수 있을 것으로 보고 있다. 협회는 기술 교류 및 공동 연구 개발, 모듈러 실적 등록 체계 구축을 통한 산업 표준 제시, 협회지 발간과 민간 자격증 발급 및 모듈러 프로젝트 참여, 회원사 대상의 정보 제공 등 다양한 네트워킹 프로그램을 운영할 예정이다.   건설 산업의 미래를 위한 제언이나 정부에 대한 바람이 있다면 OSC 모듈러 산업의 제도화 및 표준화가 선행되어야 할 것으로 본다. 현재의 제도에서는 공백이 존재하므로 이를 해소하기 위해 모듈러 인증 제도, 공장 제조 시설 기준, 품질 및 안전 표준 제정이 필요하다. 또한 일본, 영국, 싱가포르 등 해외의 사례처럼 국가 차원의 OSC 로드맵이 필요한 시점이다. 또한 모듈러 공장 설립에 대한 세제 지원과 저탄소 건설 기술 도입 시 인센티브가 제공되어야 할 것이다. 이와 함께 중소 전문 제조 기업을 위한 금융 및 시설 투자 지원도 병행되어야 한다. 산·학을 기반으로 한 국가 주도의 전문 교육기관이 도입됨으로써 전문 인력 양성 체계도 구축해야 할 것으로 보고 있다.   회장으로서 포부 및 향후 활동 계획에 대해 OSC모듈러산업협회의 초대 회장으로서, 모듈러 공법 활성화를 위한 제도적 지원과 연구 개발을 확대할 수 있도록 정부와 회원사 사이의 소통 창구 및 가교 역할을 하고자 한다. 지금의 건설 산업은 단순한 공법의 변화에 그치지 않고 제조 기반의 산업으로 전환하는 구조적 혁신의 시기에 이르렀다. 이에 따라 국내 OSC 모듈러 산업이 글로벌 무대에서도 경쟁력을 가질 수 있도록 협회를 콘트롤 타워로 육성하고자 한다. 협회를 전략적 허브로 삼아 산업 거버넌스 구축, 정책·기술 융합, 시장 창출 역량 강화를 동시에 추진하고자 한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-01-06