• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "서버"에 대한 통합 검색 내용이 3,942개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
데이터 온톨로지 기반 3D 모델의 지능화
산업을 위한 AI와 버추얼 트윈 기술 (3)   이번 호에서는 AX 시대를 맞아 제조 기업이 축적한 방대한 도메인 지식과 3D 설계 데이터를 AI가 이해하고 실무에 즉시 활용할 수 있는 ‘자산’으로 전환하는 방안을 제시한다. 그리고, 다쏘시스템의 시맨틱 3D(Semantic 3D) 기술과 데이터 온톨로지(data ontology)를 활용해 중복 설계를 방지하고, 파편화된 정보를 비즈니스 맥락과 연결된 지식 개체로 지능화하는 기술적 원리를 살펴본다. ■ 이종혁 다쏘시스템코리아의 인더스트리 프로세스 컨설턴트로, 3DEXPERIENCE(구 NETVIBES) 테크 세일즈를 맡고 있다. 홈페이지 | www.3ds.com/ko   AX 시대, 제조 데이터의 새로운 정의 글로벌 제조 산업은 바야흐로 ‘디지털 전환(digital transformation)’의 단계를 넘어 ‘인공지능 전환(AI transformation : AX)’의 시대로 진입하고 있다. 생성형 AI와 대규모 언어 모델(LLM)이 비즈니스 프로세스 전반을 혁신하고 있는 현재, 엔지니어링 도메인에서의 핵심 과제는 명확하다. “어떻게 우리 기업이 지난 수십 년간 축적해 온 방대한 도메인 지식과 엔지니어링 노하우를 AI가 이해하고 실무에 즉시 활용할 수 있는 형태의 자산으로 바꿀 것인가?”이다. 대부분의 제조 기업은 수만, 수십만 장의 2D 도면과 3D 모델을 보유하고 있다. 그러나 역설적으로 엔지니어는 필요한 부품을 찾는 데 수많은 시간을 허비하거나, 이미 존재하는 설계를 중복으로 수행하는 ‘디지털 피로(digital fatigue)’에 시달리고 있다. 데이터가 존재함에도 불구하고 그 데이터가 가진 ‘의미(semantics)’와 ‘관계(relationship)’가 구조화되어 있지 않기 때문이다. 이러한 데이터의 파편화는 단순히 설계 효율을 떨어뜨리는 것에 그치지 않는다. 이는 부품 가짓수의 기하급수적 증가로 이어져 구매 단가 상승, 재고 관리 비용 증가, 그리고 급변하는 글로벌 공급망 리스크에 대한 대응력 약화라는 전사적 위기를 초래한다. 이번 호에서는 3D 모델링의 진화가 형상의 정밀함을 구현하는 단계를 넘어, 비즈니스 맥락과 지능이 결합된 ‘시맨틱 3D (semantic 3D)’로 나아가야 함을 제언한다. 다쏘시스템의 원파트(OnePart), 서플리멘탈 커넥터(Supplemental Connector), 그리고 데이터 사이언스 익스피리언스(Data Science Experiences : DSE)를 필두로 한 하이브리드 지능형 플랫폼이 어떻게 데이터 온톨로지를 통해 설계 자산을 지능화하고, 기업의 공급망 회복탄력성(resilience)을 극대화하는지 상세히 고찰해보고자 한다.   그림 1. The Transition to ‘Semantic 3D’ in the AX Era   하이브리드 아키텍처 : 데이터 주권과 클라우드 지능의 공존 국내 제조 기업이 클라우드 기반 AI 설루션 도입을 주저하는 가장 큰 이유는 ‘데이터 보안’과 ‘데이터 주권(data sovereignty)’에 대한 우려다. 핵심 설계 자산인 3D CAD 데이터는 기업의 기밀 중의 기밀로 간주되며, 이것이 외부 서버로 나가는 것에 대한 거부감은 기술적인 문제를 넘어 기업 생존의 문제로 인식된다. 하지만 클라우드가 제공하는 강력한 분산 연산 능력과 실시간 업데이트되는 AI 분석 엔진을 포기하는 것은 기술 경쟁력 측면에서 매우 위험한 선택이다. 이러한 딜레마를 해결하는 핵심 아키텍처가 바로 서플리멘탈 커넥터를 활용한 하이브리드 모델이다. 이 모델의 핵심은 데이터의 물리적 위치를 ‘통제된 온프레미스’와 ‘고성능 클라우드’로 이원화하는 데 있다. 이 아키텍처의 중심에는 ‘에지 에이전트(Edge Agent)’라는 전용 미들웨어가 존재한다. 에지 에이전트는 기업 내부의 로컬 파일 서버, CSV 기반의 레거시 데이터베이스, 그리고 솔리드웍스 PDM 프로페셔널(SOLIDWORKS PDM Professional)과 같은 엔터프라이즈 시스템과 직접 연동된다. 여기서 중요한 기술적 포인트는 에지 에이전트가 원본 CAD 파일(source file)을 클라우드로 전송하는 것이 아니라는 점이다. 대신, 설계에 포함된 메타데이터와 형상의 특징을 수치화한 ‘3D 서명(signature)’, 그리고 시각적 확인을 위한 가벼운 썸네일(thumbnail)과 CGR 데이터만을 추출하여 클라우드의 ‘시맨틱 그래프 인덱스(Semantic Graph Index : SGI)’로 전송한다. 이러한 하이브리드 접근법은 두 가지 결정적인 이점을 제공한다. 첫째, 데이터 주권은 기업이 완벽하게 통제한다. 원본 설계 데이터는 사내 보안망 내부에 머무르기 때문에 유출 우려가 없다. 둘째, 클라우드는 오직 ‘지능형 인덱스’와 ‘분석 엔진’의 역할만을 수행한다. 클라우드의 Data Science Experience(DSE)는 이 SGI에 축적된 정보를 바탕으로 전사적인 부품 사용 현황을 360도 뷰로 관찰하고, AI 기반의 의사결정 지원 기능을 제공한다. 이는 특히 카티아 V5(CATIA V5)와 같은 온프레미스 기반의 강력한 설계 환경을 유지하면서도, 최신 클라우드 기술의 혜택을 즉시 누릴 수 있는 현실적이고 안전한 가교 역할을 한다.   그림 2. Hybrid Architecture and Edge Agent   원파트와 AI 형상 지능 : 중복 설계의 늪에서 벗어나는 방법 엔지니어링 현장에서 가장 흔히 발생하는 보이지 않는 낭비는 이미 사내에 존재하는 부품을 찾지 못해 다시 설계하는 ‘중복 설계’다. 다쏘시스템의 연구 결과에 따르면, 시장 표준 부품(예 : 단순 브래킷이나 고정용 볼트 등) 하나를 불필요하게 신규 생성할 때 발생하는 전사적 비용은 부품당 약 1만 1000유로(한화 약 1600만 원)에 이른다. 이 비용에는 설계자의 시간뿐만 아니라 부품을 위한 테스트 및 시뮬레이션 비용, 금형 제작 등 제조 공정 셋업 비용, 신규 구매처 등록 및 관리 비용, 그리고 물류 및 창고 재고 유지 비용이 누적된 결과다. 원파트는 이러한 문제를 해결하기 위해 AI 기반의 ‘형상 유사도 검색(AI-Powered Component Signature)’ 기능을 제공한다. 이는 전통적인 키워드 기반 검색의 한계를 뛰어넘는다. AI는 3D 모델을 기하학적 특징(shape), 단면 형상(section), 구멍 배치 패턴(hole pattern), 그리고 외곽선(silhouette)이라는 네 가지 핵심 기준을 바탕으로 분석하여 부품별로 고유한 ‘디지털 지문’을 생성한다. 설계자가 새로운 프로젝트를 시작할 때, 백지 상태에서 모델링을 시작하는 대신 간단한 형상 아이디어를 스케치하여 업로드하면 AI가 수초 내에 사내 라이브러리 및 외부 공급업체 카탈로그에서 가장 유사한 부품을 찾아 제안한다. 또한 지능형 클러스터링(clustering) 엔진은 방대한 부품 데이터베이스를 기하학적 유사성에 따라 자동으로 군집화한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-05-06
모델 기반 시스템 엔지니어링의 모델링 도구
가상 제품 개발을 위한 MBSE 및 SysML의  이해와 핵심 전략 (7)   최근의 MBSE(모델 기반 시스템 엔지니어링) 환경은 개별 도구를 연계하던 전통적 방식에서 벗어나, 요구사항부터 시뮬레이션, 형상 관리까지 전 과정을 하나의 플랫폼에서 관리하는 ‘디지털 스레드’ 기반의 통합 환경으로 진화하고 있다. 이번 호에서는 모델링 도구인 ‘랩소디(Rhapsody)’와 ‘카메오 시스템 모델러(Cameo Systems Modeler)’의 특징을 살펴보고, 효율적인 설계 환경 구축 전략을 짚어본다.   ■ 오재응 한양대학교 명예교수, 시뮬레이션 랩 CTO   모델링 도구 여기에서는 모델링 도구로서 랩소디(Rhapsody)의 특징과 기능을 간단하게 소개하고 있으며, 특히 시스템 아키텍처 설계와 모델 일관성 유지에 있어 랩소디가 어떤 역할을 수행하는지를 설명한다. IBM의 랩소디는 UML 및 SysML 기반의 시스템 모델링 도구로, 아키텍처 모델을 통해 시스템 설계 정보를 저장할 수 있는 동적인 데이터베이스 구조를 제공한다. 사용자가 정의한 각 모델 객체(예 : 블록, 컴포넌트 등)는 한 번 정의되면 그것이 표현되는 모든 다이어그램 상에서 동일한 특성과 속성을 유지한다. 이를 통해 전체 모델의 일관성과 추적성이 자연스럽게 보장된다. 또한 랩소디는 요구사항과 직접 연계된 설계 모델을 지원함으로써, 요구사항-설계 간의 정합성 확보를 용이하게 한다. 이를 통해 설계 변경이 요구사항과의 연동 하에 즉시 반영될 수 있어, 시스템 개발 전 과정에서 신뢰성 있는 모델 기반 설계를 실현할 수 있다. 결과적으로, 랩소디는 다양한 UML/SysML 도구 중 하나로, 특히 복잡한 시스템의 모델링, 시뮬레이션, 코드 생성까지 연결 가능한 통합 모델링 환경을 제공한다.   랩소디 보기   그림 1. 랩소디 도구의 대표적인 사용자 인터페이스 구성 요소   <그림 1>은 랩소디 도구 환경을 보여주며, 시스템 모델링 또는 소프트웨어 모델링을 수행할 때 사용되는 대표적인 사용자 인터페이스 구성 요소를 설명하고 있다. 랩소디 보기는 사용자가 랩소디에서 모델을 어떻게 시각적으로 확인하고 조작하는지를 이해하는 데 중점을 둔다. 전체 인터페이스 구성은 랩소디가 모델 기반 시스템 및 소프트웨어 설계를 위한 도구로, 브라우저 영역과 그리기 영역 등의 주요 영역으로 구성되어 있다. <그림 1>의 화면 왼쪽에는 브라우저 영역(Browser View)이 위치해 있다. 이 영역은 프로젝트 내에 정의된 모든 요소를 계층적 트리 구조로 정리하여 보여주며, 클래스, 패키지, 상태도, 시퀀스 다이어그램 등 다양한 모델링 요소를 탐색하고 선택할 수 있다. 사용자는 이 영역에서 모델 구조를 확인하고, 필요한 항목을 선택하여 편집 창으로 열 수 있다. 주로 사용하는 항목은 모델 구성요소(예 : 클래스, 컴포넌트, 상태 등)이다. 설계 계층 구조는 각 요소의 속성 및 동작이 연결되어 있다. <그림 1>의 화면 오른쪽에는 그리기 창(Drawing Window)이 위치하며, 사용자가 실제로 다이어그램을 작성하고 편집하는 작업 공간이다. 이 영역은 선택된 모델 요소의 시각적 표현을 위한 공간으로, 예를 들어 상태 다이어그램, 블록 다이어그램, 시퀀스 다이어그램 등을 작성하고 구성 요소 간의 연결 관계를 설정할 수 있다. 사용자의 활동 예는 상태 전이 정의, 신호 흐름 연결, 동작 논리 시각화, 모델 요소 간 연결 구성이 있다. 랩소디는 모델 탐색과 시각적 설계를 동시에 지원하기 위해 좌측 브라우저 영역과 오른쪽 그리기 창을 중심으로 UI(사용자 인터페이스)를 구성하고 있으며, 이를 통해 사용자는 설계 구조와 논리를 직관적으로 접근하고 조작할 수 있다. 이와 같은 인터페이스는 SysML, UML, 자동차 및 항공 우주 분야의 MBD 등 다양한 모델링 작업을 효율적으로 수행할 수 있도록 지원한다.   랩소디 vs. 카메오 시스템 모델러 비교 IBM 랩소디와 카메오 시스템 모델러(Cameo Systems Modeler)는 모두 SysML 기반의 시스템 모델링 도구로 널리 사용되고 있다. 그러나 이 두 도구는 설계 접근 방식, 사용자 인터페이스, 시뮬레이션 및 협업 방식에서 차별점이 존재한다. 도구의 철학과 접근 방식 : 랩소디는 임베디드 시스템 및 소프트웨어 개발에 특화된 도구로, 주로 상태 기반(state-based) 모델링과 코드 생성(code generation) 기능이 강력하다. UML 기반의 객체지향 소프트웨어 개발, 상태 머신 구현 등에 많이 활용되며, 특히 자동차, 항공, 방위 산업 등에서 많이 사용된다. 반면에 카메오 시스템 모델러(MagicDraw 기반)는 시스템 아키텍처 및 요구사항 중심 설계에 중점을 둔 MBSE 도구이다. RFLP(Requirement, Functional, Logical, Physical) 구조와 트레이스 기능이 강력하며, PLM·SPDM 시스템과의 통합이 잘 되어 있어 디지털 스레드 구축에 적합하다. 대부분의 대기업 MBSE 전환 프로젝트에서 선택되고 있다. 사용자 인터페이스 및 작업 구조 : 랩소디는 전통적인 IDE 스타일의 인터페이스(<그림 1>처럼 왼쪽 탐색기 + 오른쪽 다이어그램 편집기)를 가지고 있으며, 실시간 코드 시뮬레이션 및 상태 전이 구현에 용이하다. 카메오 시스템 모델러는 모델 요소 중심 탐색 트리, 다중 다이어그램 탭, 자동 연결 도우미, 속성 창 기반 작업이 잘 정비되어 있으며, 직관적인 GUI로 인해 다양한 다이어그램 작성이 빠르고 정확하게 이루어진다. 사용자 친화성이 높은 편이다. 시뮬레이션 및 해석 기능 : 랩소디에는 UML/SysML 상태 머신을 기반으로 한 Statechart Simulation이 내장되어 있어, 논리적 동작 검증이나 이벤트 시퀀스 분석에 유리하다. C/C++ 코드 생성 및 디버깅 기능도 내장되어 있어, 소프트웨어 통합 단계까지 연결하기 좋다. 카메오 시스템 모델러는 카메오 시뮬레이션 툴킷(Cameo Simulation Toolkit :CST)을 통해 SysML 모델의 시뮬레이션이 가능하며, 파라메트릭 다이어그램(Parametric Diagram) + 수식 기반 계산 + 외부 FMU 연동을 지원한다. 특히 시뮬링크(Simulink), 모델리카(Modelica) 등과의 코시뮬레이션(co-simulation) 및 FMI 기반 연동이 강력하다. 협업 및 형상 관리 연동 : 랩소디는 RTC, ClearCase, GIT 등과 연계가 가능하지만, 협업 기능이 독립적으로 강력하지는 않다. 기업 내부 커스터마이징이 필요한 경우가 많다. 카메오 시스템 모델러는 팀워크 클라우드(Teamwork Cloud : TWC)라는 중앙 저장소 기반 협업 서버를 통해 모델 단위 버전 관리, 권한 제어, 변경 추적, 분기 관리(branching) 기능을 지원하며, 팀 단위 협업 및 모델 기반 리뷰에 적합하다. PLM, SPDM 및 외부 툴 연동 : 랩소디는 외부 연동이 상대적으로 제한적이며, 별도 게이트웨이 또는 커스터마이징이 필요하다. 카메오 시스템 모델러는 3D익스피리언스(다쏘시스템), 윈칠(PTC), 팀센터(지멘스) 등의 PLM 시스템과 연계가 용이하며, MBSE–PLM–SPDM 간의 디지털 연계(traceability)가 수월하게 이루어진다. 정리하면 랩소디는 코드 생성, 상태 머신 중심이고 카메오 시스템 모델러는 요구사항–기능–물리 구조 연계 중심이다. 사용 분야는 랩소디가 임베디드 소프트웨어, 제어 시스템에 사용되며 카메오 시스템 모델러는 시스템 아키텍처, MBSE를 총괄하는데 사용된다. 시뮬레이션에는 랩소디가 상태 기반 시뮬레이션에 사용되며, 카메오 시스템 모델러는 파라메트릭, 시퀀스, 코시뮬레이션이 가능하다. 협업 관점에서 랩소디는 RTC/파일 기반으로 이용되며, 카메오 시스템 모델러는 팀워크 클라우드 기반 모델 협업에 활용된다. 외부 툴과 연동은 랩소디는 제한적이며 커스터마이징이 필요하다. 반면에 카메오 시스템 모델러는 FMI, PLM, 시뮬링크 등과 강력하게 연동된다.    ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-05-06
심센터 HEEDS 2604 업데이트
심센터 HEEDS 더 깊게 살펴 보기 (5)   심센터 HEEDS(Simcenter HEEDS) 2604 릴리스는 설계 파라미터와 시뮬레이션 워크플로를 유기적으로 연결하여 최적의 설계안을 자동으로 도출하는 역할을 더욱 공고히 하기 위해 계산 리소스의 효율적 관리, AI를 활용한 워크플로 가속화, 그리고 다목적 트레이드오프 스터디의 실시간 가시성 확보라는 세 가지 핵심 방향으로 혁신적인 기능을 담았다.이번 릴리스를 통해 복잡성 모델링(model the complexity), 가능성 탐색(explore the possibilities), 속도 향상(go faster), 통합 유지(stay integrated)라는 네 가지 기둥 아래 엔지니어링 시뮬레이션의 새로운 기준을 제시한다.   ■ 연재순서 제1회 심센터 HEEDS 커넥트와 MBSE 방법론 제2회 심센터 X MDO의 새로운 HEEDS 제3회 심센터 HEEDS SHERPA의 최적 검색 원리 제4회 최적 검색 가속화를 위한 AI 프레딕터 제5회 심센터 HEEDS 2604 업데이트 제6회 모두를 위한 제너럴 포털과 맞춤 설정 제7회 특별한 워크플로 구성 및 자동화 제8회 다양한 매개변수를 위한 태깅 모드 제9회 복잡한 설정을 한번에, 오토메이션 스크립트 제10회 파이썬 스케줄러와 HEEDS 연동 제11회 심센터 HEEDS 2610 업데이트 제12회 데이터 분석을 위한 HEEDSPy API   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 HEEDS를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR 링크드인 | www.linkedin.com/in/jonghaklee-odumokgol   전산 자원 관리의 재구상 : 새로운 리소스 카탈로그 기존 방식의 한계 엔지니어링 최적화 스터디는 단 한 번의 시뮬레이션으로 끝나는 작업이 아니다. 수십 번에서 수천 번의 반복 해석을 수행해야 하며, 이를 위해서는 로컬 워크스테이션, 사내 HPC 클러스터, 클라우드 컴퓨팅 플랫폼 등 다양한 전산 자원을 조합하여 활용해야 한다. 기존의 HEEDS(히즈)는 이러한 원격 실행 환경을 프로젝트별로 설정해야 했기 때문에, 팀 내의 여러 엔지니어가 동일한 클러스터를 사용하더라도 각자 동일한 설정 과정을 반복해야 하는 비효율이 존재했다. 특히 HPC 클러스터의 경로, 인증 정보, 작업 스케줄러 파라미터를 매번 수동으로 입력해야 하는 번거로움은 첫 번째 설계 최적화를 시작하기도 전에 엔지니어의 시간을 낭비하게 만들었다.   리소스 카탈로그의 등장 심센터 HEEDS 2604는 원격 실행 기능을 새로운 ‘리소스 카탈로그(Resource Catalog)’로 전면 개편하여 이 문제를 근본적으로 해결했다. 리소스 카탈로그는 전산 자원 정보를 프로젝트에 종속된 설정이 아닌, 전사적으로 공유 가능한 독립적 자산으로 관리하는 방식이다. 이제 로컬 머신, 원격 클러스터, 리스케일(Rescale)과 같은 HPC 클라우드 플랫폼, 또는 작업 스케줄러를 사용하는지의 여부와 관계 없이 프로젝트 전체에서 리소스 구성을 더 쉽게 설정하고 재사용할 수 있다.   그림 1. 리소스 카탈로그 설정 환경   그림 2. 작업 수행을 위해 미리 설정된 리소스 선택   주요 기능 및 이점 원클릭 리소스 생성 : 사용자가 리소스 유형을 선택하면, 해당 유형에 적합한 모든 설정 항목이 기본값으로 미리 채워진 상태로 나타난다. 처음 사용하는 엔지니어도 복잡한 설정 파라미터를 일일이 파악할 필요 없이 빠르게 시작할 수 있다. 관리형 카탈로그(Managed Catalogs) : 조직의 IT 관리자 또는 HEEDS 전문가가 심센터 HEEDS 커넥트(Simcenter HEEDS Connect)를 통해 표준 리소스 프로필을 미리 구성하면, 팀의 다른 구성원이 이를 즉시 다운로드하여 사용하거나 로컬 카탈로그로 복사하여 필요에 맞게 조정할 수 있다. 이는 조직 전체가 동일한 리소스 표준을 따르도록 하는 ‘단일 정보 소스(single source of truth)’ 역할을 수행하여 설정 오류와 불일치를 원천적으로 방지한다. 다중 제출 항목(Multiple Submission Items) : 하나의 물리적 서버에서도 PBS, LSF, SLURM, MSHPC, 또는 다이렉트 서브미션(Direct submission) 등 다양한 방식의 작업 스케줄러를 위한 복수의 제출 항목을 생성할 수 있다. 예를 들어, 빠른 소규모 해석을 위한 인터랙티브 대기열과 대규모 최적화를 위한 배치 대기열을 동일한 클러스터에서 각각 별도의 리소스 프로필로 관리할 수 있다. 리소스 구성 확인 기능 : 복잡한 네트워크 환경에서 원격 리소스가 실제로 접근 가능한지, 또는 올바르게 설정되었는지 확인하는 것은 종종 어려운 문제였다. 새로운 ‘Run test now’ 기능을 통해 사용자는 설정 완료 즉시 리소스의 접근 가능성과 동작 상태를 확인할 수 있다. 테스트 결과는 Not tested(미실행), Passed(성공), Error(오류)의 세 가지 상태로 직관적으로 표시되어 문제 발생 시 신속한 보정이 가능하다. 지속적 구성 : 매핑된 로컬 및 원격 드라이브 설정이 모든 프로젝트에 걸쳐 유지되므로, 프로젝트를 새로 만들 때마다 리소스를 재구성할 필요가 없다. 한 번 설정한 리소스 카탈로그는 이후 모든 프로젝트에서 즉시 재사용 가능하다.   비최적화 스터디를 위한 효율적 데이터 및 리소스 운용 디스크 공간의 숨겨진 병목 실험계획법(Design of Experiments : DOE), 강건성(robustness) 분석, 신뢰성(reliability) 분석, 또는 단순히 특정 설계 후보를 일괄 평가하는 ‘Evaluation Only’ 스터디는 최적화 알고리즘이 동반되지 않는 빠른 유형의 설계 탐색이다. 이러한 스터디는 개별 해석이 비교적 짧게 완료되기 때문에, HEEDS는 실행 스택을 가득 채워 최대한 많은 병렬 해석을 동시에 구동하려 한다.   그림 3. 프로세스의 병렬 해석 진행 상황 예시   그런데 여기서 예상치 못한 문제가 발생한다. 해석이 매우 빠르게 완료되기 때문에 각 해석의 임시 작업 디렉토리와 결과 파일이 시스템에 쌓이는 속도도 매우 빠르다. 짧은 시간 안에 수백 개의 해석 폴더가 생성되어 디스크 공간을 순식간에 소진할 수 있으며, 이는 특히 로컬 워크스테이션이나 디스크 할당량이 제한된 HPC 환경에서 심각한 장애 요인이 될 수 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-05-06
루비 온 레일즈 기반 빌딩 모니터링 서비스 개발 방법
BIM 칼럼니스트 강태욱의 이슈 & 토크   루비 온 레일즈(Ruby on Rails)는 루비(Ruby) 프로그래밍 언어로 작성된 서버 측 웹 애플리케이션 프레임워크이다. 일반적으로 ‘레일즈(Rails)’로 줄여 부르며, 2004년 데이비드 하이네마이어 한손(David Heinemeier Hansson)에 의해 처음 공개되었다. 이번 호에서는 루비 온 레일즈의 설치 및 개발 방법을 정리하고, 이를 기반으로 개발된 빌딩 모니터링 구현 결과를 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | https://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   루비는 베이스캠프(Basecamp)란 곳을 시작으로, 세계 최대의 코드 호스팅 플랫폼 깃허브(GitHub), 글로벌 이커머스 설루션 쇼피파이(Shopify), 숙박 공유 서비스 에어비앤비(Airbnb), 그리고 트위치(Twitch) 등이 레일즈를 기반으로 탄생하고 성장했다. 국내에서도 빠른 서비스 출시와 성장이 핵심인 스타트업 신을 중심으로 널리 사용되었다. 대표적으로 지역 기반 커뮤니티 당근, 온라인 동영상 서비스(OTT) 왓챠 등이 초기부터 레일즈를 활용해 서비스를 구축하고 확장해온 대표 사례로 꼽힌다. 레일즈의 핵심 개발 철학은 ‘설정보다 관례(Convention over Configuration : CoC)’와 ‘반복하지 마라(Don’t Repeat Yourself : DRY)’이다. 이는 개발자가 반복적인 설정 작업에서 벗어나 비즈니스 로직에 집중하게 함으로써, 웹 개발의 생산성을 획기적으로 향상시키는 것을 목표로 한다.   배경 및 핵심 개념 레일즈는 MVC(Model – View – Controller) 아키텍처 패턴을 근간으로 설계되었다. 이는 애플리케이션의 구성 요소를 세 가지 역할로 명확히 분리하여 코드의 구조를 체계적으로 관리하는 방식이다. 모델(Model) : 애플리케이션의 데이터와 비즈니스 로직을 담당한다. 데이터베이스 테이블에 직접 대응되며, 데이터의 유효성 검사, 처리, 저장 등의 역할을 수행한다. 뷰(View) : 사용자에게 보여지는 UI(사용자 인터페이스)를 생성하는 할을 한다. HTML, CSS, 자바스크립트(JavaScript) 코드를 동적으로 생성하여 웹 브라우저에 표시할 최종 결과물을 만든다. 컨트롤러(Controller) : 모델과 뷰 사이의 중재자 역할을 한다. 사용자의 요청(HTTP request)을 받아 분석하고, 필요한 모델을 호출하여 데이터를 처리한 뒤, 그 결과를 다시 뷰에 전달하여 사용자에게 응답(HTTP response)을 보낸다. 이러한 구조 덕분에 개발자는 데이터, 로직, 화면 표시 코드를 분리하여 유지보수가 용이하고 확장성 높은 애플리케이션을 구축할 수 있다.   장점 및 단점 레일즈의 장점은 다음과 같다. 높은 생산성과 개발 속도 : CoC 철학과 스캐폴딩(scaffolding) 같은 강력한 코드 자동 생성 기능은 CRUD(생성, 읽기, 갱신, 삭제) 기반의 기능을 매우 빠르게 구현하게 해준다. 거대하고 활발한 생태계 : ‘젬(Gem)’이라고 불리는 수많은 오픈소스 라이브러리가 존재하여 인증, 결제, 파일 업로드 등 다양한 기능을 몇 줄의 코드로 손쉽게 추가할 수 있다. 가독성 및 유지보수성 : 루비 언어 자체의 간결하고 우아한 문법과 레일즈의 잘 정립된 관례는 코드의 가독성을 높여 팀 단위 협업과 장기적인 유지보수를 용이하게 한다. 한편, 단점은 다음과 같다. 상대적으로 느린 실행 속도 : 인터프리터 언어인 루비의 특성상, Go나 Java와 같은 컴파일 언어 기반의 프레임워크에 비해 요청 처리 속도가 느릴 수 있다. 초기 학습 곡선 : 레일즈의 많은 부분이 ‘마법’처럼 자동으로 동작하기 때문에, 내부 동작 원리를 깊이 이해하기 전까지는 문제 발생 시 원인을 파악하고 디버깅하는 데 어려움을 겪을 수 있다. 제한적인 유연성 : 레일즈가 제시하는 강력한 관례는 대부분의 웹 애플리케이션 개발에 최적화되어 있지만, 매우 특수하거나 비표준적인 구조를 가진 시스템을 개발할 때는 오히려 제약이 될 수 있다. 젬은 현재 인공지능 기술 스택을 고려해 발전 중이다. 루비 생태계의 중심에는 ‘루비젬스(RubyGems)’라는 강력한 패키지 관리 시스템이 자리 잡고 있다. 이는 전 세계의 루비 개발자들이 만든 수많은 라이브러리를 젬이라는 표준화된 패키지 형태로 공유하고 재사용할 수 있도록 하는 핵심 기반이다. 개발자는 젬을 통해 인증, 데이터베이스 연동, 웹 서버 구동과 같은 복잡한 기능을 직접 구현할 필요 없이, 이미 검증된 코드를 자신의 프로젝트에 손쉽게 통합하여 개발 생산성을 극대화할 수 있다. 이러한 의존성을 체계적으로 관리하는 도구가 바로 ‘번들러(Bundler)’이다. 프로젝트의 Gemfile에 필요한 젬의 이름과 버전을 명시하면, 번들러는 해당 젬뿐만 아니라 그 젬이 의존하는 다른 모든 젬까지 정확한 버전으로 설치하여 개발 환경의 일관성을 보장한다. 이는 여러 개발자가 협업하는 환경에서 발생할 수 있는 잠재적인 충돌을 방지하고 안정적인 애플리케이션 운영을 가능하게 하는 필수 과정이다. 최근 인공지능, 특히 거대 언어 모델(LLM)이 기술의 새로운 패러다임으로 부상하면서 루비 커뮤니티 역시 이러한 변화에 발 빠르게 대응하고 있다. 루비의 강점인 뛰어난 가독성과 개발 편의성을 바탕으로, 복잡한 AI 기능을 애플리케이션에 통합하기 위한 다양한 젬들이 활발하게 개발되는 중이다. 가장 대표적인 것은 ruby-openai 젬으로, 오픈AI (OpenAI)가 제공하는 GPT, 달리(DALL-E)와 같은 강력한 모델의 API를 루비 코드 내에서 직관적으로 호출할 수 있게 해준다. 이를 통해 개발자는 손쉽게 챗봇, 콘텐츠 생성, 이미지 생성과 같은 최신 AI 기능을 자신의 서비스에 접목할 수 있다. 여기서 한 걸음 더 나아가, langchainrb는 LLM을 활용한 고수준의 애플리케이션을 구축하기 위한 프레임워크를 제공한다. 이는 단순히 API를 한 번 호출하는 것을 넘어, 여러 단계의 프롬프트를 연결하는 ‘체인’이나 LLM이 특정 도구를 사용하도록 만드는 ‘에이전트’와 같은 복잡한 로직을 구조적으로 설계할 수 있도록 돕는다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-05-06
유니티, 게임 개발 효율 높이는 ‘유니티 AI’를 오픈 베타로 전환
  유니티는 ‘유니티 AI(Unity AI)’의 오픈 베타 서비스를 시작했다고 밝혔다. 이번 오픈 베타는 유니티 6 이상의 버전을 사용하는 모든 개발자가 이용할 수 있다. 에디터에 내장된 유니티 AI는 프로젝트 구조와 시스템부터 플레이어 경험을 형성하는 창의적 반복 작업까지 게임 개발의 실제 맥락을 기반으로 작동한다. 개발자는 이를 통해 반복적인 워크플로에 소요되는 시간을 줄이고 게임의 핵심 요소를 구축하고 다듬는 데 더 많은 시간을 할애할 수 있다. 개발자는 에디터에서 직접 선호하는 AI 도구를 안전하게 연결하고 제어하는 AI 게이트웨이(AI Gateway)를 이용할 수 있다. 모델 컨텍스트 프로토콜(MCP) 서버를 통해 통합 개발 환경(IDE)에서도 이를 활용하는 것이 가능하다. 유니티 6.2부터 에디터에 통합된 유니티 AI는 번거로운 작업 자동화와 애셋 생성 등 개발 워크플로의 간소화 및 가속화를 지원한다. 컨텍스트 기반 어시스턴트 기능을 사용하면 상세한 설명 없이도 프로젝트 애셋을 프롬프트로 드래그하여 게임 오브젝트, 스크립트, 프리팹 등에 대한 지원을 신속하게 받을 수 있다. 스크립트나 오류 메시지 등 문제를 더 쉽게 파악하고 해결하는 콘솔 오류 디버그 기능도 함께 제공한다. 또한 오브젝트 생성, 애셋 배치, 신 설정 자동화뿐만 아니라 스프라이트, 텍스처, 애니메이션, 사운드 등 다양한 플레이스홀더 애셋을 워크플로 내에서 매끄럽게 생성하고 활용할 수 있다. 일정 기준 이상의 광원이나 리지드 보디가 없는 오브젝트를 검색하고 이름, 레이어, 컴포넌트 등을 일괄 수정 및 정리하는 작업도 가능하다. 유니티에 따르면, 개발자는 창작의 방향성을 직접 주도하면서 유니티 AI를 통해 더 다양한 시도를 하고 나은 의사결정을 내리며 아이디어를 더 빠르게 결과물로 구현할 수 있다. 유니티는 에디터 내 에이전트가 유니티에 특화된 워크플로에 맞춰 조정되어 프로젝트 맥락을 기반으로 작동한다고 밝혔다. 이를 통해 더 관련성 높은 답변과 나은 작업 수행이 가능하며 재시도 횟수를 줄일 수 있다는 설명이다. 유니티 AI는 디자인, 이미지, 시각 레퍼런스를 프로젝트에 바로 활용할 수 있는 애셋과 플레이 가능한 신으로 변환하도록 돕는다. 향상된 통합 기능을 통해 강력한 제어권도 제공한다. 개발자는 언제든 변경 사항을 되돌릴 수 있으며 AI 생성 애셋에 태그를 지정해 검토 과정을 간소화할 수 있다. 권한 설정을 통해 에이전트의 자율성 수준을 제어하는 기능도 포함되었다.
작성일 : 2026-05-06
마이크로소프트, 대규모 소버린 프라이빗 클라우드 인프라 지원 강화
마이크로소프트는 애저 로컬(Azure Local)의 확장성을 강화해 단일 소버린 환경 안에서 서버를 최대 수천 대까지 배포할 수 있는 대규모 클라우드 인프라 환경을 공개했다. 전 세계적으로 디지털 주권과 보안 규제가 강화되면서 데이터 통제권을 유지하면서도 규모를 확장할 수 있는 클라우드 인프라 전략이 중요해지는 추세이다. 이에 따라 주권 환경에서 운영 통제권을 유지하며 대규모 업무를 수용할 수 있는 확장형 인프라의 필요성이 커지고 있다. 마이크로소프트 소버린 프라이빗 클라우드의 기반이 되는 애저 로컬은 조직이 소유한 하드웨어에서 클라우드와 일관성 있는 인프라 환경을 구현한다. 특히 인터넷 연결이 분리된 환경에서도 유연하게 배포할 수 있으며, 보안과 컴플라이언스 설정을 로컬에서 직접 관리하는 운영 제어권을 제공한다. 마이크로소프트는 이를 통해 조직이 데이터 통제권을 유지하는 동시에 산업 현장의 대규모 업무를 로컬 환경에서 실행할 수 있다고 설명했다. 국가 기간 시설이나 규제 산업에서 사용하는 소버린 프라이빗 클라우드(sovereign private cloud)는 대규모 업무를 수용할 수 있는 확장성이 필수이다. 애저 로컬은 별도의 구조 재설계 없이도 단일 소버린 경계 안에서 서버 규모를 수백 대에서 수천 대까지 유연하게 확장하도록 지원한다. 인프라 확장에 따른 운영 연속성을 위해 복원력도 높였다. 애저 로컬은 확장된 장애 도메인과 인프라 풀을 통해 하드웨어 장애가 서비스 중단으로 이어지는 것을 방지한다. 이를 통해 클라우드 연결 환경과 관계없이 핵심 서비스의 안정적인 운영을 돕는다. 데이터가 많이 발생하는 AI(인공지능) 추론과 분석 업무도 자체 인프라에서 수행한다. 고성능 GPU 인프라를 바탕으로 민감한 AI 모델과 데이터를 조직의 직접 통제 아래 보호한다. 접근 관리와 감사 및 컴플라이언스 제어 역시 소버린 경계 안에서 유지된다. 배포 규모가 커지면서 워크로드 배치 옵션도 다양해졌다. 애저 로컬은 대규모 소버린 프라이빗 클라우드 구축부터 분산형 AI 업무까지 지원 범위를 넓혔다. 이를 통해 데이터 집약적이거나 응답 속도가 중요한 애플리케이션을 소버린 경계 내에서 실행할 수 있다. 글로벌 기업과 공공기관의 도입도 이어지고 있다. 미국 통신사 AT&T는 핵심 인프라의 완전한 운영 제어권을 얻기 위해 애저 로컬을 도입했다. 네덜란드 토지 등기소는 국가의 민감한 공공 데이터에 대한 주권 통제 목적으로 이를 활용한다. 이탈리아의 파이버콥 또한 전국 단위의 소버린 클라우드와 AI 서비스를 제공하기 위해 에지 로케이션 전반에 애저 로컬을 구축하고 있다.     애저 로컬은 현재 데이터온, 델 테크놀로지스, 에버퓨어, 히타치 반타라, HPE, 레노버, 넷앱 등 주요 글로벌 파트너사의 컴퓨팅과 엔터프라이즈 스토리지 플랫폼을 통해 이용할 수 있다. 조직은 이를 통해 기존 스토리지 영역 네트워크 투자를 보호하고 소버린 환경에서 컴퓨팅과 스토리지 자원을 독립적으로 확장할 수 있다. 플랫폼 컴퓨팅 기반은 인텔 제온 6 프로세서가 제공한다. 제온 6는 최신 기업 워크로드의 집적도와 성능 요구사항을 충족하도록 설계됐다. 특히 인텔 AMX 기반의 AI 가속 기능은 별도의 특화 인프라 없이 소버린 환경에서 AI 업무를 실행하도록 지원한다. 한편 애저 로컬은 엄격한 데이터 레지던시와 인터넷 연결이 분리된 환경, 규제 대상 업무, 현장에서의 AI 실행 등 다양한 요구사항을 충족하도록 설계됐다. 에지 환경의 단일 노드부터 대규모 데이터센터까지 유연하게 확장할 수 있으며 애저를 통해 일관된 수명 주기 관리를 제공한다. 마이크로소프트의 더글라스 필립스 스페셜라이즈드 클라우드 사장 겸 최고기술책임자는 “애저 로컬과 검증된 컴퓨팅 및 스토리지 플랫폼, 가속 컴퓨팅 플랫폼, 칩셋의 결합은 소버린 인프라 배포를 지원하는 데이터센터 규모의 스택을 제공한다”면서, “이를 통해 데이터와 모델, 실행 과정이 조직의 통제 환경 안에 안전하게 유지될 수 있다”고 밝혔다.
작성일 : 2026-04-30
메타, AWS 그래비톤 대규모 도입으로 에이전트 AI 인프라 강화
아마존웹서비스(AWS)는 메타가 AI 인프라 확장을 위해 AWS의 자체 설계 프로세서인 ‘그래비톤(AWS Graviton)’을 대규모로 도입한다고 밝혔다. 이번 계약을 통해 메타는 수천만 개의 그래비톤 코어를 우선 도입하며, 향후 AI 역량 성장 속도에 맞춰 규모를 유연하게 확대할 예정이다. 양사의 이번 협력은 AI 인프라 구축 방식의 변화를 보여준다. 대규모 모델 학습에는 GPU가 필수이지만 실시간 추론과 코드 생성, 다단계 작업 오케스트레이션 등 CPU 집약적인 워크로드의 수요가 급증하고 있기 때문이다. 메타는 이러한 에이전트 AI 워크로드를 효율적으로 처리하기 위해 그래비톤5를 선택했다. 그래비톤5는 192개의 코어를 탑재했으며 이전 세대보다 5배 넓은 캐시를 갖췄다. 이를 통해 코어 간 통신 지연을 최대 33% 단축하고 데이터 처리 속도를 높였다. 이는 스스로 계획을 세우고 복잡한 과제를 수행하는 자율 시스템인 에이전트 AI 시스템의 핵심 요건을 충족하는 성능이다. 또한 그래비톤은 전용 하드웨어 및 소프트웨어 기반의 AWS 니트로 시스템(AWS Nitro System) 위에 구축됐다. 니트로 시스템은 하드웨어에 직접 접근할 수 있는 베어메탈 인스턴스를 지원하면서도 메타가 성능 손실 없이 자체 가상 머신을 운영할 수 있는 환경을 제공한다. 인스턴스 간 저지연 통신을 지원하는 EFA 기술도 적용되어 대규모 작업을 다수의 프로세서에 분산 처리하는 데 유리하다. 에너지 효율 측면에서도 강점이 있다. 그래비톤5는 3나노미터 공정 기술로 제작되어 이전 세대보다 성능은 최대 25% 향상됐으면서도 높은 에너지 효율을 유지한다. AWS는 칩 설계부터 서버 아키텍처까지 전 과정을 자체적으로 관리하기 때문에 범용 프로세서보다 최적화된 성능을 제공할 수 있다고 강조했다. 아마존의 나페아 브샤라 부사장은 “이번 계약은 단순히 칩에 관한 것이 아니라 전 세계 사용자에게 상황을 이해하고 예측하며 효율적으로 확장되는 AI를 구축할 수 있는 인프라 기반을 제공하는 것”이라고 설명했다. 메타의 산토시 자나단 인프라 책임자는 “컴퓨팅 소스의 다변화는 전략적으로 필수적인 과제”라면서, “그래비톤 확장을 통해 에이전트 AI를 뒷받침하는 워크로드를 성능과 효율 면에서 우리 규모에 걸맞게 실행할 수 있게 됐다”고 말했다.
작성일 : 2026-04-28
매트랩 및 시뮬링크 R2026a 출시, “신뢰 가능한 AI로 임베디드 시스템 개발 혁신”
매스웍스는 매트랩(MATLAB)과 시뮬링크(Simulink) 제품군의 릴리스 2026a를 발표하고 임베디드 시스템 개발을 위한 새로운 AI 기능을 공개했다. 이번 릴리스는 엔지니어링 팀이 설계의 정확성을 유지하면서 생산성을 높일 수 있도록 돕는 코파일럿 기능을 강화한 것이 특징이다. R2026a는 모델 기반 설계(MBD)를 지원하는 시뮬링크 코파일럿(Simulink Copilot)과 임베디드 소프트웨어 코드 분석을 개선하는 폴리스페이스 코파일럿(Polyspace Copilot)을 새롭게 도입했다. 이를 통해 요구사항부터 설계와 코드에 이르는 전 과정을 추적 가능하게 관리하고, 동일한 결과를 재현할 수 있는 개발 프로세스를 구축할 수 있다. 엔지니어는 더 이른 단계에서 문제를 수정하고 개발부터 검증, 실제 운영 단계까지 효율적으로 진행하는 것이 가능하다. 매스웍스는 두 가지 방식으로 엔지니어링 분야의 AI 기술을 고도화하고 있다. 먼저 매트랩, 시뮬링크, 폴리스페이스 등 엔지니어가 이미 활용 중인 환경에 코파일럿을 직접 통합했다. 또한 매트랩 MCP 코어 서버(MATLAB MCP Core Server)와 매트랩 에이전틱 툴킷(MATLAB Agentic Toolkit)을 통해 매트랩과 시뮬링크 기능을 에이전틱 워크플로에 통합하고 있다. 이러한 접근을 통해 설계 팀은 설계를 더 빠르게 이해하고 소프트웨어 문제를 조기에 해결하며 일관된 워크플로를 적용할 수 있다.     시뮬링크 코파일럿은 사용자의 모델과 팀이 정의한 프로세스, 매스웍스 공식 문서를 기반으로 맞춤형 가이드를 제공한다. 모델에 대한 설명을 생성하고, 동작에 관한 질문에 답하며, 모델 내 관련 블록과 서브시스템을 찾는 작업을 지원한다. 문제를 특정해 해결 방안을 제시하고 다음 단계를 안내함으로써 설계 작업을 신속하게 진행하도록 돕는다. 폴리스페이스 제품군에는 폴리스페이스 코파일럿과 폴리스페이스 애즈 유 코드(Polyspace as You Code)가 추가됐다. 폴리스페이스 코파일럿은 분석 결과를 기반으로 엔지니어가 정적 분석 결과를 해석하고 문제를 파악하도록 돕는다. 폴리스페이스 애즈 유 코드는 코드 작성 과정에서 C 및 C++ 코딩 규칙을 점검하고 AI가 생성한 코드를 포함한 결함과 취약점을 식별한다. 이외에도 통합 구성 관리를 위한 데스크톱 애플리케이션과 폴리스페이스 버그 파인더 확장 기능, 런타임 오류 분석을 위한 폴리스페이스 테스트 기능 등이 포함됐다. 이번 R2026a에는 교육자와 개발자를 위한 다양한 신제품과 업데이트도 포함됐다. 교육자가 매트랩과 시뮬링크를 활용해 교육과정과 실습을 개발할 수 있는 매트랩 코스 디자이너와 독립형 기능 목업 유닛을 생성하는 시뮬링크 FMU 빌더가 새롭게 출시됐다. 매트랩은 설치 없이도 시각화가 포함된 대화형 웹페이지를 구축해 공유할 수 있는 기능을 제공하며 파이썬 환경 관리 및 데이터 교환 기능이 개선됐다. 시뮬링크는 작업 중심 컨텍스트 메뉴로 효율을 높였으며 모델 내에서 C 및 C++ 코드를 직접 시뮬레이션할 수 있다. 이 밖에도 무선 통신 네트워크 분석을 위한 와이어리스 네트워크 툴박스, 매트랩 코파일럿으로 테스트를 생성하는 매트랩 테스트, 지리공간 분석을 강화한 매핑 툴박스, 디지털 필터 설계가 가능한 시그널 프로세싱 툴박스 등이 업데이트됐다. 매스웍스의 아비나시 네헤미아 설계 자동화 부문 제품 관리 및 마케팅 총괄은 “엔지니어링 설계와 소프트웨어 검증에서는 엄격성, 추적성, 신뢰성의 희생을 담보로 생산성 향상이 이뤄져서는 안 된다”면서, “매스웍스는 팀이 속도를 높이면서도 복잡한 시스템 개발에 요구되는 규율과 신뢰를 유지할 수 있도록 돕는 근거 기반 AI 툴 제공에 전념하고 있다”고 밝혔다.
작성일 : 2026-04-28
“에이전틱 AI가 여는 미래 비전”, AWS 서밋 서울 2026 개최
아마존웹서비스(AWS)는 오는 5월 20일~21일 서울 코엑스에서 AI·클라우드 콘퍼런스인 ‘AWS 서밋 서울 2026’을 개최한다. 올해로 12회를 맞이하는 이번 행사는 정부 부처와 산업계 리더, IT 전문가들이 한자리에 모여 에이전틱 AI를 포함한 최신 클라우드 기술 트렌드와 산업별 실전 사례를 공유할 계획이다. 올해는 AWS가 2006년 아마존 S3를 출시하며 클라우드 시대를 연 지 20주년이 되는 해다. 동시에 2016년 서울 리전을 개소하며 국내에 클라우드 인프라를 직접 제공한 지 10주년이 되는 시점이기도 하다. 인터넷만 연결되어 있다면 누구나 세계 최고 수준의 기술로 혁신할 수 있다는 신념을 바탕으로, AWS는 국내 스타트업과 대기업, 공공 부문의 디지털 전환을 지원하며 한국의 디지털 혁신을 가속화해 왔다. 이번 서밋은 지난 20년의 성과를 돌아보고 에이전틱 AI가 이끌 미래 20년의 비전을 제시하는 자리가 될 전망이다.     이번 행사는 에이전틱 AI가 기업의 실제 업무 현장을 변화시키는 혁신의 구심점이라는 점에 주목한다. 기조연설과 세션, 엑스포를 통해 참가자들에게 실질적인 정보를 제공하며 18개 트랙과 120개 이상의 세션이 마련된다. 60개 이상의 파트너사도 함께 참여한다. 특히 AWS 20주년 기념 특별 부스와 AI 중심의 ‘AWS 포 인더스트리’, ‘피지컬 AI 라운지’ 등을 통해 산업 현장에서 활용되는 AI 설루션을 직접 체험할 수 있다. 행사 첫날인 인더스트리 데이에는 AWS 코리아 함기호 대표가 에이전틱 AI 시대의 고객 혁신 지원 전략을 발표한다. 이어 AWS의 제이슨 베넷 글로벌 스타트업 부문 부사장이 AI 혁신의 미래 전망을 공유한다. 김성훈 업스테이지 대표와 김환 CJ 올리브영 CTO는 무대에 올라 AWS를 활용한 비즈니스 혁신 사례와 성장 통찰력을 나눈다. 오후에는 금융, 리테일, 제조, 헬스케어, 미디어 등 9개 산업별 트랙에서 48개 이상의 세부 세션이 이어진다. 둘째 날인 AI 데이에는 AWS 기술 리더들이 차세대 AI 개발자 경험과 클라우드 설루션을 설명한다. 버너 보겔스 아마존 부사장 겸 CTO를 비롯해 우스만 칼리드 AWS 서버리스 컴퓨팅 디렉터, 안종훈 아모레퍼시픽 전무 등이 기조연설자로 나선다. 신재현 우아한형제들 AWS 히어로와 김민태 AWS 커뮤니티 빌더, 윤석찬 AWS 코리아 수석 테크 에반젤리스트도 참여해 전문적인 견해를 전달하며 오후에는 50개 이상의 기술 세션이 열린다. 엑스포 현장에서는 다양한 에이전틱 AI 기반 설루션을 직접 경험할 수 있다. AWS 포 인더스트리 존에서는 아모레퍼시픽의 ‘뷰티 컨시어지’를 통해 아마존 베드록과 아마존 세이지메이커 기반의 맞춤형 서비스를 선보인다. KBS+A LIVE 부스에서는 AI 영상 편집 및 콘텐츠 분석 설루션을 소개하며, NCAI 부스에서는 사진 한 장으로 에이전틱 AI가 커머스 설루션을 완성하는 과정을 체험할 수 있다. 피지컬 AI 라운지에서는 로아이, 컨피그, 뉴빌리티, 로보티즈가 참여해 에이전틱 AI와 물리 세계의 융합 사례를 보여준다. 디벨로퍼 라운지에서는 차세대 AI 개발 도구인 ‘키로’ 데모를 확인할 수 있으며, AWS 빌리지에서는 5대 핵심 기술 영역의 데모가 운영된다. 스타트업 존에는 인포플라, 프렌들리AI, 모빌린트, 플렉스 등 8개 기업이 참여해 AI 추론 클라우드와 이상 탐지, AI 보안 진단 등 혁신 기술을 시연한다.
작성일 : 2026-04-27
가트너, 2026년 전 세계 IT 지출 전망치 높여… AI 데이터센터가 성장 견인
가트너는 2026년 전 세계 IT 지출 규모가 전년 대비 13.5% 증가한 6조 3165억 달러(약 9343조 원)에 이를 것이라는 전망을 발표했다. 이는 지난 2월에 발표한 전망치를 상향 조정한 것으로, 인공지능(AI) 인프라와 첨단 메모리 수요가 시장의 성장 모멘텀을 가속하고 있는 것으로 분석된다. 특히 AI 워크로드 확대에 따른 데이터센터 투자가 급증하면서 고성능 컴퓨팅 수요가 크게 늘고 있는 것으로 보인다. 가트너의 전망에 따르면 2026년 가장 가파른 성장을 기록할 분야는 데이터센터 시스템이다. 이 부문의 지출은 2025년 약 5056억 달러에서 2026년 약 7880억 달러로 무려 55.8% 급증할 것으로 보인다. 이는 하이퍼스케일러의 서버 투자 확대와 생성형 AI 모델 개발 부문의 성장이 맞물린 결과다. 지출 규모 면에서는 애플리케이션 및 인프라 관리 설루션 등을 포함한 IT 서비스 부문이 1조 8700억 달러를 돌파하며 전체 시장에서 가장 큰 비중을 차지할 전망이다. 가트너의 존 데이비드 러브록 수석 VP 애널리스트는 “강한 수요와 공급 제약으로 인해 고대역폭 메모리(HBM) 가격이 최고 수준으로 상승하고 있다”고 짚었다. 이러한 상황은 반도체 제조업체에 높은 수익성을 제공하는 한편, IT 시장 내의 성장 격차를 벌리는 요소로 작용하고 있다. 실제로 AI 인프라와 소프트웨어 분야는 큰 폭의 상향 조정을 기록했으나, 디바이스 시장은 메모리 가격 상승에 따른 평균 판매 가격 인상으로 인해 교체 수요가 제약받으며 8.2% 성장에 그칠 것으로 예측된다. 소프트웨어 분야 역시 생성형 AI의 영향으로 15.1%의 탄탄한 성장세를 기록하며 1조 4436억 달러 규모에 이를 것으로 보인다. 가트너는 하이퍼스케일 클라우드 수요와 AI 중심의 소프트웨어 부문이 전통적인 카테고리보다 훨씬 빠르게 성장하면서 IT 시장의 다중 속도 구조가 더욱 강화될 것이라고 내다봤다.
작성일 : 2026-04-23