• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 데이터베이스"에 대한 통합 검색 내용이 1,523개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
데이터 온톨로지 기반 3D 모델의 지능화
산업을 위한 AI와 버추얼 트윈 기술 (3)   이번 호에서는 AX 시대를 맞아 제조 기업이 축적한 방대한 도메인 지식과 3D 설계 데이터를 AI가 이해하고 실무에 즉시 활용할 수 있는 ‘자산’으로 전환하는 방안을 제시한다. 그리고, 다쏘시스템의 시맨틱 3D(Semantic 3D) 기술과 데이터 온톨로지(data ontology)를 활용해 중복 설계를 방지하고, 파편화된 정보를 비즈니스 맥락과 연결된 지식 개체로 지능화하는 기술적 원리를 살펴본다. ■ 이종혁 다쏘시스템코리아의 인더스트리 프로세스 컨설턴트로, 3DEXPERIENCE(구 NETVIBES) 테크 세일즈를 맡고 있다. 홈페이지 | www.3ds.com/ko   AX 시대, 제조 데이터의 새로운 정의 글로벌 제조 산업은 바야흐로 ‘디지털 전환(digital transformation)’의 단계를 넘어 ‘인공지능 전환(AI transformation : AX)’의 시대로 진입하고 있다. 생성형 AI와 대규모 언어 모델(LLM)이 비즈니스 프로세스 전반을 혁신하고 있는 현재, 엔지니어링 도메인에서의 핵심 과제는 명확하다. “어떻게 우리 기업이 지난 수십 년간 축적해 온 방대한 도메인 지식과 엔지니어링 노하우를 AI가 이해하고 실무에 즉시 활용할 수 있는 형태의 자산으로 바꿀 것인가?”이다. 대부분의 제조 기업은 수만, 수십만 장의 2D 도면과 3D 모델을 보유하고 있다. 그러나 역설적으로 엔지니어는 필요한 부품을 찾는 데 수많은 시간을 허비하거나, 이미 존재하는 설계를 중복으로 수행하는 ‘디지털 피로(digital fatigue)’에 시달리고 있다. 데이터가 존재함에도 불구하고 그 데이터가 가진 ‘의미(semantics)’와 ‘관계(relationship)’가 구조화되어 있지 않기 때문이다. 이러한 데이터의 파편화는 단순히 설계 효율을 떨어뜨리는 것에 그치지 않는다. 이는 부품 가짓수의 기하급수적 증가로 이어져 구매 단가 상승, 재고 관리 비용 증가, 그리고 급변하는 글로벌 공급망 리스크에 대한 대응력 약화라는 전사적 위기를 초래한다. 이번 호에서는 3D 모델링의 진화가 형상의 정밀함을 구현하는 단계를 넘어, 비즈니스 맥락과 지능이 결합된 ‘시맨틱 3D (semantic 3D)’로 나아가야 함을 제언한다. 다쏘시스템의 원파트(OnePart), 서플리멘탈 커넥터(Supplemental Connector), 그리고 데이터 사이언스 익스피리언스(Data Science Experiences : DSE)를 필두로 한 하이브리드 지능형 플랫폼이 어떻게 데이터 온톨로지를 통해 설계 자산을 지능화하고, 기업의 공급망 회복탄력성(resilience)을 극대화하는지 상세히 고찰해보고자 한다.   그림 1. The Transition to ‘Semantic 3D’ in the AX Era   하이브리드 아키텍처 : 데이터 주권과 클라우드 지능의 공존 국내 제조 기업이 클라우드 기반 AI 설루션 도입을 주저하는 가장 큰 이유는 ‘데이터 보안’과 ‘데이터 주권(data sovereignty)’에 대한 우려다. 핵심 설계 자산인 3D CAD 데이터는 기업의 기밀 중의 기밀로 간주되며, 이것이 외부 서버로 나가는 것에 대한 거부감은 기술적인 문제를 넘어 기업 생존의 문제로 인식된다. 하지만 클라우드가 제공하는 강력한 분산 연산 능력과 실시간 업데이트되는 AI 분석 엔진을 포기하는 것은 기술 경쟁력 측면에서 매우 위험한 선택이다. 이러한 딜레마를 해결하는 핵심 아키텍처가 바로 서플리멘탈 커넥터를 활용한 하이브리드 모델이다. 이 모델의 핵심은 데이터의 물리적 위치를 ‘통제된 온프레미스’와 ‘고성능 클라우드’로 이원화하는 데 있다. 이 아키텍처의 중심에는 ‘에지 에이전트(Edge Agent)’라는 전용 미들웨어가 존재한다. 에지 에이전트는 기업 내부의 로컬 파일 서버, CSV 기반의 레거시 데이터베이스, 그리고 솔리드웍스 PDM 프로페셔널(SOLIDWORKS PDM Professional)과 같은 엔터프라이즈 시스템과 직접 연동된다. 여기서 중요한 기술적 포인트는 에지 에이전트가 원본 CAD 파일(source file)을 클라우드로 전송하는 것이 아니라는 점이다. 대신, 설계에 포함된 메타데이터와 형상의 특징을 수치화한 ‘3D 서명(signature)’, 그리고 시각적 확인을 위한 가벼운 썸네일(thumbnail)과 CGR 데이터만을 추출하여 클라우드의 ‘시맨틱 그래프 인덱스(Semantic Graph Index : SGI)’로 전송한다. 이러한 하이브리드 접근법은 두 가지 결정적인 이점을 제공한다. 첫째, 데이터 주권은 기업이 완벽하게 통제한다. 원본 설계 데이터는 사내 보안망 내부에 머무르기 때문에 유출 우려가 없다. 둘째, 클라우드는 오직 ‘지능형 인덱스’와 ‘분석 엔진’의 역할만을 수행한다. 클라우드의 Data Science Experience(DSE)는 이 SGI에 축적된 정보를 바탕으로 전사적인 부품 사용 현황을 360도 뷰로 관찰하고, AI 기반의 의사결정 지원 기능을 제공한다. 이는 특히 카티아 V5(CATIA V5)와 같은 온프레미스 기반의 강력한 설계 환경을 유지하면서도, 최신 클라우드 기술의 혜택을 즉시 누릴 수 있는 현실적이고 안전한 가교 역할을 한다.   그림 2. Hybrid Architecture and Edge Agent   원파트와 AI 형상 지능 : 중복 설계의 늪에서 벗어나는 방법 엔지니어링 현장에서 가장 흔히 발생하는 보이지 않는 낭비는 이미 사내에 존재하는 부품을 찾지 못해 다시 설계하는 ‘중복 설계’다. 다쏘시스템의 연구 결과에 따르면, 시장 표준 부품(예 : 단순 브래킷이나 고정용 볼트 등) 하나를 불필요하게 신규 생성할 때 발생하는 전사적 비용은 부품당 약 1만 1000유로(한화 약 1600만 원)에 이른다. 이 비용에는 설계자의 시간뿐만 아니라 부품을 위한 테스트 및 시뮬레이션 비용, 금형 제작 등 제조 공정 셋업 비용, 신규 구매처 등록 및 관리 비용, 그리고 물류 및 창고 재고 유지 비용이 누적된 결과다. 원파트는 이러한 문제를 해결하기 위해 AI 기반의 ‘형상 유사도 검색(AI-Powered Component Signature)’ 기능을 제공한다. 이는 전통적인 키워드 기반 검색의 한계를 뛰어넘는다. AI는 3D 모델을 기하학적 특징(shape), 단면 형상(section), 구멍 배치 패턴(hole pattern), 그리고 외곽선(silhouette)이라는 네 가지 핵심 기준을 바탕으로 분석하여 부품별로 고유한 ‘디지털 지문’을 생성한다. 설계자가 새로운 프로젝트를 시작할 때, 백지 상태에서 모델링을 시작하는 대신 간단한 형상 아이디어를 스케치하여 업로드하면 AI가 수초 내에 사내 라이브러리 및 외부 공급업체 카탈로그에서 가장 유사한 부품을 찾아 제안한다. 또한 지능형 클러스터링(clustering) 엔진은 방대한 부품 데이터베이스를 기하학적 유사성에 따라 자동으로 군집화한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-05-06
모델 기반 시스템 엔지니어링의 모델링 도구
가상 제품 개발을 위한 MBSE 및 SysML의  이해와 핵심 전략 (7)   최근의 MBSE(모델 기반 시스템 엔지니어링) 환경은 개별 도구를 연계하던 전통적 방식에서 벗어나, 요구사항부터 시뮬레이션, 형상 관리까지 전 과정을 하나의 플랫폼에서 관리하는 ‘디지털 스레드’ 기반의 통합 환경으로 진화하고 있다. 이번 호에서는 모델링 도구인 ‘랩소디(Rhapsody)’와 ‘카메오 시스템 모델러(Cameo Systems Modeler)’의 특징을 살펴보고, 효율적인 설계 환경 구축 전략을 짚어본다.   ■ 오재응 한양대학교 명예교수, 시뮬레이션 랩 CTO   모델링 도구 여기에서는 모델링 도구로서 랩소디(Rhapsody)의 특징과 기능을 간단하게 소개하고 있으며, 특히 시스템 아키텍처 설계와 모델 일관성 유지에 있어 랩소디가 어떤 역할을 수행하는지를 설명한다. IBM의 랩소디는 UML 및 SysML 기반의 시스템 모델링 도구로, 아키텍처 모델을 통해 시스템 설계 정보를 저장할 수 있는 동적인 데이터베이스 구조를 제공한다. 사용자가 정의한 각 모델 객체(예 : 블록, 컴포넌트 등)는 한 번 정의되면 그것이 표현되는 모든 다이어그램 상에서 동일한 특성과 속성을 유지한다. 이를 통해 전체 모델의 일관성과 추적성이 자연스럽게 보장된다. 또한 랩소디는 요구사항과 직접 연계된 설계 모델을 지원함으로써, 요구사항-설계 간의 정합성 확보를 용이하게 한다. 이를 통해 설계 변경이 요구사항과의 연동 하에 즉시 반영될 수 있어, 시스템 개발 전 과정에서 신뢰성 있는 모델 기반 설계를 실현할 수 있다. 결과적으로, 랩소디는 다양한 UML/SysML 도구 중 하나로, 특히 복잡한 시스템의 모델링, 시뮬레이션, 코드 생성까지 연결 가능한 통합 모델링 환경을 제공한다.   랩소디 보기   그림 1. 랩소디 도구의 대표적인 사용자 인터페이스 구성 요소   <그림 1>은 랩소디 도구 환경을 보여주며, 시스템 모델링 또는 소프트웨어 모델링을 수행할 때 사용되는 대표적인 사용자 인터페이스 구성 요소를 설명하고 있다. 랩소디 보기는 사용자가 랩소디에서 모델을 어떻게 시각적으로 확인하고 조작하는지를 이해하는 데 중점을 둔다. 전체 인터페이스 구성은 랩소디가 모델 기반 시스템 및 소프트웨어 설계를 위한 도구로, 브라우저 영역과 그리기 영역 등의 주요 영역으로 구성되어 있다. <그림 1>의 화면 왼쪽에는 브라우저 영역(Browser View)이 위치해 있다. 이 영역은 프로젝트 내에 정의된 모든 요소를 계층적 트리 구조로 정리하여 보여주며, 클래스, 패키지, 상태도, 시퀀스 다이어그램 등 다양한 모델링 요소를 탐색하고 선택할 수 있다. 사용자는 이 영역에서 모델 구조를 확인하고, 필요한 항목을 선택하여 편집 창으로 열 수 있다. 주로 사용하는 항목은 모델 구성요소(예 : 클래스, 컴포넌트, 상태 등)이다. 설계 계층 구조는 각 요소의 속성 및 동작이 연결되어 있다. <그림 1>의 화면 오른쪽에는 그리기 창(Drawing Window)이 위치하며, 사용자가 실제로 다이어그램을 작성하고 편집하는 작업 공간이다. 이 영역은 선택된 모델 요소의 시각적 표현을 위한 공간으로, 예를 들어 상태 다이어그램, 블록 다이어그램, 시퀀스 다이어그램 등을 작성하고 구성 요소 간의 연결 관계를 설정할 수 있다. 사용자의 활동 예는 상태 전이 정의, 신호 흐름 연결, 동작 논리 시각화, 모델 요소 간 연결 구성이 있다. 랩소디는 모델 탐색과 시각적 설계를 동시에 지원하기 위해 좌측 브라우저 영역과 오른쪽 그리기 창을 중심으로 UI(사용자 인터페이스)를 구성하고 있으며, 이를 통해 사용자는 설계 구조와 논리를 직관적으로 접근하고 조작할 수 있다. 이와 같은 인터페이스는 SysML, UML, 자동차 및 항공 우주 분야의 MBD 등 다양한 모델링 작업을 효율적으로 수행할 수 있도록 지원한다.   랩소디 vs. 카메오 시스템 모델러 비교 IBM 랩소디와 카메오 시스템 모델러(Cameo Systems Modeler)는 모두 SysML 기반의 시스템 모델링 도구로 널리 사용되고 있다. 그러나 이 두 도구는 설계 접근 방식, 사용자 인터페이스, 시뮬레이션 및 협업 방식에서 차별점이 존재한다. 도구의 철학과 접근 방식 : 랩소디는 임베디드 시스템 및 소프트웨어 개발에 특화된 도구로, 주로 상태 기반(state-based) 모델링과 코드 생성(code generation) 기능이 강력하다. UML 기반의 객체지향 소프트웨어 개발, 상태 머신 구현 등에 많이 활용되며, 특히 자동차, 항공, 방위 산업 등에서 많이 사용된다. 반면에 카메오 시스템 모델러(MagicDraw 기반)는 시스템 아키텍처 및 요구사항 중심 설계에 중점을 둔 MBSE 도구이다. RFLP(Requirement, Functional, Logical, Physical) 구조와 트레이스 기능이 강력하며, PLM·SPDM 시스템과의 통합이 잘 되어 있어 디지털 스레드 구축에 적합하다. 대부분의 대기업 MBSE 전환 프로젝트에서 선택되고 있다. 사용자 인터페이스 및 작업 구조 : 랩소디는 전통적인 IDE 스타일의 인터페이스(<그림 1>처럼 왼쪽 탐색기 + 오른쪽 다이어그램 편집기)를 가지고 있으며, 실시간 코드 시뮬레이션 및 상태 전이 구현에 용이하다. 카메오 시스템 모델러는 모델 요소 중심 탐색 트리, 다중 다이어그램 탭, 자동 연결 도우미, 속성 창 기반 작업이 잘 정비되어 있으며, 직관적인 GUI로 인해 다양한 다이어그램 작성이 빠르고 정확하게 이루어진다. 사용자 친화성이 높은 편이다. 시뮬레이션 및 해석 기능 : 랩소디에는 UML/SysML 상태 머신을 기반으로 한 Statechart Simulation이 내장되어 있어, 논리적 동작 검증이나 이벤트 시퀀스 분석에 유리하다. C/C++ 코드 생성 및 디버깅 기능도 내장되어 있어, 소프트웨어 통합 단계까지 연결하기 좋다. 카메오 시스템 모델러는 카메오 시뮬레이션 툴킷(Cameo Simulation Toolkit :CST)을 통해 SysML 모델의 시뮬레이션이 가능하며, 파라메트릭 다이어그램(Parametric Diagram) + 수식 기반 계산 + 외부 FMU 연동을 지원한다. 특히 시뮬링크(Simulink), 모델리카(Modelica) 등과의 코시뮬레이션(co-simulation) 및 FMI 기반 연동이 강력하다. 협업 및 형상 관리 연동 : 랩소디는 RTC, ClearCase, GIT 등과 연계가 가능하지만, 협업 기능이 독립적으로 강력하지는 않다. 기업 내부 커스터마이징이 필요한 경우가 많다. 카메오 시스템 모델러는 팀워크 클라우드(Teamwork Cloud : TWC)라는 중앙 저장소 기반 협업 서버를 통해 모델 단위 버전 관리, 권한 제어, 변경 추적, 분기 관리(branching) 기능을 지원하며, 팀 단위 협업 및 모델 기반 리뷰에 적합하다. PLM, SPDM 및 외부 툴 연동 : 랩소디는 외부 연동이 상대적으로 제한적이며, 별도 게이트웨이 또는 커스터마이징이 필요하다. 카메오 시스템 모델러는 3D익스피리언스(다쏘시스템), 윈칠(PTC), 팀센터(지멘스) 등의 PLM 시스템과 연계가 용이하며, MBSE–PLM–SPDM 간의 디지털 연계(traceability)가 수월하게 이루어진다. 정리하면 랩소디는 코드 생성, 상태 머신 중심이고 카메오 시스템 모델러는 요구사항–기능–물리 구조 연계 중심이다. 사용 분야는 랩소디가 임베디드 소프트웨어, 제어 시스템에 사용되며 카메오 시스템 모델러는 시스템 아키텍처, MBSE를 총괄하는데 사용된다. 시뮬레이션에는 랩소디가 상태 기반 시뮬레이션에 사용되며, 카메오 시스템 모델러는 파라메트릭, 시퀀스, 코시뮬레이션이 가능하다. 협업 관점에서 랩소디는 RTC/파일 기반으로 이용되며, 카메오 시스템 모델러는 팀워크 클라우드 기반 모델 협업에 활용된다. 외부 툴과 연동은 랩소디는 제한적이며 커스터마이징이 필요하다. 반면에 카메오 시스템 모델러는 FMI, PLM, 시뮬링크 등과 강력하게 연동된다.    ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-05-06
루비 온 레일즈 기반 빌딩 모니터링 서비스 개발 방법
BIM 칼럼니스트 강태욱의 이슈 & 토크   루비 온 레일즈(Ruby on Rails)는 루비(Ruby) 프로그래밍 언어로 작성된 서버 측 웹 애플리케이션 프레임워크이다. 일반적으로 ‘레일즈(Rails)’로 줄여 부르며, 2004년 데이비드 하이네마이어 한손(David Heinemeier Hansson)에 의해 처음 공개되었다. 이번 호에서는 루비 온 레일즈의 설치 및 개발 방법을 정리하고, 이를 기반으로 개발된 빌딩 모니터링 구현 결과를 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | https://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   루비는 베이스캠프(Basecamp)란 곳을 시작으로, 세계 최대의 코드 호스팅 플랫폼 깃허브(GitHub), 글로벌 이커머스 설루션 쇼피파이(Shopify), 숙박 공유 서비스 에어비앤비(Airbnb), 그리고 트위치(Twitch) 등이 레일즈를 기반으로 탄생하고 성장했다. 국내에서도 빠른 서비스 출시와 성장이 핵심인 스타트업 신을 중심으로 널리 사용되었다. 대표적으로 지역 기반 커뮤니티 당근, 온라인 동영상 서비스(OTT) 왓챠 등이 초기부터 레일즈를 활용해 서비스를 구축하고 확장해온 대표 사례로 꼽힌다. 레일즈의 핵심 개발 철학은 ‘설정보다 관례(Convention over Configuration : CoC)’와 ‘반복하지 마라(Don’t Repeat Yourself : DRY)’이다. 이는 개발자가 반복적인 설정 작업에서 벗어나 비즈니스 로직에 집중하게 함으로써, 웹 개발의 생산성을 획기적으로 향상시키는 것을 목표로 한다.   배경 및 핵심 개념 레일즈는 MVC(Model – View – Controller) 아키텍처 패턴을 근간으로 설계되었다. 이는 애플리케이션의 구성 요소를 세 가지 역할로 명확히 분리하여 코드의 구조를 체계적으로 관리하는 방식이다. 모델(Model) : 애플리케이션의 데이터와 비즈니스 로직을 담당한다. 데이터베이스 테이블에 직접 대응되며, 데이터의 유효성 검사, 처리, 저장 등의 역할을 수행한다. 뷰(View) : 사용자에게 보여지는 UI(사용자 인터페이스)를 생성하는 할을 한다. HTML, CSS, 자바스크립트(JavaScript) 코드를 동적으로 생성하여 웹 브라우저에 표시할 최종 결과물을 만든다. 컨트롤러(Controller) : 모델과 뷰 사이의 중재자 역할을 한다. 사용자의 요청(HTTP request)을 받아 분석하고, 필요한 모델을 호출하여 데이터를 처리한 뒤, 그 결과를 다시 뷰에 전달하여 사용자에게 응답(HTTP response)을 보낸다. 이러한 구조 덕분에 개발자는 데이터, 로직, 화면 표시 코드를 분리하여 유지보수가 용이하고 확장성 높은 애플리케이션을 구축할 수 있다.   장점 및 단점 레일즈의 장점은 다음과 같다. 높은 생산성과 개발 속도 : CoC 철학과 스캐폴딩(scaffolding) 같은 강력한 코드 자동 생성 기능은 CRUD(생성, 읽기, 갱신, 삭제) 기반의 기능을 매우 빠르게 구현하게 해준다. 거대하고 활발한 생태계 : ‘젬(Gem)’이라고 불리는 수많은 오픈소스 라이브러리가 존재하여 인증, 결제, 파일 업로드 등 다양한 기능을 몇 줄의 코드로 손쉽게 추가할 수 있다. 가독성 및 유지보수성 : 루비 언어 자체의 간결하고 우아한 문법과 레일즈의 잘 정립된 관례는 코드의 가독성을 높여 팀 단위 협업과 장기적인 유지보수를 용이하게 한다. 한편, 단점은 다음과 같다. 상대적으로 느린 실행 속도 : 인터프리터 언어인 루비의 특성상, Go나 Java와 같은 컴파일 언어 기반의 프레임워크에 비해 요청 처리 속도가 느릴 수 있다. 초기 학습 곡선 : 레일즈의 많은 부분이 ‘마법’처럼 자동으로 동작하기 때문에, 내부 동작 원리를 깊이 이해하기 전까지는 문제 발생 시 원인을 파악하고 디버깅하는 데 어려움을 겪을 수 있다. 제한적인 유연성 : 레일즈가 제시하는 강력한 관례는 대부분의 웹 애플리케이션 개발에 최적화되어 있지만, 매우 특수하거나 비표준적인 구조를 가진 시스템을 개발할 때는 오히려 제약이 될 수 있다. 젬은 현재 인공지능 기술 스택을 고려해 발전 중이다. 루비 생태계의 중심에는 ‘루비젬스(RubyGems)’라는 강력한 패키지 관리 시스템이 자리 잡고 있다. 이는 전 세계의 루비 개발자들이 만든 수많은 라이브러리를 젬이라는 표준화된 패키지 형태로 공유하고 재사용할 수 있도록 하는 핵심 기반이다. 개발자는 젬을 통해 인증, 데이터베이스 연동, 웹 서버 구동과 같은 복잡한 기능을 직접 구현할 필요 없이, 이미 검증된 코드를 자신의 프로젝트에 손쉽게 통합하여 개발 생산성을 극대화할 수 있다. 이러한 의존성을 체계적으로 관리하는 도구가 바로 ‘번들러(Bundler)’이다. 프로젝트의 Gemfile에 필요한 젬의 이름과 버전을 명시하면, 번들러는 해당 젬뿐만 아니라 그 젬이 의존하는 다른 모든 젬까지 정확한 버전으로 설치하여 개발 환경의 일관성을 보장한다. 이는 여러 개발자가 협업하는 환경에서 발생할 수 있는 잠재적인 충돌을 방지하고 안정적인 애플리케이션 운영을 가능하게 하는 필수 과정이다. 최근 인공지능, 특히 거대 언어 모델(LLM)이 기술의 새로운 패러다임으로 부상하면서 루비 커뮤니티 역시 이러한 변화에 발 빠르게 대응하고 있다. 루비의 강점인 뛰어난 가독성과 개발 편의성을 바탕으로, 복잡한 AI 기능을 애플리케이션에 통합하기 위한 다양한 젬들이 활발하게 개발되는 중이다. 가장 대표적인 것은 ruby-openai 젬으로, 오픈AI (OpenAI)가 제공하는 GPT, 달리(DALL-E)와 같은 강력한 모델의 API를 루비 코드 내에서 직관적으로 호출할 수 있게 해준다. 이를 통해 개발자는 손쉽게 챗봇, 콘텐츠 생성, 이미지 생성과 같은 최신 AI 기능을 자신의 서비스에 접목할 수 있다. 여기서 한 걸음 더 나아가, langchainrb는 LLM을 활용한 고수준의 애플리케이션을 구축하기 위한 프레임워크를 제공한다. 이는 단순히 API를 한 번 호출하는 것을 넘어, 여러 단계의 프롬프트를 연결하는 ‘체인’이나 LLM이 특정 도구를 사용하도록 만드는 ‘에이전트’와 같은 복잡한 로직을 구조적으로 설계할 수 있도록 돕는다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-05-06
[포커스] 글로벌 공급망 위기 돌파구, 소부장 및 뿌리산업의 AX 전략
SIMTOS 2026 기간 중 캐드앤그래픽스 주관으로 4월 16일~17일 진행된 ‘피지컬 AI&디지털 트윈 컨퍼런스’와 ‘뿌리산업&소부장 컨퍼런스’에서는 디지털 트윈과 피지컬 AI(physical AI)를 중심으로 제조산업의 디지털 전환과 자율 제조의 비전을 공유했다. 이번 행사는 AI(인공지능) 기술을 융합하여 현장의 숙련된 노하우를 데이터화하며, 스스로 판단하고 실행하는 지능형 생산 체계를 향한 근본적인 체질 개선 방안을 집중적으로 논의했다. 또한 제조산업의 AX(인공지능 전환) 실행 전략과 소부장(소재·부품·장비) 산업의 생존을 위한 R&D 정책 방향이 제시되었다. ■ 정수진 편집장   ■ 같이 보기 : [포커스] ‘제조 AX’로 일하는 방식을 바꾸다… 피지컬 AI·데이터 통합으로 지능형 생태계 구축     4월 17일 진행된 ‘뿌리산업&소부장 컨퍼런스’에서는 인력 부족과 공급망 재편이라는 위기 상황에서 소재·부품·장비 및 뿌리산업이 나아갈 방향이 제시되었다. 이날 진행된 다섯 편의 발표에서는 정부의 소부장 R&D 지원 정책과 더불어 반도체, 항공 엔진, 자동차 부품 등 핵심 산업 현장에서 AI 설루션을 통해 공정 신뢰성을 높이고, 하드웨어 중심에서 소프트웨어 중심의 아키텍처로 진화하려는 구체적인 추진 전략이 소개되었다.   ▲ 한국산업기술기획평가원 정민하 본부장   한국산업기술기획평가원의 정민하 본부장은 ‘2026년 소부장 R&D 정책지원 방향’ 발표를 통해, 정부의 핵심적인 소부장 산업 R&D 지원 방향을 제시했다. 그는 “과거 무역 분쟁에서 비롯된 소부장이라는 개념이 이제는 국가 안보와 직결된 거대한 공급망의 관점으로 진화했다”면서, 탄탄한 공급망 관리의 중요성을 역설했다. 정부는 경제 안보 위기에 맞서 으뜸기업, 슈퍼을, 도전기업 등 촘촘한 맞춤형 지원 제도를 마련했다. 특히 네덜란드의 반도체 장비 기업인 ASML처럼 글로벌 시장에서 독보적인 경쟁력을 갖춘 절대 강자를 육성하는 ‘슈퍼을’ 제도를 통해 파격적인 장기 R&D 자금을 지원한다. 또한 우수한 기술력을 지닌 전문 기업이 벤처 캐피털 투자를 쉽게 받도록 돕는 도전기업 제도도 정비 중이다. 정민하 본부장은 “우리 제조업의 근간인 소부장 기업들이 이러한 정책적 마중물을 발판 삼아, 글로벌 공급망의 주역으로 당당히 도약하기를 기대한다”고 전했다.   ▲ 성균관대학교 권석준 교수   성균관대학교 공과대학 부학장인 권석준 교수는 ‘제조 AX 기반 반도체 소부장 경쟁력 강화전략’에 대해 발표했다. 반도체 소부장 산업에 불어닥친 제조 AX의 거대한 파도를 짚은 권석준 교수는 “거대 기술 기업들이 단순히 반도체 설계를 넘어 제조 영역까지 직접 관여하면서 맞춤형 AI 반도체 생태계를 주도하고 있다”고 분석하면서, “이에 따라 기존 소부장 기업들 역시 설계와 제조의 경계가 허물어지는 새로운 공급망 재편에 빠르게 대응해야 한다”고 짚었다. 권석준 교수는 “LLM(대규모 언어 모델) 기반의 거대 AI 모델이 현장으로 왔을 때 이것을 이어줄 수 있을 만한 다리(브리지)가 아직은 확립돼 있지 않다”고 지적하면서, 현장의 복잡한 인과관계를 AI가 파악하기 위해 파편화된 현장의 데이터를 통일된 사전처럼 묶어내는 온톨로지 구축과 이를 바탕으로 한 지식 네트워크 형성이 필수라고 전했다. 또한 차세대 AI 반도체의 핵심 과제인 메모리 병목 현상을 해결하기 위해 소재 발굴부터 패키징 공정까지 AI를 적극 도입해야 한다고 강조했다. “수많은 후보 물질을 단기간에 탐색해 내고 디지털 트윈 모델로 실제 양산의 위험을 최소화하는 치밀한 전략이 치열한 글로벌 반도체 경쟁에서 살아남을 강력한 무기가 될 것”이라는 것이 권석준 교수의 전망이다.   ▲ DN솔루션즈 엄재홍 상무   DN솔루션즈의 엄재홍 상무는 ‘공작기계에서 ‘지능형 제조 에이전트’로 : AX를 통한 제조 플랫폼의 진화’를 주제로 발표를 진행했다. “사람의 개입 없이 가동되는 완전 자동화 다크 팩토리(dark factory) 환경에서, 기계가 주변과 스스로 소통하고 제어하지 못하면 결국 사람이 공정의 병목이 된다”고 짚은 엄재홍 상무는 “공작 기계가 단순한 장비를 넘어 지능형 자율 에이전트(agent)로 근본적인 진화를 이뤄야 한다”고 강조했다. 또한, 그는 인공지능이 LLM을 넘어 스스로 상황을 판단하고 물리적 행동을 수행하는 에이전틱 AI(agentic AI)와 피지컬 AI로 급격히 발전하고 있다고 짚으면서, 이런 흐름에 발맞춰 제조산업 역시 소프트웨어 중심의 뼈대를 갖춰야 한다고 전했다. 마치 스마트폰이나 최신 자동차처럼 하드웨어 교체 없이 소프트웨어 업데이트만으로 기계의 새로운 기능이 추가되고 성능이 끊임없이 진화하는 제조 환경이 필수라는 의미다. 또한 엄재홍 상무는 진정한 자율 제조 생태계의 완성을 위해서는 하드웨어 자체가 능동적이고 똑똑한 주체로 거듭나야 한다고 덧붙였다.   ▲ 화신 이기동 상무   화신의 이기동 상무는 ‘AI 기반 자율제조 대응 방안 및 추진 전략’ 발표에서, 자동차 부품 생산 현장의 경험을 바탕으로 자율 제조의 필요성을 짚었다. “고객의 품질 요구 수준은 계속해서 높아지는 반면 숙련공은 은퇴하고 새로운 인력 확보는 점점 어려워지면서, 기존처럼 사람이 현장을 통제하는 방식은 분명한 한계에 직면했다”는 이기동 상무는 “화신은 2030년 자율 제조 완성을 목표로 내세우며, 다가올 AI 시대에 발맞춰 2년 전 전담 연구소를 설립하고 본격적인 체질 개선에 돌입했다”고 소개했다. 이러한 변화는 현장 곳곳에서 실질적인 성과로 나타나고 있다. 과거 수차례 실패했던 용접 비전 검사는 AI와 결합해 성공적으로 안착했고, 방대한 사내 기술 문서를 찾아 분석해 주는 AI 에이전트를 도입해 업무 효율을 끌어올렸다. 나아가 가상 공간에서의 레이아웃 자동 생성은 물론, 스스로 궤적을 찾아내는 자율 용접 로봇의 도입을 준비하고 있다. 이기동 상무는 “AI 기반 자율 제조는 단순 기술 도입에 그치지 않고 기업의 생존과 미래 경쟁력을 결정짓는 핵심 전략”이라고 강조하면서, “막연한 첨단 기술의 나열이 아니라 자사의 현실과 시스템에 꼭 맞는 AI를 찾아 단계적으로 적용하는 것이 치열한 글로벌 경쟁에서 살아남을 강력한 무기”라고 전했다.   ▲ 한화에어로스페이스 송덕용 수석연구원   한화에어로스페이스의 송덕용 수석연구원은 ‘항공엔진용 핵심 부품소재의 신뢰성 확보 및 기술개발 추진 전략’에 대해 발표했다. 항공기용 가스 터빈 엔진의 코어는 1500℃가 넘는 가혹한 환경을 견뎌야 하므로, 미세한 결함도 치명적인 사고로 직결된다. 따라서 비행 중 어떠한 상황에서도 굳건히 견딜 수 있는 완벽한 신뢰성 확보가 절대적이다. 송덕용 수석연구원은 “이를 위해 수많은 공정 개발과 까다로운 엔진 승인 절차, 방대한 데이터베이스 구축이 뒷받침되어야 한다”고 설명했다. 송덕용 수석연구원은 “과거 정말 항공 관련 소재 부품은 수입에 의존하는 경우가 많았다. 타 산업 대비 항공 소재 기술력이 낮았던 것이 사실”이라면서도, “하지만 현재는 정부와 산학연이 긴밀히 협력하여 2035년까지 핵심 소재 부품 생태계를 자립하겠다는 확고한 로드맵을 그려가고 있다”고 소개했다. 또한, “첨단 항공 엔진 국산화는 단순한 부품 대체를 넘어 진정한 자주국방을 완성하는 핵심 열쇠”라면서, “머지않아 대한민국이 세계에서 일곱 번째로 항공 엔진을 독자 제작하여 글로벌 하늘을 누비는 날을 기대해 본다”고 전했다.
작성일 : 2026-05-06
오라클-구글 클라우드, AI 기반 데이터 혁신 위해 파트너십 확대
오라클이 구글 클라우드와 파트너십을 확장하고 기업 데이터 전반에 인공지능을 적용할 수 있는 새로운 설루션을 선보인다. 이번 협력으로 출시된 제미나이 엔터프라이즈용 오라클 AI 데이터베이스 에이전트(Oracle AI Database Agent for Gemini Enterprise)는 사용자가 자연어를 통해 오라클 데이터와 간편하게 상호작용하도록 돕는다. 또한 오라클 AI 데이터베이스앳구글 클라우드는 전 세계 더 많은 리전으로 가용성을 넓히고 새로운 기능을 추가해 기업의 클라우드 전환을 지원한다. 오라클 클라우드 인프라스트럭처(OCI) 네이선 토머스 제품 관리 부문 수석부사장은 “제미나이 엔터프라이즈의 기능과 오라클의 데이터베이스 성능, 보안, 거버넌스가 결합해 기업 데이터에 자연어로 접근하고 조치를 수행하는 과정이 쉬워졌다”면서, “AI가 데이터베이스 계층에서 직접 적용되어 정확도를 높이고 모델을 효율적으로 활용할 수 있게 됐다”고 설명했다. 그는 이번 협력이 고객이 신뢰할 수 있는 비즈니스 데이터를 기반으로 에이전틱 AI를 더 쉽게 사용하도록 도울 것이라고 덧붙였다. 구글 클라우드의 사티시 토머스 응용 AI 및 플랫폼 생태계 부문 부사장은 “고객사가 에이전틱 AI로 실질적인 가치를 만들려면 지능형 에이전트를 사용해 비즈니스 데이터와 상호작용하는 안전한 방법이 필요하다”고 전했다. 그는 양사가 해당 에이전트를 제미나이 엔터프라이즈를 통해 제공함으로써 고객이 오라클 데이터베이스의 데이터를 의미 있는 성과로 전환하는 유연성을 높였다고 강조했다. 구글 클라우드 마켓플레이스에서 제공되는 오라클 AI 데이터베이스 에이전트는 사용자가 자연어로 질문하면 오라클 AI 데이터베이스의 내장 기능을 활용해 문맥에 맞는 답변을 제공한다. 고객은 지역별 매출 추세 분석 같은 질문을 던지고 가격 조정이나 영업 우선순위 결정에 필요한 답변을 즉시 받을 수 있다. 이 모든 과정은 복잡한 SQL 작성이나 별도 도구 구축 없이 이루어진다. 이 에이전트는 요청을 해석해 데이터를 다른 곳으로 옮기지 않고도 인사이트를 제공한다. 개발자는 구글의 제미나이 엔터프라이즈 에이전트 플랫폼 내 다른 AI 도구와 연결해 데이터 추출이나 분석, 시각화 작업을 자동화할 수도 있다. 일본의 에이전틱 AI 설루션 기업인 AI 시프트는 오라클 자율운영 AI 데이터베이스를 사용해 자사 플랫폼을 구동 중이며, 향후 오라클 AI 데이터베이스 에이전트를 활용할 계획이다. 글로벌 결제 서비스 기업인 월드라인도 오라클 AI 데이터베이스앳구글 클라우드를 도입해 결제 처리 플랫폼을 현대화하고 있다.  오라클은 실시간 마이그레이션을 지원하는 오라클 클라우드 인프라스트럭처 골든게이트를 통해 데이터 이동의 편의성을 높였다. 이 서비스는 구글 빅쿼리와 연동되어 거의 실시간에 가까운 분석을 제공한다. 또한 오라클 자율운영 AI 레이크하우스와 구글 빅쿼리를 통합해 데이터 중복 없이 오픈 포맷 데이터를 분석할 수 있게 했다. 현재 오라클 AI 데이터베이스앳구글 클라우드는 도쿄, 오사카, 서울을 포함한 전 세계 15개 리전에서 사용할 수 있다. 오라클은 향후 12개월 안에 토리노와 멕시코 등 추가 리전으로 서비스를 확대해 나갈 예정이다.
작성일 : 2026-04-27
오라클 AI 데이터베이스, 미션 크리티컬 환경의 가용성과 보안 기준 강화
오라클이 ‘오라클 AI 데이터베이스(Oracle AI Database)’의 기능을 대폭 강화하는 업데이트를 발표했다. 이번 업데이트는 모든 데이터베이스 애플리케이션의 가용성과 보안을 높이는 데 중점을 두었다. 특히 핵심 업무인 미션 크리티컬 워크로드에 대해 별도의 애플리케이션 변경이나 전문 인력 없이도 증권거래소 수준의 상시 가동 환경을 구현할 수 있도록 지원한다. 오라클에 따르면, 엑사데이터(Exadata)에서 실행되는 오라클 AI 데이터베이스 26ai는 이제 재해 발생 시 복구 시간이 통상 30초 미만으로 이뤄지는 수준의 플래티넘 등급 가용성을 제공한다. 기존 오라클 데이터베이스 19c와 비교하면 최대 4배 빠른 속도이며, 초고처리량 멀티노드 클러스터 환경에서도 성능 저하 없이 적용된다. 높은 수준의 안정성을 요구하는 애플리케이션을 위해서는 다이아몬드 등급 가용성이 새롭게 도입되었다. 오라클 분산형 AI 데이터베이스와 오라클 골든게이트(Oracle GoldenGate)를 통해 구현되는 이 등급은 재해 복구 시간을 3초 미만으로 단축한다. 오라클의 후안 로이자 기술 부문 총괄 부사장은 “양자 컴퓨팅과 AI 기반 데이터 침해 등 새로운 보안 위협에 대응하기 위한 기능도 함께 도입했다”고 밝혔다. 현재 전 세계 주요 기업과 정부 기관에서 널리 쓰이는 골드 등급 가용성도 플래티넘 등급으로 자동 업그레이드된다. 이를 통해 고객은 추가 비용 없이 리전 간 장애 복구 시 30초 미만의 복구 시간을 보장받을 수 있다. 플래티넘 등급은 무중단 소프트웨어 업데이트를 지원하고, 암호화 데이터의 원격 전송 속도를 기존 대비 최대 9배까지 높였다. 또한 오라클 트루 캐시(Oracle True Cache)를 활용해 쿼리 응답 속도를 최대 10배, 읽기 성능을 2배 향상할 수 있다. 다이아몬드 등급은 실시간 카드 결제 처리처럼 고도의 가용성이 필요한 환경에 최적화되었다. 데이터센터나 리전 간의 논리적 복제를 활용해 장애를 신속하게 감지하며, 액티브–액티브 분산 클러스터 구조를 통해 사용자 인지 수준에서 서비스 중단 없는 운영을 지원한다. 보안 측면에서는 에이전틱 AI 도입에 따른 데이터 노출 위험을 줄이는 딥 데이터 보안 기능이 추가되었다. 사용자 아이디와 역할에 따라 데이터베이스 내에서 세분화된 접근 권한을 제어하며, AI 에이전트가 타인의 데이터를 볼 수 없도록 차단한다. 또한 미래의 양자 컴퓨팅 위협에 대비해 포스트 양자 암호 기술을 적용했다. 이는 양자 내성 하이브리드 키 교환과 256비트 데이터 암호화를 통해 미래에 발생할 수 있는 데이터 해독 위험을 선제적으로 방어한다. 랜섬웨어 대응을 위한 데이터 무손실 복구 기능도 강화되었다. 실시간 트랜잭션 보호를 통해 데이터 손실을 사실상 없앴으며, 기존 제품보다 최대 5배 빠른 복구 성능을 제공한다. 가상 에어갭 기능과 불변 백업 정책을 통해 데이터 보안의 안정성을 한층 높였다.
작성일 : 2026-04-14
오라클, AI 데이터베이스 AWS 서울 리전 출시… 국내 기업의 클라우드 이전 가속화
오라클이 아마존웹서비스(AWS)와 협력하여 오라클 AI 데이터베이스@AWS(Oracle AI Database@AWS) 서비스를 국내 고객에게 공식 제공한다고 밝혔다. 이번 서비스는 AWS의 서울 리전에서 출시되었으며, 국내 기업은 AWS 내 오라클 클라우드 인프라스트럭처(OCI) 전용 인프라에서 오라클 엑사데이터 데이터베이스 서비스와 오라클 자율운영 AI 데이터베이스 등을 운영할 수 있다. 이번 서비스 출시로 기업은 기존 온프레미스 환경에서 운영하던 오라클 워크로드를 큰 변경 없이 AWS로 옮길 수 있게 되었다. 오라클은 “온프레미스와 동일한 기능과 성능을 제공하여 클라우드 전환 과정에서의 복잡성을 줄였다”고 설명한다. 또한 오라클과 AWS 사이의 데이터를 통합하는 제로 ETL 기능을 통해 아마존 베드록과 같은 생성형 AI 서비스와 고급 분석 도구를 쉽게 활용할 수 있는 환경을 마련했다. 전국 1380여 개 매장을 운영하는 뷰티 및 웰니스 리테일 기업인 CJ올리브영은 이 서비스를 활용해 핵심 워크로드를 AWS 내 오라클 데이터베이스 서비스로 이전하고 있다. CJ올리브영 박원호 팀장은 “오라클 AI 데이터베이스@AWS는 핵심 워크로드를 클라우드로 옮기는 손쉬운 경로를 제공한다”면서, “아마존 베드록 등 AWS의 인공지능 서비스와 통합해 비즈니스 성과를 높일 수 있을 것으로 기대한다”고 말했다.     한국오라클 김성하 사장은 이번 출시가 국내 기업의 미션 크리티컬 워크로드 현대화와 AI 혁신 수요에 대응하기 위한 것이라고 설명했다. AWS코리아 함기호 대표 또한 국내 기업이 애플리케이션 재설계 없이 오라클 워크로드를 클라우드로 이전하고 보안성과 확장성을 누릴 수 있게 되었다고 덧붙였다. 고객은 AWS 마켓플레이스에서 서비스를 직접 구매하거나 유클릭, 에티버스와 같은 공인 채널 파트너를 통해 이용할 수 있다. 유클릭 김철 대표와 에티버스 정인성 대표는 이번 서비스가 고객의 AI 기반 혁신을 가속화하고 운영을 간소화하는 중요한 기점이 될 것이라고 강조했다. 이번 서울 리전 출시는 기존 도쿄, 시드니, 런던 등 11개 리전에 이은 확장이다. 오라클과 AWS는 앞으로 싱가포르, 오사카, 파리 등 10개 리전으로 서비스 범위를 더욱 넓힐 계획이다.
작성일 : 2026-04-07
오라클, 기업 데이터 보안과 효율 높이는 에이전틱 AI 혁신 발표
오라클은 보안이 강화된 에이전틱 AI(agentic AI) 애플리케이션을 빠르게 구축하고 배포할 수 있는 오라클 AI 데이터베이스(Oracle AI Database)의 새로운 혁신 기능을 발표했다. 이번 발표는 기업의 전체 운영 환경 워크로드에 맞춘 것으로, 운영 데이터베이스와 분석 레이크하우스 전반에 걸쳐 에이전틱 AI와 데이터를 통합적으로 설계한 것이 특징이다. 이를 통해 AI 에이전트는 기업 데이터가 저장된 위치에 상관없이 안전하게 실시간으로 접근할 수 있다. 또한 퍼블릭 데이터로 훈련된 대규모 언어 모델(LLM)과 기업 내부 데이터를 결합해 정확한 인사이트를 제공한다. 오라클 엑사데이터를 사용하는 고객은 ‘엑사데이터 기반 AI 검색’ 기능을 통해 대규모 다단계 에이전틱 워크로드의 쿼리 성능을 가속화할 수 있다. 오라클 AI 데이터베이스는 데이터 이동 파이프라인 구축에 따른 복잡성과 보안 위험을 줄이기 위해 다양한 기능을 도입했다. 오라클 자율운영 AI 벡터 데이터베이스(Oracle Autonomous AI Vector Database)는 직관적인 API와 웹 인터페이스를 통해 개발자가 벡터 기반 애플리케이션을 쉽게 만들 수 있게 지원한다. 오라클 클라우드 무료 티어 등에서 이용 가능하며 클릭 한 번으로 모든 기능을 업그레이드할 수 있다. 오라클 AI 데이터베이스 프라이빗 에이전트 팩토리(Oracle AI Database Private Agent Factory)는 비즈니스 분석가가 데이터 기반 에이전트와 워크플로를 노코드 방식으로 구축하도록 돕는다. 제3자와 데이터를 공유하지 않고 AI 에이전트를 관리할 수 있어 보안성이 높다. 오라클 유니파이드 메모리 코어(Oracle Unified Memory Core)는 벡터, JSON, 그래프 등 다양한 데이터를 하나의 통합 엔진에서 처리해 저지연 추론을 가능하게 한다. 보안 측면에서는 오라클 딥 데이터 시큐리티(Oracle Deep Data Security)가 도입되어 사용자별 데이터 접근 규칙을 세밀하게 관리한다. AI 에이전트는 사용자가 권한을 가진 데이터만 확인할 수 있어 프롬프트 인젝션 같은 새로운 위협으로부터 데이터를 보호한다. 오라클 프라이빗 AI 서비스 컨테이너(Oracle Private AI Services Container)는 모델을 자체 환경에서 실행해 외부 유출을 방지하며, 오라클 트러스티드 답변 검색은 LLM의 환각 현상을 줄여 검증된 답변을 제공한다. 이외에도 오라클은 아파치 아이스버그 테이블의 벡터 데이터를 지원하는 ‘오라클 벡터 온 아이스(Oracle Vectors on Ice)’와 외부 AI 에이전트의 안전한 접근을 돕는 ‘오라클 자율운영 AI 데이터베이스 MCP 서버(Oracle Autonomous AI Database MCP Server)’ 등을 통해 개방형 표준을 강화했다. 이를 통해 기업은 특정 모델에 종속되지 않고 유연하게 에이전틱 AI 환경을 구축할 수 있다. 오라클의 후안 로이자 데이터베이스 기술 부문 총괄 부사장은 “오라클 AI 데이터베이스를 활용하면 기업은 데이터를 단순히 저장하는 단계를 넘어 AI를 위해 데이터를 활성화할 수 있다”면서, “주요 클라우드와 온프레미스 환경에서 실시간 기업 데이터를 안전하게 조회하고 실행하는 자율적 AI 애플리케이션을 신속하게 관리하도록 돕는다”고 밝혔다.
작성일 : 2026-03-25
[포커스] 오라클, “DB를 넘어 데이터 중심의 AI 플랫폼 기업으로”
한국오라클이 2월 3일 연례 콘퍼런스인 ‘오라클 AI 서밋(Oracle AI Summit) 2026’을 열고, 데이터와 AI의 결합을 통한 기업의 생존 및 성장 전략을 제시했다. 오라클은 AI 벡터 검색 기능이 통합된 데이터베이스 새 버전을 선보이면서, 복잡한 데이터를 의미론적으로 분석하고 검색 증강 생성(RAG) 기술을 효율적으로 구현하는 방안을 설명했다. 또한 스스로 계획하고 행동하는 에이전틱 AI(agentic AI)와 데이터베이스 관리를 돕는 AI 어시스턴트의 도입을 강조했다. 오라클은 자사의 융합형 아키텍처를 앞세워 기업의 현대적인 AI 기반 비즈니스 환경을 지원할 예정이다. ■ 정수진 편집장     AI의 핵심은 데이터, 데이터와 AI의 통합은 필연 오라클은 기업이 AI를 활용해 성과를 얻기 위해 가장 핵심이면서 중요한 요소로 ‘데이터’를 내세운다. AI가 기업 데이터 관리의 패러다임을 재편하는 필수 요소가 되면서, 오라클은 ‘AI와 데이터가 초기 설계 단계부터 함께 구축’되어야 한다고 강조했다. 오라클은 기업이 특정 부서의 업무를 향상시키는 데에는 AI를 잘 활용하고 있지만, 이를 전사 업무 프로세스의 향상으로 확장하는 데에는 어려움을 겪고 있는 것으로 보고 있다. 오라클의 티르탄카르 라히리(Tirthankar Lahiri) 미션 크리티컬 데이터 및 AI 엔진 부문 수석 부사장은 그 핵심 원인에 대해 조직 내 데이터가 분산(silo)되어 있기 때문이라고 짚으면서, “융합형 데이터 플랫폼을 통해 데이터 접근성을 통합해야 실질적인 AI 비즈니스 성과를 낼 수 있다”고 전했다. AI를 활용해 기업 비즈니스와 관련된 질문에 대해 답을 얻으려면, 질문과 관련해서 적절한 기업 내부의 데이터를 AI에 제공해야 한다. AI는 제공받은 비즈니스 데이터와 자체 지식, 그리고 공개된 외부 데이터를 결합하여 보다 정확한 결과를 생성할 수 있다. 오라클이 데이터의 중요성을 강조하는 이유가 여기에 있다. 한편으로, 복잡성을 줄이고 AI 기능의 신뢰도를 높이는 것도 중요하다. 분산된 기술이나 개별 제품을 단순히 이어 붙이는 방식은 복잡성과 비용을 키울 수밖에 없다. 오라클은 데이터가 위치한 곳에 AI를 직접 내재화하여 통합 설계하면, 시스템 운영이 단순해지고 기업이 신뢰할 수 있는 빠르고 일관된 AI 혁신이 가능해진다고 보고 있다.   AI를 위한 통합 아키텍처로 차세대 혁신 지원 AI를 위한 오라클의 데이터 전략은 ‘데이터 혁신을 위한 AI(AI for Data)’로 요약할 수 있다. 이 전략은 단순히 AI 기술을 덧붙이는 것이 아니라, AI를 데이터 플랫폼의 가장 핵심적인 부분에 내재화해서, 기업이 AI 리더로 도약하고 새로운 환경에서 번영할 수 있도록 돕는 데 초점을 맞춘다. 오라클 데이터 전략의 주된 방향은 ▲AI, 데이터, 애플리케이션 개발, 그리고 개방형 표준의 통합 구축 ▲개방형 표준에 기반한 융합형 아키텍처로 모든 데이터 유형과 워크로드를 일관된 플랫폼에서 결합하고 탐색할 수 있도록 지원 ▲데이터 사일로 현상을 해결하기 위해, 데이터, AI 모델, 실행 과정을 하나로 아우르는 단일 프레임워크 제공 ▲자체 LLM뿐 아니라 xAI, 구글, 메타, 코히어, 오픈AI 등의 AI 모델을 오라클 인프라 내에 자동으로 임베디드하고 유연하게 수용 ▲기업의 내부 프라이빗 데이터가 보호받을 수 있도록 거버넌스, 프라이버시, 보안을 최우선으로 고려하는 것이다. 오라클은 이런 전략이 집약된 차세대 AI 네이티브 데이터베이스인 ‘오라클 AI 데이터베이스 26ai’를 통해, 기업들이 경쟁사보다 한발 앞서 비즈니스 인사이트를 얻고 생산성 혁신을 달성할 수 있도록 돕는다는 계획이다.   AI 네이티브를 강조한 오라클 데이터베이스 26ai 오라클 AI 데이터베이스 26ai의 핵심 기능은 다음과 같다. 통합 AI 벡터 검색 : 문서, 이미지, 동영상, 관계형 데이터 등 다양한 형태의 데이터를 의미와 맥락을 나타내는 ‘AI 벡터(vector)’로 변환해서 처리한다. 이를 통해 일치하는 값을 찾는 것을 넘어, 의미적 유사성을 기반으로 밀리초(ms) 단위의 고속 검색을 제공한다. 단일 SQL문을 통한 RAG 파이프라인 통합 : AI 벡터 검색으로 찾은 기업 내부 데이터를 LLM과 결합하여 정확하고 맥락에 맞는 답변을 도출하는 RAG(검색 증강 생성) 기능을 지원한다. 또한, 복잡한 RAG 전체 파이프라인을 단일 SQL 구문이나 데이터베이스 API를 통해 간편하게 실행할 수 있다. 데이터베이스 내 에이전틱 AI(agentic AI) 직접 통합 : AI 에이전트를 데이터베이스 내부에 직접 통합 및 설계해서 기업이 쉽고 안전하게 구축, 배포, 관리할 수 있도록 지원한다. 기업의 내부 프라이빗 데이터는 물론 웹 검색 등 외부 공개 데이터까지 결합해서 수준 높은 답변을 제공할 수 있다. AI를 위한 데이터 주석 기능 : AI가 데이터의 의미를 잘못 유추하지 않도록, 사용자가 테이블이나 컬럼의 의미와 용도를 LLM에게 명시적으로 설명해 줄 수 있는 주석(annotations) 기능을 제공한다. 이는 LLM이 더 우수한 결과물을 생성하도록 돕는다. 모든 데이터 유형의 통합 검색 : AI 벡터 검색 기능은 전통적인 관계형 데이터뿐만 아니라 텍스트, 공간, JSON, XML 데이터 등 모든 종류의 데이터 검색과 매끄럽게 결합되어 통합적인 데이터 탐색 환경을 제공한다.   데이터 중심 AI로 엔터프라이즈 혁신 돕는다 오라클은 개방형 생태계를 기반으로 하는 ‘기업용 맞춤형 AI’를 제공하면서, 기업 내부 데이터의 거버넌스, 프라이버시, 보안을 요구하는 엔터프라이즈 환경에 최적화된 AI 접근 방식을 내세운다. 한국오라클의 김성하 사장은 “오라클은 ‘데이터베이스 기업’이라는 기존의 인식에서 벗어나 ‘데이터 중심의 AI 플랫폼 기업’으로서 입지를 굳히고, 엔터프라이즈 클라우드 시장 점유율을 높이고자 한다”면서, 국내 시장 전략을 소개했다. 한국오라클은 OCI(오라클 클라우드 인프라스트럭처)의 성능과 안정성, 비용 효율에 대한 고객의 신뢰를 바탕으로, 기업의 핵심적인 기간계 업무를 클라우드로 전환하는 데 집중하고 있다. 오라클에 따르면, POC를 넘어 실질적인 클라우드 소비가 전년 대비 2025년 두 배 이상 증가했으며, 비 오라클 데이터베이스 워크로드의 클라우드 전환도 확대하고 있다. 오라클은 국내 2곳의 퍼블릭 클라우드 리전(데이터센터)을 안정적으로 운영하면서 지속적인 성장 발판을 마련했다고 보고 있다. 또한 고객이 자체 데이터센터 내에서 오라클 클라우드를 사용할 수 있도록 지원하는 전용 리전(Dedicated Region Cloud@ Customer)를 국내 세 곳의 고객사에 구축·운영하는 등 고객 맞춤형 인프라 전략을 전개 중이다. 김성하 사장은 “올 상반기 국내 AWS 데이터센터에 오라클의 고성능 데이터베이스 머신인 엑사데이터(Exadata)를 배치할 예정이다. 이는 핵심 데이터베이스를 안전하게 운용하고자 하는 금융권 및 대형 엔터프라이즈 고객의 멀티 클라우드 도입 수요를 흡수하기 위한 전략”이라고 소개했다. 이와 함께, 오라클은 국내 AI 시장을 선도할 유망 스타트업이 OCI를 기반으로 성장할 수 있도록 협력 및 지원을 이어갈 예정이다. 이런 노력을 통해 국내 AI 혁신 고객 사례를 늘려가겠다는 것이 오라클의 계획이다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-03-05
[칼럼] 온톨로지 디지털 트윈 정보화 시대
디지털 지식전문가 조형식의 지식마당   최근 인공지능이 우리 삶의 모든 면을 급격하게 변화시키고 있다. 혹자는 이것을 인공지능 전환(AI transformation 또는 AX)이라고 말한다. 그러나 실상은 그 이상이다. 디지털 전환(digital transformation : DX)이 본격적으로 시작한 것도 몇 년 되지 않았는데 다시 인공지능 전환이라니, 대부분 정보기술 분야의 이해당사자들은 당혹스럽다. 디지털 전환의 시대에 정보기술 분야에 일하는 사람들은 약간 안도했을 수도 있다. 이것은 정보화에서 디지털 기술의 심화가 디지털 전환으로 받아들였기 때문이다. 그러나 인공지능 전환은 조금 결이 다르다는 것을 느낄 것이다. 초기에는 빅데이터 분석(big data analytics)과 머신러닝은 연결고리가 있었다. 또한 CAD/CAM/CAE 분야와 시뮬레이션(simulation) 그리고 디지털 트윈(digital twin)도 연결고리가 있다. 이 모든 패러다임의 데이터 기반(datadriven)과 폐쇄형 시스템(closed system)이라는 패러다임을 공유한다. 다시 말해서 데이터 수집(data collection)이 중요하고 데이터 정의(data definition)가 핵심이다.  그러나 인간의 사고를 흉내내는 언어 중심의 인공지능에서 의사결정 구조에서 맥락(context)이 없는 데이터는 경직되고 의사결정에서 쓸모 없는 경우가 많다. 기업의 경쟁력은 더 이상 단순히 데이터를 ‘많이 보유’하는 데서 나오지 않는다. 핵심은 데이터를 어떻게 구조화하고, 어떻게 의미를 부여하며, 어떻게 의사결정으로 연결하느냐에 있다. 전통적 데이터 웨어하우스는 스타 스키마(star schema)와 스노우플레이크 모델을 중심으로 발전해 왔다. 이 구조는 대규모 분석을 가능하게 했지만, 급변하는 비즈니스 환경—규제 변화, 가격 정책 수정, 구독 모델 전환, AI 기반 실험—을 따라가기에는 점점 한계를 드러내고 있다.   그림 1. 온톨로지와 그래픽 데이터베이스   이제 기업은 고정된 테이블 중심 사고에서 벗어나, 시맨틱 그래프 기반 온톨로지(ontology)로 전환하고 있다. 이 전환을 가속하는 기술이 바로 LLM(Large Language Model : 대형 언어 모델)이다. 기존의 산업용 정보기술(industrial IT)은 마치 ‘콘크리트 신발’을 신고 달리는 것과 같다. 구조는 단단하지만, 방향 전환은 느리다. 온톨로지는 데이터를 ‘테이블’이 아니라 의미 있는 객체(object)로 본다. ‘고객’, ‘주문’, ‘제품’은 더 이상 테이블이 아니라 그래프의 노드다. 관계는 조인이 아니라 방향성 링크(directed edge)다. 이 접근은 그래프 데이터베이스 및 시맨틱 기술 발전과 맞물려, 현대 데이터 아키텍처의 핵심으로 자리잡고 있다. 이전에는 인공지능 프로젝트가 없거나 온톨로지, 디지털 스레드와 디지털 트윈, 그래프 데이터베이스(graph database)를 결합하려는 시도가 없던 것은 아니다. 다만 개발자, 담당자, 도메인 전문가는 너무 힘든 작업과 시간과 비용의 소모전이기 때문에 성공할 수 없는 방법론이었다. 단지 거대 방위산업 회사만이 가능했다. 그러나 LLM이 보편화되면서 이 모든 것이 가능해졌다. 이 패러다임은 온톨로지 기반 디지털 트윈(ontology based digital twin) 정보화이다. 복잡하게 들리지만, 현재 팔란티어라는 회사가 사용하고 있는 방법이다.   그림 2. 게임 체인저 LLM, 구축 비용의 혁신   새로운 온톨로지 디지털 트윈 정보기술의 패러다임의 비즈니스 혁신 효과는 다음과 같다.   의사결정 민첩성 규제 변경, 가격 정책 전환, 제품 피봇 시 노드와 링크만 추가하면 확장 가능   분석 부채 감소 기존 핸드크래프트 파이프라인 붕괴 문제 해소 데이터 팀은 유지보수가 아닌 가치 창출에 집중   데이터 민주화 현업 담당자가 직접 질문 : “지난달 프리미엄 사용자의 평균 구매 빈도는?” 엔지니어 도움 없이도 탐색 가능   비용 효율 스타트업 : 엔터프라이즈급 모델링 확보 대기업 : 스키마 드리프트 관리 자동화   그림 3. 온톨로지 패러다임 비교   전략적 시사점은 LLM 기반 온톨로지 자동화는 단순 기술 도입이 아니다. 이는 기업 운영 체계의 구조적 재설계다. 핵심은 데이터 → 의미 → 의사결정 연결 구조 구축, 인간과 AI의 역할 명확화, 온톨로지를 운영 자산으로 관리, 질의 기반 학습 구조 설계, 장기적 데이터 지능 축적 전략 수립이다.   그림 4. 디지털 트윈 정보 모델   결론적으로, 데이터 민주화에서 의사결정 민주화로 움직이면서 LLM 기반 온톨로지 자동화는 단순히 모델링 비용을 줄이는 도구가 아니다. 이는 의미 중심 데이터 구조, 자가 최적화 파이프라인, 복리적 지식 축적, 조직 전체의 분석 역량 확장을 가능하게 한다. 결국 이는 데이터 민주화 → 분석 민주화 → 의사결정 민주화로 이어지는 전환이다. 여기서 말하는 민주화는 책임지는 사람이 결정하고, 의사결정 과정을 투명하게 공유하는 과정을 의미한다. 설명되지 않는 인공지능 도움에 의한 의사 결정은 리스크가 크다. 앞으로의 경쟁력은 데이터를 얼마나 많이 보유했는가가 아니라, 데이터를 얼마나 의미 있게 연결했는가에 달려 있다. 그리고 그 연결을 자동화하는 시대가 이미 시작되었다.   ■ 조형식 항공 유체해석(CFD) 엔지니어로 출발하여 프로젝트 관리자 및 컨설턴트를 걸쳐서 디지털 지식 전문가로 활동하고 있다. 현재 디지털지식연구소 대표와 인더스트리 4.0, MES 강의, 캐드앤그래픽스 CNG 지식교육 방송 사회자 및 컬럼니스트로 활동하고 있다. 보잉, 삼성항공우주연구소, 한국항공(KAI), 지멘스에서 근무했다. 저서로는 ‘ PLM 지식’, ‘서비스공학’, ‘스마트 엔지니어링’, ‘MES’, ‘인더스트리 4.0’ 등이 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-03-05