• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " LLM"에 대한 통합 검색 내용이 342개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[탐방] 유비씨, 디지털트윈에서 피지컬 AI까지 자율제조 지원
전주기 AX 통합 플랫폼 ‘OCTOPUS’로 산업 AI 혁신 앞당긴다   AI는 이제 로봇의 몸을 빌려 물리적 제조 현장에서 움직이기 시작했다. 글로벌 제조업은 산업현장이 자동화되는 인더스트리 4.0을 넘어 인간과 기술이 공존하는 인더스트리 5.0 시대로 진입하고 있다. 특히 올해 글로벌 빅테크 기업들이 앞다퉈 제시한 ‘피지컬 AI’는 AI가 물리적 세계를 직접 제어하는 시대의 도래를 알렸다. 제조업 디지털화의 중심도 변하고 있다. 과거 스마트 팩토리가 ‘연결’과 ‘자동화’를 중심으로 했다면, 현재의 자율제조는 ‘지능화’와 ‘자율 판단’으로 무게중심이 이동하고 있다. 유비씨(UVC, www.uvc.co.kr)는 전주기 AX(AI Transformation) 통합 플랫폼 ‘OCTOPUS’(옥토퍼스)를 통해 이러한 변화를 이끌고 있다.   유비씨 조규종 대표 8개 개별 솔루션을 하나로 통합한 전주기 AX 플랫폼 ‘OCTOPUS’ 유비씨는 2010년 설립 당시 기계와 로봇 간 데이터 통신 기술에 집중했다. 이후 3D 렌더링 엔진 기술을 결합하며 스마트 팩토리와 디지털트윈 솔루션으로 사업영역을 확장했다. 최근에는 이러한 역량에 AI 기술을 융합하며 제조 현장의 디지털 전환(DX)을 넘어 AI 전환(AX)까지 아우르는 전주기 통합 솔루션 OCTOPUS를 완성했다. OCTOPUS는 엣지(Edge), 데이터 허브(Data Hub), 트윈(Twin), 시뮬레이터(Simulator), AI 허브(AI Hub), 에이전틱 AI(Agentic AI), 피지컬 AI(Physical AI), 로봇 허브(Robot Hub) 등 8개 솔루션으로 구성된다. 8개의 개별 솔루션을 하나의 전주기 AX 플랫폼에 통합한 OCTOPUS는 이름 그대로 문어의 특징을 닮았다. 글월 문(文)자를 쓰는 문어는 예부터 ‘바다의 선비’로 불리던 똑똑한 생명체다. 문어의 지능적 두뇌는 스스로 학습하는 AI를, ▲ 유비씨 조규종 대표 예리한 눈은 정밀 모니터링을, 독립적으로 움직이는 8개의 팔은 분산지능을, 민감한 피부는 이상 감지를 상징한다. OCTOPUS는 8개 솔루션이 유기적으로 연결되어 데이터 수집-통합-시각화-검증–학습–예측–제어의 전 과정을 수행한다. 나아가 이를 다시 생산 계획에 반영하는 완벽한 순환 구조를 구현했다. 작동 방식은 다음과 같다. 현장의 엣지가 이기종 설비에서 데이터를 수집하면, 데이터 허브가 이를 AI가 학습할 수 있는 형태로 정제한다. 트윈은 실시간 3D로 현장을 시각화하고, 시뮬레이터는 반복 실험을 통해 최적의 조건을 탐색한다. AI 허브는 공정을 학습하고, 학습된 데이터를 바탕으로 에이전틱 AI가 24시간 자율 의사결정을 수행한다. 피지컬 AI는 로봇과 설비를 정밀 제어하고, 로봇 허브가 다수의 로봇을 통합 관제한다. 기존의 제조 IT·시뮬레이션·AI 솔루션은 전문 인력이 아니면 접근 자체가 어려울 정도로 진입 장벽이 높았다. OCTOPUS는 이 문제를 플랫폼 설계 단계부터 완전히 다르게 접근했다. 데이터 수집, 시뮬레이션, AI 분석, 디지털 트윈, 로봇 제어 등 각기 다른 카테고리로 분리되어 있던 기능들을 하나의 흐름과 하나의 화면, 하나의 언어로 통합한 것이다. 특히 LLM 기반 자연어 인터페이스를 적용해 “생산 라인을 한 대 더 늘리면 어떻게 될까?”, “이 공정에서 병목이 생기는 이유가 뭐지?” 등의 질문만으로 시뮬레이션과 AI 분석, 가상 검증 결과를 제시한다. AI 예측을 실제 설비제어까지 연결하는 M.AX 시대 많은 AI 솔루션이 데이터를 분석하고 예측 결과를 보여주는데 그친다. 그러나 진정한 제조 A I전환, 즉 ‘M.AX(Manufacturing AX)’를 실현하려면 AI의 판단이 실제 설비나 로봇의 동작으로 직접 이어져야 한다. 문제는 현장에서 AI가 내린 결정을 설비 제어에 바로 적용하는 것을 극도로 꺼린다는 점이다. 안전 문제, 예상치 못한 오작동에 대한 우려, 그리고 책임 소재에 대한 불안감 때문이다. 유비씨는 디지털 트윈과 피지컬 AI를 결합한 독자적인 아키텍처로 문제 해결에 나섰다. 가상 환경에서 AI 모델을 충분히 학습시키고, 수천 번의 시뮬레이션을 통해 안전성과 효과를 검증한 후에만 실제 현장에 적용하도록 설계한 것이다. 이를 통해 환경 변화와 예외 상황에도 흔들리지 않는 안정적이고 신뢰할 수 있는 자율 운영을 실현해 나간다. 유비씨 조규종 대표는 “AI가 브레인이라면 DT는 AI의 명령을 실질적으로 수행하는 중추 신경계다. 유비씨는 디지털 트윈 기반의 피지컬 AI 기업을 향해 나아가고 있다”고 설명한다. 이어 “제조업에서 AI 기반 디지털 트윈이 지금 가장 큰 가치를 만드는 분야는 제조·생산·물류 현장의 ‘협업’을 지능화하는 영역이다. 로봇이 혼자 똑똑해지는 것보다 더 어려운 건 로봇이 제조 설비와 함께 상황을 이해하고, 여러 로봇이 스스로 역할을 나누며, 필요하면 작업자와도 안전하게 함께 일하도록 만드는 일이다”라고 덧붙였다. 유비씨가 정의하는 피지컬 AI는 인지-계획-실행으로 이어지는 구조를 기반으로 한다. 물리적 환경과 설비 상태를 실시간으로 인지하고, 운영 목표와 제약 조건을 반영해 행동을 계획한 뒤, 이를 실제 로봇과 설비의 동작으로 실행하는 전 과정을 설계하고 있다. 이 과정에서 디지털 트윈은 피지컬 AI가 학습할 수 있는 합성 데이터(Synthetic Data)를 제공하는 핵심 환경 역할을 담당한다. 나아가 OCTOPUS 피지컬 AI 솔루션을 중심으로 자율제조 영역에서 사업을 확장하는 모습이다. 조 대표는 “국내 탑티어 로봇 제조사 두 곳과 협업을 통해 실제 제조 현장 적용이 가능한 피지컬 AI 기술의 실증과 고도화를 진행하고 있다”면서, “이를 통해 제조 AX 분야의 선도 기업으로 입지를 공고히 해 나갈 것”이라고 밝혔다.   ■ 캐드앤그래픽스 최경화 국장 kwchoi@cadgraphics.co.kr
작성일 : 2026-04-05
CNG TV, AI 에이전트 대전환 시대, 전문성 설계부터 코딩 혁명까지 소개
캐드앤그래픽스 CNG TV는 ‘AI 에이전트 대전환, 전문성 설계부터 코딩 혁명까지’를 주제로 인공지능팩토리 김태영 대표와 소이랩(SOY.LAB) 최돈현 대표를 초청, 방송을 진행했다. 이번 방송에서는 CNG TV 전문위원인 한국건설기술연구원 강태욱 연구위원의 사회로 최근 뜨거운 이슈가 되고 있는 AI 에이전트 트렌드에 대해 살펴보았다. 자세한 내용은 다시보기 페이지에서 확인할 수 있다.   CNG TV 발표자 - 김태영 대표(인공지능팩토리), 최돈현 대표(SOY.LAB)   AI 에이전트 대전환 시대, 전문가의 설계와 코딩 혁명이 가져올 미래 단순한 도구 활용을 넘어 AI 에이전트(AIA)가 업무의 주축이 되는 대격변의 시대가 도래했다. 기술의 단순 재현(Representation)을 넘어 전문가가 직접 시스템을 설계(Design)하고 지휘(Orchestration)하는 생존 전략이 필요한 시점이다. 인공지능팩토리 김태영 대표와 SOY.LAB 최돈현 대표는 이번 방송을 통해 AI 에이전트의 최신 흐름과 실무 적용 방안을 심도 있게 다루었다. AI 에이전트의 진화: 툴 콜링에서 자율적 임무 수행까지 AI 기술은 LLM(대규모 언어 모델)에서 시작하여 RAG(검색 증강 생성), 멀티턴 대화, 그리고 도구를 직접 호출하는 '툴 콜링(Tool Calling)' 단계로 빠르게 진화했다. 과거에는 개발자만이 API를 통해 도구를 연결할 수 있었으나, MCP(Model Context Protocol)의 등장으로 일반 엔지니어도 다양한 외부 기능을 에이전트에 연결할 수 있는 길이 열렸다. 특히 최근 주목받는 '오픈클로(OpenClaw)' 시스템은 하트비트(Heartbeat) 기능을 통해 에이전트를 주기적으로 깨워 스스로 업무를 수행하게 한다. 이는 사용자가 일일이 명령을 내리는 리액티브(Reactive) 방식을 넘어, AI가 스스로 판단하고 실행하는 프로액티브(Proactive) 방식으로의 전환을 의미한다. 김태영 대표는 실제 실험을 통해 에이전트의 자율적 업무 가능성을 확인했다고 밝혔다. 바이브 코딩과 코딩 에이전트가 만드는 생산성 혁명 '바이브 코딩(Vibe Coding)'의 등장은 개발 생태계에 큰 충격을 주었다. 커서(Cursor)나 클로드 코드(Claude Code)와 같은 에이전트는 파일 시스템에 접근하여 스스로 코드를 수정하고 실행하며, 사용자의 의도(Vibe)만으로 결과물을 만들어낸다. 이러한 에이전트는 단순히 코드 작성에 그치지 않고 문서 작성, PPT 제작, 웹페이지 구축 등 다양한 스킬(Skill)을 장착하여 범용적인 업무 비서로 진화하고 있다. 하지만 에이전트가 공유기 설정을 변경하거나 시스템 보안을 위협할 수 있는 수준까지 발전함에 따라, 격리된 환경(샌드박스)에서의 운영과 시스템적 보안 설계가 필수가 되었다. 시댄스 2.0과 비주얼 생성 AI의 격변 영상 및 이미지 생성 분야에서도 거대한 변화가 일어나고 있다. 바이트댄스(Bytedance)의 '시덴스(Seedance) 2.0'은 실사에 가까운 고품질 영상 생성 능력을 보여주며 기존의 글로벌 모델들을 위협하고 있다. 이미지 한 장으로 비행기 탈출 장면과 같은 역동적인 영상을 생성하거나, 짧은 명령만으로 고수준의 광고 영상을 제작하는 것이 가능해졌다. 또한 '컴피 클라우드(Comfy Cloud)'의 등장은 고가의 그래픽 카드 없이도 저렴한 비용으로 전문가급 워크플로우를 구축할 수 있게 했다. 이는 개인이 GPU 자원을 클라우드에서 활용하며 복잡한 노드 기반의 생성 프로세스를 운영할 수 있게 됨으로써, 1인 창작자의 기술적 진입 장벽을 혁신적으로 낮추었다. 전문가의 역할 변화와 미래 지향적 관점 AI가 숙련가의 영역을 대체함에 따라, 인간 전문가의 역할은 '어떻게 만드느냐'보다 '무엇을 설계하느냐'로 이동하고 있다. 최돈현 대표는 인문학적 소양과 예술적 통찰력을 바탕으로 한 전문성이 결여된 AI 결과물은 시장에서 오래 살아남기 어렵다고 강조했다. 앞으로의 산업 구조에서는 큰 기업에 소속된 인재보다, AI 에이전트를 지휘하여 가치를 창출하는 '1인 기업가'의 비중이 높아질 것으로 예측된다. 따라서 기술에 매몰되기보다 본연의 도메인 지식을 강화하고, AI를 효율적으로 지휘하는 설계 능력을 갖추는 것이 생존의 핵심이다.
작성일 : 2026-04-02
파수AI, 사명 변경과 함께 지속가능한 AI 혁신 전략 제시한다
파수가 AI 혁신(AX)을 지원하는 기업으로 정체성을 강화하기 위해 ‘파수AI(Fasoo AI)’로 사명을 변경했다고 전했다. 2000년 설립 이후 데이터 보안 및 관리 시장에서 활동해 온 파수는 이번 사명 변경을 통해 기존 보안 영역을 넘어 AI, 데이터, 거버넌스 전반을 아우르는 AI 전문 기업으로 거듭나겠다는 전략이다. 파수AI는 2022년 생성형 AI 기반 개인정보보호 설루션을 시작으로 기업용 거대 언어 모델(LLM)인 ‘엘름(Ellm)’을 출시하며 AI 사업을 확대해 왔다. 최근에는 미국 법인과 현지 AI 기업 컨실릭스(Konsilix)의 합병을 통해 기업용 AI 설루션 기업인 ‘심볼로직(Symbologic)’ 출범을 앞두고 있어 글로벌 AX 시장 공략도 본격화할 계획이다. 파수AI의 조규곤 대표는 “보안 기업을 넘어 AI 기업으로 재탄생한다는 의지를 담아 창사 26년 만에 사명을 변경했다”며, “그동안 쌓아온 데이터 관리 역량에 AI를 더해 고객이 AX에 이르는 가장 안전하고 효율적인 길을 제시하겠다”고 밝혔다.     한편, 파수AI는 사명 변경 후 첫 공식 행보로 오는 4월 15일 서울 여의도 페어몬트 앰버서더 서울에서 연례 고객 콘퍼런스 ‘FDI 심포지움(FDI Symposium) 2026’을 개최한다. ‘지속가능한 AI 혁신(Sustainable AI Transformation)’을 주제로 열리는 이번 콘퍼런스에서 파수AI는 안전한 AX 실현을 위한 구체적인 전략과 사례를 발표한다. 조규곤 대표를 비롯해 심볼로직의 롭 마라노(Rob Marano) 최고경영자(CEO) 등이 참여해 글로벌 AX 및 AI 보안 구축 사례를 공유할 예정이다. 세부 세션에서는 국내 기업에 최적화된 AX 지원 설루션과 컨설팅, AI 시대의 데이터 인프라 전략 등이 소개된다. 또한 장일수 스패로우(Sparrow) 대표가 AI를 활용한 소프트웨어 공급망 보안 방안을 발표하며, 현장 부스에서는 파수AI의 주요 설루션 시연도 진행된다. 조규곤 대표는 “이번 행사는 파수AI의 변화된 방향성과 역할을 구체적으로 보여주는 자리가 될 것”이라며, “AI 전환을 준비하는 기업들에게 실질적인 통찰력을 제공하겠다”고 말했다.
작성일 : 2026-04-01
지멘스, 산업용 AI 운영체제 강화... 베이징서 디지털 혁신 가속화 전략 공개
지멘스가 중국 베이징에서 열린 ‘지멘스 RXD 서밋’에서 실험 단계에 머물던 산업용 AI를 공장과 인프라, 공급망 전반에 대규모로 배포하는 전략을 공개했다. 인공지능(AI) 기술을 디지털 세계에서 실물 경제로 빠르게 이식하겠다는 것이다. 2000여 명의 고객사와 파트너, 개발자가 참석한 이번 행사에서 지멘스 롤랜드 부시(Roland Busch) 회장 겸 CEO는 “AI를 현실 세계에 구현하기 위해서는 뛰어난 모델 그 이상의 요소가 필요하다”고 강조했다. 데이터와 소프트웨어, 지능형 하드웨어를 연결하는 ‘산업용 AI 운영체제’라는 기술 스택이 필수라는 설명이다. 지멘스는 개방형 디지털 비즈니스 플랫폼인 ‘지멘스 엑셀러레이터(Siemens Xcelerator)’를 통해 이러한 역량을 결합하고 산업용 AI를 대규모로 보급하고 있다.   ▲ 지멘스 롤랜드 부시 회장 겸 CEO   이를 위해 지멘스는 26개의 신제품을 출시하는 동시에 알리바바와의 전략적 파트너십을 심화하기로 했다. 이번 협력은 글로벌 혁신과 중국 현지의 혁신을 결합해 산업 인프라, 자동화, AI 기반 애플리케이션 전반을 아우르는 것을 목표로 한다. 중국 지멘스의 샤오 송(Xiao Song) 회장 겸 CEO는 “강력한 생태계만이 AI의 막대한 잠재력을 실현할 수 있다”면서, 지멘스의 기술력과 중국의 혁신 속도 및 산업 규모를 결합해 고품질 성장을 지원하겠다고 밝혔다. 고급 시뮬레이션과 산업용 AI에 대한 접근성도 확대된다. 지멘스와 알리바바 클라우드는 파트너십 확대를 통해 중국 고객에게 서비스형 인프라(IaaS) 형태의 CAE 역량을 제공할 계획이다. 지멘스의 시뮬레이션 포트폴리오를 알리바바 클라우드의 고성능 컴퓨팅 환경에 구축함으로써, 엔지니어링 팀은 복잡한 시뮬레이션을 더욱 효율적이고 유연하게 수행할 수 있게 된다. 양사는 알리바바의 거대 언어 모델(LLM)인 ‘통의천문(Qwen)’을 지멘스의 제품 수명주기 관리(PLM) 소프트웨어에 적용하는 방안도 모색한다. 양사는 이를 통해 AI가 지원하는 엔지니어링 워크플로와 지능형 제품 개발의 새로운 가능성을 열 것으로 기대하고 있다. AI 시대를 위한 인프라 구축에도 속도를 낸다. 지멘스 기술은 알리바바 클라우드의 장베이 데이터 센터와 같은 대규모 시설의 가동을 뒷받침하고 있다. 지멘스는 지능형 산업 운영에 필요한 데이터 흐름과 시스템 통합을 가능하게 하는 산업용 연결 설루션을 선보였다. ▲대규모 AI 워크로드를 처리하는 시스템의 안정적 가동을 돕는 인프라 보호 기술 ▲고성능 데이터 센터의 에너지 밀도를 효율적으로 관리하기 위해 현지에서 개발된 차세대 직류(DC) 차단기 ▲에너지 집약적 환경에서 냉각 효율을 최적화하고 소비 전력을 줄이는 AI 기반 냉각 설루션 등이 대표적이다. AI 기반 제조를 위한 실행 계층도 강화한다. 현대적 제조 시스템은 지능을 생성하는 것뿐만 아니라 이를 현장에서 직접 실행할 수 있어야 한다. 지멘스는 중국 현지 혁신 모델과 결합된 새로운 에지, 자동화, AI 설루션을 도입했다. 생산 라인의 두뇌 역할을 하며 기계들을 실시간으로 조율하는 차세대 프로그래밍 가능 로직 컨트롤러(PLC)는 성능과 메모리 용량이 대폭 향상됐다. 또한 디지털 명령을 정밀한 로봇 동작으로 변환하는 컴팩트 서보 시스템 등 고급 모션 기술을 통해 현장 실행력을 높였다. 아울러 지멘스는 산업 운영 최적화를 위한 AI 애플리케이션도 공개했다. 예측 보전 소프트웨어는 핵심 자산의 운영 데이터를 분석해 이상 징후를 조기에 감지함으로써 가동 중단으로 인한 손실을 방지한다. 이러한 혁신 기술은 산업용 AI의 실행 계층을 강화해 디지털 통찰력을 실제 생산 환경의 실질적인 행동으로 전환하는 역할을 한다.
작성일 : 2026-03-31
일일이 챙기지 않아도 AI가 알아서… 오라클, ‘스스로 일하는’ 기업용 앱 공개
오라클이 기업의 업무 방식을 재정의하는 퓨전 에이전틱 애플리케이션(Fusion Agentic Applications)을 발표했다. 이 애플리케이션은 성과 지향적이며 추론에 기반해 선제적으로 작동하는 AI 에이전트 팀이 서로 협업하는 새로운 엔터프라이즈 소프트웨어 제품군이다. 오라클 퓨전 클라우드 애플리케이션에 내장된 이 서비스는 기업 내부의 데이터와 워크플로, 승인 체계 등에 안전하게 접근해 비즈니스 프로세스 안에서 직접 의사결정을 내리고 실행한다. 기존의 AI 어시스턴트와 달리 트랜잭션 시스템에서 기본으로 제공되어 기업 규모의 실시간 작업이 가능하다는 점을 특징으로 내세운다. 오라클은 퓨전 에이전틱 애플리케이션이 단순한 기록 시스템을 넘어 설정된 비즈니스 목표를 달성하기 위해 직접 판단하고 행동하는 단계로 발전했다고 설명했다. 오라클의 스티브 미란다 부사장은 “기존의 업무 방식은 프로세스 관리에 너무 많은 시간이 소모되어 오늘날의 비즈니스 속도에 부합하지 않는다”면서,  “이번 애플리케이션은 기업이 더 빠르게 성과를 창출하고 전략적 활동에 집중하도록 도울 것”이라고 밝혔다.     이 애플리케이션은 구체적인 역할과 전문성을 가진 AI 에이전트 그룹으로 구성된다. 에이전트들은 목표 달성을 위해 어떤 업무를 언제 수행해야 하는지 스스로 판단하며 기존 보안 프레임워크 내에서 자율적으로 움직인다. 사람은 결과가 크게 달라질 수 있는 예외 사항이나 중요한 의사결정 단계에만 관여하게 된다. 이를 통해 기업은 업무 진행 과정에서 사용자가 상황을 반복해서 설명할 필요 없이 지속적인 맥락을 유지하며 업무를 추진할 수 있다. 현재 오라클은 재무, 인사(HR), 공급망, 고객 경험 분야에서 활용 가능한 22개의 신규 에이전틱 애플리케이션을 제공하고 있다. 워크포스 오퍼레이션즈(Workforce Operations) 에이전틱 애플리케이션은 인사 관리자가 데이터 수집 시간을 줄이고 급여 관련 문제를 예방하도록 돕는다. 공급망 분야에서는 디자인 투 소스 워크스페이스(Design-to-Source Workspace) 에이전틱 애플리케이션을 통해 제품 비용과 규제 준수 위험을 낮출 수 있다. 영업 팀을 위한 크로스셀 프로그램 워크스페이스(Cross-Sell Program Workspace) 에이전틱 애플리케이션은 성장 기회를 선제적으로 파악해 고객 유치 비용을 절감하며, 재무 팀용 콜렉터스 워크스페이스(Collectors Workspace) 에이전틱 애플리케이션은 대금 회수를 가속화해 현금 흐름을 개선한다. 이러한 서비스는 오라클 클라우드 인프라스트럭처(OCI)에서 거대 언어 모델(LLM)을 기반으로 구동된다. 오라클은 기업이 직접 AI 자동화 시스템을 구축할 수 있도록 오라클 AI 에이전트 스튜디오(Oracle AI Agent Studio)도 함께 지원한다. 기업은 에이전틱 애플리케이션 빌더(Agentic Applications Builder)를 활용해 복잡한 개발 과정 없이도 오라클이나 파트너사의 에이전트를 연결해 사용할 수 있다. 오라클은 가시성과 투자 대비 효과 측정, 안전 제어 기능을 통해 에이전트가 대규모 환경에서도 안전하게 가치를 창출할 수 있다고 덧붙였다.
작성일 : 2026-03-31
가트너 “AI 토큰 단가 하락해도 기업의 비용 부담은 지속될 것”
가트너가 2030년까지 1조 개 파라미터를 보유한 거대 언어 모델(LLM)의 추론 비용이 2025년과 비교해 90% 이상 줄어들 것이라는 전망을 내놓았다. 생성형 AI 모델이 처리하는 기본 데이터 단위인 AI 토큰은 이번 분석에서 약 3.5바이트로 정의되었다. 가트너는 반도체와 인프라의 효율 개선, 모델 설계 혁신, 추론 특화 반도체 확대 등에 힘입어 2030년에는 LLM의 비용 효율이 2022년 초기 모델 대비 최대 100배까지 좋아질 것으로 내다봤다. 가트너는 이번 비용 분석을 위해 최첨단 반도체 기반의 프런티어 시나리오와 기존 반도체를 혼합해 사용하는 레거시 혼합 시나리오를 활용했다. 분석 결과 레거시 혼합 시나리오는 연산 성능이 상대적으로 낮아 프런티어 시나리오보다 비용이 상당히 높은 것으로 나타났다.   ▲ 가트너의 생성형 AI 추론 비용 시나리오 전망   하지만 토큰 단가가 떨어진다고 해서 기업의 AI 관련 비용이 곧바로 줄어들지는 않을 것으로 보인다. 고도화된 AI 기능일수록 더 많은 토큰을 사용하는 구조적 특성 때문이다. 가트너의 분석에 따르면 AI 에이전트는 기존 챗봇보다 작업당 최소 5배에서 최대 30배 많은 토큰을 필요로 한다. 토큰 단가의 하락 속도보다 토큰 사용량의 증가 속도가 더 빠르기 때문에, 전체적인 추론 비용은 오히려 늘어날 가능성이 크다. 가트너의 윌 소머 시니어 디렉터 애널리스트는 “제품 총괄 책임자는 범용 토큰 가격의 하락을 고급 추론 역량의 대중화로 오해해서는 안 된다”고 강조했다. 기본적인 AI 기능은 비용이 거의 들지 않는 수준이 되겠지만, 고급 추론을 위한 컴퓨팅 자원과 시스템은 여전히 희소하다는 설명이다. 그는 이어 “저렴한 토큰 비용에 의존해 아키텍처의 비효율을 방치하는 기업은 향후 에이전트 기반 AI를 확장하는 단계에서 한계에 부딪힐 것”이라고 경고했다. 가트너는 앞으로 다양한 모델 포트폴리오 사이에서 업무 부하를 효율적으로 조정하는 플랫폼의 가치가 높아질 것이라고 전망했다. 자주 반복되는 업무는 소형 모델이나 도메인 특화 모델로 처리하고, 비용이 많이 드는 프런티어급 모델은 복잡하고 가치가 높은 추론 작업에만 선택적으로 활용해야 한다는 전략이다. 이러한 멀티 모델 운영 방식은 특정 작업 흐름에서 범용 모델보다 낮은 비용으로 더 뛰어난 성능을 제공할 수 있다.
작성일 : 2026-03-30
오라클, 기업 데이터 보안과 효율 높이는 에이전틱 AI 혁신 발표
오라클은 보안이 강화된 에이전틱 AI(agentic AI) 애플리케이션을 빠르게 구축하고 배포할 수 있는 오라클 AI 데이터베이스(Oracle AI Database)의 새로운 혁신 기능을 발표했다. 이번 발표는 기업의 전체 운영 환경 워크로드에 맞춘 것으로, 운영 데이터베이스와 분석 레이크하우스 전반에 걸쳐 에이전틱 AI와 데이터를 통합적으로 설계한 것이 특징이다. 이를 통해 AI 에이전트는 기업 데이터가 저장된 위치에 상관없이 안전하게 실시간으로 접근할 수 있다. 또한 퍼블릭 데이터로 훈련된 대규모 언어 모델(LLM)과 기업 내부 데이터를 결합해 정확한 인사이트를 제공한다. 오라클 엑사데이터를 사용하는 고객은 ‘엑사데이터 기반 AI 검색’ 기능을 통해 대규모 다단계 에이전틱 워크로드의 쿼리 성능을 가속화할 수 있다. 오라클 AI 데이터베이스는 데이터 이동 파이프라인 구축에 따른 복잡성과 보안 위험을 줄이기 위해 다양한 기능을 도입했다. 오라클 자율운영 AI 벡터 데이터베이스(Oracle Autonomous AI Vector Database)는 직관적인 API와 웹 인터페이스를 통해 개발자가 벡터 기반 애플리케이션을 쉽게 만들 수 있게 지원한다. 오라클 클라우드 무료 티어 등에서 이용 가능하며 클릭 한 번으로 모든 기능을 업그레이드할 수 있다. 오라클 AI 데이터베이스 프라이빗 에이전트 팩토리(Oracle AI Database Private Agent Factory)는 비즈니스 분석가가 데이터 기반 에이전트와 워크플로를 노코드 방식으로 구축하도록 돕는다. 제3자와 데이터를 공유하지 않고 AI 에이전트를 관리할 수 있어 보안성이 높다. 오라클 유니파이드 메모리 코어(Oracle Unified Memory Core)는 벡터, JSON, 그래프 등 다양한 데이터를 하나의 통합 엔진에서 처리해 저지연 추론을 가능하게 한다. 보안 측면에서는 오라클 딥 데이터 시큐리티(Oracle Deep Data Security)가 도입되어 사용자별 데이터 접근 규칙을 세밀하게 관리한다. AI 에이전트는 사용자가 권한을 가진 데이터만 확인할 수 있어 프롬프트 인젝션 같은 새로운 위협으로부터 데이터를 보호한다. 오라클 프라이빗 AI 서비스 컨테이너(Oracle Private AI Services Container)는 모델을 자체 환경에서 실행해 외부 유출을 방지하며, 오라클 트러스티드 답변 검색은 LLM의 환각 현상을 줄여 검증된 답변을 제공한다. 이외에도 오라클은 아파치 아이스버그 테이블의 벡터 데이터를 지원하는 ‘오라클 벡터 온 아이스(Oracle Vectors on Ice)’와 외부 AI 에이전트의 안전한 접근을 돕는 ‘오라클 자율운영 AI 데이터베이스 MCP 서버(Oracle Autonomous AI Database MCP Server)’ 등을 통해 개방형 표준을 강화했다. 이를 통해 기업은 특정 모델에 종속되지 않고 유연하게 에이전틱 AI 환경을 구축할 수 있다. 오라클의 후안 로이자 데이터베이스 기술 부문 총괄 부사장은 “오라클 AI 데이터베이스를 활용하면 기업은 데이터를 단순히 저장하는 단계를 넘어 AI를 위해 데이터를 활성화할 수 있다”면서, “주요 클라우드와 온프레미스 환경에서 실시간 기업 데이터를 안전하게 조회하고 실행하는 자율적 AI 애플리케이션을 신속하게 관리하도록 돕는다”고 밝혔다.
작성일 : 2026-03-25
델, GB300 탑재 AI 슈퍼컴퓨터 및 워크스테이션 9종 공개
델 테크놀로지스가 전문가용 워크스테이션 브랜드인 ‘델 프로 프리시전(Dell Pro Precision)’을 다시 선보인 것과 동시에, 인공지능(AI) 워크로드와 전문 작업에 최적화된 신제품 9종을 발표했다. 이번 신제품은 높은 연산 성능과 냉각 효율을 바탕으로 기업의 AI 혁신을 지원하는 데 초점을 맞췄다.   ▲ 델 프로 맥스 위드 GB300의 내부 구성   가장 눈길을 끄는 제품은 엔비디아 GB300 슈퍼칩을 탑재한 ‘델 프로 맥스 위드 GB300(Dell Pro Max with GB300)’이다. 이 제품은 72코어 Arm 기반 프로세서를 통해 데이터센터 수준의 성능을 책상 위에서 구현하는 AI 슈퍼컴퓨터다. 최대 20페타플롭의 연산 성능과 748GB의 코히어런트 메모리를 갖춰, AI 개발팀이 로컬 환경에서 최대 1조 개의 매개변수를 가진 거대 모델을 실험할 수 있도록 설계했다. 델 테크놀로지스에 따르면 초저지연 네트워킹을 지원하는 엔비디아 커넥트X-8 스마트 NIC를 통해 제품 두 대를 연결하면 성능을 두 배로 확장할 수 있다. 또한 이 제품은 우분투 리눅스 기반의 엔비디아 AI 소프트웨어 스택을 기본 구성해 거대 언어 모델(LLM) 미세 조정이나 에이전트 개발을 즉시 실행할 수 있다. 델이 자체 설계한 맥스쿨 냉각 기술은 스마트 콜드 플레이트와 듀얼 열교환기를 사용해 고부하 작업 시에도 성능 저하 없이 최적의 온도를 유지한다. 엔비디아 네모클로와 오픈쉘을 지원해 외부 클라우드 연결 없이 기업 보안 정책에 맞춘 자율형 AI 에이전트 구축이 가능한 것도 특징이다. 모바일 워크스테이션으로는 ‘델 프로 프리시전 7(Dell Pro Precision 7)’ 14 및 16 시리즈를 선보였다. 이들 제품은 엔비디아 블랙웰 아키텍처 기반의 그래픽 성능을 갖췄으며, 독립 소프트웨어 벤더(ISV) 인증을 통해 전문 애플리케이션의 안정적인 구동을 지원한다. 16인치 모델은 최대 50W급 인텔 코어 울트라 프로세서 시리즈 3와 엔비디아 RTX 프로 3000 블랙웰 GPU를 탑재해 3D 렌더링과 AI 모델 추론을 처리한다. 14인치 모델은 약 1.49kg의 무게로 휴대성을 높이면서도 45W급 프로세서와 RTX 프로 2000 블랙웰 GPU를 장착했다.   ▲ 델 프로 프리시전 7 16 모바일 워크스테이션   타워형 워크스테이션인 ‘델 프로 프리시전 9’ 시리즈는 워크로드 규모에 따라 T2, T4, T6 모델로 나뉜다. T2 모델은 인텔 제온 600 프로세서와 RTX 프로 6000 블랙웰 GPU를 탑재했으며 최대 1TB의 DDR5 ECC 메모리를 지원한다. 확장성이 가장 높은 T6 모델은 최대 86코어 인텔 제온 프로세서와 5개의 엔비디아 RTX 프로 블랙웰 GPU, 316TB의 스토리지 용량을 갖춰 고성능 AI 트레이닝과 시각 특수효과 작업에 적합하다. 이외에도 델 테크놀로지스는 비즈니스 사용자를 위한 엔트리급 모델인 ‘델 프로 프리시전 5 14·16’과 슬림한 폼팩터를 채택한 ‘델 프로 프리시전 5 14S·16S’ 모델을 함께 공개했다. 7 시리즈와 9 시리즈 T2 모델은 3월 중 출시하며, 5 시리즈와 9 시리즈 T4·T6 모델은 5월부터 순차적으로 출시할 예정이다. 한국 델 테크놀로지스의 김경진 총괄사장은 “에이전틱 AI로의 전환이 빨라지면서 클라우드 의존도를 낮추고 로컬 환경에서 AI를 안전하게 운용하려는 수요가 늘고 있다”면서, “AI 시대의 전문가들이 한계를 뛰어넘는 성과를 낼 수 있도록 독보적인 포트폴리오를 제공하며 시장 혁신을 주도하겠다”고 밝혔다.
작성일 : 2026-03-23
[포커스] 인텔, 코어 울트라 시리즈 3로 온디바이스 AI 및 에지 시장 공략 가속화
인텔은 지난 1월 28일 ‘2026 AI PC 쇼케이스 서울’을 통해 최첨단 18A 공정이 적용된 차세대 프로세서 ‘인텔 코어 울트라(Core Ultra) 시리즈 3’를 국내에 공식적으로 선보였다. 이번 신제품은 기존 모델 대비 전력 효율을 높이고 그래픽과 AI 연산 성능을 향상시킨 것이 특징이다. 인텔은 온디바이스 AI의 보안성과 효율을 앞세워 클라우드 의존도를 낮추고 사용자 경험을 혁신하겠다는 의지를 밝혔다. 또한 한국 시장의 전략적 중요성을 강조하면서, PC를 넘어 에지 AI 분야까지 생태계를 확장하겠다는 비전을 제시했다. ■ 정수진 편집장   18A 공정 기반의 차세대 아키텍처와 혁신 기술 집약 코드명 팬서레이크인 인텔 코어 울트라 시리즈 3는 인텔의 18A 반도체 공정 기술을 기반으로 설계된 첫 번째 플래그십 프로세서이다. 각 트랜지스터에 공급되는 전력을 정밀하게 제어하는 게이트 올 어라운드(GAA) 구조의 리본펫(RibbonFET)과 복잡한 칩의 전력 배선 구조를 단순화해 칩 밀도를 높이는 파워비아(PowerVia) 기술이 적용되어 전력 및 공간 효율을 높인 것이 특징이다. 성능 코어(P-코어)와 효율 코어(E-코어)로 구성된 하이브리드 코어 아키텍처를 재설계한 것도 눈에 띈다. 인텔은 18A 공정에 맞춰 성능 코어와 효율 코어를 전면 재설계했다고 밝혔는데, 특히 저전력 아일랜드(Low Power Island)에 위치한 4개의 효율 코어에 추가 캐시를 탑재해서 더 많은 워크로드를 저전력으로 처리할 수 있도록 설계되었다. 인텔의 조쉬 뉴먼(Josh Newman) 컨수머 PC 부문 총괄은 “코어 울트라 시리즈 3는 NPU(50 TOPS)와 GPU(120 TOPS) 등을 합쳐 플랫폼 전체에서 최고 180 TOPS의 AI 연산 성능을 제공한다”면서, “이를 통해 보안을 유지하면서도 기기 내에서 로컬 LLM(거대 언어 모델)을 원활하게 구동할 수 있다”고 소개했다. 또한, 코어 울트라 시리즈 3는 차세대 내장 그래픽인 인텔 아크(Arc) B390을 탑재했다. 아크 B390은 Xe3 아키텍처를 기반으로 12개의 Xe 코어와 96개의 XMX 엔진, 이전 세대 대비 2배 늘어난 16MB의 L2 캐시를 탑재했다. 이를 통해 이산형(discrete) 모바일 GPU에 맞먹는 성능을 제공한다는 것이 인텔의 설명이다.   ▲ 인텔의 조쉬 뉴먼 컨수머 PC 부문 총괄이 코어 울트라 시리즈 3를 소개했다.   루나레이크 대비 향상된 전성비와 AI 성능 구현 이번 신제품은 이전 세대인 루나레이크와 비교해 CPU/GPU 성능과 전력 효율, AI 성능 등에서 폭넓은 개선이 이뤄졌다. 코어 울트라 시리즈 3는 최대 8개의 효율 코어를 추가로 구성해서 루나레이크 대비 멀티스레드 성능이 최대 60% 향상되었으며, 전반적인 CPU 속도 역시 60% 더 빨라졌다. 또한, 동일한 싱글 스레드 성능을 최대 40% 더 낮은 전력으로 구현할 수 있다. 인텔은 “시스템 전체의 전력 소모를 줄여서, 배터리 수명을 시간 단위가 아닌 일(days) 단위로 측정할 수 있을 만큼 연장했다”고 전했다. GPU 성능 역시 내장 그래픽 크기를 키우고 아키텍처를 개선하면서, 루나레이크 대비 게이밍 그래픽 성능이 77% 이상 향상되었다. 이는 60W로 구동되는 경쟁사 랩톱 GPU의 성능과 맞먹으면서도 45W의 더 적은 전력을 소비하는 수준이라는 것이 인텔의 설명이다. 이외에 96개의 AI 가속기(XMX)를 내장해 AI 성능을 이전 세대 대비 약 2배 가까이 끌어올렸으며, AI 추론 성능은 53% 향상되었다. 이와 함께 50 TOPS 성능의 저전력 NPU를 별도로 탑재해서, 화상 회의의 배경 흐림이나 오디오 노이즈 제거, 보안 작업 등의 상시 AI 작업을 최소화된 배터리 소모와 함께 구동할 수 있도록 했다. 뉴먼 총괄은 “인텔의 접근 방식은 인텔 코어 울트라 시리즈 3 아키텍처와 곧 출시될 차세대 시리즈 3 코어를 중심으로, 단일 아키텍처 기반에서 폭넓은 제품 포트폴리오를 제공하는 것이다. 이를 통해 다양한 세그먼트별 수요와 가격대, 지역별 요구사항을 포괄할 수 있도록 설계했다”고 전했다.   PC를 넘어 온디바이스·에지 AI까지 영역 확장 인텔은 350개 이상의 독립 소프트웨어 공급업체(ISV)와 협력해서 500개 이상의 AI 기능에 최적화된 환경을 갖추고 있다고 전했다. 또한, 인텔의 오픈비노(OpenVINO) 툴킷을 통해 개발자들이 맞춤형 하드웨어 재작성 없이도 파이토치(PyTorch)나 라마(Llama) CCP 등 최신 생성형 AI 모델과 비전 모델을 즉시 배치하고 최적화할 수 있도록 지원한다. 예를 들어, 어도비 프리미어 프로(Adobe Premiere Pro)에서는 GPU 기반 AI를 통해 사용자가 입력한 설명만으로 원하는 미디어나 영상을 손쉽게 검색할 수 있다. 줌(Zoom)에서는 NPU를 활용하여 시스템 전력 소모를 줄이면서도 가상 링 조명 효과나 배경 어둡게 하기 등의 기능을 지원한다. 또한, 마이크로소프트와 긴밀히 협력해 코파일럿 플러스(Copilot+)의 차세대 AI 경험을 윈도우 11 생태계 전반에서 지원한다. 기업 환경에서는 클라우드로 데이터를 전송할 때 발생하는 보안 우려에 대해 민감할 수밖에 없다. 인텔은 “민감한 데이터는 기업 내부(로컬)에서 유지하면서 AI 기반 생산성 작업을 안전하게 수행할 수 있는 온디바이스 AI 환경을 제공한다”고 전했다. 인텔은 코어 울트라 시리즈 3를 통해 PC를 넘어 에지 AI(edge AI) 시장으로 확장한다는 계획도 소개했다. 스마트 공장, 스마트 시티, 헬스케어 등 에지 환경에서도 코어 울트라 시리즈 3의 AI 성능과 전력 효율을 그대로 활용할 수 있다는 것이다. 인텔은 코어 울트라 시리즈 3가 환경을 실시간으로 인지해야 하는 로보틱스나 품질 관리용 비전 언어 모델(VLM) 구동에 적합하다는 점을 내세운다. 뉴먼 총괄은 “경쟁사의 AI 가속기 설루션과 비교해 LLM 지연 시간(latency) 성능을 2배가량 높였으며, 영상 분석 애플리케이션에서 총소유비용(TCO)을 2배 이상 개선했다”면서, “외장 그래픽 카드 없이도 내장된 GPU와 NPU만으로 환경을 인지하고 기계를 정밀하게 제어할 수 있다”고 소개했다.     국내 AI 생태계 전략 및 비즈니스 비전 소개 최근 메모리 가격이 오르면서 PC 가격에 대한 부담이 커지고 있다. 인텔은 이런 우려에 대응하고 소비자의 다양한 세그먼트별 수요를 충족하기 위해, 시리즈 3 단일 아키텍처 기반의 폭넓은 제품 포트폴리오를 제공한다는 계획을 소개했다. 조쉬 총괄은 “이전 세대가 프리미엄 및 게이밍에 집중했다면, 시리즈 3은 다변화된 가격대와 지역별 요구사항을 모두 포괄할 수 있도록 설계해서 파트너사이 각자의 시스템 가격 목표에 맞춰 시장에 정밀하게 대응할 수 있도록 지원할 것”이라고 밝혔다. 인텔은 자사의 AI 기술력을 PC 디바이스에 한정짓지 않고 스마트 공장, 첨단 헬스케어 등 에지 AI 시장으로 확장하고 있다. 이 부분에서도 국내 파트너와의 협업을 추진 중인데, 대표적으로 스마트 공장 및 비전 인식 AI 분야에서는 LG이노텍과, 실시간 영상 진단 등 디지털 헬스케어 분야에서는 삼성메디슨과 협력하면서 에지 영역의 AI 컴퓨팅 생태계를 구축하고 있다. 인텔은 한국 시장을 AI PC 및 AI 반도체 생태계의 전략적 핵심 기지로 삼고 있다고 전했다. 인텔코리아의 배태원 사장은 “우리나라는 전 세계에서 새로운 기술을 가장 빠르게 수용하는 역동적인 시장으로, 인텔 코어 울트라 시리즈 3의 글로벌 첫 출시 국가 중 하나로 선정되었다. 실제로 2025년 기준 국내 주요 리테일 채널에서 판매된 인텔 칩 기반 AI PC 비중이 이미 40%를 넘어설 만큼 높은 수요를 보이고 있다”고 설명했다. 또한 삼성전자, LG전자 등 국내 주요 파트너와 협력해 폭넓은 AI PC 라인업을 제공하고, 생태계를 한 차원 더 도약시키겠다는 전략을 밝혔다. 최근 AI 반도체 트렌드에서 CPU, GPU뿐만 아니라 메모리의 중요성도 부각되고 있다. 인텔은 세계적인 메모리 선도 기업인 삼성전자와 SK하이닉스를 포함한 국내 AI 관련 생태계의 핵심 기업들과 협력을 지속하면서 AI 반도체 리더십을 탄탄히 다지겠다는 계획이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-03-05
[칼럼] 온톨로지 디지털 트윈 정보화 시대
디지털 지식전문가 조형식의 지식마당   최근 인공지능이 우리 삶의 모든 면을 급격하게 변화시키고 있다. 혹자는 이것을 인공지능 전환(AI transformation 또는 AX)이라고 말한다. 그러나 실상은 그 이상이다. 디지털 전환(digital transformation : DX)이 본격적으로 시작한 것도 몇 년 되지 않았는데 다시 인공지능 전환이라니, 대부분 정보기술 분야의 이해당사자들은 당혹스럽다. 디지털 전환의 시대에 정보기술 분야에 일하는 사람들은 약간 안도했을 수도 있다. 이것은 정보화에서 디지털 기술의 심화가 디지털 전환으로 받아들였기 때문이다. 그러나 인공지능 전환은 조금 결이 다르다는 것을 느낄 것이다. 초기에는 빅데이터 분석(big data analytics)과 머신러닝은 연결고리가 있었다. 또한 CAD/CAM/CAE 분야와 시뮬레이션(simulation) 그리고 디지털 트윈(digital twin)도 연결고리가 있다. 이 모든 패러다임의 데이터 기반(datadriven)과 폐쇄형 시스템(closed system)이라는 패러다임을 공유한다. 다시 말해서 데이터 수집(data collection)이 중요하고 데이터 정의(data definition)가 핵심이다.  그러나 인간의 사고를 흉내내는 언어 중심의 인공지능에서 의사결정 구조에서 맥락(context)이 없는 데이터는 경직되고 의사결정에서 쓸모 없는 경우가 많다. 기업의 경쟁력은 더 이상 단순히 데이터를 ‘많이 보유’하는 데서 나오지 않는다. 핵심은 데이터를 어떻게 구조화하고, 어떻게 의미를 부여하며, 어떻게 의사결정으로 연결하느냐에 있다. 전통적 데이터 웨어하우스는 스타 스키마(star schema)와 스노우플레이크 모델을 중심으로 발전해 왔다. 이 구조는 대규모 분석을 가능하게 했지만, 급변하는 비즈니스 환경—규제 변화, 가격 정책 수정, 구독 모델 전환, AI 기반 실험—을 따라가기에는 점점 한계를 드러내고 있다.   그림 1. 온톨로지와 그래픽 데이터베이스   이제 기업은 고정된 테이블 중심 사고에서 벗어나, 시맨틱 그래프 기반 온톨로지(ontology)로 전환하고 있다. 이 전환을 가속하는 기술이 바로 LLM(Large Language Model : 대형 언어 모델)이다. 기존의 산업용 정보기술(industrial IT)은 마치 ‘콘크리트 신발’을 신고 달리는 것과 같다. 구조는 단단하지만, 방향 전환은 느리다. 온톨로지는 데이터를 ‘테이블’이 아니라 의미 있는 객체(object)로 본다. ‘고객’, ‘주문’, ‘제품’은 더 이상 테이블이 아니라 그래프의 노드다. 관계는 조인이 아니라 방향성 링크(directed edge)다. 이 접근은 그래프 데이터베이스 및 시맨틱 기술 발전과 맞물려, 현대 데이터 아키텍처의 핵심으로 자리잡고 있다. 이전에는 인공지능 프로젝트가 없거나 온톨로지, 디지털 스레드와 디지털 트윈, 그래프 데이터베이스(graph database)를 결합하려는 시도가 없던 것은 아니다. 다만 개발자, 담당자, 도메인 전문가는 너무 힘든 작업과 시간과 비용의 소모전이기 때문에 성공할 수 없는 방법론이었다. 단지 거대 방위산업 회사만이 가능했다. 그러나 LLM이 보편화되면서 이 모든 것이 가능해졌다. 이 패러다임은 온톨로지 기반 디지털 트윈(ontology based digital twin) 정보화이다. 복잡하게 들리지만, 현재 팔란티어라는 회사가 사용하고 있는 방법이다.   그림 2. 게임 체인저 LLM, 구축 비용의 혁신   새로운 온톨로지 디지털 트윈 정보기술의 패러다임의 비즈니스 혁신 효과는 다음과 같다.   의사결정 민첩성 규제 변경, 가격 정책 전환, 제품 피봇 시 노드와 링크만 추가하면 확장 가능   분석 부채 감소 기존 핸드크래프트 파이프라인 붕괴 문제 해소 데이터 팀은 유지보수가 아닌 가치 창출에 집중   데이터 민주화 현업 담당자가 직접 질문 : “지난달 프리미엄 사용자의 평균 구매 빈도는?” 엔지니어 도움 없이도 탐색 가능   비용 효율 스타트업 : 엔터프라이즈급 모델링 확보 대기업 : 스키마 드리프트 관리 자동화   그림 3. 온톨로지 패러다임 비교   전략적 시사점은 LLM 기반 온톨로지 자동화는 단순 기술 도입이 아니다. 이는 기업 운영 체계의 구조적 재설계다. 핵심은 데이터 → 의미 → 의사결정 연결 구조 구축, 인간과 AI의 역할 명확화, 온톨로지를 운영 자산으로 관리, 질의 기반 학습 구조 설계, 장기적 데이터 지능 축적 전략 수립이다.   그림 4. 디지털 트윈 정보 모델   결론적으로, 데이터 민주화에서 의사결정 민주화로 움직이면서 LLM 기반 온톨로지 자동화는 단순히 모델링 비용을 줄이는 도구가 아니다. 이는 의미 중심 데이터 구조, 자가 최적화 파이프라인, 복리적 지식 축적, 조직 전체의 분석 역량 확장을 가능하게 한다. 결국 이는 데이터 민주화 → 분석 민주화 → 의사결정 민주화로 이어지는 전환이다. 여기서 말하는 민주화는 책임지는 사람이 결정하고, 의사결정 과정을 투명하게 공유하는 과정을 의미한다. 설명되지 않는 인공지능 도움에 의한 의사 결정은 리스크가 크다. 앞으로의 경쟁력은 데이터를 얼마나 많이 보유했는가가 아니라, 데이터를 얼마나 의미 있게 연결했는가에 달려 있다. 그리고 그 연결을 자동화하는 시대가 이미 시작되었다.   ■ 조형식 항공 유체해석(CFD) 엔지니어로 출발하여 프로젝트 관리자 및 컨설턴트를 걸쳐서 디지털 지식 전문가로 활동하고 있다. 현재 디지털지식연구소 대표와 인더스트리 4.0, MES 강의, 캐드앤그래픽스 CNG 지식교육 방송 사회자 및 컬럼니스트로 활동하고 있다. 보잉, 삼성항공우주연구소, 한국항공(KAI), 지멘스에서 근무했다. 저서로는 ‘ PLM 지식’, ‘서비스공학’, ‘스마트 엔지니어링’, ‘MES’, ‘인더스트리 4.0’ 등이 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-03-05