• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "추론"에 대한 통합 검색 내용이 492개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔–구글, 차세대 AI 및 클라우드 인프라 협력 확대
인텔과 구글은 차세대 AI와 클라우드 인프라 발전을 위해 다년간 협력하기로 했다. 양사는 이번 협력을 통해 최신 이기종 AI 시스템을 대규모로 구현하는 과정에서 중앙처리장치(CPU)와 주문형 인프라 처리 장치(IPU)의 역할을 강화한다는 계획이다. 최근 인공지능 도입이 빨라지면서 인프라는 더욱 복잡한 이기종 구조로 변하고 있다. 이에 따라 데이터 처리와 시스템 성능을 관리하기 위한 CPU 의존도가 높아지는 추세다. 인텔과 구글은 인텔 제온 프로세서의 여러 세대에 걸쳐 협력하며 구글의 글로벌 인프라 전반에서 성능과 에너지 효율, 총 소유 비용을 개선할 예정이다. 구글 클라우드는 최신 인텔 제온 6 프로세서를 탑재한 C4와 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스에 인텔 제온 프로세서를 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론과 범용 컴퓨팅까지 넓은 범위의 워크로드를 지원한다. 동시에 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU의 공동 개발을 확대하고 있다. 프로그래밍이 가능한 이 가속기는 호스트 CPU가 맡던 네트워킹, 스토리지, 보안 기능을 분담한다. 이를 통해 자원 활용도를 높이고 효율성을 개선하며 하이퍼스케일 AI 환경에서 더욱 예측 가능한 성능을 구현할 수 있다. IPU는 최신 데이터 센터 아키텍처의 핵심 요소로 꼽힌다. 기존 CPU가 담당하던 인프라 작업을 처리해 효율적인 컴퓨팅 성능을 제공하기 때문이다. 클라우드 서비스 제공업체는 이를 활용해 시스템 복잡성을 높이지 않고도 인프라를 확장할 수 있다. 제온 CPU와 IPU는 긴밀하게 통합된 플랫폼을 구성해 범용 컴퓨팅과 특정 목적에 특화된 가속 기능을 균형 있게 제공한다. 이번 협력 확대는 AI 시대에 필요한 개방적이고 확장 가능한 인프라를 발전시키려는 양사의 노력을 담고 있다. 인텔과 구글은 범용 컴퓨팅과 AI 시스템 설계에 특화된 가속 기능을 결합해 복잡성을 줄이고 효율적인 확장이 가능한 AI 시스템 설계 방식을 구현해 나갈 계획이다. 인텔의 립 부 탄 CEO는 “AI는 인프라 구축과 확장 방식을 재편하고 있다”면서, “AI 확장을 위해서는 가속기 이상의 균형 잡힌 시스템이 필수이며 CPU와 IPU는 최신 AI 워크로드가 요구하는 성능과 유연성을 제공하는 핵심 역할을 한다”고 설명했다. 구글 AI 인프라 부문의 아민 바흐다트 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습부터 배포까지 AI 시스템의 핵심 요소로 남아 있다”면서, “인텔은 20년 가까이 신뢰해 온 파트너로 인텔의 제온 로드맵을 통해 워크로드의 성능과 효율 요구 사항을 지속적으로 충족할 수 있을 것으로 확신한다”고 전했다.
작성일 : 2026-04-10
캐디안, 하노버 메세서 AI 설계 혁신 선보이며 글로벌 시장 공략
캐디안이 오는 4월 20일~24일 독일에서 열리는 산업 전시회 ‘하노버 메세 2026’에 참가한다고 밝혔다. 지난 3월 위즈코어로 사명을 변경한 캐디안은 KOTRA 한국관을 통해 AI 기술력을 선보이며 글로벌 CAD 시장 개편에 나선다는 계획이다. 이번 전시의 핵심은 AI 기반 설계 및 자동 적산 설루션인 ‘AI-CE(AI-Cost Estimation)’다. AI-CE는 이미지나 DWG 도면을 AI가 스스로 인식하고 추론해 도면 재생성과 객체 탐지, 자동 BOM 산출까지 원스톱으로 처리하는 기술이다. 기존 전문가의 수작업에 의존하던 노동 집약적 방식에서 벗어나 견적 산출의 정확도와 속도를 높였다는 점이 특징으로, 캐디안은  건설 및 제조 현장의 프리콘 역량을 극대화해 수주 경쟁력을 확보하는 핵심 전략 자산이 될 것으로 기대하고 있다.     주력 제품인 ‘캐디안 프로 2026(CADian Pro 2026)’과 ‘캐디안 클래식 2026(CADian Classic 2026)’도 함께 공개한다. 이 제품들은 오토캐드와 양방향 호환성을 갖췄으며, 친숙한 UI를 제공해 별도 교육 없이 즉시 실무에 적용할 수 있다. 캐디안 프로 2026은 표준 API를 지원해 반복 설계를 자동화하고 스마트 치수 기능을 통해 효율을 높였다. 2D 설계에 최적화된 캐디안 클래식 2026은 기존 자동화 자산을 그대로 활용할 수 있어 전환 리스크를 최소화했다. 특히 구독형 모델 중심의 시장에서 영구 라이선스 방식을 유지해 기업의 비용 부담을 80% 이상 절감하는 경제성을 확보했다. 캐디안은 단순 도구를 넘어 설계 데이터 기반의 ‘디지털 엔지니어링 플랫폼’ 비전을 선포한다. 스마트 공장과 디지털 전환 수요가 급증하는 글로벌 흐름에 맞춰 합리적 가격과 AI 기술력을 결합한 새로운 표준을 제시한다는 포부다. 캐디안 관계자는 “CAD는 이제 AI 기반 의사결정을 지원하는 지능형 플랫폼으로 진화하고 있다”면서, “이번 전시를 기점으로 유럽 등 글로벌 파트너십을 강화해 전 세계 제조 산업의 디지털 전환을 선도하겠다”고 밝혔다.
작성일 : 2026-04-10
뉴타닉스, 기업용 에이전틱 AI 서비스 강화하는 신규 기능 공개
뉴타닉스가 2026년 하반기 중에 뉴타닉스 에이전틱 AI(Nutanix Agentic AI) 설루션에 새로운 기능을 추가한다고 밝혔다. 이번 업데이트는 차세대 AI 클라우드 서비스 제공업체인 네오클라우드가 AI 엔지니어와 개발자에게 안전하고 확장 가능한 서비스를 제공할 수 있도록 돕는 데 초점을 맞췄다. AI 기술이 발전하면서 필요한 시점에 유연하게 GPU를 사용할 수 있는 네오클라우드 서비스가 주목받고 있다. 그동안 AI 수요는 대기업 중심의 학습 워크로드에 머물러 있었으나, 앞으로는 추론 성능을 확장하고 실제 운영 환경에서 에이전틱 AI 애플리케이션을 실행하는 방향으로 변화할 전망이다. 이에 따라 기업들은 보안과 성능을 갖추면서도 비용 효율적인 AI 플랫폼을 요구하고 있다. 뉴타닉스는 네오클라우드가 서비스형 GPU와 쿠버네티스를 넘어 에이전틱 AI 기반의 기업용 플랫폼 서비스까지 제공할 수 있도록 지원한다. 뉴타닉스 에이전틱 AI 설루션은 인프라의 복잡성을 줄이고 보안을 강화하며 토큰당 비용을 낮추도록 설계된 소프트웨어 스택이다. 여기에 새롭게 추가되는 멀티테넌트와 AI 관리 포털을 이용하면 서비스 업체는 자사 인프라를 바탕으로 고부가가치 AI 서비스를 제공할 수 있다. 사용자는 데이터와 인프라 운영에 대한 통제력을 높이면서 소버린 AI를 배포하는 것도 가능해진다. 이번 업데이트에는 뉴타닉스 서비스 프로바이더 센트럴을 통한 차세대 멀티테넌시 프레임워크가 포함된다. 이 프레임워크는 공유 AI 인프라를 대규모로 안전하게 운영하도록 돕는다. 물리적인 GPU 인프라 하나에서 여러 기업을 동시에 수용하면서도 데이터 격리와 보안을 보장하는 것이 특징이다. 서비스 구축자는 이를 통해 고객별로 리소스를 동적으로 할당하고 맞춤형 보안 정책을 적용할 수 있다. 뉴타닉스 클라우드 매니저의 기능도 개선된다. AI 인프라 모니터링 기능과 함께 사용량 기반 계량 기능을 추가하여 GPU 사용량이나 API 호출 횟수에 따라 고객에게 비용을 청구할 수 있게 된다. 서비스 업체는 단일 관리 인터페이스에서 인프라를 운영하며 수익을 창출할 수 있다. 뉴타닉스 에이전틱 AI의 신규 기능은 현재 일부 파트너를 대상으로 미리 제공되고 있으며 2026년 하반기에 정식 출시될 예정이다. 뉴타닉스의 토마스 코넬리 수석 부사장은 “데이터 통제권을 유지하며 AI를 활용하려는 기업이 늘면서 특화형 AI 클라우드 수요가 증가하고 있다”면서, “뉴타닉스 에이전틱 AI는 안전한 멀티테넌트 환경을 통해 서비스 업체가 공공 기관이나 기업에 첨단 AI 서비스를 신속하게 제공하도록 돕는다”고 설명했다.
작성일 : 2026-04-09
[엔지니어링 소프트웨어 업계 신년 인터뷰] PTC코리아 김도균 대표
제조 AI와 소프트웨어 파워에 관심높아… AI 투자로 초격차 이끌 것   지난해 국내 제조 산업은 하드웨어 중심에서 소프트웨어 중심(SDx)으로의 급격한 체질 개선과 AI 도입이라는 거대한 파도와 마주했다. 지난해 4월 PTC코리아에 합류한 김도균 대표에게 PTC가 그리는 ‘인텔리전트 제품 라이프사이클’의 비전과 2026년 사업 전략에 대해 들어보았다. ■ 최경화 국장     클라우드 및 보안 전문가로서 제조 IT 기업인 PTC에 합류하게 된 배경과 지난해의 소회가 궁금하다. 지난해 4월 PTC코리아 대표로 부임했으니 곧 1년이 되어간다. PTC코리아 합류 이전에는 클라우드플레어, 아카마이 등에서 클라우드와 보안, AI 인프라 사업을 주로 이끌었다. 당시 에지 서버나 AI 추론 영역을 다루며 AI 시대에는 결국 제조 현장이 가장 크게 변할 것이라는 확신을 갖게 되었다. PTC는 제조 엔지니어링 분야의 전통 강자이면서도, 최근 제조 AI와 소프트웨어 역량 강화에 적극적인 기업이다. 지난해는 PTC코리아 조직을 재정비하고, 하드웨어 제조 중심이었던 국내 고객들에게 소프트웨어와 하드웨어의 융합 필요성을 설파하며 새로운 성장의 발판을 마련한 해였다.   지난해 PTC 비즈니스에서 가장 두드러진 변화나 성과는? 가장 큰 변화는 ALM(애플리케이션 수명주기 관리) 설루션인 코드비머(Codebeamer)의 약진이다. 과거 제조 시장이 하드웨어 설계에 집중했다면, 지난해에는 자동차 산업을 필두로 소프트웨어 정의 차량(SDV) 트렌드가 확산되면서 하드웨어와 소프트웨어를 통합 관리해야 하는 수요가 빠르게 확대됐다. 소프트웨어 요구사항 정의부터 코딩, 테스트, 배포까지 관리하는 ALM은 이제 선택이 아닌 필수가 되었다. 특히 대기업을 중심으로 복잡한 요구사항을 중복 없이 관리하고 개발 비용을 절감하기 위해 코드비머를 도입하는 사례가 크게 늘었다. 이를 통해 PTC는 제조 소프트웨어 영역에서의 혁신 파트너로 존재감을 확대했다.   PTC의 전통적인 주력 분야인 CAD와 PLM, 기타 관련 비즈니스는 어떤지? 매출 비중으로 보면 여전히 CAD(크레오)와 PLM(윈칠)이 가장 큰 축을 담당하며 견고하게 성장하고 있다. 특히 PLM은 단순히 설계 데이터를 저장하는 PDM(제품 데이터 관리) 수준을 넘어, 전사적 데이터 관리의 핵심으로 진화했다. 반면 IoT(사물인터넷) 사업은 전략적인 변화가 있었다. 최근 자산운용사 TPG에 IoT 사업 부문을 매각하고 파트너십 형태로 전환하는 절차를 밟고 있다. 이는 PTC가 IoT 사업을 포기하는 것이 아니라, 핵심 역량인 CAD, PLM, ALM, SLM(서비스 수명주기 관리) 등 4대 핵심 설루션에 투자를 집중하고, IoT는 전문 파트너사를 통해 더 고도화된 지원을 제공하기 위함이다. ‘선택과 집중’ 전략을 통해 핵심 설루션을 강화해 나간다는 계획이다.   클라우드 네이티브 CAD인 온쉐이프와 기존 주력 제품인 크레오의 포지셔닝은 어떻게 가져갈 계획인지? 두 제품의 역할은 명확히 구분된다. 크레오(Creo)는 자동차 엔진이나 복잡한 설비처럼 고도의 정밀함과 대용량 데이터 처리가 필요한 작업에 최적화되어 있다. 물론 크레오도 ‘크레오 플러스(Creo+)’라는 클라우드 버전을 통해 협업 기능을 강화하고 있다. 반면, 온쉐이프(Onshape)는 SaaS PLM이라고 할 수 있는 아레나(Arena)와 함께 100% 클라우드 네이티브(SaaS) 제품이다. 설치 없이 웹 브라우저에서 바로 구동되기 때문에, 스타트업이나 로봇 개발처럼 빠른 속도와 협업이 중요한 제품 개발 분야에서 각광받고 있다. 실제로 지난 CES 2026에서 로봇을 출품한 기업들이 온쉐이프로 설계를 했다고 해서 놀라기도 했다. 제조 현장에서 클라우드 SaaS 환경에 대한 거부감이 생각보다 많이 사라졌음을 체감하고 있다.   엔지니어링 분야에서도 AI 도입이 화두다. PTC의 AI 전략은 타사와 무엇이 다른가? 많은 기업이 AI를 표방하지만 단순히 챗봇 형태의 요약 기능에 그치는 경우가 많다. PTC가 추구하는 AI는 ‘실질적인 엔지니어링 AI’다. 예를 들어, PLM 내에서 AI가 수만 가지 부품을 분석해 중복 부품을 찾아내고, 대체 가능한 표준 부품을 제안해 원가를 절감해준다. 또한, AI 에이전트(agent) 기술을 통해 서로 다른 시스템 간에 데이터를 주고받으며 자율적으로 업무를 수행하는 단계까지 로드맵을 가지고 있다. 설계자가 자연어로 명령하면 최적의 형상을 모델링해주는 생성형 설계(generative design)나, ALM에서 요구사항의 오류를 AI가 자동으로 검증하는 기능 등은 이미 제품에 탑재되어 현장에서 쓰이고 있다.   최근 새롭게 인수한 회사 및 이 인수가 PTC 비즈니스에 가져오는 변화를 소개한다면? 가장 핵심적인 인수는 제품 및 소프트웨어 변형(variant) 관리 설루션 기업인 퓨어시스템즈(Pure-systems)다. 이 회사의 주력 설루션인 퓨어 베리언츠(Pure Variants)는 복잡한 제조 환경에서 필수적인 PLE(Product Line Engineering : 제품 라인 엔지니어링) 기능을 제공한다. 쉽게 설명하자면, 자동차나 가전제품을 만들 때 수만 가지의 파생 모델이 존재한다. 과거에는 모델마다 설계를 따로 관리했다면, 이제는 공통된 소프트웨어와 하드웨어 자산을 플랫폼화하고, 각기 다른 고객의 요구사항이나 옵션에 맞춰 변형된 부분만 효율적으로 관리해야 한다. 퓨어시스템즈 인수를 통해 PTC는 급성장하는 ALM 설루션 코드비머에 강력한 변형 관리 기능을 통합하게 되었다. 이를 통해 SDV 전환이 시급한 자동차 산업이나 규제가 까다로운 의료기기, 항공우주 분야에서 제품의 소프트웨어 구성부터 테스트, 검증까지 전 과정을 하나의 시스템으로 추적하고 관리할 수 있게 되었다. 이는 PTC가 단순히 설계 툴을 파는 회사가 아니라, 제조 소프트웨어의 복잡성을 해결해 주는 파트너로 차별화된 경쟁력을 확보하는데 기여할 것으로 기대하고 있다.   최근 엔비디아와의 파트너십 강화가 눈에 띈다. 어떤 시너지를 기대하는지? 엔비디아와의 협력은 옴니버스(Omniverse) 기술 통합이 핵심이다. PTC의 설계 데이터(CAD/PLM)를 별도의 변환 없이 실시간으로 시뮬레이션하고 시각화할 수 있는 환경을 구축했다. 이는 디지털 트윈을 넘어선 개념으로, 엔비디아 역시 자체 공장과 제품 설계에 PTC 설루션을 사용하고 있을 만큼 양사의 관계는 끈끈하다. 이 협력을 통해 고객들은 고성능 AI 인프라나 복잡한 제품을 설계할 때 향상된 속도와 정확성을 경험하게 될 것이다.   제조업계는 보안 이슈로 인해 클라우드 도입에 보수적인 것으로 알려져 있다. 최근의 분위기는 어떤지? 확실히 분위기가 달라졌다. 결국 AI는 ‘데이터 싸움’이다. 데이터를 한곳에 모으고 잘 저장해둬야 AI를 제대로 활용할 수 있는데, 이를 위한 가장 효율적인 기반이 바로 클라우드이기 때문이다. 과거에는 클라우드 전환을 꺼리던 대형 제조사들도 이제는 AI 도입을 전제로 클라우드 마이그레이션을 굉장히 활발하게 검토하고 있다. 물론 모든 시스템을 한 번에 클라우드로 옮길 수는 없다. 그래서 PTC는 고객 상황에 맞춰 하이브리드 접근을 제안하거나, 단계적인 클라우드 설루션을 제공하고 있다.   올해 PTC코리아가 주목하고 있는 시장이나 기술 이슈는 무엇인가? 올해는 방산과 의료기기 분야를 집중 공략할 계획이다. 글로벌 시장에서는 이미 록히드 마틴 같은 거대 방산 기업이 PTC 설루션을 표준으로 사용하고 있다. 최근 ‘K-방산’의 위상이 높아진 만큼, 국내 방산 기업들의 디지털 혁신을 적극 지원하고자 한다. 헬스케어 분야 역시 웨어러블 기기나 정밀 의료기기 설계 수요가 늘어나며 큰 기회가 되고 있다. 또한, 지역적으로는 부산, 경남 지역 등을 지원하기 위한 영남 지사 개소를 준비 중이다. 경남권의 거대 제조 벨트를 밀착 지원하기 위해 다시 영남권 거점을 마련하여 고객 접근성을 높일 예정이다.   올해 PTC코리아의 비즈니스 목표와 포부에 대해 소개한다면? 최근 5년간 매년 두 자릿수 성장을 이어왔는데, 올해도 높은 성장을 기대하고 있다. AI 기능이 탑재된 신제품에 대한 시장 반응 또한 긍정적으로, 지난 12월 진행한 행사에서도 예상을 뛰어넘는 고객들이 몰렸다. 2026년에는 이러한 성과를 바탕으로 클라우드 및 구독형 엔지니어링 소프트웨어 전환을 본격 가속화할 계획이다. 내부적으로는 영업, 기술, 마케팅 인력을 확충하고 파트너 생태계를 강화하여 고객들이 PTC의 기술을 더 쉽고 깊이 있게 활용할 수 있도록 지원할 것이다. 단순한 설루션 공급사를 넘어 대한민국 제조업의 지능형 혁신을 이끄는 동반자가 되겠다.     ■ '2025 국내 엔지니어링 소프트웨어 시장조사'에서 더 많은 내용이 제공됩니다.
작성일 : 2026-04-06
알리바바, 스스로 코딩하고 영상 읽는 차세대 AI 모델 2종 공개
알리바바는 복잡한 소프트웨어 개발을 스스로 해내는 큐웬3.6-플러스(Qwen3.6-Plus)와 텍스트, 음성, 영상 등 다양한 매체를 한 번에 처리하는 큐웬3.5-옴니(Qwen3.5-Omni) 등 인공지능 모델 2종을 공개했다. 큐웬3.6-플러스는 에이전틱 코딩과 멀티모달 추론에 특화한 모델이다. 단순히 질문에 답하는 수준을 넘어, 소프트웨어 저장소 단위의 엔지니어링 작업과 시각 정보를 바탕으로 한 문제 해결을 수행한다. 이 모델의 핵심은 인식과 추론, 행동을 하나의 흐름으로 연결하는 능력 루프 구조다. 이를 통해 코드 구상부터 테스트, 반복 개선을 거쳐 실제 적용할 수 있는 결과물을 만드는 과정을 지원한다. 특히 웹 개발 과정에서 목표 분해부터 최종 정제까지 전 과정을 자율적으로 처리하며 100만 토큰의 컨텍스트 창을 지원한다. 시각적 코딩 기능을 활용하면 화면 캡처나 손으로 그린 도안을 해석해 실제 동작하는 코드로 바꿀 수도 있다. 알리바바는 이 모델이 리테일 인텔리전스나 자동화 검사처럼 단계별 실행이 필요한 기업 환경에서 안정성과 정확도를 높였다고 설명했다. 큐웬3.6-플러스는 모델 스튜디오와 큐웬 챗에서 사용할 수 있으며 향후 일부 모델은 오픈소스로도 제공할 계획이다. 함께 공개한 큐웬3.5-옴니는 텍스트와 음성, 이미지, 영상을 단일 모델에서 통합 처리하는 옴니모달 인공지능이다. 여러 유형의 데이터를 하나로 통합해 실시간 상호작용 역량을 높인 것이 특징이다. 라이브 스트리밍이나 지능형 음성 비서, 영상 자막 생성 등 다양한 분야에 활용할 수 있다. 큐웬3.5-옴니는 플러스, 플래시, 라이트 세 가지 버전으로 나뉘며 모두 최대 25만 6000 토큰 컨텍스트를 지원한다. 알리바바는 “최상위 모델인 큐웬3.5-옴니-플러스가 200개 이상의 성능 평가에서 최고 수준을 기록했으며, 음성 이해와 추론 등 여러 영역에서 제미나이 3.1 프로보다 우수한 성능을 보였다”고 밝혔다. 이 모델은 10시간 이상의 연속 오디오를 처리할 수 있으며 113개 언어의 음성 인식과 36개 언어의 음성 생성을 지원한다. 영상 콘텐츠를 장면 단위로 나누거나 등장인물의 관계를 포함한 대본 수준의 설명을 만드는 것도 가능하다. 또한 오디오-비주얼 바이브 코딩 기능을 통해 사용자가 스케치를 보여주며 음성으로 설명하면 앱이나 웹사이트용 화면을 즉석에서 만들어낸다. 실시간 대화 시에는 목소리 크기와 속도, 감정을 세밀하게 조절해 자연스러운 소통을 돕는다.
작성일 : 2026-04-06
구글, 용량 대비 성능 높인 오픈 AI 모델 ‘젬마 4’ 공개
구글이 지능적인 오픈 AI 모델인 ‘젬마 4(Gemma 4)’를 선보인다. 젬마 4는 고급 추론과 에이전트 기반 워크플로를 위해 특수 설계되었으며, 파라미터당 높은 수준의 지능을 제공하는 것이 특징이다. 구글은 첫 번째 버전을 출시한 이후 개발자들이 젬마를 4억 회 이상 다운로드했으며, 10만 개 이상의 변형 모델로 구성된 젬마버스 생태계를 구축해 왔다고 밝혔다. 젬마 4는 이러한 개발자들의 요구를 반영해 AI의 가능성을 확장하는 방향으로 개발되었다. 구글은 개발자 생태계를 지원하기 위해 젬마 4를 상업적 활용이 가능한 아파치 2.0 라이선스로 제공한다고 밝혔다.  이 모델은 제미나이 3와 동일한 연구 및 기술을 기반으로 한다. 이용자의 하드웨어에서 직접 실행할 수 있는 강력한 성능을 갖췄으며, 개방형 모델과 폐쇄형 툴을 아우르는 조합을 제공한다. 구글은 젬마 4를 네 가지 크기로 제공한다. 효율성을 강조한 E2B(Effective 2B)와 E4B(Effective 4B), 그리고 대형 모델인 26B MoE와 31B Dense로 구성된다. 구글에 따르면 31B 모델은 업계 표준인 아레나 AI 텍스트 리더보드에서 오픈 모델 기준 3위를 기록했으며, 26B 모델은 6위에 올랐다. 젬마 4는 20배 큰 모델보다 우수한 성능을 보이기도 한다. 이러한 성능 향상을 통해 개발자는 적은 하드웨어 자원으로도 높은 수준의 AI 기능을 구현할 수 있다. 특히 에지 컴퓨팅 환경에서는 E2B와 E4B 모델이 온디바이스 활용성을 확장하며 멀티모달 기능과 낮은 지연 시간을 지원한다.   ▲ 4월 1일 기준 Arena.ai 챗 아레나에서 오픈 모델 성능 대비 크기 비교(출처 : 구글)   젬마 4는 안드로이드 기기부터 노트북 GPU, 개발자 워크스테이션까지 다양한 하드웨어에서 효율적으로 실행되고 미세 조정될 수 있도록 설계되었다. 주요 특징으로는 다단계 계획 수립이 가능한 고급 추론 기능과 함수 호출 및 구조화된 JSON 출력을 지원하는 에이전트 기반 워크플로가 꼽힌다. 또한 고성능 오프라인 코드 생성 역량을 갖춰 개인 워크스테이션을 AI 코드 어시스턴트로 활용할 수 있다. 모든 모델은 비디오와 이미지를 기본 처리하며 140개 이상의 언어를 지원한다. 컨텍스트 윈도는 모델 크기에 따라 128K에서 최대 256K까지 제공한다. 하드웨어 환경에 따른 최적화도 이루어졌다. 26B 및 31B 모델은 개인용 컴퓨터에서 오프라인 기반의 높은 지능을 구현한다. 단일 80GB 엔비디아 H100 GPU나 일반 소비자용 GPU에서도 구동이 가능하다. 모바일과 IoT 기기를 위한 E2B 및 E4B 모델은 메모리 사용량과 배터리 소모를 최소화하도록 설계되었다. 픽셀 팀과 퀄컴, 미디어텍 등 하드웨어 파트너와의 협업을 통해 스마트폰과 라즈베리 파이 등에서도 지연 시간 없이 오프라인으로 실행된다. 신뢰성과 안전성 측면에서도 구글의 독점 모델과 동일한 보안 프로토콜이 적용된다. 개발자는 구글 AI 스튜디오나 구글 AI 에지 갤러리에서 젬마 4를 직접 탐색할 수 있으며, 허깅 페이스, 캐글, 올라마 등을 통해 모델 가중치를 다운로드할 수 있다. 구글 클라우드의 버텍스 AI와 클라우드 런 등을 통한 서비스 확장도 가능하며, 엔비디아와 AMD GPU 등 다양한 하드웨어 플랫폼에서 최적화된 성능을 제공한다.
작성일 : 2026-04-03
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
일일이 챙기지 않아도 AI가 알아서… 오라클, ‘스스로 일하는’ 기업용 앱 공개
오라클이 기업의 업무 방식을 재정의하는 퓨전 에이전틱 애플리케이션(Fusion Agentic Applications)을 발표했다. 이 애플리케이션은 성과 지향적이며 추론에 기반해 선제적으로 작동하는 AI 에이전트 팀이 서로 협업하는 새로운 엔터프라이즈 소프트웨어 제품군이다. 오라클 퓨전 클라우드 애플리케이션에 내장된 이 서비스는 기업 내부의 데이터와 워크플로, 승인 체계 등에 안전하게 접근해 비즈니스 프로세스 안에서 직접 의사결정을 내리고 실행한다. 기존의 AI 어시스턴트와 달리 트랜잭션 시스템에서 기본으로 제공되어 기업 규모의 실시간 작업이 가능하다는 점을 특징으로 내세운다. 오라클은 퓨전 에이전틱 애플리케이션이 단순한 기록 시스템을 넘어 설정된 비즈니스 목표를 달성하기 위해 직접 판단하고 행동하는 단계로 발전했다고 설명했다. 오라클의 스티브 미란다 부사장은 “기존의 업무 방식은 프로세스 관리에 너무 많은 시간이 소모되어 오늘날의 비즈니스 속도에 부합하지 않는다”면서,  “이번 애플리케이션은 기업이 더 빠르게 성과를 창출하고 전략적 활동에 집중하도록 도울 것”이라고 밝혔다.     이 애플리케이션은 구체적인 역할과 전문성을 가진 AI 에이전트 그룹으로 구성된다. 에이전트들은 목표 달성을 위해 어떤 업무를 언제 수행해야 하는지 스스로 판단하며 기존 보안 프레임워크 내에서 자율적으로 움직인다. 사람은 결과가 크게 달라질 수 있는 예외 사항이나 중요한 의사결정 단계에만 관여하게 된다. 이를 통해 기업은 업무 진행 과정에서 사용자가 상황을 반복해서 설명할 필요 없이 지속적인 맥락을 유지하며 업무를 추진할 수 있다. 현재 오라클은 재무, 인사(HR), 공급망, 고객 경험 분야에서 활용 가능한 22개의 신규 에이전틱 애플리케이션을 제공하고 있다. 워크포스 오퍼레이션즈(Workforce Operations) 에이전틱 애플리케이션은 인사 관리자가 데이터 수집 시간을 줄이고 급여 관련 문제를 예방하도록 돕는다. 공급망 분야에서는 디자인 투 소스 워크스페이스(Design-to-Source Workspace) 에이전틱 애플리케이션을 통해 제품 비용과 규제 준수 위험을 낮출 수 있다. 영업 팀을 위한 크로스셀 프로그램 워크스페이스(Cross-Sell Program Workspace) 에이전틱 애플리케이션은 성장 기회를 선제적으로 파악해 고객 유치 비용을 절감하며, 재무 팀용 콜렉터스 워크스페이스(Collectors Workspace) 에이전틱 애플리케이션은 대금 회수를 가속화해 현금 흐름을 개선한다. 이러한 서비스는 오라클 클라우드 인프라스트럭처(OCI)에서 거대 언어 모델(LLM)을 기반으로 구동된다. 오라클은 기업이 직접 AI 자동화 시스템을 구축할 수 있도록 오라클 AI 에이전트 스튜디오(Oracle AI Agent Studio)도 함께 지원한다. 기업은 에이전틱 애플리케이션 빌더(Agentic Applications Builder)를 활용해 복잡한 개발 과정 없이도 오라클이나 파트너사의 에이전트를 연결해 사용할 수 있다. 오라클은 가시성과 투자 대비 효과 측정, 안전 제어 기능을 통해 에이전트가 대규모 환경에서도 안전하게 가치를 창출할 수 있다고 덧붙였다.
작성일 : 2026-03-31
가트너 “AI 토큰 단가 하락해도 기업의 비용 부담은 지속될 것”
가트너가 2030년까지 1조 개 파라미터를 보유한 거대 언어 모델(LLM)의 추론 비용이 2025년과 비교해 90% 이상 줄어들 것이라는 전망을 내놓았다. 생성형 AI 모델이 처리하는 기본 데이터 단위인 AI 토큰은 이번 분석에서 약 3.5바이트로 정의되었다. 가트너는 반도체와 인프라의 효율 개선, 모델 설계 혁신, 추론 특화 반도체 확대 등에 힘입어 2030년에는 LLM의 비용 효율이 2022년 초기 모델 대비 최대 100배까지 좋아질 것으로 내다봤다. 가트너는 이번 비용 분석을 위해 최첨단 반도체 기반의 프런티어 시나리오와 기존 반도체를 혼합해 사용하는 레거시 혼합 시나리오를 활용했다. 분석 결과 레거시 혼합 시나리오는 연산 성능이 상대적으로 낮아 프런티어 시나리오보다 비용이 상당히 높은 것으로 나타났다.   ▲ 가트너의 생성형 AI 추론 비용 시나리오 전망   하지만 토큰 단가가 떨어진다고 해서 기업의 AI 관련 비용이 곧바로 줄어들지는 않을 것으로 보인다. 고도화된 AI 기능일수록 더 많은 토큰을 사용하는 구조적 특성 때문이다. 가트너의 분석에 따르면 AI 에이전트는 기존 챗봇보다 작업당 최소 5배에서 최대 30배 많은 토큰을 필요로 한다. 토큰 단가의 하락 속도보다 토큰 사용량의 증가 속도가 더 빠르기 때문에, 전체적인 추론 비용은 오히려 늘어날 가능성이 크다. 가트너의 윌 소머 시니어 디렉터 애널리스트는 “제품 총괄 책임자는 범용 토큰 가격의 하락을 고급 추론 역량의 대중화로 오해해서는 안 된다”고 강조했다. 기본적인 AI 기능은 비용이 거의 들지 않는 수준이 되겠지만, 고급 추론을 위한 컴퓨팅 자원과 시스템은 여전히 희소하다는 설명이다. 그는 이어 “저렴한 토큰 비용에 의존해 아키텍처의 비효율을 방치하는 기업은 향후 에이전트 기반 AI를 확장하는 단계에서 한계에 부딪힐 것”이라고 경고했다. 가트너는 앞으로 다양한 모델 포트폴리오 사이에서 업무 부하를 효율적으로 조정하는 플랫폼의 가치가 높아질 것이라고 전망했다. 자주 반복되는 업무는 소형 모델이나 도메인 특화 모델로 처리하고, 비용이 많이 드는 프런티어급 모델은 복잡하고 가치가 높은 추론 작업에만 선택적으로 활용해야 한다는 전략이다. 이러한 멀티 모델 운영 방식은 특정 작업 흐름에서 범용 모델보다 낮은 비용으로 더 뛰어난 성능을 제공할 수 있다.
작성일 : 2026-03-30