• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "LLM"에 대한 통합 검색 내용이 410개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HP Z2 미니 G1a 데스크톱 제품 리뷰어 모집
캐드앤그래픽스에서 HP Z2 Mini G1a 데스크톱 성능을 체험 리뷰하실 리뷰어를 찾습니다. 리뷰 기사는 캐드앤그래픽스 2025년 10월호에 실릴 예정이며, 리뷰용 제품을 받으신 후 실제로 사용해 보시고, 9월 12일(금요일)까지 리뷰 원고를 보내 주시면 됩니다. (Z2 Mini G1a 데스크탑과 24인치 모니터 배송 예정) 잡지에 실리는 리뷰 기사에 대해서는 소정의 원고료를 드립니다. 리뷰를 원하시는 분은 간단한 자기소개 및 사용하시는 소프트웨어에 관한 내용을 메일(cadgraphpr@gmail.com)로 보내주세요. - 제목 :  HP Z2 미니 G1a 리뷰어 지원 - 보내실 내용 : 간단 약력 등 자기소개, 사용 소프트웨어, 전화/메일/소속 (참고할 만한 기고 이력이나 블로그 링크 등 있을 경우 같이 기재) - 모집기간 : 선정시(선착순, 이력 검토 후 선정) - 모집 마감되었습니다. 문의 : 02-333-6900 리뷰어 모집 대상  :  제조, 건축, 엔지니어링 분야 엔지니어(캐드, CAE, 3D 디자인 및 렌더링 등 사용자)     ------------------------------------------------------------------------------------------------------ HP Z2 Mini G1a 데스크톱 워크스테이션 소개   HP Z2 Mini G1a는 컴팩트한 크기에 강력한 성능을 담은 미니 워크스테이션으로, 복잡한 3D 디자인, 그래픽 프로젝트, 로컬 AI 모델(LLM) 환경에 적합합니다. 최고 사양의 AMD Ryzen™ AI Max+ PRO 시리즈 프로세서(최대 16코어/32스레드, 5.1GHz 부스트, 64MB 캐시)가 장착되며, 내장 그래픽(최대 AMD Radeon™ 8060S)을 통해 별도의 외장 GPU 없이도 GPU 가속 3D 작업 및 AI 추론을 실행할 수 있습니다. 최대 128GB LPDDR5x 통합 메모리 중 96GB까지 그래픽 갯수에 할당 가능하므로, 여러 개 전문 애플리케이션을 동시에 실행해도 병목 현상이 적습니다. 스토리지는 NVMe M.2 SSD 슬롯 2개를 사용해 최대 8TB까지 확장 가능하며, RAID 0/1을 지원합니다. 연결성도 우수합니다. Thunderbolt™ 4 USB-C 포트, Mini DisplayPort 2.1, 10GbE LAN, Wi-Fi 7 등 최신 포트를 모두 지원하며, 내부 전원 어댑터(300W 내장)로 외부 어댑터 없이 간결한 설치가 가능합니다. 냉각 설계는 대형 방열판과 팬 조합, 3D 메쉬 흡기 구조 등으로 내부 발열을 최소화합니다. 시스템 RAM은 납땜되어 교체는 불가능하지만, 두 개의 PCIe Gen4 M.2 슬롯으로 저장장치 확장이 자유롭습니다. Geekbench 6 기준 CPU 멀티코어 점수 약 17,210점, GPU OpenCL 점수 91,591점을 기록하며, 최신 워크스테이션 수준의 성능을 입증했습니다. ISV 인증과 HP Wolf Security(BIOS~OS)로 전문적인 워크플로우와 기업 보안, 안정성까지 제공합니다. 작은 공간, 고성능 AI·그래픽 작업, 3D 디자인, 콘텐츠 크리에이션, 엔터프라이즈 환경에 모두 어울립니다. 공식 제품 정보는 HP 웹사이트(https://www.hp.com/kr-ko/workstations/z2-mini-a.html)에서 확인할 수 있습니다.     참고 후기 HP Z북 울트라 G1a 리뷰 (1) - AI 크리에이터와 3D 작업을 위한 최적화 HP Z북 울트라 G1a 리뷰 (2) - 설계 엔지니어 관점에서 본 고성능 노트북
작성일 : 2025-08-13
가트너, ‘2025 AI 하이프 사이클’에서 AI 에이전트와 AI 레디 데이터에 주목
가트너(Gartner)가 ‘2025 AI 하이프 사이클(2025 Gartner Hype Cycle for Artificial Intelligence)’ 보고서를 통해 주목해야 할 주요 AI 혁신 기술을 발표했다. 가트너는 2025년 가장 빠르게 발전하는 기술로 ‘AI 에이전트(AI Agents)’와 ‘AI 레디(AI-Ready) 데이터’를 꼽았다. 이들 기술은 올해 높은 관심을 받고 있으며, 낙관적인 전망 및 투기적인 약속이 이어지면서 부풀려진 기대의 정점에 도달한 것으로 나타났다. 가트너 하이프 사이클은 기술 및 애플리케이션의 성숙도와 도입 현황을 시각적으로 표현하고, 실제 비즈니스 문제 해결 및 새로운 기회 창출과의 잠재적 연관성을 제시한다. 이 방법론은 시간 흐름에 따른 기술 또는 애플리케이션 발전 과정을 조망하고, 특정 비즈니스 목표의 맥락에서의 효과적인 도입 관리를 위한 신뢰 있는 인사이트를 제공한다.     AI 에이전트는 AI 기술을 활용해 디지털, 물리 환경에서 인지하고, 의사결정을 내리며, 행동을 수행하고 목표를 달성하는 자율 또는 반자율 소프트웨어다. 기업은 대형 언어 모델(LLM)을 비롯한 다양한 AI 기술과 사용 사례를 활용해 복잡한 작업을 수행할 수 있는 AI 에이전트를 개발 및 배포하고 있다. AI 레디 데이터는 데이터 세트가 AI 애플리케이션에 최적화되도록 보장해 정확성과 효율성을 향상시킨다. 데이터의 준비 상태는 특정 AI 사용 사례에 대해 얼마나 적합한 데이터인지로 결정되며, 이는 해당 사용 사례와 AI 기술 맥락에서 결정될 수 있다. 이는 데이터 관리에 대한 새로운 접근 방식을 요구한다. 가트너는 AI에 대규모로 투자하는 기업이 데이터 관리 관행과 역량을 AI 환경에 맞게 발전시켜야 한다고 조언했다. 이를 통해 기존 및 향후 비즈니스 요구사항 충족, 신뢰 확보, 위험 및 준수 문제 방지, 지적 재산 보호, 편향과 환각 감소를 달성할 수 있다고 전했다. 또한, 가트너는 ‘멀티모달(Multimodal) AI’와 ‘AI 신뢰, 위험, 보안 관리(TRiSM)’가 향후 5년 내 AI 혁신 기술의 주류가 될 것이며 부풀려진 기대의 정점을 주도하고 있다고 분석했다. 이러한 기술 발전은 보다 강력하고 혁신적이며 책임감 있는 AI 애플리케이션을 구현해 기업의 운영 방식을 변화시킬 것으로 전망된다. 멀티모달 AI는 이미지, 비디오, 오디오, 텍스트 등 여러 유형의 데이터를 동시에 학습하는 모델이다. 다양한 데이터 소스를 통합하고 분석함으로써 단일 유형의 데이터만 사용하는 모델보다 복잡한 상황을 더 효과적으로 이해할 수 있다. 이를 통해 사용자에게 더 명확한 정보를 제공하고 AI 애플리케이션의 새로운 가능성을 열 수 있다. 가트너는 멀티모달 AI가 향후 5년 동안 모든 산업 분야의 애플리케이션과 소프트웨어 제품의 성능 향상에 점점 더 필수 요소로 자리 잡을 것으로 전망했다. AI TRiSM은 윤리적이고 안전한 AI 도입을 위한 핵심 기술 프레임워크이다. 이는 모든 AI 사용 사례에 대한 기업 정책을 지원하고, AI 거버넌스, 신뢰성, 공정성, 안전성, 보안, 개인정보 보호, 데이터 보호를 보장하는 기술 계층으로 구성되어 있다. 가트너의 하리타 칸다바투(Haritha Khandabattu) 시니어 디렉터 애널리스트는 “올해도 AI에 대한 투자가 활발하게 이어지는 가운데 운영 확장성, 실시간 인텔리전스를 위한 AI 활용이 주목받고 있다”며, “생성형 AI 중심에서 AI 에이전트, AI 레디 데이터와 같은 지속 가능한 AI 제공을 지원하는 기반 기술로 이동하는 추세”라고 전했다. 이어서 칸다바투 시니어 디렉터 애널리스트는 “AI는 막대한 비즈니스 잠재력을 가지고 있지만 이는 저절로 실현되지 않는다. 목표 달성을 위한 핵심은 비즈니스와 연계된 파일럿 프로젝트, 인프라 벤치마킹, 가치 창출을 위한 AI와 비즈니스 팀 간 협력”이라고 강조했다.
작성일 : 2025-08-06
PINOKIO가 선보이는 스마트 공장 기술과 사례
생산 계획부터 운영까지 혁신하는 스마트 제조   제조 산업은 빠르게 변화하고 있으며, 이에 따라 생산성 향상과 유연한 운영을 위한 혁신이 요구되고 있다. 스마트 제조는 이러한 요구를 충족시키는 해답으로, 특히 생산 계획과 운영 단계의 최적화는 전체 공정 효율성에 큰 영향을 미친다. 이번 호에서는 스마트 제조 구현을 위한 핵심 전략으로서 생산 계획 및 운영을 혁신할 수 있는 ‘PINOKIO(피노키오)’ 설루션을 제시한다.   ■ 자료 제공 : 이노쏘비, www.pinodt.com   제조 산업 전반에서 디지털 트윈 기술이 핵심 전략으로 떠오르고 있다. 차세대 물류 디지털 트윈 설루션을 지향하는 PINOKIO는 최신 기술 흐름을 반영해 개발된 설루션으로, 기존 상용 시스템이 지닌 한계를 극복하고 스마트 제조 전환을 가속화하는 데 최적화된 기능을 제공한다. 기존의 디지털 전환(DX) 설루션이 주로 3D 모델링 및 시뮬레이션 등 기초 단계의 디지털 트윈 기술에서 출발한 반면, PINOKIO는 개발 목적을 현장의 대용량 데이터를 기반으로 실시간 물류 모니터링과 시뮬레이션 제공을 목표로 설계되었다. 이러한 기술적 차별성을 바탕으로 PINOKIO는 SK하이닉스, LG전자 등 대규모 혼류 생산 제조 현장에서 정합성과 예측 정확도 측면에서 검증을 완료했으며, 실제 도입을 통해 생산성과 운영 효율성 향상 등 실질적 성과를 입증했다. 최근에는 고성능 시뮬레이터까지 제품 라인업에 포함되면서, 기존 상용 설루션 대비 향상된 성능과 확장성을 갖춘 디지털 트윈 시스템으로 자리매김하고 있다. PINOKIO는 앞으로도 다양한 산업군의 요구에 대응하며, 제조업의 스마트화를 실현하는 핵심 플랫폼으로의 성장을 이어갈 계획이다.   제품 소개 AI 기반 제조 물류 혁신을 위한 디지털 트윈 플랫폼 PINOKIO는 전통적인 시뮬레이션을 넘어 시뮬레이터, 디지털 트윈, AI 에이전시를 통합한 차세대 DES(이산 이벤트 시뮬레이션) 기반 플랫폼으로, 제조 물류 전반에 걸친 통합 설루션을 제공한다.  PINOKIO는 세 가지의 핵심 모듈로 구성된다. 첫 번째, 물류 시뮬레이터 설루션 ‘Pino SIM(피노 SIM)’이다. 이는 공정 흐름 설계부터 시뮬레이션, 결과 분석까지 지원하는 시뮬레이터로, ‘Pino Editor(피노 에디터)’라는 내장 도면 편집기와 레이아웃 설계 도구를 포함한다. 단순한 시뮬레이션을 넘어 제조 기준정보 입력, 물류 시나리오 구성, 시뮬레이션 실행 및 시각화 분석까지 포괄적인 기능을 제공한다. 두 번째, 실시간 디지털 트윈 설루션 ‘Pino DT(피노 DT)’다. MES, IoT, PLC, 센서 등 다양한 제조 운영 시스템과 인터페이스하여 대용량 데이터를 실시간으로 수집·처리하며, 실시간 모니터링, 미래 예측, 예지 보전 시뮬레이션까지 가능하다. 이는 생산 현장의 가시성과 대응력을 높이고 의사결정에 도움을 준다. 세 번째는 인공지능 기반의 ‘Pino AI(피노 AI)’다. 대규모 언어 모델(LLM)과 전문 특화 언어 모델(sLLM)을 활용한 대화형 UI를 통해 사용자는 데이터를 직관적으로 분석하고 의사결정에 활용할 수 있다. 또한 강화학습, 파라미터 최적화 등 다양한 AI 기법이 적용 가능해, 생산성과 품질 향상을 동시에 실현할 수 있다. 확장성 면에서도 PINOKIO는 주목할 만하다. 최근에는 엔비디아 옴니버스(NVIDIA Omniverse)와 같은 고급 시각화 플랫폼과의 연동을 지원하며, 파이썬(Python) 기반 개발 환경 확장도 가능해 사용자 맞춤형 라이브러리 개발이 용이하다. PINOKIO 설루션을 통해 제조 기업은 공정 및 물류의 사전 최적화, 실시간 생산 모니터링, 미래 예측, AI 기반 고도화 등 다양한 지능형 서비스를 구현할 수 있다.   PINOKIO의 특징 Pino SIM은 디지털 트윈 구축 시 미래 예측 시뮬레이터 역할을 수행할 뿐만 아니라, 공장 신설이나 생산 라인 변경 등 제조 현장의 변화가 필요한 상황에서 사전 물류 계획 수립과 최적 레이아웃 구성을 지원한다. 이를 통해 공정의 효율성과 안정성 확보를 가능케 하며, 제조 현장의 디지털 전환을 실질적으로 이끄는 핵심 도구로 자리잡고 있다.   그림 1. Pino SIM 작업 과정   Pino DT는 자체 개발한 최적화 시뮬레이션 및 모니터링 엔진을 기반으로, 실시간 데이터에 기반한 정밀한 의사결정과 미래 예측을 가능하게 하는 디지털 트윈 설루션이다. 특히, 시뮬레이션 이벤트 처리 횟수를 최소화한 구조로 설계되어, 불필요한 연산을 줄이고 대용량 데이터를 빠르고 효율적으로 처리할 수 있다는 점이 강점이다. 이를 통해 공정 변화나 예기치 못한 상황에도 유연하게 대응할 수 있으며, 작업자 개입 등 현장의 변수까지 반영한 고도화된 시뮬레이션이 가능하다. Pino DT는 실시간 운영 최적화와 미래 예측을 동시에 수행함으로써, 제조 현장의 민첩성과 안정성을 획기적으로 향상시키는 차세대 디지털 트윈 기반 물류 설루션으로 주목받고 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-08-04
바닥 충격음과 층간 소음 문제 해결을 위한 예측 모델 및 실험 분석
앤시스 워크벤치를 활용한 해석 성공 사례   오늘날 도시화와 인구 증가에 따라 공동주택의 필요성이 증가함에 따라, 공동주택 건설은 지속적으로 연구되며 다양한 방식으로 발전해왔다. 그러나 벽, 바닥, 천장 등 구조물을 공유하는 특성상 층간 소음 문제는 여전히 해결되지 않고 있다. 층간 소음을 최소화하기 위한 다양한 차단 방법이 고안 및 시공되고 있지만, 충격음 저감 대책에 따른 소음 예측은 주택별로 구조물 형태나 저감 대책 등 다양한 변수를 고려해야 하기 때문에 해석만으로는 거의 진행되지 않고 실험 위주 혹은 병행하며 이뤄지고 있다. 이번 호에서는 기존 실험조건의 문헌에 맞춘 해석 모델을 생성하고, 충격음에 대해 예측하는 방법에 대해 소개하고자 한다.    ■ 이효행 태성에스엔이 MBU-F4 팀의 수석 매니저로 원자력, 엔지니어링, 건설, 시험기관 업체를 담당하고 있다. 담당 업무로는 구조해석의 기술지원 및 사내/사외 교육, 세미나, 용역 업무가 있다. 특화된 해석 분야는 구조해석 중 dynamics와 acoustic, geomechanic이며, 20년 넘게 앤시스를 사용하여 구조해석을 수행하고 있다. 홈페이지 | www.tsne.co.kr   바닥 충격음의 제도 변화 바닥 충격음을 최소화하고 건물 내부의 소음 환경을 개선하기 위해 다양한 기술과 방법이 도입되고 있다. 또한 건축물의 품질과 주민의 생활 편의성을 향상시키기 위해 제도 또한 시간이 흐름에 따라 변화하고 발전해왔다. 시기별로 바닥 충격음 제도는 다음과 같이 변화했다. 2003년 4월 22일 개정 정성적인 문구에서 정량적인 기준으로 변경 경량충격음은 58데시벨 이하, 중량충격음은 50데시벨 이하로 제한 표준바닥구조와 바닥 충격음 차단성능등급이 도입 2013년 5월 6일 개정 표준바닥구조의 슬래브 두께가 규정에 포함 중량충격음은 표준 중량충격력 특성-1(뱅머신)로 측정, 평가는 역A-가중 최대 바닥 충격음레벨로 진행 2022년 8월 4일 개정 경량충격음 기준은 58dB 이하에서 49dB 이하로, 중량충격음 기준은 50dB 이하에서 49dB 이하로 강화 중량충격음은 표준 중량충격력 특성-2(임팩트볼)로 측정, 평가는 A-가중 최대 바닥 충격음레벨로 진행 이와 같이 해석만으로 인증을 진행하는 경우는 없으며, 골조 완공 후 건축물의 내부에서 측정하여 인증을 진행한다.   해석 개요 대부분의 예측이 그렇지만, 특히나 바닥 충격음을 예측하기 위해서는 해석만으로는 어렵다. 따라서 실험과 병행해야 하며 해석에 대한 오차를 줄여야 한다. 이에 따라 다음과 같은 순서로 진행하는 것을 권장한다.   ① 바닥 충격음 실험 ② 실험과 유사한 해석 모델 구현 및 해석 ③ 고유진동수와 FRF를 비교 분석(필요에 따라 ②에서 다시 시작) ④ 발생 소음 상대 비교   구조물(구조 평면)이 달라질 경우 전달되는 충격에 따른 소음의 특성이 변화하며, 저감 대책에 변화가 필요할 수도 있다. 직접 실험을 진행하기 어렵기 때문에 참고자료 1)을 바탕으로 해석을 진행하였다. 해석 모델이 실험의 동특성을 유사하게 구현(<표 1>의 Test No. 1 & 2)되었음을 확인하였으며, <표 1>과 같이 해석 설정에 따라 어떠한 변화가 있는지 확인하고자 한다. 비교 대상은 다음과 같다. 구조물의 고유진동수와 FRF는 참고자료 1)과 유사하게 발생하도록 설정 단위하중을 가하여 참고자료 1)의 가속도 FRF와 유사하게 발생하는지 비교 단위하중을 가한 부분에 한하여 MSUP 방식과 FULL method와 소음 해석 결과를 비교 음향 해석을 위해 velocity mapping과 coupled-field FSI 방식의 소음 차이 확인 중량 충격(1500N)에 따른 소음 변화 확인 하중 면적에 따른 소음 변화 확인 뜬바닥 구조(바닥 마감 구조 시공)는 비교하지 않음   표 1. Hyper parameters design to train BIM-based LLM   해석 모델 참고자료 1)을 참고하여 다음과 같이 해석 모델을 생성하였다.    (a) Full   (b) Section  그림 1. 해석 모델   Room 내부 크기 : 4.5m×5.1m×2.7m(Slab 두께가 변경되더라도 receive room inner size는 동일) 벽체 두께 : 150mm     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-08-04
오픈소스 LLM 모델 젬마 3 기반 AI 에이전트 개발해 보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 최근 이슈인 AI 에이전트(agent) 개발 시 필수적인 함수 호출(function call) 방법을 오픈소스를 이용해 구현해 본다. 이를 위해 구글에서 공개한 젬마 3(Gemma 3) LLM(대규모 언어 모델)과 역시 오픈소스인 LLM 관리도구 올라마(Ollama)를 활용하여 간단한 AI 에이전트를 로컬 PC에서 개발해본다. 아울러, 이런 함수 호출 방식의 한계점을 개선하기 위한 설루션을 나눔한다.   ■  강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   이번 호의 글은 다음 내용을 포함한다. AI 에이전트 구현을 위한 사용자 도구 함수 호출 방법 올라마를 통한 젬마 3 사용법 채팅 형식의 프롬프트 및 메모리 사용법 그라디오(Gradio) 기반 웹 앱 개발   그림 1. AI 에이전트 내부의 함수 호출 메커니즘(Akriti, 2025)   이 글의 구현 코드는 다음 링크에서 확인할 수 있다. AI_agent_simple_function_call   젬마 3 모델의 특징 젬마 3는 구글이 개발해 2025년 3월 10일에 출시한 LLM이다. 차세대 경량 오픈 멀티모달 AI 모델로, 텍스트와 이미지를 동시에 처리할 수 있는 기능을 갖추고 있다. 이 모델은 다양한 크기와 사양으로 제공되어 단일 GPU 또는 TPU 환경에서도 실행 가능하다. 젬마 3는 1B, 4B, 12B, 27B의 네 가지 모델 크기로 제공되며, 각각 10억, 40억, 120억, 270억 개의 파라미터를 갖추고 있다. 1B 모델은 텍스트 전용으로 32K 토큰의 입력 컨텍스트를 지원하고, 4B/12B/27B 모델은 멀티모달 기능을 지원하며 128K 토큰의 입력 컨텍스트를 처리할 수 있다. 이는 이전 젬마 모델보다 16배 확장된 크기로, 훨씬 더 많은 양의 정보를 한 번에 처리할 수 있게 해 준다. 이 모델은 텍스트와 이미지 데이터를 동시에 처리하고 이해하는 멀티모달 기능을 제공한다. 이미지 해석, 객체 인식, 시각적 질의응답 등 다양한 작업을 수행할 수 있으며, 텍스트 기반 작업에 시각적 정보를 효과적으로 활용할 수 있도록 지원한다.   그림 2. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   그림 3. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   젬마 3는 140개 이상의 언어를 지원하여 전 세계 다양한 언어 사용자를 대상으로 하는 AI 애플리케이션 개발에 매우 유리하다. 사용자는 자신의 모국어로 젬마 3와 상호작용할 수 있으며, 다국어 기반의 텍스트 분석 및 생성 작업도 효율적으로 수행할 수 있다. 이 모델은 다양한 작업 수행 능력을 갖추고 있다. 질문–답변, 텍스트 요약, 논리적 추론, 창의적인 텍스트 형식 생성(시, 스크립트, 코드, 마케팅 문구, 이메일 초안 등), 이미지 데이터 분석 및 추출 등 광범위한 자연어 처리 및 컴퓨터 비전 관련 작업을 수행할 수 있다. 또한, 함수 호출 및 구조화된 출력을 지원하여 개발자가 특정 작업을 자동화하고 에이전트 기반의 경험을 구축하는 데 도움을 준다. 젬마 3는 다양한 도구 및 프레임워크와 원활하게 통합된다. Hugging Face Transformers, Ollama, JAX, Keras, PyTorch, Google AI Edge, UnSloth, vLLM, Gemma. cpp 등 다양한 개발 도구 및 프레임워크와 호환되어 개발자들이 자신이 익숙한 환경에서 젬마 3를 쉽게 활용하고 실험할 수 있다. 이 모델은 다양한 벤치마크 테스트에서 동급 모델 대비 최첨단 성능을 입증했다. 특히, Chatbot Arena Elo Score에서 1338점을 기록하며, 여러 오픈 소스 및 상용 모델보다 높은 성능을 보였다.  젬마 3는 오픈 모델로, 개방형 가중치를 제공하여 사용자가 자유롭게 조정하고 배포할 수 있다. 캐글(Kaggle)과 허깅 페이스(Hugging Face)에서 다운로드 가능하며, Creative Commons 및 Apache 2.0 라이선스를 따름으로써 개발자와 연구자에게 VLM 기술에 대한 접근성을 높여준다.   개발 환경 개발 환경은 다음과 같다. 미리 설치 및 가입한다. 오픈 LLM 관리 도구 올라마 : https://ollama.com/download/ windows LLM 모델 젬마 3 : https://ollama.com/search dashboard 웹 검색 도구 Serper 서비스 가입 : https://serper.dev/ 설치되어 있다면 다음 명령을 터미널(윈도우에서는 도스 명령창)에서 실행한다. ollama pull gemma3:4b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-08-04
[포커스] SAP, 모든 설루션에 AI 탑재… “데이터 중심의 선순환 구조로 비즈니스 AI 혁신”
SAP 코리아가 7월 15일 연례행사인 ‘SAP 나우 AI 투어 코리아(SAP NOW AI Tour Korea)’를 진행하면서, AI(인공지능) 시대를 위한 새로운 비즈니스 운영 방식을 제시했다. ‘Unleash Your Future with Business AI(비즈니스 AI로 미래를 열다)’를 주제로 열린 이번 행사에서는 빠르게 변화하는 AI 시대에 기업의 비즈니스 혁신을 지원하는 SAP의 전략과 비전이 소개됐다. ■ 정수진 편집장   애플리케이션–데이터-AI의 선순환으로 비즈니스 혁신 주도 SAP의 AI 전략은 애플리케이션, 데이터, 비즈니스 AI의 선순환 효과(flywheel effect)를 통해 비즈니스 운영 방식을 근본적으로 혁신하겠다는 것이다. SAP의 지나 바르주-브로이어(Gina Vargiu-Breuer) 최고인사책임자는 이런 전략의 핵심으로 자사의 모든 애플리케이션에 AI를 기본으로 내재화(embedded AI)한다는 ‘AI 퍼스트(AI First)’ 접근법을 꼽았다. SAP는 2025년 말까지 400개 이상의 임베디드 AI 기능을 출시할 계획이다. 이와 동시에 SAP는 ‘스위트 퍼스트(Suite First)’ 전략을 추구한다. 개별 기능이 뛰어난 ‘최고의 설루션(Best of Breed)’을 모아 놓는 것을 넘어, 모든 비즈니스 애플리케이션을 유기적으로 통합한 ‘최적의 스위트(Best of Suite)’를 제공한다는 뜻이다. 바르주-브로이어 최고인사책임자는 이를 통해 기업 고객이 일관성, 유연성, 민첩성을 확보할 수 있다고 전했다. SAP의 전략은 애플리케이션이 생성하는 고품질의 비즈니스 데이터를 기반으로 신뢰할 수 있는 AI(reliable AI)를 구동하고, 이 AI가 다시 애플리케이션을 더욱 지능적으로 만드는 선순환 구조를 완성하는 것으로 요약할 수 있다. SAP는 애플리케이션, 데이터, AI가 긴밀히 연계되어 만들어내는 시너지가 고객에게 실질적인 비즈니스 가치를 제공하는 원동력이 될 것으로 보았다.   ▲ SAP의 이르판 칸 최고제품책임자가 기자간담회를 통해 자사의 AI 전략과 기술을 소개했다.   데이터 복잡성을 해결하는 ‘비즈니스 데이터 클라우드’ 이번 행사에서 SAP가 소개한 ‘SAP 비즈니스 데이터 클라우드(SAP Business Data Cloud : BDC)는 AI 시대에 기업의 데이터 관리와 AI 도입을 지원하고 비즈니스 운영 방식을 혁신하기 위해 새로운 서비스형 소프트웨어(SaaS) 설루션이다. BDC는 분산된 데이터를 통합하고 의미 있는 데이터로 전환하여 AI 활용도를 극대화하는 데 초점을 맞추었다. 이를 위해 BDC는 데이터 통합과 조화를 통한 단일 진실 공급원을 구축하고, 신뢰할 수 있는 AI 및 지능형 애플리케이션의 기반을 마련하면서, 현대적 아키텍처와 강력한 파트너 생태계를 지원한다. 기업들은 AI를 위한 데이터 준비, 수집, 거버넌스 등 데이터 관리에 많은 시간을 쓰고 있으며, 이는 기업에서 AI를 활용하는 데 있어 어려움으로 작용한다. BDC는 이러한 문제를 해결하기 위해 SAP와 비 SAP 데이터를 통합해 연결된 데이터 환경을 구축하도록 한다. 특히 기존 애플리케이션의 데이터 모델을 조화(harmonize)시켜서, 여러 비즈니스 라인에 걸쳐 다르게 정의된 고객 데이터를 단일 뷰로 제공한다. BDC는 고품질의 기업 데이터를 통합 관리하여 AI 애플리케이션이 안정적으로 데이터를 활용하고 모델을 훈련하는 시간을 줄인다. 또한 SAP의 AI 코파일럿인 쥴(Joule)과 연동해 비즈니스 데이터의 맥락을 깊이 있게 파악하고, 분석 및 권장사항 도출에 필요한 데이터를 제공한다. SAP의 이르판 칸(Irfan Khan) 데이터 및 애널리틱스 사장 겸 최고제품책임자는 “ERP와 같은 기업의 핵심 시스템에서 데이터가 추가되거나 변경될 때마다 BDC는 이를 복사하고 최신 상태로 반영하여 일관성을 유지하며, 이렇게 조화된 데이터는 단순한 원시 데이터가 아닌 ‘의미적으로 풍부한 데이터 제품(semantically enriched data products)’으로 전환되어 모든 앱에서 활용된다”고 설명했다. 또한 “BDC는 데이터 추출, 변환, 적재(ETL) 파이프라인 구축과 유지보수를 완전 관리형 서비스로 제공한다. 이를 통해 기업은 데이터 관리의 부담을 덜고, 가치 있는 AI 활용 사례를 만드는 데 집중할 수 있게 된다”고 설명했다. BDC는 스토리지와 컴퓨팅을 분리한 레이크하우스(lakehouse) 아키텍처를 기반으로 설계되었으며, 텍스트, 오디오, 비디오 등 정형 및 비정형 데이터를 구분 없이 저장 및 지원한다. 또한 AWS, 구글 클라우드, 애저 등 주요 하이퍼스케일러 인프라 어디에서나 구동되도록 설계되어, 고객은 기존 인프라를 변경할 필요 없이 BDC를 도입할 수 있다. 칸 최고제품책임자는 “데이터브릭스(Databricks)와의 파트너십을 통해 제로 카피 공유(zero-copy sharing) 방식으로 SAP 및 비 SAP 데이터를 양방향 공유하며, 팔란티어(Palantir)와도 협력해 데이터 파이프라인 구축을 간소화하는 도구를 지원한다”고 소개했다. SAP BDC는 2025년 2월에 글로벌 출시되었으며, 한국 시장에는 7월 말부터 공식 제공된다.   ▲ SAP는 유기적으로 결합된 스위트로 비즈니스 AI를 구현하고자 한다.   데이터의 맥락을 이해하는 AI 코파일럿 ‘쥴’ 한편, SAP는 AI 코파일럿인 ‘쥴(Joule)’이 다양한 개선을 이뤘다고 소개했다. 쥴은 데이터의 맥락을 확인하고 위치에 관계 없이 데이터를 활용할 수 있도록 지원한다. 이를 통해 AI 에이전트가 비즈니스 맥락과 데이터 관계성을 파악하는 과정을 돕는다. BDC가 고품질 기업 데이터를 통합 관리한다면, 쥴은 이를 AI 애플리케이션에서 활용할 수 있도록 지원한다. 특히 지식 그래프(knowledge graph) 기술을 활용해 비즈니스 데이터를 온톨로지(ontology) 기반으로 연결함으로써, AI 모델의 환각 현상을 줄이고 사용자가 자연어 질의로 데이터에 쉽게 접근하도록 돕는다. SAP는 “지식 그래프는 정형 데이터의 이해를 돕는 역할을 하며, 쥴과 같은 기술을 통해 데이터 주변의 사용자 경험을 바꿀 수 있다. 지식 그래프 내에 조화된 데이터 제품(harmonized data products)을 로드하여 온톨로지 뷰를 활성화하고, 자연어 쿼리를 통해 데이터에 접근할 수 있게 한다”고 설명했다. 이외에도 SAP는 쥴 스튜디오(Joule Studio)를 통해 고객이 맞춤형 에이전트를 개발할 수 있도록 지원하며, 최신 LLM(거대 언어 모델)을 연결하고 활용할 수 있도록 한다. 칸 최고제품책임자는 “이러한 개선사항 및 핵심 기능을 통해 쥴은 데이터의 맥락적 이해를 높이고, 고품질 데이터를 기반으로 AI 기능을 강화하며, 사용자 경험을 혁신하고 있다”고 전했다. 그리고 “SAP는 AI 및 생성형 AI를 활용하여 국제화 및 언어 지원 제공을 매우 빠르게 가속화하고 있으며, 이를 통해 한국어뿐만 아니라 모든 언어 및 지역에서 영어와 유사한 기능을 제공하는 것이 목표”라고 덧붙였다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
엔비디아, 개인용 AI 슈퍼컴퓨터 ‘DGX 스파크’ 국내 예약 주문 시작
엔비디아가 차세대 개인용 AI 슈퍼컴퓨터 ‘엔비디아 DGX 스파크(NVIDIA DGX Spark)’의 국내 예약 주문을 시작한다고 밝혔다. DGX 스파크는 책상 위에 올려 놓을 수 있는 크기의 AI 슈퍼컴퓨터로 생성형 AI, 거대 언어 모델(LLM), 고속 추론 등 다양한 AI 워크플로를 로컬 환경에서 효율적으로 구현할 수 있도록 설계됐다. AI 개발이 고도화됨에 따라, 조직은 데이터 보안 강화와 지연 최소화, 배포 유연성 등을 고려해 로컬 환경에서 직접 AI 모델을 개발하고 실행할 수 있는 시스템을 요구하고 있다. DGX 스파크는 이러한 수요에 대응해 데스크톱 환경에서도 데이터 크기나 위치, 모델 규모에 제약 없이 민첩하고 효율적인 AI 개발이 가능하도록 지원한다.     DGX 스파크는 데스크톱 폼팩터에 최적화된 엔비디아 GB10 그레이스 블랙웰 슈퍼칩(Grace Blackwell Superchip)을 탑재해 FP4 정밀도 기준, 최대 1페타플롭의 AI 성능을 제공한다. 또한, 고성능 엔비디아 커넥트-X(Connect-X) 네트워킹으로 두 대의 엔비디아 DGX 스파크 시스템을 연결해 최대 4,050억 개 파라미터의 AI 모델을 처리할 수 있다. DGX 스파크는 128GB 메모리를 탑재했으며, 엔비디아 AI 소프트웨어 스택이 사전 설치돼 있다. 이를 통해 딥시크, 메타, 구글 등에서 선보인 최대 2000억 개 파라미터의 최신 AI 모델도 로컬 환경에서 직접 프로토타이핑, 미세 조정, 추론할 수 있다. 또한, 사용자는 파이토치(PyTorch), 주피터(Jupyter), 올라마(Ollama) 등 익숙한 개발 도구를 사용할 수 있으며, 이를 DGX 클라우드나 가속화된 데이터센터 환경으로 손쉽게 확장할 수 있다. 이와 함께 엔비디아 NIM 마이크로서비스와 엔비디아 블루프린트(Blueprint)에 대한 액세스를 통해 AI 애플리케이션을 더욱 빠르게 개발하고 배포할 수 있도록 지원한다. 엔비디아는 “DGX 스파크는 올해 엔비디아 연례 개발자 콘퍼런스인 GTC와 컴퓨텍스(COMPUTEX)에서 공개된 이후 큰 관심을 받아왔으며, 이번 국내 예약 주문을 계기로 본격적인 보급이 기대된다”고 전했다. DGX 스파크의 국내 예약 주문은 엔비디아 공식 홈페이지를 통해 진행된다. 국내 주요 파트너사 중 원하는 업체를 선택해 예약할 수 있으며, 대량 구매도 가능하다. 공식 파트너사로는 에즈웰에이아이, 비엔아이엔씨, 디에스앤지, 아이크래프트, 리더스시스템즈, 메이머스트, MDS테크, 유클릭, 씨이랩, 제스프로가 있다.
작성일 : 2025-07-29
CAD&Graphics 2025년 8월호 목차
  18 THEME . PLM과 AI로 가속화하는 제조 디지털 전환의 미래 Ⅰ   설계 데이터를 연결하다 : 퍼시스그룹의 디지털 트윈 기반 DX 전략 / 정연석 생성형 경험 기반 PLM을 통한 업무 혁신 : 다쏘시스템의 새로운 접근 / 김병균 현장이 원하는 디지털 트윈 : 최소 인프라, 최대 효과를 위한 접근법 / 송희삼 수주형 제조기업을 위한 PLM 연계 프로젝트형 생산 관리 DX / 김장순   Infoworld   Editorial 17 AI 에이전트와 함께 하는 제조업 혁신의 골든타임   Case Study 30 올림픽 금메달을 뒷받침한 3D 프린팅 혁신 금속 3D 프린팅으로 경기용 요트의 부품 제작 32 디지털 전환의 잠재력을 실현하는 메타버스 기술 성공적인 산업 메타버스 구현을 위한 필수 요소   New Product 36 2D CAD의 새로운 기준 제시하는 차세대 설계 플랫폼 ZWCAD 2026 42 디지털 휴먼의 제작 워크플로 향상 및 생태계 확장 메타휴먼 5.6 79 이달의 신제품   Focus 46 AI와 클라우드로 뻗어나가는 NX, 제품 개발의 혁신을 뒷받침한다 48 트림블 코리아, ‘파워팹’으로 철골 제작의 디지털화 및 효율 향상 지원 50 3D 콘텐츠 제작 시대, 어도비 서브스턴스가 펼치는 미래 52 3D 프린팅, 제조 혁신 이끌 생산 기술 될까…현실의 벽과 돌파구는? 54 SAP, 모든 설루션에 AI 탑재…“데이터 중심의 선순환 구조로 비즈니스 AI 혁신” 56 AWS, “다양한 기술로 국내 기업의 생성형 AI 활용 고도화 돕는다” 58 한국생산제조학회 2025 춘계학술대회, 생산제조 기술의 미래를 논의하다   On Air 60 캐드앤그래픽스 CNG TV 지식방송 지상중계 자율주행의 미래 : AI와 데이터 통합을 통한 지멘스 ADAS 혁신 62 캐드앤그래픽스 CNG TV 지식방송 지상중계 HP Z북 울트라, AI 워크스테이션의 새로운 기준 제시 63 캐드앤그래픽스 CNG TV 지식방송 지상중계 창의적 디자인의 미래, AI와 3D 프린팅에서 찾는다 64 캐드앤그래픽스 CNG TV 지식방송 지상중계 제조업을 바꾸는 양자 컴퓨팅의 힘 66 캐드앤그래픽스 CNG TV 지식방송 지상중계 디지털 트윈 시대의 3D 자산 관리 혁신하는 유니티 애셋 매니저   Column 67 포괄적 디지털 트윈으로 제조 공장의 미래를 설계하다 / 오병준 70 디지털 지식전문가 조형식의 지식마당 / 조형식 스마트 디지털 트윈을 위한 디지털 온톨로지와 디지털 스레드 74 현장에서 얻은 것 No. 21 / 류용효 AI 시대 제조업 생존 전략 : ‘듀얼 브레인’을 장착하라   82 New Books   Directory 147 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 84 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2026 (5) / 천벼리 온라인 CAD 아레스 쿠도의 주요 기능 88 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 오픈소스 LLM 모델 젬마 3 기반 AI 에이전트 개발해 보기 97 새로워진 캐디안 2025 살펴보기 (9) / 최영석 유틸리티 기능 소개 Ⅶ 100 BIM 전문인력 양성을 위한 해법을 찾는다 / 함남혁 BIM 전문가 민간자격 국가공인 현황과 발전 방향   Visualization 104 AI 크리에이터 시대 : 영상 제작의 새로운 패러다임 (5) / 최석영 AI 기반 몰입형 사운드 디자인   Reverse Engineering 110 시점 – 사물이나 현상을 바라보는 눈 (8) / 유우식 확률과 통계   Mechanical 116 제품 개발 혁신을 돕는 크레오 파라메트릭 12.0 (1) / 박수민 크레오 파라메트릭 12의 개선된 인터페이스 기능   Manufacturing 122 생산 계획부터 운영까지 혁신하는 스마트 제조 / 이노쏘비 PINOKIO가 선보이는 스마트 공장 기술과 사례   Analysis 107 로코드를 활용하여 엔지니어링 데이터 분석 극대화하기 (1) / 윤경렬, 김도희 데이터 분석에 로코드 설루션이 필요한 이유 128 앤시스 워크벤치를 활용한 해석 성공 사례 / 이효행 바닥 충격음과 층간 소음 문제 해결을 위한 예측 모델 및 실험 분석 133 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (24) / 나인플러스IT 충실도 흐름 솔버로 항공 엔진의 시뮬레이션 정확도 업그레이드 136 최적화 문제를 통찰하기 위한 심센터 히즈 (6) / 이종학 프로세스 자동화 | – 구조 설계 최적화 142 산업 디지털 전환을 가속화하는 버추얼 트윈 (5) / 강주연, 임영빈 아바쿠스의 Contact Wear 기능을 활용한 마모 해석과 응용     캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기
작성일 : 2025-07-25
인텔코리아, AI 기술 전략 소개 및 국내 기업과 협력 확대 발표
인텔은 국내 협력사들과 함께 자사의 AI 기술 동향과 최신 전략, 협력 사례를 공유하는 ‘2025 인텔 AI 서밋 서울’을 개최했다고 밝혔다. 인텔 AI 서밋은 AI 기술의 최신 트렌드와 혁신적인 적용 사례를 공유하고 산업 전반에 걸친 AI의 잠재력과 미래 발전 방향을 함께 모색하기 위한 자리다. 레노버, 네이버클라우드, SK하이닉스, 델, 마이크로소프트, 삼성SDS, 슈퍼마이크로, 시스코, HPE, LG이노텍, LG전자 등 국내외 주요 협력사와 KAIST, 중소벤처기업부, 창업진흥원 등 학계와 공공 부문에서도 관련 전문가들이 참석하여 AI 기술 동향과 산업 간 협력 방안을 논의하고 네트워킹하는 자리가 이어졌다. 이번 행사는 인텔코리아 배태원 사장의 환영사와 한스 촹(Hans Chuang) 인텔 세일즈 마케팅 그룹의 아시아 태평양 및 일본 총괄의 인사말로 시작되었다. 촹 총괄은 “AI 기술이 빠르게 진화하고 활용 사례도 점점 복잡해지면서, 기업들은 성능과 비용 효율성을 동시에 충족하는 보다 개방적이고 다양한 설루션을 필요로 한다”고 전했다. 또한, “인텔은 폭넓은 호환성, 다양한 소프트웨어 옵션, 고유의 아키텍처, 뛰어난 성능을 제공함으로써 AI가 데이터센터, 클라우드, 네트워크 에지 및 PC에 이르는 전체 컴퓨팅 연속체에서 최적의 성능을 발휘하도록 지원하고 있다”면서, 인텔의 개방형 프로그래밍 모델은 단일 벤더의 하드웨어나 GPU에서만 동작하는 폐쇄형 프로그래밍 모델에 비해 비용과 유연성 측면에서 실질적 비즈니스 우위를 제공한다고 강조했다.     이어진 파트너 세션에서 레노버 아시아태평양지역 인프라 솔루션 그룹 수미르 바티아(Sumir Bhatia) 사장은 ‘모두를 위한 스마트한 AI’를 주제로 기업들의 AI 가속화에 따른 높은 전력 수요로 지속가능성이 주요 과제로 떠올랐음을 강조하며, 이를 해결하기 위한 레노버의 최신 냉각 기술과 AI 추론 최적화 설루션을 소개했다.  또한 SK하이닉스의 정우석 부사장은 ‘메모리 중심 AI 컴퓨팅 시대의 새로운 기회’ 발표를 통해 AI 컴퓨팅 시대를 맞아 부각되고 있는 메모리 기술의 중요성을 강조하며, 커스텀 메모리 기술의 시장 기회가 증가하고 있다고 밝혔다. 또한 인텔과 데이터센터용 설루션의 다양한 영역에서 긴밀히 협력 중임을 덧붙였다. 전략적 파트너 세션의 발표자로 나선 네이버클라우드의 김유원 대표는 AI 생태계에 대한 발표를 통해 “네이버클라우드는 인텔과 오랜 기간 클라우드 인프라 분야에서 긴밀히 협력해왔으며, 제온 프로세서 기반의 서비스부터 최근의 AI 가속기 가우디에 이르기까지 협력의 범위와 깊이가 꾸준히 확장되고 있다”며, “향후에도 네이버클라우드는 인텔과 함께 글로벌 시장을 타깃으로 다양한 AI 기반 클라우드 서비스를 공동 개발하며, 기술 혁신과 해외 진출이라는 두 축에서 협력을 확대해 나갈 것”이라고 말했다. 오후 세션에서는 ‘AI & 데이터센터’와 ‘AI PC & 에지 AI’로 나뉘어 업계의 최신 정보 및 인사이트, 사례 발표가 이어졌다. 데이터센터 세션에서 삼성 SDS는 가우디 3 기반 LLM 추론 성능 분석 사례를 공유했고, AI PC 부문에서는 LG이노텍이 인텔 AI 설루션 기반 스마트 공장 사례를, 전북특별자치교육청이 AI PC를 활용한 수업 혁신 사례를 공유하는 등 교육, 게임, 리테일, 제조 등 다양한 분야의 적용 사례를 공유했다. 인텔은 하반기에도 국내 AI 생태계 발전을 위한 협력을 더욱 확대해 나갈 예정이다. 인텔은 행사 당일 포스코DX와 인텔 제온 프로세서의 AI 가속 기능 및 오픈비노 기술을 활용해 AI 서비스 비용 효율을 높이고, AI 에이전트 생태계 구축에 협력하기 위한 상호양해각서를 체결했다고 밝혔다. 한편 kt cloud와 인텔 가우디(Gaudi) AI 가속기를 kt cloud AI Foundry에 도입하는 것을 검토하고 AI 추론 개발에 특화된 비용 효율적인 GPUaaS 상품 출시를 검토하며, 다양한 산업군의 클라우드 수요에 대응할 수 있는 상품 포트폴리오 고도화 및 기술 협력을 위한 상호양해각서를 지난 6월 30일 체결했다.
작성일 : 2025-07-02
어도비, 브랜드의 가시성 강화 지원하는 ‘LLM 옵티마이저’ 발표
어도비가 새로운 기업용 애플리케이션인 ‘어도비 LLM 옵티마이저(Adobe LLM Optimizer)’를 발표했다. 생성형 AI 구동 인터페이스를 통해 브랜드와 소통하는 소비자가 증가하는 가운데, 이 애플리케이션은 기업이 새로운 방식으로 고객과 접점을 확보할 수 있도록 지원한다. 기업은 웹과 모바일 등 주요 디지털 채널 전반에서 경험을 관리하고 최적화하기 위해 어도비 익스피리언스 클라우드(Adobe Experience Cloud) 애플리케이션을 활용해 왔다. 새로운 어도비 LLM 옵티마이저를 통해, 기업은 변화하는 소비자 행동에 보다 빠르게 대응하고 AI 시대에 브랜드 인지도를 유지할 수 있다. 어도비 LLM 옵티마이저는 AI 기반 트래픽을 모니터링하고 브랜드 가시성을 벤치마크 대비 평가할 수 있는 다양한 기능을 제공한다. 또한 노출 가능성, 참여도 및 전환율 향상을 위한 실질적인 제안을 하고, 이를 기업의 디지털 채널 전반에 신속히 적용할 수 있도록 지원한다.     브랜드는 어도비 LLM 옵티마이저를 통해 AI 기반 트래픽 증대 및 모니터링과 콘텐츠 최적화를 통한 노출 가능성 향상 등의 작업을 수행할 수 있다. LLM 옵티마이저는 AI 구동 인터페이스에서 사용자 질의에 대한 응답으로 활용되고 있는 자사 콘텐츠(예 : 웹사이트 정보)를 식별할 수 있다. 이를 통해 브랜드가 브라우저 및 채팅 서비스에서 어떻게 노출되고 있는지를 실시간으로 파악할 수 있다. 또한 높은 가치를 지닌 검색어 전반에 걸쳐 경쟁사 대비 가시성을 나란히 비교하는 벤치마킹 기능을 통해 콘텐츠 전략 등의 영역에서 조직 프로세스에 정보를 제공하는 역할을 할 수 있다. 권장 엔진은 신뢰할 수 있는 출처의 양질의 정보 성 콘텐츠를 포함해, LLM이 우선순위를 둔 속성을 기반으로 웹 페이지, FAQ 와 같은 자사 채널뿐 아니라 위키피디아(Wikipedia), 공개 포럼 등 외부 채널 전반에서 브랜드 가시성의 부족한 부분을 감지하고 개선 사항을 제시한다. 팀은 제안에 따라 즉시 조치를 취하고 클릭 한 번으로 변경 사항을 적용할 수 있다. 또한 AI 가시성을 사용자 행동 및 비즈니스 성과에 연결하는 기여도 역량을 통해 팀이 참여도, 전환율 및 다운스트림 트래픽 지표에 미치는 영향을 입증할 수 있도록 지원한다. 또한 바로 사용 가능한 리포팅 기능을 활용해 내부 이해관계자와 신속하게 인사이트를 공유하고 비즈니스에 미치는 영향을 전달할 수 있다. LLM 옵티마이저는 SEO 담당자, 콘텐츠 전략가, 디지털 마케터, 웹 퍼블리셔 등 다양한 역할의 기존 워크플로우를 지원하도록 설계돼, 조직 전체가 AI 기반 트래픽에 대한 인사이트와 제안을 쉽게 활용할 수 있도록 돕는다. 또한 이 애플리케이션은 에이전트 투 에이전트(Agent-to-Agent : A2A) 및 모델 컨텍스트 프로토콜(Model Context Protocol : MXP)과 같은 기업용 프레임워크를 지원해, LLM 옵티마이저를 서드파티 설루션이나 에이전시 파트너와도 원활하게 통합할 수 있는 경로를 제공한다. 어도비 LLM 옵티마이저는 단일 애플리케이션으로 활용 가능할 뿐만 아니라 콘텐츠 관리 시스템인 어도비 익스피리언스 매니저 사이트(Adobe Experience Manager Sites)와도 네이티브로 통합되어 있다. 어도비의 로니 스타크(Loni Stark) 익스피리언스 클라우드 전략 및 제품 부문 부사장은 “생성형 AI 인터페이스는 고객이 브랜드를 인지하고 소통하며, 구매를 결정하는 전 과정에서 핵심적인 도구로 자리 잡고 있다”면서, “어도비 LLM 옵티마이저는 브랜드가 새로운 환경 속에서도 자신 있게 대응하고, 브랜드 가시성을 높여 중요한 순간에 성공할 수 있도록 지원한다”고 말했다.
작성일 : 2025-07-02