• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "LLM"에 대한 통합 검색 내용이 371개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 기업 생산성 강화하는 ‘네모 마이크로서비스’ 정식 출시
엔비디아가 에이전트 기반 AI 플랫폼 개발을 가속화하고 기업의 생산성을 높이는 ‘엔비디아 네모 마이크로서비스(NVIDIA NeMo microservices)’를 정식 출시했다고 밝혔다. 이번에 정식 출시된 엔비디아 네모 마이크로서비스는 기업 IT 부서가 데이터 플라이휠(flywheel)을 활용해 직원 생산성을 높일 수 있는 AI 팀원을 빠르게 구축하도록 지원한다. 이 마이크로서비스는 엔드 투 엔드 개발자 플랫폼을 제공한다. 이 플랫폼은 최첨단 에이전틱 AI(Agentic AI) 시스템의 개발을 가능하게 하고, 추론 결과, 비즈니스 데이터, 사용자 선호도에 기반한 데이터 플라이휠을 통해 지속적인 최적화를 지원한다. 데이터 플라이휠을 통해 기업 IT 부서는 AI 에이전트를 디지털 팀원으로 온보딩할 수 있다. 이러한 에이전트는 사용자 상호작용과 AI 추론 과정에서 생성된 데이터를 활용해 모델 성능을 지속적으로 개선할 수 있다. 이를 통해 ‘사용’을 ‘인사이트’로, ‘인사이트’를 ‘실행’으로 전환할 수 있다.     데이터베이스, 사용자 상호작용, 현실 세계의 신호 등의 고품질 입력이 지속적으로 제공되지 않으면 에이전트의 이해력은 약화된다. 그 결과, 응답의 신뢰성은 떨어지고 에이전트의 생산성도 저하될 수 있다. 운영 환경에서 AI 에이전트를 구동하는 모델을 유지하고 개선하기 위해서는 세 가지 유형의 데이터가 필요하다. 인사이트를 수집하고 변화하는 데이터 패턴에 적응하기 위한 추론 데이터, 인텔리전스를 제공하기 위한 최신 비즈니스 데이터, 모델과 애플리케이션이 예상대로 작동하는지를 판단하기 위한 사용자 피드백 데이터가 그것이다. 네모 마이크로서비스는 개발자가 이 세 가지 유형의 데이터를 효율적으로 활용할 수 있도록 지원한다. 또한, 네모 마이크로서비스는 에이전트를 구동하는 모델을 선별하고, 맞춤화하며, 평가하고, 안전장치를 적용하는 데 필요한 엔드 투 엔드 툴을 제공함으로써 AI 에이전트 개발 속도를 높인다. 엔비디아 네모 마이크로서비스는 ▲대규모 언어 모델(LLM) 미세 조정을 가속화해 최대 1.8배 높은 훈련 처리량을 제공하는 네모 커스터마이저(Customizer) ▲개인과 산업 벤치마크에서 AI 모델과 워크플로의 평가를 단 5번의 API 호출로 간소화하는 네모 이밸류에이터(Evaluator) ▲ 0.5초의 추가 지연 시간만으로 규정 준수 보호 기능을 최대 1.4배까지 향상시키는 네모 가드레일(Guardrails)을 포함한다. 이는 네모 리트리버(Retreiver), 네모 큐레이터(Curator)와 함께 사용돼, 맞춤형 엔터프라이즈 데이터 플라이휠을 통해 AI 에이전트를 구축하고, 최적화하며, 확장하는 과정을 기업이 보다 수월하게 수행할 수 있도록 지원한다. 개발자는 네모 마이크로서비스를 통해 AI 에이전트의 정확성과 효율성을 높이는 데이터 플라이휠을 구축할 수 있다. 엔비디아 AI 엔터프라이즈(Enterprise) 소프트웨어 플랫폼을 통해 배포되는 네모 마이크로서비스는 온프레미스 또는 클라우드의 모든 가속 컴퓨팅 인프라에서 엔터프라이즈급 보안, 안정성, 지원과 함께 손쉽게 운영할 수 있다. 이 마이크로서비스는 기업들이 수백 개의 전문화된 에이전트를 협업시키는 대규모 멀티 에이전트 시스템을 구축하고 있는 현재 정식 출시됐다. 각 에이전트는 고유의 목표와 워크플로를 가지고 있으며, 디지털 팀원으로서 복잡한 업무를 함께 해결하며 직원들의 업무를 보조하고, 강화하며, 가속화한다. 엔비디아 네모 마이크로서비스로 구축된 데이터 플라이휠은 사람의 개입을 최소화하고 자율성을 극대화하면서 데이터를 지속적으로 선별하고, 모델을 재훈련하며, 성능을 평가한다. 네모 마이크로서비스는 라마(Llama), 마이크로소프트 파이(Microsoft Phi) 소형 언어 모델 제품군, 구글 젬마(Google Gemma), 미스트랄 등 폭넓은 인기 오픈 모델을 지원한다. 또한, 기업은 엔비디아 가속 인프라, 네트워킹, 그리고 시스코, 델, HPE, 레노버(Lenovo) 등 주요 시스템 제공업체의 소프트웨어를 기반으로 AI 에이전트를 실행할 수 있다. 액센츄어(Accenture), 딜로이트(Deloitte), EY를 비롯한 거대 컨설팅 기업들 역시 네모 마이크로서비스를 기반으로 기업용 AI 에이전트 플랫폼을 구축하고 있다.
작성일 : 2025-04-25
알리바바 클라우드, 최신 오픈소스 영상 생성 모델 공개
알리바바 클라우드가 새로운 오픈소스 영상 생성 모델인 ‘Wan2.1-FLF2V-14B’를 공개했다. 이번 모델은 시작 프레임과 종료 프레임을 입력값으로 활용해, 보다 정교하고 직관적인 영상 생성이 가능하도록 설계되었다. 이를 통해 숏폼 콘텐츠 제작자는 자신만의 AI 모델과 애플리케이션을 보다 효율적이고 경제적으로 개발할 수 있을 것으로 기대된다. Wan2.1-FLF2V-14B는 알리바바 클라우드의 파운데이션 모델 시리즈인 ‘Wan2.1’에 속하며, 텍스트와 이미지 입력을 기반으로 고품질의 이미지와 영상을 생성하는 데 최적화된 모델이다. 현재 이 모델은 오픈소스 플랫폼인 허깅페이스(Hugging Face), 깃허브(GitHub), 알리바바 클라우드의 오픈소스 커뮤니티 모델스코프(ModelScope)를 통해 누구나 자유롭게 활용할 수 있다. 이 모델은 사용자 명령어의 정밀한 실행은 물론, 첫 프레임과 마지막 프레임 사이의 시각적 일관성을 유지하며, 복잡한 동작을 자연스럽게 연결해 사실적인 영상 결과물을 제공한다. Wan 시리즈의 공식 웹사이트에서는 해당 모델을 활용해 720p 해상도의 5초 분량 영상을 무료로 생성 가능하다.     이번 모델의 핵심 기술은 ‘제어 조정 메커니즘(Control Adjustment Mechanism)’이다. 사용자가 제공한 시작 프레임과 종료 프레임을 제어 조건으로 활용함으로써, 두 장면 사이의 부드럽고 정밀한 전환을 가능하게 한다. 또한 시각 안정성을 확보하기 위해, 해당 메커니즘은 시작 프레임과 종료 프레임에 포함된 의미 정보를 생성 과정에 반영하는데, 이를 통해 프레임을 동적으로 변형하면서도 스타일과 콘텐츠, 구조적 일관성을 함께 유지할 수 있다. 알리바바 클라우드는 지난 2월에 Wan2.1 시리즈 내 4종의 AI 모델을 오픈소스로 공개한 바 있다. 해당 시리즈는 현재까지 허깅페이스와 모델스코프에서 누적 220만 건 이상의 다운로드를 기록했다. Wan2.1 시리즈는 중국어와 영어 기반 텍스트 효과를 모두 지원하는 영상 생성 AI 모델로, 복잡한 움직임과 픽셀 표현, 명령 수행 정확도 면에서 높은 성능을 보인다. 한편, 알리바바 클라우드는 2023년 8월 최초의 오픈형 대규모 언어모델 ‘큐원-7B(Qwen-7B)’를 공개했다. 큐원 시리즈는 허깅페이스의 오픈 LLM 리더보드에서 지속적으로 최상위권을 기록하며, 다양한 벤치마크에서 세계 주요 AI 모델과 대등한 성능을 입증한 바 있다. 지난 수년간 알리바바 클라우드는 200개 이상의 생성형 AI 모델을 오픈소스로 공개해 왔으며, 현재까지 허깅페이스를 기반으로 약 10만 개 이상의 파생 모델이 개발되었다.
작성일 : 2025-04-24
인텔, 소프트웨어 정의 차량 혁신 가속화 위한 차세대 SoC 및 파트너십 발표
인텔은 ‘상하이 모터쇼(Auto Shanghai)’에 처음 참가하면서, 멀티-공정 노드 칩렛 아키텍처 기반 차량용 2세대 인공지능(AI) 강화 소프트웨어 정의 차량(SDV : Software-Defined Vehicle) SoC(시스템온칩)을 공개했다. 이번 신형 SoC는 인텔리전트 커넥티드 차량에 대한 수요 증가에 발맞춰 설계되었으며, 완성차 업체에 확장 가능한 성능, 첨단 AI 기능 및 비용 효율을 제공한다. 또한, 인텔은 자동차 기술 기업인 모델베스트(ModelBest), 블랙세서미 테크놀로지(Black Sesame Technologies)와의 전략적 협업을 발표하며 자사의 자동차 생태계를 더욱 확장하고 있다고 소개했다. 이를 통해 인텔은 AI 기반 차량용 콕핏(Cockpit), 통합 첨단 운전자 보조 시스템(ADAS), 에너지 효율적인 차량 컴퓨팅 플랫폼 등에서의 혁신을 가속화할 계획이다. 2세대 인텔 SDV SoC는 멀티 노드 칩렛 아키텍처를 채택한 차량용 SoC로, 완성차 업체가 컴퓨팅, 그래픽, AI 기능을 필요에 따라 유연하게 구성할 수 있도록 지원한다. 이를 통해 개발 비용을 절감하고 제품 출시 기간을 단축할 수 있으며, 기능별로 최적화된 최고 수준의 실리콘을 결합한 아키텍처에 기반한다. 인텔은 2세대 SDV SoC가 ▲생성형 및 멀티모달 AI를 위한 최대 10배 향상된 AI 성능 ▲더욱 풍부한 HMI(인간-기계 간 인터페이스) 경험을 위한 최대 3배 향상된 그래픽 성능 ▲카메라 입력 및 이미지 처리 기능 강화를 위한 12개 카메라 레인 지원 등의 특징을 갖추었다고 밝혔다. 또한, 유연하고 미래 지향적인 설계를 바탕으로 완성차 업체가 첨단 기능을 바탕으로 제품 차별화를 실현하고, 차세대 사용자 경험을 제공하는 동시에 전력 소비와 비용도 최적화할 수 있도록 지원한다고 전했다.     한편, 인텔은 상하이 모터쇼 2025에서 주요 파트너들과의 신규 협업을 발표했다. 인텔은 SDV SoC와 인텔 아크(Intel Arc) 그래픽 기반으로 구동되는 모델베스트의 GUI 인텔리전트 에이전트를 통해 기기 자체에서 대규모 언어 모델(LLM)의 구현을 현실화하고 있다. 이 에이전트는 네트워크 연결 없이도 작동하는 AI 기반 음성 제어 및 사용자 맞춤형 경험을 가능하게 하며, 복잡한 상황에서도 자연어를 정확히 이해해 직관적인 콕핏 경험을 제공한다. 이번 협업은 모델베스트가 인텔의 AI PC 가속화 프로그램에서 거둔 성공을 기반으로 하며, 인텔 차량 플랫폼에서 즉시 활용 가능한 AI 경험을 최적화한 결과다. 또한, 블랙세서미 테크놀로지스의 ADAS 기술에 인텔의 SDV SoC와 차량용 인텔 아크 그래픽을 결합해 ADAS와 몰입형 콕핏 경험을 하나의 에너지 효율적인 중앙 컴퓨팅 플랫폼으로 통합하고 있다. 고속·저지연의 안정적인 연결을 기반으로, 끊김 없는 차량 내 경험을 구현할 계획이다. 인텔 오토모티브 총괄인 잭 위스트(Jack Weast) 팰로우는 “인텔은 2세대 SDV SoC를 통해 자동차 컴퓨팅의 패러다임을 새롭게 정의하고 있다. 칩렛 기술의 유연성과 인텔의 검증된 총체적 차량 접근 방식을 결합해, SDV 혁신을 실현해 나가고 있다. 에너지 효율성부터 AI 기반 사용자 경험까지, 업계가 직면한 실질적인 과제를 파트너와과 함께 해결하며 SDV 시대를 모두를 위한 현실로 만들고자 한다”고 밝혔다.
작성일 : 2025-04-24
파수, “보안부터 생성형 AI 활용까지 전방위 지원“
파수는 자사의 플래그십 콘퍼런스인 ‘FDI 2025 심포지움(Fasoo Digital Intelligence 2025 Symposium, 이하 FDI)’을 4월 22일 진행했다고 밝혔다. 파수는 이번 행사를 통해 생성형 AI 시대를 위한 AI 및 보안, 데이터 전략, 투자 효율성을 높이는 보안 접근법 등을 제시, 글로벌 AI·보안 기업으로의 면모를 드러냈다고 평가했다. 이번 FDI는 국내 기업 및 기관의 CIO, CISO 등 350여 명이 참가했다. 파수는 올해 ‘생성형 AI 혁명 : AI가 기업에 가져올 변화’를 주제로 삼고, 기업형 sLLM(경량 대규모 언어 모델), 데이터 관리/보호 방안, 공급망 관리, CPS(사이버 물리 시스템) 보안 등 다양한 세션을 통해 현재의 문제와 대응안 등의 인사이트를 나눴다. 파수의 조규곤 대표는 ‘GenAI 혁명을 위한 AI 전략’ 키노트에서 급속도로 발전되는 AI가 변화시키고 있는 비즈니스 및 업무 환경을 설명하고, 조직 내부에 구축하는 sLLM을 성공적으로 구축하기 위한 방안을 제시했다. 조 대표는 “성공적인 sLLM 구축을 위해서는 AI 시스템 인프라에 대한 지나친 투자 대신 AI를 위한 데이터 인프라 강화와 AI 거버넌스 구축에 신경써야 한다”고 조언했다. 또한 “더 발전된 모델이 매일 새롭게 출시됨에 따라 향후 유연하게 더 나은 신규 모델을 활용할 수 있도록 구축 단계부터 고려해야 한다”고 말했다.     이어 ‘기업형 GenAI, LLM Agent’ 발표를 진행한 윤경구 전무는 현재 LLM의 발전 현황과 방향성을 짚으면서 논리적 사고의 리즈닝(reasoning) 모델과 언어 모델의 한계를 벗어나는 에이전틱 LLM이 AI 혁명을 이끌 것으로 전망했다. 더불어 파수가 선보인 기업용 LLM ‘ELLM(엘름)’의 발전 현황과 다양한 세부 모델, 실제 고객 활용 사례를 소개하고 AI 활용을 위한 신규 설루션도 선공개했다.  이후에는 ▲악성메일 훈련/교육, 취약점 진단과 태세(Posture) 관리 ▲AI와 클라우드 시대의 데이터 보안 ▲소프트웨어 공급망 보안과 SBOM 생성 유통 검증 ▲CPS 보안 ▲GenAI 데이터 보안 전략 등의 세션이 진행됐다. 특히 ‘악성메일 훈련/교육, 취약점 진단과 태세 관리’ 발표에서는 효과적인 보안 투자를 위한 ‘보안 101’이 제시됐다. 이 발표에서는 보안 투자 확대에도 불구하고 보안 사고가 발생하는 원인으로 임직원들의 보안 훈련 부족과 취약점, 태세 관리 미비를 꼽고, 특히 데이터가 암호화되지 않은 경우 피해가 급증한다고 지적했다. 이에 따라 ‘기초/필수 과정’을 뜻하는 101을 차용한 ‘보안 101’으로 훈련, 암호화/백업, 취약점 분석, 태세 관리에 집중해 투자 효율성을 높일 수 있다고 설명했다.  파수가 제시하는 ‘보안 101’의 첫 단계는 먼저, 임직원들의 악성 메일 반복 훈련과 최신 자료 중심의 백업, 확대 적용된 암호화를 통한 사이버 위협 대응 능력 향상이다. 또한 컴플라이언스 대응에만 초점을 맞춘 취약점 진단이 아닌 IT 인프라, 공급망 애플리케이션, OT(운영기술)/CPS로 대상을 확대해 보안 사각지대를 최소화한다. 나아가 데이터(DSPM)를 비롯, 애플리케이션(ASPM)과 OT시스템(OSPM) 등의 태세 관리를 통해 자산 식별 및 분류, 실시간 탐지 및 대응, 지속적인 모니터링으로 보안을 강화할 수 있다. 한편 파수는 이번 FDI를 통해 소개된 다양한 설루션 및 서비스를 기반으로 글로벌 AI·보안 기업으로 거듭나겠다는 전략을 소개했다. 특히 본격적인 확산에 돌입한 구축형 sLLM ELLM의 신규 업데이트는 물론, GenAI 활용을 위한 설루션, 분야별 태세 관리 설루션 및 서비스 등을 연내 순차적으로 선보일 예정이다. 
작성일 : 2025-04-23
​IBM, 기업용 AI 혁신을 위한 '에이전틱 AI' 전략 발표
한국IBM이 4월 21일, 여의도 본사에서 기자간담회를 열고, 기업 비즈니스 환경에 최적화된 '에이전틱 AI(Agentic AI)' 전략과 이를 구현하는 핵심 솔루션인 '왓슨x 오케스트레이트(watsonx Orchestrate)'를 소개하는 자리를 마련했다. 한국IBM 최고기술책임자(CTO) 이지은 전무는 에이전틱 AI를 "사용자나 시스템을 위해 자율적으로 과제를 수행하는 AI 에이전트들이 결합된 환경"으로 정의하며, "기존 AI 대비 사람의 개입을 최소화하고 다양한 시스템과 연계해 복합적인 업무를 자율적으로 수행할 수 있는 것이 특징"이라고 설명했다.​ ▲ 한국IBM 최고기술책임자(CTO) 이지은 전무 ▲ '기업을 위한 AI 에이전트'로 열린 한국IBM 기자간담회 현장    IBM은 자사의 AI 플랫폼인 왓슨x를 중심으로 ▲오픈소스 및 파트너 AI 기술을 유연하게 활용할 수 있는 개방성(Open) ▲영역별로 특화된 고성능 소형 LLM으로 90% 높은 비용효율성 ▲온프레미스와 클라우드를 포괄하는 유연성을 제공하는 하이브리드 기술 ▲산업 및 영역별 전문성을 토대로 한 IBM 컨설팅 서비스 등을 제공하는 기업향 AI 전략의 차별화 요소를 강조했다. 한국IBM 클라이언트 엔지니어링(Client Engineering) 총괄 김지관상무는 "왓슨x 오케스트레이트를 통해 자연어 기반의 직관적인 대화형 인터페이스를 제공한다"며, 이를 통해 "직원, 고객 등 최종 사용자의 요청을 수집하고, 다양한 비즈니스 애플리케이션과 연결해 자동화된 방식으로 처리한다"고 밝혔다.​ ▲ 한국IBM 클라이언트 엔지니어링 총괄 김지관 상무 또한, LLM 기반의 시스템을 통해 사용자의 요청을 지능적으로 분석하고 가장 적절한 경로로 연결하며, 단순한 질의응답을 넘어 특정 업무 수행, 지식 베이스 검색, 필요 시 사람의 개입까지 유연하게 확장되어 기존에 수 분에서 수 시간이 소요되던 업무를 수 초 또는 수 분 이내에 처리할 수 있도록 지원하고 있다고 설명했다.​ 한국IBM은 에이전틱 AI 전략의 차별화 요소로 ▲사전 구축된 AI 에이전트 컴포넌트와 스킬 기반의 빠른 구현 역량 ▲다양한 클라우드 또는 벤더에서 제공하는 AI와 앱에 대한 통합과 조정 ▲기업용 거버넌스 역량으로 신뢰할 수 있는 AI 구현 및 운영 ▲클라우드, 온프레미스 등 원하는 환경을 자유롭게 선택, 구축, 이동할 수 있는 하이브리드 기술 등을 강조했다.​ 한편, 한국IBM은 4월 22일 서울 드래곤시티 호텔 그랜드볼룸에서 'IBM 테크 이노베이션 서밋 2025(IBM Tech Innovation Summit 2025)'을 개최할 예정이다. 이번 행사는 AI 엔지니어, 데이터 사이언티스트, IT 아키텍트, 개발자 등 현업 IT 기술 전문가들을 대상으로 IBM의 최신 기술을 소개하고 직접 체험할 수 있는 자리로, 생성형 AI 도입부터 기술 심화 및 확장 단계, AI 에이전트, 생성형 AI를 위한 데이터, IT 자동화 등 기업의 AI 여정을 가속화할 수 있는 다양한 주제를 다룰 예정이다.
작성일 : 2025-04-21
스노우플레이크, “AI 조기 도입한 기업의 92%가 투자 대비 수익 실현”
스노우플레이크가 ‘생성형 AI의 혁신적 ROI(Radical ROI of Generative AI)’ 보고서를 발표했다. 이번 보고서는 글로벌 시장 조사 기관 ESG(Enterprise Strategy Group)와 공동으로 AI를 실제 사용 중인 9개국 1900명의 비즈니스 및 IT 리더를 대상으로 진행한 설문조사 결과를 담았다. 보고서에 따르면 AI를 도입한 기업의 92%가 이미 AI 투자를 통해 실질적 ROI(투자수익률)를 달성했고, 응답자의 98%는 올해 AI에 대한 투자를 더욱 늘릴 계획인 것으로 나타났다. 전 세계 기업의 AI 도입이 빨라지면서 데이터 기반이 성공적인 AI 구현의 핵심 요소로 떠오르고 있다. 그러나 많은 기업이 여전히 자사 데이터를 AI에 적합한 형태로 준비하는 데 어려움을 겪는 것으로 파악됐다.  전반적으로 기업들은 AI 초기 투자에서 성과를 거두고 있는 것으로 나타났다. 93%의 응답자는 자사의 AI 활용 전략이 ‘매우’ 또는 ‘대부분’ 성공적이라고 답했다. 특히 전체 응답자의 3분의 2는 생성형 AI 투자에 따른 ROI를 측정하고 있고, 1달러 투자당 평균 1.41달러의 수익을 올리며 ROI를 높이고 있는 것으로 집계됐다.  또한 국가별 AI 성숙도에 따라 기업이 AI 역량을 주력하는 분야가 달랐으며, 이는 지역별 ROI 성과와 밀접한 연관이 있는 것으로 드러났다. 미국은 AI 투자 ROI가 43%로 AI 운영 최적화 측면에서 가장 앞서 있었다. 뿐만 아니라 자사의 AI를 실제 비즈니스 목표 달성에 ‘매우 성공적’으로 활용하고 있다고 답한 비율이 52%로 전체 응답국 중 가장 높았다. 한국의 경우 AI 투자 ROI는 41%로 나타났다. 보고서에 따르면 한국 기업은 AI 성숙도가 높은 편으로 오픈소스 모델 활용, RAG(검색증강생성) 방식을 활용해 모델을 훈련 및 보강하는 비율이 각각 79%, 82%로 글로벌 평균인 65%, 71%를 웃돌았다.  특히 한국 기업들은 기술 및 데이터 활용에 있어 높은 실행 의지를 보이고 있는 것으로 나타났다. 오픈소스 모델 활용(79%), RAG 방식의 모델 훈련 및 보강(82%), 파인튜닝 모델 내재화(81%), 텍스트 투 SQL(Text to SQL, 자연어로 작성한 질문을 SQL 쿼리로 자동 변환하는 기술) 서비스 활용(74%) 등 고급 AI 기술을 활용한다고 답변한 비율이 글로벌 평균을 크게 웃돌았다. 이러한 데이터 활용 역량은 비정형 데이터 관리 전문성(35%)과 AI 최적화 데이터 보유 비율(20%)에서도 확인된다. 이런 성과에 비해 아직도 전략적 의사결정에 AI 활용하는 데에는 어려움을 겪고 있는 모습도 나타났다. 조사 결과에 따르면 응답자의 71%는 ‘제한된 자원에 대비해 추진할 수 있는 AI 활용 분야가 매우 다양하고, 잘못된 의사결정이 시장 경쟁력에 부정적 영향을 미칠 수 있다’고 답했다. 또한 응답자의 54%는 ‘비용, 사업 효과, 실행 가능성 등 객관적 기준에 따라 최적의 도입 분야를 결정하는 데 어려움을 겪고 있다’고 밝혔다. 59%는 ‘잘못된 선택이 개인의 직무 안정성까지 위협할 수 있다’고 우려했다. 한국 기업의 경우, 기술적 복잡성(39%), 활용 사례 부족(26%), 조직 내 협업 문제(31%) 등의 어려움을 겪고 있다고 답하며 아직 다양한 비즈니스 영역으로의 AI 확대는 더딘 것으로 나타났다. 그럼에도 향후 12개월 내 ‘다수의 대규모 언어 모델(LLM)을 적극적으로 도입’하고 ‘대규모 데이터를 활용할 계획’이라고 답한 기업은 각각 32%와 30%로, AI 도입 확대에 관한 강한 의지를 드러냈다. 설문에 응답한 전체 기업의 80%는 ‘자체 데이터를 활용한 모델 파인튜닝을 진행 중’이고 71%는 ‘효과적인 모델 학습을 위해 수 테라바이트의 대규모 데이터가 필요하다’고 답하며, AI의 효과를 극대화하기 위해 자사 데이터를 적극 활용하고 있는 것으로 나타났다. 그러나 여전히 많은 기업들이 데이터를 AI에 적합한 형태로 준비하는 과정에서 어려움을 겪기도 했다. 데이터 준비 과정에서 겪는 주요 과제로 ▲데이터 사일로 해소(64%) ▲데이터 거버넌스 적용(59%) ▲데이터 품질 관리(59%) ▲데이터 준비 작업 통합(58%) ▲스토리지 및 컴퓨팅 자원의 효율적 확장(54%) 등을 꼽았다. 스노우플레이크의 바리스 굴테킨(Baris Gultekin) AI 총괄은 “AI가 기업들에게 실질적인 가치를 보여주기 시작했다”면서, “평균 일주일에 4000개 이상의 고객이 스노우플레이크 플랫폼에서 AI 및 머신러닝을 활용하고 있고 이를 통해 조직 전반의 효율성과 생산성을 높이고 있다”고 강조했다.  스노우플레이크의 아르틴 아바네스(Artin Avanes) 코어 데이터 플랫폼 총괄은 “AI의 발전과 함께 조직 내 데이터 통합 관리의 필요성이 더욱 커지고 있다”면서, “스노우플레이크처럼 사용이 쉽고 상호 운용 가능하며 신뢰할 수 있는 단일 데이터 플랫폼은 단순히 빠른 ROI 달성을 돕는 것을 넘어, 사용자가 전문적인 기술 없이도 안전하고 규정을 준수하며 AI 애플리케이션을 쉽게 확장할 수 있도록 견고한 기반을 마련해 준다”고 말했다. 
작성일 : 2025-04-16
가트너, “SLM 사용량 LLM의 3배 넘으면서 활용 본격화될 것”
가트너는 기업이 2027년까지 특정 작업에 맞춰 성능을 극대화한 소규모 언어 모델(SLM)을 도입하고, 전체 사용량이 범용 대규모 언어 모델(LLM) 사용량보다 최소 3배 이상 많을 것으로 전망했다. 가트너는 범용 LLM이 강력한 언어 처리 능력을 제공하지만, 특정 비즈니스 분야의 전문성이 요구되는 작업에서는 응답 정확도가 떨어진다고 분석했다. 가트너의 수밋 아가왈(Sumit Agarwal) VP 애널리스트는 “비즈니스 업무 흐름 내 다양한 작업과 더 높은 정확도에 대한 요구로 인해 특정 기능 또는 도메인 데이터에 맞춰 미세조정한 특화 모델로의 전환이 가속화되고 있다”면서, “SLM은 응답 속도가 빠르고 컴퓨팅 자원을 적게 소모해 운영 및 유지 관리 비용을 절감할 수 있다”고 설명했다. 기업은 검색 증강 생성(RAG) 또는 미세조정 기술을 활용해 LLM을 특정 작업에 특화된 모델로 커스터마이징할 수 있다. 이 과정에서 기업 데이터는 핵심적인 차별화 요소로 작용하며, 미세조정 요구사항을 충족하도록 관련 데이터를 구성하기 위해서는 데이터 준비, 품질 관리, 버전 관리, 전반적인 관리가 필수이다. 가트너는 기업이 자사의 고유 모델을 상용화함으로써 새로운 수익원을 창출하는 동시에 상호 연결된 생태계를 구축할 수 있다고 전했으며, 소규모 AI 모델 도입을 추진하는 기업을 위한 권장 사항을 제시했다. 가트너는 ▲비즈니스 맥락이 중요한 분야나 LLM 응답 품질, 속도가 기대에 미치지 못하는 영역에 컨텍스트 기반 SLM을 시범 도입하는 것이 효과적이며 ▲단일 모델만으로는 한계가 있는 사용 사례를 파악하고, 여러 모델과 워크플로 단계를 결합한 복합적 접근 방식을 도입하는 것이 효과적이라고 전했다. 또한 ▲언어 모델 미세조정에 필요한 데이터를 수집, 선별, 구조화하는 데이터 준비 역량에 우선순위를 두는 것이 효과적이라고 덧붙였다. ▲AI 이니셔티브를 추진하기 위해 AI 및 데이터 설계자, 데이터 과학자, AI 및 데이터 엔지니어, 리스크 및 규정 준수 팀, 구매 팀, 비즈니스 전문가 등 다양한 기술, 기능 인력의 역량 강화에 투자하는 것도 효과적이라는 설명도 추가했다. 아가왈 VP 애널리스트는 “기업은 자사의 고유한 데이터와 전문화된 업무 프로세스에서 도출된 인사이트의 가치를 점차 인식하게 되면서, 이를 수익화하고 고객과 경쟁사를 포함한 더 광범위한 대상과 공유하는 방향으로 나아갈 가능성이 높다”면서, “이는 데이터와 지식에 대한 보호 중심적 접근 방식에서 보다 개방적이고 협력적인 활용 방식으로의 전환을 의미한다”고 전했다.
작성일 : 2025-04-10
가트너, 비즈니스를 바꿀 초기 단계 혁신 기술 발표
가트너가 비즈니스 시스템을 변화시킬 12가지 혁신 기술을 발표했다. 가트너는 이러한 기술이 단기적으로는 경쟁 우위를 제공하며, 장기적으로는 비즈니스 표준으로 자리 잡을 것으로 전망했다. 또한, 향후 5년간 기술 리더는 이를 우선적으로 고려할 것을 제시했다. 가트너는 초기 단계에 머물고 있는 12가지 혁신 기술에 대해 개별적으로도 상당한 영향력을 갖지만, 상호 결합될 경우 새로운 비즈니스 모델을 창출하는 보다 광범위한 신규 설루션을 만들어낼 수 있다고 밝혔다. 예를 들어, 생성형 AI 기술의 발전은 지구 지능과 비즈니스 시뮬레이션 분야에서 새로운 설루션을 탄생시키고, 도메인 특화 언어 모델의 성장을 촉진하며, 더욱 고도화된 도구 개발로 이어질 것이다. 가트너가 제시하는 주요 기술 혁신 중 일부는 다음과 같다.     생성형 AI 기반 코드 아키텍처 : 자유 형식 텍스트 및 멀티미디어 입출력을 활용한 생성형 AI 설루션 시스템은 기존에 기업 애플리케이션에서 사용되던 사용자 인터페이스(UI)를 대체하고, 새로운 사용자 시나리오를 발굴할 것이다. 가트너는 2029년까지 기업 비즈니스 프로세스와 연계된 사용자 상호작용의 50% 이상이 대규모 언어 모델(LLM)을 이용해 기존 기업 애플리케이션의 UI 레이어를 우회할 것으로 전망했으며, 이는 현재 5% 미만에서 크게 증가한 수치다. 허위 정보 보안 : 허위 정보 보안은 기업이 직접 통제하지 않는 네트워크 외부에서 발생하는 위협에 초점을 맞춘 새로운 보안이다. 여기에는 딥페이크 탐지, 사칭 방지, 평판 보호 등 허위 정보로 인한 문제를 해결하는 다양한 기술이 포함된다. 이들 기술을 통해 기업은 신뢰할 수 있는 정보를 식별하고, 브랜드를 보호하며, 온라인에서의 존재감을 유지할 수 있다. 가트너는 허위 정보 보안을 위한 제품 및 서비스를 도입하는 기업이 2024년 5% 미만에서 2030년에는 절반 이상으로 증가할 것으로 예측했다. 지구 지능 : 지구 지능(Earth intelligence)은 위성, 항공, 지상 데이터를 AI로 분석함으로써 지구의 자산 및 활동을 모니터링하고 의사결정에 필요한 인사이트를 제공하는 기술이다. 가트너는 2028년까지 전 세계 주요 지구 표면 자산의 80%가 위성을 통해 실시간으로 파악될 것으로 전망했다. 지구 지능은 광범위한 적용 가능성으로 모든 산업과 기업에서 활용될 수 있다. 초기에는 국방 분야에서 가장 먼저 도입되었지만, 데이터 품질과 분석 기술의 발전에 힘입어 활용 영역이 빠르게 확대되고 있다. 현재 지구 지능 시장은 데이터 수집, 해석 및 분석, 산업별 인사이트 도출 기업으로 구성돼 있다. 가트너의 빌 레이(Bill Ray) 수석 VP 애널리스트는 “기술 리더는 선점 효과를 얻기 위해 12가지 혁신 기술을 활용할 수 있는 즉각적인 행동에 나서야 한다. 생성형 AI 기반 코드 아키텍처, 허위 정보 보안, 지구 지능과 같은 혁신적인 기술은 기업이 데이터 및 제품 제공 측면에서 경쟁 우위를 확보하는 데 필요한 차별성을 제공할 것”이라고 전했다.
작성일 : 2025-04-08
HP, 비즈니스에 최적화된 프리미엄 AI PC 신제품 국내 공개
HP가 AI 기반의 비즈니스 노트북과 모바일 워크스테이션 등 차세대 기업용 PC 신제품을 국내 출시했다. HP는 변화하는 업무 환경 속에서 AI를 활용해 다양한 비즈니스 및 크리에이터들이 필요로 하는 생산성을 향상시키고 업무 혁신을 이끌겠다는 계획이다.   이번에 공개된 PC는 비즈니스용 엘리트북과 전문가를 위한 워크스테이션 제품으로 구성되며, AI 기반 업무 생산성과 고성능 전문 작업을 위한 차별화된 기능을 갖췄다. 엘리트북은 개인화된 AI 경험과 협업 최적화 기능을 중심으로, 이동이 잦은 비즈니스 리더가 언제 어디서든 몰입감 있는 업무 환경을 구현할 수 있도록 설계됐다. 워크스테이션 라인업은 고성능 연산과 대규모 언어 모델(LLM) 처리, 3D 설계 등 복잡한 작업에 최적화된 성능을 제공하며, 컴팩트한 폼팩터에서도 데스크톱 수준의 성능을 구현한다. HP는 이번에 최신 AI 기능을 탑재한 엘리트북(EliteBook) 라인업 2종을 선보였다. ‘HP 엘리트북 울트라 G1i 14인치(HP EliteBook Ultra G1i)’는 슬림한 디자인과 강력한 성능을 갖춰, 다양한 환경에서의 신속한 의사결정과 효율적인 협업을 지원한다. 이 제품은 AI 화상회의 설루션, 스튜디오급 녹음 기능, 9MP 카메라를 탑재하며 각각의 사용자 환경에 최적화된 기능을 제공해 업무 생산성을 더욱 높일 수 있도록 했다. 또한, 120Hz 3K OLED 디스플레이와 대형 햅틱 트랙패드로 몰입감 있는 사용자 경험을 구현한다. ‘HP 엘리트북 X 플립 G1i 14인치(HP EliteBook X Flip G1i)’는 이동이 잦은 직장인을 위한 모델로, 다양한 업무 환경에 대응할 수 있는 유연성과 성능을 갖췄다. 특히 발열과 소음 제어 기능을 갖춰 언제 어디서나 안정적인 생산성을 유지할 수 있도록 설계됐다. X 플립 모델은 노트북, 태블릿, 텐트 모드로 손쉽게 전환돼 사용자의 작업 목적에 맞춰 자유롭게 활용할 수 있다. ‘HP 충전식 액티브 펜(HP Rechargeable Active Pen)’을 함께 사용하면 정교한 필기도 가능해 다양한 업무 방식을 지원한다.   ▲ HP 엘리트북 X 플립 G1i 14인치   또한, HP는 전문가용 고성능 컴퓨팅 수요에 대응하기 위해 AMD 라이젠 AI 맥스 프로(Ryzen AI Max PRO) 프로세서를 탑재한 모바일 워크스테이션 2종도 공개했다. 라이젠 AI 맥스 프로세서를 탑재한 HP 워크스테이션 신제품은 3D 설계, 고사양 그래픽 작업이 필요한 프로젝트 렌더링, 로컬 대규모 언어 모델(LLM) 작업을 동시에 수행 가능할 정도로 높은 성능을 제공한다. ‘HP Z북 울트라 G1a(HP ZBook Ultra G1a)’는 14인치 모바일 워크스테이션으로, 이동 중에도 성능 제약 없이 다양한 업무를 수행하도록 고안됐다. 초박형·초경량 디자인에 더해 긴 배터리 수명, 차세대 AI PC 기능, 프라이버시 보호 기능까지 갖춰 다양한 환경에서 사용자가 동일한 작업 효율을 낼 수 있도록 돕는다. 16코어 CPU, 독립형 그래픽 수준의 통합 GPU, 최대 128GB의 통합 메모리 아키텍처를 제공하며, 최대 96GB를 GPU 전용으로 할당 가능하다. ‘HP Z2 미니 G1a(HP Z2 Mini G1a)’는 미니 워크스테이션으로, 전문가용 작업 환경에 요구되는 고사양 컴퓨팅 성능과 공간 효율성을 갖췄다. 최대 128GB까지 확장 가능한 통합 메모리 아키텍처를 탑재해 GPU 전용으로 최대 96GB까지 할당 가능하다. 내부 전원 공급 장치에 더해 콤팩트한 디자인과 유연한 설치 옵션을 갖춰 책상 위·아래, 모니터 뒤 등 어디에나 깔끔하게 배치 가능하며 성능, 관리 용이성, 보안을 모두 갖춘 고밀도 랙 마운트 설루션에도 적합하다.   ▲ HP Z북 울트라 G1a   한편, 이번에 공개된 모든 신제품은 CES 2025 혁신상을 수상한 AI 설루션 ‘HP AI 컴패니언(HP AI Companion)’을 기본 탑재해, 사용자가 개인화된 환경에서 문서를 요약하고 빠른 의사 결정에 도움을 받을 수 있다. 뿐만 아니라 통합 보안 설루션 ‘HP 울프 시큐리티(Wolf Security)’의 인텔리전스 기능도 갖춰, 사이버 위협으로부터 엔드포인트 전반의 보안을 유지해준다. 이 밖에도 HP는 AI 기술 발전에 따라 정교해지는 사이버 보안 위협에 대응하기 위해 최신 위협 인사이트 보고서를 바탕으로 선제적 대응 체계를 강화하는 등, 기업들이 안정적인 작업 환경을 조성할 수 있도록 지속적으로 노력하고 있다. HP 코리아의 김대환 대표는 “AI와 자동화 기술, 업무 환경의 급격한 변화 속에서 HP가 주목하는 것은 단연 ‘미래의 업무(Future of Work)’ 방식이다. 단순한 기술 판매를 넘어, 고객들이 실제 업무 현장에서 AI 기반 설루션의 도움을 체감할 수 있도록 하는 것이 HP의 궁극적인 목표”라고 밝혔다. 또한 “HP는 그간 PC 산업을 선도해 온 기술 리더십을 바탕으로 변모하는 시대에 또 한 번의 지평을 열어 갈 것”이라며 AI PC 시대를 향한 의지를 전했다.
작성일 : 2025-04-03
오픈소스 LLM 기반 블렌더 모델링 AI 에이전트 개발하기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 올라마(Ollama)와 오픈AI(OpenAI) GPT가 지원하는 오픈 소스 AI 모델을 블렌더(Blender)와 연결해 프롬프트 입력에 의한 자동 모델링 에이전트를 개발하는 방법을 설명한다. 이 연결을 통해 3D 모델링 작업 흐름을 간소화하고, 간단한 텍스트 프롬프트만으로 3D 장면을 생성하고 수정할 수 있다. 이번 호의 내용을 통해 이 프로세스를 직접 구현하는 방법을 이해하고, AI 에이전트 도구로서 LLM 모델의 역량을 평가할 수 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 프롬프트 : ‘Generate 100 cubes along the line of a circle with a radius of 30. The color and size of each cube are random.’   개념 : 텍스트 기반 3D 모델링 ‘텍스트 기반 3D 모델링’이란, 사용자가 입력한 텍스트를 AI 모델이 분석하여 블렌더에서 실행할 수 있는 코드를 생성하고 이를 통해 3D 그래픽을 구현하는 방식이다. 텍스트 토큰을 조건으로 설정하여 메시 모델을 생성하는 방법도 존재하며, 이는 스테이블 디퓨전(Stable Diffusion : SD) 계열의 기술을 활용하는 경우가 많다. 그러나 SD 기반 모델은 정확한 크기와 위치를 지정하는 데 근본적인 한계를 가진다. 이번 호에서는 정확한 치수를 가진 모델을 생성하는 것에 초점을 맞추고 있으므로, SD 기반 모델에 대한 자세한 설명은 생략한다. 텍스트를 3D 모델로 변환하는 에이전트 도구는 CAD 툴과의 상호작용 방식을 개선할 가능성이 있으며, 그래픽 모델링의 진입 장벽을 낮추고 신속한 프로토타이핑이 가능할 수 있다.   실행 가능한 코드 다운로드 이번 호의 내용과 관련된 실행 가능한 코드는 깃허브(GitHub)에서 다운로드할 수 있으니 참고한다. GitHub 링크 : https://github.com/mac999/blender-LLM-addin   라이브러리 설치 블렌더와 올라마를 설치해야 한다.   1. 블렌더 다운로드 : blender.org   2. 윈도우에서 올라마 다운로드 : https://ollama.com/download   3. 오픈 소스 LLM 모델 설치(터미널에서 실행) ollama pull llama3.2 ollama pull gemma2 ollama pull codellama ollama pull qwen2.5-coder:3b ollama pull vanilj/Phi-4   4. 필요한 라이브러리 설치 pip install pandas numpy openai ollama   블렌더의 파이썬(Python) 환경에서 라이브러리를 설치하려면, 블렌더 설치 경로에 맞게 다음을 실행해야 한다. cd "C:/Program Files/Blender Foundation/Blender /python/bin" ./python.exe -m ensurepip ./python.exe -m pip install pandas numpy openai ollama   코드 설명 블렌더 UI 패널 생성 사용자가 블렌더에서 직접 모델을 선택하고 텍스트 프롬프트를 입력할 수 있도록 커스텀 UI를 생성한다. class OBJECT_PT_CustomPanel(bpy.types.Panel):  bl_label = "AI Model Selector"  bl_idname = "OBJECT_PT_custom_panel"  bl_space_type = 'VIEW_3D'  bl_region_type = 'UI'  bl_category = "Gen AI 3D Graphics Model"  def draw(self, context):   layout = self.layout   layout.label(text="Select Model:")   layout.prop(context.scene, "ai_model", text="")   layout.label(text="User Prompt:")   layout.prop(context.scene, "user_prompt", text="")   layout.operator("object.submit_prompt", text="Submit")     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-04-02