• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "에이전틱 AI"에 대한 통합 검색 내용이 50개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HPE, 엔비디아와 협력해 에이전틱·피지컬 AI 혁신 가속화
HPE는 기업이 AI를 도입하고 개발 및 운영하는 과정을 폭넓게 지원하는 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)’ 포트폴리오의 주요 혁신 사항을 공개했다. HPE는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)와의 통합을 한층 강화하고, 최신 엔비디아 AI 모델 및 엔비디아 블루프린트(NVIDIA Blueprints)를 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)에 탑재함으로써 개발자들이 AI 애플리케이션을 보다 간편하게 구축하고 운영할 수 있도록 지원하게 되었다고 전했다. 또한 HPE는 엔비디아 블랙웰(NVIDIA Blackwell) 기반 가속 컴퓨팅을 탑재한 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) 서버를 출하할 예정이며, 이를 통해 생성형 AI, 에이전틱 AI 및 피지컬 AI 워크로드를 향상된 성능으로 지원할 수 있을 것으로 보고 있다. 엔비디아 블랙웰 아키텍처를 탑재한 HPE 프로라이언트 컴퓨트 서버는 두 종류의 엔비디아 RTX PRO 서버 구성을 포함한다. HPE 프로라이언트 DL385 Gen11 서버는 신규 2U RTX PRO 서버 폼팩터의 공랭식 서버로, 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 최대 2개까지 지원한다. 이 제품은 기업의 증가하는 AI 수요를 충족해야 하는 데이터센터 환경에 최적화된 설계를 지향한다. HPE 프로라이언트 컴퓨트 DL380a Gen12 서버는 4U 폼팩터 기반으로, 엔비디아 RTX PRO 6000 GPU를 최대 8개까지 지원하며 2025년 9월 출시될 예정이다.   특히 HPE 프로라이언트 컴퓨트 Gen12 서버는 HPE iLO(Integrated Lights Out) 7의 실리콘 RoT(Root of Trust) 및 시큐어 인클레이브(Secure Enclave) 기반으로 한 다층 보안 기능을 갖추고 있으며, 위조 및 변조 방지 보호와 양자 내성 펌웨어 서명(quantum-resistant firmware signing) 기능을 통해 한층 강화된 보안 환경을 제공한다.   ▲ HPE 프로라이언트 DL380a Gen12 서버   또한, HPE 컴퓨트 옵스 매니지먼트(HPE Compute Ops Management)으로 지원되는 중앙 집중형 클라우드 네이티브 방식의 라이프사이클 자동화 기능은 서버 관리에 소요되는 IT 업무 시간을 최대 75%까지 줄이고, 서버당 연간 평균 4.8시간의 다운타임 감소 효과를 제공한다. 대상 워크로드에는 생성형 및 에이전틱 AI을 비롯해 로보틱스 및 산업용 사례 등 피지컬 AI, 품질 관리(QC) 모니터링 및 자율주행과 같은 비주얼 컴퓨팅, 시뮬레이션, 3D 모델링, 디지털 트윈, 그리고 각종 엔터프라이즈 애플리케이션이 포함된다. 한편, HPE는 올해 말 출시 예정인 차세대 ‘HPE 프라이빗 클라우드 AI’를 발표했다. 이 설루션은 엔비디아 RTX PRO 6000 GPU를 탑재한 HPE 프로라이언트 컴퓨트 Gen12 서버를 지원하며, GPU 세대 간의 원활한 확장성, 폐쇠망(air-gapped) 관리 및 엔터프라이즈 멀티 테넌시(multi-tenancy) 기능 등을 제공할 예정이다. HPE와 엔비디아가 공동 개발한 엔터프라이즈 턴키 AI 팩토리 설루션인 HPE 프라이빗 클라우드 AI는 에이전틱 AI를 위한 최신 버전의 엔비디아 네모트론(NVIDIA Llama Nemotron) 모델, 피지컬 AI 및 로보틱스를 위한 코스모스 리즌(Cosmos Reason) VLM(vision language model), 엔비디아 블루프린트 VSS 2.4 (NVIDIA Blueprint for Video Search and Summarization)를 지원하여 대규모 영상 데이터에서 인사이트를 추출하는 영상 분석 AI 에이전트를 구축할 수 있다. 또한, HPE 프라이빗 클라우드 AI는 최신 AI 모델을 위한 엔비디아 NIM 마이크로서비스, 엔비디아 블루프린트를 빠르게 배포할 수 있도록 맞춤형 설계되어, 고객들은 HPE AI 에센셜(HPE AI Essentials)를 통해 이를 간편하게 활용할 수 있다. 이와 함께 HPE 프라이빗 클라우드 AI는 엔비디아 AI 가속화 컴퓨팅, 네트워킹, 소프트웨어와의 깊은 통합을 바탕으로, 기업들이 데이터 통제를 유지하면서도 AI의 가치를 보다 신속하게 활용할 수 있도록 지원한다. 이를 통해 고객은 급증하는 AI 추론 수요를 효과적으로 관리하고 AI 생산 속도를 가속화할 수 있다. HPE 셰리 윌리엄스(Cheri Williams) 프라이빗 클라우드 및 플렉스 설루션 부문 수석 부사장 겸 총괄은 “HPE는 AI 시대를 맞아 기업들이 성공을 이룰 수 있도록 필요한 툴과 기술을 제공하는 데 전념하고 있다”면서, “엔비디아와의 협업을 통해 기술 혁신의 경계를 지속적으로 넓혀가며, 생성형 AI, 에이전틱 AI, 피지컬AI의 가치 실현을 포함해 엔터프라이즈 환경의 복잡하고 다양한 요구를 충족하는 설루션을 제공하고 있다. HPE 프로라이언트 서버와 HPE 프라이빗 클라우드 AI의 확장된 역량을 결합함으로써, 기업들이 AI 혁신의 다음 단계를 더욱 신속하고 신뢰 있게 수용할 수 있도록 지원하고 있다”고 밝혔다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 AI 부사장은 “기업은 최신 AI 요구사항에 맞추기 위해 유연하고 효율적인 인프라가 필요하다”면서, “엔비디아 RTX PRO 6000 블랙웰 GPU를 탑재한 HPE 2U 프로라이언트 서버는 단일 통합형 기업용 플랫폼에서 거의 모든 워크로드를 가속화할 수 있도록 해줄 것”이라고 밝혔다.
작성일 : 2025-08-18
오라클, OCI 생성형 AI 서비스에 구글 제미나이 모델 제공
오라클과 구글 클라우드는 구글의 최신 AI 모델인 제미나이(Gemini) 2.5부터 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스를 통해 제공한다고 발표했다. 이를 통해 오라클 고객은 멀티모달 이해, 고급 코딩 및 소프트웨어 개발, 생산성과 업무 프로세스 자동화, 연구 및 지식 검색 등 다양한 활용 사례에서 AI 에이전트를 구축할 수 있게 됐다. 또한, 오라클과 구글 클라우드는 AI 관련 분야에서 협력을 강화할 계획이다. 오라클은 구글 클라우드의 버텍스 AI(Vertex AI)와의 새로운 통합을 통해 비디오 및 이미지, 음성,·음악 생성용 최첨단 모델과 MedLM 같은 산업 특화 모델을 포함한 제미나이 전체 모델 제품군을 OCI 생성형 AI 서비스에서 제공할 계획이다. 또한, 오라클 퓨전 클라우드 애플리케이션(Fusion Cloud Applications) 내에서도 버텍스 AI 기반 제미나이 모델을 선택 옵션으로 제공해, 금융 및 인사, 공급망, 영업, 서비스, 마케팅 등 주요 업무 프로세스에 AI 기능을 강화할 수 있도록 더 폭넓은 선택지를 제공할 예정이다. 오라클 고객은 보유 중인 오라클 유니버설 크레딧(Oracle Universal Credits)으로 제미나이 모델을 바로 사용할 수 있다. 구글 제미나이 모델은 최신성을 위해 구글 검색 데이터를 기반으로 응답을 보강하는 기능과 대규모 맥락 창(context windows), 강력한 암호화와 데이터 프라이버시 정책, 그리고 우수한 추론 능력을 앞세워 엔터프라이즈 환경에서 높은 성능을 발휘할 수 있게 했다. 오라클은 기업 데이터와 가까운 곳에서 최신 AI 기술을 제공하며, 보안 및 유연성, 확장성을 우선시한다. 이를 통해 산업 전반의 기업 고객이 생성형 AI와 에이전틱 AI를 적합한 비즈니스 시나리오에 즉시 적용할 수 있도록 돕는다. 또 전 세계 수천 명의 AI 개발자와 기업이 OCI의 경제적이고 특화된 AI 인프라를 활용해 대규모 및 고난도 AI 워크로드를 더 빠르게 실행하고 있다. OCI 베어메탈 GPU 인스턴스는 생성형 AI, 자연어 처리(NLP), 컴퓨터 비전, 추천 시스템 같은 애플리케이션을 구동할 수 있다. 구글 클라우드의 토마스 쿠리안(Thomas Kurian) CEO는 “선도적인 기업들은 이미 제미나이를 활용해 다양한 산업과 업무에서 AI 에이전트를 구동하고 있다”면서, “이제 오라클의 기업 고객은 오라클 환경에서 구글 클라우드의 대표 모델에 접근할 수 있어, 개발자 지원과 데이터 통합 작업 간소화, 그 외 다양한 기능을 수행하는 강력한 AI 에이전트를 배포하는 일을 훨씬 쉽게 시작할 수 있다”고 말했다. 오라클 클라우드 인프라스트럭처의 클레이 마고요크 사장은 “오라클은 기업 고객을 위해 엄선한 다양한 AI모델 선택지를 전략적으로 제공해 왔으며, 여기에는 공개 모델과 독점 모델이 모두 포함된다”라며, “OCI 생성형 AI 서비스에서 제미나이를 제공하는 것은 고객이 혁신을 추진하고 비즈니스 목표를 달성할 수 있도록 강력하고 안전하며 비용 효율적인 AI 설루션을 제공하겠다는 오라클의 의지를 반영하는 것”이라고 전했다.
작성일 : 2025-08-18
유아이패스, “국내 기업 90% 이상이 1년 내 AI 에이전트 도입 예정”
에이전틱 자동화 기업 유아이패스는 IDC에 의뢰해 조사한 ‘에이전틱 자동화 : 오늘날 기업을 위한 유기적 오케스트레이션 구현(Agentic Automation : Unlocking Seamless Orchestration for the Modern Enterprise)’ 보고서를 인용해, 국내 기업의 약 24%가 이미 에이전틱 AI를 도입했으며 약 67%는 향후 12개월 내 에이전틱 AI를 도입할 계획이라고 전했다. 유아이패스는 AI 에이전트 도입이 초기 실험 단계를 지나 본격 확산 국면에 접어들고 있으며, 2025년은 국내 기업의 AI 도입 과정에서 중요한 전환점이 될 것이라고 전망했다. 기업들이 제품과 서비스 품질을 높이고, 경쟁 우위를 확보하며, 직원 생산성을 개선하려는 수요에 힘입어 대규모 AI 도입도 속도를 내고 있다. 국내 기업의 67%는 에이전틱 AI가 복잡한 업무 처리에 도움이 된다고 답했으며, 54%는 생산성 향상 효과를 실감하고 있다고 응답했다. 디지털 전환 확산과 함께 자율적이고 효율적인 시스템에 대한 수요도 늘어나며, 에이전틱 AI 도입 역시 가속화되고 있다. 특히 금융, 운송, 교육 분야에서의 도입이 활발하며, 2025년 주목받는 활용 분야로는 고객 지원(63%), 생산성 향상(54%), 리스크 관리 및 이상 거래 탐지(50%)가 꼽혔다. 국내 기업들은 AI 도입에 다양한 접근 방식을 취해왔지만, 본격적인 확산 단계에서는 여전히 여러 난관에 부딪히고 있다. 특히 양질의 학습 데이터 부족(26%), 전문 인력 부족(22%), 기업 규제로 인한 데이터 접근 제한(22%) 등이 AI 확산을 가로막는 주요 요인으로 꼽혔다. 에이전틱 AI 도입과 관련해서는 자율적 행동에 따른 보안 취약성(46%), 비즈니스 적용 사례 부족(44%), 개인정보 침해 우려(43%)가 주요 리스크로 꼽혔다. 실제 구현 과정에서도 데이터 보안 문제(69%), 사내 IT 전문 인력 부족(54%), 기존 시스템과의 통합 문제(47%)가 주요 과제로 나타났다. 여러 제약에도 불구하고 에이전틱 AI는 국내에서 빠르게 확산되는 추세다. 전체 기업의 약 82%가 아직 본격적인 투자를 진행하진 않았지만, 다양한 활용 방안을 적극적으로 모색하고 있다. AI 기반 비즈니스 전환을 이끄는 중심에는 ‘에이전틱 자동화’가 있다. 에이전틱 자동화는 에이전틱 AI와 로보틱 프로세스 자동화(RPA)를 통합해 엔터프라이즈 워크플로에 적용하고, 자율형 AI 에이전트를 통해 복잡한 과제를 수행함으로써 효율성, 확장성, 혁신 역량을 높인다. 기업은 에이전틱 오케스트레이션(agentic orchestration)을 활용해 개별 AI 작업을 유기적으로 연결하고, 워크플로우를 유연하게 관리하며 조직 전반에 걸쳐 에이전틱 자동화를 확장하고 있다. 유아이패스는 기업과 정부의 추진 과제에 대해서도 짚었다. 에이전틱 AI 도입이 확산되면서 기업들은 인간과 AI 에이전트가 유기적으로 협력할 수 있는 투명한 생태계를 구축하고, 데이터 보안과 개인정보 보호를 철저히 준수하면서도 강력한 거버넌스와 명확한 의사결정 체계를 갖춘 자동화 설루션 도입에 우선순위를 둬야 한다. 기술 책임자들은 자사에 가장 적합한 에이전틱 도구를 검토하고, 기존 시스템과 애플리케이션에 유연하게 통합되면서도 확장 가능한 플랫폼을 우선적으로 선택해야 한다. 정부 역시 윤리적 AI 활용을 위한 정책과 기준 및 규제 지침을 명확히 제시해 거버넌스 체계를 강화해야 한다. 데이터 보안, 윤리적 이슈, 규제 대응을 위해서는 투명한 리스크 관리와 보안 강화, 인재 양성을 위한 교육, 그리고 인프라 비용 절감을 위한 공공·민간 협력이 병행돼야 한다. 유아이패스 코리아 조의웅 지사장은 “에이전틱 자동화는 한국 기업의 비즈니스 운영 방식을 빠르게 재편하고 있다. 기업은 경쟁력 확보와 복잡한 비즈니스 프로세스 자동화를 위해 AI 에이전트의 잠재력을 적극 활용하고 있지만, 신뢰와 보안에 대한 우려는 여전히 AI 도입 확산의 걸림돌로 작용하고 있다”면서, “유아이패스의 에이전틱 자동화 플랫폼은 보안과 컴플라이언스를 강화하고, AI 에이전트가 생성한 결과의 정확성과 신뢰성을 높임으로써 기업의 AI 도입 장벽을 낮춘다”고 전했다. IDC 디피카 기리(Deepika Giri) 아시아태평양 AI 리서치 총괄 부사장은 “오늘날처럼 예측하기 어려운 경영 환경 속에서 AI 기반 기업으로의 전환은 더 이상 선택이 아닌 필수”라며, “많은 조직들이 에이전틱 AI와 자동화를 전사적으로 도입하고 있으며, 이를 통해 전례 없는 수준의 생산성과 성장을 실현하고 혁신을 가속화할 수 있는 가능성에 주목하고 있다. 이러한 기술은 향후 불확실성에 유연하게 대응할 수 있는 조직 기반을 마련하는 데에도 핵심적인 역할을 할 것”이라고 밝혔다.
작성일 : 2025-08-06
[포커스] AWS, “다양한 기술로 국내 기업의 생성형 AI 활용 고도화 돕는다”
아마존웹서비스(AWS)는 최근 진행한 설문조사를 통해 국내 기업들의 AI 활용 현황과 과제를 짚었다. 또한, 신뢰할 수 있는 고성능의 인공지능 에이전트(AI agent)를 구축하고 배포할 수 있는 환경을 제공하면서 한국 시장에 지원을 강화하고 있다고 밝혔다. AWS는 AI의 도입과 활용 과정에서 기업이 겪는 기술적 어려움을 줄이고, 더 많은 기업이 쉽고 안전하게 생성형 AI를 도입하여 비즈니스 가치를 창출할 수 있도록 돕는 데 집중하고 있다. ■ 정수진 편집장    기업의 AI 도입률 높지만…고도화 위한 과제는?  AWS와 스트랜드 파트너스(Strand Partners)는 2025년 4월 한국 기업 1000곳과 일반인 1000명을 대상으로 AI에 대한 행동과 인식에 대한 설문조사를 진행하고, 그 결과를 바탕으로 한국 기업의 AI 활용 현황을 평가했다. 이 조사는 유럽에서는 3년째 진행되어 왔는데, 이번에 글로벌로 확장해 동일한 방법론을 적용했다. 스트랜드 파트너스의 닉 본스토우(Nick Bonstow) 디렉터는 설문조사 보고서의 내용을 소개하면서, 한국 기업의 AI 도입 현황과 주요 과제를 분석했다. 조사에서는 한국 기업의 48%가 AI를 도입 및 활용하고 있는 것으로 나타났는데, 이는 전년 대비 40% 성장한 수치이다. 유럽 기업의 평균 AI 도입률인 42%보다 높았는데, 특히 지난해에만 약 49만 9000 개의 한국 기업이 AI를 처음 도입한 것으로 추정된다. 본스토우 디렉터는 “AI를 도입한 기업들은 실질적인 이점을 경험하고 있다. 56%가 생산성 및 효율성 향상으로 매출 증가를 경험했고, 79%는 업무 생산성 향상 효과를 확인했다. 그리고 AI 도입에 따라 주당 평균 13시간의 업무 시간을 절감했다”고 소개했다. AI 도입률은 높지만, 국내 기업의 70%는 여전히 챗봇이나 간단한 반복 업무 자동화와 같은 기초적인 수준의 AI 활용에 머무르고 있는 상황이다. AI를 다양한 업무 영역에 통합하는 중간 단계는 7%, 여러 AI 도구나 모델을 결합하여 복잡한 업무를 수행하거나 비즈니스 모델을 혁신하는 변혁적 단계는 11%에 불과했다. 본스토우 디렉터는 “기업들이 AI의 잠재력을 완전히 활용하기 위해 더 높은 단계로 나아가야 할 필요가 있다”고 짚었다. 본스토우 디렉터는 국내 기업의 AI 도입이 양극화되고, AI 혁신의 편차를 키울 수 있다고 전했다. 한국 스타트업의 70%가 AI를 확대하고 있는데 이는 유럽의 58%보다 높은 수치로, 국내 스타트업 생태계는 AI 도입에서 뚜렷한 강점을 보였다. 스타트업의 33%는 AI를 비즈니스 전략 및 운영의 핵심 요소로 두고 있으며, 32%는 가장 고도화된 방식으로 AI를 활용하고 있다. 또한, 21%는 AI 기반의 새로운 제품 및 서비스를 개발 중이다. 반면, 국내 대기업의 69%는 여전히 AI를 효율 개선, 업무 간소화 등 기초적인 수준에서만 활용하고 있는 것으로 나타났다. 대기업의 10%만이 AI 기반 신제품 또는 서비스 개발 단계에 진입했는데, 이는 스타트업의 절반 수준이다. 이번 조사에서는 AI 도입의 주요 장애 요인으로 기술 및 디지털 인재의 부족, 자금 접근성, 규제 환경 등이 꼽혔다. 조사 응답 기업의 43%가 디지털 인재를 확보하지 못해 AI 도입 또는 확산에 어려움을 겪고 있다고 응답했고, 지난 1년간 디지털 역량 교육에 참여한 직원은 약 34%였다. 67%의 기업은 정부의 지원 정책이 AI 도입 결정에 중요하다고 응답했으며, 45%의 스타트업은 벤처 자본 56 · 접근성이 성장을 위한 핵심 요소라고 평가했다. 그리고 국내 기업들은 기술 예산 가운데 평균 23%를 규제 준수 비용에 투입하고 있으며, 34%는 AI 기본법 등 관련 입법으로 인해 이 비용이 증가할 것으로 예상했다. 본스토우 디렉터는 “한국이 AI 부문에서 세계를 선도할 수 있는 인프라와 스타트업 생태계 그리고 강한 열정을 가지고 있음을 확인했다. 하지만 AI 활용의 깊이를 더해주는 변혁적인 활용으로 나아가지 못하고 있는 점과 인재 부족, 규제 불확실성 등의 장애 요인을 해결해야 AI를 미래의 성장 동력과 경쟁력의 원천으로 삼을 수 있을 것”이라고 평가했다. 그리고, 이를 위해 한국 정부가 ▲기술 인재에 대한 투자 ▲혁신 친화적이고 명확한 규제 환경 조성 ▲공공 부문의 기술 현대화 및 디지털 전환 추진 등에 관심을 기울일 것을 제안했다.   ▲ AWS 김선수 AI/ML 사업 개발 수석 스페셜리스트   기업의 생성형 AI 활용 문턱 낮춘다 AWS의 김선수 AI/ML 사업 개발 수석 스페셜리스트는 국내 기업들이 AI를 잘 활용할 수 있도록 돕는 AWS의 생성형 AI 기술 스택과 주요 서비스를 소개했다. 그는 “2023년이 생성형 AI 개념 검증(PoC)의 해였다면 2024년은 생산 적용, 2025년은 비즈니스 가치 실현의 해가 될 것”이라고 짚었다. 또한 복잡한 작업을 자율적으로 수행하는 에이전트 AI에 대한 관심이 커지고 있다면서, 가트너(Gartner)의 전망을 인용해 “2026년까지 기업의 80% 이상이 생성형 AI API(애플리케이션 프로그래밍 인터페이스)를 사용하거나 관련 기능이 탑재된 애플리케이션을 배포할 것”이라고 전망했다. AWS는 생성형 AI를 위한 기술 스택을 세 가지 계층으로 제공한다. 가장 아래쪽에는 GPU, AI 프로세서 등을 포함해 모델 훈련과 추론에 필요한 인프라 레이어가 있고, 중간에는 AI 모델에 연결하여 각 기업에 최적화된 생성형 AI 애플리케이션을 구현하도록 돕는 모델/도구 레이어, 가장 위쪽에는 복잡한 개발 없이 쉽고 빠르게 활용할 수 있는 생성형 AI 애플리케이션 레이어가 있다. 이 기술 스택의 핵심으로 AWS가 내세운 것이 아마존 베드록(Amazon Bedrock)이다. 베드록은 생성형 AI 애플리케이션을 쉽게 구축하고 확장할 수 있도록 지원하는 완전 관리형 서비스이다. 앤트로픽, 메타, 미스트랄 AI 등 12개가 넘는 AI 기업의 파운데이션 모델(FM)을 선택해 활용할 수 있다는 점이 특징이다. 아마존 베드록은 비용, 지연 시간, 정확도를 최적화할 뿐만 아니라 기업의 필요에 맞게 모델을 맞춤 설정하거나 유해 콘텐츠/프롬프트 공격 등을 필터링해 안전한 AI 활용 환경을 갖출 수 있도록 돕는다. 김선수 수석 스페셜리스트는 “베드록은 프롬프트 엔지니어링, 검색 증강 생성(RAG), 미세조정(파인 튜닝) 등 다양한 방식으로 모델을 활용할 수 있도록 지원한다. 특히 RAG 구현을 위한 지식 베이스 및 벡터 검색 기능을 기본으로 제공해, 기업의 내부 데이터를 안전하게 연결하고 관련성 높은 답변을 생성할 수 있다”고 전했다. 최근 생성형 AI는 어시스턴트(assistant)를 넘어 워크플로를 자동화하는 에이전트(agent)로 진화하고 있으며, 궁극적으로는 사람의 개입 없이 AI끼리 자율적으로 협업하는 에이전틱 AI(agentic AI) 시스템으로 나아갈 것으로 보인다. AWS는 생성형 AI 에이전트 구축을 위해 ▲아마존 Q 디벨로퍼(Amazon Q Developer)와 같이 사전 구축된 에이전트 제품 ▲아마존 베드록 에이전트(Amazon Bedrock Agents)와 같이 내장된 오케스트레이션을 제공하는 완전 관리형 설루션 ▲스트랜드 에이전트(Strands Agents)와 같은 경량 오픈소스 SDK(소프트웨어 개발 키트)를 활용해 직접 에이전트를 구축할 수 있는 제품 등을 선보이고 있다.    ▲ AWS는 AI 에이전트의 구축과 배포를 위해 다양한 기술을 제공한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
[칼럼] AI 스터디그룹(데이터공작소)에서 답을 찾다
현장에서 얻은 것 No. 20   피곤했지만 놓칠 수 없는 기회, AI 스터디그룹(데이터공작소)에서 답을 찾다.”   AI 시대, 배움과 연결에서 찾은 성장 동력 일상에 지쳐 몸은 천근만근이었지만, 빠르게 변화하는 인공지능(AI) 시대에 뒤쳐질 수 없다는 생각에 발걸음을 재촉했다. 특히 AI 기술이 단순한 효율성 도구를 넘어 업무 방식과 산업 지형을 근본적으로 바꾸고 있다는 통찰 앞에 서니, 피로감은 부차적인 문제로 느껴졌다. 이러한 변화의 파고를 헤쳐나갈 답을 찾기 위해, 필자는 주말에 스터디하는 데이터공작소 TFT, 데이터 공작소의 매주 월요일 줌강의, 매달 모임과 자율주행 회사들의 특별한 만남인 미모셀, 지식을 공유하고 서로 도움을 주는 네트워크 모임인 한국미래융합연구원 등 AI 및 관련 기술 스터디 그룹의 문을 두드렸다. 이곳에서 만난 전문가들과의 지식 공유와 토론은 필자가 가진 궁금증을 해소하고 새로운 가능성을 탐색하는 데 귀중한 기회가 되었다. “배우는 법을 배우라.” − 데미스 허사비스(Demis Hassabis) CEO, 구글 딥마인드   ▲ 피곤했지만 놓칠 수 없는 기회, AI 스터디그룹   AI 에이전트와 MCP : AI의 실행력을 극대화하는 연결 고리 탐색 스터디 그룹에서 가장 주목받는 개념은 AI 에이전트였다. AI 에이전트는 환경을 인식하고 스스로 결정하며 목표를 달성하는 소프트웨어 개체로 정의된다. 독립적으로 작동하며 목표를 향해 지속적으로 학습하고 개선하는 특징을 가진다. 데이터를 수집, 분석하고 최적의 행동을 선택하여 실행하는 방식으로 작동하며, 질문에 대한 하위 질문을 생성하고 리서치한 후 포괄적인 답변을 제공하거나 AI 요약 결과를 자동화하고 개선하는 등 다양한 기능을 수행할 수 있다. 일부는 다양한 도구를 사용하여 복잡한 작업을 수행하는 완전 자율 시스템으로 정의되기도 하고, 미리 정의된 워크플로를 따르는 규범적인 구현을 설명하기도 한다. 이러한 AI 에이전트의 역량을 극대화하는 핵심 기술로 MCP(Model Context Protocol)가 소개되었다. MCP는 LLM(Large Language Model) 애플리케이션과 외부 데이터 소스 및 다양한 도구 간의 원활한 통합을 가능하게 하는 개방형 프로토콜이다. 마치 USB-C가 다양한 전자기기를 연결하듯, MCP는 웹 서비스와 AI 에이전트를 연결하여 AI가 서비스에 직접 접근할 수 있도록 돕는 핵심 기술이다. 이를 통해 LLM은 단순히 텍스트를 생성하는 것을 넘어 현실의 도구들과 연결되며 이메일 작성 및 전송, 캘린더 약속 등록, 슬랙 메시지 전송, 파일 저장 및 정리, 소셜 미디어 검색 및 게시, 스프레드시트 데이터 정리, 줌 회의 예약 및 회의록 작성, 노션 자료 활용 등 다양한 작업을 실행할 수 있게 된다. 이는 에이전틱 AI(agentic AI) 발전의 중요한 요소로 강조되었다. 또한, MCP는 프레임워크나 벤더에 관계없이 에이전트 간 상호 운용 가능한 통신을 안전하게 지원하는 것을 목표로 한다. API와 MCP가 반드시 필요한 것은 아니지만, 엄청난 잠재력을 가지고 있다는 점이 강조되었다. API 연결은 개발자에게도 쉬운 일은 아니며 권한 부여 문제 등이 있기 때문에, MCP가 이를 더 쉽게 만들 수 있는지에 대한 고민도 있었다. “미래를 예측하는 최선의 방법은 미래를 창조하는 것.” − 정종기 박사, AI 비즈니스 전문가   바이브 코딩과 커서 : AI를 개발 동료로 활용하는 방법 AI 스터디에서는 개발의 패러다임 변화인 ‘바이브 코딩’에 대한 논의도 활발했다. 전통적인 코딩이 ‘개발자가 자신의 작업을 대신할 프로그램을 만드는 것’이라면, 바이브 코딩은 ‘AI가 자신의 작업을 대신할 프로그램을 만드는 것’이다. 이는 AI에게 개발을 외주로 맡기는 것과 유사한 개념으로 설명된다. 좋은 바이브 코더는 좋은 외주 의뢰자가 갖춰야 할 다섯 가지 역량을 AI에게 적용해야 한다. 내 문제를 풀기 위한 작업 정의(PRD, 유저 플로) AI가 잘 이해할 수 있게 의사소통(프롬프트, 지침) 프로그램을 잘 만들기 위한 리소스 지원(데이터, API, 실행/배포 환경) 프로그램이 의도대로 동작하는지 검수(자동화 테스트) 이 과정에서 모르는 것을 배워 점차 스스로 할 수 있게 되는 것이다. 커서(Cursor)는 이러한 ‘LLM-assisted IDE’ 개념을 제시하는 도구로 소개되었다. 복잡한 프로그래밍 지식, 문서, 오류 메시지 기반의 학습 곡선이나 사전 설계 중심의 신중한 개발 문화, 툴과 언어, 개발 환경의 복잡성 같은 문제 속에서 커서는 아이디어를 즉각 코드로 구현하고 비전문가의 접근성을 폭발적으로 증대시키며 LLM 기반의 빠른 실험과 피드백 루프를 가능하게 한다. 문법 대신 의도 전달과 맥락 중심으로 전환되는 패러다임의 변화를 지원한다. 데이터공작소 개발TFT(서울팀) 관련 세션에서는 커서를 활용한 실질적인 개발 프로세스가 시연되었다. 혼자서 다양한 역할을 수행하는 ‘솔로프리너’ 관점에서 기획부터 개발, 테스트, 배포, 모니터링, 마케팅까지 전 과정을 AI와 함께 진행하는 방법이 제시되었다. 커서를 통해 아이디어 구체화, 기획 문서 작성(PRD, 비즈니스 모델 캔버스), 프로젝트 관리(Task Master MCP를 활용한 작업 목록 생성, 복잡도 계산, 하위 태스크 분해), 실제 코드 작성, 그리고 문서화(Obsidian 연동) 등이 가능함을 보여주었다. 특히 개발 경험이 있는 발표자인 어니컴의 최성훈 팀장은 커서를 통해 불편하고 반복적인 작업의 상당 부분을 자동화하고, 단계별로 명확한 지시를 내리며 태스크 관리를 통해 AI가 맥락을 이해하도록 유도하는 장점을 강조했다. 그는 커서를 쓰면서 처음에는 AI가 코딩을 짜는 것을 도와주는 정도라고 생각했고, 코드를 다 안 봐도 알아서 다 짜 주는 줄 알았다고 했다. 하지만 실제로 해 보니 절대 그렇지는 않았고, 다만 불편하거나 반복적인 작업에서는 충분히 활용 가치가 있음을 느꼈다고 했다. AI와 소통하며 생각을 체계화하고 문서화하며 원하는 것을 구체화하고 실행 계획을 짜서 이뤄가는 과정을 보였다고 했다. 그는 커서 하나로 A부터 Z까지 다 해 볼 수 있겠다는 느낌을 받았고, 솔로프리너를 목표로 하는 사람들은 연구해 볼 만하다고 개인적인 의견을 덧붙였다. AI에게 외주를 맡기는 개념이기 때문에 사람이 명확하게 문제 정의를 하고, 의사소통하며, 검수하는 역할이 중요하다고 언급했다. 또한, 커서가 굉장히 많은 도움을 주었다고 말했다. 개발자는 커서를 통해 코드의 문제점이나 개선 포인트를 찾는 데 도움을 받을 수 있고, 혼자 개발하면서 보조적인 도움이 필요할 때 효과적일 수 있다고 했다. 또한 자동 PR 요약이나 커밋 메시지 작성 등 깃(Git)과의 연동도 잘 되는 장점이 있었다. 오랜 개발 경험을 가지고 있는 양선희 대표는 필자의 숙원 고민거리를 반나절만에 해결해 주었다. 디자인씽킹 기법 중 첫 번째인 공감대 형성의 템플릿을 시스템화시켜 주었다. 클로드(Claude)로 대화하듯이 고민거리를 얘기하고 프로그램 기획, 개발, 테스트 등을 통해 언제든지 실행 가능한 설루션으로 만들어 주었고 소스도 공유했다. 보안 분야를 다루면서 다양한 경험을 통해서 항상 정리를 잘 하고 번뜩이는 아이디어를 내는 NSHC 장주현 이사와 AI인터시스 신동욱 대표는 AI 일타 강사이다. 항상 새로운 기술, 주제를 뚝딱 만들어내고 강의도 잘 한다. 최근에는 개발, 교육을 병행하느라 전국을 일일 생활권으로 두고 있다. 신동욱 대표의 회사에서 핵심 인재인 정성석 상무는 차세대 유망주인데, 알고 보니 고등학교 후배였다. 세상은 넓고 할 일은 많지만, 오늘 이 모임이 있기까지 도움을 준 데이터마이닝 이부일 대표는 유튜브 R릴에오를 통해 데이터 통계 분석 기법을 유튜브로 알렸다. 2022년 콘셉트맵 캘린더 9월호의 주인공으로 모신 인연으로 SNS에서 자주 소통하고 온/오프라인으로 인연을 이어가고 있다. “결국 실행되는 지식만이 힘이다.” − 데일 카네기   노트북LM : 개인 맞춤형 학습 및 연구 파트너 활용 또 다른 유용한 AI 도구인 노트북LM(NotebookLM)은 맞춤형 AI 리서치 어시스턴트이자 AI 기반 학습 및 연구 파트너로 소개되었다. 노트북LM의 가장 큰 강점은 사용자가 제공한 소스 내에서만 정보를 검색하고 답변을 생성하여, 환각 현상을 줄이는 데 도움을 준다는 것이다. PDF, 구글 드라이브 문서, 웹사이트 링크, 유튜브 링크, 마크다운 등 다양한 형태의 소스를 학습할 수 있으며, 특히 유튜브 공개 동영상 URL을 소스로 사용할 수 있는 점은 챗GPT에서 제공하는 프로젝트 기능과의 차별점으로 언급되었다. 노트북LM의 주요 기능으로는 학습 자료(소스) 내 정보 검색 및 답변 생성, 소스 요약(핵심 내용 추출), 추가 탐색, 메모 추가 및 소스 전환, AI 오디오 오버뷰(팟캐스트 형태의 요약 청취), 오버뷰, 마인드 맵(소스 기반 개념 및 관계 구조화), 생성 맞춤 설정, 학습 가이드, FAQ 생성, 브리핑 문서, 타임라인(시간적 순서 정리), 소스 검색, 심화 질문 및 분석 등이 있다. AI 오디오 오버뷰 기능은 두 명의 팟캐스트가 대화 형식으로 소스 내용 중 중요한 부분을 6~7분 분량의 팟캐스트로 만들어 주며, 원하는 내용에 초점을 맞추어 생성할 수도 있다. 시각 장애인에게도 좋은 서비스로 생각된다고 언급되었다. FAQ 기능은 우리가 생각하지 못했던 질문을 많이 만들어 준다고 했다. 마인드 맵 기능은 주어진 소스를 기반으로 개념과 관계를 시각화하는 데 상당히 잘 작동한다고 했다. 타임라인 기능은 소스에 있는 여러 이벤트를 시간 순서대로 정리해 주는데 정말 훌륭하다고 했다. 활용 사례로는 새로운 개념 이해, 핵심 자료 수집, 스터디 메이트 역할(학습 계획 관리, 질문/답변 학습, 복습, 약점 보완, 동기 부여), 모의 시험 및 문제 풀이, 창의력 및 사고력 훈련, 논문 관련 작업(주제 선정, 배경 탐색, 선행 연구 정리, 개념 정립, 논리 구성, 글쓰기 초안, 피드백) 등이 제시되었다. 특히 장비 매뉴얼 이해나 유튜브 영상 내용 파악에 유용하며, 논문 작성을 위한 참고 문헌 제안 및 형식 정리에도 활용될 수 있다고 했다 새로운 개념을 이해하고 싶을 때나 중요한 질문에 대한 핵심 자료를 만들고 싶을 때 소스 검색 기능이 유용하다고 했다. 다만 노트북LM은 과제나 태스크를 대신해주는 도구가 아니라 도와주는 어시스턴트라는 점과 좋은 소스를 제공하는 것이 중요하다는 점이 강조되었다. 쓰레기를 집어넣으면 쓰레기가 나온다는 ‘Garbage In, Garbage Out’이라는 말이 있듯이. 노트북LM만 단독으로 사용하기보다 챗GPT, 제미나이(Gemini) 등 다른 툴과 함께 사용하는 것이 더 중요하다고 생각한다고 했다. 다른 툴로 좋은 소스를 만들어서 노트북LM에 넣어 활용하는 선순환 구조를 잘 활용하면 좋다고 했다. “성공하고자 하는 의지가 강하다면, 실패 따위가 나를 압도할 수 없다.” − 정광천, 이노비즈협회 회장   다양한 스터디 그룹의 시너지 : 연결과 성장의 기회 한국미래융합연구원은 정기적인 지식 공유 모임을 통해 AI를 비롯한 다양한 분야의 최신 트렌드와 비즈니스 인사이트를 공유하는 플랫폼 역할을 하고 있다. 정종기 박사는 AI 비즈니스 전문가로서 AI 대중화 시대에 지속 가능한 미래 준비, AI 활용 능력의 중요성, 그리고 AI 트랜스포메이션에 대한 강의를 진행하며 멤버들에게 영감을 주고 있다. 그는 AI가 기업 경영의 효율화와 비용 절감에 핵심적인 역할을 하며 제조 등 다양한 산업에 영향을 미치고 있음을 강조한다. AI에게 일을 잘 시키는 사람이 능력 있는 사람이라고 했다. 미모셀은 미래 모빌리티 분야의 전문가들이 모여 업계 동향 공유와 네트워킹을 하는 그룹이다. 자율주행 기술, 센서(라이다, 레이다), SDV(Software Defined Vehicle) 등 모빌리티와 AI가 접목되는 분야의 최신 정보를 공유하고 토론한다. 어려운 시기에도 서로 힘이 되고 지지하는 관계를 형성하며 연결의 중요성을 보여준다. 미모셀의 목표는 대표님들의 어깨를 가볍게 해 드리는 것이라고 했다. 이처럼 다양한 스터디 그룹은 AI 기술 자체뿐만 아니라 기술이 비즈니스, 커리어, 그리고 사회 전반에 미치는 영향에 대해 깊이 있게 논의하고 있다. 유발 하라리 교수는 초지능 AI가 인류를 파멸로 이끌 위험이 있지만 경쟁 때문에 개발 속도를 늦추지 못하며, AI는 단순 도구가 아닌 스스로 생각하고 결정하는 주체(agent)라고 했다. AI는 인간과 달리 휴식이 필요 없어 지속적으로 활동 가능하며, 알고리즘 속도를 인간의 속도에 맞게 조절해야 한다고 했다. 또한, AI는 인간을 대체해 불평등한 사회를 초래할 가능성이 있다고 했다. 이러한 예측 속에서 AI 활용 능력은 개인과 기업의 생존에 필수라는 메시지가 반복적으로 강조된다. “AI 활용 능력이 당신의 생존입니다.” − 정종기 박사, AI 비즈니스 전문가   맺음말 : 배움과 연결을 통한 미래 준비 AI 시대는 불확실성이 높지만 지속적인 학습과 유연성 개발, 광범위한 역량 개발을 통해 기회를 잡을 수 있다고 한다. 특히 기술 변화에 대한 적응력과 개인적인 열정을 바탕으로 오픈소스 도구 등을 활용해 실습하고 실험해보는 것이 중요하다. 데이터공작소와 같은 AI 스터디 그룹, 데이터공작소 개발TFT(서울팀)에서의 실질적인 기술 학습, 미모셀에서의 산업 지식 공유, 그리고 한국미래융합연구원에서의 비즈니스 및 트렌드 통찰은 이러한 미래를 준비하는 강력한 기반이 된다. 피곤함에도 불구하고 참여했던 이 스터디 그룹들에서 필자는 AI 기술의 최신 동향과 더불어 그것이 어떻게 실제 업무와 비즈니스에 적용될 수 있는지, 그리고 개인의 역량을 어떻게 발전시켜야 하는지에 대한 실질적인 답과 영감을 얻을 수 있었다. 기술 도입을 넘어 조직 문화와 일하는 방식을 근본적으로 전환할 용기를 가지고 AI를 경쟁 상대가 아닌 협업 파트너로 받아들일 준비를 하는 것, 그리고 배움과 연결을 멈추지 않는 것이 이 급변하는 시대에 생존하고 번영하는 길임을 다시 한 번 확인했다.   ■ 류용효 디원의 상무이며 페이스북 그룹 ‘컨셉맵연구소’의 리더로 활동하고 있다. 현업의 관점으로 컨설팅, 디자인 싱킹으로 기업 프로세스를 정리하는데 도움을 주며, 1장의 빅 사이즈로 콘셉트 맵을 만드는데 관심이 많다. (블로그)     ■ 기사 내용은 PDF로도 제공됩니다. 
작성일 : 2025-07-01
[포커스] PLM/DX 베스트 프랙티스 컨퍼런스 2025, 제조 혁신을 위한 PLM과 AI 전략을 짚다
‘PLM/DX 베스트 프랙티스 컨퍼런스 2025’가 지난 6월 20일 서울 코엑스에서 열렸다. ‘제조의 미래를 위한 PLM 혁신과 AX 전략’을 주제로 한 이번 행사에서는 제조산업에서 불확실한 외부 환경에 대응하고 기술 및 비용 경쟁력을 확보하기 위한 통합 PLM(제품 수명주기 관리) 설루션과 인공지능 전환(AX)의 중요성을 강조했다. ■ 정수진 편집장     한국산업지능화협회 PLM 기술위원회 위원장인 KAIST 서효원 명예교수는 개회사에서 AI와 결합하여 다시 중요해진 PLM의 미래를 강조했다. 그는 “AI 혁신이 전 세계를 휩쓰는 가운데 특히 제조 산업에서 GPT와 같은 LLM(대규모 언어 모델)을 어떻게 적용할지가 핵심 과제”라면서, “제조 특유의 반구조화된 데이터, 환각(hallucination) 문제, 막대한 학습 데이터 구축 비용 등의 난관을 극복하고 1~2년 내에 현업에서 성과를 내야 한다”고 강조했다. 또한, “이번 콘퍼런스가 PLM을 넘어 생성형 AI, 디지털 트윈 등 폭넓은 미래 지향적 주제를 다루며, 산업 전문가들이 디지털 혁신의 본질적 가치와 방향성을 논의하고 상호 인사이트를 얻는 교류의 장이 되기를 바란다”고 전했다.   ▲ 서효원 한국산업지능화협회 PLM 기술위원회 위원장   한국CDE학회의 회장인 충남대학교 정현 교수는 격려사를 통해 “이번 행사에서 PLM의 AI 전환을 위해 생성형 AI, 디지털 트윈 등 폭넓은 미래 지향적 논의가 이뤄지기를 바란다”면서, 다양한 산업 전문가들의 교류를 통해 디지털 혁신의 본질적 가치와 방향성을 점검하고 상호 인사이트를 얻는 것이 중요하다고 짚었다. 그는 또한 기술 확산을 넘어 회사의 전략, 내부 문화, 조직 혁신이 동반되어야 진정한 디지털 AI 전환이 완성될 것이라고 강조하면서, “이번 PLX/DX 베스트 프랙티스 콘퍼런스가 새로운 협업과 혁신의 출발점이 되기를 바라며, 한국CDE학회 또한 산학연 협력의 구심점 역할을 이어나갈 것”이라고 전했다.   ▲ 한국CDE학회 정현 회장   이번 행사의 오전 시간에는 세 편의 기조연설이 진행됐다. 기조연설에서는 제조 산업의 미래를 위한 PLM 기반의 통합적 디지털/ AI 전환 전략을 통해 경쟁력을 강화하고 새로운 가치를 창출해야 한다는 메시지와 함께, 단순한 기술 도입을 넘어 데이터 통합과 표준화 그리고 궁극적으로 일하는 방식과 조직 문화의 근본적인 변화가 필요하다는 지적이 있었다.   PLM과 산업 AI, 미래 제조 산업의 핵심 동력이 되다 가천대학교의 조영임 교수는 ‘제조 산업의 미래, 산업 AI 트렌드와 과제’를 주제로 한 기조연설에서 전 세계적으로 AI 기술 개발이 빠르게 추진되고 있으며, 제조 기업이 AI에 몰입하지 않으면 경쟁력을 유지하기 어렵다고 짚었다. 그리고 AI를 통한 제조 산업의 미래 활성화 방안을 제시하면서, AI 기술 발전과 함께 제조업이 갖춰야 할 기술/전략/인프라/인재 양성의 중요성을 언급했다. PLM은 제품의 전체 생애 주기에 걸친 프로세스와 데이터를 통합 관리하는 개념으로 설명된다. 최근에는 단순한 제품 관리를 넘어 순환 경제(circular economy)의 핵심 개념으로 정의되고 있으며, 데이터 중심의 관리 및 전략적 최적화를 추구하고 있다. 조영임 교수는 “최근 PLM이 다시 중요하게 부각되는 이유는 디지털 전환에 있어 PLM이 디지털 스레드(digital Thread)와 디지털 트윈(digital Twin)을 포괄하는 상위 관리 체계로서 중요한 역할을 하며, 디지털 전환에 AI가 결합되는 구조가 글로벌 제조 산업 AI의 기본 모델이기 때문”이라고 짚었다.   ▲ 가천대학교 조영임 교수   한편, AI 기술은 현재 클라우드 중심의 LLM(대규모 언어 모델)에서 미래에는 온디바이스 기반의 SLM(소규모 언어 모델)로 변화하며 효율성과 협업, 그리고 지속가능성을 강조할 것으로 보인다. 특히 에이전틱 AI(agentic AI)는 LLM을 넘어 사용자의 복잡한 작업을 스스로 처리하는 비서 역할을 수행할 것으로 기대를 모으고 있다. 조영임 교수는 “국내 제조업의 AI 도입률은 아직 낮고, 대기업이 중소기업보다 도입률이 높다. 또한, 한국 기업은 핵심 기술 영역보다는 재무 관리 등 주변 인프라에 AI를 집중하는 경향이 있다”고 지적했다. 향후 산업 AI의 과제로는 핵심 기술에 대한 고도화된 도입과 전략 및 데이터 연결의 표준화가 꼽힌다. 조영임 교수는 “산업 AI는 제조 디지털 전환의 핵심 기술로서, PLM과 AI의 공동 연계, 통합 패키지 개발, 산업 AI 표준 반영, 제조 DX 가이드라인 개발 및 공공 조달 지침 마련 등이 정부가 기업과 함께 추진해야 할 과제”라고 전했다.   AI 시대 제조 경쟁력 향상을 위한 통합형 PLM 전략 SAP 코리아의 고건 파트너는 ‘AI 혁신을 기회로! 제조 경쟁력을 높이는 통합형 PLM 전략’이라는 주제로 기조연설을 진행하면서, SAP의 PLM과 ERP(전사 자원 관리) 통합 전략을 소개했다. SAP는 예측 불가능한 외부 환경에 대응하고 내부 역량을 강화하기 위해 애플리케이션 레벨의 수평적 통합과 데이터 및 AI 레이어를 통한 수직적 통합을 동시에 추구하고 있다. SAP가 추진하는 수평적 PLM 통합은 디지털 스레드를 통해 데이터 사일로를 해소하고, 사내뿐 아니라 협력사 및 고객사를 포함한 전체 가치사슬(value chain)의 데이터를 실시간으로 통합하는 것을 목표로 한다. 고건 파트너는 “SAP는 이를 위해 별도의 비즈니스 네트워크를 운영하며, 설계 단계의 산출물이 제조 및 설비 관리까지 원활하게 연동되어 정보 재활용이 극대화되는 환경을 제공한다”고 소개했다.   ▲ SAP 코리아 고건 파트너   수직적 PLM 통합은 애플리케이션 위에 AI 레이어를 두어 정형 및 비정형 데이터를 활용하고 AI가 비즈니스를 이해하도록 하는 전략이다. 고건 파트너는 국내 기업의 AI 도입 시 가장 큰 문제점으로 데이터 부재와 품질 문제를 꼽으면서, AI와 함께 지식 그래프(knowledge graph)를 PLM에 적용하여 예지 정비 및 설계 변경 영향도 분석 등이 가능한 데이터 플랫폼을 제안했다. 고건 파트너는 “SAP는 PLM에 AI 코파일럿인 쥴(Joule)을 적용해 협업 및 문서 요약 기능을 제공하고 있으며, 오픈 AI, 엔비디아, 메타 등 30개 이상의 파운데이션 모델과 협력하여 제조 현장의 로봇 제어까지 확장하고 있다”고 전했다. 또한 “현재 기업들이 직면한 불확실성에 대응하기 위해서는 제품 정보 관리의 고도화가 필수이며, 통합형 PLM 전략이 그 해답이 될 것”이라고 강조했다.   조선산업의 미래를 위한 차세대 설계/생산 통합 플랫폼 HD현대의 이태진 전무는 ‘조선업의 미래를 위한 차세대 설계/생산 통합 플랫폼’을 주제로 한 기조연설에서 조선산업의 현황과 디지털 전환 전략의 필요성을 짚었다. 국내 조선산업은 탈탄소 정책, 에너지 무기화, 군사력 강화 등으로 호황을 맞고 있지만, 한편으로 중국 조선소의 추격, 높은 원가와 인건비, 친환경 선박 생산의 어려움, 숙련 인력의 이탈, 그리고 신사업 발굴 필요성 등으로 인해 위기감을 갖고 있기도 하다. 이태진 전무는 이러한 상황에서 디지털 전환은 조선산업의 미래를 위한 필수 요소라고 진단하면서, 2020년부터 2030년까지 10년간 디지털로 최적 운영되는 초일류 조선소 구현을 목표로 하는 HD현대의 디지털 전환 전략을 소개했다. HD현대의 ‘FOS(Future of Shipyard)’ 프로젝트는 조선소 데이터의 디지털화, 데이터 연결 및 최적화, 지능형 조선소 구축 등 세 3단계로 진행되며, 그 핵심은 차세대 CAD와 PLM을 근간으로 하는 차세대 설계/생산 통합 플랫폼 구축에 있다.   ▲ HD현대 이태진 전무   HD현대의 차세대 설계/생산 통합 플랫폼은 연결성, 일하는 방식의 변화, 전체 업무 효율 극대화, 디지털 제조 기반 구축 등 네 가지 핵심 목표를 지향한다. 이를 실현할 수 있는 차세대 CAD/PLM 구축을 위해 HD현대는 올해 말 최종 설루션을 선정하고 2026년부터 구축에 들어갈 예정이며, 설루션 선정뿐만 아니라 업무 프로세스 변화를 함께 추진할 계획이다. 이태진 전무는 “PLM/DX는 제조업 경쟁력 강화의 핵심 구현 수단이며, 디지털 스레드는 생산, SCM(공급망 관리), MRO(유지보수, 수리, 운영) 사업까지 연결하여 새로운 부가가치를 창출할 기회가 될 것”이라고 전망하면서, “이러한 설계/생산 디지털 전환이 장기적으로 제조산업의 경쟁력 강화에 크게 기여할 것이며, ERP, SCM, 데이터 플랫폼, AI 등 모든 연관 시스템과의 연결이 중요하다”고 덧붙였다.   기술 트렌드부터 사례까지, PLM·DX의 현재와 미래 짚다 ‘PLM/DX 베스트 프랙티스 컨퍼런스 2025’의 기조연설에 이어 오후 시간에는 ▲베스트 프랙티스 ▲트렌드/신기술/설루션 ▲ SDM(MES/MOM) 등 세 개의 트랙에서 18편의 발표가 진행됐다.   ■ 같이 보기 : [포커스] 기술 트렌드부터 사례까지, PLM·DX의 현재와 미래 짚다   또한, 부스 전시에서는 제조 혁신을 실현하기 위한 디지털 전환 및 인공지능 전환 설루션 기술이 다양하게 소개되어 참가자들의 눈길을 끌었다.   ▲ 다쏘시스템 부스   ▲ 마이링크 부스   ▲ 세원에스텍 부스   ▲ 쓰리피체인 부스   ▲ 씨이랩 부스   ▲ 아이지피넷 부스   ▲ 인코스 부스   ▲ 한화시스템 부스     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-07-01
세일즈포스, AI 에이전트 활용과 연결 돕는 디지털 워크포스 플랫폼 ‘에이전트포스 3’ 발표
세일즈포스가 디지털 워크포스(Digital Workforce) 플랫폼 ‘에이전트포스(Agentforce)’의 차세대 버전인 ‘에이전트포스 3’를 발표했다. 세일즈포스 ‘이전트포스 3는 기존 AI 에이전트 기능에 확장성과 연결성을 강화했으며, 이를 통해 보다 효과적으로 조직 내 AI 전략 실행과 디지털 전환 가속화를 지원하는 데에 중점을 두고 있다. 에이전트포스 3의 핵심 기능은 ‘커맨드 센터(Command Center)’이다. AI 에이전트 운영의 가시성과 제어력 향상을 지원하는 커맨드 센터는 실시간 모니터링을 기반으로 작동되며, 대화 유형, 오류율, 응답 속도 등 AI 에이전트 활용 시 주요한 지표를 시각화해 기업의 AI 활용 현황을 한눈에 살펴볼 수 있다. 이에 따라 조직 내 실시간 AI 에이전트 관리는 물론, 잠재적인 위험에 선제적으로 대응할 수 있어 AI 에이전트 운영 간의 안정성을 높일 수 있다.     또한, 에이전트포스 3는 오픈 표준인 MCP(Model Context Protocol)를 기반으로 다양한 에이전트 및 엔터프라이즈 시스템 간의 플러그 앤 플레이 방식의 유연한 연결을 지원한다. 이를 통해 복잡한 코딩 작업 없이도 다양한 AI 에이전트를 API, 업무 시스템, 데이터 자산 등과 손쉽게 연결하고, 상호 작용과 협업이 가능한 A2A(Agent-to-Agent) 환경을 구현할 수 있다. 현재 MCP 서버는 AWS, 구글 클라우드, IBM, 페이팔, 박스, 스트라이프 등 30개 이상의 파트너가 세일즈포스의 공식 AI 에이전트 마켓플레이스인 ‘에이전트 익스체인지(AgentExchange)’를 통해 제공하고 있으며, 이를 통해 AI 에이전트는 데이터 처리, 콘텐츠 생성, 상거래 기능 등 각 산업별 특성에 따른 업무 자동화가 가능하다. 가령 AWS MCP 서버를 활용해 비정형 데이터 분석, 문서 요약, 이미지 인식이 가능하며, 구글 MCP 서버를 통해 지도 기반 서비스 및 생성형 AI 모델 연동이 가능하다. 기술 아키텍처도 강화됐다. 업그레이드된 ‘아틀라스 아키텍처(Atlas Architecture)’는 응답 속도를 기존 대비 50% 이상 개선했으며, 실시간 스트리밍, 웹 검색 기반 데이터 수집 및 출처 인용 기능을 통해 응답의 정확성과 신뢰도를 높였다. 다국어 지원 기능을 통해 프랑스어, 독일어, 스페인어, 일본어, 포르투갈어 등 6개 언어가 새롭게 지원되며, 향후 지원 언어는 30개 이상으로 확대될 예정이다. AI 모델의 성능 저하나 장애 발생 시 자동으로 대체 모델로 전환되는 ‘모델 자동 전환(failover)’ 기능도 새롭게 추가됐다. 에이전트포스 3는 보안과 규제가 중요한 산업에서의 활용 또한 용이해질 전망이다. 세일즈포스는 공공 부문에서 신뢰할 수 있는 AI 서비스를 제공하기 위해, 미국 연방 정부의 최고 보안 인증 등급인 ‘FedRAMP High’ 인증을 획득해, 공공 부문에서도 안정적으로 AI 서비스를 제공할 수 있게 됐다. 현재 AWS를 기반으로 앤트로픽(Anthropic)의 클로드(Claude) 모델을 호스팅하고 있으며, 향후 구글 제미나이(Google Gemini) 모델을 포함한 다양한 모델 지원을 확대해 고신뢰 산업군에서의 AI 에이전트 도입 및 활용을 지원해 나갈 계획이다. 이외에도 보다 많은 기업의 AI 에이전트 도입을 돕기 위해 ‘환자 일정 예약’, ‘광고 제안서 생성’, ‘차량 정비’ 등 반복적인 업무에 즉시 적용 가능한 200여 개의 ‘사전 구축형 액션’을 제공한다. 세일즈, 서비스, 인더스트리 클라우드 등 주요 제품군에서는 사용자 기반 요금제를 적용하여 상황에 따른 맞춤형 활용이 가능하며, 직원용 AI 에이전트는 무제한 사용을 지원해 유연한 AI 에이전트 도입 및 활용이 가능해질 것으로 예측된다. 세일즈포스의 애덤 에반스(Adam Evans) AI 부문 부사장 겸 총괄 매니저는 “에이전트포스는 AI 에이전트, 데이터, 애플리케이션, 메타데이터의 통합을 기반으로 디지털 워크포스 플랫폼을 개발해 왔으며, 이미 수천 개 기업이 에이전트포스를 통해 에이전틱 AI의 가치를 실현하고 있다”면서, “지난 수개월 동안 고객의 목소리를 바탕으로 개발한 에이전트포스 3는 AI와 인간의 협업을 촉진하고, 기존에는 상상할 수 없던 수준의 생산성 향상과 비즈니스 가치 창출을 가능하게 할 것”이라고 언급했다. 세일즈포스 코리아의 손부한 대표는 “AI 에이전트가 실제 업무 전반에 적용되며, 기술 구현 못지않게 운영의 투명성과 제어력 확보가 중요한 과제로 떠오르고 있다”면서, “에이전트포스 3는 이러한 과제를 해결하고, 국내 기업들의 AI 전략 실행과 디지털 전환 가속화를 지원하는 핵심적인 역할을 수행하게 될 것”이라고 강조했다.
작성일 : 2025-06-26
HPE, 엔비디아와 협력을 통해 신규 AI 팩토리 설루션 공개
HPE는 모든 유형의 조직이 전체 AI 라이프사이클에 걸쳐 인공지능(AI) 팩토리 구축, 도입 및 관리를 강화할 수 있도록 지원하는 새로운 설루션을 발표했다. HPE는 서비스 제공업체, 모델 개발자 등을 위한 맞춤형 컴포저블 설루션과 엔터프라이즈용 턴키 AI 팩토리인 차세대 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)를 포함해 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 탑재한 ‘HPE 포트폴리오 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE portfolio)’ 설루션 포트폴리오를 확대하고 있다. AI 팩토리를 위한 통합형 엔드투엔드 설루션과 서비스는 고객이 최신 AI를 위한 데이터센터를 구축할 때 자체적으로 AI 기술 스택을 구성하는 데 따르는 복잡성을 줄여준다. HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오의 대표 제품인 프라이빗 클라우드 AI는 엔비디아 가속 컴퓨팅, 네트워킹 및 소프트웨어를 포함한 올인원 AI 팩토리 설루션이다. 엔비디아 블랙웰 가속 컴퓨팅을 지원하는 HPE 프로라이언트 컴퓨트 Gen12 서버는 변조 방지를 위한 시큐어 인클레이브(Secure Enclave), 양자 이후 암호화, 랙 및 서버 수준의 신뢰할 수 있는 공급망 역량을 제공한다. 또한, 엔비디아 H200 NVL 및 엔비디아 RTX PRO 6000 서버 에디션 GPU를 포함해 다양한 기업용 AI 워크로드(에이전트 및 물리형 AI 사례 포함)를 지원한다. 새로운 연합 아키텍처를 통해 리소스 풀링이 통합되어, 모든 AI 워크로드에 새로운 GPU와 리소스를 공유할 수 있다. 프라이빗 클라우드 AI는 엄격한 데이터 프라이버시 요구사항을 갖춘 조직을 위한 폐쇄형 클라우드(air-gapped) 관리 기능 및 기업이 팀 간 협업과 리소스 분할을 가능하게 하는 멀티 테넌시 기능을 지원한다. 그리고, AI 에이전트 생성 및 워크플로에 특화된 엔비디아 AI-Q 블루프린트 등 최신 엔비디아 AI 블루프린트(NVIDIA AI Blueprints)를 제공한다. 고객은 구매 전 에퀴닉스(Equinix) 전 세계 고성능 데이터센터 네트워크에서 프라이빗 클라우드 AI를 테스트해볼 수 있는 새로운 ‘트라이 앤 바이(Try and Buy)’ 프로그램을 활용할 수 있다. 한편, HPE는 자사의 AI 팩토리 포트폴리오를 확대하면서 신규 검증 설루션도 선보였다. 이 설루션에는 액체 냉각 기술, 하이브리드 클라우드 운영, 통합 제어를 위한 HPE Morpheus Enterprise Software 등이 포함됐다. HPE의 종단 간 컴포저블 설루션은 고객을 위해 사전 통합된 모듈형 기술 스택으로 제공돼, 구축 시간과 가치를 실현하는 속도를 높인다. HPE의 AI 팩토리 설루션은 엔비디아 엔터프라이즈 AI 팩토리의 검증된 설계를 활용함으로써 최신 엔비디아 가속 컴퓨팅, 엔비디아 스펙트럼-X(NVIDIA Spectrum-X) 이더넷 네트워킹, 엔비디아 블루필드-3(NVIDIA BlueField-3) DPU, 및 엔비디아 AI 엔터프라이즈 소프트웨어(NVIDIA AI Enterprise software)를 통해 배포 가능하다. 이를 통해 차세대 AI 시대를 위한 고성능, 강력한 보안, 효율적인 저장 가속화, 및 확장 가능한 인프라를 제공한다. HPE의 안토니오 네리(Antonio Neri) 사장 겸 최고경영자(CEO)는 “생성형 AI, 에이전틱 AI, 피지컬 AI는 글로벌 생산성을 혁신하고 지속가능한 사회적 변화를 가져올 잠재력을 품고 있다. 하지만 이러한 AI의 성공은 결국 이를 뒷받침하는 인프라와 데이터의 역량에 의해 좌우된다”며, “조직이 AI가 제공하는 기회를 실현하기 위해서는 올바른 데이터, 인텔리전스, 비전이 필요하며, 무엇보다 이를 실행할 수 있는 올바른 IT 기반을 마련하는 것이 핵심이다. HPE는 업계를 선도하는 AI 인프라와 서비스를 결합한 가장 포괄적인 접근 방식을 통해 조직이 AI 비전을 실현하고 지속가능한 비즈니스 가치를 창출할 수 있도록 지원하고 있다”고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “우리는 새로운 산업 시대에 들어서고 있다, 이는 대규모로 인텔리전스를 생성하는 능력으로 정의되는 시대”라며, “HPE와 엔비디아는 이 변혁을 주도하기 위해 전체 스택 AI 공장 인프라를 제공하며, 기업들이 데이터를 활용하고 전례 없는 속도와 정밀도로 혁신을 가속화할 수 있도록 지원한다”고 밝혔다.
작성일 : 2025-06-25
가트너, “에이전틱 AI의 도입 성공 위해서는 기반 워크플로를 재설계해야”
가트너가 에이전틱 AI(agentic AI) 프로젝트의 40% 이상이 2027년 말까지 비용 증가, 불분명한 비즈니스 가치, 부적절한 위험 관리를 이유로 중단될 것이라는 전망을 발표했다. 가트너가 2025년 1월 웨비나 참석자를 대상으로 실시한 설문조사에 따르면, 응답자의 19%는 에이전틱 AI에 상당한 투자를 했고, 42%는 보수적으로 접근하고 있는 것으로 나타났다. 반면, 8%는 투자를 전혀 하지 않았으며, 31%는 상황을 관망하거나 확신하지 못하는 것으로 나타났다. 가트너는 많은 공급업체가 ‘에이전트 워싱(Agent Washing)’을 통한 과대광고를 진행하고 있다고 지적했다. 에이전트 워싱은 AI 어시스턴트, 로봇 프로세스 자동화(RPA), 챗봇 등 실질적인 에이전트 기능을 갖추고 있지 않은 기술을 에이전틱 AI인 것처럼 과장하는 행위를 의미한다. 가트너는 수천 개의 에이전틱 AI 공급업체 중 실제로 해당 기술을 제공하는 업체는 약 130개에 불과할 것으로 분석했다. 이러한 초기 과제에도 불구하고, 가트너는 에이전틱 AI로 전환되는 추세는 AI 역량과 시장 기회 측면에서 비약적인 발전을 불러올 수 있다고 보고 있다. 가트너는 “에이전틱 AI는 스크립트 기반 자동화 봇과 가상 비서를 넘어 리소스 효율성 향상, 복잡한 작업 자동화, 새로운 비즈니스 혁신을 이끄는 새로운 수단을 제공할 것”이라고 전망했다. 가트너는 에이전틱 AI를 통해 자율적으로 수행되는 일상 업무 결정이 2024년 0%에서 2028년에는 최소 15%까지 증가할 것으로 전망했다. 또한 2028년까지 기업용 소프트웨어 애플리케이션의 33%가 에이전틱 AI 기능을 포함할 것으로 예상되며, 이는 2024년 1% 미만에서 크게 증가한 수치다. 가트너는 현재와 같은 초기 단계에서는 명확한 가치와 ROI가 입증된 경우에만 에이전틱 AI를 도입할 것을 권장했다. 기존 시스템에 AI 에이전트를 통합하는 것은 기술적으로 복잡하거나, 워크플로 중단이나 고비용의 수정 작업이 발생할 수 있기 때문이다. 가트너는 에이전틱 AI 기반으로 워크플로를 처음부터 재설계하는 것이 성공적인 구현을 위한 이상적인 접근방식이라고 강조했다. 아누쉬리 버마(Anushree Verma) 가트너 시니어 디렉터 애널리스트는 “현재 대부분의 에이전틱 AI 프로젝트는 초기 실험 단계거나 개념 증명 단계에 있으며, 과대광고에 의해 추진되거나 잘못 적용되는 경우가 많다. 대규모 AI 에이전트 도입에 드는 실제 비용과 복잡성을 간과할 경우, 실운영 단계로 넘어가지 못하고 정체될 수 있다”면서, “에이전틱 AI로부터 실질적인 가치를 얻으려면 개별 업무에 대한 보조보다는 기업 생산성 향상에 집중해야 한다. 기업은 의사결정을 위한 AI 에이전트, 반복적인 워크플로를 위한 자동화, 간단한 정보 검색을 위한 어시스턴트 활용부터 에이전틱 AI 도입을 시작할 수 있다. 핵심은 비용 절감, 품질 상승, 속도 향상, 규모 확대를 통한 비즈니스 가치 창출”이라고 조언했다.
작성일 : 2025-06-25