• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "LAM"에 대한 통합 검색 내용이 487개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
에이수스, 엔비디아 GB10 기반 AI 슈퍼컴퓨터 ‘어센트 GX10’ 국내 출시
에이수스 코리아는 엔비디아 GB10 그레이스 블랙웰(Grace Blackwell) 기반의 개인용 AI 슈퍼컴퓨터 ‘Ascent GX10(어센트 GX10)’을 국내 공식 출시한다고 밝혔다. 에이수스 어센트 GX10은 높은 AI 성능과 공간 효율을 제공한다. 손바닥 정도의 사이즈임에도 최대 1000TOPs의 AI 성능을 구현하여 AI 연구원, 데이터 과학자뿐만 아니라 AI 기반 개발 및 연구를 필요로 하는 개인 및 기업 프로젝트에도 최적의 성능을 제공한다.     어센트 GX10은 내장된 GB10 그레이스 블랙웰 슈퍼칩을 통해 FP4 정밀도 기준 최대 1페타플롭의 AI 성능을 지원한다. 이를 위해 최신 세대 CUDA(쿠다) 코어와 5세대 텐서(Tensor) 코어를 탑재하였으며, NVLink C2C 인터커넥트를 통해 연결된 20개의 Arm 아키텍처 기반 고효율 코어를 포함하고 있다. 또한 128GB의 통합 시스템 메모리를 통해 최대 2000억개의 매개변수를 처리할 수 있으며, 엔비디아 커넥트X(NVIDIA ConnectX) 네트워크 인터페이스 카드를 활용해 GX10 시스템 두 대를 연결하여 라마 3.1(LLAMa 3.1)과 같이 더 많은 매개변수를 가진 대형 AI 모델도 효율적으로 학습하고 처리할 수 있다. 에이수스는 어센트 GX10이 가진 성능을 최대한 발휘할 수 있는 간편한 AI 모델 개발을 위한 쉬운 개발 환경을 제공한다. 개발자는 엔비디아 AI 소프트웨어 라이브러리를 사용할 수 있으며, 엔비디아 NGC 카탈로그와 엔비디아 개발자 포털에서 제공되는 소프트웨어 개발 키트(SDK), 오케스트레이션 도구, 프레임워크, 모델 등 다양한 리소스를 지원받을 수 있다. 여기에 더해 에이전트 AI 애플리케이션 구축을 위한 엔비디아 블루프린트(NVIDIA Blueprints)와 NIM 마이크로 서비스도 지원하여 다양한 연구 및 개발, 테스트가 가능하다. 에이수스는 국내 공식 대리점인 코잇, 크로스젠, 유니퀘스트, 대원CTS를 통해 어센트 GX10의 구매 및 상담이 가능하다고 전했다.
작성일 : 2025-10-31
[신간] IT 트렌드 2026
김지현 지음 / 2만 원 / 크레타    AI로 만드는 부의 지도와 미래 전략 기술의 변화 속도는 인간의 시간을 훨씬 뛰어넘고 있다. 지난 1년간의 변화는 과거 10년을 무색하게 했고, 한 달의 변화가 작년 한 해를 압축할 정도다. 불과 1년 전만 해도 AI는 삶 속에 스며들 것으로 전망했지만, 이제는 거대한 비약을 이루며 서비스와 제품이 쏟아져 나오는 현실에 직면했다. 기술은 더 이상 선택지가 아니며, 사회, 경제, 문화, 기업, 정치, 외교까지 압도하고 비즈니스 모델은 이를 기반으로 매년 180도 변화한다. 2026년을 관통하는 IT 키워드는 'AI 에이전트 시대의 개막'과 '메타버스의 부활' 두 가지로 압축된다. AI는 이제 도구가 아닌, 인간을 대신해 움직이는 새로운 인터페이스 개념으로 기기와 소프트웨어, 앱과 서비스 전체에 탑재되어 우리의 손발이 될 것이다. 메타버스는 MR(혼합현실) 디바이스와 AI 에이전트가 결합하면서 긴 잠에서 깨어나 다시 한번 도약할 것으로 전망된다. 이 책은 AI 에이전트와 메타버스가 이끄는 세 번째 혁명의 문 앞에서, 다가올 2026년을 준비하기 위한 IT 기술의 흐름과 전략, 그리고 대한민국의 미래를 담았다. AI 에이전트가 여는 새로운 플랫폼 시대와 대한민국의 소버린 AI 전략 2026년 IT 산업은 '일하는 AI'가 현실이 되는 해다. 대답하고 글을 생성하던 AI는 이제 목표를 이해하고 계획을 세워 스스로 일을 끝내는 디지털 대리인으로 거듭났다. 지난 3년간 LLM에서 RLM, LAM으로 이어지는 진화는 'AI 에이전트'라는 형태, 즉 인간과 나란히 일하는 파트너로서 AX(AI 트랜스포메이션)를 이끌고 있다. 이 책은 이러한 변화 속에서 개인과 기업이 어떤 기술을 자동화하고 어떠한 역량을 쌓아야 하는지 명확히 제시하고자 했다. 동시에 미국과 중국의 AI 패권 경쟁 속에서 한국이 취해야 할 AI 전략, 즉 '소버린 AI'를 향한 의지를 강조했다. 한국은 반도체와 네트워크 강점을 기반으로 AI 데이터센터, 국산 LLM, 산업별 에이전트 서비스 생태계를 동시에 키워야 하는 시점을 맞이했다. 기업 또한 AX 전략을 강화하고, AI 윤리, 안정성, 데이터 주권 문제에 대한 책임의식도 가져야 한다고 역설했다. 이 책은 기술, 산업, 국가 전략을 동시에 관통하며 2026년을 준비하는 기업 리더와 실무자에게 꼭 필요한 전략서가 될 것이다. 생각하는 AI와 행동하는 AI가 만나 혁신가 AI가 활동하는 2026년, 이 책을 통해 실행 가능한 통찰을 얻길 바란다.
작성일 : 2025-10-22
AWS, 포괄적 AI 에이전트 플랫폼 ‘아마존 베드록 에이전트코어’ 출시
아마존웹서비스(AWS)가 포괄적인 에이전틱 플랫폼인 ‘아마존 베드록 에이전트코어(Amazon Bedrock AgentCore)’를 출시한다고 발표했다. AWS는 “미션 크리티컬 시스템 구축 경험을 바탕으로 개발된 아마존 베드록 에이전트코어는 안전하고 신뢰할 수 있으며 확장 가능한 종합 에이전트 플랫폼으로, 에이전트의 비결정적 특성에 최적화된 프로덕션 환경을 제공한다”고 소개했다. 에이전트코어는 기업이 AI 에이전트를 파일럿에서 프로덕션까지 신속하게 전환하고 개발자가 에이전트를 구축, 배포, 운영하는 데 필요한 완전한 기반을 제공한다. 개발자는 복잡한 워크플로를 처리할 수 있도록 에이전트에 도구, 메모리, 데이터를 손쉽게 연결할 수 있으며, 몇 줄의 코드로 안전하고 확장 가능한 런타임 환경에 배포할 수 있다. 또한 엔터프라이즈급 접근 제어 및 관리 기능을 통해 안정적으로 운영할 수 있다. 이 모든 기능은 인프라를 관리 없이 원하는 모델이나 프레임워크를 자유롭게 선택해 쉽게 시작할 수 있다. 에이전트코어는 구축부터 배포, 운영까지 에이전트 개발 수명주기 전반에 걸쳐 완전 관리형 서비스를 제공하는 에이전틱 플랫폼이다. 기업은 원하는 모델이나 프레임워크를 자유롭게 조합해 사용할 수 있으며 엔터프라이즈급 인프라 및 도구에 대한 액세스와 함께 높은 유연성을 제공한다. 에이전트코어는 통합 또는 개별 사용이 가능한 컴포저블(composable) 서비스를 제공한다. 기업은 크루AI, 구글 ADK, 랭그래프, 라마인덱스, 오픈AI 에이전트 SDK, 스트랜드 에이전트 등 선호하는 프레임워크와 아마존 베드록에서 제공되는 모델 또는 오픈AI, 제미나이 등 아마존 베드록 외부 모델을 사용하여 필요한 에이전트코어 서비스를 선택할 수 있다.     에이전트코어 코드 인터프리터(AgentCore Code Interpreter)는 격리된 환경에서 에이전트가 코드를 안전하게 생성하고 실행할 수 있게 하며, 에이전트코어 브라우저(AgentCore Browser)는 대규모 웹 애플리케이션 상호작용을 지원한다. 에이전트코어 게이트웨이(AgentCore Gateway)는 기존 API와 AWS 람다(AWS LAMbda) 함수를 에이전트 호환 도구로 전환하고 기존 모델 컨텍스트 프로토콜(Model Context Protocol : MCP) 서버에 연결하며, 지라, 아사나, 젠데스크 등 서드파티 비즈니스 도구 및 서비스와의 원활한 통합을 제공한다. 에이전트코어 아이덴티티(AgentCore Identity)를 통해 에이전트는 오스(OAuth) 표준을 사용한 적절한 인증 및 권한 부여로 이러한 도구에 안전하게 액세스하고 운영할 수 있다. AI 에이전트는 컨텍스트를 유지하고 상호작용을 통해 학습할 수 있어야 한다. 에이전트코어 메모리(AgentCore Memory)는 개발자가 복잡한 메모리 인프라를 관리하지 않고도 정교하고 컨텍스트를 인식하는 경험을 만들 수 있도록 지원하며, 에이전트가 사용자 선호도, 과거 상호작용, 관련 컨텍스트에 대한 상세한 이해를 구축하고 유지할 수 있게 한다. 아마존 클라우드워치(Amazon CloudWatch) 기반의 에이전트코어 옵저버빌리티(AgentCore Observability)는 실시간 대시보드와 상세한 감사 추적을 통해 포괄적인 모니터링을 제공한다. 기업은 모든 에이전트 작업을 추적하고 문제를 신속하게 디버깅하며 성능을 지속적으로 최적화할 수 있다. 오픈텔레메트리(OpenTelemetry : OTEL) 호환성을 통해 다이나트레이스, 데이터독, 아리제 피닉스, 랭스미스, 랭퓨즈 등 기존 모니터링 도구와 통합된다. 에이전트 워크로드는 기존 애플리케이션과 달리 실행 시간이 불규칙하다. 에이전트코어 런타임(AgentCore Runtime)은 이러한 변동성(variability)에 대응해 필요에 따라 제로에서 수천 개의 세션으로 자동 확장되며 장시간 실행 작업을 위한 업계 최고 수준의 8시간 런타임을 제공한다. 에이전트코어는 에이전트가 안전하게 작동할 수 있도록 모든 서비스에 보안을 내장했다. 가상 프라이빗 클라우드(VPC) 환경과 AWS 프라이빗링크(AWS PrivateLink)를 지원하여 네트워크 트래픽을 비공개로 안전하게 유지한다. 에이전트코어 런타임은 마이크로VM 기술을 통해 매우 높은 수준의 보안을 제공하여 각 에이전트 세션에 고유한 격리된 컴퓨팅 환경을 제공함으로써 데이터 유출을 방지하고 모든 상호작용의 무결성을 유지한다. 에이전트코어는 키로(Kiro), 커서AI(Cursor A)I와 같은 통합 개발 환경(IDE)과 호환되는 MCP 서버를 통해 프로덕션급 에이전트 구축을 지원한다. AWS는 “시작까지 단 몇 분밖에 걸리지 않지만 이는 단순한 도구가 아니라 강력한 보안을 유지하면서 제로에서 수천 개의 세션으로 즉시 확장할 수 있는 완전한 기능의 프로덕션급 설루션”이라고 소개했다. 아마존 디바이스 운영 및 공급망(Amazon Devices Operations & Supply Chain) 팀은 에이전트코어를 사용하여 에이전틱 제조 접근 방식을 개발하고 있다. AI 에이전트들은 제품 사양을 사용하여 함께 작업하며 수동 프로세스를 자동화하며 협업한다. 한 에이전트는 제품 요구사항을 읽고 품질 관리를 위한 상세한 테스트 절차를 만들고, 다른 에이전트는 제조 라인의 로봇에 필요한 비전 시스템을 훈련시킨다. 그 결과 기존에 며칠이 걸리던 객체 감지 모델 미세 조정이 1시간 이내에 높은 정밀도로 단축됐다. 에이전트코어는 뭄바이, 싱가포르, 시드니, 도쿄, 더블린, 프랑크푸르트, 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오리건) 등 9개 AWS 리전에서 정식 출시됐다. 기업은 에이전트코어에서 작동하도록 설계된 AWS 마켓플레이스(AWS Marketplace)의 사전 구축된 에이전트 및 도구를 통해 가치 실현 시간을 가속화할 수 있다.
작성일 : 2025-10-17
델, 책상 위의 AI 시스템 ‘델 프로 맥스 위드 GB10’ 출시
델 테크놀로지스가 네트워크 연결 없이 데스크 환경에서 최대 2000억개 매개변수의 LLM(대규모 언어 모델)을 지원하는 AI 시스템 ‘델 프로 맥스 위드 GB10(Dell Pro Max with GB10)’을 출시한다고 밝혔다.  최근 생성형 AI의 패러다임이 인간의 개입 없이 여러 AI가 협력하고 자율적으로 의사결정을 내리는 ‘에이전틱 AI’로 전환되고 있다. AI 성능 향상을 위한 매개변수 증가와 멀티모달 AI 모델 개발이 가속화됨에 따라, AI 워크로드를 안전하고 비용 효율적으로 빠르게 처리할 수 있는 로컬 컴퓨팅 환경의 중요성이 커지고 있다. 새롭게 발표된 델 프로 맥스 위드 GB10은 엔비디아 GB10 그레이스 블랙웰(NVIDIA GB10 Grace Blackwell) 슈퍼칩을 탑재해 AI 개발을 위한 고성능을 제공한다. 최대 2000억개 매개변수의 LLM을 로컬 환경에서 직접 프로토타이핑, 미세조정, 추론까지 할 수 있다는 것이 특징이다. GB10 슈퍼칩은 20코어의 고성능 Arm 아키텍처를 탑재한 그레이스 CPU와 블랙웰 GPU를 결합해 최대 1페타플롭(1초당 1000조번 연산 처리)의 AI 연산 성능을 제공한다.     이 제품은 128GB LPDDR5x 통합 시스템 메모리를 제공하며, 2TB 및 4TB NVMe SSD 옵션을 선택할 수 있어 방대한 데이터 처리와 복잡한 AI 워크로드를 원활히 운영할 수 있다. 또한, TPM 2.0 보안과 안전한 샌드박스 환경 구축을 통해 중요한 기업 데이터를 안전하게 보호할 수 있다.  우분투 리눅스 기반의 엔비디아 DGX OS 및 AI 소프트웨어 스택을 탑재해 AI 개발자가 데스크톱과 데이터센터 환경을 자유롭게 넘나들며 워크로드를 구현할 수 있는 것 또한 특징이다. 초저지연 네트워킹을 지원하는 엔비디아 커넥트X-7(ConnectX-7)으로 델 프로 맥스 위드 GB10 두 대를 연결하면 최대 4000억 개 매개변수 모델도 원활히 처리 가능하다. 또한 ‘엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)’를 기반으로 데스크 환경에서의 프로토타입 제작부터 데이터 센터 배포까지 원활하게 확장할 수 있다. 엔비디아 쿠다(NVIDIA CUDA), 엔비디아 AI 워크벤치(NVIDIA AI Workbench) 및 주피터랩(JupyterLab)과 독커(Docker) 등이 기본 탑재되어 별도의 설치 과정 없이 개봉 즉시 AI 모델 개발과 테스트를 시작할 수 있다. 델은 델 프로 맥스 위드 GB10가 강력한 성능을 기반으로 AI 시대의 다양한 사용자에게 새로운 가능성을 제시한다고 전했다.. 대학 등 연구기관에서는 ‘라마 3.3 70B(LLAMa 3.3 70B)’와 같은 대규모 언어 모델을 해당 제품에서 직접 실행해 연구 속도를 획기적으로 높일 수 있다. 스타트업 등 중소규모 기업은 추론, 미세 조정, 프로토타이핑 등 AI 개발의 전 과정을 로컬 환경에서 수행하며 복잡한 인프라 구축 없이도 혁신을 빠르게 이어갈 수 있다. 헬스케어나 금융 서비스와 같이 민감한 데이터를 다루는 업계에서는 데이터를 외부로 반출하지 않고 고급 AI 모델을 안전하게 학습 및 운용하여 데이터 보안을 실현하고 리스크를 줄일 수 있다. 크리에이터와 개발자들은 엔터프라이즈급 컴퓨팅 파워를 활용해 외부 인프라 구축 등의 추가 비용 없이, 자신만의 작업 공간에서 비전 모델을 미세 조정하고, AI 기반 콘텐츠를 제작하는 창의적인 프로젝트를 손쉽게 구현할 수 있다. 델 프로 맥스 위드 GB10은 공기 흐름을 최적화한 섀시 디자인을 적용해 장시간 사용 시에도 온도와 소음을 효과적으로 제어하며 안정적인 성능을 유지한다. 델 프로 맥스 위드 GB10은 10월 16일에 출시될 예정이며, 최대 3년간의 델 지원 서비스(Dell Service & Support)가 제공된다. 한국 델 테크놀로지스 김경진 총괄사장은 “온프레미스 환경에서 AI를 구현하는 수요가 증가하는 가운데, 델 프로 맥스 위드 GB10은 엔비디아 GB10 슈퍼칩 기반의 강력한 성능으로 개인용 데스크 환경에서 AI 프로젝트를 실행할 수 있는 획기적인 설루션”이라면서, “델 테크놀로지스는 델 프로 맥스 라인업에 최신 AI 기술을 발빠르게 적용해 제품 포트폴리오를 지속적으로 확장하고 있고, 많은 기업이 보안이나 비용 등의 제약 없이 로컬에서 AI 혁신을 구현하도록 지원하고 있다”고 말했다.
작성일 : 2025-10-14
SAP, 연례행사 ‘SAP 커넥트’에서 AI 기반 비즈니스 스위트 선보여
SAP가 10월 6일부터 3일간 미국 라스베이거스에서 새롭게 선보인 연례행사 ‘SAP 커넥트(SAP Connect)’를 개최했다고 밝혔다. SAP는 이번 행사에서 AI, 데이터 및 애플리케이션의 통합이 어떻게 비즈니스 가치를 창출하는지를 선보였다. 특히 이번 발표에서 ▲인간과 협력해 성과를 높이는 쥴(Joule)의 역할 기반 AI 어시스턴트 네트워크 ▲더 깊은 인사이트를 제공하는 확장형 데이터 생태계 ▲공급망 리스크를 사전에 예측하는 소프트웨어 등의 설루션을 공개하며, 비즈니스 운영 방식에 대한 새로운 혁신을 제시했다.     SAP는 비즈니스 스위트의 가치 창출 중심에 있는 핵심 AI 엔진으로서 쥴의 차세대 단계를 공개했다. SAP 비즈니스 스위트 전반의 애플리케이션과 데이터를 기반으로, SAP는 쥴에 새로운 세대의 역할 인식형 어시스턴트를 도입했다. 각 어시스턴트는 특정 비즈니스 역할을 수행하는 사람과 함께 협업하도록 설계됐으며, 쥴의 어시스턴트는 업무에 적합한 에이전트를 활용해 이를 구성, 조율 및 관리함으로써 인간이 보다 높은 수준의 인사이트와 생산성을 발휘하는 데 집중할 수 있도록 한다. 특히 전문화된 쥴 에이전트(Joule Agent) 라이브러리는 특정 기능 내에서 복잡한 워크플로를 수행하도록 설계되어 쥴의 어시스턴트를 지원한다. 피플 매니저 어시스턴트(People Manager Assistant)는 보상 이상 징후와 같은 문제를 발견하고 해결하는 데 도움을 주는 새로운 피플 인텔리전스 에이전트(People Intelligence Agent)를 포함한 전문 에이전트 팀을 조율해 관리자가 성과를 이끌 수 있도록 지원한다. 또한 새롭게 선보이는 재무 계획 어시스턴트(Financial Planning Assistant)는 현금 흐름을 최적화하고 이자 수익을 높이는 새로운 현금 관리 에이전트(Cash Management Agent)를 포함한 전문 에이전트 그룹의 도움을 받아 재무 담당자가 효율성을 높일 수 있도록 돕는다. 이처럼 새로운 역할 인식형 AI 어시스턴트는 개별 비즈니스 영역에서 성과를 향상시키기 위해 사람과 협력할 뿐 아니라, 복잡한 전사적 문제를 해결하기 위해 비즈니스 기능 전반에 걸쳐 함께 해결한다. 데이터는 AI 혁신의 원동력이지만, 여전히 여러 시스템에 분산되어 있는 경우가 적지 않다. SAP는 이번 행사에서 이러한 장벽을 없애기 위해 SAP 비즈니스 데이터 클라우드 커넥트(SAP Business Data Cloud Connect : SAP BDC 커넥트)를 선보였다. SAP BDC 커넥트는 SAP BDC를 파트너 플랫폼과 안전하게 연결해, 조직과 기술의 경계를 넘어 비즈니스 데이터 제품이 양방향으로 오갈 수 있도록 지원한다. 아울러 제로 카피 공유(zero-copy sharing) 방식으로 데이터는 SAP 시스템 내에 안전하게 보관되면서도 고객의 기존 데이터 플랫폼에서 즉시 액세스할 수 있으며, 비용이 많이 드는 복제 없이도 비즈니스 맥락을 그대로 유지할 수 있다. 그 결과, 사일로는 줄어들고, 데이터 파이프라인은 단순해지며, 중복은 사라지고, 필요한 시점과 장소에 신뢰할 수 있는 데이터 제품을 제공할 수 있다. 또한 SAP는 데이터브릭스(Databricks)와 구글 클라우드(Google Cloud)가 SAP BDC 커넥트를 지원하는 첫 공식 파트너이며, 향후 더 많은 파트너가 추가될 예정이라고 밝혔다. SAP 데이터브릭스(SAP Databricks)는 지난 2월 SAP BDC 내의 데이터 서비스로 유지될 것이라고 발표한 바 있으며, SAP BDC 커넥트는 개방형 데이터 생태계 전반에 걸쳐 이러한 혜택을 확장했다. 이번 파트너십은 고객에게 분석 및 AI를 위한 데이터 제품에 대해 더욱 신속하게 접근할 수 있고, 원천 데이터에서 실시간 비즈니스 성과로 전환하는 과정을 한층 빠르고 간단하게 수행할 수 있도록 지원한다. SAP의 차별화된 가치 제안의 핵심은 데이터가 생성되고 AI 기반 인사이트를 경험하는 엔터프라이즈 애플리케이션이다. SAP 공급망 오케스트레이션(SAP Supply Chain Orchestration)은 쥴의 역량과 실시간 지식 그래프를 결합한 새로운 AI 네이티브 설루션으로, 여러 단계의 공급업체까지 실시간 위험을 감지하고 이에 대한 대응을 효과적으로 조율한다. 이를 통해 고객은 비용을 절감하고 공급망을 원활하게 유지할 수 있다. SAP 인게이지먼트 클라우드(SAP Engagement Cloud)는 새로운 고객 경험 설루션으로, 비즈니스에 중요한 맥락을 활용하여 고객, 공급 업체 및 기타 이해관계자 전반에 걸쳐 상호작용을 개인화한다. 또한 이번 행사에서는 차세대 SAP 아리바(SAP Ariba) 조달 제품군이 조달부터 공급업체 관리에 이르기까지 지출 관리의 모든 단계에 인텔리전스를 제공하는 AI 네이티브 설루션으로 주목받기도 했다. SAP의 무하마드 알람(Muhammad ALAM) 제품 엔지니어링 총괄 및 이사회 임원은 “불확실성이 일상이 된 시대에 기업이 성장하기 위해서는 최고의 애플리케이션을 단순히 조합하는 것 이상의 접근 방식이 필요하다”면서, “이번 행사에서 발표한 내용은 AI, 데이터 및 애플리케이션이 하나로 결합되어 더 나은 의사결정, 더 빠른 실행, 그리고 확장할 수 있는 혁신을 주도하는 SAP 비즈니스 스위트(SAP Business Suite)의 강력한 힘을 보여준다”고 말했다.
작성일 : 2025-10-13
유아이패스-오픈AI, 엔터프라이즈 에이전틱 자동화 위해 협력
에이전틱 자동화 기술 기업인 유아이패스가 오픈AI와 협력해 ‘챗GPT 커넥터’를 선보인다고 발표했다. 이 커넥터는 오픈AI의 최첨단 모델을 유아이패스의 엔터프라이즈 오케스트레이션 기반의 워크플로와 통합해, 기업들이 에이전틱 AI를 통해 가치를 더 빠르게 실현하고 투자 대비 효과(ROI)를 높일 수 있도록 지원한다. 유아이패스의 에이전틱 자동화 역량과 오픈AI의 모델·API는 AI 에이전트 개발과 배포 과정을 간소화해 사용자가 복잡한 인프라에 구애받지 않고 비즈니스 목표에 집중할 수 있게 하며, 프로세스 관리자가 AI 에이전트에 대한 신뢰를 높일 수 있도록 한다.   오픈AI 모델은 이미 유아이패스 에이전트를 구동하고 있으며, 최근에는 유아이패스 에이전트 빌더(Agent Builder)에 최신 GPT-5 업데이트가 탑재됐다. 유아이패스와 오픈AI는 에이전틱 자동화에서 컴퓨터 활용 모델을 위한 벤치마크를 마련 중이다. 이 벤치마크를 통해 다양한 AI 모델의 컴퓨터 시스템 상호작용 성능을 보다 쉽게 평가하고 비교할 수 있다. 또한 에이전트 기능을 세밀하게 검증할 수 있으며, 실제 엔터프라이즈 환경을 위해 유연하고 확장 가능한 프레임워크를 제공하며, 에이전트가 발전함에 따라 새 시나리오까지 확장할 수 있다.   유아이패스 마에스트로(UiPath Maestro)는 업무 프로세스에서 유아이패스와 오픈AI 및 다양한 타사 AI 에이전트를 통합 관리해 기업용 대형 액션 모델(LAM)의 적용 범위를 넓힌다. 프로세스 관리자는 마에스트로의 단일 화면에서 업무 프로세스를 구축·관리·최적화할 수 있으며, 업무에 가장 적합한 에이전트를 활용해 에이전틱 자동화를 가속화할 수 있다.   또한 유아이패스는 MCP(모델 컨텍스트 프로토콜) 통합을 통해 챗GPT 사용자에게 자동화 기능을 제공한다. 사용자는 챗GPT 엔터프라이즈 내에서 무인 자동화, API 워크플로, 자율 에이전트, 마에스트로 워크플로를 직접 확인할 수 있다. 더 많은 조직이 챗GPT를 도입함에 따라, 유아이패스는 엔터프라이즈급 에이전틱 자동화와 오케스트레이션을 결합해 AI 자동화를 가속화할 수 있다.   유아이패스의 그레이엄 쉘든(Graham Sheldon) 최고제품책임자(CPO)는 “유아이패스 플랫폼은 에이전틱 전환의 전 과정에서 중요하고 반복적인 프로세스를 식별하고, AI 에이전트를 구축하며, 워크플로를 관리할 때까지 지원해 기업이 성과와 ROI를 창출할 수 있도록 돕는다”면서, “챗GPT의 확산과 업계를 선도하는 모델이 유아이패스 플랫폼의 강력한 기능과 결합해 기업 고객에게 최적의 해법으로 자리 잡고 있다”고 말했다.   오픈AI의 지안카를로 리오네티(Giancarlo Lionetti) 최고상업책임자(CCO)는 “오픈AI는 기업용 컴퓨터 활용 에이전트를 빠르게 발전시키고 있으며, 성능 평가는 진행 상황을 가늠하고 더 높은 기준을 마련하는 핵심 수단”이라며, “유아이패스와의 협력을 통해 기업 환경에 맞는 성능 평가를 제공하고, 업계 전반의 수준을 끌어올릴 수 있다”고 말했다.
작성일 : 2025-10-02
HP Z2 미니 G1a 리뷰 : 초소형 워크스테이션의 AI·3D 실전 성능
워크스테이션은 콤팩트한 외형 속에 데스크톱급 성능을 담아낸 전문가용 시스템이다. 단순한 소형 PC와 달리, 3D·영상·AI·엔지니어링 등 고성능이 필요한 크리에이터와 전문 작업자를 위해 설계된 것이 특징이다. 이번 리뷰에서는 실제 소프트웨어 워크플로와 AI·LLM 테스트까지 다양한 관점에서 심층 평가를 진행했다.   ▲ HP Z2 미니 G1a   하드웨어 및 설치 환경 HP Z2 미니 G1a(HP Z2 Mini G1a)의 가장 큰 강점 중 하나는 강력한 하드웨어 스펙이다. AMD 라이젠 AI 맥스+ 프로 395(AMD Ryzen AI Max+ PRO 395) 프로세서(16코어 32스레드, 3.00GHz), 최대 128GB LPDDR5X 메모리, 8TB NVMe SSD, 그리고 16GB VRAM을 탑재한 라데온 8060S(Radeon 8060S) 통합 그래픽 등, 동급 소형 워크스테이션에서는 보기 힘든 구성을 갖췄다. 특히 메모리는 최대 128GB까지 확장 가능하며, 이 중 최대 96GB를 그래픽 자원에 독점 할당할 수 있다. 듀얼 NVMe 및 RAID 지원으로 대용량 데이터 처리와 안정성을 확보했으며, 50TOPS에 달하는 NPU 성능 덕분에 AI 추론 등 최신 워크로드도 소화할 수 있다. 테스트는 윈도우 11 프로 기반, 64GB RAM과 16GB 라데온 8060S, 듀얼 NVMe SSD가 장착된 구성으로 진행됐다.   ▲ HP Z2 미니 G1a의 하드웨어 스펙   전문 소프트웨어 워크플로 직접 HP Z2 미니 G1a를 사용해 본 첫 인상은 “미니 사이즈에서 이 정도 성능이라니?”였다. 크기는 작지만, 성능은 결코 작지 않았다. 시네마 4D(Cinema 4D)로 복잡한 3D 신을 제작하고, 지브러시(ZBrush)에서 대형 폴리곤 모델링과 서브툴 멀티 작업을 해 보니 작업 흐름이 부드럽고, 장시간 동작에도 다운이나 랙 없이 꾸준한 성능으로 작업할 수 있었다. 시네벤치(Cinebench), 시네마 4D, 지브러시, 애프터 이펙트(After Effects), AI 생성형 이미지·영상, LLM 실행 등 전 영역에서 성능 저하를 체가하기 어려웠다. 시네마 4D에서는 수십만~수백만 폴리곤에 달하는 대형 3D 신 파일을 불러오고, 뷰포트 내 실시간 조작이나 배치 렌더링, 애니메이션 키프레임 작업에서 CPU 기반 멀티스레드 성능이 큰 장점을 발휘했다. 시네벤치 2024 멀티코어 점수는 1832점으로, 애플의 M1 울트라보다 높은 수치를 달성해 전문 사용자에게 매력적인 대안이 될 것으로 보인다.   ▲ 시네마 4D에서 테스트   애프터 이펙트 환경에서는 GPU 가속 지원이 부족한 점에도 불구하고, 강력한 CPU 성능 덕분에 고해상도(4K) 다중 레이어 영상 합성, 이펙트, 복수 트랙 편집에서도 랙이나 끊김 없이 작업을 이어갈 수 있었다. 시네마 4D, 지브러시, 콤피UI(ComfyUI) 등과의 멀티태스킹 환경에서도 리소스 병목 없이 쾌적하게 여러 프로그램을 병행 실행하는 것이 가능했다.   ▲ 애프터 이펙트에서 테스트   아이언캐드 대형 어셈블리 테스트 엔지니어링 현장에서 요구되는 대형 어셈블리 작업을 검증하기 위해 동료와 함께 아이언캐드(IronCAD)로 2만여 개(2만 1800개)에 달하는 파트가 포함된 820MB 대용량 CAD 파일을 로딩해 테스트를 진행했다. 이 워크플로는 최근 산업·기계 설계 현장에서 자주 마주치는 극한 환경을 그대로 반영한 조건이었다. 테스트 결과, HP Z2 마니 G1a의 평균 FPS는 약 19로 측정됐다. 이는 노트북용 RTX2060 GPU가 내는 실제 CAD 작업 성능과 동등한 수준에 해당한다. 고용량 모델의 빠른 불러오기, 실시간 3D 뷰 조작, 개별 파트 속성 편집 작업에서 큰 병목이나 지연 없이 효율적인 사용 경험을 확인했다. 대형 파일임에도 불구하고 시스템 자원 부족이나 다운 없이 멀티태스킹 환경에서도 안정적으로 작업이 이어지는 점이 인상적이었다.   ▲ 아이언캐드에서 테스트   AI 및 LLM 활용 AI 작업이나 LLM 실행에서도 강점이 명확했다. 콤피UI에서 Wan2.2, Video-wan2_2_14B_t2v 같은 고사양 텍스트-비디오 생성 모델도 무리 없이 돌릴 수 있었고, LM 스튜디오(LM Studio)와 올라마(OlLAMa) 기반의 대형 LLM 역시 빠른 추론 속도를 보여줬다. NPU(50TOPS)의 연산 가속과 64GB RAM의 넉넉함 덕분에, AI 모델 로컬 실행/추론에서 항상 안정적인 환경이 보장된다는 느낌이다. 오픈소스 AI 이미지 생성이나 텍스트-비디오 워크플로도 CPU-메모리 조합만으로 병목 없이 부드럽게 동작했다. 쿠다(CUDA)를 지원하지 않는 환경의 한계로 일부 오픈소스 AI 툴은 실행에 제약이 있었으나, CPU와 NPU 조합만으로도 로컬 기반 AI 이미지 생성 및 텍스트-비디오 워크플로에서 동급 대비 빠르고 매끄러운 결과를 보였다.    ▲ 콤피UI에서 테스트   LLM 분야에서는 LM 스튜디오와 올라마를 이용해 7B~33B 규모의 다양한 대형 언어 모델을 구동했다. 64GB RAM과 50TOPS NPU의 지원 덕분에 GPT-3.5, 라마 2(LLAMa 2) 등 대용량 파라미터 기반의 모델도 실제 업무에서 실시간 질문-응답, 코드 자동완성, 문서 요약 등에 무리 없이 활용 가능했다.   ▲ LLM 테스트   통합 메모리 아키텍처 효과 Z2 미니 G1a의 최고 강점은 UMA(통합 메모리 아키텍처)에 있다. 이 기술은 시스템 메모리(RAM)의 상당 부분을 GPU 연산에 직접 할당해, 기존 분리형 GPU VRAM 성능의 한계를 극복한다. 실제로 탑재된 메모리(64GB~128GB 중 구매 옵션에 따라 선택)를 GPU에 최대 96GB까지 독점적으로 할당할 수 있으며, 복잡한 3D·그래픽 집약적 프로젝트 처리와 생성형 AI·LLM 등의 작업에서 병목 없이 고효율 워크플로를 경험할 수 있었다.   실사용·테스트를 위한 리뷰 환경 제품 리뷰 당시 64GB RAM 탑재 모델을 기준으로, 기본 설정에서는 16~32GB를 GPU에 할당해 일반 CAD·3D·AI 작업을 진행했다. 또한 고해상도 3D 렌더나 생성형 AI 영상 작업에서는 BIOS/소프트웨어에서 48~50GB까지 VRAM 할당을 수동 조정해 본 결과, 대형 프로젝트 파일에서 뷰포트 프레임 저하나 메모리 부족 경고 없이 안정적인 작업 환경을 제공했다. 반대로 GPU에 할당하는 메모리를 늘리면 고용량 데이터 병목이 해결되고, 3D 뷰포트 FPS나 AI 추론 속도 및 이미지 품질·정확도가 확실히 향상되는 것이 일관되게 확인되었다. 실제 기업 환경에서는 128GB 모델을 쓰면 최대 96GB까지 VRAM 할당이 가능하므로 GPU 메모리 병목이 무의미해지고, 기존 미니PC와는 비교할 수 없는 확장성과 작업 안전성을 확보할 수 있다.   아쉬운 점 첫째, 테스트용으로 받았던 장비에서는 HDMI 단자의 부재로 미니 DP로 모니터를 연결해야 했는데, 이는 테스트했던 데모 제품의 기본 옵션에 해당한다. 하지만 HP Z2 미니 G1a는 기업용/구매 시 고객 요구에 따라 HDMI 포트를 포함한 맞춤형 Flex I/O 슬롯 옵션 구성이 가능하다고 한다. 실제로 HP 공식 문서 및 판매 페이지에 따르면, 썬더볼트4(Thunderbolt4), USB-C, 미니 DP 외에도 HDMI를 Flex IO 슬롯에 추가할 수 있으므로, 다수의 모니터·TV·AV 장비로 연결해 사용하는 환경에서도 문제없이 세팅할 수 있다. 둘째, GPU가 AMD 라데온 기반이기 때문에 엔비디아 CUDA를 필요로 하는 GPU 가속 작업(예 : Redshift GPU 렌더러, 딥러닝 프레임워크)은 아예 테스트 자체가 불가능하다. AI, 3D, 영상 워크플로에서 CUDA 생태계를 사용하는 환경에서는 제품 선택 전 미리 확인이 필요하다. 셋째, 고부하 작업 시 팬 소음이 다소 발생할 수 있으므로 조용한 사무실 환경이라면 쿼이엇 모드 설정이 필요하다.   결론 및 추천 HP Z2 미니 G1a 워크스테이션은 한정된 공간에서 고성능이 필요한 크리에이티브 및 AI 전문가, 엔지니어, 디지털 아티스트에게 탁월한 선택지가 될 수 있다. 실제로 써보면, 공간 제약이 있는 환경에서도 3D 모델링, 영상 편집, 생성형 AI, LLM 추론 등 고사양 멀티태스킹을 안정적으로 병행할 수 있었고, 기업용 보안, ISV 인증, 최신 네트워크까지 갖췄다. 다양한 작업을 동시에 손쉽게 처리할 수 있다는 점에서 미니 데스크톱 중에서도 실전 현장에 ‘매우 쓸 만한’ 최상위 선택지라고 생각이 든다. 비록 CUDA 미지원 및 HDMI 포트 부재라는 한계가 있지만, CPU·메모리 중심의 워크플로에선 동급 최고 수준의 안정성과 성능을 보여준다. 최신 AI 및 LLM, 3D·영상·컴포지팅 등 멀티태스킹이 잦은 전문 분야라면 이 제품이 오랜 기간 든든한 실전 파트너가 될 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 배현수 부장 마루인터내셔널(맥슨 한국총판) 기술지원팀, AI 크리에이터, 모션그래픽 디자이너     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
[칼럼] 인공지능 기술 : 도입에서 혁신으로
디지털 지식전문가 조형식의 지식마당   빠르게, 그리고 깊게 지난 2년간 필자는 정신없이 AI 지식을 흡수하고 수많은 설루션을 직접 사용했다. 신기함과 불편함이 뒤섞인 체험 끝에, 직감적으로 2025년이 인공지능 기술의 이정표가 될 것이라 확신하게 됐다.   거시 흐름, 지능형 자동화와 에이전트의 부상 인공지능(AI) 기술의 발전은 2024년을 기점으로 단순히 새로운 기술의 도입을 넘어, 산업과 사회 전반의 혁신을 촉발하는 핵심 동력으로 자리 잡았다. 여러 분석가는 2024년이 AI 도입의 해였다면, 2025년은 AI가 기존 산업의 경계를 허물고 운영 방식을 근본적으로 재정의하는 ‘혁신의 해’가 될 것으로 전망하고 있다. 이러한 변화의 물결 속에서 기업들은 막연한 기대감을 넘어, AI 기술을 통해 실질적인 비즈니스 가치(ROI)를 창출하는 데 집중하고 있다. 특히, 반복적이고 명확한 규칙 기반의 작업을 AI로 자동화함으로써 즉각적인 효율성 증대와 함께 투자 성과를 확보하는 전략이 부상하고 있다. 이러한 맥락에서 ‘지능형 자동화(intelligent automation)’는 단순 반복 작업을 넘어 복잡한 워크플로를 자율적으로 처리하고 의사결정까지 내리는 단계로 진화하고 있다. 이는 ‘AI 에이전트’의 형태로 구현되며, 응용 AI의 차세대 진화로 주목받고 있다.  이러한 거시적 흐름 속에서 AI 기술의 3대 핵심 분야인 언어 모델, 이미지 및 영상 모델, 음성 모델의 최신 기술적 동향과 시장 변화를 심층적으로 분석하고, 나아가 이들 간의 융합 현상인 ‘멀티모달 AI’의 부상을 조망함으로써 비즈니스 리더와 기술 전문가에게 전략적 통찰을 만들어 봤다. 첫 번째, 대규모 언어 모델(LLM)의 혁신은 대부분 ‘트랜스포머(transformer)’ 아키텍처에 기반을 두고 있다. GPT-4, LLAMA 2, Falcon 등 현재 시장을 선도하는 모델은 이 아키텍처를 활용하여 방대한 데이터 세트에서 인간 언어의 패턴과 구조를 학습한다. 트랜스포머는 언어 모델의 근간을 이루며, 그 영향력은 비단 텍스트에만 머무르지 않고, 오픈AI(OpenAI)의 최신 비디오 생성 모델인 소라(Sora)의 ‘디퓨전 트랜스포머’ 아키텍처에도 확장 적용되고 있다. 최근 LLM 훈련 방법론은 단순히 모델의 규모를 키우는 것을 넘어, 효율과 특화된 성능을 확보하는 방향으로 진화하고 있다. LLM 시장은 ‘규모’를 추구하는 초대형 모델(LLM)과 ‘효율’을 추구하는 소형 언어 모델(SLM)이 공존하는 양면적 발전 양상을 보인다. GPT-4o나 제미나이(Gemini)와 같은 초대형 모델은 뛰어난 범용성과 성능으로 시장을 선도하는 한편, 특정 산업이나 용도에 맞게 최적화된 SLM은 적은 비용과 빠른 속도를 무기로 틈새시장을 공략하고 있다. 이러한 이원화된 전략은 기업이 적용 업무의 성격에 따라 두 모델을 전략적으로 선택하거나 조합하는 하이브리드 접근법을 채택하도록 유도하고 있다. 두 번째, 최근 이미지 및 영상 생성 모델의 핵심 기술은 ‘디퓨전 모델(diffusion model)’이다. 이 모델은 기존의 생성적 적대 신경망(GAN)이 가진 ‘모드 붕괴(mode collapse)’ 문제를 해결하며 고품질의 다양하고 사실적인 이미지 생성을 가능하게 했다. 디퓨전 모델은 이미지에 점진적으로 노이즈를 추가한 뒤, 이 노이즈를 단계적으로 제거하며 깨끗한 이미지를 복원하는 방식을 사용한다. 이 기술은 스테이블 디퓨전(Stable Diffusion), 달리(DALL-E)와 같은 대표적인 서비스에 활용되고 있다. 대규모 언어 모델과 마찬가지로, 이미지 및 영상 모델 역시 규모의 확장과 효율의 최적화라는 상반된 흐름을 동시에 경험하고 있다. 디퓨전 모델은 모델의 규모가 클수록 더 좋은 성능을 보이지만, 그만큼 막대한 연산 자원과 느린 처리 속도라는 문제에 직면한다. 이러한 한계를 극복하기 위해 모델 경량화와 처리 속도를 높이는 기술적 접근이 중요하게 다루어지고 있다. 이는 AI 기술의 상용화와 대중화를 위한 필수 단계이다. 영상 생성 기술은 미디어 및 엔터테인먼트 산업의 콘텐츠 창작 패러다임을 근본적으로 변화시키고 있다. 텍스트 입력만으로 원하는 비디오를 만들 수 있는 능력은 브레인스토밍을 가속화하고, 마케팅 자료, 게임 비주얼, 와이어프레임 및 프로토타입 제작 시간을 획기적으로 단축시켜 기업의 시장 대응력을 높인다. 특히, 전자상거래 기업은 AI 생성 이미지를 사용하여 다양한 제품 쇼케이스와 맞춤형 마케팅 자료를 대규모로 제작할 수 있다. 세 번째, 음성 모델은 크게 음성 신호를 텍스트로 변환하는 ‘음성 인식(ASR : Automatic Speech Recognition)’과 텍스트를 음성으로 변환하는 ‘음성 합성(TTS : Text-to-Speech)’ 기술로 구분된다. 딥러닝 기술의 발전은 이 두 분야에 혁명적인 변화를 가져왔다. 음성 인식(ASR) : 딥러닝 기반의 엔드 투 엔드 모델은 음향 모델링과 언어 모델링 과정을 통합하여 ASR의 정확도를 비약적으로 향상시켰다. 최신 시스템은 배경 소음을 제거하고 자연어 처리(NLP) 기술을 활용하2025/10여 문맥을 이해함으로써 최대 99%에 가까운 정확도를 달성하고 있다. 이는 단순히 음성을 텍스트로 바꾸는 것을 넘어, 사용자의 의도를 정확히 이해하고 적절하게 대응하는 대화형 AI 시스템의 핵심 기반이 된다. 음성 합성(TTS) : 딥러닝 기반 모델은 기계적인 느낌을 벗어나 사람처럼 자연스럽고 운율이 담긴 목소리를 생성하는 데 큰 발전을 이루었다. 이는 텍스트 분석, 운율 모델링, 그리고 실제 음성 파형을 생성하는 ‘보코더(vocoder)’ 과정을 통해 이루어진다. 현대 음성 합성 기술의 발전 방향은 단순히 자연스러움을 넘어, 인간-기계 상호작용을 더욱 몰입감 있고 개인화된 경험으로 이끄는 데 있다. 감정 표현 TTS : 이는 기계에 감정을 부여하여 인간 언어와 더욱 유사한 음성을 생성하는 것을 목표로 한다. 기쁨, 슬픔, 분노 등 다양한 감정을 표현하는 음성 합성은 사용자 경험을 더욱 풍부하게 만든다. 개인화된 음성 합성(Personalized TTS) : 이 기술은 약 1시간 분량의 데이터만으로 개인의 목소리를 복제하여 맞춤형 TTS를 만드는 연구 단계에 있다. 이는 부모의 목소리로 동화책을 읽어주는 등 감성적이고 따뜻한 응용 분야에 적용될 가능성을 열어준다.   감성으로 완성되는 기술 올해는 유난히 더운 것인지 아니면, 우리가 에어컨 환경에 너무 노출되어서 더위에 대한 저항력이 없어진 것인지는 모르지만 너무 더워서 정신적 활동이 힘들었다. 그 와중에 개인 자료를 정리하던 중에 개인적으로는 필자의 입사 이력서 사진을 우연히 찾아봤으나, 손상이 많이 되어서 인공지능으로 복원해 보기로 했다.     그림 1. 옛날 사진을 스마트폰으로 촬영한 이미지와 구글 인공지능으로 생성한 이미지   우선 스마트폰으로 이 사진을 찍은 다음 구글의 제미나이로 복원하고 다양한 모습으로 재현해 봤다. 그리고 동영상도 만들어 봤다. 아주 작고 희미한 흑백 사진이라고 우리의 머리속에 있는 이미지와 유사할 때까지 계속 보강된 이미지를 만들 수 있다. 그래서 최근에는 ‘포즈의 정리(Theorem of Pose)’라는 책을 구입해서 인공지능 생성 이미지 프롬프트를 본격적으로 연구해 보기로 했다.     그림 2. 구글 제미나이로 생성된 이미지   돌이켜보면 생각보다 빠른 속도다. 기술은 때로 불안과 경외를 동시에 불러온다. 그러나 확실한 것은, 인공지능이 우리의 감성을 자극하기 시작했다는 사실이다. 오래된 사진이 되살아나고, 목소리가 감정을 띠며, 텍스트가 움직이는 영상으로 변한다. 도입의 해를 지나 혁신의 해로 들어서는 지금, 우리는 효율을 넘어 의미를 설계해야 한다. AI는 결국, 우리 일과 삶의 이야기를 더 풍부하게 엮어내는 도구다. 기술이 감성을 만나 경험을 재편할 때, 진짜 혁신은 비로소 현실이 된다. 기업의 입장에서 2024년이 ‘도입의 해’였다면 2025년은 운영 방식 자체를 재정의하는 ‘혁신의 해’다. 기업은 막연한 기대가 아니라 ROI로 말하기 시작했고, 반복적·규칙 기반 업무를 AI로 자동화하여 즉각적인 효율과 투자 성과를 확보하는 전략이 주류로 부상했다. 그 중심에는 언어, 시각(이미지·영상), 음성이라는 세 가지 축과 이들을 촘촘히 엮어내는 멀티모달 AI가 있다.   ■ 조형식 항공 유체해석(CFD) 엔지니어로 출발하여 프로젝트 관리자 및 컨설턴트를 걸쳐서 디지털 지식 전문가로 활동하고 있다. 현재 디지털지식연구소 대표와 인더스트리 4.0, MES 강의, 캐드앤그래픽스 CNG 지식교육 방송 사회자 및 컬럼니스트로 활동하고 있다. 보잉, 삼성항공우주연구소, 한국항공(KAI), 지멘스에서 근무했다. 저서로는 ‘PLM 지식’, ‘서비스공학’, ‘스마트 엔지니어링’, ‘MES’, ‘인더스트리 4.0’ 등이 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
델, AI 서버 ‘파워엣지 XE7740’에 인텔 가우디 3 PCIe 가속기 탑재
델 테크놀로지스가 인텔 가우디 3(Intel Gaudi 3) PCIe 가속기를 통합 구성한 ‘델 파워엣지 XE7740 (Dell PowerEdge XE7740)’ 서버를 출시했다고 밝혔다. ‘델 파워엣지 XE7740’은 파워엣지 R 시리즈의 통합 용이성과 XE 시리즈의 성능 및 확장성을 결합한 4U 폼팩터 서버로서 성능, 비용 효율, 유연성을 바탕으로 기업들이 엔터프라이즈 AI에 대한 접근성을 높일 수 있도록 설계되었다. 델 파워엣지 XE7740 서버는 기존 데이터센터에 원활하게 구축할 수 있는 최적화된 규모의 설루션을 제공한다. 동시에 LLM(대규모 언어 모델)의 미세 조정 및 고성능 추론을 포함한 광범위한 AI 워크로드의 배포와 운영을 간소화해 엔터프라이즈 AI의 가격 대비 성능 측면을 고려했다.     이번 신제품은 최대 8개의 더블 와이드 또는 PCIe 가속기를 수용할 수 있는 유연한 구성을 제공한다. 최대 8개의 개별 가우디 3 가속기를 탑재할 수 있으며, 옵션으로 2개의 4-웨이(4-way) 브리지 가속기 그룹을 구성하는 것도 가능하다. RoCE(RDMA 오버 컨버지드 이더넷) v2를 통한 4-웨이(4-way) 가우디 3 PCIe 가속기 브리지 연결은 대규모 AI 모델과 더 큰 메모리 공간을 지원하며, 워크플로의 확장성과 유연성을 제공한다. 또한 8개의 표준 높이 PCIe 슬롯과 통합 OCP 네트워킹 모듈을 통해 가속기와 네트워크 인터페이스 카드(NIC)를 최대 1:1 비율로 매칭할 수 있는 유연한 네트워킹을 제공한다. 기존 인프라에 원활하게 통합 가능한 델 파워엣지 XE7740은 많은 기업들이 직면하고 있는 랙당 전력 한계를 극복하여 기존 데이터 센터에서 일반적으로 사용되는 최대 10kW 랙에서 효율적으로 작동한다. 엔터프라이즈 AI를 위한 제품으로서 기존의 공냉식 랙에 장착할 수 있는 XE7740은 ‘델 스마트 쿨링(Dell Smart Cooling)’ 설루션이 적용됐다. 또한 라마4(LLAMa4), 라마3(LLAMa3), 딥시크(Deepseek), 파이4(Phi4), 쿠엔3(Qwen3), 팔콘3(Falcon3) 등과 같은 인기 모델에 최적화되어 원활한 AI 워크플로 통합을 지원한다. 다양한 기존 모델 카탈로그와 함께 가우디 3를 사용하면 기업에서 손쉽게 AI 도입을 가속화할 수 있으며, 큰 비용이 소모되는 전력 및 냉각 업그레이드 없이도 높은 성능을 보장한다. 델은 파워엣지 XE7740가 ▲LLM(대규모 언어 모델) 추론 및 미세 조정 ▲이미지 및 음성 인식과 같은 멀티 모달 AI 애플리케이션 ▲데이터 집약적인 의료 분석 및 유전체 염기서열 분석 ▲금융 서비스 사기 탐지 및 위험 완화 ▲유통 및 전자상거래의 실시간 개인화 등 다양한 AI 워크로드를 지원해 엔터프라이즈 AI에 최적화되어 있다고 전했다. AI 워크로드가 증가함에 따라 기업이나 기관들은 사용량 기반으로 과금하는 GPU 가속기 구독 비용이나 클라우드 데이터의 외부 전송(egress) 비용에 부담을 느끼고 있다.  델은 “파워엣지 XE7740은 이런 비용을 절감하면서도 뛰어난 성능과 데이터 보안을 확보해 온프레미스 AI 프로젝트를 간소화하는데 특화된 설루션”이라고 전했다.  한국 델 테크놀로지스의 김경진 총괄사장은 “현재의 경쟁력을 유지하고 AI 미래에 대비하기 위해서는 확장이 용이하고 적응력이 뛰어난 인프라를 확보해 유연한 준비 태세를 갖추어야 한다. 검증된 AI 설계와 기존 에코시스템과의 원활한 통합이 가능한 XE7740은 경쟁이 치열한 시장에서 특히 주목할 만한 제품”이라고 말했다.
작성일 : 2025-09-22
인텔, 아크 프로 B-시리즈 GPU 및 제온 6 프로세서의 AI 추론 벤치마크 결과 소개
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.1 벤치마크에서 P코어를 탑재한 인텔 제온(Intel Xeon) 및 인텔 아크 프로 B60(Intel Arc Pro B60) 그래픽으로 구성된 인텔 GPU 시스템(코드명 프로젝트 배틀매트릭스)의 추론용 워크스테이션이 달성한 결과를 공개했다. 6가지 주요 벤치마크 테스트 결과, 라마(LLAMa)4 80B 모델 추론 처리량에서 인텔 아크 프로 B60은 엔비디아 RTX 프로 6000 및 L40S에 비해 각각 최대 1.25배 및 최대 4배의 가격 대비 성능 우위를 보였다. 인텔은 “이는 하이엔드 워크스테이션 및 에지 애플리케이션 전반에 걸쳐 새로운 AI 추론 워크로드를 처리하는 인텔 기반 플랫폼의 성능과 접근 우수성을 보여주는 결과”라고 평가했다. 인텔의 리사 피어스(Lisa Pearce) 소프트웨어, GPU 및 NPU IP 그룹 총괄은 “MLPerf v5.1 벤치마크 결과는 인텔의 GPU 및 AI 전략을 강력히 입증하고 있다. 새로운 추론 최적화 소프트웨어 스택을 탑재한 아크 프로 B-시리즈 GPU는 기업과 개발자가 강력하면서도 설정하기 쉽고, 합리적인 가격에 확장 가능한 추론 워크스테이션으로 AI 분야에서 경쟁력을 높여준다”고 밝혔다.     이전까지는 높은 추론 성능을 제공하면서 데이터 프라이버시 침해에서 자유로운 플랫폼을 우선시하는 전문가들이 독점적인 AI 모델에 의한 과도한 구독 비용 부담 없이 LLM(대형 언어 모델)을 배포하기에 필요한 역량을 갖추기 위한 선택지가 제한적이었다. 새로운 인텔 GPU 시스템은 최신 AI 추론 요구사항을 충족하도록 설계되었으며, 풀스택 하드웨어와 소프트웨어를 결합한 올인원(all-in-one) 추론 플랫폼을 제공한다. 인텔 GPU 시스템은 리눅스 환경을 위한 새로운 컨테이너 기반 설루션을 통해 간소화된 도입과 사용 편의성을 목표로 한다. 또한 멀티 GPU 스케일링 및 PCle P2P 데이터 전송으로 높은 추론 성능을 발휘하도록 최적화되었으며, ECC, SRIOV, 텔레메트리(telemetry) 및 원격 펌웨어 업데이트 등과 같은 엔터프라이즈급 안전성 및 관리 용이성을 갖추고 있다. CPU는 AI 시스템에서 계속해서 중요한 역할을 수행하고 있다. 오케스트레이션 허브로서 CPU는 데이터 전처리, 전송 및 전반적인 시스템 조율을 담당한다. 지난 4년간 인텔은 CPU 기반 AI 성능을 지속적으로 향상시켜왔다. P 코어를 탑재한 인텔 제온 6는 MLPerf 추론 v5.1에서 이전 세대 대비 1.9배의 성능 향상을 달성했다.
작성일 : 2025-09-10