• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " LLM"에 대한 통합 검색 내용이 316개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AWS, 세일즈포스와 ‘에이전트포스 360 포 AWS’ 공개
아마존웹서비스(AWS)는 세일즈포스와 협력해 AWS 환경에서 운영되는 ‘에이전트포스 360 포 AWS(Agentforce 360 for AWS)’를 발표했다. 이는 AWS의 글로벌 보안 인프라 상에서 운영되며, 아마존 베드록(Amazon Bedrock)을 통해 검증된 파운데이션 모델을 제공한다. 이를 통해 기업 고객은 신뢰성, 거버넌스, 그리고 가치 실현 속도라는 엔터프라이즈 AI 도입의 핵심 과제에 보다 안전하게 대응할 수 있다. 2026년 초 AWS 마켓플레이스(AWS Marketplace)를 통해 단독 제공될 예정인 ‘에이전트포스 360 포 AWS’는 고객들이 신뢰할 수 있는 AI 에이전트를 대규모로 안전하게 배포할 수 있게 하며, 구매·청구·인센티브가 통합된 환경에서 AI 투자를 효율적으로 관리하고 ROI 창출을 가속할 수 있게 된다. AWS 환경에서 운영되는 에이전트포스 360은 아마존 베드록을 에이전트포스의 추론 엔진으로 활용한다. 이를 통해 고객은 프롬프트 빌더(Prompt Builder) 기능을 위해 선도적인 AI 기업이 제공하는 고성능 파운데이션 모델에 아마존 베드록을 통해 원활하게 접근할 수 있다. 에이전트포스 360 플랫폼의 아틀라스 추론 엔진(Atlas Reasoning Engine)은 에이전트가 어떻게 사고하고, 계획하고, 행동하는지에 대한 투명성을 제공한다. 에이전트포스 360 포 AWS를 통해 이 엔진은 아마존 베드록에서 호스팅되는 앤트로픽(Anthropic)의 클로드(Claude) 모델을 사용해 구동될 수 있다. 이는 모든 작업에 대한 변경 불가능한 감사 추적이 자동으로 생성되어 엄격한 규제 요구사항을 충족하는 고도로 규제된 산업의 고객에게 특히 중요하다. 에이전트포스 360 프롬프트 빌더는 고객 자체 데이터에 기반한 정확하고 관련성 높은 프롬프트로 신뢰할 수 있는 생성형 AI를 지원한다. 프롬프트 빌더 내에서 일부 클로드 모델과 노바 라이트(Nova Lite), 노바 프로(Nova Pro)와 같은 아마존 모델을 포함한 모델 선택권을 제공한다. AWS에서 에이전트포스 360을 구매하면 고객은 전체 스택에 걸쳐 AI 지출을 통합하고, 추가 구매 인센티브를 활용하며, 단일 뷰로 IT 지출 전반에 걸쳐 세일즈포스 설루션을 관리할 수 있다. 또한 고객은 AWS를 통한 프라이빗 가격 책정과 통합 청구를 활용해 사전에 승인된 예산을 활용하고 조달을 간소화할 수 있다. 이를 통해 공동 현장 인센티브와 고객 혜택, 맞춤형 지원을 결합한 통합된 시장 공략 체계를 구축해, 양사 고객의 성공을 함께 지원한다. 보호 가드레일과 고부가가치 생성형 AI 에이전트를 즉시 배포할 수 있는 기능을 갖춘 AWS 기반 에이전트포스 360은 고객이 에이전트 추론과 데이터를 세일즈포스 트러스트 바운더리(Salesforce Trust Boundary) 내에서 완전히 구축하고 사용할 수 있도록 한다. 트러스트 바운더리는 하이퍼포스(Hyperforce)를 통해 세일즈포스 플랫폼에 기본적으로 구축되며 에이전트포스 트러스트 레이어(Agentforce Trust Layer)로 보호된다. 이 엔터프라이즈급 아키텍처는 모든 고객이 확신을 갖고 AI를 도입할 수 있도록 보장한다. LLM 트래픽이 세일즈포스의 프라이빗 AWS 클라우드 내에 유지되는 안전하고 통제된 경계를 생성한다. 이를 통해 고객 데이터가 외부 제공업체에 의해 저장되거나 학습에 사용되지 않도록 보장하는 핵심 통제가 가능하며, 초기 데이터 접근부터 최종 실행에 이르기까지 전체 에이전트 워크플로가 완전하게 관리되고, 감사를 지원하며, 관련 규정을 준수하도록 한다. 브라이언 랜즈먼(Brian Landsman) 세일즈포스 글로벌 파트너십 총괄 부사장 겸 앱익스체인지(AppExchange) CEO는 “고객들은 강력하고 신뢰할 수 있으며 기존 클라우드 투자와 부합하는 AI 에이전트를 원한다”면서, “AWS 상의 에이전트포스 360은 신뢰할 수 있는 가드레일과 AWS 마켓플레이스를 통한 간편한 구매 경로를 제공해, 고객이 기존 구매 약정을 최대한 활용할 수 있도록 지원한다”고 말했다. AWS의 루바 보르노(Ruba Borno) 글로벌 스페셜리스트 및 파트너 부사장은 “AWS와 세일즈포스는 고객의 성공을 함께 이끌어온 입증된 협력 성과를 보유하고 있다”면서, “에이전트포스 360 포 AWS는 이러한 성과를 바탕으로, 고객이 AWS 인프라에서 AI 에이전트를 보다 쉽게 발견하고, 배포하며, 혁신할 수 있도록 지원한다. 아마존 베드록의 폭넓은 모델 선택권과 세일즈포스의 신뢰 기반 플랫폼을 결합함으로써, 기업이 AI 이니셔티브를 가속하는 데 필요한 보안, 유연성 및 조달 편의성을 제공한다”고 말했다.
작성일 : 2025-12-17
HP, 로컬 AI 실행을 위한 워크스테이션 ‘ZGX 나노 G1n AI 스테이션’ 국내 출시
HP코리아가 개발자와 데이터 사이언티스트 등 AI 직군 종사자를 위한 새로운 워크스테이션 ‘ZGX 나노 G1n AI 스테이션(ZGX Nano G1n AI Station)’을 국내 출시한다. ZGX 나노 G1n은 150mm 정사각형 크기의 소형 데스크톱 폼팩터에 대규모 AI 모델 실행을 위한 연산 환경을 구현했다. 데이터를 외부 서버로 보내지 않고 기기 내부에서 직접 처리하는 로컬 방식으로 AI 개발과 추론을 수행해 클라우드 의존을 줄였다. ‘ZGX 나노 AI 스테이션’은 미래의 업무(Future of Work)를 새롭게 정의한다는 기업 비전 아래 HP가 새롭게 선보인 라인업이다. 로컬 AI 컴퓨팅 수요 증가, 데이터 보안 강화 필요성 증대, 클라우드 비용 부담 등 변화하는 환경에 대응하기 위해 고안됐다. 이번 ZGX 나노 G1n은 기존 데스크톱·노트북 환경에서 부족했던 대형 모델 처리와 개발자 경험을 보완하고, 기업의 AI 워크플로를 단계적으로 확장할 수 있는 기반을 제공한다.     ZGX 나노 G1n은 컴팩트한 폼팩터 안에 대규모 모델 처리를 위한 연산 체계를 갖췄다. 엔비디아 GB10 그레이스 블랙웰 기반 아키텍처로 페타플롭(Petaflop, 초당 1000조 회 연산)급 성능과 최대 1000 TOPS(AI 전용 연산 단위) 성능을 제공하며, 128GB 통합 시스템 메모리를 적용해 최대 2000억 파라미터(매개변수)급 모델을 로컬에서 직접 실행 가능하다. ZGX 나노 G1n 두 대를 초저지연 네트워킹을 지원하는 엔비디아 커넥트X-7(ConnectX-7)으로 연결하면 처리 가능한 모델 규모가 최대 4050억(405B) 파라미터로 확장돼, 별도 데이터센터 구축 없이도 내부 수요에 맞춰 연산 환경을 유연하게 확장할 수 있다. HP는 개발자를 위한 다양한 소프트웨어도 지원한다. ZXG 나노 G1n 와 함께 제공되는 ‘ZGX 툴킷(Toolkit)’은 비주얼 스튜디오 코드(Visual Studio Code), ML플로우(MLFlow), 올라마(Ollama), 언슬로스(Unsloth) 등 주요 개발 도구를 포함해, 개발자의 초기 설정 부담을 줄이고 반복 작업 흐름을 간소화한다. 비주얼 스튜디오 코드 확장 프로그램을 이용할 경우 네크워크에 연결된 ZGX 나노 장치를 수동 IP 설정 없이 자동으로 검색·연결할 수 있어 개발 준비 과정도 한층 단순해졌다. 뿐만 아니라 엔비디아 AI 소프트웨어 스택과의 결합을 통해 대규모 언어 모델(LLM) 등 고성능 AI 워크로드를 클라우드 의존 없이 로컬에서 직접 처리할 수 있는 개발 환경을 제공한다. 로컬 환경이 주는 이점도 갖췄다. ZGX 나노 G1n은 AI 모델 학습과 추론을 로컬에서 처리해 외부 전송 과정에서 발생할 수 있는 노출 위험을 줄이며, 민감한 데이터를 기업 내부에서 일관되게 관리할 수 있어 보안 기준이 높은 환경에서도 안정적인 개발 작업을 지원한다. 클라우드 환경에서 발생하는 지연을 줄여 장기 프로젝트에서도 예측 가능한 비용 구조를 유지할 수 있고, 로컬에서 바로 작업을 이어갈 수 있어 운영 효율이 높다. HP 코리아의 김대환 대표는 “AI 개발 환경에서 속도·보안·비용 효율은 기업 경쟁력과 직결된다”면서, “ZGX 나노 G1n은 개발자가 복잡한 설정 없이 작업을 시작하고, 고도화된 모델까지 로컬에서 다룰 수 있는 환경을 제공한다. AI 개발의 속도와 안정성, 효율을 새로운 수준으로 끌어올릴 것”이라고 밝혔다.
작성일 : 2025-12-17
레노버, ‘하이브리드 AI 어드밴티지’ 통해 AI 전환의 실질적 성과 뒷받침
레노버 글로벌 테크놀로지 코리아(ISG)는 12월 8일 온라인 미디어 브리핑을 개최하고, 자사의 AI 비전과 전략 및 그 핵심 설루션인 ‘하이브리드 AI 어드밴티지(Hybrid AI Advantage)’를 소개했다. 레노버는 ‘모두를 위한 더 스마트한 AI(Smarter AI for All)’라는 비전을 실현하기 위한 핵심 전략으로 하이브리드 AI를 제시하고 있다. AI 도입이 가속화하면서 어떻게 하면 AI에서 실질적인 ROI를 확보할 지에 대한 기업들의 고민이 깊어지는 가운데, 레노버는 데이터가 존재하는 곳에서 AI를 운영함으로써 성능과 보안, 비용 효율을 높일 수 있는 하이브리드 AI에 주목하고 있다. 레노버가 바라보는 하이브리드 AI는 개인, 기업, 공공의 측면을 포괄하는 개념이다. 개인용 AI는 각 개인에게 맞춤화된 경험을 제공하여 기술을 더 관련성 있고 직관적인 요소로 만들어 준다. 기업용 AI는 조직이 데이터를 안전하고 효과적으로 활용하여 생산성과 혁신을 이끌 수 있도록 돕고, 공공 AI는 강력한 모델과 애플리케이션에 대한 폭넓은 접근성을 통해 사회 전체에 이익을 제공한다. 레노버의 하이브리드 AI 어드밴티지는 인프라, 데이터, 모델, 실제 설루션을 하나로 통합하는 풀스택 AI 접근 방식을 채택하고 있다. 다양한 서비스를 통해 기업이 AI에 대한 열망을 넘어 실제 데이터 기반의 AI 구현으로 나아가도록 지원하며, 이를 통해 더 빠른 결과, 실질적인 혁신, 측정 가능한 ROI를 제공할 수 있다. 또한 파트너 생태계를 통해 사전에 검증되고 보안성이 높으면서 확장 가능한 설루션을 제공한다.     AI 전환 파트너로서 레노버가 내세우는 차별점 중 하나는 AI 지원 디바이스, 인프라, 서비스 전반을 아우르는 포트폴리오를 보유·제공한다는 점이다. 이를 통해 레노버는 개인, 엔터프라이즈, 공공 분야 전반에서 데이터가 존재하는 곳으로 AI를 가져올 수 있고, 기업은 레노버의 AI 라이브러리(Lenovo AI Library)를 통해 ROI 중심의 사용·반복 가능한 실제 활용 사례를 손쉽게 활용할 수 있다. 한편, AI 기술은 초기의 머신러닝, 대규모 언어 모델(LLM)과 생성형 AI을 거쳐 인간의 직접적인 개입 없이 스스로 의사결정을 내리고 목표를 추구하며 행동을 수행할 수 있는 시스템인 ‘에이전틱AI’로 진화하고 있다. 이미 에이전틱 AI가 은행 및 금융 서비스, 제조, 에너지, 생명과학, 교통 및 물류, 유통 및 소비재 등 다양한 산업에 도입되며 광범위한 규모의 워크플로에서 인텔리전스와 자동화를 강화하고 있다. 레노버는 “나아가 미래에는 지각 및 상호작용, 인지와 의사결정, 자율성 및 진화 등이 심화된 AI 슈퍼 에이전트가 시장을 주도할 것으로 예상된다”면서, 선도적 에이전틱 AI 설루션을 통해 시장을 선도해나간다는 계획을 밝혔다. 또한, 레노버는 고성능 AI 인프라 기반으로 다양한 분야에 최적의 AI 설루션을 제공하고 있으며, 이를 위해 다양한 국내 ISV(독립 소프트웨어 공급사)들과 전략적 협력을 지속하고 있다고 전했다. 생성형 AI 전문기업 딥브레인AI, AI 안면인식 전문기업 메사쿠어컴퍼니, 제조 산업의 AI 머신 비전 선도기업 세이지, 음원 분석 전문기업 크랜베리, AI 전문기업 솔트룩스 등과 협업해 실질적인 비즈니스 임팩트를 창출하는 새로운 AI 설루션을 선보이면서, 국내 AI 생태계 강화에 힘을 보태고 있다는 것이 레노버의 설명이다. 레노버 글로벌 테크놀로지 코리아(ISG) 윤석준 부사장은 “이제는 AI를 어떻게 도입·활용해서 ROI를 확보·제고할 것인지가 기업들의 가장 큰 고민거리가 되고 있다”면서, “레노버는 개별 기업의 니즈와 상황에 따라 맞춤형 접근을 바탕으로 탁월한 생산성과 민첩성, 신뢰성을 제공할 수 있는 하이브리드 AI 어드밴티지를 통해 지속적이고 실질적인 성과를 창출할 수 있는 AI 전환을 지원해 나갈 것”이라고 말했다.
작성일 : 2025-12-09
[포커스] 펑션베이, 메카트로닉스·AI 융합으로 엔지니어링 과제 해결 지원
펑션베이가 지난 10월 13일 ‘2025 리커다인 유저 콘퍼런스’를 진행했다. 이번 콘퍼런스에서는 모델링 속도 개선, 해석 정확도 및 활용성 강화, 결과 분석 용이성 등을 중점으로 다물체 동역학 해석 설루션 리커다인 2026(RecurDyn 2026) 버전의 신기능을 소개했다. 또한 입자법 기반 CFD(전산 유체 역학) 소프트웨어인 파티클웍스 8.2(Particleworks 8.2) 버전의 기능 개선과 함께 사용자 서브루틴의 활용법, 모터 모델링 및 제어 기법, 하모닉 드라이브의 MFBD(유연 다물체 동역학) 해석 기법 등의 기술 발표가 이뤄지는 등 엔지니어링 시뮬레이션 기술의 최신 동향과 적용 사례를 전했다. ■ 정수진 편집장     해석의 신뢰도와 사용자 편의성 강화한 리커다인 2026 펑션베이 기술사업팀의 김진수 수석은 펑션베이가 자체 개발하고 있는 리커다인 2026의 핵심 기능을 소개했다. 사용자 모델링 효율과 해석 정확도를 강화한 이번 버전은 접촉(contact), 조인트(joint), 요소(element) 등 물리 현상 재현 능력을 고도화하고, 최신 AI 기술을 도입해 사용자 편의성을 높인 것이 특징이다. 우선, 해석의 신뢰도를 좌우하는 접촉 기능이 향상됐다. 패치 사이즈의 하한 제한을 없애 미세한 설정이 가능해졌으며, 이를 통해 더욱 정교한 지오메트리 조정이 가능하다. 특히 지오 콘택트(geo contact)에는 ‘단위 면적당 강성’과 ‘압력 스플라인’ 입력 방식이 추가되어, 브레이크 패드와 같이 면적에 따라 압력이 변하거나 비선형적 압력 관계를 가진 모델의 해석 정확도가 높아졌다. 조인트 영역에서는 스크류 조인트에 프리로드 기능을 추가해 오일 피스톤 등의 마찰 거동을 현실적으로 구현하며, 유연체(FFlex) 해석 시 더미 보디의 질량을 자동 보정해 물리적 간섭을 최소화했다. 주목할 점은 생성형 AI 기술의 도입이다. 리커다인 2026은 LLM(대규모 언어 모델) 기반의 ‘리커다인 어시스턴트’ 베타 버전을 탑재했다. 김진수 수석은 “복잡한 표현식(expression) 예제 생성이나 사용법 안내를 AI가 지원함으로써 모델링의 진입 장벽을 낮췄다”고 설명했다. 후처리(포스트 프로세싱)의 효율도 개선됐다. 애니메이션 일시 정지 상태에서 즉각적인 파라미터 확인과 노드 데이터 추적이 가능해졌고, 최대 5개 주파수의 진동 모드를 동시에 비교 재생하거나 셸(shell) 요소의 두께 위치별 응력을 확인하는 기능이 추가됐다. 이 외에도 내구 해석 결과 통합, 2배 빨라진 기어 해석용 패치 구속 모델링 등을 통해 엔지니어의 업무 생산성을 높이는 데 주력했다.   ▲ 리커다인 2026에서 베타로 탑재된 LLM 기반의 AI 어시스턴트   입자 해석의 정밀도·효율 높인 파티클웍스 8.2 펑션베이가 국내 공급하는 입자법 기반 CFD 소프트웨어인 파티클웍스는 지난 10월 8.2 버전을 선보였다. 펑션베이 기술사업팀의 김태영 책임은 “이번 업데이트는 기체와 액체의 상호작용을 다루는 LBM(Lattice Boltzmann Method) 기능의 고도화와 대규모 해석을 위한 전용 모델 도입, 열 해석 영역 확장을 통해 정확도와 효율을 강화했다”고 밝혔다. 가장 큰 변화는 기체와 액체 간의 양방향(2-way) 커플링 지원이다. 뭉쳐진 유체인 액적과 LBM 격자 간의 상호작용을 직접 계산하여, 액적과 기류가 서로 주고받는 영향을 반영할 수 있다. 이를 통해 빗방울이나 소방수 살포 같은 복잡한 유동을 더욱 현실적으로 모사할 수 있게 됐다. 눈이나 먼지가 쌓이는 현상을 다루는 ‘부착/적층 모델’도 추가됐다. 파티클웍스 8.2에서는 해석 효율이 더욱 개선됐다. FVM(유한체적법) 연동 시 MPS는 싱글, FVM은 더블 프리시즌으로 계산하는 하이브리드 방식을 도입해 속도와 안정성을 확보했다. 김태영 책임은 “불필요한 격자 생성을 줄이고 결과 파일 크기를 최대 85% 축소해 대용량 해석의 부담을 덜었다”고 설명했다. 또한 억 단위 입자를 처리하는 토목·해일 해석용 ‘EIMPS’ 모델을 도입해 메모리 효율과 속도를 높였다. 열 해석 분야에서는 고체-액체-기체 간 상호 열전달을 단일 솔버로 통합 지원하며, 방향별 열 전도도 입력 기능을 더해 복합적인 열전달 현상을 정밀하게 해석할 수 있게 됐다.   동역학 해석의 한계 극복 위한 기술과 사례 소개 이번 콘퍼런스에서는 리커다인의 기술적 깊이와 확장성을 선보이는 발표와 함께 자동차, 로보틱스, 전력 설비, 인공위성 등 다양한 산업 분야의 활용 사례가 소개됐다. 펑션베이 기술사업팀의 이정한 수석은 ‘리커다인 유저 서브루틴(user subroutine) 사용법’을 주제로, 파도의 힘과 같은 특수 물리 현상을 사용자가 직접 구현하거나 복잡한 모델을 수식화하여 해석 속도를 단축하는 노하우를 공유했다. 장성일 책임은 ‘코링크(CoLink) 모터 드라이버를 연동한 모터 모델링’ 기법을 소개하면서, 기계와 제어 시스템이 결합된 메카트로닉스 분야로의 기술 확장을 강조했다. 전용우 팀장은 로봇 구동계의 핵심인 ‘하모닉 드라이브(harmonic drive)의 모델링 및 정밀 해석 기법’을 발표하면서, 해석 시간 단축과 정확도 확보를 동시에 달성하는 해법을 제시했다. 펑션베이는 이들 발표를 통해 리커다인이 다룰 수 있는 CAE 기술의 스펙트럼과 해결 능력을 포괄적으로 제시했다. 또한, 동역학 해석을 넘어 복합 물리 현상과 정밀 제어 시스템까지 아우르는 통합 설루션으로 나아가고자 하는 리커다인의 미래 방향성을 제시했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-12-02
[포커스] 콘택트 소프트웨어, 포괄적인 개방형 PLM 통해 엔지니어링 혁신 비전 소개
독일의 PLM 기업인 콘택트 소프트웨어가 자사의 PLM 기술을 소개하는 ‘콘택트 엘리멘츠 라이브 투어 아시아 2025(CONTACT Elements LIVE Tour Asia 2025)’를 진행했다. 지난 11월 13일 서울에서 열린 한국 행사에서는 국내 파트너인 세원에스텍, 슬렉슨(SLEXN)과 함께 PLM 플랫폼인 콘택트 엘리먼츠(CONTACT Elements)를 통해 국내 기업의 디지털 전환을 가속화하겠다는 전략을 소개했다. ■ 정수진 편집장     엔지니어링 생산성 극대화하는 PLM 기술 제공 지난 1990년에 설립된 콘택트 소프트웨어는 모듈형 아키텍처와 개방성을 특징으로 하며, 특히 AI 혁신을 활용하여 제품 개발, 엔지니어링 변경 관리, 제조 및 의사 결정 프로세스를 경영진부터 생산 현장까지 통합하고 최적화하는 데에 초점을 맞추고 있다. 또한 AI 기술을 통해 데이터 사일로 문제 해결과 엔지니어링 생산성을 높이고, 지능형 레이어를 통해 미래 지향적인 스마트 산업 AI 설루션을 제공할 계획이다. 콘택트 소프트웨어 코리아 이상훈 한국영업대표는 “현재 전 세계에서 약 600명의 직원이 근무하고 있으며, 매년 매출의 27%를 연구개발(R&D)에 투자한다. 전 세계 42개국, 2000여 개 고객사에서 15만 명 이상의 사용자가 콘택트 소프트웨어의 설루션을 활용 중이다. 사용자층은 자동차나 기계 같은 전통적인 제조 분야뿐만 아니라 조선, 석유, 바이오, 식음료 등 다양한 산업군을 아우른다”고 소개했다. 콘택트 소프트웨어가 소개하는 자사의 핵심 미션은 ‘협동(collaboration)을 강화하는 설루션을 통해 실용적인 기술을 고객에게 제공하는 것’이다. 이를 위해 ▲ 필요한 기능만 선택해서 커스터마이징할 수 있고, 동일한 기술 스택을 기반으로 업데이트와 유지보수가 쉬운 모듈 구성 ▲파이썬(Python) 기반의 소스 코드 전체를 사용자에게 제공하고, API(애플리케이션 프로그래밍 인터페이스)를 개방해서 비즈니스 환경에 맞춰 시스템을 개선할 수 있는 개방성 ▲직관적이고 간편한 UI(사용자 인터페이스)를 제공해서 접근성을 높인 사용자 편의성 등을 차별점으로 내세운다.   경영진부터 생산 현장까지 디지털 스레드로 연결 콘택트 소프트웨어의 칼 하인츠 자크리스(Karl Heinz Zachries) CEO는 기업이 직면한 글로벌 경쟁과 공급망 이슈를 해결할 열쇠로 ‘디지털화’를 제시하면서, 콘택트 엘리먼츠 플랫폼이 이를 빠르게 구현하도록 돕는다고 설명했다. 콘택트 엘리먼츠는 ‘경영진부터 생산 현장까지’ 아우르는 연결성을 특징으로 한다. 영업, 설계, 구매, 생산 등 기업 내 모든 부서를 통합하는 엔드 투 엔드 프로세스를 지원한다는 것이다. 자크리스 CEO는 “이를 통해 제품 기획부터 폐기 및 재활용에 이르는 ‘디지털 스레드(digital thread)’를 강화한다”고 설명했다. 이렇게 구현된 디지털 스레드는 특히 데이터가 부서별로 단절되는 사일로(silo) 문제를 해결할 수 있다. 전체 제품 수명주기에 걸쳐 하나의 제품 구조를 가진 ‘단일 정보원(single source of truth)’을 제공함으로써 정보 검색 시간을 줄이고 IT 환경을 단순화한다는 것이다. 또한 PLM, MES, ERP 등 주요 기업 소프트웨어를 유기적으로 연결하고, ERP와 양방향으로 동기화해 디지털 제품 수명주기 관리를 지원한다는 점을 장점으로 내세운다. 콘택트 엘리먼츠는 효율을 높이기 위한 기능도 제공한다. 새로운 요구사항을 유연하게 반영하는 ‘애자일(agile)’ 엔지니어링 환경을 제공하며, ‘스마트 변경’ 기능을 통해 엔지니어링 변경 이력을 투명하게 추적하고 관리한다. 3D 모델 통합과 실시간 협업 도구는 팀워크를 강화해주며, 지능형 BOM(자재명세서) 생성과 자동화된 워크플로는 생산 계획을 원활하게 돕는다. 이런 특징을 바탕으로 엔지니어링 생산성을 큰 폭으로 높일 수 있다는 것이 콘택트 소프트웨어의 설명이다.   산업용 AI의 표준을 제시하는 ‘푸리에 AI ’이번 행사에서 콘택트 소프트웨어는 파이썬 기반의 개방형 아키텍처라는 특징을 살려 AI 기술을 모든 모듈에 유연하게 통합할 것이라고 전했다. 콘택트 엘리먼츠 플랫폼 위에 구축된 지능형 레이어인 ‘콘택트 푸리에 AI(Contact Fourier AI)’는 엔지니어링 및 제조 분야에 특화된 AI 기능을 제공한다. 2026년 초 첫 버전이 선보일 푸리에 AI는 LLM(대규모 언어 모델), 생성형 AI, 3D 기하학적 딥러닝 등 다양한 멀티모달 AI를 엔지니어링 프로세스에 지원한다. 통합 플랫폼 상단의 지능형 레이어를 통해 제미나이(Gemini)나 챗GPT(ChatGPT)와 같은 최신 모델 중 가장 정확한 것을 자동으로 선택해 통합 기능을 제공한다. 콘택트 소프트웨어의 란돌프 세그푸(Randolf Szegfü) 설루션 건설팅 총괄은 “또한 구성 가능한(composable) 아키텍처를 통해 AI가 시스템 내 정보의 맥락을 이해하도록 했다. 덕분에 문서 요약 같은 기능을 프로젝트 관리나 BOM 관리 등 다른 영역에서도 재사용할 수 있다”고 설명했다. 푸리에 AI의 주요 기능으로는 AI 비서를 통한 신속한 정보 수집과 의사결정 지원, 경영진부터 생산 현장까지 아우르는 엔드 투 엔드 영향 분석이 있다. 향후에는 자연어로 제품 변경에 따른 탄소 발자국이나 비용 영향을 분석하고, 워크플로를 자동 실행하는 기능도 구현될 예정이다. 수동 입력 대신 CAD 모델이나 BOM 구조를 자동으로 생성하거나, 3D 형상 검색으로 정보를 빠르게 찾는 기능도 지원한다. 산업 현장 적용을 위한 보안성도 강화했다. 고객의 지적 재산(IP)이 외부 AI 훈련에 유출되지 않도록 보호하며, 기업 내 사용자 권한을 철저히 준수한다. 세그푸 총괄은 “AI의 고질적인 문제인 환각(hallucination) 현상을 방지하고, 데이터가 없을 경우 모른다고 답하는 등 사실 기반의 신뢰성 높은 지원을 보장한다”고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-12-02
[온에어] AI·LLM 시대, 미니 워크스테이션으로 GPU 한계를 넘다
캐드앤그래픽스 지식방송 CNG TV 지상 중계   CNG TV는 10월 22일 ‘고가의 GPU 없이도 최대 VRAM 96GB 작업 가능, HP Z AI 워크스테이션 및 사용기 소개’를 주제로, 강력한 미니 워크스테이션’을 표방한 HP Z2 미니 G1A(HP Z2 Mini G1A)를 소개하는 시간을 마련했다. AI와 디지털 콘텐츠 작업을 하고 있거나 시작하려는 기업·개인에게 G1A는 현실적인 대안이 될 것으로 기대된다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲ 왼쪽부터 캐드앤그래픽스 박경수 이사, HP코리아 차성호 이사, 마루인터내셔널 배현수 부장   미니지만 96GB VRAM… ‘새로운 가성비 워크스테이션’ HP코리아 차성호 이사는 워크스테이션은 “단순 고성능 PC가 아니라, R&D·엔지니어링에서 무거운 애플리케이션을 장시간 안정적으로 돌리기 위해 설계된 장비”라고 정의했다. Z2 미니 G1A는 AMD 라이젠 AI 맥스 프로(Ryzen AI Max Pro) 기반 16코어 CPU, 통합형 CPU·GPU 구조를 채택해 지연 시간을 줄이고, 128GB 통합 메모리 중 최대 96GB를 VRAM으로 할당할 수 있는 것이 핵심이다. 기존에 96GB VRAM을 구성하려면 RTX 6000급 GPU 두 장이 필요했고, GPU 비용만 수천만 원이 들었다. Z2 미니는 이와 비슷한 메모리 용량을 훨씬 적은 비용으로 활용할 수 있어 기존에는 메모리 부족 때문에 시도조차 어려웠던 워크플로를 가능하게 하는 장비라는 설명이다. 폼팩터는 300W 파워 내장 미니 박스 형태로 책상 위·아래, 모니터 뒤, 랙 장착 등 다양한 설치가 가능하며, 팬·성능 모드를 선택해 저소음/성능/랙 환경에 맞게 튜닝할 수 있다. 타깃으로는 3D 모델링, 렌더링, 콘텐츠 제작, AI·LLM 개발, 데이 터 사이언스 등이 제시됐다. 차성호 이사는 “이 제품은 96GB VRAM을 통해 기존에는 메모리 한계 때문에 불가능했던 워크플로를 가능하게 만드는 새로운 형태의 미니 워크스테이션”이라고 말했다.   DCC·CAD·LLM까지… 실사용으로 본 성능과 활용성 마루인터내셔널 배현수 부장은 Z2 미니 G1A(AMD 라이젠 AI 맥스 프로 395, RAM 64GB)로 DCC·CAD·LLM·AI 이미지까지 실제 업무에 가까운 테스트를 진행한 사례를 발표했다. 시네벤치(Cinebench) 멀티코어 벤치마크에서는 애플의 M1 울트라보다 높은 점수가 나와 “생각보다 훨씬 강력한 성능”이라고 평가했다. 시네마 4D(Cinema 4D)에서는 약 2만 5000개 파트, 3100만개 폴리곤 규모의 CAD 기반 신을 무리 없이 조작했고, 레드시프트(Redshift) 및 브이레이(V-Ray) CPU 렌더에서도 대용량 신을 안정적으로 처리했다. 지브러시(ZBrush)에서는 1억 1000만개 폴리곤 모델도 부드럽게 다뤄, 대용량 메시에 강점을 보였다. 아이언캐드(IronCAD) 대형 어셈블리(2만 1800개 부품, 860MB 크기) 테스트에서는 RTX 2060 노트북과 비슷한 뷰포트 성능을 보여, CAD 엔지니어가 “이 작은 장비에서 이 정도 퍼포먼스가 나올 줄 몰랐다”며 놀랐다는 후기도 전했다. LLM 측면에서는 LM 스튜디오(LM Studio)로 20B급 모델을 로컬에서 구동해 실사용 감각을 확인했고, 올라마(Ollama) 기반 라마 모델로 한글 Q&A도 테스트했다. 배 부장은 “외부 챗GPT(ChatGPT)를 쓰기 어려운 보안 환경에서 로컬 LLM 실험용 장비로 충분히 의미가 있다”고 강조했다. 콤피UI(ComfyUI)를 통한 스테이블 디퓨전(Stable Diffusion)도 설정 변경 후 동작을 확인해, 로컬 AI 이미지 실험 환경으로서 가능성을 보여줬다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-12-02
CAD&Graphics 2025년 12월호 목차
  INFOWORLD Editorial 17 2026, AI가 제조 경쟁력을 다시 설계한다   Case Study 18 모텐슨이 VR을 사용해 건설 비용을 낮춘 방법 설계 오류를 미리 해결하고 디자인 협업과 의사결정 속도 높이다 22 APEC에서 선보인 경주 미디어 버스 / 박진호 ‘골든 신라 XR 버스’로 천년 신라를 달리다   Focus 26 CAE 컨퍼런스 2025, AI·디지털 트윈 융합 통한 엔지니어링 혁신 전략 짚다 30 펑션베이, 메카트로닉스·AI 융합으로 엔지니어링 과제 해결 지원 32 다쏘시스템, 버추얼 트윈과 AI로 산업 효율·지속 가능성 동시 혁신 34 빌딩스마트협회, ‘빌드스마트 콘퍼런스’에서 AI·로봇·OSC 기반 미래 건설 비전 제시 36 한국BIM학회, ‘지능형 건설의 부상’ 국제 심포지엄 성료… “전면 BIM 확대를 위한 정량화와 활성화 노력 필요” 38 콘택트 소프트웨어, 포괄적인 개방형 PLM 통해 엔지니어링 혁신 비전 소개 40 SAP 코리아, “비즈니스 AI로 국내 기업의 혁신 도울 것”   On Air 51 캐드앤그래픽스 CNG TV 지식방송 지상중계 AI·LLM 시대, 미니 워크스테이션으로 GPU 한계를 넘다 52 캐드앤그래픽스 CNG TV 지식방송 지상중계 클래시 마스터·레빗 마스터로 보는 BIM 업무 혁신 포인트 53 캐드앤그래픽스 CNG TV 지식방송 지상중계 디지털 전환에서 AI 전환으로 54 캐드앤그래픽스 CNG TV 지식방송 지상중계 제조 데이터의 새로운 표준을 세운다   New Product 42 현실감 높은 대규모 월드 구현과 더 강력해진 통합 워크플로 언리얼 엔진 5.7 48  AI 및 클라우드 기반 기능 강화한 설계 설루션 디자인센터 솔리드 엣지 2026 62 이달의 신제품   Column 55 트렌드에서 얻은 것 No. 26 / 류용효 데이터가 산업이었다면 GPU는 문명이다 58 디지털 지식전문가 조형식의 지식마당 / 조형식 한국형 구조지능 : AI 시대는 지식을 구조화하는 자가 미래를 지배한다   60 New Books   Directory 131  국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA AEC 65 새로워진 캐디안 2026 살펴보기 (1) / 최영석 캐디안 2026의 새로운 기능 70 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 팔란티어 온톨로지 플랫폼 아키텍처 기술 해부 및 구현 방법 76 산업 디지털 전환을 가속화하는 버추얼 트윈 (9) / 김선중 건축 설계의 자동화와 생산성 강화를 위한 복합공종모듈 활용 80 생성형 AI를 활용한 건축 분야 이미지 렌더링 / 양승규 AI가 가져온 건축 시각화의 혁신과 건축가의 과제 128 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2026 (9) / 천벼리 아레스 쿠도가 여는 BIM–to–DWG 자동화의 새로운 기준   Reverse Engineering 88 시점 - 사물이나 현상을 바라보는 눈 (12) / 유우식 가설, 모델, 이론의 설득력의 시대성   Analysis 94 제품 개발 혁신을 돕는 크레오 파라메트릭 12.0 (5) / 김성철 크레오 몰드 분석으로 사출 성형 분석하기 102 앤시스 워크벤치를 활용한 해석 성공 사례 / 오승희 앤시스 맥스웰을 활용한 전기 집진기 내부 전계 해석 106 최적화 문제를 통찰하기 위한 심센터 히즈 (10) / 이종학 프로세스 자동화 Ⅴ – 제조 공정 효율성 최적화 113 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (28) / 나인플러스IT 고정밀 다중물리 CFD를 위한 피델리티 LES 솔버 116 설계, 데이터로 다시 쓰다 (3) / 최병열 AX 시대를 위한 데이터 전략 123 가상 제품 개발을 위한 MBSE 및 SysML의 이해와 핵심 전략 (2) / 오재응 가상 제품 개발에서 MBSE의 필요성과 적용 전략     2025-12-aifrom 캐드앤그래픽스     캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기
작성일 : 2025-11-28
엔비디아, RTX PC에서 넥사 AI의 로컬 에이전트 가속 지원
엔비디아가 넥사 AI(NEXA AI)와 협력해, 로컬 AI 에이전트인 ‘하이퍼링크(Hyperlink)’를 엔비디아 RTX AI PC에서 공식 지원한다고 밝혔다. 대규모 언어 모델(LLM) 기반의 AI 어시스턴트는 강력한 생산성 도구다. 그러나 적절한 맥락과 정보가 없으면 적절하고 관련성 있는 답변을 제공하는 데 어려움을 겪을 수 있다. 대부분의 LLM 기반 채팅 애플리케이션은 사용자가 일부 파일을 제공해 맥락을 보충할 수 있도록 하지만, 사용자 PC에 저장된 슬라이드, 노트, PDF, 사진 등 다양한 정보에는 접근하지 못한다. 넥사 AI의 하이퍼링크는 이러한 문제를 해결하기 위한 로컬 AI 에이전트다. 하이퍼링크는 수천 개의 파일을 빠르게 인덱싱하고, 사용자의 질문 의도를 이해하며, 맥락에 맞는 맞춤형 인사이트를 제공한다. 새롭게 공개된 버전에는 엔비디아 RTX AI PC를 위한 가속 기능을 포함하며, 검색 증강 생성(RAG) 인덱싱 속도가 3배 향상됐다. 예를 들어, 이전에 인덱싱에만 약 15분이 걸리던 1GB 용량의 폴더를 이제는 불과 4~5분 만에 검색 준비를 마칠 수 있다. 또한 LLM 추론 속도도 2배 빨라져 사용자 쿼리에 대한 응답 시간이 더욱 단축됐다.     엔비디아 RTX AI PC의 하이퍼링크는 최대 인덱싱 속도 3배, LLM 추론 속도 2배 향상을 제공한다. 테스트 데이터세트를 기반으로 RTX 5090에서 벤치마크한 결과이며, 인덱싱은 전체 인덱싱 시간 기준, 추론 속도는 토큰 처리량 기준으로 측정됐다. 하이퍼링크는 생성형 AI를 활용해 수천 개의 파일 속에서 정확한 정보를 검색하며, 단순한 키워드 매칭이 아닌 사용자 쿼리의 의도와 맥락을 이해한다. 이를 위해 작은 폴더부터 컴퓨터 내 모든 파일까지 사용자가 지정한 모든 로컬 파일에 검색 가능한 인덱스로 변환한다. 사용자는 자연어로 원하는 내용을 설명하기만 하면 문서, 슬라이드, PDF, 이미지 등 다양한 파일에서 관련 정보를 찾을 수 있다. 예를 들어, 사용자가 ‘두 공상과학 소설의 주제를 비교하는 독후감 작성’에 필요한 정보를 요청하면, 하이퍼링크는 파일명이 단순히 ‘문학_과제_최종본.docx(Lit_Homework_Final.docx)’으로 되어있더라도 해당 주제와 관련된 정보를 찾아낼 수 있다. 검색 기능과 RTX 가속 LLM의 추론 능력을 결합한 하이퍼링크는 사용자의 파일에서 얻은 인사이트를 바탕으로 질문에 답변한다. 다양한 출처의 아이디어를 연결하고 문서 간 관계를 식별해 명확한 출처 표기와 함께 논리적인 답변을 생성한다. 모든 사용자 데이터는 기기 내에만 저장되며 비공개로 유지된다. 즉, 개인 파일이 컴퓨터 외부로 전송되지 않아 민감한 정보가 클라우드로 유출될 걱정을 하지 않아도 된다. 이를 통해 사용자는 통제권과 안정감을 유지하면서도 강력한 AI의 혜택을 누릴 수 있다.
작성일 : 2025-11-13
SAS, “한국 데이터 준비도 높지만 AI 신뢰 투자는 소극적”
데이터 및 AI(인공지능) 기업 SAS가 자사 의뢰로 발간된 IDC 연구 보고서 ‘데이터 및 AI 영향력 보고서 : 신뢰가 이끄는 AI 시대’의 아시아태평양 및 한국 지역 주요 연구 결과를 발표했다. 이 보고서는 AI 도입, 신뢰, 그리고 비즈니스 성과 간의 관계를 분석하고, 한국 기업의 AI 도입 현황과 신뢰 수준을 다루고 있다. 보고서에 따르면, 한국 기업은 AI 신뢰도 구축에서 ‘양극화’ 현상을 보이고 있다. 특히, 에이전틱 AI(agentic AI)의 신뢰성 확보를 위한 투자 계획은 글로벌 평균보다 낮은 수준에 머물러, AI 신기술 도입과 신뢰 구축을 보다 적극적으로 추진하는 것이 시급한 것으로 나타났다. ‘데이터 및 AI 영향력 보고서 : 신뢰가 이끄는 AI 시대’ 조사는 북미, 중남미, 유럽, 중동 및 아프리카, 아태 지역의 IT 전문가 및 비즈니스 리더 2375명을 대상으로 진행됐다. 이번 조사는 조직의 AI 접근 방식과 신뢰 구축 방안을 파악하기 위해 비즈니스 가치, 활용 사례, 거버넌스, 배포 관행 등 폭넓은 영역을 다뤘다. 보고서에 따르면, 한국 조직의 AI 도입은 최근 등장한 생성형 AI를 적극적으로 도입하는 글로벌 추세와 달리 기존 AI 기술(머신러닝)을 더 많이 도입하는 보수적인 패턴을 보였다. 생성형 AI 도입률은 68.2%로 글로벌 평균(81.4%)보다 낮은 반면, 기존 AI 도입률은 95.5%로 글로벌 평균(65.8%)을 크게 웃돌았다. 에이전틱 AI와 양자 AI 같은 신기술 도입률 역시 각각 35.8%, 22.7%로, 글로벌 평균(51.5%, 30%)보다 낮았다. 반면, 한국 조직의 36%는 체계적으로 관리되거나 최적화가 완성된 고급 데이터 인프라를 보유하고 있어, 글로벌 평균과 비슷한 수준의 데이터 준비도를 갖춘 것으로 나타났다. 이는 한국이 향후 AI 혁신을 주도할 수 있는 유리한 위치에 있음을 시사한다. 한국은 AI 도입 주요 목표 역시 성숙도 면에서 아직 초기 단계에 머물러 있는 것으로 나타났다. 최우선 목표로 ‘비즈니스 위험 감소’가 꼽힌 가운데, 비용 절감’(44%)과 ‘수익 증대’(46%)도 상위 5대 목표에 포함됐다. 이는 한국 기업이 기능적이거나 단기 성과 중심의 초기 AI 활용 단계에 있음을 보여준다. 이러한 단기적 성과 중심의 접근 방식은 AI 신뢰도 구축 측면에서 ‘양극화’ 현상으로 이어졌다. 보고서는 조직이 윤리적이고 신뢰성 있게 AI를 운영하기 위해 얼마나 투자하고 있는지를 측정하기 위해 ‘신뢰할 수 있는 AI 지수(Trustworthy AI Index)’를 활용했다. 이 지수는 데이터 거버넌스, 책임감 있는 AI, 규정 준수, 설명 가능성, 위험 관리 등을 포함한 관행, 기술, 거버넌스 프레임워크 전반을 평가한다. 조사 결과, 한국 조직의 26%가 최고 등급인 ‘고급 수준’에 속한 반면, 30%는 최하 등급인 ‘기초 수준’에 위치한 것으로 나타났다. 이는 다섯 단계에 비교적 고르게 분포된 글로벌 결과와는 대조적인 패턴이다.  한편, 한국은 높은 데이터 준비도에도 불구하고, 에이전틱 AI와 같은 신기술의 신뢰성 확보를 위한 투자에는 소극적인 것으로 나타났다. 에이전틱 AI 개발에 대응해 신뢰할 수 있는 AI에 대한 투자를 대폭 늘릴 계획이 있는 한국 조직은 단 4%에 불과했으며, 이는 아태지역 평균(20%) 및 글로벌 평균(52%)에 비해 현저히 낮은 수준이다.  한국IDC의 전대일 수석연구원은 “한국 기업은 세계적인 수준의 데이터 준비도를 갖추고 있으며 머신러닝과 같은 기존 AI 기술을 폭넓게 활용하는 반면, 신뢰할 수 있는 AI 거버넌스 구축이나 에이전틱 AI 등 신기술 투자에는 보수적인 태도를 보이고 있다”며, “한국이 가지고 있는 탄탄한 데이터 기반의 잠재력을 극대화하고 진정한 비즈니스 혁신을 이루기 위해 신뢰할 수 있는 AI 설루션을 포함한 장기적이고 전사적인 AI 로드맵 구축이 시급하다”고 제언했다. SAS코리아의 이중혁 대표이사는 “금융 및 공공 부문의 많은 고객사들이 LLM 및 AI 에이전트 기반의 시스템 개발을 2026년 주요 사업 과제로 설정하고 준비하고 있다”면서, “SAS는 국내 기업이 AI의 가치를 실현하고 진정한 AI 선도 기업으로 나아갈 수 있도록, 신뢰할 수 있는 AI 플랫폼의 공급과 강력한 AI 거버넌스 확보를 통해 고객들이 장기적인 AI 로드맵을 구축하도록 지원해 나갈 것”이라고 말했다.
작성일 : 2025-11-11
퓨어스토리지-시스코, 엔비디아와 함께 엔터프라이즈 위한 AI 팩토리 선보여
퓨어스토리지가 시스코와 함께 ‘플래시스택 시스코 인증 디자인(FlashStack Cisco Validated Design)’을 새롭게 발표했다. 이번 신제품은 엔비디아와 시스코가 공동 개발한 ‘시스코 시큐어 AI 팩토리(Cisco Secure AI Factory)’의 핵심 모듈인 AI 파드(AI PODs) 컬렉션에 추가되는 구성이다. 이번 협력은 컴퓨트, 스토리지, 네트워킹, 소프트웨어를 하나의 통합된 프로덕션급 플랫폼으로 결합함으로써, 기업이 AI 파일럿 프로젝트에서 대규모 운영 환경으로 안정적으로 전환할 수 있도록 지원한다.   퓨어스토리지는 이번 협력의 핵심 목표에 대해, 실험 단계를 넘어 안정적이고 확장 가능한 AI 구현으로 그 전환을 단순화하는 것이라고 설명했다. AI 팩토리는 ▲엔터프라이즈급 대규모 데이터 관리 설루션인 퓨어스토리지 플래시블레이드//S ▲엔비디아 RTX PRO 6000 GPU 기반 가속형 컴퓨트를 위한 시스코 UCS C845a(Cisco UCS C845a) 서버 ▲대규모 AI 구축 및 배포를 지원하는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어 등 기술을 통합했다. 이 통합 기술은 RAG, 에이전틱 AI, 시맨틱 검색, 비디오 분석, 코드 생성 등 다양한 AI 활용 사례 전반에서 데이터를 인사이트로 전환하는 엔터프라이즈 AI 팩토리의 청사진을 제시한다. 엔터프라이즈 AI는 더 이상 실험 단계가 아니다. 많은 조직이 수개월 동안 파일럿 프로젝트와 개념 증명(PoC)을 진행하며, 대규모 언어 모델(LLM), 검색 증강 생성(RAG) 기반 어시스턴트, 그리고 도메인 특화 AI 애플리케이션을 테스트해왔다. 하지만 많은 기업이 모델은 준비됐지만 데이터가 준비되지 않은 공통적인 문제에 부딪히고 있다. 기업들이 개념 증명과 파일럿 단계를 넘어 본격적인 AI 도입에 나서면서, AI 성공이 모델 설계뿐 아니라 데이터 준비 상태에 달려 있다는 점이 명확해졌다. 단편화된 아키텍처와 제한된 가시성, 복잡한 운영 환경은 고도화된 AI 프로젝트조차 운영 단계로 나아가는 데 걸림돌이 되고 있다. 시스코와 퓨어스토리지의 설루션은 이러한 문제를 해결하기 위해 정형·비정형 데이터를 AI 워크플로에서 즉시 활용할 수 있도록 지원한다. 또한 퓨어스토리지의 엔터프라이즈 데이터 클라우드(Enterprise Data Cloud) 아키텍처를 기반으로 한 플래시블레이드//S(FlashBlade//S)를 통해 고성능 데이터 접근성, 동시성, 에너지 효율을 제공한다. 퓨어스토리지 포트웍스(Portworx by Pure Storage)는 쿠버네티스 기반 AI 환경에서 지속적이고 이동 가능하며 보호된 데이터 관리를 가능하게 한다. 이를 통해 AI 팀은 복잡한 인프라 관리 부담 없이 혁신에 집중할 수 있다. 퓨어스토리지의 마치에이 크란츠(Maciej Kranz) 엔터프라이즈 총괄 매니저는 “많은 기업이 GPU나 컴퓨팅 성능에 집중하지만, 신뢰할 수 있는 데이터 없이는 모델이 잠재력을 온전히 발휘할 수 없다”면서, “시스코 및 엔비디아와의 협업은 이러한 데이터 장벽을 제거하여, 고객이 AI를 운영화하는 데 필요한 성능, 단순성, 효율을 제공한다”고 말했다. 시스코의 제레미 포스터(Jeremy Foster) 수석 부사장 겸 총괄 매니저는 “이번에 선보인 새로운 플래시스택 CVD는 단순히 하드웨어를 검증하는 것을 넘어, RAG의 모든 요소를 AI에 적합한 인프라로 조율함으로써 복잡성을 제거하고 위험을 줄인다”면서, “이를 통해 고객은 데이터를 전략적 성과로 이어지는 인사이트로 전환하는 데 집중할 수 있다”고 말했다.
작성일 : 2025-11-05