• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " API"에 대한 통합 검색 내용이 684개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
뉴타닉스, 기업용 에이전틱 AI 서비스 강화하는 신규 기능 공개
뉴타닉스가 2026년 하반기 중에 뉴타닉스 에이전틱 AI(Nutanix Agentic AI) 설루션에 새로운 기능을 추가한다고 밝혔다. 이번 업데이트는 차세대 AI 클라우드 서비스 제공업체인 네오클라우드가 AI 엔지니어와 개발자에게 안전하고 확장 가능한 서비스를 제공할 수 있도록 돕는 데 초점을 맞췄다. AI 기술이 발전하면서 필요한 시점에 유연하게 GPU를 사용할 수 있는 네오클라우드 서비스가 주목받고 있다. 그동안 AI 수요는 대기업 중심의 학습 워크로드에 머물러 있었으나, 앞으로는 추론 성능을 확장하고 실제 운영 환경에서 에이전틱 AI 애플리케이션을 실행하는 방향으로 변화할 전망이다. 이에 따라 기업들은 보안과 성능을 갖추면서도 비용 효율적인 AI 플랫폼을 요구하고 있다. 뉴타닉스는 네오클라우드가 서비스형 GPU와 쿠버네티스를 넘어 에이전틱 AI 기반의 기업용 플랫폼 서비스까지 제공할 수 있도록 지원한다. 뉴타닉스 에이전틱 AI 설루션은 인프라의 복잡성을 줄이고 보안을 강화하며 토큰당 비용을 낮추도록 설계된 소프트웨어 스택이다. 여기에 새롭게 추가되는 멀티테넌트와 AI 관리 포털을 이용하면 서비스 업체는 자사 인프라를 바탕으로 고부가가치 AI 서비스를 제공할 수 있다. 사용자는 데이터와 인프라 운영에 대한 통제력을 높이면서 소버린 AI를 배포하는 것도 가능해진다. 이번 업데이트에는 뉴타닉스 서비스 프로바이더 센트럴을 통한 차세대 멀티테넌시 프레임워크가 포함된다. 이 프레임워크는 공유 AI 인프라를 대규모로 안전하게 운영하도록 돕는다. 물리적인 GPU 인프라 하나에서 여러 기업을 동시에 수용하면서도 데이터 격리와 보안을 보장하는 것이 특징이다. 서비스 구축자는 이를 통해 고객별로 리소스를 동적으로 할당하고 맞춤형 보안 정책을 적용할 수 있다. 뉴타닉스 클라우드 매니저의 기능도 개선된다. AI 인프라 모니터링 기능과 함께 사용량 기반 계량 기능을 추가하여 GPU 사용량이나 API 호출 횟수에 따라 고객에게 비용을 청구할 수 있게 된다. 서비스 업체는 단일 관리 인터페이스에서 인프라를 운영하며 수익을 창출할 수 있다. 뉴타닉스 에이전틱 AI의 신규 기능은 현재 일부 파트너를 대상으로 미리 제공되고 있으며 2026년 하반기에 정식 출시될 예정이다. 뉴타닉스의 토마스 코넬리 수석 부사장은 “데이터 통제권을 유지하며 AI를 활용하려는 기업이 늘면서 특화형 AI 클라우드 수요가 증가하고 있다”면서, “뉴타닉스 에이전틱 AI는 안전한 멀티테넌트 환경을 통해 서비스 업체가 공공 기관이나 기업에 첨단 AI 서비스를 신속하게 제공하도록 돕는다”고 설명했다.
작성일 : 2026-04-09
최적 검색 가속화를 위한 AI 프레딕터
심센터 HEEDS 더 깊게 살펴 보기 (4)   이번 호에서는 심센터 HEEDS(Simcenter HEEDS)의 핵심 최적화 엔진인 SHERPA의 성능을 비약적으로 가속화시키는 AI 시뮬레이션 프레딕터(AI Simulation Predictor) 기술에 대해 자세히 살펴본다. 지난 호에서 다룬 SHERPA의 지능형 탐색 방식에 AI의 예측 통찰력을 결합하여, 어떻게 해석 시간의 병목을 해결하고 검색 효율을 극대화하는지 조명할 예정이다. 이를 통해 고비용 해석 모델에서도 실질적인 리드타임을 단축하고 더 우수한 설계안을 도출해 내는 원리를 알아보고자 한다.   ■ 연재순서 제1회 심센터 HEEDS 커넥트와 MBSE 방법론 제2회 심센터 X MDO의 새로운 HEEDS 제3회 심센터 HEEDS SHERPA의 최적 검색 원리 제4회 최적 검색 가속화를 위한 AI 프레딕터 제5회 심센터 HEEDS 2604 업데이트 제6회 모두를 위한 제너럴 포털과 맞춤 설정 제7회 특별한 워크플로 구성 및 자동화 제8회 다양한 매개변수를 위한 태깅 모드 제9회 복잡한 설정을 한번에, 오토메이션 스크립트 제10회 파이썬 스케줄러와 HEEDS 연동 제11회 심센터 HEEDS 2610 업데이트 제12회 데이터 분석을 위한 HEEDSPy API   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 HEEDS를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR 링크드인 | www.linkedin.com/in/jonghaklee-odumokgol   최적화의 병목, 해석 시간과 비용의 문제 고충실도(High-Fidelity) 해석의 딜레마 현대 엔지니어링 설계의 정점은 전산유체역학(CFD)이나 비선형 구조해석과 같은 고성능 계산 과정을 필수로 한다. 이러한 고충실도 해석은 제품 성능을 가상 공간에서 정밀하게 모사할 수 있게 해 주지만, 치명적인 약점이 있다. 복잡한 모델의 경우 1회 해석에 수 시간에서 수 일이 소요되기도 하며, 수백 번의 반복 계산이 필요한 최적화 과정에서 이는 극복하기 어려운 시간적 병목(bottleneck)이 된다.   MDAO 과정에서 직면하는 실제 문제들 연재의 배경이 되는 다분야 설계 분석 및 최적화(MDAO : Multidisciplinary Design Analysis and Optimization) 환경에서는 다음과 같은 네 가지 핵심 문제에 직면한다. 시뮬레이션 시간 & 계산 비용 : 장기간의 CAE 실행은 컴퓨터 자원의 점유와 라이선스 비용 부담을 가중시킨다. 신뢰성 : 시간 제약으로 인해 충분한 설계안을 검토하지 못하면 결과의 신뢰성이 떨어진다. 지식의 재사용 : 이전 프로젝트의 방대한 시뮬레이션 데이터를 현재 최적화에 제대로 자산화하지 못하는 한계가 있다. 시프트 레프트(shift left) : 제품 개발 초기 단계에서 오류를 발견하지 못하면 이후 단계에서 대규모 수정 비용이 발생한다.   기존 대안 : 전통적 최적화 프로세스와 근사 모델의 한계 해석 시간을 줄이기 위해 전통적인 설계 공간 탐색(design space exploration) 과정에서는 반응표면법(RSM)이나 크리깅(kriging)과 같은 근사 모델(surrogate model)이 널리 사용되어 왔다. 하지만 이러한 전통적인 방식은 프로세스 측면에서의 번거로움과 기술적 모델 구축 측면에서의 한계를 동시에 안고 있다.   그림 1   첫째, 전문가 중심의 복잡한 다단계 프로세스로 인한 고충(pain points)이 크다. 목적 정의부터 모델 단순화, 알고리즘 선택 및 튜닝, 탐색 수행, 결과 해석으로 이어지는 과정은 매우 정교한 전문 지식을 요구하며 다음과 같은 문제를 일으킨다. 모델 단순화의 오류 가능성 : 변수 선별이나 응답면 모델을 수동으로 생성하는 과정은 오류가 개입되기 매우 쉽다.(too error-prone) 알고리즘 선택 및 튜닝의 고비용 구조 : 적절한 검색 알고리즘을 결정하기 위해 수많은 반복 시도가 필요하며, 파플레이션 크기나 변이율 등 세부 매개변수 설정에 고도의 전문성이 요구되어 시간과 비용이 많이 든다.(too costly & too difficult) 제한적인 혁신 : 이러한 난이도 탓에 최적화 기술이 일부 전문가에 의해 매우 한정적인 문제에만 적용되어, 결과적으로 설계 혁신의 폭이 좁아지는 결과를 초래한다. 둘째, 기술적으로 구축된 근사 모델 자체가 가진 결정적인 한계가 존재한다. 초기 데이터 확보의 높은 비용 : 신뢰할 수 있는 모델을 구축하기 위해서는 설계 공간 전체에 걸쳐 상당수의 초기 샘플 해석이 선행되어야 하며, 고성능 CAE 환경에서는 이 초기 샘플링 과정 자체가 막대한 병목이 된다. 정적 구조의 경직성 : 한 번 구축된 모델은 최적화가 진행되는 동안 설계 공간의 특성 변화나 새로운 유망 영역의 발견을 실시간으로 반영하여 스스로 업데이트되지 않는다. 전역적 경향성과 국부적 정밀도의 딜레마 : 전체적인 경향성은 파악하지만 최적해 주변의 미세한 비선형적 거동을 포착하는 데 한계가 있어, 최종 설계안이 실제 해석 결과와 괴리를 보이는 경우가 빈번하다.   그림 2   반면, 심센터 HEEDS는 이러한 복잡한 중간 단계를 ‘Automated Search’ 하나로 통합하여 엔지니어가 본연의 설계 업무인 목적 정의와 결과 분석에만 집중할 수 있는 환경을 제공한다. 이번 호에서 다룰 AI 프레딕터(AI Predictor)는 이 혁신적인 자동 탐색 과정을 한 단계 더 가속하여 기술적 한계를 극복하고 진정한 설계 디스커버리(discovery)를 실현하는 핵심 기술이다.   기술 혁신 : Boosting SHERPA의 정의와 전략적 가치 AI 시뮬레이션 프레딕터란 무엇인가? 심센터 HEEDS의 AI 시뮬레이션 프레딕터는 최적화 검색 과정을 가속시키는 퍼포먼스 부스터(Performance Booster)이다. 단순히 정해진 데이터를 학습하는 것을 넘어, SHERPA 검색 프레임워크 상단에서 작동하는 AI 오버레이(AI Overlay) 기술을 통해 실시간으로 데이터를 학습(on-the-fly)하여 해석이 필요한 위치(DOE)를 지능적으로 선별한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
심센터 HEEDS SHERPA의 최적 검색 원리
심센터 HEEDS 더 깊게 살펴 보기 (3)   이번 호에서는 심센터 HEEDS(Simcenter HEEDS)의 핵심 최적화 엔진인 SHERPA Search Framework에 대해 자세히 살펴본다. 기존의 전통적인 최적화 알고리즘과 비교 분석하여, SHERPA(셰르파)만이 가지는 차별화된 탐색 방식과 뛰어난 성능을 조명할 예정이다. 이를 통해 복잡한 설계 공간에서 사용자의 개입을 최소화하고 가장 효율적으로 최적해를 도출해 내는 원리를 알아보고자 한다.   ■ 연재순서 제1회 심센터 HEEDS 커넥트와 MBSE 방법론 제2회 심센터 X MDO의 새로운 HEEDS 제3회 심센터 HEEDS SHERPA의 최적 검색 원리 제4회 최적 검색 가속화를 위한 AI 프레딕터 제5회 심센터 HEEDS 2604 업데이트 제6회 모두를 위한 제너럴 포털과 맞춤 설정 제7회 특별한 워크플로 구성 및 자동화 제8회 다양한 매개변수를 위한 태깅 모드 제9회 복잡한 설정을 한번에, 오토메이션 스크립트 제10회 파이썬 스케줄러와 HEEDS 연동 제11회 심센터 HEEDS 2610 업데이트 제12회 데이터 분석을 위한 HEEDSPy API   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 HEEDS를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR 링크드인 | www.linkedin.com/in/jonghaklee-odumokgol   최적화의 난제와 ‘No Free Lunch’ 이론 엔지니어링 최적화의 현실 현대의 엔지니어링 환경에서 ‘최적화(optimization)’는 선택이 아닌 필수가 되었다. 제품의 경량화, 성능 향상, 비용 절감이라는 상충되는 목표를 동시에 만족시켜야 하기 때문이다. 그러나 설계 변수가 증가함에 따라 설계 공간(design space)은 기하급수적으로 복잡해진다. 비선형성(non-linearity), 다봉성(multimodality), 그리고 수치적 노이즈(noise)가 뒤섞인 예측 불가능한 지형에서 최적해를 찾는 것은 매우 도전적인 과제이다. 엔지니어에게 중요한 것은 이론적으로 완벽한 ‘절대 최적해’를 찾는 것보다, 제한된 시간과 비용 내에서 ‘실현 가능한 더 나은 해(feasible better design)’를 발견하는 것이다.   No Free Lunch Theorem(NFL)의 시사점 최적화 이론에는 ‘공짜 점심은 없다(No Free Lunch Theorem)’라는 유명한 정리가 존재한다. 이는 ‘모든 종류의 문제에 대해 평균적으로 우수한 성능을 보이는 단일 최적화 알고리즘은 존재하지 않는다’는 것을 의미한다. 즉, 특정 문제(예 : 매끄러운 단봉형 함수)에 뛰어난 성능을 보이는 알고리즘이라도, 다른 문제(예 : 복잡한 다봉형 함수)에서는 성능이 현저히 떨어질 수 있다.   그림 1   그림 2   이 이론은 엔지니어에게 큰 부담을 안겨준다. 최적화 문제를 풀기 위해 엔지니어는 자신의 문제 특성을 정확히 파악해야 하며, 이에 적합한 알고리즘을 선정하고, 수많은 파라미터를 튜닝해야 하는 ‘최적화를 위한 최적화’ 과정에 매몰된다.   전통적 최적화 기법의 한계와 파라미터 튜닝의 딜레마 전통적인 최적화 기법들은 각자의 영역에서 훌륭한 성능을 발휘하지만, 비전문가가 다루기에는 ‘튜닝의 어려움(tuning difficulty)’이라는 명확한 진입장벽이 존재한다. <그림 3>과 같이 심센터 HEEDS(히즈)에서 제공하는 전통적인 최적화 기법의 설정 환경을 기반으로 설명하겠다.   그림 3   2차 계획법 2차 계획법(Quadratic Programming : QP)은 목적함수를 2차 함수로 근사하여 최적해를 탐색하는 구배(gradient) 기반 기법이다. 매끄러운 함수에서는 빠른 수렴 속도를 보이지만, 실제 엔지니어링 문제에서는 다음과 같은 튜닝의 어려움과 한계가 있다.   그림 4   튜닝의 복잡성 : 사용자는 ‘Maximum outer iterations(전체 반복 횟수)’, ‘Maximum line search iterations(탐색 방향 결정 후 반복 횟수)’, ‘Gradient step size(미소 변위량)’ 등을 직접 설정해야 한다. 특히 스텝 크기(step size)가 너무 작으면 노이즈에 민감해지고, 너무 크면 정확도가 떨어지는 딜레마가 있다. 조기 종료(Early Termination) 문제 : 예를 들어 최대 반복 횟수를 50회로 설정했더라도, 탐색 도중 국부 최적해(local optima)에 갇혀 기울기가 0에 가까워지면 알고리즘은 20~25회 만에 탐색을 종료해 버린다. 이는 전역 최적해를 찾지 못했음에도 불구하고 해석 기회를 스스로 포기하는 결과를 낳는다.   다중 시작 국부 탐색 다중 시작 국부 탐색(Multi-Start Local Search : MS)은 이러한 국부 탐색의 한계를 극복하기 위해, 여러 초기점에서 국부 탐색을 수행하여 전역해를 찾으려는 시도이다. 그러나 이 역시 사용자의 파라미터 설정 능력에 크게 의존한다.   그림 5   총 해석 횟수 계산의 번거로움 : SHERPA와 달리 총 해석 횟수(evaluation)를 직접 입력하는 것이 아니라, ‘Number of Starts(시작점 개수)’와 ‘Evaluations per Start(각 탐색별 반복 횟수)’를 곱하여 계산해야 한다. 200회 설정의 함정 : 만약 사용자가 총 200회의 해석 예산(evaluation budget)을 가지고 ‘Max Evaluations’를 200으로 설정하더라도, 기본값인 ‘Number of cycles(Starts)’를 100으로 둔다면 치명적인 문제가 발생한다. 각 시작점(cycle)에서 평균 2회(200/100)밖에 탐색하지 못하기 때문이다. 이는 수렴은커녕 수박 겉핥기식 탐색(shallow search)에 그치게 된다. 제대로 된 탐색을 위해서는 사용자가 사이클을 4~5회(각 40~50회 탐색) 수준으로 직접 대폭 줄여야 하는 번거로움이 있다.   전역 탐색 및 메타 휴리스틱 유전 알고리즘(GA)이나 입자 군집 최적화(PSO), 시뮬레이티드 어닐링(SA)과 같은 전역 탐색(global search) 기법은 국부해 탈출 능력은 뛰어나지만, 파라미터 설정의 난이도는 더욱 높다.     ■ 기사 상세 내용은 PDF로 제공됩니다.
작성일 : 2026-03-06
심센터 X MDO의 새로운 HEEDS
심센터 HEEDS 더 깊게 살펴 보기 (2)   이번 호에서는 유연한 SaaS(서비스형 소프트웨어) 기반의 다중 도메인 엔지니어링 시뮬레이션 제품으로 새롭게 출시된 심센터 X 어드밴스드(Simcenter X Advanced)와 히즈(HEEDS)에서 새로워진 부분에 대해서 살펴본다. 이 클라우드 기반 설루션은 모든 과제를 해결하고 성능 엔지니어링의 힘을 발휘할 수 있도록 지원한다. ■ 연재순서 제1회 심센터 HEEDS 커넥트와 MBSE 방법론 제2회 심센터 X MDO의 새로운 HEEDS 제3회 심센터 HEEDS SHERPA의 최적 검색 원리 제4회 최적 검색 가속화를 위한 AI 프레딕터 제5회 심센터 HEEDS 2604 업데이트 제6회 모두를 위한 제너럴 포털과 맞춤 설정 제7회 특별한 워크플로 구성 및 자동화 제8회 다양한 매개변수를 위한 태깅 모드 제9회 복잡한 설정을 한번에, 오토메이션 스크립트 제10회 파이썬 스케줄러와 HEEDS 연동 제11회 심센터 HEEDS 2610 업데이트 제12회 데이터 분석을 위한 HEEDSPy API   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 HEEDS를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR 링크드인 | www.linkedin.com/in/jonghaklee-odumokgol   효율적인 엔지니어링 시뮬레이션 소프트웨어 활용의 필요성 엔지니어링 시뮬레이션은 제품 개발을 간소화하고 제품을 더 빠르고 비용 효율적으로 시장에 출시하는 효율적인 방법을 제공한다. 그러나 다음과 같은 수많은 과제로 인해 시뮬레이션 소프트웨어 투자 효과를 극대화하지 못할 수 있다.   그림 1   라이선스 활용도 저하 : 데스크톱 소프트웨어에 대한 IT 지출의 활용도 저하나 낭비는 상당한 비용 요인이다. 이는 항상 가동 가능한 접근성과 유연한 사용을 위한 라이선싱 모델을 보장하는 배포 방법이 필요함을 의미한다. 시뮬레이션 비즈니스 사례 변화 : 오늘날 시뮬레이션의 핵심 가치 창출 요소는 시장 출시 기간 단축이다. 이는 시뮬레이션 프로세스 체인의 모든 요소를 가속화하여 시뮬레이션 처리량을 극대화해야 함을 의미한다. 복잡성의 폭발적 증가 : 하이테크 기업 관계자들은 제품 복잡성을 주요 과제로 꼽는다. 이러한 제품 복잡성은 엔지니어링 분야 간 장벽을 허물고 효과적이며 추적 가능한 협업을 촉진해야 할 필요성으로 이어진다. 이와 같은 이유로 엔지니어링 시뮬레이션 도구의 배포 및 활용 효율성을 극대화해야 한다. 이러한 경쟁력을 유지하려면 특히 다음과 같은 문제를 해결해야 한다. 배포, 라이선스 및 사용자 관리의 복잡성을 어떻게 줄일 수 있을까? 엔지니어링 시뮬레이션 소프트웨어의 최적 활용을 어떻게 보장할 수 있을까? 엔지니어의 생산성을 극대화하기 위해 시뮬레이션 도구를 어떻게 제공할 수 있을까? 복잡한 제품을 다루고 디지털 스레드의 힘을 발휘하기 위해 엔지니어링 부서 간 장벽을 어떻게 허물 수 있을까? 심센터 X 제품을 IT 담당자 입장에서 살펴 보면, 간단하고 유연하며 관리하기 쉬운 라이선싱 모델을 통해 IT 소유 비용을 절감하고 소프트웨어 라이선스를 최대한 활용할 수 있고, 중앙 집중식 관리 콘솔을 활용하여 통합 클라우드 권한 부여를 통해 시뮬레이션 소프트웨어 사용자를 신속하고 쉽게 온보딩함으로써 소프트웨어 배포를 간소화하고 효율화할 수 있다. 해석 엔지니어 또는 CAE 팀 책임자의 입장에서는 AI 기술과 다중 물리 해석 협업, 내장형 데이터 관리로 생산성을 높일 수 있고, 주요 엔지니어링 시뮬레이션 분야(예 : 전산 유체 역학, 기계, 시스템 시뮬레이션, 다학제 설계 분석 및 최적화) 전반에 걸쳐 온디맨드 기능을 간편하게 언제 어디서나 이용할 수 있다.   그림 2   심센터 X는 산업 소프트웨어의 대규모 생태계에 통합된 설루션으로서 지멘스의 개방형 디지털 비즈니스 플랫폼인 지멘스 엑셀러레이터(Siemens Xcelerator)의 핵심 구성 요소로, 고객의 디지털화 여정을 가속화하는 촉매제 역할을 담당한다. 동시에 지멘스는 클라우드와 SaaS가 미래의 보편적인 사용 환경으로 전환될 것으로 판단하여 지멘스의 모든 포트폴리오를 빠르게 클라우드로 이전하고 있다. 이미 심센터 X는 지멘스 엑셀러레이터 SaaS 생태계의 핵심 구성 요소로 자리매김하며, NX X, 팀센터 X(Teamcenter X) 등 다양한 DISW 제품군과 함께 제공될 예정이다. 이러한 전략적 통합은 지멘스의 포괄적인 디지털 스레드 비전을 실현하기 위한 것으로, 모든 제품군에 걸쳐 원활하고 일관된 사용자 경험과 IT 팀을 위한 효율적인 라이선스 관리를 보장한다.   모든 것을 위한 단일 플랫폼 : 심센터 X와 지멘스 엑셀러레이터의 중앙 집중식 클라우드 라이선싱 다양한 엔지니어링 소프트웨어에 대한 라이선스 관리는 IT 팀에게 상당한 도전과 노력을 요구한다. 라이선스 서버 구성은 복잡해지고, 온프레미스 라이선스 배포는 오랜 시간이 소요되며, ‘익명’ 사용자 프로필로 인한 사용자 관리가 어렵다. 이 모든 것은 IT 부담을 최소화하고 라이선스 활용도를 최적화함으로써 엔지니어링 시뮬레이션 소프트웨어의 투자 수익률(ROI)을 극대화하려는 목표 달성에 위험 요소가 된다. 좋은 소식은 심센터 X가 라이선스 관리를 간편하게 만든다는 점이다. 지멘스가 호스팅하고 소유하는 클라우드 기반 권한 부여 및 라이선스 관리 시스템을 통해, 심센터 X는 IT 관리자와 최종 사용자 모두에게 제품 사용 및 배포를 단순화시킬 수 있다. 새로운 라이선스를 기다리는 일은 이제 과거의 일이 되었다. 라이선스 관리자가 라이선스 파일을 생성, 검증 및 전송하는 번거로운 과정과 고객이 라이선스 서버를 설치 및 설정하는 과정은 이제 옛날 이야기다. IT 관리자가 지멘스 엑셀러레이터 어드민 콘솔(Siemens Xcelerator Admin Console)이라는 단일 통합 시스템을 통해 지멘스 엑셀러레이터 전반의 모든 제품을 관리할 수 있도록 한다. 라이선스의 사용도 특정 국가나 사무실에 국한된 것이 아니라, 전 세계 어디에서든 사용을 위해 할당할 수 있다. 더불어서 가격 책정 체계도 대폭 간소화되었다.   다분야 엔지니어링 시뮬레이션 및 설계 최적화를 간편하게 전산 유체 역학(CFD)부터 기계 및 시스템 시뮬레이션을 거쳐 다분야 설계 해석 및 최적화(MDAO)에 이르기까지, 심센터 X 어드밴스드는 엔지니어와 엔지니어링 팀이 다분야 시뮬레이션 및 최적화를 원활하게 설정하고 실행할 수 있도록 지원한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-02-04
팔코DB와 LLM을 활용한 그래프 모델 BIM 기반 AI 에이전트 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 건설 인프라 분야에서 정보 교환 시 사용되는 BIM(건설 정보 모델링) 산업 표준인 IFC(Industry Foundation Classes) 기반 AI 에이전트 개발 과정을 설명한다. IFC 포맷의 BIM 데이터를 팔코DB(FalkorDB) 그래프 데이터베이스로 변환하고, 로컬 LLM인 Ollama(올라마)를 연동하여 자연어 질의가 가능한 AI 에이전트를 구축하는 전체 과정을 기술한다. 또한, 도커(Docker) 기반의 데이터베이스 서버 구성부터 파이썬(Python) 의존성 설치, 데이터 적재 및 애플리케이션 실행 방법을 단계별로 정리한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   개발 환경 및 전제 조건 이번 호에서 만들어 볼 시스템은 온프레미스 환경에서의 실행을 가정하며, 다음의 컴포넌트를 필요로 한다. 도커 : 그래프 데이터베이스(팔코DB) 실행을 위해 필요(설치 : https://www.docker.com/get-started) 파이썬 3.11+ : 데이터 변환 및 에이전트 로직 수행 올라마 : 로컬 LLM 추론 서버 하드웨어 : LLM 구동을 위한 적정 수준의 GPU 또는 메모리(RAM 16GB 이상 권장) 지면 한계 상 모든 개발 코드를 설명하기는 어려우므로, 주요 부분만 개발 방법을 설명할 것이다. 다음의 깃허브 링크를 참고해 다운로드한다. ■ https://github.com/mac999/infra_ai_agent_tutorials/tree/main/08_AI_Agent/5_infra_graph_rag 다운로드한 폴더의 구조는 <그림 2>와 같을 것이다.   그림 2   이제 이 깃허브 프로젝트의 각 핵심 모듈을 설명하도록 하겠다.   데이터베이스 서버 구축(팔코DB) 팔코DB는 레디스(Redis) API 호환 고성능 그래프 데이터베이스다. 오픈소스이며 무료이다. 그래프 구조 데이터 저장 및 검색을 지원한다.   그림 3. Graph Database uses GraphBLAS under the hood for its sparse adjacency matrix graph representation(GraphRAG) (https://github.com/FalkorDB/FalkorDB)   실행을 위해, 다음과 같이 명령창 터미널에서 도커 명령을 실행해 본다. 그러면 팔코DB 서버가 로컬에 다운로드된 후 자동 실행될 것이다. docker run -p 6379:6379 -p 3000:3000 -it --rm -v ./data:/ var/lib/falkordb/data falkordb/falkordb 상세 옵션은 다음과 같다. -p 6379:6379 : 팔코DB(레디스 프로토콜) 접속 포트 바인딩. 파이썬 클라이언트가 이 포트로 통신한다. -p 3000:3000 : (옵션) 팔코DB 시각화 도구 등을 위한 포트 바인딩 -it --rm : 대화형 모드로 실행하며, 컨테이너 종료 시 자동 삭제 -v ./data:/var/lib/falkordb/data : 호스트의 ./data 디렉터리를 컨테이너 내 데이터 저장소로 마운트하여 데이터 영속성(persistence)을 보장한다.   패키지 및 모델 설치 이제 IFC 파싱, 그래프 DB 연결, LLM 체인 구성을 위한 라이브러리를 pip로 터미널에서 설치한다. Plaintext falkordb langchain langchain-ollama langchain-core ifcopenshell python-dotenv streamlit 이제 자연어를 그래프 구조 데이터베이스를 검색할 때 사용하는 사이퍼 쿼리로 변환(Text-to-Cypher)하는 방법이 필요하다. 이 경우, 코드 생성 능력이 뛰어난 모델이 필요하다. 이번 호에서는 qwen2.5-coder:7b 모델을 사용한다. 올라마 설치(다운로드 : https://ollama.com/download/ windows) 후 다음의 명령어를 실행한다. ollama pull qwen2.5-coder:7b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-02-04
HP Z북 울트라 G1a 리뷰 : AI 엔지니어가 살펴본 모바일 워크스테이션의 새로운 기준
HP Z북 울트라 G1a는 고성능 AI 작업과 3D 제작을 동시에 염두에 둔 14인치 모바일 워크스테이션이다. 이 글에서는 필자가 실제로 자주 사용하는 AI 리서처와 3D 제작 작업 시나리오를 바탕으로, 기존에 사용해 온 게이밍 노트북과 비교하면서 HP Z북 울트라 G1a의 장단점을 조명해보고자 한다.   HP Z북 울트라 G1a(ZBook Ultra G1a)는 프로세서 성능과 메모리 용량에 명확하게 집중한 구성을 취함으로써, 기존의 노트북 선택 방법과는 다른 노선을 제시한다. 일반적으로 노트북을 선택할 때 대부분의 사용자는 성능, 휴대성, 가격, 배터리 지속 시간, 확장성 등 여러 요소를 종합적으로 고려한다. 그러나 특정 작업 환경에서는 이러한 균형 중심의 접근이 오히려 비효율로 작용하기도 한다. 대용량 데이터 전처리, 로컬 AI 추론, 3D 콘텐츠 제작과 같이 CPU와 메모리 자원 의존도가 높은 워크로드에서는, 그래픽 성능이나 휴대성보다 연산 자원과 메모리 용량이 작업 효율을 결정짓는 핵심 요소가 되기 때문이다. HP Z북 울트라 G1a는 바로 이러한 관점에서 색다른 접근법을 채택한 기기라고 볼 수 있다. AMD의 라이젠 AI 맥스+ 프로 395(Ryzen AI Max+ PRO 395) 프로세서를 탑재해 128GB에 달하는 대용량 메모리를 제공하는 반면, 그래픽 카드는 외장 GPU가 아닌 내장 그래픽으로 구성된 14인치 노트북이다. 이처럼 극명하게 갈린 사양 구성은 과연 AI 개발과 3D 콘텐츠 제작이라는 두 가지 작업을 모두 감당할 수 있는 선택지일까?   제품 개요 워크스테이션은 일반적으로 크고 무거운 데스크톱 형태로, ‘들고 다니는 기기’와는 거리가 멀다는 인식이 강하다. 그러나 HP Z북 울트라 G1a는 이러한 고정관념을 벗어나, 14인치 폼팩터 안에 워크스테이션급 성능을 담아냈다. 앞서 언급했듯 이 제품은 AMD 라이젠 AI 맥스+ 프로 395 프로세서와 라데온 8060S(Radeon 8060S) 그래픽을 기반으로 설계되었으며, 최대 128GB LPDDR5x 메모리와 대용량 NVMe SSD를 탑재했다. 정량적인 하드웨어 스펙상 무게는 약 1.57~1.59kg으로, 여타 게이밍 노트북과 비교해도 크게 무겁지 않은 수준이다. 실제로 가방에 넣어 휴대했을 때도 다른 노트북에 비해 체감 무게가 과하게 느껴지지는 않았다. 기기 양쪽에는 USB-C 타입 포트 2개(충전 포트 포함)를 비롯해 HDMI, USB-A 타입 단자, 3.5mm 이어폰 단자가 배치되어 있어, 워크스테이션으로서 요구되는 기본적인 확장성도 충분히 갖추고 있다.   디자인 본격적인 사용기에 앞서 디자인을 살펴보자. 보기 좋은 떡이 먹기도 좋다는 말도 있듯이, 매일 사용하는 기기는 사용자의 마음에 들 정도로는 아름다워야 한다. HP Z북 울트라 G1a의 디자인은 간결하고 군더더기 없었다. 특히, 전반적인 제품의 마감 품질이 높다는 것이 느껴졌다. 처음 노트북이 닫힌 상태에서 보았을 때는 매끄럽고 둥근 디자인의 겉모습이 단정하다는 느낌이 들고, 화면을 열어 전원을 켰을 때에는 베젤이 얇고 깔끔하여 프로페셔널하다는 인상을 준다. 디자인에서 가장 좋았던 점은 키보드이다. 처음에는 짙은 회색의 평범한 플라스틱 소재로 느껴졌지만, 사용하다 보니 키보드의 키감이 좋을 뿐만 아니라 이물질이 잘 묻지 않는 코팅으로 되어 있어 사용 시 편리했다. 외부 작업 중 노트북을 열었을 때, 손때 묻은 키보드를 다른 사람에게 드러내는 것이 걱정인 사람이라면 이 노트북의 키보드 마감이 더욱 마음에 들 것이라 생각한다. 또한 카메라에는 오픈·클로즈 방식의 물리적 커버가 적용되어, 노트북 내장 웹캠을 사용하지 않을 때는 완전히 가릴 수 있다. 사소해 보일 수 있지만, 사용자를 고려한 세심한 설계라는 점에서 인상 깊은 부분이었다.   그림 1. 노트북 전면. 디자인이 깔끔하고 단정하여 외부 미팅에도 무난하게 사용할 수 있었다.   AI 및 데이터 전처리 워크로드 이제 AI 엔지니어의 관점에서 이 제품을 살펴보자. AI 제품 개발 과정에서 절실하게 체감하는 주요 요소 중 하나는 CPU 메모리의 여유이다. 모델 학습은 클라우드 GPU나 서버 자원을 활용하는 경우가 많아졌지만, 탐색적 데이터 분석, 실험을 위한 데이터 전처리는 대부분 로컬 환경에서 수행해야 하기 때문이다. 따라서 CPU 성능과 GPU 성능 둘 중 하나를 선택해야 한다면, 많은 사람들의 예상과 달리 GPU보다는 CPU를 선택하는 것이 합리적이다. CPU 메모리가 여유가 있다면 데이터셋을 실험 가능한 요건에 맞춰 수정 및 조정하는 것이 조금 더 편리해질 뿐만 아니라, 데이터셋 전처리와 동시에 다른 작업이 가능하기 때문이다. HP Z북 울트라 G1a의 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 대용량 데이터 전처리와 모델 로딩 과정에서 매우 안정적인 모습을 보였다. 텍스트·이미지 데이터 전처리 작업에서 메모리 부족 현상은 거의 발생하지 않았으며, 기존에 사용하던 게이밍 노트북(32GB RAM, RTX 4060 기준) 대비 체감상 약 절반 수준의 시간으로 작업을 마칠 수 있었다. 이는 대규모 로컬 데이터셋을 다루는 리서처에게 매우 중요한 요소다. AI 허브나 대학·연구기관에서 제공하는 공공 데이터셋의 경우 단일 데이터셋만으로도 수백 GB를 훌쩍 넘기는 경우가 많고, 이를 포맷에 맞게 전처리하는 데 상당한 시간이 소요되기 때문이다. HP Z북 울트라 G1a는 메모리의 양이 크기 때문에, 작업 중간 중간에 메모리 부족으로 인해 컴퓨터가 멈추거나 작업 수행 완료를 위해 컴퓨터를 손 놓고 기다리는 일 없이 여유롭게 전처리를 수행할 수 있었다. 몇 가지 사례를 들어보면, 첫째 <그림 2>와 같이 데이터의 압축 해제, 복사와 같은 간단한 작업에서 매우 빠른 처리 속도를 보여주었다. 데이터 전처리 성능을 실험하기 위해 활용한 ‘음식 분류’ 데이터셋의 경우, 각 클래스마다 1천 개의 고화질 사진이 저장되어 있어 전체 용량이 1TB에 육박하는 매우 큰 데이터셋이다. 그러나 HP Z북 울트라 G1a에서는 30GB 용량의 데이터를 압축 해제하는 데 8분밖에 소요되지 않았고, 일관적으로 140MB/s 전후의 속도를 유지하였다. 이는 HP Z북 울트라 G1a의 메모리 대역폭 확대, 멀티채널 구성 안정성 증가가 큰 영향을 미쳤기 때문으로 생각할 수 있다. 일반적인 환경에서는 압축 해제 단계에서 CPU 처리 속도가 병목으로 작용하여, 저장장치가 충분한 성능을 갖추고 있음에도 불구하고 연속적인 읽기·쓰기 작업이 지연되는 현상이 발생하기도 한다.   그림 2. 대용량 데이터의 전처리에도 빠른 속도를 유지하였고, 프로그램 운용에 여유가 있었다.   반면, HP Z북 울트라 G1a에서는 향상된 프로세서 구조와 메모리 서브시스템을 통해 병목이 제거되었으며, 그 결과 압축 해제와 동시에 디스크 I/O가 지속적으로 최대 대역폭에 가깝게 활용될 수 있었다. 이로 인해 사용자 관점에서는 압축 해제뿐 아니라 파일 복사 속도까지 향상된 것처럼 느껴져 직접적으로 작업 효율 향상이 체감되었다. 기존의 게이밍 노트북이 동일한 작업을 수행하는데 평균 60MB/s의 속도로 약 12분 정도가 소요된 것을 고려하면, 이 작업이 전체 데이터셋에 적용될 때 얼마만큼의 작업 시간을 아낄 수 있을 지 기대해 볼 만하다. 둘째, 파이썬 코드를 활용한 데이터 전처리에서도 높은 성능 개선을 보여주었다. CSV 파일을 활용하여 3D 복셀 데이터를 만드는 작업을 수행하는 코드를 기준으로 실험해보았다. 이는 앞에서와 동일하게 CPU·메모리에 집중된 작업을 할 때의 효율을 검사하기 위한 실험으로, 동일한 SVC 파일을 대상으로 데이터의 시각화를 수행하였을 때를 비교한 것이다. 결과적으로, HP Z북 울트라 G1a는 평균적으로 75FPS(초당 프레임)를 유지하였고, 시각화된 데이터를 360도 회전시켜 확인하는 데에 큰 문제가 없었다. 반면, 기준이 된 다른 기기는 평균 42FPS를 유지하고, 시각화된 데이터를 360도로 회전시켜 확인하는 데 약간의 로딩이 필요했다. 특히, 시각화 결과물을 회전하는 과정에서 약간의 버벅임과 끊김이 발생하여 데이터를 세부적으로 확인할 때 약간의 어려움이 따랐다. 기준 기기 또한 일반적인 사무용 노트북을 기준으로 보았을 때보다는 훨씬 빠르고 원활한 데이터 전처리 성능을 보여주었으나, HP Z북 울트라 G1a는 전처리뿐 아니라 시각화 데이터 인터랙션에서도 안정적으로 동작함으로써 실시간에 가까운 시각화 환경을 제공했다는 점에서 차별화된 사용 경험을 제공하였다.   그림 3. 3D 복셀화에 소요된 시간과 프레임률을 tqdm으로 측정한 결과. 동일한 작업을 수행하는 데 HP Z북 울트라는 75FPS, 기준 기기(HX370 CPU, 32RAM)는 42FPS의 성능을 보여주었다.   로컬 AI 추론 로컬 AI 추론 작업에서도 HP Z북 울트라 G1a는 충분히 인상적인 성능을 보여주었다. 로컬 AI 세팅에는 올라마(Ollama)를 사용하였다. 올라마는 다양한 오픈소스 LLM을 간편히 사용할 수 있게 하는 프로그램으로 윈도우, 맥, 리눅스 등 다양한 환경을 지원하며 CLI 및 GUI 환경을 모두 지원하여 확장성이 좋다. 또한, 로컬에서 REST API 형태로 모델을 노출할 수 있어 파이썬(Python), 노드.js(Node.js), 자바(JAVA(Spring)), 랭체인(LangChain) 등과 연동이 용이하며, 프로토타입 서비스 제작 및 온디바이스 AI, 사내 전용 LLM 구축을 위해 다양하게 쓰인다. 필자는 윈도우에서 GUI 기반의 올라마 클라이언트를 설치하여 로컬 AI 추론을 수행하였으며, 엔비디아 그래픽 카드 드라이버(CUDA 포함)를 설치하지 않고 올라마를 구동하였다. 이 지점에서 HP Z북 울트라 G1a의 프로세서의 특장점이 드러난다. 바로 SoC(System on a Chip) 설계를 통해 프로세서 자체에서 CPU·GPU·NPU를 통합하여 활용한다는 것이다. 따라서 이 워크스테이션을 사용하는 사람은 일반적으로 말하는 CPU-Only와 같이 GPU 드라이버를 따로 설치하지 않더라도, AI 추론 및 훈련을 수행할 때 GPU·NPU를 사용하는 것과 같은 효과를 체감할 수 있다.   그림 4. 올라마의 공식 홈페이지. 윈도우, 맥, 리눅스 등 다양한 OS를 지원하며 오픈소스로 활용 가능한 LLM 모델의 가중치를 제공하여 로컬 추론을 가능하게 하는 프로그램이다.   올라마를 활용해 중·대형 언어 모델(gpt-oss:120B)과 소형 언어 모델(qwen3:8B)을 각각 다운로드한 뒤, 동일한 조건에서 추론 시간을 비교해 보았다. 결과는 예상 이상이었다. 중·대형 언어 모델의 추론에는 (약간의 쿨링 소음이 발생하였지만) 약 10초가 소요되었고, 소형 언어 모델 역시 약 13초 내외로 추론을 마쳤다. 비교 대상으로 사용한 다른 노트북에서는 중·대형 모델이 추론 도중 오류를 일으켰고, 소형 모델조차 358초가 걸렸던 점을 감안하면 상당한 차이다. ‘메모리 용량 차이가 얼마나 크겠어’라고 생각한 필자의 판단을 무색하게 만들 정도로, 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 로컬 AI 추론 환경에서 분명한 강점으로 작용했다. 이러한 특성은 AI 개발자에게만 국한된 장점은 아니다. 성능이 검증된 오픈소스 언어 모델을 노트북에 직접 탑재해 휴대할 수 있다는 것은, 인터넷 연결이 원활하지 않은 환경에서도 개인화된 AI 비서를 여러 개 운용하며 작업을 이어갈 수 있음을 의미한다. 로컬 환경에서의 AI 활용 가능성을 실질적인 수준으로 끌어올렸다는 점에서, HP Z북 울트라 G1a의 방향성과 장점이 명확히 드러나는 지점이었다.   그림 5. qwen3:8b로 로컬 추론을 수행한 결과   그림 6. gpt-oss:120b로 로컬 추론을 수행한 결과   3D 작업 워크플로 다음은 3D 작업 워크플로로 넘어가 보자. 필자가 주로 사용하는 캐릭터 크리에이터(Character Creator), 지브러시(Zbrush) 등을 통하여 내장 그래픽만을 가지고 있음에도 ‘충분히 작업이 가능한가?’라는 요소를 살펴보고, 다음으로는 고화질을 요구하는 3D 게임을 실행시켜 성능을 테스트해 보았다. 먼저, 리얼루션(Reallusion)의 캐릭터 크리에이터 5 소프트웨어를 설치하여 작업 가능 여부를 확인해 보았다. 이 소프트웨어는 사실적 묘사를 담은 메타 휴먼을 만들기 위한 소프트웨어이다. 얼굴, 체형, 옷 및 장신구 같은 다양한 요소를 조합하는 자유도가 높고, 피부 결이나 머리카락 같은 요소까지 섬세하게 구현해야 하기 때문에 일반적인 게이밍 노트북에서도 원활한 작업이 어려운 소프트웨어 중 하나이다. 실제로, 필자가 보유한 게이밍 노트북 기기에서는 동일한 작업을 수행하며 컴퓨터가 다운되는 경우가 종종 있었고, 새로운 스킨으로 교체하거나 요소를 변형할 때 1 ~ 5분 정도의 로딩 타임을 요구했다.   그림 7. 캐릭터 크리에이터로 작업하는 모습   그러나, HP Z북 울트라 G1a에서는 로딩 시간이 1 ~ 3분 이하로 줄어드는 모습을 보여주었을 뿐만 아니라, 컴퓨터가 다운되는 경우도 발생하지 않아 상당히 쾌적하게 작업을 진행할 수 있었다. 물론 다루는 데이터의 크기 자체가 큰 만큼 약간의 로딩 시간은 피해갈 수 없었으나, 대부분 1분 이내의 로딩으로 작업이 완료되어 작업 완료를 기다리는 시간이 줄어들었다. 다음으로는 지브러시를 통해 추가 검증을 진행하였다. 지브러시의 경우 매끄러운 표면을 위해 의도적으로 폴리곤을 많이 나누면서 메모리 부하가 발생하는 경우가 많은데, <그림 8>과 같이 복잡한 인간형 모델링, 특히 상업적으로 판매 가능한 정도의 모델링을 테스트하였음에도 데이터의 로드 및 조형에 시간이 소요되지 않고 바로 진행할 수 있는 정도의 원활함을 보여주었다.   그림 8. 매끄러운 곡선으로 폴리곤의 수가 많아지더라도 원활히 처리하는 모습을 볼 수 있다.   마지막으로, 3D 게임을 통해 성능을 확인하였다. 대상이 된 게임은 ‘호그와트 레거시’로, 언리얼 엔진으로 만들어졌으며 비교적 실사화 스타일의 그래픽, 다양한 파티클 사용으로 고난도의 그래픽 컨트롤을 요구하는 게임이다. 게임에서는 플레이를 진행하며 기기의 사양을 자동으로 측정하여 적절한 그래픽 옵션을 정해주는데, 이 기기는 자동으로 중간 단계의 그래픽 옵션으로 세팅되는 것을 확인하였다.   그림 9. 기기 옵션을 자동으로 분석하여 적절한 수준의 그래픽 구현. 이 기기는 중간 옵션을 배정받았다.   물론 기존의 작업에 비해 3D 게임을 진행할 때는 기기의 쿨링팬 소음이 두드러지게 들리는 편이었다. 앞서 수행한 작업에서는 쿨링이 필요하지 않거나, 쿨링이 필요하더라도 비교적 짧고 조용하게 한 번의 ‘쏴아아’하는 소리가 들렸다면, 3D 게임을 실행 중일 때는 지속적인 쿨링 소음이 발생하였기 때문이다. 그러나, 여기에서도 HP Z북 울트라 G1a의 탁월한 점을 발견할 수 있었다. 그것은 바로 ‘소음이 발생하는 만큼 쿨링이 잘 되고 있다’는 점이다. 랩톱을 주로 사용하는 사용자는 공감하겠지만, 일부 랩톱의 경우 쿨링 소음이 큰데도 불구하고 쿨링이 제대로 되지 않아 기기 아래쪽의 키보드 부분이 상당히 뜨거워지는 경우가 잦다. 그러나 이 기기는 소음이 크더라도 쿨링이 확실히 진행되고 있었고, 피부에 장시간 접촉시킬 수 있을 정도의 발열만 있었다. 아울러, 게임 내의 실사화 그래픽은 모두 끊기는 부분 없이 자연스럽게 재생되었고, 게임 진행에 이상이 없이 원활히 진행되었다.   그림 10. 그림 내 실사화 시나리오 중 그래픽 재현성이 좋은 부분의 캡처. 왼쪽의 바다 물결 표현, 전면의 포그 표현 등이 끊기지 않고 자연스럽게 재생되었다.   맺음말 HP Z북 울트라 G1a는 AI 리서처와 3D 제작 작업을 병행하는 사용자에게 모바일 워크스테이션으로서 분명한 가치를 지닌 기기다. 이 제품의 구성은 모든 요소를 고르게 끌어올리기보다는, 프로세서와 메모리 성능에 명확하게 힘을 준 제품이다. 이에 사용 목적이 분명한 사용자에게 강점으로 작용한다. AI 전처리, 로컬 추론, 3D 제작 작업과 같이 CPU·메모리 의존도가 높은 워크로드에서는 이러한 설계 방향이 체감 성능으로 직결되기 때문이다. 그런 의미에서 HP Z북 울트라 G1a는 특히 다음과 같은 사용자에게 추천하고 싶다. 첫째, 대용량 데이터 전처리가 일상적인 AI 엔지니어, 둘째, 3D 콘텐츠 제작 과정에서 초안과 검증 단계의 결과물을 빠르게 만들어야 하는 사용자, 셋째, 이 모든 작업을 데스크톱이나 서버에 의존하지 않고 모바일 환경에서도 이어가야 하는 사용자다. HP Z북 울트라 G1a를 사용하는 사용자라면, 적어도 서버급 연산을 요구하는 극단적인 작업을 제외하고는 대부분의 실무 환경에서 성능으로 인한 제약을 체감할 일은 드물 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 박정은 AI 융합 분야 연구자이자 엔지니어로, 컴퓨터 비전, 게임 엔진, 머신러닝, 딥러닝 기반 실무를 수행하며 대용량 AI 데이터 전처리와 AI 실험 파이프라인을 설계·운용해왔다. 필적, 운동학, 감정 인식 중심의 AI 프로덕트 R&D를 수행하며, 모바일 워크스테이션 환경에서 CPU·GPU 자원을 밀도 있게 활용하는 실험 구조를 활용하였다. 산업 연계 교육 현장에서 연구와 실무를 연결하는 엔지니어이자 교육자로 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04
심센터 HEEDS 커넥트와 MBSE 방법론
심센터 HEEDS 더 깊게 살펴 보기 (1)   이번 호부터 심센터 HEEDS(Simcenter HEEDS)를 더욱 깊이 이해하고, 실제 업무에서 그 가치를 극대화하여 설계 혁신을 가속화하고 심센터 HEEDS를 마스터하기 위한 핵심 인사이트를 살펴보고자 한다. 이번 호에서는 제품 개발을 담당하는 여러 팀이 AI 기반 최적화 워크플로를 원활하게 공유하고 제어하며 설계 탐색을 가속화하는 지능형 협업 플랫폼인 심센터 HEEDS 커넥트(Simcenter HEEDS Connect)를 살펴 본다.   ■ 연재순서 제1회 심센터 HEEDS 커넥트와 MBSE 방법론 제2회 심센터 X MDO의 새로운 HEEDS 제3회 심센터 HEEDS SHERPA의 최적 검색 원리 제4회 최적 검색 가속화를 위한 AI 프레딕터 제5회 심센터 HEEDS 2604 업데이트 제6회 모두를 위한 제너럴 포털과 맞춤 설정 제7회 특별한 워크플로 구성 및 자동화 제8회 다양한 매개변수를 위한 태깅 모드 제9회 복잡한 설정을 한번에, 오토메이션 스크립트 제10회 파이썬 스케줄러와 HEEDS 연동 제11회 심센터 HEEDS 2610 업데이트 제12회 데이터 분석을 위한 HEEDSPy API   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 HEEDS를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR 링크드인 | www.linkedin.com/in/jonghaklee-odumokgol   팀을 하나로 묶는 지능형 협업 설루션 <그림 1>은 심센터 HEEDS(히즈) 커넥트가 어떻게 글로벌 팀의 협업을 지원하고, 설계 탐색 과정의 효율성을 극대화하는지 설명하고 있다. HEEDS 커넥트는 전 세계 여러 지역에 흩어져 있는 팀원이 프로젝트에 연결될 수 있도록 지원한다. 이는 지리적 장벽을 넘어선 원활한 소통과 협업을 가능하게 한다.   그림 1   HEEDS 커넥트는 다양한 수준의 공유 기능을 제공한다. <그림 2~3>을 보면 개별 스터디 결과뿐만 아니라 대시보드 형태의 요약 정보까지 폭넓게 공유할 수 있다. 또한 협업을 지원하는 알림 시스템을 갖추고 있어, 중요한 변경 사항이나 업데이트에 대해 팀원이 실시간으로 인지하고 대응할 수 있다. 특히, 조직 외부의 이해관계자와도 정보를 공유할 수 있는 기능을 제공하여, 공급업체나 고객 등 외부 파트너와의 소통을 강화한다.   그림 2   그림 3   HEEDS 커넥트의 핵심 강점 중 하나는 세분화된 액세스 제어 기능이다. 소유자(owner)는 시스템 관리자로서 다른 사용자에게 다양한 액세스 수준을 부여할 수 있다. 이는 프로젝트의 보안과 관리 효율성을 높이 데 기여한다. 전체 권한(full control)을 가진 사용자는 연구에 대한 모든 권한과 위임 권한을 가진다. 권한이 부여된 경우 소유자를 대신하여 연구를 시작할 수도 있다. 검사(inspect) 권한은 결과를 분석하기 위한 보기 전용 모드로 제한된 액세스를 제공한다. 이 권한을 가진 사용자는 공유된 연구의 진행 상황을 모니터링할 수 있다. 정보 제공(informed) 권한은 외부 이해관계자가 변경 사항에 대한 정보를 지속적으로 제공받을 수 있도록 한다. 이들은 공유된 연구 진행 상황을 모니터링하고, 알림 시스템을 통해 피드백을 제공할 수 있다.   효율적인 워크플로 배포 및 실행 <그림 4>는 심센터 HEEDS 워크플로가 HEEDS 커넥트를 통해 어떻게 배포되고 실행되는지 그 과정을 설명하고 있다.   그림 4   워크플로 설정 및 제출(로컬/데스크톱 환경) 먼저, 사용자는 심센터 HEEDS MDO 또는 HEEDS 워크플로 매니저(HEEDS Workflow Manager) 환경에서 최적화 워크플로를 설정하고 완성한다. 이 단계에서 사용자는 필요한 시뮬레이션 도구를 연동하고, 설계 변수 및 목표를 정의하며, 최적화 전략을 구성한다. 워크플로가 준비되면 사용자는 HEEDS 내에서 HEEDS 커넥트 서버에 연결한다. 이 연결을 통해 로컬 데스크톱 환경에서 설정된 워크플로를 중앙 서버로 보낼 준비를 마친다. 마지막으로, 현재 설정된 워크플로를 HEEDS 커넥트 서버로 제출한다.   워크플로 배포 및 실행(로컬/리모트 환경) 워크플로가 HEEDS 커넥트 서버로 제출되면 서버는 이 워크플로를 ‘배포(deploy)’할 준비를 한다. HEEDS 커넥트 서버는 워크플로 실행을 위한 중앙 허브 역할을 수행하며, 데스크톱, 클라우드 기반 리소스 등 다양한 컴퓨팅 환경에 분산된 ‘HEEDS 커넥트 에이전트(HEEDS Connect Agent)’에게 워크플로 정보를 배포한다. 이들 에이전트는 실제 시뮬레이션 및 최적화 작업을 병렬 실행하며, 이는 방대한 계산 자원을 효율적으로 활용하여 최적화 시간을 단축시킨다. 결론적으로, HEEDS 커넥트는 사용자가 복잡한 워크플로를 손쉽게 설정하고, 이를 강력한 분산 컴퓨팅 환경에서 효율적으로 실행할 수 있도록 지원한다. 이는 설계 탐색 및 최적화 과정의 생산성을 극대화하고, 엔지니어가 더 많은 설계 대안을 탐색하며 혁신적인 설루션을 더 빠르게 찾아낼 수 있도록 돕는 핵심 기능이다.     ■ 기사의 상세 내용은 PDF로 제공됩니다.
작성일 : 2026-01-07
코딩 없는 LLM 기반 에이전트 개발 도구, 디파이
BIM 칼럼니스트 강태욱의 이슈 & 토크   디파이(Dify)는 대규모 언어 모델(LLM)을 활용한 에이전트 서비스를 전문적인 코딩 지식 없이 개발하고 효율적으로 운영할 수 있도록 지원하는 LLMOps(대규모 언어 모델 운영) 플랫폼 및 도구이다. 이 도구는 LLM과 같은 개발에 필요한 도구를 팔래트에서 가져와 캔버스에 배치하고, 이들의 작업 흐름을 연결함으로써 손쉽게 AI 에이전트 서비스를 개발할 수 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 디파이로 개발된 챗봇 에이전트 예시   디파이는 사용자가 아이디어를 실제 AI 서비스로 신속하게 전환할 수 있도록 설계된 통합 개발 환경을 제공한다. 가장 큰 특징은 복잡한 백엔드(backend) 인프라나 API 연동 과정을 추상화하여, 사용자가 시각적인 인터페이스를 통해 애플리케이션의 핵심 로직과 기능 구현에만 집중할 수 있도록 한 것이다.   기능 소개 디파이의 주요 기능은 다음과 같다. 시각적 프롬프트 오케스트레이션 : 사용자는 텍스트 입력, LLM 호출, 조건 분기, 외부 도구(API) 사용 등의 과정을 블록처럼 연결하여 정교한 워크플로를 설계할 수 있다. 이를 통해 단순한 질의응답을 넘어 복잡한 추론과 작업 수행이 가능한 AI 에이전트를 구축하는 것이 가능하다. RAG(검색 증강 생성) 엔진 : 자체 데이터(PDF, TXT, 마크다운 등)를 업로드하여 AI 모델이 해당 정보를 기반으로 답변하도록 만드는 RAG 기술을 손쉽게 구현할 수 있다. 디파이는 문서 자동 전처리, 벡터화, 청킹(chunking) 등 복잡한 과정을 내부적으로 처리하여 사용자의 부담을 최소화한다. 모델 호환성 및 관리 : 오픈AI(OpenAI)의 GPT 시리즈, 앤트로픽(Anthropic)의 클로드(Claude), 구글의 제미나이(Gemini) 등 20개 이상의 상용 및 오픈소스 LLM을 지원한다. 사용자는 여러 모델을 프로젝트에 등록해두고 특정 작업에 가장 적합한 모델을 선택하거나, A/B 테스트를 통해 성능을 비교 분석할 수 있다. 배포 및 운영 : 개발이 완료된 애플리케이션은 즉시 사용 가능한 웹 API 엔드포인트(endpoint)나 독립적인 웹 사이트 형태(웹앱)로 배포된다. 또한 사용자 피드백 수집, 모델 성능 모니터링, 프롬프트 개선 등 지속적인 운영 및 관리를 위한 대시보드를 제공하여 서비스 품질을 유지하고 발전시키는 데 도움을 준다. 더 자세한 정보는 디파이 공식 웹사이트(https://dify.ai)에서 확인할 수 있다.   개발 배경 디파이는 2023년 5월에 설립된 랭지니어스(LangGenius, Inc.)에 의해 개발되었으며, 생성형 AI 기술의 급격한 발전 속에서 LLM을 실제 비즈니스에 적용하려는 수요와 기술적 장벽 사이의 간극을 메우기 위해 탄생했다. 초기 LLM 애플리케이션 개발은 파이썬(Python) 라이브러리인 랭체인(LangChain)이나 라마인덱스(LlamaIndex) 등을 활용하는 개발자 중심의 영역이었다. 하지만 이는 프롬프트 엔지니어링, 벡터 데이터베이스 관리, API 연동 등 상당한 전문 지식을 요구했다. 랭지니어스 팀은 이러한 기술적 복잡성이 AI 기술의 대중화와 비즈니스 혁신을 저해하는 주요 요인이라고 판단했다. 이에 따라 기획자, 디자이너, 마케터 등 비개발 직군도 직접 AI 서비스를 만들고 테스트할 수 있는 직관적인 플랫폼을 목표로 디파이를 개발했다. 특히, 모든 소스코드를 공개하는 오픈소스 전략을 채택하여 개발자 커뮤니티의 참여를 유도하고, 데이터 보안에 민감한 기업이 자체 서버에 직접 설치(self-hosting)하여 사용할 수 있도록 유연성을 제공했다. 디파이의 소스코드는 깃허브 저장소(https://github.com/langgenius/dify)에서 확인할 수 있다.   유사 도구 디파이와 유사한 기능을 제공하는 AI 개발 플랫폼은 다수 존재하며, 각각의 도구는 고유한 특징과 목표 시장을 가지고 있다. 플로와이즈AI(FlowiseAI) : 디파이와 마찬가지로 노드를 연결하여 LLM 기반 워크플로를 구축하는 오픈소스 플랫폼이다. UI/UX 측면에서 더 개발자 친화적인 경향이 있으며, LangChain.js를 기반으로 하여 자바스크립트(JavaScript) 생태계와의 통합이 용이하다는 장점이 있다.(https://flowiseai.com) 보이스플로(Voiceflow) : 주로 대화형 AI, 특히 음성 기반 챗봇 및 어시스턴트 제작에 특화된 로코드 플랫폼이다. 시각적인 대화 흐름 설계 도구가 강력하며, 프로토타이핑부터 실제 배포까지 전 과정을 지원하여 고객 서비스 자동화 분야에서 많이 사용된다.(https://www. voiceflow.com) 버블(Bubble) : 웹 애플리케이션 개발을 위한 대표적인 노코드 플랫폼이다. AI 기능이 내장된 것은 아니지만, 높은 유연성과 확장성을 바탕으로 디파이나 오픈AI에서 제공하는 API를 연동하여 복잡한 웹 서비스 내에 AI 기능을 통합하는 방식으로 활용될 수 있다.(https://bubble. io) n8n : 워크플로 자동화에 중점을 둔 오픈소스 도구이다. AI 기능보다는 수백 개의 다양한 서드파티 애플리케이션(예 : 구글 시트, 슬랙, 노션)을 연결하여 데이터 동기화 및 업무 자동화를 구현하는 데 강점을 보인다.(https://n8n.io)     ■ 기사의 상세 내용은 PDF로 제공됩니다.
작성일 : 2026-01-07