• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 프로토타입"에 대한 통합 검색 내용이 400개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[케이스 스터디] 시각화 워크플로로 구현하는 리얼타임 스토리텔링
영화의 복잡한 샷에서 빠른 반복 작업을 지원한 언리얼 엔진   1930년대 미시시피 델타를 배경으로 한 ‘씨너스 : 죄인들(Sinners)’은 인종 분리 및 차별을 명시적으로 인정하던 짐크로(Jim Crow)법 시대, 미국 남부의 고향으로 돌아온 쌍둥이 형제가 초자연적인 악과 마주하게 되는 이야기를 그린 공포 영화이다. 이 영화는 고도의 기술력이 필요한 시퀀스 촬영을 활용했다. 스티칭 기법을 사용해 IMAX(아이맥스)로 촬영한 장면들을 정교하게 이어 붙여 마치 한 호흡처럼 전개되는 음악 몽타주를 구성했으며, 시대 고증에 충실하면서도 영화적 완성도를 갖춘 대규모 기차 도착 장면도 구현해야 했다. 이 모든 작업을 빠듯한 제작 환경 속에서 진행하는 것은 쉽지 않았다. 이를 위해 팀은 언리얼 엔진을 중심으로 구축된 리얼타임 시각화 워크플로를 적극 활용했다. 언리얼 엔진을 단순한 프리비즈 툴 역할을 넘어서, 실제 촬영이 시작되기 훨씬 전부터 아이디어를 탐색하고 조율하며, 제작진의 방향을 맞출 수 있는 공동 창작 공간으로 역할을 수행했다. ■ 자료 제공 : 에픽게임즈     영화 제작 파이프라인의 재구성 일반적인 VFX 워크플로에서는 아티스트들이 파이프라인의 후반부에 합류하는 경우가 많아, 연출 방향이 대부분 확정된 뒤에야 샷 작업을 시작하게 된다. ‘씨너스 : 죄인들’이 아카데미상을 수상한 데에는 바라붐!(Baraboom) 의 마이클 랄라(Michael Ralla) VFX 슈퍼바이저와 에미상 수상자인 페페 발렌시아(Pepe Valencia) 시각화 슈퍼바이저가 큰 기여를 했다. ‘씨너스 : 죄인들’ 제작 팀에 참여한 마이클 랄라 VFX 슈퍼바이저는 이렇게 스토리와 동떨어진 상태에서 작업하게 되는 상황을 피하고자 했다. 그는 “컴포지터로 일하다 보면 보통 파이프라인의 마지막 단계에서 작업하게 된다. 원래의 연출 의도를 충분히 이해하지 못한 채, 다른 사람이 이미 만들어 놓은 작업을 마무리해야 한다”고 말했다.     언리얼 펠로우십을 통해 언리얼 엔진을 경험한 뒤, 랄라는 다른 접근 방식을 발견했다. 시각화를 실시간으로 이뤄내고, 영화 제작진과 긴밀하게 협업하며, 단순한 기술 구현을 넘어 스토리를 위해 활용하는 방식이었다. 이러한 생각은 페페 발렌시아 시각화 슈퍼바이저의 생각과도 일치했다. 발렌시아는 스토리텔러의 관점으로 시각화에 접근하고자 했기 때문이다. 랄라가 처음 연락했을 때, 발렌시아는 예산이나 일정에 대해 묻지 않고 대신 이렇게 물었다. ”대본을 읽어볼 수 있을까요?” 그 한마디가 전체 협업의 분위기를 결정지었다.   처음부터 맞춰진 공통의 방향성 ‘씨너스 : 죄인들’에서 가장 인상적인 장면 중 하나는 1930년대 미시시피의 주크 조인트를 배경으로 한 몽환적인 핵심 뮤지컬 시퀀스다. 이 장면에서는 마일스 케이튼이 연기한 새미의 블루스 공연을 계기로, 흑인 음악의 여러 시대가 뒤섞이며 시간의 경계를 넘나드는 순간이 펼쳐진다. 랄라는 “처음 대본을 읽었을 때, 가장 눈에 띈 독특한 장면은 ‘초현실적 몽타주’라고 하는 시퀀스였다. 새미가 무아지경에 빠진 듯 연주를 시작하면, 어느 순간 역사를 가로지르는 경험을 하게 된다”고 말했다. 이 초현실적 몽타주는 서아프리카의 드럼 연주부터 블루스, 펑크, 힙합까지 아우르며 마치 영혼을 불러내는 의식처럼 펼쳐진다.     그 장면은 대본을 읽는 순간 생생하게 눈앞에 그려졌지만, 각자가 머릿속에 떠올린 모습은 조금씩 달랐다. 대표적으로 랄라는 몽타주 속 인물을 반투명한 유령처럼 떠다니는 존재로 상상했다. 랄라는 “그 장면에 대해 다른 사람들과 이야기해 보니, 다들 ‘그게 무슨 뜻이죠?’라는 반응이었다”고 말하기도 했다. 팀 전체가 같은 그림을 공유하고 이 시퀀스가 품은 다양한 예술적 시도를 함께 탐색할 방법이 필요했다. 여기서 언리얼 엔진이 진가를 발휘했다. 언리얼 엔진은 누구나 이해할 수 있는 공통의 언어가 되어, 시퀀스를 함께 확인하고 바로 재생해볼 수 있게 해주었다. 발렌시아는 대본, 프로덕션 디자인 팀이 촬영한 평면도, 촬영 감독이 손으로 그린 카메라 경로, 그리고 여러 세대에 걸친 등장 인물 목록 등 몇 가지 자료만으로 언리얼 엔진에서 시퀀스 제작을 시작했다.   ▲ 언리얼 엔진 웹사이트 영상 캡처   이에 단 이틀 만에 첫 번째 시각화 버전이 완성되었다. 빠른 제작 속도는 각자의 해석을 두고 논쟁하는 대신, 모든 부서가 동일한 시퀀스를 함께 보면서 무엇이 잘 작동하고 무엇이 그렇지 않은지를 아직 수정이 가능한 시점에 논의할 수 있게 되었다. 추가 샷을 요청하는 편집 팀부터 릭 설치 공간과 배치를 계획하는 그립 팀까지 여러 부서에서 이 작업을 통해 각자의 문제를 해결할 수 있었다. ‘프리비즈’는 더 이상 단순한 하나의 결과가 아니었다. 랄라는 프리비즈가 “제작 전반에 걸쳐 활용하는 시각화”라고 설명했다.   빠른 문제 발견 언리얼 엔진을 활용한 기술적 시각화 덕분에 팀은 모든 계획을 실제 촬영과 동일한 조건에서 테스트하고, 잠재적 문제를 사전에 찾아낼 수 있었다. 초현실적 몽타주는 하나의 롱테이크처럼 느껴지도록 설계됐지만, 실제 촬영은 65mm IMAX 필름으로 진행되었다. 크고 무거운 카메라를 사용해야 했고, 필름 롤 길이에도 제한이 있었으며, 안무 및 동선 설계 역시 매우 복잡했다. 언리얼 엔진에서 시퀀스를 시각화함으로써 팀은 필름 길이상 촬영을 끊고 이어붙여야 할 스티치 지점을 미리 파악했다. 화면을 빠르게 돌려 전환하는 기법인 휩 팬 같은 전형적인 트릭에 기대지 않고 전환 방식을 설계했으며, 스테디캠 동선을 실제 물리적 제약에 맞춰 테스트할 수 있었다. 음악과 퍼포먼스 비트에 맞춰 타이밍을 맞춰보는 것도 가능했다. 촬영 현장에서 발견하기엔 너무 늦거나 해결하기엔 너무 어려웠을 문제를 언리얼 엔진 덕분에 조기에 찾아낼 수 있었다.     새로운 버전이 하루에 하나씩 나올 정도로 반복 작업도 매우 빠르게 이뤄졌다. 덕분에 제작진은 아이디어를 과감히 시도해 보고 무엇이 문제인지 확인한 뒤, 비용이 많이 드는 본격적인 촬영에 들어가기 전에 촬영을 다시 설계할 수 있었다. 랄라는“잘 안 되면, 빠르게 실패하고 넘어가면 된다”고 말했다. 길이가 제한된 고가의 IMAX 필름으로 작업하는 환경에서 아이디어를 시험해 보고 폐기하는 건 비용이 너무 많이 든다. 언리얼 엔진은 필름을 사용하기도 전에 다양한 아이디어를 탐색할 수 있는 길을 열어주었다. 속도는 제작 전 준비 단계에서뿐 아니라 실제 촬영 현장에서도 중요하게 작용했다. 기차 촬영 당시, 랄라는 휴대폰으로 레퍼런스 영상을 바로 찍어 발렌시아에게 전달하며 CG 기차를 추가한 빠른 시각화 버전을 요청했다. 발렌시아는 언리얼 엔진과 언리얼 엔진 마켓플레이스(현재 팹) 애셋을 사용해 다음 날 의사 결정에 사용할 수 있을 만큼 빠르게 결과를 만들었다. 중요한 건 완성도 높은 픽셀이 아니라, ‘과연 의도대로 작동할까?’라는 질문에 답하는 것이었다. 빠른 시각화는 곧 빠른 결정으로 이어졌다. 랄라는 아이디어가 의도대로 작동한다는 확신이 생기는 순간 지체 없이 다음 촬영으로 넘어갈 수 있었다고 말했다. 카메라를 실시간으로 움직이고, 화면을 공유하며, 아이디어를 즉시 조정하는 빠른 프로토타입 방식이 언리얼 엔진을 하나의 창작 공간으로 만들었다. 언리얼 엔진은 시간과 비용을 본격적으로 쏟아붓기 전에 다양한 결정을 미리 시험해 볼 수 있는 환경을 만들었다.     확신을 갖고 기획한 복잡한 샷 ‘씨너스 : 죄인들’에서 제작된 언리얼 엔진 기반 시각화는 일반적인 프리비즈 과정과 달리 촬영이 시작된 후에도 계속 활용되었다. 편집 과정에서 비어 있는 부분을 보완하는 데 활용됐고, 제작 후반에는 대체 샷을 탐색하는 데도 쓰였으며, 포스트 프로덕션 전반에 걸쳐 연출 의도를 유지하는 데 도움을 주었다. 편집자 마이클 쇼버(Michael Shawver)는 컷을 구성하기 위해 시각화 샷을 요청하고, 이를 임시 컷이자 편집 계획을 세우는 도구로 활용했다. 사실상 이 영화의 VFX 작업 중 상당 부분은 촬영 팀이 세트장에 들어가기 전부터 이미 시작되고 있었다. 랄라와 발렌시아에게 ‘씨너스 : 죄인들’에서 언리얼 엔진을 활용한다는 것은, 스토리에 대한 명확하고 공통된 이해를 제작 초기부터 만들어 모든 부서가 최고의 결과를 낼 수 있도록 하는 것을 의미했다. 랄라는 “연출 의도를 최대한 많은 사람들에게, 최대한 빨리 전달해야만 한다. 그래야 모두가 같은 방향을 바라볼 수 있다”고 말했다. 언리얼 엔진은 팀이 더 빠르게 움직이고, 더 긴밀하게 협업하며, 야심 찬 아이디어를 확신을 가지고 실행할 수 있도록 뒷받침했다. 이는 리얼타임 워크플로가 영화 제작 방식뿐만 아니라, 가장 중요한 연출적 선택이 내려지는 시점 자체를 바꾸고 있음을 보여준다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-05-06
[태성에스엔이] 구조/유동/열 해석부터 AI 연계까지 | TSTS 2026 기술 컨퍼런스 안내
#태성에스엔이 #CAE #컨퍼런스 구조/유동/열 해석부터 AI 연계까지 | TSTS 2026 기술 컨퍼런스 안내    이 내용이 제대로 보이지 않으면 행사 상세 페이지에서 확인하시기 바랍니다. 엔지니어링 경쟁력은 더 이상 기술의 보유 여부가 아니라 얼마나 빠르고 효과적으로 활용하는가에 의해 결정됩니다. 특히 AI와 시뮬레이션의 결합은 제품 개발 속도와 의사결정 방식 전반에 의미 있는 변화를 만들어오고 있습니다. TSTS 2026에서는 다양한 산업의 실제 적용 사례를 통해 엔지니어링 혁신이 어떻게 개발 기간 단축, 비용 절감, 경쟁력 강화로 이어지는지를 확인하실 수 있습니다. - 개발 리드타임 단축 및 비용 절감 사례 - 데이터 기반 설계 의사결정 고도화 전략 - 기업 경쟁력 강화를 위한 기술 활용 방향 이번 행사를 통해 귀사의 엔지니어링 전략을 점검하고, 실질적인 성과로 이어질 수 있는 방향을 확인하시기 바랍니다. 출장공문 다운로드 ■ AGENDA 기조연설 : 10:00 ~ 11:20 르웨스트홀 A 10:00 – 10:30  |  #Ai 반도체 Agentic AI 인공지능을 위한 HBM-HBF 메모리 구조의 혁신 Physical AI 시대로의 진입에 따라 AI의 성능은 이제 GPU가 아닌 '메모리 대역폭과 용량'에 의해 결정됩니다. 본 강연에서는 초거대 AI 데이터 센터의 핵심 전략이 될 HBM-HBF 최적화 구조를 제안합니다. 차세대 기술인 HBDF와 3차원 통합 구조를 통해 미래 AI 서비스를 위한 메모리 기술 혁신의 방향성을 확인하시기 바랍니다. 김정호 교수  KAIST 10:30 – 11:00  |  #방산/구조해석 고밀도 AESA 레이더 시스템을 위한 구조해석 기반 수냉식 냉각판 설계와 검증: 내압 성능 예측부터 헬륨 기밀시험을 통한 프로토타입 검증까지 근접방어무기체계(CIWS)의 핵심인 AESA 레이더는 고밀도 발열 소자를 포함한 TRM의 안정적 냉각이 운용 신뢰성을 좌우합니다. 본 발표에서는 복잡한 냉각 유로를 내장한 수냉식 냉각판의 설계 단계에서 구조해석을 통해 내압 성능과 최대 변위를 사전 검증한 과정을 소개합니다. 제작 공정 안정화를 거쳐 완성된 프로토타입에 대한 헬륨 기체 내압시험 결과를 통해 설계 기준 충족 여부를 확인하시기 바랍니다. 신동준 수석연구원  LIG D&A 11:00 – 11:20  |  #Ai+Ansys From Physics to AI: The Evolution of Simulation with Ansys and Tae Sung S&E AI의 기능 확대에 따라, 공학 시뮬레이션 분야에서도 '정확한 물리 해석'을 유지하면서 '속도와 자동화'를 극대화할 수 있는 도구로서의 개발이 활발히 진행되고 있습니다. 본 세션에서는 Ansys의 AI의 기술개발 현황과 함께 이의 올바른 적용을 위한 태성에스엔이의 서비스를 설명합니다. 윤진환 본부장  태성에스엔이 Lunch Break 11:30 - 12:50 산업군 트랙 : 12:50 ~ 17:00 르웨스트홀 4F 각 세션장 전기/전자/ 반도체 자동차/ 모빌리티 항공우주/ 방산 에너지/중공업/ 플랜트 헬스케어  Agenda 한 눈에 보기 ■ 사전등록 안내 기간 : 2026.04.01.~05.08. 한정된 좌석으로 인하여 조기 마감 될 수 있습니다. 혜택 1 사전등록 후 현장참여 선착순 300분께 태성에스엔이의 키링을 제공합니다.   혜택 2 사전등록 후 현장참여 선착순 500분께 점심식사를 제공합니다.   * 행사 종료 후 진행되는 설문조사에 참여해 주세요. 소중한 의견을 주신 분들께 깜짝 기념품을 드립니다. 사전신청 바로가기 Sponsor Platinum Gold Silver
작성일 : 2026-04-17
지멘스–엔비디아, “수조 단위 AI 칩 검증 며칠 만에 끝낸다”
지멘스 디지털 인더스트리 소프트웨어는 엔비디아와 협력하여 반도체 설계 효율을 높이는 검증 기술을 제공한다고 밝혔다. 양사는 지멘스의 하드웨어 가속 검증 시스템인 벨로체(Veloce) proFPGA CS와 엔비디아의 성능 최적화 칩 아키텍처를 결합했다. 이를 통해 반도체 설계자와 시스템 아키텍트는 실제 칩을 양산하기 전 단계에서 수조 단위의 검증 사이클을 며칠 만에 실행하고 결과를 확인할 수 있다. 이번 협력은 인공지능과 머신러닝 시스템온칩 개발의 신뢰성을 높이고 속도를 앞당기기 위해 진행했다. 엔비디아 팀은 실제 실리콘 테이프아웃 이전에 대규모 워크로드를 실행하며 설계를 최적화할 수 있게 되었다. 지멘스는 벨로체 proFPGA CS가 유연한 하드웨어 구조와 직관적인 소프트웨어 흐름을 갖추고 있어 단일 IP 검증부터 수십억 게이트 규모의 칩렛 설계까지 폭넓게 지원한다고 설명했다. FPGA 기반 프로토타입 시스템은 시뮬레이션이나 에뮬레이션 방식보다 빠른 처리 속도를 제공하는 것이 특징이다. 최근 인공지능 설계는 칩과 소프트웨어의 복잡성이 커지면서 더 높은 성능의 검증 역량을 요구하고 있다. 기존 검증 도구는 현실적인 시간 내에 수백만에서 수십억 사이클을 처리하는 데 그쳤으나, 지멘스와 엔비디아의 기술을 활용하면 단시간에 수조 개의 설계 사이클을 실행할 수 있어 시장 출시 일정을 맞추기가 수월해진다. 지멘스에 따르면 벨로체 시스템은 고객이 설계 규모에 상관없이 최적의 설루션을 활용하도록 돕는다. 지멘스 디지털 인더스트리 소프트웨어의 장 마리 브루네 수석 부사장은 “고도로 복잡한 인공지능 및 머신러닝 칩이 요구하는 검증 요건에 대응하기 위해 하드웨어 가속 검증과 프로토타이핑 기술 발전에 주력하고 있다”고 말했다.  엔비디아의 나렌드라 콘다 부사장은 “컴퓨팅 아키텍처가 복잡해지면서 대규모 워크로드 검증과 빠른 시장 출시를 위한 고성능 설루션이 중요해졌다”고 밝혔다. 또한 엔비디아와 지멘스의 기술 통합으로 설계자가 차세대 인공지능의 신뢰성을 확보하는 데 필요한 확장성을 갖추게 되었다고 덧붙였다.
작성일 : 2026-04-06
오토데스크, 3D 캐릭터 제작 돕는 생성형 AI ‘원더 3D’ 공개
오토데스크가 오토데스크 플로 스튜디오(Autodesk Flow Studio) 내에 새로운 생성형 AI 모델인 ‘원더 3D(Wonder 3D)’를 출시했다. 과거 원더 스튜디오(Wonder Studio)로 알려졌던 클라우드 기반 플랫폼인 오토데스크 플로 스튜디오는 AI를 활용해 모션 캡처, 카메라 트래킹, 캐릭터 애니메이션 등 복잡한 VFX 작업을 자동화한다. 이번에 선보인 원더 3D는 아티스트와 스튜디오, 크리에이터가 텍스트와 이미지를 편집 가능한 3D 자산으로 더 빠르고 직관적으로 변환할 수 있도록 설계됐다. 3D 캐릭터와 오브젝트를 제작하는 과정은 그동안 상당한 수작업이 필요한 복잡한 영역이었다. 원더 3D는 텍스트 투 3D(Text to 3D), 이미지 투 3D(Image to 3D), 텍스트 투 이미지(Text to Image) 기능을 통해 단순한 텍스트나 참조 이미지 만으로도 3D 자산을 생성할 수 있도록 한다. 생성된 결과물은 프로젝트에 맞춰 정교하게 다듬거나 재구성해 다시 사용할 수 있어 초기 구상부터 실제 제작에 이르는 워크플로를 단축한다. 캐릭터와 소품 제작 시간을 줄이고 제작팀의 병목 현상을 해결함으로써 창의적인 의도나 유연성을 유지하면서도 3D 제작의 진입 장벽을 낮췄다.     원더 3D는 크리에이터가 기술적인 부담에서 벗어나 스토리텔링에 집중할 수 있도록 돕는다. ▲텍스트 투 3D는 텍스트 프롬프트를 입력하면 편집 가능한 3D 캐릭터나 생명체, 소품으로 변환한다. 크리에이터가 구상한 내용을 설명하면 기하학적 구조와 질감이 포함된 상세한 3D 자산을 생성하며, 이를 다양한 프로젝트에서 재사용할 수 있다. ▲이미지 투 3D는 스케치나 참조 이미지, 콘셉트 아트를 텍스트가 포함된 3D 모델로 바꾼다. 한 장의 이미지로도 편집 가능한 자산을 만들 수 있으며 개발 과정에 따라 형태나 질감, 구조를 자유롭게 조정할 수 있다. ▲텍스트 투 이미지는 몇 초 만에 콘셉트 비주얼을 생성해 캐릭터나 장면, 스타일을 탐색하게 돕는다. 가장 뛰어난 아이디어를 선택해 3D 워크플로로 직접 가져와 추가 개발을 진행할 수 있다. ▲제작된 결과물은 USD, STL, OBJ 파일 형식으로 내보낼 수 있다. 이를 통해 다양한 소프트웨어에서 추가 작업을 이어가거나 3D 프린팅, 물리적 프로토타입 제작, 실제 모델 제작 등 온·오프라인을 넘나드는 활용이 가능하다. 원더 3D는 제작팀이 짧은 시간 안에 더 많은 콘텐츠를 제공해야 하는 압박 속에서 제작 공정을 간소화하고 새로운 창의적 가능성을 열어준다. 전문 스튜디오는 캐릭터와 소품의 프로토타입을 빠르게 제작할 수 있고, 버추얼 프로덕션 및 XR 팀은 사용 가능한 3D 모델로 장면을 신속하게 채울 수 있다. 인디 개발자나 취미 활동가들도 대규모 팀 없이 고품질 3D 자산을 구축할 수 있으며, 마케팅 팀은 캠페인이나 클라이언트 시연을 위한 3D 모델을 유연하게 제작할 수 있다. 생성형 AI와 편집 가능한 워크플로를 결합한 원더 3D는 제어력과 품질을 유지하면서 제작 속도를 높인다. 오토데스크는 이를 통해 오토데스크 플로 스튜디오가 3D 제작을 위한 접근성 높은 입문점이자 디지털과 물리적 워크플로를 아우르는 강력한 프로토타이핑 도구가 될 것으로 기대하고 있다. 오토데스크의 자회사인 원더 다이내믹스의 공동 설립자 니콜라 토도로비치(Nikola Todorovic)는 “3D 자산 제작은 전통적으로 많은 수작업이 필요한 어려운 과정이었다”면서, “원더 3D는 이러한 고충을 해결하고 모든 숙련도의 크리에이터가 제작 속도를 늦추지 않고도 신속하게 3D 자산을 생성하고 반복 작업할 수 있도록 돕기 위해 개발했다”고 밝혔다.
작성일 : 2026-04-03
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
[칼럼] 나의 바이브 코딩 도전기
트렌드에서 얻은 것 No. 29   “진짜 창작자는 결국 결과물을 세상에 내놓는다.” – 스티브 잡스 AI가 소프트웨어 개발의 문턱을 낮추고 있다는 말은 이제 낯설지 않다. 누구나 아이디어만 있으면 앱 하나쯤 만들 수 있을 것처럼 말하는 분위기도 강하다. 그러나 현장에서 체감하는 현실은 훨씬 복합적이다. 누군가는 “이제 비개발자도 충분히 만들 수 있다”고 말하고, 또 누군가는 “기업 시스템은 그렇게 단순하지 않다”고 말한다. 두 말 모두 맞다. 문제는 이 둘의 경계를 구분하지 않은 채 바이브 코딩(vibe coding)을 마치 모든 개발 문제를 한 번에 해결해줄 만능 해법처럼 받아들이는 데 있다. 필자가 최근 직접 경험한 바이브 코딩은 기대보다 흥미로웠고, 동시에 예상보다 훨씬 현실적이었다. 결론부터 말하면 바이브 코딩은 분명 강력하다. 다만 그 힘은 모든 영역에서 같은 방식으로 작동하지 않는다. 비개발자에게 바이브 코딩은 ‘개발의 대체재’라기보다 ‘제작의 첫 진입로’에 가깝고, 개발자에게는 생산성과 속도를 높여주는 가속 장치에 가깝다. 같은 용어를 쓰더라도 출발점도 다르고, 활용 방식도 다르며, 기대해야 할 결과도 다르다. 스티브 잡스는 “단순함은 복잡함보다 더 어렵다”고 말했다. 바이브 코딩이 바로 그렇다. 겉으로 보기에는 말 몇 줄로 프로그램을 만드는 간단한 방식처럼 보이지만, 실제로는 무엇을 만들고 싶은지 더 선명하게 설명해야 하고, 문제를 더 세밀하게 구조화해야 하며, 결과를 더 집요하게 검토해야 한다. 개발 문법의 부담은 다소 줄어들 수 있지만, 사고의 부담까지 사라지는 것은 아니다. 오히려 생각을 더 명료하게 만드는 훈련이 필요하다. 비개발자의 바이브 코딩은 결국 문제를 언어로 구조화하는 데서 시작된다. 무엇이 불편한지, 어떤 흐름이 필요한지, 어떤 화면이 있어야 하는지, 어떤 데이터를 어디서 가져와야 하는지, 결과를 어떤 방식으로 보여줘야 하는지를 AI에게 설명하고, 그 결과물을 계속 수정하고 다듬는 방식이다. 이때 중요한 것은 프로그래밍 문법을 얼마나 많이 아느냐보다 문제를 얼마나 또렷하게 정의할 수 있느냐다. 반면 개발자의 바이브 코딩은 결이 다르다. 개발자는 AI를 이용해 아키텍처 초안을 잡고, 반복 코드를 줄이고, 오류를 빠르게 디버깅하고, 리팩토링을 효율화하며, 배포 속도를 높인다. 비개발자가 바이브 코딩을 통해 ‘처음 만들어 보는 사람’이 된다면, 개발자는 ‘더 빠르고 더 많이 만드는 사람’이 된다. 이 차이를 구분하지 않으면 바이브 코딩에 대한 기대도 쉽게 과장되고, 반대로 불필요한 실망도 생긴다. 이번에 필자가 시도한 작업은 몇 가지 방향으로 나뉘어 전개되었다. 투자와 자산을 구조화해보는 도구, 여행과 탐험을 시각적으로 정리하는 도구, 그리고 개념을 더 직관적으로 연결해보는 실험 등이 그 예다. 접근 방식도 조금씩 달랐다. 어떤 것은 빠른 프로토타이핑 도구로 시험했고, 어떤 것은 웹 기반 구조를 상상했으며, 어떤 것은 생성형 AI를 결합해 해석 기능을 더해보았다. 중요한 것은 특정 기술 이름이 아니었다. 문제의 성격에 따라 도구 조합이 달라졌다는 점, 그리고 그 조합을 통해 ‘작동하는 형태’를 빠르게 확인할 수 있었다는 점이 핵심이었다. 그중에서도 가장 손에 잡히는 성과를 보여준 것은 투자 관리용 실험 도구였다. 한국 시장과 미국 시장에 동시에 투자하는 개인을 염두에 두고, 자산을 한 화면에서 함께 보고, 환율을 반영한 체감 손익을 계산하고, 단순 수익률이 아니라 수수료와 환차까지 고려한 실제 순수익에 가깝게 접근해보는 방식이었다. 여기에 종목의 가치, 품질, 위험도를 함께 보려는 시도와, 매매 기록을 정리하는 자동화 기능까지 더해보았다. 한마디로 말하면, 개인 투자자가 늘 엑셀과 계산기와 감으로 처리하던 일을 하나의 흐름 안에서 정리해보려는 실험이었다. 이런 시도는 바이브 코딩의 장점을 잘 보여준다. 현장의 불편을 가장 잘 아는 사람이 그 문제를 가장 먼저 작동하는 도구로 바꿔볼 수 있다는 점이다. 특히 개인 투자 영역에서는 불편이 명확하다. 원화 자산과 달러 자산이 분리돼 보이기 때문에 전체 자산 배분을 한눈에 파악하기 어렵고, 과거 환율이나 거래 수수료를 반영한 실제 수익 계산은 늘 번거롭다. 단일 지표만 보고 투자하면 가치 함정에 빠질 수 있고, 매매 기록을 체계적으로 남기지 않으면 판단의 맥락도 쉽게 흐려진다. 바이브 코딩은 바로 이런 불편을 작은 단위로 쪼개어 도구로 만들어보는 데 강점을 보인다.   ▲ 클릭하면 큰 이미지로 볼 수 있습니다.   피터 드러커의 말처럼 “측정할 수 있어야 관리할 수 있다.” 투자든 업무든 결국 비슷하다. 막연히 ‘잘하고 있다’고 느끼는 동안에는 개선도 어렵다. 숫자가 보여야 하고, 흐름이 보여야 하며, 내 행동의 결과가 구조적으로 드러나야 한다. 바이브 코딩은 이 지점에서 의외로 힘을 발휘한다. 정교한 상용 시스템 수준은 아니더라도, 내가 무엇을 보고 싶은지 정확히 정의할 수만 있다면 적어도 첫 번째 가시화 도구는 만들어볼 수 있다. 그 순간 막연한 감각은 데이터가 되고, 데이터는 다시 판단의 기준이 된다. 특히 인상적이었던 것은 ‘정답 제시’보다 ‘판단 보조’에 초점을 맞춘 설계였다. 단순히 싸 보이는 종목을 찾는 것이 아니라 가치와 퀄리티, 리스크를 함께 고려하는 구조를 상상하고, 이동평균선이나 거래량 변화 같은 기술적 신호를 함께 보는 식이다. AI는 여기서 결정을 대신 내려주는 존재가 아니라, 사람이 놓치기 쉬운 신호를 먼저 정리해주는 조수 역할을 맡는다. 이런 경험을 통해 느낀 것은, 바이브 코딩의 진짜 효용이 거창한 인공지능 자체에 있는 것이 아니라 사용자의 판단 포인트를 더 선명하게 드러내는 데 있다는 점이었다. 그러나 여기서 반드시 짚고 넘어가야 할 현실이 있다. 이런 경험이 곧바로 기업용 핵심 시스템 개발로 이어질 것이라고 생각해서는 안 된다. PLM, ERP, MES, APS 같은 글로벌 설루션 기반의 엔터프라이즈 환경은 개인 실험과는 전혀 다른 차원의 세계다. 데이터 모델은 정교하고, 권한 체계는 복잡하며, 인터페이스는 수많은 예외를 품고 있고, 변경 이력과 검증 절차, 보안과 운영 책임까지 촘촘하게 연결되어 있다. 자연어 몇 줄과 AI의 코드 제안만으로 안전하게 다룰 수 있는 구조가 아니다. 바로 이 지점에서 비개발자의 바이브 코딩과 개발자의 바이브 코딩은 다시 갈라진다. 비개발자는 문제를 빠르게 형태화하고 아이디어를 프로토타입으로 검증하는 데 강점을 가질 수 있다. 반면 개발자는 그 프로토타입을 기존 시스템 환경과 연결하고, 예외 처리와 안정성, 보안과 운영성을 검증하는 역할까지 감당할 수 있다. 따라서 바이브 코딩은 모든 사람을 동일한 수준의 개발자로 만들어주는 기술이라기보다, 각자의 위치에서 ‘만들어보는 속도’를 높여주는 기술에 가깝다. 이런 환경에서는 바이브 코딩이 할 수 있는 역할이 자연스럽게 제한된다. 핵심 업무 로직을 직접 대체하기보다는 화면 프로토타입, 보조 대시보드, 분석용 유틸리티, 개인용 자동화 도구, 테스트용 샌드박스, 보고용 시뮬레이터처럼 본체 주변의 영역에 더 적합하다. 다시 말해, 바이브 코딩은 글로벌 설루션의 중심부를 재구축하는 기술이라기보다, 그 주변부의 불편을 빠르게 줄여보는 실험 도구에 가깝다. 하지만 그렇다고 해서 그 의미를 과소평가할 필요는 없다. 오히려 반대다. 필자는 바로 그 제한성 때문에 바이브 코딩이 더 현실적이라고 본다. 실제 업무에서는 거대한 혁신보다 작지만 반복되는 불편이 훨씬 많다. 예를 들어 품질 이슈를 정리하는 간단한 대시보드, 협력사 대응용 정리 화면, 설계 변경 영향 체크리스트, 일정 가시화 도구, 개인용 원가 계산기, 회의록 자동 정리 보조 도구처럼 ‘정식 시스템으로 만들기엔 작지만 그대로 두기엔 계속 불편한 것들’이 현장에는 늘 존재한다. 바이브 코딩은 바로 그 틈새를 파고든다. 스티브 잡스의 말, “진짜 창작자는 결국 결과물을 세상에 내놓는다”는 문장은 이 맥락에서 유난히 실감난다. 바이브 코딩의 장점은 완벽한 시스템을 만들게 해준다는 데 있지 않다. 머릿속에만 있던 아이디어를 실제로 한번 작동해보게 만든다는 데 있다. 비개발자에게 이 경험은 특히 중요하다. 그전까지는 ‘좋은 아이디어’와 ‘실제로 작동하는 결과물’ 사이에 너무 큰 간극이 있었기 때문이다. 이제는 그 사이를 AI가 어느 정도 메워준다. 물론 완성도 높은 상용 시스템을 만들기 위해서는 여전히 전문 개발과 검증이 필요하다. 그러나 첫 번째 프로토타입을 만드는 데까지는 이전보다 훨씬 빠르게 갈 수 있다. 필자는 이 점에서 바이브 코딩의 현재 위치를 ‘개인의 실험실’에 가깝다고 본다. 지금의 바이브 코딩은 거대한 엔터프라이즈 시스템을 통째로 만드는 기술이라기보다, 순수한 개인 또는 소규모 팀이 자기 문제를 해결하기 위해 무언가를 직접 만들어보는 수준에서 가장 잘 작동한다. 그렇다고 그 수준이 가볍다는 뜻은 아니다. 바로 그 개인 실험의 축적이 조직의 디지털 감각을 바꾸고, 현장의 언어를 더 구조화하며, 나중에는 더 정교한 시스템 구축을 위한 문제 정의력으로 이어질 수 있기 때문이다. 특히 제조 기업의 실무자와 리더에게 이 흐름은 시사점이 크다. 설계, 생산, 품질, 구매, 자산 관리, 프로젝트 관리 영역에는 늘 현장만이 아는 불편이 있다. 외부 설루션은 그 불편을 모두 담아내지 못하고, 내부 IT는 모든 요청을 즉시 반영하기 어렵다. 이때 바이브 코딩은 완성형 설루션의 경쟁자가 아니라, 아이디어를 빠르게 시험해보는 사전 실험장 역할을 할 수 있다. 사용자는 먼저 문제를 언어로 정리하고, 필요한 데이터 흐름을 구조화하고, AI를 이용해 작은 도구를 만들어본다. 그렇게 만들어진 결과는 때로는 개인용 유틸리티에서 끝날 수도 있고, 때로는 정식 프로젝트의 출발점이 될 수도 있다. 중국 고전에서 유래한 말처럼 “천 리 길도 한 걸음부터다.” 바이브 코딩은 거창한 완성의 기술이 아니라, 작지만 구체적인 첫걸음을 가능하게 하는 방식이다. 비개발자는 그것을 통해 문제를 구조화하는 감각을 익히고, 개발자는 그것을 통해 더 빠르게 실험하고 구현한다. 그리고 기업은 그 사이에서 정식 시스템 이전의 가능성을 시험해볼 수 있다. 필자는 바이브 코딩을 지나치게 낙관적으로 보지도 않고, 반대로 일시적 유행으로만 보지도 않는다. 그것은 지금 당장 모든 것을 바꿔놓을 혁명은 아닐 수 있다. 그러나 적어도 한 가지는 분명하다. 이제 현장을 가장 잘 아는 사람이, 자신이 겪는 불편을 직접 작동하는 형태로 바꿔볼 수 있는 시대가 열리고 있다는 점이다. 그 가능성은 생각보다 크고 그 시작은 생각보다 작다. 그래서 지금 바이브 코딩은 거대한 답이라기보다 한 번 진지하게 시도해볼 만한 좋은 질문에 가깝다.   ■ 류용효 디원의 상무이며 페이스북 그룹 ‘컨셉맵연구소’의 리더로 활동하고 있다. 현업의 관점으로 컨설팅, 디자인 싱킹으로 기업 프로세스를 정리하는데 도움을 주며, 1장의 빅 사이즈로 콘셉트 맵을 만드는데 관심이 많다. (블로그)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-04-02
시높시스, AI·공동 워크플로 탑재한 ‘앤시스 2026 R1’ 출시로 엔지니어링 혁신 가속
시높시스가 앤시스 인수 이후 양사의 공학 역량을 결합한 첫 번째 통합 설루션인 ‘앤시스 2026 R1’을 출시했다. 이번 신제품은 분리되어 있던 엔지니어링 프로세스를 하나로 연결하고 생성형 AI와 에이전틱 엔지니어링 기능을 도입해 제품 개발의 효율을 높인 것이 특징이다. 앤시스 2026 R1은 시뮬레이션 AI 포트폴리오를 확장하여 학습 효율을 높이고 고급 AI 기능을 강화했다. 이를 통해 엔지니어링 팀은 초기 개발 단계에서 시스템 수준의 인사이트를 확보하고 물리 시험 의존도를 줄일 수 있다. 시높시스는 이번 설루션이 소프트웨어 중심 제품이 고도화되는 환경에서 성능 최적화를 보다 효율적으로 추진하도록 지원한다고 밝혔다. 이번 업데이트에서는 시높시스와 앤시스의 주요 기술이 연동된 다양한 공동 설루션이 공개됐다. ▲시높시스 VC 펑셔널 세이프티 매니저(VC FSM)과 앤시스 메디니 애널라이즈(Ansys medini analyze)를 연결해 시스템부터 칩까지의 안전 분석 추적성을 자동화하는 기능 안전 워크플로가 제공된다. ▲시높시스 퀀텀ATK(Synopsys QuantumATK)와 앤시스 그란타 MI 플랫폼(Ansys Granta MI)이 통합되어 원자 스케일부터 제조 공정까지 일관된 소재 레코드를 구축하도록 돕는다. ▲시높시스 옵토컴파일러(Synopsys OptoCompiler)와 앤시스 루메리컬 FDTD(Ansys Lumerical FDTD)를 연결해 디바이스 설계와 시스템 광학 시뮬레이션 간 데이터 변환을 줄이는 워크플로도 포함됐다. ▲모델 기반 소프트웨어 개발 설루션인 앤시스 스케이드(Ansys SCADE)와 시높시스의 제어 소프트웨어 테스트 자동화 설루션 TPT를 결합해 ADAS 및 전동화 파워트레인 등 미션 크리티컬 시스템의 검증을 가속한다. 앤시스 2026 R1은 포트폴리오 최초로 에이전틱 기능을 도입하여 복잡한 워크플로의 자동화를 강화했다. 생성형 AI 기반의 ‘앤시스 지옴AI(Ansys GeomAI)’ 플랫폼은 지오메트리 콘셉트를 빠르게 생성하고 평가하여 초기 혁신을 돕는다. 또한 ‘메시 에이전트’는 모델 전처리 과정의 실패 원인을 진단하여 엔지니어를 안내하며 ‘디스커버리 검증 에이전트’는 설정 이슈를 선제적으로 식별해 비용이 큰 실수를 방지하도록 지원한다. 확장된 디지털 트윈 혁신은 물리적 프로토타입 제작 전 단계에서 깊은 인사이트를 제공한다. ‘앤시스 트윈AI(Ansys TwinAI)’는 시뮬레이션 데이터와 센서 정보를 정교하게 맞추는 퓨전 모델링 방식과 리얼타임 디지털 트윈 구현을 가속하는 ROM 위저드를 도입했다. 아울러 ‘앤시스 AV엑셀러레이트 센서(Ansys AVxcelerate Sensors)’는 엔비디아 옴니버스와의 통합 확대를 통해 물리적으로 정확한 카메라 동작과 에지 케이스 재현성을 제공한다. 시높시스의 라비 수브라마니안 최고 제품 관리 책임자는 “시높시스와 앤시스 기술의 결합으로 소재, 물리, 전자, 소프트웨어를 유기적으로 연결하는 통합 기반을 구축했다”라고 밝혔다. 또한 “사용자가 설계 환경 전반을 매끄럽게 관리하고 확신을 갖고 혁신을 만들 수 있도록 지원할 것”이라고 덧붙였다.
작성일 : 2026-03-12
HP Z북 울트라 G1a 리뷰 : AI 엔지니어가 살펴본 모바일 워크스테이션의 새로운 기준
HP Z북 울트라 G1a는 고성능 AI 작업과 3D 제작을 동시에 염두에 둔 14인치 모바일 워크스테이션이다. 이 글에서는 필자가 실제로 자주 사용하는 AI 리서처와 3D 제작 작업 시나리오를 바탕으로, 기존에 사용해 온 게이밍 노트북과 비교하면서 HP Z북 울트라 G1a의 장단점을 조명해보고자 한다.   HP Z북 울트라 G1a(ZBook Ultra G1a)는 프로세서 성능과 메모리 용량에 명확하게 집중한 구성을 취함으로써, 기존의 노트북 선택 방법과는 다른 노선을 제시한다. 일반적으로 노트북을 선택할 때 대부분의 사용자는 성능, 휴대성, 가격, 배터리 지속 시간, 확장성 등 여러 요소를 종합적으로 고려한다. 그러나 특정 작업 환경에서는 이러한 균형 중심의 접근이 오히려 비효율로 작용하기도 한다. 대용량 데이터 전처리, 로컬 AI 추론, 3D 콘텐츠 제작과 같이 CPU와 메모리 자원 의존도가 높은 워크로드에서는, 그래픽 성능이나 휴대성보다 연산 자원과 메모리 용량이 작업 효율을 결정짓는 핵심 요소가 되기 때문이다. HP Z북 울트라 G1a는 바로 이러한 관점에서 색다른 접근법을 채택한 기기라고 볼 수 있다. AMD의 라이젠 AI 맥스+ 프로 395(Ryzen AI Max+ PRO 395) 프로세서를 탑재해 128GB에 달하는 대용량 메모리를 제공하는 반면, 그래픽 카드는 외장 GPU가 아닌 내장 그래픽으로 구성된 14인치 노트북이다. 이처럼 극명하게 갈린 사양 구성은 과연 AI 개발과 3D 콘텐츠 제작이라는 두 가지 작업을 모두 감당할 수 있는 선택지일까?   제품 개요 워크스테이션은 일반적으로 크고 무거운 데스크톱 형태로, ‘들고 다니는 기기’와는 거리가 멀다는 인식이 강하다. 그러나 HP Z북 울트라 G1a는 이러한 고정관념을 벗어나, 14인치 폼팩터 안에 워크스테이션급 성능을 담아냈다. 앞서 언급했듯 이 제품은 AMD 라이젠 AI 맥스+ 프로 395 프로세서와 라데온 8060S(Radeon 8060S) 그래픽을 기반으로 설계되었으며, 최대 128GB LPDDR5x 메모리와 대용량 NVMe SSD를 탑재했다. 정량적인 하드웨어 스펙상 무게는 약 1.57~1.59kg으로, 여타 게이밍 노트북과 비교해도 크게 무겁지 않은 수준이다. 실제로 가방에 넣어 휴대했을 때도 다른 노트북에 비해 체감 무게가 과하게 느껴지지는 않았다. 기기 양쪽에는 USB-C 타입 포트 2개(충전 포트 포함)를 비롯해 HDMI, USB-A 타입 단자, 3.5mm 이어폰 단자가 배치되어 있어, 워크스테이션으로서 요구되는 기본적인 확장성도 충분히 갖추고 있다.   디자인 본격적인 사용기에 앞서 디자인을 살펴보자. 보기 좋은 떡이 먹기도 좋다는 말도 있듯이, 매일 사용하는 기기는 사용자의 마음에 들 정도로는 아름다워야 한다. HP Z북 울트라 G1a의 디자인은 간결하고 군더더기 없었다. 특히, 전반적인 제품의 마감 품질이 높다는 것이 느껴졌다. 처음 노트북이 닫힌 상태에서 보았을 때는 매끄럽고 둥근 디자인의 겉모습이 단정하다는 느낌이 들고, 화면을 열어 전원을 켰을 때에는 베젤이 얇고 깔끔하여 프로페셔널하다는 인상을 준다. 디자인에서 가장 좋았던 점은 키보드이다. 처음에는 짙은 회색의 평범한 플라스틱 소재로 느껴졌지만, 사용하다 보니 키보드의 키감이 좋을 뿐만 아니라 이물질이 잘 묻지 않는 코팅으로 되어 있어 사용 시 편리했다. 외부 작업 중 노트북을 열었을 때, 손때 묻은 키보드를 다른 사람에게 드러내는 것이 걱정인 사람이라면 이 노트북의 키보드 마감이 더욱 마음에 들 것이라 생각한다. 또한 카메라에는 오픈·클로즈 방식의 물리적 커버가 적용되어, 노트북 내장 웹캠을 사용하지 않을 때는 완전히 가릴 수 있다. 사소해 보일 수 있지만, 사용자를 고려한 세심한 설계라는 점에서 인상 깊은 부분이었다.   그림 1. 노트북 전면. 디자인이 깔끔하고 단정하여 외부 미팅에도 무난하게 사용할 수 있었다.   AI 및 데이터 전처리 워크로드 이제 AI 엔지니어의 관점에서 이 제품을 살펴보자. AI 제품 개발 과정에서 절실하게 체감하는 주요 요소 중 하나는 CPU 메모리의 여유이다. 모델 학습은 클라우드 GPU나 서버 자원을 활용하는 경우가 많아졌지만, 탐색적 데이터 분석, 실험을 위한 데이터 전처리는 대부분 로컬 환경에서 수행해야 하기 때문이다. 따라서 CPU 성능과 GPU 성능 둘 중 하나를 선택해야 한다면, 많은 사람들의 예상과 달리 GPU보다는 CPU를 선택하는 것이 합리적이다. CPU 메모리가 여유가 있다면 데이터셋을 실험 가능한 요건에 맞춰 수정 및 조정하는 것이 조금 더 편리해질 뿐만 아니라, 데이터셋 전처리와 동시에 다른 작업이 가능하기 때문이다. HP Z북 울트라 G1a의 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 대용량 데이터 전처리와 모델 로딩 과정에서 매우 안정적인 모습을 보였다. 텍스트·이미지 데이터 전처리 작업에서 메모리 부족 현상은 거의 발생하지 않았으며, 기존에 사용하던 게이밍 노트북(32GB RAM, RTX 4060 기준) 대비 체감상 약 절반 수준의 시간으로 작업을 마칠 수 있었다. 이는 대규모 로컬 데이터셋을 다루는 리서처에게 매우 중요한 요소다. AI 허브나 대학·연구기관에서 제공하는 공공 데이터셋의 경우 단일 데이터셋만으로도 수백 GB를 훌쩍 넘기는 경우가 많고, 이를 포맷에 맞게 전처리하는 데 상당한 시간이 소요되기 때문이다. HP Z북 울트라 G1a는 메모리의 양이 크기 때문에, 작업 중간 중간에 메모리 부족으로 인해 컴퓨터가 멈추거나 작업 수행 완료를 위해 컴퓨터를 손 놓고 기다리는 일 없이 여유롭게 전처리를 수행할 수 있었다. 몇 가지 사례를 들어보면, 첫째 <그림 2>와 같이 데이터의 압축 해제, 복사와 같은 간단한 작업에서 매우 빠른 처리 속도를 보여주었다. 데이터 전처리 성능을 실험하기 위해 활용한 ‘음식 분류’ 데이터셋의 경우, 각 클래스마다 1천 개의 고화질 사진이 저장되어 있어 전체 용량이 1TB에 육박하는 매우 큰 데이터셋이다. 그러나 HP Z북 울트라 G1a에서는 30GB 용량의 데이터를 압축 해제하는 데 8분밖에 소요되지 않았고, 일관적으로 140MB/s 전후의 속도를 유지하였다. 이는 HP Z북 울트라 G1a의 메모리 대역폭 확대, 멀티채널 구성 안정성 증가가 큰 영향을 미쳤기 때문으로 생각할 수 있다. 일반적인 환경에서는 압축 해제 단계에서 CPU 처리 속도가 병목으로 작용하여, 저장장치가 충분한 성능을 갖추고 있음에도 불구하고 연속적인 읽기·쓰기 작업이 지연되는 현상이 발생하기도 한다.   그림 2. 대용량 데이터의 전처리에도 빠른 속도를 유지하였고, 프로그램 운용에 여유가 있었다.   반면, HP Z북 울트라 G1a에서는 향상된 프로세서 구조와 메모리 서브시스템을 통해 병목이 제거되었으며, 그 결과 압축 해제와 동시에 디스크 I/O가 지속적으로 최대 대역폭에 가깝게 활용될 수 있었다. 이로 인해 사용자 관점에서는 압축 해제뿐 아니라 파일 복사 속도까지 향상된 것처럼 느껴져 직접적으로 작업 효율 향상이 체감되었다. 기존의 게이밍 노트북이 동일한 작업을 수행하는데 평균 60MB/s의 속도로 약 12분 정도가 소요된 것을 고려하면, 이 작업이 전체 데이터셋에 적용될 때 얼마만큼의 작업 시간을 아낄 수 있을 지 기대해 볼 만하다. 둘째, 파이썬 코드를 활용한 데이터 전처리에서도 높은 성능 개선을 보여주었다. CSV 파일을 활용하여 3D 복셀 데이터를 만드는 작업을 수행하는 코드를 기준으로 실험해보았다. 이는 앞에서와 동일하게 CPU·메모리에 집중된 작업을 할 때의 효율을 검사하기 위한 실험으로, 동일한 SVC 파일을 대상으로 데이터의 시각화를 수행하였을 때를 비교한 것이다. 결과적으로, HP Z북 울트라 G1a는 평균적으로 75FPS(초당 프레임)를 유지하였고, 시각화된 데이터를 360도 회전시켜 확인하는 데에 큰 문제가 없었다. 반면, 기준이 된 다른 기기는 평균 42FPS를 유지하고, 시각화된 데이터를 360도로 회전시켜 확인하는 데 약간의 로딩이 필요했다. 특히, 시각화 결과물을 회전하는 과정에서 약간의 버벅임과 끊김이 발생하여 데이터를 세부적으로 확인할 때 약간의 어려움이 따랐다. 기준 기기 또한 일반적인 사무용 노트북을 기준으로 보았을 때보다는 훨씬 빠르고 원활한 데이터 전처리 성능을 보여주었으나, HP Z북 울트라 G1a는 전처리뿐 아니라 시각화 데이터 인터랙션에서도 안정적으로 동작함으로써 실시간에 가까운 시각화 환경을 제공했다는 점에서 차별화된 사용 경험을 제공하였다.   그림 3. 3D 복셀화에 소요된 시간과 프레임률을 tqdm으로 측정한 결과. 동일한 작업을 수행하는 데 HP Z북 울트라는 75FPS, 기준 기기(HX370 CPU, 32RAM)는 42FPS의 성능을 보여주었다.   로컬 AI 추론 로컬 AI 추론 작업에서도 HP Z북 울트라 G1a는 충분히 인상적인 성능을 보여주었다. 로컬 AI 세팅에는 올라마(Ollama)를 사용하였다. 올라마는 다양한 오픈소스 LLM을 간편히 사용할 수 있게 하는 프로그램으로 윈도우, 맥, 리눅스 등 다양한 환경을 지원하며 CLI 및 GUI 환경을 모두 지원하여 확장성이 좋다. 또한, 로컬에서 REST API 형태로 모델을 노출할 수 있어 파이썬(Python), 노드.js(Node.js), 자바(JAVA(Spring)), 랭체인(LangChain) 등과 연동이 용이하며, 프로토타입 서비스 제작 및 온디바이스 AI, 사내 전용 LLM 구축을 위해 다양하게 쓰인다. 필자는 윈도우에서 GUI 기반의 올라마 클라이언트를 설치하여 로컬 AI 추론을 수행하였으며, 엔비디아 그래픽 카드 드라이버(CUDA 포함)를 설치하지 않고 올라마를 구동하였다. 이 지점에서 HP Z북 울트라 G1a의 프로세서의 특장점이 드러난다. 바로 SoC(System on a Chip) 설계를 통해 프로세서 자체에서 CPU·GPU·NPU를 통합하여 활용한다는 것이다. 따라서 이 워크스테이션을 사용하는 사람은 일반적으로 말하는 CPU-Only와 같이 GPU 드라이버를 따로 설치하지 않더라도, AI 추론 및 훈련을 수행할 때 GPU·NPU를 사용하는 것과 같은 효과를 체감할 수 있다.   그림 4. 올라마의 공식 홈페이지. 윈도우, 맥, 리눅스 등 다양한 OS를 지원하며 오픈소스로 활용 가능한 LLM 모델의 가중치를 제공하여 로컬 추론을 가능하게 하는 프로그램이다.   올라마를 활용해 중·대형 언어 모델(gpt-oss:120B)과 소형 언어 모델(qwen3:8B)을 각각 다운로드한 뒤, 동일한 조건에서 추론 시간을 비교해 보았다. 결과는 예상 이상이었다. 중·대형 언어 모델의 추론에는 (약간의 쿨링 소음이 발생하였지만) 약 10초가 소요되었고, 소형 언어 모델 역시 약 13초 내외로 추론을 마쳤다. 비교 대상으로 사용한 다른 노트북에서는 중·대형 모델이 추론 도중 오류를 일으켰고, 소형 모델조차 358초가 걸렸던 점을 감안하면 상당한 차이다. ‘메모리 용량 차이가 얼마나 크겠어’라고 생각한 필자의 판단을 무색하게 만들 정도로, 128GB 메모리와 라이젠 AI 맥스+ 프로 395의 조합은 로컬 AI 추론 환경에서 분명한 강점으로 작용했다. 이러한 특성은 AI 개발자에게만 국한된 장점은 아니다. 성능이 검증된 오픈소스 언어 모델을 노트북에 직접 탑재해 휴대할 수 있다는 것은, 인터넷 연결이 원활하지 않은 환경에서도 개인화된 AI 비서를 여러 개 운용하며 작업을 이어갈 수 있음을 의미한다. 로컬 환경에서의 AI 활용 가능성을 실질적인 수준으로 끌어올렸다는 점에서, HP Z북 울트라 G1a의 방향성과 장점이 명확히 드러나는 지점이었다.   그림 5. qwen3:8b로 로컬 추론을 수행한 결과   그림 6. gpt-oss:120b로 로컬 추론을 수행한 결과   3D 작업 워크플로 다음은 3D 작업 워크플로로 넘어가 보자. 필자가 주로 사용하는 캐릭터 크리에이터(Character Creator), 지브러시(Zbrush) 등을 통하여 내장 그래픽만을 가지고 있음에도 ‘충분히 작업이 가능한가?’라는 요소를 살펴보고, 다음으로는 고화질을 요구하는 3D 게임을 실행시켜 성능을 테스트해 보았다. 먼저, 리얼루션(Reallusion)의 캐릭터 크리에이터 5 소프트웨어를 설치하여 작업 가능 여부를 확인해 보았다. 이 소프트웨어는 사실적 묘사를 담은 메타 휴먼을 만들기 위한 소프트웨어이다. 얼굴, 체형, 옷 및 장신구 같은 다양한 요소를 조합하는 자유도가 높고, 피부 결이나 머리카락 같은 요소까지 섬세하게 구현해야 하기 때문에 일반적인 게이밍 노트북에서도 원활한 작업이 어려운 소프트웨어 중 하나이다. 실제로, 필자가 보유한 게이밍 노트북 기기에서는 동일한 작업을 수행하며 컴퓨터가 다운되는 경우가 종종 있었고, 새로운 스킨으로 교체하거나 요소를 변형할 때 1 ~ 5분 정도의 로딩 타임을 요구했다.   그림 7. 캐릭터 크리에이터로 작업하는 모습   그러나, HP Z북 울트라 G1a에서는 로딩 시간이 1 ~ 3분 이하로 줄어드는 모습을 보여주었을 뿐만 아니라, 컴퓨터가 다운되는 경우도 발생하지 않아 상당히 쾌적하게 작업을 진행할 수 있었다. 물론 다루는 데이터의 크기 자체가 큰 만큼 약간의 로딩 시간은 피해갈 수 없었으나, 대부분 1분 이내의 로딩으로 작업이 완료되어 작업 완료를 기다리는 시간이 줄어들었다. 다음으로는 지브러시를 통해 추가 검증을 진행하였다. 지브러시의 경우 매끄러운 표면을 위해 의도적으로 폴리곤을 많이 나누면서 메모리 부하가 발생하는 경우가 많은데, <그림 8>과 같이 복잡한 인간형 모델링, 특히 상업적으로 판매 가능한 정도의 모델링을 테스트하였음에도 데이터의 로드 및 조형에 시간이 소요되지 않고 바로 진행할 수 있는 정도의 원활함을 보여주었다.   그림 8. 매끄러운 곡선으로 폴리곤의 수가 많아지더라도 원활히 처리하는 모습을 볼 수 있다.   마지막으로, 3D 게임을 통해 성능을 확인하였다. 대상이 된 게임은 ‘호그와트 레거시’로, 언리얼 엔진으로 만들어졌으며 비교적 실사화 스타일의 그래픽, 다양한 파티클 사용으로 고난도의 그래픽 컨트롤을 요구하는 게임이다. 게임에서는 플레이를 진행하며 기기의 사양을 자동으로 측정하여 적절한 그래픽 옵션을 정해주는데, 이 기기는 자동으로 중간 단계의 그래픽 옵션으로 세팅되는 것을 확인하였다.   그림 9. 기기 옵션을 자동으로 분석하여 적절한 수준의 그래픽 구현. 이 기기는 중간 옵션을 배정받았다.   물론 기존의 작업에 비해 3D 게임을 진행할 때는 기기의 쿨링팬 소음이 두드러지게 들리는 편이었다. 앞서 수행한 작업에서는 쿨링이 필요하지 않거나, 쿨링이 필요하더라도 비교적 짧고 조용하게 한 번의 ‘쏴아아’하는 소리가 들렸다면, 3D 게임을 실행 중일 때는 지속적인 쿨링 소음이 발생하였기 때문이다. 그러나, 여기에서도 HP Z북 울트라 G1a의 탁월한 점을 발견할 수 있었다. 그것은 바로 ‘소음이 발생하는 만큼 쿨링이 잘 되고 있다’는 점이다. 랩톱을 주로 사용하는 사용자는 공감하겠지만, 일부 랩톱의 경우 쿨링 소음이 큰데도 불구하고 쿨링이 제대로 되지 않아 기기 아래쪽의 키보드 부분이 상당히 뜨거워지는 경우가 잦다. 그러나 이 기기는 소음이 크더라도 쿨링이 확실히 진행되고 있었고, 피부에 장시간 접촉시킬 수 있을 정도의 발열만 있었다. 아울러, 게임 내의 실사화 그래픽은 모두 끊기는 부분 없이 자연스럽게 재생되었고, 게임 진행에 이상이 없이 원활히 진행되었다.   그림 10. 그림 내 실사화 시나리오 중 그래픽 재현성이 좋은 부분의 캡처. 왼쪽의 바다 물결 표현, 전면의 포그 표현 등이 끊기지 않고 자연스럽게 재생되었다.   맺음말 HP Z북 울트라 G1a는 AI 리서처와 3D 제작 작업을 병행하는 사용자에게 모바일 워크스테이션으로서 분명한 가치를 지닌 기기다. 이 제품의 구성은 모든 요소를 고르게 끌어올리기보다는, 프로세서와 메모리 성능에 명확하게 힘을 준 제품이다. 이에 사용 목적이 분명한 사용자에게 강점으로 작용한다. AI 전처리, 로컬 추론, 3D 제작 작업과 같이 CPU·메모리 의존도가 높은 워크로드에서는 이러한 설계 방향이 체감 성능으로 직결되기 때문이다. 그런 의미에서 HP Z북 울트라 G1a는 특히 다음과 같은 사용자에게 추천하고 싶다. 첫째, 대용량 데이터 전처리가 일상적인 AI 엔지니어, 둘째, 3D 콘텐츠 제작 과정에서 초안과 검증 단계의 결과물을 빠르게 만들어야 하는 사용자, 셋째, 이 모든 작업을 데스크톱이나 서버에 의존하지 않고 모바일 환경에서도 이어가야 하는 사용자다. HP Z북 울트라 G1a를 사용하는 사용자라면, 적어도 서버급 연산을 요구하는 극단적인 작업을 제외하고는 대부분의 실무 환경에서 성능으로 인한 제약을 체감할 일은 드물 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 박정은 AI 융합 분야 연구자이자 엔지니어로, 컴퓨터 비전, 게임 엔진, 머신러닝, 딥러닝 기반 실무를 수행하며 대용량 AI 데이터 전처리와 AI 실험 파이프라인을 설계·운용해왔다. 필적, 운동학, 감정 인식 중심의 AI 프로덕트 R&D를 수행하며, 모바일 워크스테이션 환경에서 CPU·GPU 자원을 밀도 있게 활용하는 실험 구조를 활용하였다. 산업 연계 교육 현장에서 연구와 실무를 연결하는 엔지니어이자 교육자로 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04
[케이스 스터디] 게임으로 이어진 ‘킬 빌’의 다음 이야기
언리얼 엔진을 통해 시네마틱 경험으로 탄생한 복수극   20여 년 전 쿠엔틴 타란티노(Quentin Tarantino)는 영화 ‘킬 빌(Kill Bill)’을 위해 구상한 한 신(scene)을 작성했지만, 그 장면은 끝내 스크린에 올리지 못한 채 팬들의 전설과 오래된 대본 속에만 남았다. 그 이야기는 ‘잊혀진 챕터 : 유키의 복수(The Lost Chapter : Yuki’s Revenge)’로 되살아나, 영화가 아닌 ‘포트나이트’에서 게임이라는 새로운 매개체를 통해 처음으로 세상에 공개되었다. ■ 자료 제공 : 에픽게임즈   ▲ 쿠엔틴 타란티노 감독과 에픽게임즈의 특별 협업 작품 ‘잊혀진 챕터 : 유키의 복수’ 한 장면 속 총을 든 주인공 베아트릭스 키도(우마 서먼)(출처 : 에픽게임즈)   에픽게임즈가 쿠엔틴 타란티노 감독에게 처음 제안을 보냈을 때, 타란티노 감독은 “(이 장면을 위해) 오랜 시간을 고민하며 적절한 시기가 올 때까지 기다리고 있었다”고 말했다. 그는 포트나이트가 “보다 더 시네마틱한 경험을 제공”할 수 있을 것 같았기 때문에, 유키의 복수를 위해 최적이라고 판단하고 협업을 진행했다. ‘잊혀진 챕터 : 유키의 복수’에서는 언리얼 엔진의 ‘버추얼 프로덕션 툴’을 활용해 타란티노 감독의 비전을 현실로 제작했다. 이를 통해 감독은 배우들에게 연기를 지시하고 포트나이트 속에서 실시간으로 연기를 확인할 수 있었다. 더 서드 플로어(The Third Floor)와 에픽게임즈는 메타휴먼 기술로 배우들의 모습을 정교하게 구현하고 실제 연기를 스타일라이즈드 애니메이션과 결합했다. 영화 제작자들은 언리얼 엔진의 메타휴먼 기술과 버추얼 프로덕션 툴을 활용해 유연하고 통합된 시스템에서 배우들이 즉각적으로 펼치는 라이브 액션을 경험할 수 있었다.   ▲ ‘더 로스트 챕터 : 유키의 복수’의 제작 비하인드 영상에 출연한 타란티노 감독(출처 : 에픽게임즈)   제작 팀은 4D 스캔을 기반으로 학습된 고퀄리티 ‘메타휴먼 페이셜 릭’을 사용해 포트나이트 스타일에 부합하는 섬세한 얼굴 표정과 감정을 구현했다. 그리고 메타휴먼 애니메이터를 웹캠과 스마트폰 등 표준 모노 카메라와 스테레오 HMC와 함께 사용해 현장에서 리얼타임 고퀄리티 애니메이션을 캡처했다. 헤드마운트 카메라를 사용해 배우들의 목소리와 얼굴 데이터를 동시에 캡처하고, 각 녹화 세션이 최종 애니메이션 제작 파이프라인에 바로 투입할 수 있었다. 에픽게임즈의 스콧 벤자 애니메이션 감독은 “언리얼 엔진의 실시간 캐릭터 렌더링 기능은 애니메이터뿐 아니라 배우들에게도 큰 도움이 된다”고 밝혔다. 배우들은 다양한 포즈를 시험해보고, 여러 표정을 즉석에서 시도하며 자신이 전달하려는 신체 표현이 화면에서 어떻게 읽히는지를 바로 확인할 수 있다. 이러한 과정을 통해 연기와 애니메이션 사이 간극을 좁히고, 퍼포먼스를 더 자연스럽고 설득력 있게 만든다는 것이다. 배우와 촬영 팀의 상호작용을 강화하기 위해 팀은 에어소프트 소품 총에 장착할 수 있는 프로토타입 하드웨어 부착물인 머즐리포트(MuzzleReport)를 개발했다. 이 장치는 발사 시점을 감지해 해당 이벤트를 언리얼 엔진으로 직접 전송한다. 이를 통해 팀은 가상 신에서 실시간으로 총구 화염, 탄흔 궤적, 탄착 지점을 확인할 수 있어, 배우에게 즉각적인 시각 및 촉각 피드백을 전달할 수 있었다. 유키 역의 배우 미유 이시다테 로버츠는 이번 촬영 방식에 대해 “내 몸의 움직임은 물론, 소품이 어떻게 사용되는지와 내가 세계관 안에서 어떻게 반응하는지까지 정확히 볼 수 있어 매우 새롭고 혁신적인 경험이었다”면서, “모든 촬영 장면이 내 앞에 바로 보였기 때문에 상상할 필요가 없었다”고 전했다.   ▲ ‘잊혀진 챕터 : 유키의 복수’에 출연한 유키가 차량 위에서 총을 겨누고 있다.(출처 : 에픽게임즈)   ▲ 촬영 현장에서 유키 역할로 분한 미유 이시다테 로버츠가 장비를 장착한 채 총을 겨누고 있다.(출처 : 에픽게임즈)   제작 과정에는 실시간 파괴도 포함되어, 촬영 중에 엔진에서 피직스 기반 파손과 충격 효과를 실시간으로 재생할 수 있었다. 이를 통해 샷 컴포지션을 더 정확하게 설정할 수 있었고, 배우들은 순간적으로 반응을 조정할 수 있었으며, 팀은 후반 작업이 아닌 촬영 중에 주요 파괴 장면을 다듬을 수 있었다. 에픽게임즈 관계자는 가상 프로덕션 환경에서 무기를 사용하는 장면의 중요성에 대해 “배우가 소품을 다루더라도 실제와 같은 반응을 느낄 수 있어야 하고, 동시에 단순히 연기하는 것이 아니라 무언가를 맞히고 있다는 감각을 체감하는 것이 중요하다”고 설명했다. 이를 위해 무기 끝 부분에 머즐리포트를 부착해 발사 순간을 감지하고, 그 데이터를 언리얼 엔진으로 실시간 전송했다고 밝혔다. 배우가 실제 무기를 쏘는 것처럼 몰입해 연기할 수 있었던 경험은 기존 가상 프로덕션 현장에서는 보기 드문 사례였다고 덧붙였다. 스턴트맨인 조 벨은 총구 관련 촬영 장면과 관련해 “현장에서 모두가 완전히 안전하다는 걸 알고 있는 소품 총을 사용하면서, 발사 후 반사적인 행동과 반응이 잘 보이도록 연출할 수 있었다”면서, “총을 쏘거나 차량이 무너지고 파편이 튀는 장면까지 실시간으로 화면을 확인하며 촬영할 수 있었다”고 설명했다. 에픽게임즈 관계자는 이번 프로젝트에서 언리얼 엔진이 수행한 역할에 대해 “작업을 최대한 빠르게 진행하기 위해 언리얼 엔진이 핵심이 될 것이라는 점은 처음부터 알고 있었다”고 말했다. 그는 이어 “과거에는 스토리보드나 기존 방식으로 여러 번의 반복 작업이 필요했던 카메라 구도와 화면 구성도, 현장에서는 실시간으로 조정할 수 있었다”면서, “이런 도구들이 모두 언리얼 엔진 사용자에게 열려 있다는 점에서, 우리는 전문가의 작업 방식을 일반 개인 사용자까지 확장되어 활용될 수 있으면서도 동일한 수준의 퀄리티를 제공하고 싶었다”고 덧붙였다. 잊혀진 챕터는 에픽게임즈의 리얼타임 툴이 영화와 인터랙티브 스토리텔링을 더욱 긴밀하게 연결하여 영화적 순간을 포트나이트에서 수백만 명이 함께 즐기는 공유 경험으로 전환할 수 있었음을 보여준다.   ▲ 베아트릭스 키도의 스턴트를 연기한 조 벨이 화면에 비친 자신의 모습을 화면으로 보며 연기를 조정하고 있다.(출처 : 에픽게임즈)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04