• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 카메라"에 대한 통합 검색 내용이 1,190개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[케이스 스터디] 시각화 워크플로로 구현하는 리얼타임 스토리텔링
영화의 복잡한 샷에서 빠른 반복 작업을 지원한 언리얼 엔진   1930년대 미시시피 델타를 배경으로 한 ‘씨너스 : 죄인들(Sinners)’은 인종 분리 및 차별을 명시적으로 인정하던 짐크로(Jim Crow)법 시대, 미국 남부의 고향으로 돌아온 쌍둥이 형제가 초자연적인 악과 마주하게 되는 이야기를 그린 공포 영화이다. 이 영화는 고도의 기술력이 필요한 시퀀스 촬영을 활용했다. 스티칭 기법을 사용해 IMAX(아이맥스)로 촬영한 장면들을 정교하게 이어 붙여 마치 한 호흡처럼 전개되는 음악 몽타주를 구성했으며, 시대 고증에 충실하면서도 영화적 완성도를 갖춘 대규모 기차 도착 장면도 구현해야 했다. 이 모든 작업을 빠듯한 제작 환경 속에서 진행하는 것은 쉽지 않았다. 이를 위해 팀은 언리얼 엔진을 중심으로 구축된 리얼타임 시각화 워크플로를 적극 활용했다. 언리얼 엔진을 단순한 프리비즈 툴 역할을 넘어서, 실제 촬영이 시작되기 훨씬 전부터 아이디어를 탐색하고 조율하며, 제작진의 방향을 맞출 수 있는 공동 창작 공간으로 역할을 수행했다. ■ 자료 제공 : 에픽게임즈     영화 제작 파이프라인의 재구성 일반적인 VFX 워크플로에서는 아티스트들이 파이프라인의 후반부에 합류하는 경우가 많아, 연출 방향이 대부분 확정된 뒤에야 샷 작업을 시작하게 된다. ‘씨너스 : 죄인들’이 아카데미상을 수상한 데에는 바라붐!(Baraboom) 의 마이클 랄라(Michael Ralla) VFX 슈퍼바이저와 에미상 수상자인 페페 발렌시아(Pepe Valencia) 시각화 슈퍼바이저가 큰 기여를 했다. ‘씨너스 : 죄인들’ 제작 팀에 참여한 마이클 랄라 VFX 슈퍼바이저는 이렇게 스토리와 동떨어진 상태에서 작업하게 되는 상황을 피하고자 했다. 그는 “컴포지터로 일하다 보면 보통 파이프라인의 마지막 단계에서 작업하게 된다. 원래의 연출 의도를 충분히 이해하지 못한 채, 다른 사람이 이미 만들어 놓은 작업을 마무리해야 한다”고 말했다.     언리얼 펠로우십을 통해 언리얼 엔진을 경험한 뒤, 랄라는 다른 접근 방식을 발견했다. 시각화를 실시간으로 이뤄내고, 영화 제작진과 긴밀하게 협업하며, 단순한 기술 구현을 넘어 스토리를 위해 활용하는 방식이었다. 이러한 생각은 페페 발렌시아 시각화 슈퍼바이저의 생각과도 일치했다. 발렌시아는 스토리텔러의 관점으로 시각화에 접근하고자 했기 때문이다. 랄라가 처음 연락했을 때, 발렌시아는 예산이나 일정에 대해 묻지 않고 대신 이렇게 물었다. ”대본을 읽어볼 수 있을까요?” 그 한마디가 전체 협업의 분위기를 결정지었다.   처음부터 맞춰진 공통의 방향성 ‘씨너스 : 죄인들’에서 가장 인상적인 장면 중 하나는 1930년대 미시시피의 주크 조인트를 배경으로 한 몽환적인 핵심 뮤지컬 시퀀스다. 이 장면에서는 마일스 케이튼이 연기한 새미의 블루스 공연을 계기로, 흑인 음악의 여러 시대가 뒤섞이며 시간의 경계를 넘나드는 순간이 펼쳐진다. 랄라는 “처음 대본을 읽었을 때, 가장 눈에 띈 독특한 장면은 ‘초현실적 몽타주’라고 하는 시퀀스였다. 새미가 무아지경에 빠진 듯 연주를 시작하면, 어느 순간 역사를 가로지르는 경험을 하게 된다”고 말했다. 이 초현실적 몽타주는 서아프리카의 드럼 연주부터 블루스, 펑크, 힙합까지 아우르며 마치 영혼을 불러내는 의식처럼 펼쳐진다.     그 장면은 대본을 읽는 순간 생생하게 눈앞에 그려졌지만, 각자가 머릿속에 떠올린 모습은 조금씩 달랐다. 대표적으로 랄라는 몽타주 속 인물을 반투명한 유령처럼 떠다니는 존재로 상상했다. 랄라는 “그 장면에 대해 다른 사람들과 이야기해 보니, 다들 ‘그게 무슨 뜻이죠?’라는 반응이었다”고 말하기도 했다. 팀 전체가 같은 그림을 공유하고 이 시퀀스가 품은 다양한 예술적 시도를 함께 탐색할 방법이 필요했다. 여기서 언리얼 엔진이 진가를 발휘했다. 언리얼 엔진은 누구나 이해할 수 있는 공통의 언어가 되어, 시퀀스를 함께 확인하고 바로 재생해볼 수 있게 해주었다. 발렌시아는 대본, 프로덕션 디자인 팀이 촬영한 평면도, 촬영 감독이 손으로 그린 카메라 경로, 그리고 여러 세대에 걸친 등장 인물 목록 등 몇 가지 자료만으로 언리얼 엔진에서 시퀀스 제작을 시작했다.   ▲ 언리얼 엔진 웹사이트 영상 캡처   이에 단 이틀 만에 첫 번째 시각화 버전이 완성되었다. 빠른 제작 속도는 각자의 해석을 두고 논쟁하는 대신, 모든 부서가 동일한 시퀀스를 함께 보면서 무엇이 잘 작동하고 무엇이 그렇지 않은지를 아직 수정이 가능한 시점에 논의할 수 있게 되었다. 추가 샷을 요청하는 편집 팀부터 릭 설치 공간과 배치를 계획하는 그립 팀까지 여러 부서에서 이 작업을 통해 각자의 문제를 해결할 수 있었다. ‘프리비즈’는 더 이상 단순한 하나의 결과가 아니었다. 랄라는 프리비즈가 “제작 전반에 걸쳐 활용하는 시각화”라고 설명했다.   빠른 문제 발견 언리얼 엔진을 활용한 기술적 시각화 덕분에 팀은 모든 계획을 실제 촬영과 동일한 조건에서 테스트하고, 잠재적 문제를 사전에 찾아낼 수 있었다. 초현실적 몽타주는 하나의 롱테이크처럼 느껴지도록 설계됐지만, 실제 촬영은 65mm IMAX 필름으로 진행되었다. 크고 무거운 카메라를 사용해야 했고, 필름 롤 길이에도 제한이 있었으며, 안무 및 동선 설계 역시 매우 복잡했다. 언리얼 엔진에서 시퀀스를 시각화함으로써 팀은 필름 길이상 촬영을 끊고 이어붙여야 할 스티치 지점을 미리 파악했다. 화면을 빠르게 돌려 전환하는 기법인 휩 팬 같은 전형적인 트릭에 기대지 않고 전환 방식을 설계했으며, 스테디캠 동선을 실제 물리적 제약에 맞춰 테스트할 수 있었다. 음악과 퍼포먼스 비트에 맞춰 타이밍을 맞춰보는 것도 가능했다. 촬영 현장에서 발견하기엔 너무 늦거나 해결하기엔 너무 어려웠을 문제를 언리얼 엔진 덕분에 조기에 찾아낼 수 있었다.     새로운 버전이 하루에 하나씩 나올 정도로 반복 작업도 매우 빠르게 이뤄졌다. 덕분에 제작진은 아이디어를 과감히 시도해 보고 무엇이 문제인지 확인한 뒤, 비용이 많이 드는 본격적인 촬영에 들어가기 전에 촬영을 다시 설계할 수 있었다. 랄라는“잘 안 되면, 빠르게 실패하고 넘어가면 된다”고 말했다. 길이가 제한된 고가의 IMAX 필름으로 작업하는 환경에서 아이디어를 시험해 보고 폐기하는 건 비용이 너무 많이 든다. 언리얼 엔진은 필름을 사용하기도 전에 다양한 아이디어를 탐색할 수 있는 길을 열어주었다. 속도는 제작 전 준비 단계에서뿐 아니라 실제 촬영 현장에서도 중요하게 작용했다. 기차 촬영 당시, 랄라는 휴대폰으로 레퍼런스 영상을 바로 찍어 발렌시아에게 전달하며 CG 기차를 추가한 빠른 시각화 버전을 요청했다. 발렌시아는 언리얼 엔진과 언리얼 엔진 마켓플레이스(현재 팹) 애셋을 사용해 다음 날 의사 결정에 사용할 수 있을 만큼 빠르게 결과를 만들었다. 중요한 건 완성도 높은 픽셀이 아니라, ‘과연 의도대로 작동할까?’라는 질문에 답하는 것이었다. 빠른 시각화는 곧 빠른 결정으로 이어졌다. 랄라는 아이디어가 의도대로 작동한다는 확신이 생기는 순간 지체 없이 다음 촬영으로 넘어갈 수 있었다고 말했다. 카메라를 실시간으로 움직이고, 화면을 공유하며, 아이디어를 즉시 조정하는 빠른 프로토타입 방식이 언리얼 엔진을 하나의 창작 공간으로 만들었다. 언리얼 엔진은 시간과 비용을 본격적으로 쏟아붓기 전에 다양한 결정을 미리 시험해 볼 수 있는 환경을 만들었다.     확신을 갖고 기획한 복잡한 샷 ‘씨너스 : 죄인들’에서 제작된 언리얼 엔진 기반 시각화는 일반적인 프리비즈 과정과 달리 촬영이 시작된 후에도 계속 활용되었다. 편집 과정에서 비어 있는 부분을 보완하는 데 활용됐고, 제작 후반에는 대체 샷을 탐색하는 데도 쓰였으며, 포스트 프로덕션 전반에 걸쳐 연출 의도를 유지하는 데 도움을 주었다. 편집자 마이클 쇼버(Michael Shawver)는 컷을 구성하기 위해 시각화 샷을 요청하고, 이를 임시 컷이자 편집 계획을 세우는 도구로 활용했다. 사실상 이 영화의 VFX 작업 중 상당 부분은 촬영 팀이 세트장에 들어가기 전부터 이미 시작되고 있었다. 랄라와 발렌시아에게 ‘씨너스 : 죄인들’에서 언리얼 엔진을 활용한다는 것은, 스토리에 대한 명확하고 공통된 이해를 제작 초기부터 만들어 모든 부서가 최고의 결과를 낼 수 있도록 하는 것을 의미했다. 랄라는 “연출 의도를 최대한 많은 사람들에게, 최대한 빨리 전달해야만 한다. 그래야 모두가 같은 방향을 바라볼 수 있다”고 말했다. 언리얼 엔진은 팀이 더 빠르게 움직이고, 더 긴밀하게 협업하며, 야심 찬 아이디어를 확신을 가지고 실행할 수 있도록 뒷받침했다. 이는 리얼타임 워크플로가 영화 제작 방식뿐만 아니라, 가장 중요한 연출적 선택이 내려지는 시점 자체를 바꾸고 있음을 보여준다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-05-06
DJI, 오디오 성능과 스타일 강화한 무선 마이크 ‘DJI 마이크 미니 2’ 출시
DJI는 옴니디렉셔널 오디오 녹음을 지원하는 컴팩트 무선 마이크의 차세대 모델인 ‘DJI 마이크 미니 2(DJI Mic Mini 2)’를 출시했다. DJI 마이크 미니 2는 세 가지 음색 프리셋과 2단계 노이즈 캔슬링 기능을 갖췄으며 다양한 기기 간 연결을 지원한다. DJI 오즈모오디오(OsmoAudio)를 통해 끊김 없는 고품질 오디오를 제공하며 이러한 기능을 하나의 올인원 수납 설계로 구현한 점이 특징이다. 또한 다양한 의상과 어우러지는 다채로운 색상의 마그네틱 전면 커버를 제공해, 사용자가 스타일을 살릴 수 있게 돕는다.     DJI에 따르면 송신기의 무게는 본체 기준 약 11g이다. 탈부착식 마그네틱 클립은 회전이 가능해 마이크가 음원 방향을 정확하게 향하도록 유지하며 48kHz 24비트의 고품질 오디오를 제공한다. 세 가지 음색 프리셋인 일반, 리치, 브라이트를 통해 녹음 환경을 최적화할 수 있으며, 실내외 소음에 대응하는 2단계 노이즈 캔슬링 기능도 포함한다. 자동 제한과 5단계 게인 조정, DJI 미모(DJI Mimo) 앱을 통한 듀얼 트랙 녹음 기능도 지원한다. 충전 케이스는 송신기와 수신기, 액세서리를 한 번에 보관할 수 있도록 설계했다. 모바일 버전인 충전 케이스는 모바일 액세서리의 충전과 보관을 모두 지원해 장비 전환과 정리를 빠르게 할 수 있도록 돕는다. 디자인 측면에서는 교체 가능한 마그네틱 전면 커버를 도입했다. 기본으로 제공되는 옵시디언 블랙과 글레이즈 화이트 커버 외에도 일러스트레이터 빅토 응아이(Victo Ngai)와 협업한 ‘타임 시리즈’ 마그네틱 전면 커버를 별도로 선보였다. 이 시리즈는 인생의 네 단계를 상징하는 던, 서지, 블레이즈, 글리머 색상으로 구성했다. 기기 호환성도 강화했다. DJI 마이크 미니 수신기를 통해 카메라, 스마트폰, 컴퓨터, 태블릿과 연결할 수 있다. DJI 오즈모오디오의 직접 연결 기능을 사용하면 오즈모 포켓 3, 오즈모 360, 오즈모 나노, 오즈모 액션 6 등의 기기에서 수신기 없이 최대 2대의 송신기를 직접 연결해 48kHz 24비트 오디오를 녹음할 수 있다. 전송 거리와 사용 시간도 늘어났다. 수신기 사용 시 최대 400미터, 모바일 수신기 사용 시 최대 300미터의 전송 거리를 지원한다. 송신기와 수신기는 각각 최대 11시간 30분과 10시간 30분 동안 작동하며 충전 케이스를 포함하면 최대 48시간까지 사용할 수 있다. 5분 충전으로 1시간 사용이 가능하며 신호가 감지되지 않으면 자동으로 절전 모드로 전환된다. DJI 마이크 미니 2는 송신기 2대 + 수신기 1대 + 충전 체이스 구성이 11만 4700원이며, 송신기 1대 + 모바일 수신기 1대 + 충전 케이스 구성은 6만 8400원이다. 한편 내장 녹음 기능과 송신기 4대 + 수신기 1대 구성을 지원하는 DJI 마이크 미니 2S가 올 여름에 출시될 예정이다.
작성일 : 2026-04-29
초보자도 정밀한 항공 촬영 가능, DJI 입문용 드론 리토 시리즈 출시
DJI는 입문자를 위한 드론 라인업인 리토(Lito) 시리즈를 출시했다. 이번에 선보인 제품은 리토 X1(Lito X1)과 리토 1(Lito 1) 두 가지 모델로, 누구나 손쉽게 고품질 항공 영상을 촬영할 수 있도록 설계했다. DJI는 리토 시리즈가 합리적인 가격과 균형 잡힌 성능을 갖추어 캠퍼스 라이프와 아웃도어 활동 등 일상의 창의적인 순간을 담고자 하는 사용자에게 적합하다고 설명했다. 리토 시리즈는 드론 비행이 서툰 초보자를 고려해 다층 안전 시스템을 갖췄다. 제품에 내장한 전방위 비전 시스템은 절벽이나 벽 같은 장애물을 자동으로 감지하고 회피한다. 특히 리토 X1은 전방 라이다(LiDAR)를 추가로 탑재해 복잡한 환경에서도 더욱 정밀하게 주변을 인식한다.     프리미엄 모델인 리토 X1은 1/1.3인치 CMOS 센서와 4800만 화소를 탑재해 사실적인 디테일 표현력을 높였다. f/1.7 조리개를 기반으로 최대 14스톱 다이내믹 레인지와 10비트 D-Log M을 지원해 HDR 영상 촬영 성능을 강화한 것이 특징이다. 리토 1은 1/2인치 CMOS 4800만 화소 센서와 f/1.8 조리개를 통해 최대 8K 해상도 사진과 4K 영상 촬영을 지원한다. 다양한 인텔리전트 촬영 기능도 포함했다. 최대 12m/s 속도에서도 안정적인 피사체 추적이 가능한 액티브트랙 기능을 제공하며, 퀵샷, 마스터샷, 하이퍼랩스, 파노라마 모드를 결합해 복잡한 카메라 움직임을 자동으로 구현할 수 있다. DJI는 이러한 기능을 활용하면 입문자도 첫 비행부터 전문가 수준의 결과물을 얻을 수 있다고 밝혔다. 배터리 성능과 전송 속도도 개선했다. 기본 인텔리전트 플라이트 배터리를 사용하면 최대 36분 동안 비행할 수 있으며, 최대 10.7m/s 풍속에서도 안정적인 호버링과 비행이 가능하다. 퀵트랜스퍼 기능을 이용하면 와이파이 6를 기반으로 최대 초당 50MB 속도로 파일을 전송할 수 있고, 리토 X1은 42GB 내장 스토리지를 제공해 콘텐츠 관리가 편리하다. 제품 가격은 리토 1 단품이 42만 1000원이며, DJI RC-N3를 포함한 플라이 모어 콤보는 59만 원이다. 리토 X1 단품은 52만 4000원, DJI RC 2가 포함된 플라이 모어 콤보는 71만 4000원으로 책정됐다.
작성일 : 2026-04-24
현실감 더한 트윈모션 2026.1 출시, 실시간 시각화 성능 대폭 강화
에픽게임즈가 다양한 산업 분야의 크리에이터를 위해 새로운 기능과 개선 사항을 담은 ‘트윈모션 2026.1(Twinmotion 2026.1)’을 출시했다. 이번 버전은 실시간 시각화의 핵심인 현실감과 자연스러움을 강화하는 데 집중했다. 3D 모델과 실사 이미지를 합성하고 실제 카메라와 유사한 효과를 구현하는 기능뿐만 아니라 생동감 있는 환경 연출과 사용자 편의성까지 전반적인 업그레이드가 이루어졌다. 트윈모션은 언리얼 엔진 5를 기반으로 건축, 영화, 자동차, 제품 디자인 등 여러 분야에서 사실적인 시각화 작업을 지원하는 설루션이다. 직관적인 사용자 인터페이스와 강력한 라이브러리를 통해 전문가와 초보자 모두 손쉽게 사용할 수 있는 것이 특징이다. 지난 2025.2 버전에서 나나이트 가상화 지오메트리 시스템을 도입한 데 이어, 이번 2026.1 버전은 보다 정교한 표현을 위한 다양한 기능을 추가했다.     새롭게 도입된 ‘포토 매칭’ 기능은 매치 퍼스펙티브 도구를 사용해 특정 위치에 소실점을 지정하면 카메라 위치와 초점 거리를 자동으로 조정한다. 이를 통해 3D 모델과 2D 이미지를 자연스럽게 합성할 수 있으며, 3D 오브젝트에서 계산된 지면에 그림자를 투영해 현실감을 높인다. ‘자동 에지 소프트닝’은 컴퓨터 그래픽 특유의 날카로운 테두리를 부드럽게 처리하는 기능이다. 사용자가 지정한 반경까지 모서리를 자동으로 뭉툭하게 만들어 자연스러운 결과물을 얻을 수 있다. 라이팅 채널 지원을 통해 빛의 영향을 받는 요소를 정밀하게 제어하는 것도 가능해졌다. 특정 채널에 할당된 오브젝트와 라이트만 서로 반응하도록 설정할 수 있어, 제품 촬영 시 배경 조명이 제품에 영향을 주지 않도록 세밀하게 조정할 수 있다. 카메라 및 렌즈 효과도 실제와 더욱 유사하게 개선됐다. ‘오토 포커스’ 기능은 사물의 거리에 따라 초점을 자동으로 조절하며, 뎁스 오브 필드 효과로 카메라가 바라보는 지점을 자연스럽게 따라가게 할 수 있다. 아나모픽 타원 보케와 페츠발 보케 등 실제 렌즈에서 발생하는 블러 특성을 재현하는 효과도 추가됐다. 프레임 가장자리가 미묘하게 휘어지는 배럴 디스토션 기능도 함께 도입됐다. 장면의 생동감을 더하는 파티클 VFX 시스템은 전면 개편됐다. 불, 연기, 안개, 물 등의 표현 성능과 비주얼 품질이 향상됐으며 사용자가 원하는 형태로 파라미터를 조정할 수 있다. 애셋 라이브러리에는 사실적인 유럽 나무 10종이 추가됐으며, 각 나무마다 세 가지 변형 형태를 제공해 풍성한 환경을 조성할 수 있게 돕는다. 사용자 편의를 위한 워크플로 개선도 눈에 띈다. 에픽게임즈에 따르면 버전이 바뀌어도 애셋을 연속해서 활용할 수 있도록 파일 저장 구조를 개선했다. 기존에는 버전에 따라 애셋을 다시 다운로드하거나 이동시켜야 했으나, 이제는 영구적인 폴더 구조로 관리되어 반복 작업 없이 효율적인 작업이 가능하다. 기존 사용자는 에픽게임즈 런처나 데브 포털에서 트윈모션 2026.1을 내려받을 수 있다. 처음 사용하는 사용자는 공식 홈페이지에서 라이선스 옵션을 확인한 뒤 무료 체험판을 이용할 수 있다.
작성일 : 2026-04-17
DJI, 4K 240fps 촬영 지원하는 ‘오즈모 포켓 4’ 출시
DJI는 1인치 CMOS 센서를 탑재해 영상 성능을 강화한 포켓 짐벌 카메라 ‘오즈모 포켓 4(Osmo Pocket 4)’를 출시한다고 밝혔다. 이번 신제품은 이전 모델의 설계를 바탕으로 4K 240fps 영상 촬영과 향상된 저조도 촬영 기능을 갖춘 것이 특징이다. 오즈모 포켓 4는 1인치 CMOS 센서와 f/2.0 조리개를 통해 어두운 환경에서도 선명한 인물 촬영을 지원한다. 14스톱의 다이내믹 레인지와 10비트 D-Log 컬러 프로파일을 제공해 황혼이나 해변 같은 저조도 환경에서도 실제에 가까운 색감을 구현한다. DJI는 카메라 자체 화질이 좋아지면서 인물 촬영 시 피부톤 표현이 자연스러워졌으며, 대비가 높은 조명 환경에서도 안정적인 결과물을 만든다고 설명했다.     편의 기능으로는 전용 줌 버튼을 통해 1배와 2배 무손실 줌을 빠르게 전환할 수 있으며, 4K 240fps의 울트라 HD 슬로 모션 녹화가 가능하다. 3축 안정화 기능을 활용하면 걸으면서 촬영해도 흔들림 없는 브이로그와 라이브 스트리밍 영상을 얻을 수 있다. 새롭게 적용된 액티브트랙 7.0은 4배 줌 상태에서도 피사체를 추적하며 스포트라이트 팔로우와 다이내믹 프레이밍 모드로 영화 같은 연출을 돕는다. 인텔리전트 자동 초점 기능은 피사체를 선명하게 유지하고, 피사체 고정 추적 기능을 활성화하면 선택한 대상을 자동으로 쫓는다. 사전에 등록한 피사체를 우선 인식하는 기능과 손바닥이나 브이 제스처로 촬영을 제어하는 퀵 샷 기능도 포함됐다. 사용자 경험을 고려한 직관적인 설계도 눈에 띈다. 화면을 회전하면 즉시 녹화가 시작되며, 하단에는 줌 버튼과 사용자 설정을 저장하는 커스텀 프리셋 버튼이 추가됐다. 5D 조이스틱으로 구도 조정과 짐벌 재설정을 쉽게 할 수 있고, 107GB 내장 스토리지를 탑재해 메모리 카드 없이도 영상을 저장하고 최대 초당 800메가바이트 속도로 전송할 수 있다. 이외에도 셔터 속도를 조절해 움직임의 궤적을 담는 슬로 셔터 비디오, 클래식한 스타일을 재현하는 필름 톤, 피부를 매끄럽게 보정하는 내장형 뷰티파이 기능을 제공한다. 배터리는 18분 만에 80%까지 충전되는 고속 충전을 지원하며, 완전 충전 시 최대 240분 동안 1080p 영상을 촬영할 수 있다. 오디오 면에서는 내장 마이크 어레이와 더불어 DJI 마이크 3 등 전용 송신기와 연결해 4채널 녹음을 지원한다. 제품 가격은 스탠다드 콤보 66만 2000원, 에센셜 콤보 64만 2000원, 크리에이터 콤보 83만 5000원이다. 4월 17일부터 사전 주문이 가능하며 공식 판매와 배송은 4월 22일부터 시작된다. 파손 시 교체 서비스를 제공하는 DJI 케어 리프레시 플랜도 함께 운영된다.
작성일 : 2026-04-17
레노버, 산업 현장 AI 혁신 돕는 차세대 씽크엣지 설루션 2종 출시
한국레노버가 국내 산업 환경에 맞춘 인공지능(AI) 기반 컴퓨팅 설루션 ‘씽크엣지(ThinkEdge)’ 2종을 새로 내놓았다. 최근 기업들이 운영 효율을 높이고 데이터 지연 시간을 줄이기 위해 현장에서 직접 인텔리전스를 활용함에 따라 에지 컴퓨팅은 장치와 인프라, 클라우드를 잇는 핵심 기술로 주목받고 있다. 특히 기존 PC나 서버를 설치하기 힘든 열악한 환경에서도 안정적으로 작동하는 산업용 에지 시스템에 대한 수요가 늘고 있다. 이번에 출시한 제품은 씽크엣지 SE30n 2세대와 씽크엣지 SE60n 2세대다. 두 제품은 냉각 팬이 없는 팬리스 구조로 설계했으며, 작동 온도 범위가 넓어 산업 현장에서도 안정적으로 사용할 수 있다. 클라우드 의존도를 낮춘 온디바이스 AI를 적용해 데이터 처리 속도를 높였으며 분산형 아키텍처를 통해 다양한 환경에 유연하게 대응한다. 씽크엣지 SE30n 2세대는 인텔 코어 프로세서를 탑재한 0.8리터 크기의 초소형 에지 설루션이다. 초당 최대 26조 번 연산이 가능한 26 TOPS의 AI 가속 성능을 갖췄으며 데이터가 발생하는 현장에서 즉각적인 분석과 처리를 수행한다. 48GB DDR5 메모리와 이중 저장 구조를 채택해 연산 능력과 저장 효율을 높인 것이 특징이다. 0도에서 50도 사이 온도에서 작동하며 먼지 방수 등급인 IP50을 획득했다. 다양한 장착 방식을 지원해 공간이 좁은 곳에도 설치가 가능하며 4G와 5G 등 무선 네트워크 연결 기능도 제공한다.   ▲ 씽크엣지 SE30n 2세대   고성능 모델인 씽크엣지 SE60n 2세대는 다중 카메라 비전과 자동화 공정 등 복잡한 작업을 처리하는 데 적합하다. 인텔 코어 울트라 프로세서와 전용 신경망처리장치(NPU)를 통해 최대 97 TOPS의 AI 연산 성능을 구현한다. 이를 통해 제품 결함 감지나 자율 로봇 운영과 같은 고난도 업무를 지원한다. 영하 20도부터 영상 60도까지 견디는 내구성을 갖췄으며 네트워크 장애 발생 시 자동으로 연결을 전환하는 기능을 넣어 운영 중단 시간을 최소화했다. 두 제품은 보안 칩인 TPM 2.0과 시스템 상태를 감시하는 워치독 타이머를 탑재해 안정성을 강화했다. 또한 전용 관리 서비스를 통해 소프트웨어와 펌웨어 업데이트를 중앙에서 통합 관리할 수 있다. 한국레노버 신규식 대표는 “산업 전반에 AI가 확산되면서 현장에서 실시간으로 정보를 분석하고 의사결정을 내리는 에지 컴퓨팅의 역할이 중요해졌다”고 설명했다. 이어 “이번 신제품은 제조와 물류 등 다양한 분야에서 운영 효율을 혁신할 수 있는 도구가 될 것”이라며, “앞으로도 기업이 데이터를 실시간 통찰력으로 전환할 수 있도록 지원할 계획”이라고 밝혔다.
작성일 : 2026-04-06
오토데스크, 3D 캐릭터 제작 돕는 생성형 AI ‘원더 3D’ 공개
오토데스크가 오토데스크 플로 스튜디오(Autodesk Flow Studio) 내에 새로운 생성형 AI 모델인 ‘원더 3D(Wonder 3D)’를 출시했다. 과거 원더 스튜디오(Wonder Studio)로 알려졌던 클라우드 기반 플랫폼인 오토데스크 플로 스튜디오는 AI를 활용해 모션 캡처, 카메라 트래킹, 캐릭터 애니메이션 등 복잡한 VFX 작업을 자동화한다. 이번에 선보인 원더 3D는 아티스트와 스튜디오, 크리에이터가 텍스트와 이미지를 편집 가능한 3D 자산으로 더 빠르고 직관적으로 변환할 수 있도록 설계됐다. 3D 캐릭터와 오브젝트를 제작하는 과정은 그동안 상당한 수작업이 필요한 복잡한 영역이었다. 원더 3D는 텍스트 투 3D(Text to 3D), 이미지 투 3D(Image to 3D), 텍스트 투 이미지(Text to Image) 기능을 통해 단순한 텍스트나 참조 이미지 만으로도 3D 자산을 생성할 수 있도록 한다. 생성된 결과물은 프로젝트에 맞춰 정교하게 다듬거나 재구성해 다시 사용할 수 있어 초기 구상부터 실제 제작에 이르는 워크플로를 단축한다. 캐릭터와 소품 제작 시간을 줄이고 제작팀의 병목 현상을 해결함으로써 창의적인 의도나 유연성을 유지하면서도 3D 제작의 진입 장벽을 낮췄다.     원더 3D는 크리에이터가 기술적인 부담에서 벗어나 스토리텔링에 집중할 수 있도록 돕는다. ▲텍스트 투 3D는 텍스트 프롬프트를 입력하면 편집 가능한 3D 캐릭터나 생명체, 소품으로 변환한다. 크리에이터가 구상한 내용을 설명하면 기하학적 구조와 질감이 포함된 상세한 3D 자산을 생성하며, 이를 다양한 프로젝트에서 재사용할 수 있다. ▲이미지 투 3D는 스케치나 참조 이미지, 콘셉트 아트를 텍스트가 포함된 3D 모델로 바꾼다. 한 장의 이미지로도 편집 가능한 자산을 만들 수 있으며 개발 과정에 따라 형태나 질감, 구조를 자유롭게 조정할 수 있다. ▲텍스트 투 이미지는 몇 초 만에 콘셉트 비주얼을 생성해 캐릭터나 장면, 스타일을 탐색하게 돕는다. 가장 뛰어난 아이디어를 선택해 3D 워크플로로 직접 가져와 추가 개발을 진행할 수 있다. ▲제작된 결과물은 USD, STL, OBJ 파일 형식으로 내보낼 수 있다. 이를 통해 다양한 소프트웨어에서 추가 작업을 이어가거나 3D 프린팅, 물리적 프로토타입 제작, 실제 모델 제작 등 온·오프라인을 넘나드는 활용이 가능하다. 원더 3D는 제작팀이 짧은 시간 안에 더 많은 콘텐츠를 제공해야 하는 압박 속에서 제작 공정을 간소화하고 새로운 창의적 가능성을 열어준다. 전문 스튜디오는 캐릭터와 소품의 프로토타입을 빠르게 제작할 수 있고, 버추얼 프로덕션 및 XR 팀은 사용 가능한 3D 모델로 장면을 신속하게 채울 수 있다. 인디 개발자나 취미 활동가들도 대규모 팀 없이 고품질 3D 자산을 구축할 수 있으며, 마케팅 팀은 캠페인이나 클라이언트 시연을 위한 3D 모델을 유연하게 제작할 수 있다. 생성형 AI와 편집 가능한 워크플로를 결합한 원더 3D는 제어력과 품질을 유지하면서 제작 속도를 높인다. 오토데스크는 이를 통해 오토데스크 플로 스튜디오가 3D 제작을 위한 접근성 높은 입문점이자 디지털과 물리적 워크플로를 아우르는 강력한 프로토타이핑 도구가 될 것으로 기대하고 있다. 오토데스크의 자회사인 원더 다이내믹스의 공동 설립자 니콜라 토도로비치(Nikola Todorovic)는 “3D 자산 제작은 전통적으로 많은 수작업이 필요한 어려운 과정이었다”면서, “원더 3D는 이러한 고충을 해결하고 모든 숙련도의 크리에이터가 제작 속도를 늦추지 않고도 신속하게 3D 자산을 생성하고 반복 작업할 수 있도록 돕기 위해 개발했다”고 밝혔다.
작성일 : 2026-04-03
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
앤시스 2026 R1 : 통합 워크플로 및 생성형 AI 기능으로 엔지니어링 혁신 가속
개발 : Ansys 주요 특징 : 엔지니어링 프로세스를 하나로 연결하는 통합 시높시스–앤시스 워크플로 제공, 생성형 AI와 에이전틱 엔지니어링 기능으로 설계 탐색 가속/전처리 자동화/시스템 수준 인사이트 확보 지원, 확장된 디지털 트윈 역량 및 연결된 모델링 워크플로로 시스템 전반에 대해 리얼월드 기반의 인사이트 제공 강화 등 공급 : 앤시스 코리아   ‘앤시스 2026 R1(Ansys 2026 R1)’은 시높시스와 앤시스가 보유한 공학 역량을 결합해, 시높시스-앤시스 통합 기능을 본격적으로 선보인다. 앤시스 2026 R1은 시뮬레이션 AI 포트폴리오를 확장해 학습 효율을 높이는 AI 강화 트레이닝 제공과 함께 고급 AI 기능도 강화했다. 이를 통해 엔지니어링 팀은 초기 개발 단계에서 시스템 수준 인사이트를 확보함과 동시에 물리 시험 의존도를 줄이며, 소프트웨어 중심 제품이 고도화되는 환경에서도 성능 최적화를 보다 효율적으로 추진할 수 있게 됐다.   ▲ 출처 : 시높시스   시스템 인지 엔지니어링의 미래를 가속하는 공동 설루션 앤시스 2026 R1은 시스템 복잡성 증가, AI 기반 제품 수요 확대, 그리고 산업 전반의 조기 검증 전환이 맞물리며 변화하는 엔지니어링 환경에서 새로운 흐름의 출발점이 될 것으로 전망된다. 시높시스는 이러한 변화에 대응하기 위해, 시높시스와 앤시스의 주요 기술을 연동해 하나의 통합된 시스템처럼 작동하도록 지원한다. 이를 통해 초기 설계 탐색을 가속하고 도메인 간 협업을 강화하며, 주요 산업 전반에서 더 깊은 인사이트를 제공하는 고효율 워크플로를 제시한다. 이번 앤시스 2026 R1에 포함된 신규 시높시스-앤시스 공동 설루션은 다음과 같다. 시높시스 VC 펑셔널 세이프티 매니저(Synopsys VC Functional Safety Manager, VC FSM)와 앤시스 메디니 애널라이즈(Ansys medini analyze)가 시스템 수준과 실리콘 수준 안전 분석을 연결하는 엔드 투 엔드 기능 안전 워크플로로 연동된다. 이를 통해 시스템 안전 엔지니어와 칩 안전 검증 엔지니어 간 협업이 간소화되며, 시스템부터 칩까지 추적성(traceability)이 자동화된다. 또한 도구 간 수작업 데이터 공유를 줄여 자동차 및 항공우주 안전 등 핵심 적용 분야에서 시간 절감 효과를 기대할 수 있다. 시높시스 퀀텀ATK(Synopsys QuantumATK)와 앤시스 그란타 MI(Ansys Granta MI) 플랫폼이 소재 워크플로로 통합되어 원자 스케일부터 엔터프라이즈까지 이어지는, 소재 발굴, 신소재 개발, 제조 공정 개선을 지원한다. 검증된 소재 물성치를 그란타 MI로 직접 내보낼 수 있어 소재 과학자와 설계 엔지니어 간 협업 효율이 높아진다. 또한 반복 가능하고 재사용 가능한 워크플로를 통해 정제되고 일관된 소재 레코드를 구축함으로써 초기 단계에서 성능 예측과 데이터 기반 의사결정을 지원한다. 시높시스 옵토컴파일러(Synopsys OptoCompiler)와 앤시스 루메리컬 FDTD(Ansys Lumerical FDTD)가 디바이스 수준 포토닉 설계와 고급 시스템 수준 광학 시뮬레이션을 연결하는 설계 워크플로로 통합된다. 또한 Verilog-A 모델 생성 자동화와 도구 간 광학 거동 일관성 확보를 통해 디바이스 설계자와 시스템 수준 포토닉 엔지니어 간 협업을 강화한다. 이를 통해 설계·시뮬레이션 환경 간 수작업 데이터 변환을 줄이고, 고도화된 포토닉 애플리케이션에서 시간 절감과 신뢰성 향상을 지원한다. 앤시스 스케이드(Ansys SCADE) 모델 기반 소프트웨어 개발 설루션에 더해, 시높시스는 제어 소프트웨어를 위한 테스트 자동화 설루션 TPT를 제공한다. SCADE는 안전 필수 소프트웨어 개발 환경을 제공하고, TPT는 테스트 생성·실행·분석을 자동화해 설계 반복을 가속하고 조기 검증을 강화하며 복잡한 제어 소프트웨어 품질 향상을 지원한다. 두 설루션을 결합하여 ADAS, 전동화 파워트레인, 비행 제어, 엔진 제어, 항공전자 등 미션 크리티컬 제어 시스템 개발에서 수작업 검증 부담을 줄이고 자동화 수준을 높일 수 있다.   ▲ 출처 : 시높시스   AI 기반 디지털 엔지니어링으로 더 빠르고 스마트한 설계 반복 지원 앤시스 2026 R1은 생성형 AI와 에이전틱 기능을 도입해, 검증을 가속하고 설계 탐색을 확대하며 복잡한 워크플로의 자동화를 강화했다. 이를 통해 엔지니어링 팀은 개발 전체 과정에서 더 빠르고 스마트한 인사이트를 확보할 수 있다. 앤시스 지옴AI(Ansys GeomAI) 지오메트리 플랫폼은 생성형 AI 기반의 개념 설계 탐색을 통해, 지오메트리 콘셉트를 보다 창의적이고 효율적으로 빠르게 생성·평가·개선할 수 있도록 지원한다. 레퍼런스 설계로부터 직접 학습함으로써 초기 혁신을 가속하는 동시에, 엔지니어링 의도를 보존해 AI가 생성한 콘셉트가 예측 가능하고 신뢰할 수 있으며 후속 검증 단계로 자연스럽게 이어질 수 있도록 돕는다. 또한 메시 에이전트는 앤시스 메카니컬(Ansys Mechanical)에서 탐색적 사용으로 제공되는 신규 기능으로, 모델 전처리 과정에서 발생하는 메싱 실패 원인을 진단하고 해결하는 데 도움을 준다. 검증된 개선 절차를 기반으로 엔지니어를 안내해 자동화 전처리에 대한 신뢰를 높인다. 현재 초기 고객 평가 단계에 있는 ‘디스커버리 검증 에이전트’는 앤시스 디스커버리(Ansys Discovery)에 탑재돼, 수십 년간 축적된 공학 전문성을 바탕으로 문맥 정보와 산업 모범 사례를 활용해 설정 이슈를 선제적으로 식별한다. 이를 통해 엔지니어가 작업을 더 빠르게 진행하고 비용이 큰 실수를 줄이며, 초기부터 더 높은 성능의 설계를 만들 수 있도록 지원한다. 앤시스 2026 R1의 추가 AI 업데이트 사항은 다음과 같다. 앤시스 SimAI(Ansys SimAI) 시뮬레이션 플랫폼은 두 가지 제공 형태를 지원한다. 기존 제품인 앤시스 SimAI 프리미엄 SaaS와, 로컬 데이터 저장이 필요한 프로젝트를 위해 데스크톱 환경에서 사용할 수 있도록 설계된 앤시스 SimAI Pro가 포함된다. 앤시스 옵티스랭(Ansys optiSLang)의 SimAI 커넥터를 통해 학습 데이터 생성, AI 학습, 최적화 및 설계 스터디까지 엔드투엔드 워크플로를 구현할 수 있다. 앤시스 엔지니어링 코파일럿(Ansys Engineering Copilot)이 메디니 애널라이즈, 앤시스 모델센터(Ansys ModelCenter), 앤시스 록키(Ansys Rocky)에서 제공돼 사용자 인터페이스 내에서 지능형 AI 가이드 지원을 제공한다. 옵티스랭과 디스커버리 간 신규 통합으로 민감도 분석과 원클릭 최적화를 지원하는 AI-레디 워크플로가 제공된다. 이를 통해 엔지니어는 메카니컬, 플루언트 또는 앤시스 아이스팩(Ansys Icepak)에서 개념을 검증하기 전에, 초기 단계에서 더 빠르게 설계 대안을 탐색할 수 있다.   ▲ 출처 : 시높시스   리얼월드 디지털 트윈으로 시스템을 연결하고 성능 최적화 앤시스 2026 R1에서 확장된 디지털 트윈 혁신은 물리적 프로토타이핑 이전 단계에서 사용자들이 더 깊은 리얼월드 인사이트를 확보할 수 있도록 지원한다. 앤시스 트윈AI(Ansys TwinAI)는 시뮬레이션 데이터와 센서·테스트 정보를 더 정교하게 얼라인하는 신규 퓨전 모델링 방식과, 대규모 시계열 모델링 및 학습 효율을 강화하는 템포럴 퓨전 트랜스포머를 도입했다. 또한 트윈AI ROM(차수 축소 모델) 위저드는 고정밀 ROM의 생성 및 배포를 제공하여 리얼타임 디지털 트윈 제공을 가속한다. 또한, 앤시스 AV엑셀러레이트 센서(Ansys AVxcelerate Sensors)는 신규 GPU 가속 멀티스펙트럴 광 전파 엔진과 엔비디아 옴니버스와의 통합 확대를 포함한 기능 강화를 통해 통합된 3D 디지털 트윈 파이프라인을 구현한다. 이를 통해 시나리오 전반에서 더 물리적으로 정확한 카메라 동작, 표면 반사 그리고 엣지케이스 재현성을 제공한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-04-02