• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " AI 비디오 생성"에 대한 통합 검색 내용이 1,655개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
DJI, 4K 240fps 촬영 지원하는 ‘오즈모 포켓 4’ 출시
DJI는 1인치 CMOS 센서를 탑재해 영상 성능을 강화한 포켓 짐벌 카메라 ‘오즈모 포켓 4(Osmo Pocket 4)’를 출시한다고 밝혔다. 이번 신제품은 이전 모델의 설계를 바탕으로 4K 240fps 영상 촬영과 향상된 저조도 촬영 기능을 갖춘 것이 특징이다. 오즈모 포켓 4는 1인치 CMOS 센서와 f/2.0 조리개를 통해 어두운 환경에서도 선명한 인물 촬영을 지원한다. 14스톱의 다이내믹 레인지와 10비트 D-Log 컬러 프로파일을 제공해 황혼이나 해변 같은 저조도 환경에서도 실제에 가까운 색감을 구현한다. DJI는 카메라 자체 화질이 좋아지면서 인물 촬영 시 피부톤 표현이 자연스러워졌으며, 대비가 높은 조명 환경에서도 안정적인 결과물을 만든다고 설명했다.     편의 기능으로는 전용 줌 버튼을 통해 1배와 2배 무손실 줌을 빠르게 전환할 수 있으며, 4K 240fps의 울트라 HD 슬로 모션 녹화가 가능하다. 3축 안정화 기능을 활용하면 걸으면서 촬영해도 흔들림 없는 브이로그와 라이브 스트리밍 영상을 얻을 수 있다. 새롭게 적용된 액티브트랙 7.0은 4배 줌 상태에서도 피사체를 추적하며 스포트라이트 팔로우와 다이내믹 프레이밍 모드로 영화 같은 연출을 돕는다. 인텔리전트 자동 초점 기능은 피사체를 선명하게 유지하고, 피사체 고정 추적 기능을 활성화하면 선택한 대상을 자동으로 쫓는다. 사전에 등록한 피사체를 우선 인식하는 기능과 손바닥이나 브이 제스처로 촬영을 제어하는 퀵 샷 기능도 포함됐다. 사용자 경험을 고려한 직관적인 설계도 눈에 띈다. 화면을 회전하면 즉시 녹화가 시작되며, 하단에는 줌 버튼과 사용자 설정을 저장하는 커스텀 프리셋 버튼이 추가됐다. 5D 조이스틱으로 구도 조정과 짐벌 재설정을 쉽게 할 수 있고, 107GB 내장 스토리지를 탑재해 메모리 카드 없이도 영상을 저장하고 최대 초당 800메가바이트 속도로 전송할 수 있다. 이외에도 셔터 속도를 조절해 움직임의 궤적을 담는 슬로 셔터 비디오, 클래식한 스타일을 재현하는 필름 톤, 피부를 매끄럽게 보정하는 내장형 뷰티파이 기능을 제공한다. 배터리는 18분 만에 80%까지 충전되는 고속 충전을 지원하며, 완전 충전 시 최대 240분 동안 1080p 영상을 촬영할 수 있다. 오디오 면에서는 내장 마이크 어레이와 더불어 DJI 마이크 3 등 전용 송신기와 연결해 4채널 녹음을 지원한다. 제품 가격은 스탠다드 콤보 66만 2000원, 에센셜 콤보 64만 2000원, 크리에이터 콤보 83만 5000원이다. 4월 17일부터 사전 주문이 가능하며 공식 판매와 배송은 4월 22일부터 시작된다. 파손 시 교체 서비스를 제공하는 DJI 케어 리프레시 플랜도 함께 운영된다.
작성일 : 2026-04-17
어도비, 생성형 AI 비서 ‘파이어플라이 AI 어시스턴트’ 공개
어도비가 크리에이티브 에이전트 기반의 ‘파이어플라이 AI 어시스턴트(Firefly AI Assistant)’를 공개하며 생성형 AI 기술의 새로운 혁신을 선보였다. 파이어플라이 AI 어시스턴트는 어도비의 다양한 창작 도구를 하나의 대화형 인터페이스로 통합한 것이 특징이다. 이 서비스는 어도비 파이어플라이에서 곧 사용할 수 있다. 크리에이터가 일상적인 언어로 원하는 결과물을 설명하면 파이어플라이를 비롯해 포토샵, 프리미어, 라이트룸, 익스프레스, 일러스트레이터 등 크리에이티브 클라우드 앱 전반의 복잡한 작업을 조율하고 실행한다. 어도비는 이번 발표가 크리에이티브 작업 방식의 근본적인 변화를 의미한다고 설명했다. 크리에이터가 비전과 방향성을 제시하면 어시스턴트가 작업을 수행하는 구조로, 창작 과정에 드는 시간과 노력을 줄이면서도 제작자의 주도권을 유지하도록 설계했다.     영상 및 이미지 편집 기능도 강화했다. 파이어플라이 비디오 에디터에는 노이즈를 줄이고 음질을 개선하는 음성 강화 기능과 정밀한 색상 조정 기능이 추가됐다. 또한 8억 개 이상의 라이선스 애셋을 보유한 어도비 스톡을 워크플로 내에서 바로 활용할 수 있다. 이미지 편집에서는 ‘정밀도 흐름’과 ‘AI 마크업’ 기능을 도입했다. 정밀도 흐름은 슬라이더를 이용해 이미지의 변형 정도를 세밀하게 탐색할 수 있는 기능이다. AI 마크업은 브러시나 사각형 도구로 편집 위치를 직접 지정해 사물을 배치하거나 조명을 조정하는 정밀 제어를 지원한다. 어도비는 자체 모델 외에도 외부 AI 모델과의 협력을 확대했다. 클링 3.0과 클링 3.0 옴니를 비롯해 구글의 나노 바나나 2, 비오 3.1, 런웨이의 젠-4.5 등 30개 이상의 AI 모델을 파이어플라이에서 제공한다. 이를 통해 크리에이터는 작업 목적에 맞는 최적의 모델을 선택할 수 있는 유연성을 갖게 됐다. 협업 툴인 프레임닷아이오와의 통합도 이루어진다. 어시스턴트에게 작업물 공유를 요청하면 이해관계자의 피드백을 해석해 최적의 도구로 변경 사항을 자동 적용한다. 아울러 앤트로픽의 클로드와 같은 외부 모델에서도 어도비의 기능을 호출해 사용할 수 있도록 지원할 계획이다. 어도비의 데이비드 와드와니 사장은 “크리에이터의 관점과 취향이 가장 강력한 도구가 되는 시대를 이끌고 있다”면서, “파이어플라이는 모든 어도비 앱의 성능을 하나로 통합해 새로운 창작 방식을 제시한다고 밝혔다. 파이어플라이 AI 어시스턴트는 몇 주 안에 공개 베타 버전으로 제공될 예정이다. 새로운 영상 및 이미지 편집 기능과 신규 파트너 모델은 파이어플라이 플랜 이용자를 대상으로 현재 서비스 중이다.
작성일 : 2026-04-16
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
인텔, v프로 탑재한 코어 울트라 시리즈 3 공개하며 차세대 기업용 PC 시장 공략
인텔은 전 세계 기업과 교육, 공공 기관을 위해 설계된 125종 이상의 디바이스 모델에 탑재되는 기업용 클라이언트 포트폴리오를 공개했다. 이번 발표의 중심인 인텔 v프로(vPro) 탑재 인텔 코어 울트라(Intel Core Ultra) 시리즈 3는 높은 전력 효율 및 성능과 강화된 보안, IT 팀을 위한 간편한 관리 기능을 제공해 사용자에게 최적의 PC 경험을 지원하는 데에 초점을 맞췄다. 이와 함께 인텔은 전문가용 외장 그래픽카드인 인텔 아크 프로(Intel Arc Pro) B70 및 B65와 워크스테이션용 인텔 제온(Intel Xeon) 600 프로세서의 출시 소식도 함께 전했다. 인텔 18A 공정을 기반으로 제작된 코어 울트라 시리즈 3는 차세대 성능 효율성과 통합 AI 가속 기능을 갖췄다. 인텔은 최신 v프로 플랫폼의 향상된 기능을 통해 원활한 기기 배포와 사전 예방적 보안, 지능형 장치 관리에 이르기까지 기업용 관리 PC의 기준을 새롭게 정립한다는 계획이다. 인텔 코어 울트라 시리즈 3는 기업용 PC의 평균 교체 주기인 4년 전 시스템과 비교했을 때 싱글 및 멀티 스레드 성능과 생산성이 각각 30% 이상 향상됐다. 그래픽 성능은 최대 80% 개선됐으며 AI 성능은 최대 4배까지 빨라졌다. 인텔에 따르면 이를 통해 일상적인 업무 생산성을 높이고 새로운 AI 기반 워크플로를 기업 전반에 도입할 수 있다.     함께 업데이트된 인텔 v프로는 보안과 기기 관리의 표준을 강화했다. 독립 소프트웨어 벤더와 협력하는 v프로 인증 프로그램은 CPU 사용률을 최대 59% 낮추고 전력 효율을 56% 높이는 효과를 보였다. 또한 AI 기반 분석 기술인 디바이스 IQ 기반 인텔 v프로 인텔리전스를 도입해 기기 문제를 사전에 진단하고 IT 부서의 부담을 줄인다. 서비스형 소프트웨어 방식의 인텔 v프로 기기 관리 서비스는 마이크로소프트 인튠과 통합되어 추가 인프라 없이도 기기 관리를 간소화하며, 지난 분기에만 전 세계 1300개 이상의 기업이 이를 도입했다. 전문가용 그래픽 설루션인 인텔 아크 프로 B70 및 B65 외장 GPU는 콘텐츠 제작과 AI 추론 분야에 최적화됐다. Xe2 아키텍처를 기반으로 최대 32개의 코어와 32GB 비디오 메모리를 탑재했다. 인텔은 아크 프로 B70이 경쟁 제품 대비 최대 2.2배 더 큰 컨텍스트 윈도를 처리하고, 다중 사용자 워크로드에서 최대 6.2배 빠른 응답 속도를 구현한다고 밝혔다. 인텔의 아닐 난두리 데이터 센터 그룹 AI 제품 및 GTM 총괄은 “인텔 아크 프로는 크리에이터 지원을 넘어 대규모 AI 개발자를 위한 도구로 진화했다”면서, “합리적인 가격으로 고성능 그래픽과 AI 추론 성능을 동시에 제공한다”고 말했다. 인텔 클라이언트 컴퓨팅 그룹 PC 부문의 데이비드 펑 총괄은 “이번 포트폴리오는 노트북부터 고성능 워크스테이션까지 아우르는 인텔 역사상 가장 강력한 기업용 제품군”이라면서, “비즈니스 리더들이 차세대 업무 환경을 구현하는 데 필요한 성능과 전력 효율, AI 역량을 제공할 것”이라고 설명했다. 인텔 v프로가 탑재된 코어 울트라 시리즈 3 기업용 PC는 3월 31일부터 구매할 수 있다. 인텔 아크 프로 B70 외장 GPU와 제온 600 프로세서는 판매가 시작됐으며, 아크 프로 B65는 4월 중순 출시될 예정이다.
작성일 : 2026-03-26
엔비디아, 컴피UI와 로컬 AI 비디오 생성 간소화 발표 및 크리에이터 지원 강화
엔비디아가 미국 샌프란시스코에서 열리는 게임 개발자 콘퍼런스(GDC)에서 RTX GPU와 DGX 스파크 데스크톱 슈퍼컴퓨터를 기반으로 AI 비디오 생성 워크플로를 간소화하는 업데이트를 공개했다. 이번 발표는 게임 개발자와 아티스트가 엔비디아 RTX AI PC를 활용해 더욱 몰입감 있는 세계관과 캐릭터를 창조하도록 돕는 데 초점을 맞췄다. 엔비디아는 이번 행사에서 인기 생성형 AI 도구의 진입 장벽을 낮춘 신규 컴피UI(ComfyUI) 앱 뷰(App View)를 선보였다. 또한 실시간 4K 업스케일러인 ‘RTX 비디오 슈퍼 레졸루션’을 컴피UI에서 사용할 수 있도록 지원하며, 개발자에게는 이를 파이썬 휠(Python Wheel) 형태로 제공한다. 현재 NVFP4와 FP8 모델 버전은 플럭스.2 클라인(FLUX.2 Klein)을 지원하고 있으며, 향후 LTX-2.3에 대한 NVFP4 지원도 추가될 예정이다. 엔비디아에 따르면 이를 통해 최대 2.5배의 성능 향상과 60%의 메모리 사용량 절감이 가능하다.     컴피UI의 새로운 앱 뷰는 노드 그래프 구조에 익숙하지 않은 사용자를 위해 단순한 인터페이스를 제공한다. 사용자는 프롬프트를 입력하고 파라미터를 조정한 뒤 생성 버튼을 누르는 것만으로 작업을 수행할 수 있다. 기존의 노드 기반 인터페이스는 ‘노드 뷰(Node View)’라는 이름으로 유지되어 사용자의 숙련도에 따라 두 모드를 자유롭게 오갈 수 있도록 했다. 성능 측면에서도 개선이 이루어졌다. RTX GPU 기반의 성능은 지난해 9월 대비 40% 향상되었으며, 컴피UI는 NVFP4와 FP8 데이터 포맷을 기본적으로 지원한다. 지포스 RTX 50 시리즈 GPU에서 NVFP4 포맷을 사용하면 성능은 최대 2.5배 높아지고 VRAM 사용량은 60%까지 줄어든다. FP8 포맷 활용 시에는 성능 1.7배 향상과 VRAM 40% 절감 효과를 기대할 수 있다. 더 빠른 4K 비디오 생성을 위한 설루션도 강화됐다. 엔비디아 RTX 비디오 슈퍼 레졸루션을 활용하면 낮은 해상도로 빠르게 생성한 프리뷰 영상을 고품질 4K로 즉시 업스케일링할 수 있다. 이 기능은 컴피UI 내 노드 형태로 제공되어 사용자가 직접 생성 워크플로를 구축하는 데 유용하다. 또한 엔비디아는 AI 개발자를 위해 무료 파이썬 패키지를 공개하고 깃허브 샘플 코드 등을 제공한다. 이 패키지는 RTX GPU의 텐서 코어에서 직접 실행되어 일반적인 로컬 업스케일러보다 최대 30배 빠른 속도를 구현하며 VRAM 사용량도 줄인다. 엔비디아는 “이러한 도구가 콘셉트 탐색과 스토리보드 제작 등 초기 창작 과정의 효율을 높이고 초보자의 AI 비디오 모델 접근성을 개선할 것”이라고 밝혔다.
작성일 : 2026-03-11
[케이스 스터디] CES 2026에서 만난 언리얼 엔진
차세대 HMI부터 시뮬레이션,몰입형 모빌리티 생태계까지   CES(국제전자제품박람회)의 자동차 전시관은 올해도 활기 넘치는 현장이었으며, 모빌리티와 디지털 몰입 경험의 융합이 더 이상 트렌드가 아닌 업계 표준으로 자리 잡았음을 보여줬다. 지난해 박람회가 혁신적인 기술의 가능성을 보여줬다면, 2026년은 실행 중심으로의 전환이 뚜렷해진 해였다. 제조사와 기술 기업들은 운전자 경험을 새롭게 정의하는 양산 수준의 설루션을 선보였다. ■ 자료 제공 : 에픽게임즈   CES 2026는 에픽게임즈에게도 중요한 이정표가 된 행사로, 에픽은 언리얼 엔진 5 기반의 차세대 HMI(휴먼-머신 인터페이스) 경험을 공개했다. AMD와의 기술 협업을 통해 라이젠 AI 임베디드 P100 시리즈(Ryzen AI Embedded P100 Series)에서 구동되는 이 프로젝트는 하나의 UE5 실행 인스턴스에서 디지털 콕핏의 모든 픽셀을 구동하는 성능을 보여준다. 소니 혼다 모빌리티와 퀄컴 등 파트너사들이 선보인 언리얼 엔진 애플리케이션을 통해, 올해 CES는 HMI의 미래가 인터랙티브하고 몰입감 있으며 데이터 중심의 게임화된 경험으로 진화하고 있음을 보여줬다. 이번 호에서는 언리얼 엔진 5의 차세대 HMI 경험에 대한 내용과 함께, 전시장에 참여한 협력사 및 파트너사가 선보인 창의적인 언리얼 엔진 쇼케이스를 살펴본다.   언리얼 엔진 5의 차세대 HMI 경험 CES 2026에서 공개된 언리얼 엔진 5의 차세대 HMI 경험은 디지털 자동차 콕핏의 모든 픽셀을 언리얼 엔진 5로 구동하는 기술력을 선보인다. 이 프로젝트는 단순한 데모를 넘어 자동차 HMI 개발에서 비주얼 퀄리티, 성능, 상호작용 측면의 새로운 기준을 제시하는 것을 목표로 한 에픽게임즈의 내부 프로젝트다. 언리얼 엔진 5의 차세대 HMI 경험은 하나의 UE5 실행 인스턴스로 계기판, 지도, 미니맵, 컨트롤 패널, 3D 배경을 포함한 디지털 콕핏 전체를 동시에 렌더링하며, 60fps로 구동되는 고해상도 디스플레이 경험을 제공한다. CES에서 선보인 주요 기능은 다음과 같다. HMI 환경에서 게임 요소를 직접 체험할 수 있는 커스터마이징 가능한 비주얼과 인터랙티브 테마(조작 가능한 젤리빈 캐릭터가 등장하는 폴가이즈 테마 포함) 주요 관심 지점과 파리의 상징적인 랜드마크를 포함한 2D 항공 뷰 및 3D 스트리트 레벨 내비게이션을 지원하는 네이티브 지도 AMD의 주행 시뮬레이터와 통합돼 포토리얼한 언리얼 엔진 환경에서 생성된 합성 데이터를 활용해 AI 시스템을 학습하는 첨단 운전자 보조 시스템(ADAS) 게임을 포함해 오디오·비디오 스트리밍 플랫폼 등 크로미움(Chromium) 기반 제3자 애플리케이션 실행 기능 디지털 콕핏 내에서 로켓 리그(Rocket League)와 같은 게임을 플레이할 수 있는 기능 HMI 인터페이스 전반에 걸쳐 음성으로 사용자를 안내하는 밝고 다채로운 음성 인식 어시스턴트 에픽게임즈는 언리얼 엔진 5 차세대 HMI 경험을 활용해 실제 양산 제품 수준의 안전한 환경에서 새로운 HMI 기능을 테스트하고 개선하며, 자동차 HMI의 미래 가능성을 제시한다.   CES에서 소개된 주요 언리얼 엔진 프로젝트 CES 2026에서는 향후 자동차 산업의 방향을 제시할 다양한 언리얼 엔진 기반 프로젝트가 공개됐다. 주요 하이라이트는 다음과 같다.   아처마인드 소프트웨어 개발 및 서비스 기업 아처마인드(ArcherMind)는 퀄컴 스냅드래곤 엘리트(Qualcomm Snapdragon Elite) 플랫폼에서 구동되는 자동차 HMI 데모를 선보였다. 45인치 대형 디스플레이를 갖추고 언리얼 엔진으로 구현된 이 디지털 콕핏 경험은 ADAS, 인포테인먼트 터치스크린, 그리고 동승자 화면이라는 세 가지 영역으로 구성돼 있다. 인포테인먼트 화면에는 사용자가 직접 상호작용할 수 있는 자동차 시각화 기능이 포함돼 있어, 차량의 문을 열고 닫거나 색상을 변경하고 실내 조명을 조절하는 등 다양한 기능을 사용할 수 있다. 또한, 이 데모는 AI를 활용한 HMI 제어를 지원해, 음성 명령으로 에어컨을 작동시키거나 지도에서 위치를 검색하고 아마존 및 구글과 같은 제3자 서비스에 연결할 수 있다. 실내 카메라는 운전자의 표정을 감지해 AI 어시스턴트에 전달하며, 운전자가 웃고 있을 경우 신나는 음악을 추천한다. 또한 AI는 차에 탑승한 인원 수를 인식해, 해당 인원에 맞는 인근 레스토랑을 찾거나 정확한 인원으로 저녁 식사 예약을 도와주는 등 다양한 작업을 지원한다.   ▲ 아처마인드가 선보인 자동차 HMI 디지털 콕핏 데모 화면(출처 : 에픽게임즈)   브런즈윅 코퍼레이션 브런즈윅 코퍼레이션(Brunswick Corporation)은 CES 2026에서 플라이트(Flite)의 기술로 구현된 이포일링(eFoiling) 시뮬레이터와 레저용 보트 운항의 미래를 보여주는 차세대 조타석 시뮬레이터를 공개했다. AI 코파일럿을 탑재한 퓨처 헬름 시뮬레이터(Future Helm Simulator)는 항로 계획, 조종, 정박, 상황 인식을 지능적으로 지원하는 차세대 경험을 제공하며, 보트 운항 시 선장이 가장 큰 스트레스를 느끼는 요소를 줄이는 것을 목표로 한다. 플라이트보드 이포일 시뮬레이터(Fliteboard eFoil Simulator)는 실제 수면에서의 주행을 충실히 재현하도록 향상된 역학과 반응성을 적용해, 전동 하이드로포일 서프보드로 물 위를 미끄러지듯 활주하는 감각을 전달한다. 두 시뮬레이터 모두 언리얼 엔진으로 구동되며, 사용자는 수로를 탐색하고 자동으로 정박하며, 관심 지점과 야생 동물을 식별하고 게임화된 시나리오에서 경주까지 즐길 수 있는 높은 상호작용과 사실적인 해양 환경을 경험할 수 있다. 이러한 시뮬레이션을 통해 소비자들은 미래의 보트 운항 경험을 탐색하고, 자율 운항 기능을 테스트하며, 실제 환경에서 선박이 어떻게 반응하는지를 검증할 수 있다. 브런즈윅의 기술은 디지털 세계와 실제 세계를 연결하고 차세대 해양 기술 개발을 가속화한다.   ▲ 브런즈윅 코퍼레이션이 CES 2026에서 공개한 차세대 보트 운항 시뮬레이터 시연 모습(출처 : 에픽게임즈)   디스페이스 디스페이스(dSPACE) 부스에서는 언리얼 엔진 기반 시뮬레이션과 통합된 디스페이스 하드웨어 및 소프트웨어를 활용해 ADAS와 자율 주행을 테스트하는 시연을 볼 수 있었다. 이미 수백만 대의 차량에 적용돼 긴급 제동과 같은 핵심 기능을 담당하는 카메라 기반 인지 장치는, 멀티 GPU 시스템에서 동기화되어 구동되는 고퀄리티 리얼타임 시뮬레이션을 통해 테스트되고 있었다. 이 시뮬레이션은 포토리얼한 렌더링과 카메라, 레이더, 초음파 출력과 같은 물리 기반 센서 데이터를 함께 생성하며, 이렇게 생성된 데이터는 인지 성능을 평가하기 위해 전자 제어 장치(ECU)로 직접 전달된다. 이 시스템은 120대 이상의 차량과 보행자가 포함된 복잡한 시나리오를 시뮬레이션할 수 있으며, 추가 카메라 구성이나 폭설과 같은 악천후 조건을 즉시 적용해 환경 변화가 인지 정확도에 미치는 영향을 평가하고, 이를 바탕으로 알고리즘을 향상시킬 수 있다.   ▲ CES 2026 디스페이스 부스에서 시연된 언리얼 엔진 기반 ADAS·자율주행 통합 시뮬레이션(출처 : 에픽게임즈)   이카엑스 이카엑스(ECARX)는 퀄컴 스냅드래곤 엘리트 SoC 기반의 단일 플랫폼에서, 언리얼 엔진 5로 구동되는 디지털 콕핏과 ADAS를 동시에 구현한 혁신적인 통합 데모를 시연했다. 차량의 3D 디지털 트윈은 화면에서 실제 차량과 일관된 시각적 표현을 제공해 사용자가 차량을 실시간으로 제어할 수 있도록 한다. 차량의 문과 엔진 후드를 열거나, 차체 색상, 휠/스포일러 디자인, 실내 조명, 오디오 환경 설정을 변경할 수 있으며, 이 모든 조작은 화면에 즉각적이고 매끄럽게 반영된다. 또한, 이 데모에는 연못에서 실시간으로 헤엄치는 물고기와 터치하는 즉시 꽃이 피어나는 벚나무 등 온스크린 환경의 속도와 반응성을 강조하는 창의적인 요소도 포함됐다. 특히 이카엑스 팀은 전체 데모를 단 한 달 만에 제작해 언리얼 엔진 5와 스냅드래곤으로 퀄리티를 유지하면서도 HMI 개발 속도를 높일 수 있음을 보여준다.   ▲ CES 2026 이카엑스 부스에서 공개된 디지털 콕핏 및 ADAS 통합 데모 체험 현장. 차량 외관과 실내를 화면을 통해 시각적으로 제어하는 모습(출처 : 에픽게임즈)   일렉트로비트 일렉트로비트(Elektrobit)는 올해 EB 시비온(EB civion)을 공개했다. EB 시비온은 자동차 OEM이 공급망을 보다 효과적으로 관리하고 소프트웨어 중심 자동차(SDV)를 위한 디지털 콕핏과 애플리케이션 개발을 가속화할 수 있도록 설계된 통합 설루션이다. EB 시비온은 언리얼 엔진을 HMI 소프트웨어 스택의 핵심 구성 요소로 활용해 ADAS 시나리오의 3D 시각화를 구현하는 등 다양한 영역에 적용하고 있다. 시뮬레이션 기반 타깃 표시 기능은 빠른 프로토타이핑을 지원하고, 나이아가라는 동적인 차량 비주얼 이펙트를 제공한다. 또한, 레벨 스트리밍은 대규모 ADAS 데이터를 효율적으로 처리하고, 머티리얼 시스템은 실시간 센서 시각화를 처리한다. 또한 올해 부스에서는 언리얼 엔진으로 구동되는 CARLA를 활용해 안전한 리눅스 기반 애플리케이션을 구축하고 검증하는 방법도 소개했다. CARLA는 현재 정교한 ADAS 시뮬레이터 중 하나로, 심층적인 ADAS 시나리오 검증과 차량 신호에 대한 고퀄리티 시뮬레이션과 테스트, 카메라 데이터 기록, 그리고 전 과정에 걸친 안전 애플리케이션 검증 기능을 제공한다.   ▲ CES 2026 일렉트로비트 부스에서 공개된 EB 시비온 기반 디지털 콕핏 및 ADAS 시각화 데모 체험 현장(출처 : 에픽게임즈)   존 디어 존 디어(John Deere) 부스에서는 현대 농업 기계가 수동 조작에서 자동화로 전환되는 과정을 보여주는 시뮬레이터를 체험할 수 있었다. 언리얼 엔진을 활용하면 짧은 수확철이 아닌 시기에도 실제 수확 환경을 시뮬레이션할 수 있으며, 디스플레이를 통해 스테레오 카메라에 사실적인 시각 데이터를 제공함으로써 자동 하역과 같은 복잡한 시스템을 실제 농경지 환경을 기다리지 않고도 연중 내내 테스트하고 검증하며 향상할 수 있다.   ▲ CES 2026 존 디어 부스에서 공개된 농업 기계 자동화 시뮬레이터 체험 현장(출처 : 에픽게임즈 제공)   코테이 코테이(Kotei)의 부스에서는 언리얼 엔진 5로 제작되고 최신 퀄컴 스냅드래곤 엘리트 플랫폼에서 실행되는 HMI 데모를 볼 수 있었다. 이 데모는 두 개의 화면에 걸쳐 구현됐으며 ADAS 및 주차 시각화, 커스터마이징할 수 있는 차량 색상 및 실내 분위기, 그리고 재미있는 인터랙티브 테마를 선보였다. 차량 내 경험뿐만 아니라, 팀은 ADAS 시뮬레이션과 테스트에 활용되는 언리얼 엔진 기반 디지털 트윈도 공개했다.   ▲ CES 2026 코테이 부스에서 공개된 HMI 데모 체험 현장. 언리얼 엔진 5와 퀄컴 스냅드래곤 엘리트 플랫폼 기반으로 두 개의 화면에 걸쳐 ADAS 및 차량 시각화 기능을 구현한 모습(출처 : 에픽게임즈)   퀄컴 테크놀로지스 퀄컴 테크놀로지스(Qualcomm Technologies)는 CES 2026에서 스냅드래곤 콕핏 엘리트(Snapdragon Cockpit Elite) 및 스냅드래곤 라이드 엘리트(Snapdragon Ride Elite) 플랫폼 데모를 통해 퀄컴 아드레노(Adreno) GPU와 AI 기능을 결합된 환경에서 언리얼 엔진의 루멘 글로벌 일루미네이션 시스템이 구현하는 강력한 경험을 시연했다. 스냅드래곤 디지털 섀시(Snapdragon Digital Chassis) 콘셉트 차량에는 여러 개의 내장형 AI 에이전트가 탑재돼, 사용자의 질문에 답변하고 문제 해결을 지원하며 차내에서 다양한 작업을 선제적으로 수행할 수 있다. 특히 이 AI 에이전트들은 함께 작동한다. 예를 들어, 노면 상태가 악화되면 ADAS AI 에이전트가 보조 AI 에이전트에 도로 상태가 좋지 않다는 정보를 전달하고, 보조 AI 에이전트는 이를 운전자에게 안내한다. 이후 AI 에이전트는 승차감을 보다 편안하게 만들기 위해 차량 설정을 자동으로 조정한다. 하드웨어 기반 레이 트레이싱 지원을 통해 퀄컴 테크놀로지스는 루멘을 활용해 사실적인 라이팅과 그림자를 구현하며 차량 내 비주얼을 매우 높은 퀄리티로 렌더링할 수 있다. 또한 포트나이트 테마를 비롯한 다양한 테마를 적용해 디스플레이를 커스터마이징할 수도 있다.   ▲ CES 2026에서 퀄컴 테크놀로지스의 ‘스냅드래곤 디지털 섀시’ 콘셉트 차량을 통해 시연된 언리얼 엔진 기반 차량 내 경험(출처 : 에픽게임즈)   소니 혼다 모빌리티 현재 양산 전 단계에 있는 아필라 1(AFEELA 1)은 소니 혼다 모빌리티(Sony Honda Mobility)의 첫 번째 모델이다. CES 2026에서 소니 혼다 모빌리티는 언리얼 엔진으로 구현된 인상적인 차량 내 경험을 갖춘 여러 대의 아필라 1 자동차를 선보였다. 아필라 1에 적용된 이 시네마틱 유저 인터페이스는 모든 주행을 연결되고 몰입감 있는 여정으로 바꿔준다. 3D 네이티브 지도 렌더링 시스템, 차량의 인지 정보를 실시간으로 시각화하는 차세대 ADAS 클러스터 뷰 모드, 그리고 실제 주행 데이터에 엔터테인먼트와 정보를 결합한 완전한 인터랙티브 인터페이스 등이 주요 기능으로 제공된다. 사용자는 다양한 테마 중에서 원하는 스타일을 선택할 수 있으며, 디지털 콕핏 디스플레이, 실내 조명, 미디어 바, 전기차 주행 사운드가 유기적으로 연동돼 하나의 통합되고 몰입감 있는 경험을 제공한다.(에픽은 포트나이트 테마를 테스트해보았다.) 소니 혼다 모빌리티가 언리얼 엔진을 활용해 아필라 1 디지털 콕핏을 개발한 과정이 궁금하다면 언리얼 페스트 올랜도 2025에서 녹화된 세션에서 확인이 가능하다.   ▲ CES 2026 현장에서 차량 디스플레이를 통해 포트나이트를 직접 체험하는 모습(출처 : 에픽게임즈)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-03-05
WD, 전문 콘텐츠 크리에이터용 스토리지 포트폴리오를 ‘G-DRIVE’ 브랜드로 통합
WD가 콘텐츠 크리에이터 및 크리에이티브 전문가용 외장 스토리지 제품 포트폴리오를 G-DRIVE 브랜드로 통합해 재출시한다고 밝혔다. WD는 이번 브랜드 통합을 통해 대용량 및 고성능 외장 스토리지 설루션을 G-DRIVE 브랜드로 일원화해 제공하고, 품질과 성능, 신뢰성을 바탕으로 크리에이터 시장에서의 제품 경쟁력을 강화한다는 계획이다. ‘G’ 로고의 G-DRIVE는 데스크톱 드라이브, 휴대용 드라이브, 멀티베이 RAID 시스템 등 WD의 크리에이터용 스토리지 라인업 전반에서 샌디스크 프로페셔널(SanDisk Professional) 브랜드를 대체한다. 이 제품군은 고해상도 사진 촬영 및 영상 제작, 그래픽 디자인, 오디오 엔지니어링 등 크리에이티브 분야에서 복잡한 워크플로를 고려해 설계됐다. 개인 사용자부터 기업, 제작 스튜디오까지, G-DRIVE 설루션은 현장 촬영에서 시작해 실시간 편집과 백업, 그리고 후반 작업(post-production)에 이르는 콘텐츠 제작 전 과정을 지원한다. 현재 샌디스크 프로페셔널 브랜드로 판매 중인 제품은 2월 말까지 순차적으로 G-DRIVE로 변경될 예정이다.     이번에 공개된 G-DRIVE 제품 라인업은 G-DRIVE ArmorATD, G-DRIVE, G-DRIVE PROJECT, G-RAID PROJECT 2, G-RAID SHUTTLE 4 및 SHUTTLE 8 등이다. G-DRIVE ArmorATD는 이동이 잦은 크리에이터를 위한 내구성을 갖춘 휴대용 스토리지 제품이다. 최대 6TB의 용량을 지원하며, 3중 충격 보호 구조와 IP54 등급의 방진 및 방수 설계, 알루미늄 인클로저로 내구성을 높였다. G-DRIVE는 워크스테이션 환경에서 영상 편집, 사진 라이브러리, 백업 및 콘텐츠 아카이빙을 지원하는 대용량 데스크톱 드라이브다. 엔터프라이즈급 Ultrastar HDD를 탑재해 최대 26TB의 용량을 제공하며, 빠른 전송 속도와 안정적인 성능을 제공한다. G-DRIVE PROJECT는 고부하 크리에이티브 작업을 위한 싱글 베이 썬더볼트 3 데스크톱 설루션이다. 엔터프라이즈급 Ultrastar HDD 스토리지를 기반으로 최대 26TB 용량을 지원하며, 대용량 및 고성능 워크로드에 최적화됐다. G-RAID PROJECT 2는 2베이 구성의 컴팩트한 썬더볼트 3 RAID 시스템으로, 기본 RAID 0 구성으로 제공되는 제품이다. 현장에서 드라이브 교체가 가능한 엔터프라이즈급 Ultrastar 드라이브를 탑재해, 최대 52TB 용량으로 후속 작업 성능을 강화했다. G-RAID SHUTTLE 4 및 SHUTTLE 8은 4베이와 8베이 구성의 휴대용 스토리지 어레이로, 핫스왑이 가능한 엔터프라이즈급 Ultrastar 드라이브를 기반으로 최대 208TB를 지원한다. 기본 RAID 5로 출고되며, 현장 데이터 관리 및 멀티 카메라 영상 제작을 위한 높은 전송 속도를 제공한다.   이번 브랜드명 변경은 WD가 지난해 2월 말 독립 HDD 기업으로 분사한 이후의 사업 흐름과 맞물려 추진됐다. 앞으로도 WD는 WD Gold(엔터프라이즈), WD Purple(스마트 비디오), WD Red(NAS), WD Blue(PC 생산성), WD_BLACK(게임) 등 컬러 포트폴리오 HDD 제품군을 계속해서 제공할 예정이다. WD의 데린 불릭(Darrin Bulik) 제품관리 총괄 디렉터는 “입문자부터 전문가까지, G-DRIVE는 모든 크리에이터의 작업 단계에서 신뢰받는 대용량 및 고성능 스토리지의 대명사로 자리 잡았다”며, “이번 통합은 검증된 G-DRIVE 브랜드 아래 크리에이터 스토리지 포트폴리오를 한데 모아 그동안의 레거시를 이어가는 것이다. 동시에, 업계를 선도하는 WD의 스토리지 혁신을 바탕으로 크리에이터들의 상상을 구현하는 데 필요한 도구를 제공하겠다는 뜻”이라고 말했다. 또한 “이는 현재 뿐만 아니라 미래에도 더 다양한 선택지를 제공하겠다는 약속이며, 크리에이터들이 기대하는 품질과 신뢰성이 그 바탕이 될 것”이라고 덧붙였다.
작성일 : 2026-02-20
[케이스 스터디] 인터랙티브 크레인 시각화 앱을 구축한 팔핑거
실시간 시각화 및 계산으로 크레인 판매 증가에 기여   팔핑거(PALFINGER)는 유니티 엔진을 활용해 인터랙티브 크레인 시각화 및 비교 도구인 팔쇼(PALSHOW)를 개발해 영업 및 마케팅을 위한 3D 협업, 실시간 시뮬레이션 및 시각화 등에 활용하고 있다. 유니티의 기술은 크레인의 구성과 성능을 시각화하고 비교하는 방식을 재정의함으로써, 팔핑거가 더 나은 의사결정을 할 수 있도록 지원한다. ■ 자료 제공 : 유니티 코리아     팔핑거는 혁신적인 크레인 및 리프팅 설루션을 전문으로 하는 기술 및 기계 공학 분야의 기업이다. 1만 2350명 이상의 직원, 30개 제조 시설, 그리고 전 세계적인 판매 및 서비스 네트워크를 보유한 팔핑거는 건설 및 운송부터 해상 및 해양 분야에 이르기까지 다양한 산업 전반에서 효율과 안전성을 높이는 첨단 장비를 제공한다. 팔핑거는 로더 크레인 분야의 글로벌 기업이자 목재 및 재활용 크레인, 후크리프트, 트럭 장착형 지게차, 접근 플랫폼 분야의 주요 제조업체이다. 유럽에서는 철도 시스템 및 교량 검사 장비 분야에서도 첨단 기술을 제공하고 있으며, 팔핑거 마린은 해상 부문의 갑판 장비 및 취급 설루션 분야에서 활약하고 있다. 팔핑거는 디지털 전환 여정을 지속하면서 실시간 3D 시뮬레이션, 클라우드 컴퓨팅, 자동화 같은 첨단 기술을 활용해 고객 경험을 높이고 가치 사슬 전반에 걸쳐 운영을 효율화하고 있다.   ▲ 작동 중인 크레인(출처 : 팔핑거)   팔쇼의 가치 : 한눈에 보는 영향 유니티에 기반해 팔핑거가 개발한 팔쇼 애플리케이션은 크레인 동작의 시각화, 비교 및 전달 방식을 변화시켜 접근성, 효율 및 사용자 경험 측면에서 측정 가능한 성과를 제공한다. 매월 600명 이상의 활성 유저를 보유하고 있으며, 여기에는 전 세계 영업팀, 유통업체 및 운영자가 포함된다. 1만 2300개 이상의 크레인 모델과 변형 모델을 시뮬레이션 및 비교에 활용 가능 CI/CD(지속적 통합 및 지속적 배포)를 통해 3주마다 새로운 버전을 출시 700여 개의 자동화된 테스트와 90%의 코드 커버리지(code coverage) 모든 최신 웹 브라우저를 통해 실시간 크레인 데이터에 즉시 접근 가능 분 단위가 아닌 초 단위로 크레인 구성과 리프팅 용량을 확인할 수 있어 시간을 절감 기술적 전문 지식 없이도 유저가 크레인의 작업 반경, 안정성 및 변형을 시각화할 수 있는 매끄럽고 직관적인 인터페이스 문서화, 규정 준수 및 고객 커뮤니케이션을 위한 간편한 내보내기 옵션(SVG 또는 PDF) 데이터 기반의 신속한 대화로 고객 참여도와 판매 자신감을 강화   ▲ 크레인 비교 및 적재 용량 분석(출처 : 팔핑거)   복잡한 크레인 데이터를 단순하고 시각적이며 접근 가능하게 만들기 팔핑거의 영업 및 유통 팀은 고객에게 크레인의 복잡한 기계 구조와 리프팅 동작을 보다 간편하게 보여줄 방법이 필요했다. 이전에는 팔쇼의 기능이 대형 데스크톱 애플리케이션 내에 포함되어 복잡한 설치, 로컬 데이터베이스 동기화, 잦은 업데이트가 필요했으며, 이는 단순히 크레인 움직임을 시각화하기만 원하는 유저에게 장벽을 조성했다. 이러한 과제를 극복하기 위해 팔핑거는 팔쇼를 웹 기반의 직관적이고 즉시 접근 가능한 설루션으로 개발했다. 팔쇼의 목표는 최신 브라우저에서 실행되는 실시간 상호작용 경험을 제공하여, 고객과 영업 팀이 소프트웨어 설치나 기술적 전문성 없이도 크레인 구성을 신속하고 자신 있게 탐색할 수 있도록 하는 것이었다.   ▲ 리프팅 용량 분석(출처 : 팔핑거)   팔쇼의 확장 가능한 웹 기반 유니티 기술 스택 내부 팔핑거는 유니티의 실시간 3D 엔진을 활용해 크레인 동작을 정확성, 속도, 시각적 선명도로 시뮬레이션하는 팔쇼를 구축했다. 팔쇼의 모든 기능은 웹 브라우저 내에서 직접 접근 가능하다. 이 애플리케이션은 크레인을 도식화된 측면도로 표시하여 유저가 작업 반경, 적재 용량, 안정성, 위치 조정 및 변형을 실시간으로 동적으로 탐색할 수 있도록 한다. 팔핑거의 내부 계산 프레임워크를 유니티와 통합함으로써, 개발 팀은 정밀한 물리 기반 계산과 직관적인 시각화를 결합할 수 있었다. 이를 통해 복잡한 기계 데이터를 빠르고 상호작용적이며 이해하기 쉬운 경험으로 전환했다.   ▲ 유니티 에디터에서 실행 중인 팔쇼 애플리케이션   유니티 웹GL(Unity WebGL)은 이 경험을 온라인으로 구현하는 핵심 역할을 수행하며, 로컬 설치나 대용량 다운로드 없이도 부드러운 성능을 제공한다. 새로운 기능과 개선 사항은 자동화된 CI/CD 파이프라인을 통해 지속적으로 배포되므로, 유저들은 항상 최신 버전으로 작업하게 된다. 이는 기존의 데스크톱 기반 접근 방식과는 크게 달라진 점이다. 앵귤러와 애저(Azure) 클라우드의 배포 및 플랫폼 통합 지원을 통해 팔쇼는 팔핑거의 팔데스크(PALDESK) 생태계에 원활하게 연결되며, 구성–가격–견적(configure–price–quote) 및 작업 플래너(job planner)와 같은 애플리케이션과 함께 작동한다. 팔핑거의 헤수스 곤살레스 로드리게스(Jesús González Rodríguez) 수석 소프트웨어 엔지니어는 “현재는 웹GL로만 내보내지만, 유니티의 멀티 플랫폼 기능과 내장 테스트 도구는 정말 훌륭하다. 파이프라인에서 종단 간 테스트를 실행하면 품질 보증이 쉬워진다”고 전했다.   ▲ 유니티 에디터에서 실행 중인 팔쇼 애플리케이션   팔쇼에 사용된 유니티 기술 브라우저 기반 렌더링 및 배포를 위한 유니티 웹GL 빌드 파이프라인 크레인 움직임, 도달률 및 구성 요소 형상을 시각화하기 위한 선 및 메시 렌더러 유니티 테스트 프레임워크 + 약 700개의 자동화된 테스트로 CI/CD를 지원하며 약 90%의 코드 커버리지를 달성 애저 데브옵스(Azure DevOps)용 유니티 도구로 지속적인 통합 및 배포를 지원 유니티용 누겟(NuGet)으로 효율적인 패키지 및 종속성 관리 팔핑거가 2D 도면을 3D로 변환하는 방식을 탐구하는 프로그램 기반 메시 생성 웹 환경에서 정확한 물리 시뮬레이션을 위한 실시간 백엔드 계산 통합   ▲ 팔쇼에서 크레인 검색(출처 : 팔핑거)   ▲ 팔쇼 애저 데브옵스 빌드 파이프라인을 유니티 자동화 작업으로 구현   유니티의 유연성 덕분에 팔핑거는 요구사항이 변화함에 따라 설루션을 신속하게 반복하고 확장할 수 있었다. 이 엔진은 신속한 프로토타이핑을 지원하여, 제품이 성장함에 따라 소프트웨어 팀이 CAD 기반 워크플로, 3D 메시 압출 및 새로운 시각화 모드를 실험할 수 있도록 한다. 또한 중요한 것은, 팔핑거가 인재를 유치하고 육성하는 데 유니티가 도움을 준다는 점이다. 팔쇼는 특히 게임, UI(사용자 인터페이스) 또는 닷넷(.NET) 배경의 개발자가 접근하기 쉬운 도구 덕분에 아이디어가 신속하게 작동하는 기능으로 전환되는 플랫폼이 되었다. 팔핑거는 정기적으로 학생 및 인턴과 협력하여 새로운 개념 증명(PoC) 및 프로토타입을 탐구함으로써 숙련된 유니티 인재 풀을 강화하고 있다. 로드리게스 수석 엔지니어는 “유니티로 작업해 보면 이 엔진이 얼마나 유연한지 알 수 있다. 게임을 구동하는 동일한 환경으로 복잡한 산업용 애플리케이션도 손쉽고 효율적으로 구동할 수 있다. 닷넷에 대한 지식과 비디오 게임 및 UI 상호작용에 대한 열정을 우리 제품에 결합할 수 있었다”고 말했다.   ▲ 애플리케이션 코드 커버리지 요약(출처 : 팔핑거)   ▲ 팔쇼의 크레인 구성(출처 : 팔핑거)   더 빠른 의사 결정과 더 확신 있는 고객 대화 촉진 팔쇼는 팔핑거의 영업 생태계 전반에서 필수 도구로 빠르게 자리 잡았으며, 내부 팀, 유통업체 및 운영자가 크레인 구성을 실시간으로 검증할 수 있도록 지원한다. 데스크톱 설치나 대규모 데이터베이스 동기화를 거칠 필요 없이, 사용자는 브라우저를 열어 다양한 크레인 모델이 하중 하에서 어떻게 작동하는지 즉시 확인할 수 있다. 이를 통해 준비 시간이 몇 분에서 몇 초로 단축된다. 이 애플리케이션은 직관적인 작업 흐름을 지원해 전문적인 기술 지식이 필요하지 않게 됐다. 사용자는 단순히 크레인을 선택하고 도면에 목표 위치를 설정하면 즉시 적재 용량, 도달률 및 안정성에 대한 피드백을 받는다. 복잡한 기계적 계산이 깔끔한 시각적 경험으로 전환되어, 수십만 유로에 달하는 크레인이 현장에 도착하기 훨씬 전에 그 성능을 고객이 이해할 수 있도록 돕는다. 팔핑거의 기술 소프트웨어 애플리케이션 부문 책임자인 크리스티안 페르슐(Christian Perschl)은 “복잡한 프로그램을 설치하는 데 더 이상 관리자 권한이 필요하지 않다”고 설명했다. 이 웹 도구는 여러 플랫폼에서 실행되며 테슬라 인포테인먼트 시스템에서도 작동한다. 작업 플래너 환경 내에서 팔쇼는 한 걸음 더 나아간다. 유저는 환경 조건을 시뮬레이션하고, 안정성을 확인하며, 장애물을 그려 리프트 작업 중 발생할 수 있는 잠재적 충돌을 예측할 수 있다. 이러한 통찰력은 위험을 줄이고, 계획을 간소화하며, 규정 준수를 보장하는 데 도움이 된다. 특히 작업 전 시뮬레이션이 의무화된 지역 및 도시에서 더욱 그러하다. PDF 또는 SVG로 내보내기 옵션은 최소한의 노력으로 문서화, 리포트 및 고객 승인을 지원한다. 팔쇼는 실시간 3D 시각화와 지속적 배포, 확장 가능한 브라우저 기반 아키텍처를 결합하여 팔핑거의 디지털 영업 경험을 강화했다. 이를 통해 의사소통을 가속화하고 의사 결정의 확신을 높였으며, 복잡성이 걸림돌이 되었던 부분에 명확성을 제공함으로써 팀의 업무 수행을 지원한다. 페르슐은 “동적 리프팅 용량 다이어그램이 포함된 이 프로그램은 글로벌 영업 팀이 고객과의 회의에서 활용할 수 있도록 지원한다. 또한 차량 관리자가 크레인 운전자를 교육하여 당사의 우수한 제품을 최대한 활용할 수 있도록 하는 데에도 활용될 수 있다”고 설명했다.   ▲ 팔쇼 PK 880 TEC 크레인 구성(출처 : 팔핑거)   팔핑거의 확장되는 디지털 세계에서 다음은 무엇인가 팔핑거의 소프트웨어 개발 팀은 공간 계획, 크레인 위치 지정 및 현장 시나리오 검증을 더욱 향상시키기 위해 구글 맵스 통합 및 탑뷰 상호작용 기능을 계획하며 팔쇼 경험을 지속적으로 발전시키고 있다. 차세대 팔쇼는 기술 간 복잡성을 줄이고 작업 흐름의 유연성을 개선함으로써, 리프트 전 계획 수립과 고객 논의 과정에서 더욱 명확한 방향성을 제시할 것이다. 기능적 진화를 넘어, 팔핑거는 더 깊은 차원의 3D 미래를 목표로 삼고 있다. 이 여정에서 유니티는 핵심 역할을 수행한다. 팀은 2D 그래픽을 가벼운 3D 메시로 변환하는 것부터 더 몰입감 있는 디지털 표현을 위한 CAD 기반 지오메트리 실험에 이르기까지 새로운 시각화 접근법을 탐구한다. 이러한 노력은 팔핑거가 시각화를 단순한 부가 기능이 아닌 중장비의 구성, 이해, 판매 및 운영 방식의 핵심 요소로 만들겠다는 야망을 반영한다. 팔핑거의 소프트웨어 개발자이면서 유니티 전문가인 토마시 오니시크(Tomasz Oniśk)는 “팔핑거에서는 3D를 전략적 주제로 간주한다. 유니티는 복잡한 데이터를 시각화하고 팀과 고객에게 생생하게 전달하는 새로운 방법을 탐구하는 데 도움을 준다”고 전했다.   ▲ 팔쇼 PK 880 TEC 리프팅 분석(출처 : 팔핑거)   ▲ 팔쇼 PK 880 TEC 크레인 제어 장치(출처 : 팔핑거)   팔핑거의 미래 전략에 명시된 바와 같이, 이 회사는 혁신, 디지털화 및 실시간 데이터 경험을 통해 리프팅 설루션의 미래를 선도해 나가고 있다. 이를 통해 고객에게 작업의 안전성, 속도 및 예측 가능성을 높이는 도구를 제공함으로써 고객 역량을 강화하고 있다. 팔쇼는 그 방향을 향한 초기 이정표이며, 그 진화는 더 광범위한 변혁을 예고한다. 고급 시뮬레이션이 전문적인 작업 흐름이 아닌 일상적인 역량이 되는 변혁이다. 유니티를 기반으로 팔핑거는 단순한 애플리케이션을 넘어, 차세대 지능형 리프팅을 위해 설계된 확장 가능한 디지털 생태계를 창조하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-02-04
로지텍, AI로 화상회의 경험 높이는 ‘랠리 AI 카메라’ 시리즈 공개
로지텍 코리아가 AI 기능을 탑재한 차세대 화상회의 카메라 ‘랠리 AI 카메라(Rally AI Camera)’ 시리즈를 공개했다. 이번에 선보인 제품은 ‘랠리 AI 카메라’와 ‘랠리 AI 카메라 프로’ 등 2종이다. 이번 신제품은 AI 기반 영상 인텔리전스와 고성능 광학 기술을 결합해, 대형 회의실과 다목적 공간 등 구조가 복잡한 환경에서도 또렷하고 안정적인 하이브리드 회의 경험을 구현한다. 콤팩트한 디자인과 인월(in-wall) 설치 옵션을 적용해 공간과 자연스럽게 어우러지도록 설계됐으며, 카메라의 존재감을 최소화하면서도 완성도 높은 전문 회의 환경을 제공하는 것이 특징이다.     랠리 AI 카메라 시리즈는 로지텍의 AI 비디오 기술 ‘라이트라이트 2(RightLight 2)’를 기반으로 실시간 자동 프레이밍 기능을 지원한다. 회의 중 참석자의 위치와 인원 구성, 발언 상황을 지능적으로 인식해 그룹 뷰, 스피커 뷰, 그리드 뷰로 화면을 자동 전환함으로써 화면 편중을 줄이고, 모든 참석자가 자연스럽게 상호작용할 수 있는 환경을 구현한다. 광학 성능도 강화됐다. 20메가픽셀 1인치 이미지 센서와 115도 초광각 렌즈를 적용해 넓은 공간에서도 참가자의 표정과 움직임을 선명하게 담아내며, 저조도 환경에서도 안정적인 화질을 유지한다. 랠리 AI 카메라 프로는 여기에 최대 15배 하이브리드 줌을 지원하는 광학 카메라를 더한 듀얼 카메라 시스템을 탑재해, 공간의 규모나 구조에 구애받지 않고 발표자와 참석자를 정밀하게 포착해 보다 생생한 회의 경험을 제공한다. 랠리 AI 카메라 시리즈는 단일 카메라는 물론 다중 카메라 환경에도 최적화됐다. 랠리 AI 카메라 단독 설치는 물론, 로지텍의 다른 카메라와 조합해 사용할 수 있으며, 줌 인텔리전트 디렉터(Zoom Intelligent Director) 및 마이크로소프트 팀즈(Microsoft Teams)의 다중 카메라 뷰 기능과 연동해 복수의 카메라 화면을 상황에 맞게 자연스럽게 전환한다. 이를 통해 대형 회의실에서도 시점의 제약 없는 유연한 화면 구성이 가능해져 몰입도를 한층 높인다. 설치와 운영 측면에서도 효율을 강화했다. USB 또는 옵션인 랠리 AI 카메라 익스텐션 킷(Rally AI Camera Extension Kit)을 활용한 단일 케이블 연결로 설치 과정을 단순화했으며, 랠리 플러스(Rally Plus)를 비롯한 로지텍 오디오 설루션 및 다양한 프로 오디오 시스템과도 손쉽게 연동된다. 또한 와이파이 또는 이더넷을 통한 로지텍 싱크(Logitech Sync) 기반 네트워크 관리 기능을 제공해 원격 배포, 업데이트, 문제 해결을 직관적인 인터페이스에서 일괄적으로 수행할 수 있다. 로지텍 코리아는 “랠리 AI 카메라 시리즈는 로지텍이 축적해 온 AI 비디오 기술과 하드웨어 설계 역량이 집약된 제품으로, 회의 공간이 요구하는 복잡한 조건을 하나의 플랫폼으로 해결한다”면서, “앞으로도 AI 기반 화상회의 혁신을 통해 기업과 조직이 어떤 환경에서도 최적의 협업 경험을 구현할 수 있도록 혁신을 이어갈 것”이라고 밝혔다.
작성일 : 2026-01-30