• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 이미지 생성 AI"에 대한 통합 검색 내용이 2,815개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
어도비, 생성형 AI 비서 ‘파이어플라이 AI 어시스턴트’ 공개
어도비가 크리에이티브 에이전트 기반의 ‘파이어플라이 AI 어시스턴트(Firefly AI Assistant)’를 공개하며 생성형 AI 기술의 새로운 혁신을 선보였다. 파이어플라이 AI 어시스턴트는 어도비의 다양한 창작 도구를 하나의 대화형 인터페이스로 통합한 것이 특징이다. 이 서비스는 어도비 파이어플라이에서 곧 사용할 수 있다. 크리에이터가 일상적인 언어로 원하는 결과물을 설명하면 파이어플라이를 비롯해 포토샵, 프리미어, 라이트룸, 익스프레스, 일러스트레이터 등 크리에이티브 클라우드 앱 전반의 복잡한 작업을 조율하고 실행한다. 어도비는 이번 발표가 크리에이티브 작업 방식의 근본적인 변화를 의미한다고 설명했다. 크리에이터가 비전과 방향성을 제시하면 어시스턴트가 작업을 수행하는 구조로, 창작 과정에 드는 시간과 노력을 줄이면서도 제작자의 주도권을 유지하도록 설계했다.     영상 및 이미지 편집 기능도 강화했다. 파이어플라이 비디오 에디터에는 노이즈를 줄이고 음질을 개선하는 음성 강화 기능과 정밀한 색상 조정 기능이 추가됐다. 또한 8억 개 이상의 라이선스 애셋을 보유한 어도비 스톡을 워크플로 내에서 바로 활용할 수 있다. 이미지 편집에서는 ‘정밀도 흐름’과 ‘AI 마크업’ 기능을 도입했다. 정밀도 흐름은 슬라이더를 이용해 이미지의 변형 정도를 세밀하게 탐색할 수 있는 기능이다. AI 마크업은 브러시나 사각형 도구로 편집 위치를 직접 지정해 사물을 배치하거나 조명을 조정하는 정밀 제어를 지원한다. 어도비는 자체 모델 외에도 외부 AI 모델과의 협력을 확대했다. 클링 3.0과 클링 3.0 옴니를 비롯해 구글의 나노 바나나 2, 비오 3.1, 런웨이의 젠-4.5 등 30개 이상의 AI 모델을 파이어플라이에서 제공한다. 이를 통해 크리에이터는 작업 목적에 맞는 최적의 모델을 선택할 수 있는 유연성을 갖게 됐다. 협업 툴인 프레임닷아이오와의 통합도 이루어진다. 어시스턴트에게 작업물 공유를 요청하면 이해관계자의 피드백을 해석해 최적의 도구로 변경 사항을 자동 적용한다. 아울러 앤트로픽의 클로드와 같은 외부 모델에서도 어도비의 기능을 호출해 사용할 수 있도록 지원할 계획이다. 어도비의 데이비드 와드와니 사장은 “크리에이터의 관점과 취향이 가장 강력한 도구가 되는 시대를 이끌고 있다”면서, “파이어플라이는 모든 어도비 앱의 성능을 하나로 통합해 새로운 창작 방식을 제시한다고 밝혔다. 파이어플라이 AI 어시스턴트는 몇 주 안에 공개 베타 버전으로 제공될 예정이다. 새로운 영상 및 이미지 편집 기능과 신규 파트너 모델은 파이어플라이 플랜 이용자를 대상으로 현재 서비스 중이다.
작성일 : 2026-04-16
알리바바, 스스로 코딩하고 영상 읽는 차세대 AI 모델 2종 공개
알리바바는 복잡한 소프트웨어 개발을 스스로 해내는 큐웬3.6-플러스(Qwen3.6-Plus)와 텍스트, 음성, 영상 등 다양한 매체를 한 번에 처리하는 큐웬3.5-옴니(Qwen3.5-Omni) 등 인공지능 모델 2종을 공개했다. 큐웬3.6-플러스는 에이전틱 코딩과 멀티모달 추론에 특화한 모델이다. 단순히 질문에 답하는 수준을 넘어, 소프트웨어 저장소 단위의 엔지니어링 작업과 시각 정보를 바탕으로 한 문제 해결을 수행한다. 이 모델의 핵심은 인식과 추론, 행동을 하나의 흐름으로 연결하는 능력 루프 구조다. 이를 통해 코드 구상부터 테스트, 반복 개선을 거쳐 실제 적용할 수 있는 결과물을 만드는 과정을 지원한다. 특히 웹 개발 과정에서 목표 분해부터 최종 정제까지 전 과정을 자율적으로 처리하며 100만 토큰의 컨텍스트 창을 지원한다. 시각적 코딩 기능을 활용하면 화면 캡처나 손으로 그린 도안을 해석해 실제 동작하는 코드로 바꿀 수도 있다. 알리바바는 이 모델이 리테일 인텔리전스나 자동화 검사처럼 단계별 실행이 필요한 기업 환경에서 안정성과 정확도를 높였다고 설명했다. 큐웬3.6-플러스는 모델 스튜디오와 큐웬 챗에서 사용할 수 있으며 향후 일부 모델은 오픈소스로도 제공할 계획이다. 함께 공개한 큐웬3.5-옴니는 텍스트와 음성, 이미지, 영상을 단일 모델에서 통합 처리하는 옴니모달 인공지능이다. 여러 유형의 데이터를 하나로 통합해 실시간 상호작용 역량을 높인 것이 특징이다. 라이브 스트리밍이나 지능형 음성 비서, 영상 자막 생성 등 다양한 분야에 활용할 수 있다. 큐웬3.5-옴니는 플러스, 플래시, 라이트 세 가지 버전으로 나뉘며 모두 최대 25만 6000 토큰 컨텍스트를 지원한다. 알리바바는 “최상위 모델인 큐웬3.5-옴니-플러스가 200개 이상의 성능 평가에서 최고 수준을 기록했으며, 음성 이해와 추론 등 여러 영역에서 제미나이 3.1 프로보다 우수한 성능을 보였다”고 밝혔다. 이 모델은 10시간 이상의 연속 오디오를 처리할 수 있으며 113개 언어의 음성 인식과 36개 언어의 음성 생성을 지원한다. 영상 콘텐츠를 장면 단위로 나누거나 등장인물의 관계를 포함한 대본 수준의 설명을 만드는 것도 가능하다. 또한 오디오-비주얼 바이브 코딩 기능을 통해 사용자가 스케치를 보여주며 음성으로 설명하면 앱이나 웹사이트용 화면을 즉석에서 만들어낸다. 실시간 대화 시에는 목소리 크기와 속도, 감정을 세밀하게 조절해 자연스러운 소통을 돕는다.
작성일 : 2026-04-06
오토데스크, 3D 캐릭터 제작 돕는 생성형 AI ‘원더 3D’ 공개
오토데스크가 오토데스크 플로 스튜디오(Autodesk Flow Studio) 내에 새로운 생성형 AI 모델인 ‘원더 3D(Wonder 3D)’를 출시했다. 과거 원더 스튜디오(Wonder Studio)로 알려졌던 클라우드 기반 플랫폼인 오토데스크 플로 스튜디오는 AI를 활용해 모션 캡처, 카메라 트래킹, 캐릭터 애니메이션 등 복잡한 VFX 작업을 자동화한다. 이번에 선보인 원더 3D는 아티스트와 스튜디오, 크리에이터가 텍스트와 이미지를 편집 가능한 3D 자산으로 더 빠르고 직관적으로 변환할 수 있도록 설계됐다. 3D 캐릭터와 오브젝트를 제작하는 과정은 그동안 상당한 수작업이 필요한 복잡한 영역이었다. 원더 3D는 텍스트 투 3D(Text to 3D), 이미지 투 3D(Image to 3D), 텍스트 투 이미지(Text to Image) 기능을 통해 단순한 텍스트나 참조 이미지 만으로도 3D 자산을 생성할 수 있도록 한다. 생성된 결과물은 프로젝트에 맞춰 정교하게 다듬거나 재구성해 다시 사용할 수 있어 초기 구상부터 실제 제작에 이르는 워크플로를 단축한다. 캐릭터와 소품 제작 시간을 줄이고 제작팀의 병목 현상을 해결함으로써 창의적인 의도나 유연성을 유지하면서도 3D 제작의 진입 장벽을 낮췄다.     원더 3D는 크리에이터가 기술적인 부담에서 벗어나 스토리텔링에 집중할 수 있도록 돕는다. ▲텍스트 투 3D는 텍스트 프롬프트를 입력하면 편집 가능한 3D 캐릭터나 생명체, 소품으로 변환한다. 크리에이터가 구상한 내용을 설명하면 기하학적 구조와 질감이 포함된 상세한 3D 자산을 생성하며, 이를 다양한 프로젝트에서 재사용할 수 있다. ▲이미지 투 3D는 스케치나 참조 이미지, 콘셉트 아트를 텍스트가 포함된 3D 모델로 바꾼다. 한 장의 이미지로도 편집 가능한 자산을 만들 수 있으며 개발 과정에 따라 형태나 질감, 구조를 자유롭게 조정할 수 있다. ▲텍스트 투 이미지는 몇 초 만에 콘셉트 비주얼을 생성해 캐릭터나 장면, 스타일을 탐색하게 돕는다. 가장 뛰어난 아이디어를 선택해 3D 워크플로로 직접 가져와 추가 개발을 진행할 수 있다. ▲제작된 결과물은 USD, STL, OBJ 파일 형식으로 내보낼 수 있다. 이를 통해 다양한 소프트웨어에서 추가 작업을 이어가거나 3D 프린팅, 물리적 프로토타입 제작, 실제 모델 제작 등 온·오프라인을 넘나드는 활용이 가능하다. 원더 3D는 제작팀이 짧은 시간 안에 더 많은 콘텐츠를 제공해야 하는 압박 속에서 제작 공정을 간소화하고 새로운 창의적 가능성을 열어준다. 전문 스튜디오는 캐릭터와 소품의 프로토타입을 빠르게 제작할 수 있고, 버추얼 프로덕션 및 XR 팀은 사용 가능한 3D 모델로 장면을 신속하게 채울 수 있다. 인디 개발자나 취미 활동가들도 대규모 팀 없이 고품질 3D 자산을 구축할 수 있으며, 마케팅 팀은 캠페인이나 클라이언트 시연을 위한 3D 모델을 유연하게 제작할 수 있다. 생성형 AI와 편집 가능한 워크플로를 결합한 원더 3D는 제어력과 품질을 유지하면서 제작 속도를 높인다. 오토데스크는 이를 통해 오토데스크 플로 스튜디오가 3D 제작을 위한 접근성 높은 입문점이자 디지털과 물리적 워크플로를 아우르는 강력한 프로토타이핑 도구가 될 것으로 기대하고 있다. 오토데스크의 자회사인 원더 다이내믹스의 공동 설립자 니콜라 토도로비치(Nikola Todorovic)는 “3D 자산 제작은 전통적으로 많은 수작업이 필요한 어려운 과정이었다”면서, “원더 3D는 이러한 고충을 해결하고 모든 숙련도의 크리에이터가 제작 속도를 늦추지 않고도 신속하게 3D 자산을 생성하고 반복 작업할 수 있도록 돕기 위해 개발했다”고 밝혔다.
작성일 : 2026-04-03
CNG TV, AI 에이전트 대전환 시대, 전문성 설계부터 코딩 혁명까지 소개
캐드앤그래픽스 CNG TV는 ‘AI 에이전트 대전환, 전문성 설계부터 코딩 혁명까지’를 주제로 인공지능팩토리 김태영 대표와 소이랩(SOY.LAB) 최돈현 대표를 초청, 방송을 진행했다. 이번 방송에서는 CNG TV 전문위원인 한국건설기술연구원 강태욱 연구위원의 사회로 최근 뜨거운 이슈가 되고 있는 AI 에이전트 트렌드에 대해 살펴보았다. 자세한 내용은 다시보기 페이지에서 확인할 수 있다.   CNG TV 발표자 - 김태영 대표(인공지능팩토리), 최돈현 대표(SOY.LAB)   AI 에이전트 대전환 시대, 전문가의 설계와 코딩 혁명이 가져올 미래 단순한 도구 활용을 넘어 AI 에이전트(AIA)가 업무의 주축이 되는 대격변의 시대가 도래했다. 기술의 단순 재현(Representation)을 넘어 전문가가 직접 시스템을 설계(Design)하고 지휘(Orchestration)하는 생존 전략이 필요한 시점이다. 인공지능팩토리 김태영 대표와 SOY.LAB 최돈현 대표는 이번 방송을 통해 AI 에이전트의 최신 흐름과 실무 적용 방안을 심도 있게 다루었다. AI 에이전트의 진화: 툴 콜링에서 자율적 임무 수행까지 AI 기술은 LLM(대규모 언어 모델)에서 시작하여 RAG(검색 증강 생성), 멀티턴 대화, 그리고 도구를 직접 호출하는 '툴 콜링(Tool Calling)' 단계로 빠르게 진화했다. 과거에는 개발자만이 API를 통해 도구를 연결할 수 있었으나, MCP(Model Context Protocol)의 등장으로 일반 엔지니어도 다양한 외부 기능을 에이전트에 연결할 수 있는 길이 열렸다. 특히 최근 주목받는 '오픈클로(OpenClaw)' 시스템은 하트비트(Heartbeat) 기능을 통해 에이전트를 주기적으로 깨워 스스로 업무를 수행하게 한다. 이는 사용자가 일일이 명령을 내리는 리액티브(Reactive) 방식을 넘어, AI가 스스로 판단하고 실행하는 프로액티브(Proactive) 방식으로의 전환을 의미한다. 김태영 대표는 실제 실험을 통해 에이전트의 자율적 업무 가능성을 확인했다고 밝혔다. 바이브 코딩과 코딩 에이전트가 만드는 생산성 혁명 '바이브 코딩(Vibe Coding)'의 등장은 개발 생태계에 큰 충격을 주었다. 커서(Cursor)나 클로드 코드(Claude Code)와 같은 에이전트는 파일 시스템에 접근하여 스스로 코드를 수정하고 실행하며, 사용자의 의도(Vibe)만으로 결과물을 만들어낸다. 이러한 에이전트는 단순히 코드 작성에 그치지 않고 문서 작성, PPT 제작, 웹페이지 구축 등 다양한 스킬(Skill)을 장착하여 범용적인 업무 비서로 진화하고 있다. 하지만 에이전트가 공유기 설정을 변경하거나 시스템 보안을 위협할 수 있는 수준까지 발전함에 따라, 격리된 환경(샌드박스)에서의 운영과 시스템적 보안 설계가 필수가 되었다. 시댄스 2.0과 비주얼 생성 AI의 격변 영상 및 이미지 생성 분야에서도 거대한 변화가 일어나고 있다. 바이트댄스(Bytedance)의 '시덴스(Seedance) 2.0'은 실사에 가까운 고품질 영상 생성 능력을 보여주며 기존의 글로벌 모델들을 위협하고 있다. 이미지 한 장으로 비행기 탈출 장면과 같은 역동적인 영상을 생성하거나, 짧은 명령만으로 고수준의 광고 영상을 제작하는 것이 가능해졌다. 또한 '컴피 클라우드(Comfy Cloud)'의 등장은 고가의 그래픽 카드 없이도 저렴한 비용으로 전문가급 워크플로우를 구축할 수 있게 했다. 이는 개인이 GPU 자원을 클라우드에서 활용하며 복잡한 노드 기반의 생성 프로세스를 운영할 수 있게 됨으로써, 1인 창작자의 기술적 진입 장벽을 혁신적으로 낮추었다. 전문가의 역할 변화와 미래 지향적 관점 AI가 숙련가의 영역을 대체함에 따라, 인간 전문가의 역할은 '어떻게 만드느냐'보다 '무엇을 설계하느냐'로 이동하고 있다. 최돈현 대표는 인문학적 소양과 예술적 통찰력을 바탕으로 한 전문성이 결여된 AI 결과물은 시장에서 오래 살아남기 어렵다고 강조했다. 앞으로의 산업 구조에서는 큰 기업에 소속된 인재보다, AI 에이전트를 지휘하여 가치를 창출하는 '1인 기업가'의 비중이 높아질 것으로 예측된다. 따라서 기술에 매몰되기보다 본연의 도메인 지식을 강화하고, AI를 효율적으로 지휘하는 설계 능력을 갖추는 것이 생존의 핵심이다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
DJI, 8K 360도 촬영 지원하는 플래그십 드론 ‘아바타 360’ 출시
DJI는 8K 360도 영상 촬영이 가능한 플래그십 드론인 아바타 360(Avata 360)을 출시했다. 이번 신제품은 한 번의 촬영으로 다양한 창작물을 만들 수 있도록 설계했으며 16mm(1인치) 상당의 이미지 센서를 탑재해 8K 60fps HDR 동영상을 구현한다. 아바타 360은 두 가지 렌즈를 전환하며 사용할 수 있는 것이 특징이다. 360도 렌즈는 1억 2000만 화소의 사진과 고해상도 영상을 기록하며 2.4μm의 대형 픽셀을 통해 빛과 그림자를 섬세하게 표현한다. 촬영한 영상은 후반 작업에서 원하는 각도로 리프레임할 수 있어 활용도가 높다. 싱글 렌즈 모드로 전환하면 기존 아바타 시리즈와 같은 4K 60fps 촬영도 가능하다.     비행 성능과 안전성도 강화했다. DJI의 플래그십 O4+ 영상 전송 시스템을 적용해 최대 20km 거리에서도 1080p 60fps의 고화질 라이브 피드를 전송한다. 비행시간은 최대 23분이며, 야간 전방향 장애물 감지 기능과 일체형 프로펠러 가드를 갖춰 안전한 비행 환경을 제공한다. 카메라 전면 렌즈가 손상되었을 때는 별도로 판매하는 교체용 렌즈 키트를 이용해 사용자가 직접 수리할 수 있다. 지능형 촬영 기능도 다양하게 탑재했다. 피사체를 자동으로 추적하는 액티브트랙 360도 기능은 스탠다드 모드와 사이클링 모드를 지원해 복잡한 환경에서도 피사체를 놓치지 않는다. 스포트라이트 프리 기능은 사람의 얼굴을 인식해 수동 조작 없이도 원형 비행이나 드로니 샷을 촬영할 수 있게 돕는다. 360도 뷰를 활용한 가상 짐벌 기능을 사용하면 비행 중에도 수평선을 회전시키거나 시점을 자유롭게 전환하는 역동적인 연출이 가능하다. 데이터 관리와 편집 편의성도 높였다. 42GB의 내부 저장 장치를 내장해 마이크로SD 카드 없이도 8K 영상을 약 30분 동안 저장할 수 있다. 와이파이 6 기술을 통해 1GB 용량의 영상을 10초 안에 전송하는 고속 전송 기능도 지원한다. DJI 플라이 앱의 자이로프레임 기능을 활용하면 스마트폰에서 즉시 영상을 편집하고 공유할 수 있다. 아바타 360은 조종기 구성에 따라 기체 단독 모델은 58만 8000원이며, DJI RC 2가 포함된 구성은 92만 5000원이다. 배터리 및 충전 허브 등이 추가된 플라이 모어 콤보와 DJI 고글 N3 및 DJI RC 모션 3 등이 포함된 모션 플라이 모어 콤보는 각각 115만 7000원에 판매된다. DJI는 제품 파손 시 교체 서비스를 제공하는 종합 보호 플랜인 DJI 케어 리프레시를 이번 신제품에도 적용한다고 밝혔다.
작성일 : 2026-03-27
[신간] 나노바나나로 AI툰 제작하기
김한재 지음 / 3만 2000원 / 비엘북스 이제는 AI 창작의 시대다. 하지만 많은 사람이 ‘그럴듯한 이미지 한 장’을 만드는 데서 멈추곤 한다. 웹툰 연재를 꿈꾸며 AI의 도움을 받아 보지만, 회차가 바뀔 때마다 달라지는 주인공의 얼굴, 따로 노는 배경 분위기, 프롬프트 앞에서 막혀버리는 스토리 때문에 결국 완성의 문턱을 넘지 못하는 것이 현실이다. <나노바나나로 AI툰 제작하기>는 단순한 이미지 제작 기술서를 넘어, 머릿속 이야기를 실제 작품으로 완성하는 기획부터 출판까지의 전 과정을 담은 실전 가이드북이다. 이 책이 주목하는 ‘나노바나나’는 구글의 최신 AI 모델로, 웹툰 제작의 고질적 난제인 일관성 유지와 정밀한 제어에서 강력한 성능을 발휘한다. 저자는 AI를 전지전능한 기계로 보기보다, 작가의 의도를 정확히 실행하는 성실한 ‘스태프’로 활용하라고 조언한다. 작가는 기획과 연출을 책임지는 감독이 되고, AI는 이를 시각화하는 파트너가 되는 새로운 협업 모델을 제시하며 일반인도 창작의 주역이 될 수 있는 ‘웹툰의 민주화’를 이끈다. 책에서 강조하는 AI툰 제작의 핵심 요소는 크게 세 가지다. 첫째는 캐릭터 일관성이다. 성격과 외형을 구조화한 페르소나 시트와 고정 프롬프트를 통해 1화부터 마지막 화까지 동일한 인물을 유지하는 라이브러리 구축법을 소개한다. 둘째는 공간과 분위기 연출이다. 일상 사진을 웹툰 배경으로 변환하거나 같은 공간을 다양한 앵글로 재활용하는 노하우를 통해 제작 시간을 줄이면서 완성도를 높인다. 셋째는 스토리텔링이다. 만다라트 기법과 3막 구조를 통해 아이디어를 만화의 언어로 바꾸고, 제미나이(Gemini)를 활용해 대사와 리듬을 정교화하는 단계를 안내한다. 이 책의 실전 예제 파트에서는 4컷 인스타툰부터 2페이지 만화, 애니메이션 뮤직비디오, 책 표지 제작까지 다양한 장르를 다룬다. 특히 구글 AI Studio를 활용해 코딩 없이 나만의 AI 제작 스튜디오 앱을 만드는 과정은 독자에게 흥미로운 경험을 선사한다. 여기에 더해 특별 부록으로 제공되는 ‘웹툰 제작 워크북’은 캐릭터 설정 시트와 컷 구성 템플릿 등 실무에 즉시 적용 가능한 도구들을 모아놓아 초보 창작자의 막막함을 해소해 준다. 그림 실력이라는 물리적 한계에 부딪혀 창작을 포기했던 이들이라면, 이 책과 워크북을 통해 AI라는 새로운 붓을 들고 나만의 세계를 그려보길 추천한다. 이제 웹툰은 소수의 전유물이 아니라, 자신의 목소리를 내고 싶은 현대인이라면 누구나 즐길 수 있는 가장 강력한 소통의 도구가 되어줄 것이다.
작성일 : 2026-03-25
에이서, 인텔 루나레이크 탑재한 초경량 AI 노트북 ‘스위프트 고 AI’ 시리즈 출시
에이서는 인텔의 코어 울트라 시리즈 2 프로세서를 탑재한 AI 노트북 ‘스위프트 고 14 AI’와 ‘스위프트 고 16 AI’를 출시했다. 이번 신제품은 루나레이크라는 코드명으로 알려진 인텔의 새로운 플랫폼을 기반으로 제작했다. 스위프트 고 AI 시리즈는 CPU와 GPU, NPU(신경망처리장치)를 하나로 통합한 구조를 갖췄다. 이를 통해 콘텐츠 제작과 여러 업무를 동시에 처리하는 환경에서 성능과 전력 효율을 높일 수 있도록 했다. 에이서에 따르면 이번 신제품은 기기 자체에서 구동하는 온디바이스 AI를 통해 이미지 생성과 문서 요약, 번역 등의 작업을 빠르고 효율적으로 지원한다. 배터리 성능도 강화했다. 스위프트 고 14 AI는 최대 26시간, 스위프트 고 16 AI는 최대 25시간 30분 동안 사용할 수 있어 외부에서도 끊김 없는 업무가 가능하다. 휴대성을 강조한 스위프트 고 14 AI 모델은 무게가 약 1.24kg이며, 화면이 더 큰 스위프트 고 16 AI 모델은 약 1.52kg이다. 두 모델 모두 15.9mm의 얇은 두께와 알루미늄 본체를 적용해 이동 편의성을 높였다.     디스플레이는 16 대 10 비율의 해상도를 지원하는 IPS 패널을 사용했다. 초당 최대 120개의 화면을 보여주는 주사율과 350니트의 밝기를 갖췄다. 화면을 180도까지 펼칠 수 있는 구조를 채택해 다양한 각도에서 업무나 콘텐츠 시청이 가능하다. 성능 면에서는 인텔 아크(Arc) 그래픽과 최대 32GB 용량의 메모리, 빠른 속도의 저장장치를 탑재했다. 에이서 측은 최근 메모리 가격 상승과 수급 불안정 상황에서도 고용량 메모리를 탑재하면서 가격 인상을 최소화해 안정적인 작업 환경을 제공하고자 했다고 설명했다. 편의 기능으로는 멀티 컨트롤 터치패드와 인공지능 비서인 코파일럿 전용 키를 배치했다. 또한 에이서센스와 인공지능 기반의 화상 회의 지원 기술을 포함해 사용자 경험을 높였다. 최신 무선 랜 규격인 와이파이 7과 입체 음향 기술도 지원한다. 에이서 관계자는 “스위프트 고 AI 시리즈는 인텔 루나레이크의 인공지능 성능과 휴대성을 동시에 잡은 제품이다. 인공지능 작업부터 일상 업무까지 모두 만족하려는 사용자에게 실용적인 선택지가 될 것”이라고 밝혔다.
작성일 : 2026-03-25
[신간] 30가지 예제로 따라 하며 배우는 ComfyUI 클라우드
여승호, 신무경 지음 / 2만 2000원 / 비엘북스   아이디어를 영상으로 완성하는 실전 AI 제작 워크플로 가이드 인공지능(AI)을 활용한 영상 제작이 대중화되면서 다양한 툴이 쏟아지고 있지만, 복잡한 설치 과정과 높은 하드웨어 사양은 여전히 진입 장벽으로 작용하고 있다. 이 책은 복잡한 로컬 설치 과정 없이 웹 환경에서 즉시 실행 가능한 'ComfyUI 클라우드'를 기반으로, 이미지 생성부터 고퀄리티 영상 제작, 업스케일까지의 전 과정을 체계적으로 다룬다. 이 책은 어려운 기술 용어나 복잡한 노드 설정 방식에 매몰되지 않고, 입문자가 바로 실전 결과물을 만들 수 있도록 30가지의 풍부한 예제를 수록했다. 독자는 ComfyUI 클라우드를 활용해 나노 바나나(Nano Banana), Veo, Kling AI, WAN, Topaz Video 등 최신 AI 모델들을 하나의 워크플로 안에서 유기적으로 연결하는 방법을 배우게 된다. 여러 서비스를 개별적으로 구독하거나 번거로운 세팅을 반복할 필요 없이, 단일 클라우드 환경에서 효율적인 제작 파이프라인을 구축하는 것이 핵심이다. 특히 온라인에서 큰 화제를 모았던 콘텐츠 스타일을 예제로 구성하여 실무 활용도를 높였다. 영어 배우는 할머니 숏폼, 촬영 현장 셀카 숏폼, ASMR 및 미니어처 스타일의 영상 등 실제 제작 흐름에 맞춘 단계별 실습을 제공한다. 이 책은 단순한 기능 설명을 넘어, 사용자가 자신만의 창의적인 아이디어를 구체적인 영상 콘텐츠로 구현할 수 있는 독자적인 파이프라인 구축 능력을 길러주는 실전 가이드 역할을 한다.  
작성일 : 2026-03-24