• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "동영상"에 대한 통합 검색 내용이 1,822개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
캔바, 크리에이티브 전 과정에 AI 결합한 ‘크리에이티브 운영체제’ 출시
올인원 비주얼 커뮤니케이션 플랫폼 캔바(Canva)가 ‘크리에이티브 운영체제(Creative Operating System)’를 출시했다고 발표했다. 이번 출시를 통해 캔바는 지난 10여년 간 축적해온 혁신을 집약해 창의력을 한층 강화하도록 설계된 새로운 기능을 선보인다. 새로운 운영체제는 캔바의 ‘디자인 모델(Design Model)’을 기반으로 설계되어, 디자인부터 협업, 퍼블리싱, 성과 관리까지 창작의 전 과정을 하나의 흐름으로 통합한다. 그 결과, 인간의 창의력이 주도하고 AI가 그 가능성을 확장하는 더 빠르고, 더 스마트하며 더 유기적으로 연결된 디자인 방식을 구현했다.     새로운 ‘크리에이티브 운영체제’의 중심에는 새롭게 재구성된 비주얼 스위트(Visual Suite)가 있다. 이 업그레이드를 통해 동영상, 이메일, 코드, 폼 모든 형식에서 가능성 영역을 한층 확장해, 아이디어를 구현하고 목표를 달성하는 과정을 쉽게 만들어준다. 이번 크리에이티브 운영체제는 다양한 기능을 새롭게 선보인다. 동영상 편집기 2.0(Video 2.0)은 복잡함과 불편함을 제거하기 위해 처음부터 다시 설계되었다. 전문가 수준의 편집 도구와 캔바 특유의 간편성이 결합되어 어떤 기기에서도 몰입도 높은 영상을 손쉽고 빠르게 제작할 수 있다. 매직 비디오(Magic Video)와 새로운 트렌드 템플릿 라이브러리를 통해 단 하나의 프롬프트만으로도 완성도 높은 콘텐츠를 생성할 수 있다. 새롭게 디자인된 타임라인은 영상 자르기, 동기화, 영상 레이어링을 빠르고 직관적으로 작업할 수 있으며, AI 도구들은 편집과 효과 적용을 자동화하는 데 도움을 준다.  캔바에서 가장 많이 요청된 기능 중 하나인 이메일 디자인(Email Design)은 완전히 새로운 형식을 선보이며, 마케팅 팀이 이미 콘텐츠를 디자인하는 플랫폼 안에서 이메일을 제작할 수 있게 해준다. 이제 팀은 별도의 코딩이나 툴 전환 없이 완전히 브랜딩된 마케팅 이메일을 제작하고 맞춤화하여 내보낼 수 있다. 완성된 디자인은 HTML 파일로 내보내 원하는 이메일 플랫폼에서 바로 배포할 수 있다. 캔바 폼(Forms)은 캔바 안에서 직접 피드백, RSVP, 데이터 등을 수집할 수 있는 새로운 방식이다. 완전히 브랜딩된 폼을 웹사이트를 포함한 다른 캔바 디자인에도 추가할 수 있으며, 시각적 스타일에 맞게 자유롭게 커스터마이징할 수 있다. 응답 내용은 자동으로 캔바 시트(Canva Sheets)로 연동되어 모든 정보를 한 곳에서 관리할 수 있다. 또한, 이제 캔바 시트를 캔바 코드(Canva Code)로 만든 결과물과 연결할 수 있어 데이터 기반의 인터랙티브 위젯을 손쉽게 제작할 수 있다. 라이브 대시보드, 계산기, 학습 도구 등 어떤 형태든 데이터가 변경될 때마다 자동으로 업데이트되며, 모든 요소가 유기적으로 연결된 상태를 유지한다.  아울러, 캔바는 창의성에 특화된 새로운 세대의 AI를 공개했다. 여기에는 디자인 자체를 이해하도록 학습된 모델이 포함된다. 이번 혁신은 창의력이 이끌고 기술이 가능성을 확장하는 방향, AI가 사용자의 목표 달성을 지원하는 방식을 발전시킨 것이다.  디자인 중심 캔바 AI 모델(Canva Design Model)은 디자인의 복잡성을 이해하도록 학습된 모델로, 수 년간의 연구와 디자인 지식을 바탕으로 구축됐다. 이 모델은 디자인의 논리를 해석하고, 레이아웃을 조율하며, 단 몇 초 만에 완전히 편집 가능한 콘텐츠를 생성한다. 캔바 AI는 대대적인 업그레이드를 거치며 이제 디자인의 모든 단계에 깊이 통합되었다. 사진, 영상, 질감, 3D 그래픽 등 원하는 모든 요소를 상상하기만 하면 캔버스 위에서 바로 구현해준다. 또한 새롭게 추가된 스타일 매치를 통해 모든 요소가 조화를 이루며 브랜드 일관성을 유지한 디자인을 손쉽게 완성할 수 있다.  @Canva에게 질문하기(Ask @Canva)는 디자인 과정 어디서든 도움을 받을 수 있는 디자인 어시스턴트다. 사용 중 ‘@Canva’를 태그하기만 하면 즉시 피드백, 디자인 제안, 스마트 편집 지원을 받을 수 있다. 카피 문구 제안부터 디자인 수정까지 편집기에 내장된 창작 파트너 역할을 수행한다. 이외에도 캔바는 브랜드 성장을 위한 마케팅 도구
도 소개했다. 캔바는 엔드 투 엔드 플랫폼으로 발전하며 브랜드 관리, 마케팅 캠페인, 성과 추적을 위한 신규 툴을 선보인다. 캔바 그로우(Canva Grow)는 광고 소재 기획부터 제작, 게시, 성과 분석까지 한 번에 처리할 수 있는 통합 마케팅 플랫폼이다. 마케팅 팀은 이제 캔바에서 광고를 디자인하고 메타(Meta) 등 다양한 플랫폼에서 실행하며, 실시간으로 인사이트를 추적하고 성과 지표에 따라 즉시 콘텐츠를 최적화할 수 있다. 브랜드 인식 AI를 기반으로 하는 캔바 그로우는 성과 데이터를 학습하여 시간이 지날수록 모든 캠페인을 더 스마트하고 효과적으로 발전시킨다. 브랜드 시스템(Brand System)은  브랜드 가이드라인과 브랜드 자산을 편집기로 직접 가져와 팀이 필요한 모든 것을 제작 환경 내에서 즉시 접근할 수 있도록 지원한다. 글꼴, 색상, 로고 템플릿이 자동으로 적용되어, 모든 디자인과 채널에서 브랜드 일관성을 손쉽게 유지할 수 있다. 성장 중인 팀이나 글로벌 기업 모두에게, 수동으로 하는 브랜드 검수 과정이 필요 없도록 하여 편리하고 일관성 있게 브랜드를 확장할 수 있다.  캔바는 개인, 마케터, 소규모 팀을 위한 ‘캔바 비즈니스(Canva Business)’ 요금제를 새롭게 도입했다. 이 요금제는 고급 AI, 분석, 브랜드 관리 도구를 활용해 브랜드를 성장시키고자 할 때 최적화된 구독 플랜으로, 캔바 프로(Canva Pro)와 캔바 엔터프라이즈(Canva Enterprise)의 중간 단계에 해당한다. 확장된 저장공간, 더 높은 AI 사용 한도, 인쇄 할인, 팀 성장을 돕는 다양한 전문 기능을 함께 제공한다. 캔바의 멜라니 퍼킨스(Melanie Perkins) 공동 창업자 및 CEO는 “지식의 접근성이 높아질수록 우리는 ‘정보의 시대’에서 ‘상상력의 시대’로 이동하고 있다고 믿는다. 이 시대에는 창의력이 그 어느 때보다 중요한 시기다”라며, “이 새로운 시대에 캔바 사용자들이 성공할 수 있도록 어떻게 지원할 수 있을지 고민해왔다. 그래서 이번에 올인원 ‘크리에이티브 운영체제’라는 캔바 최대의 혁신을 선보이게 되어 더더욱 기쁘다"고 밝혔다. 또한 “동영상, 이메일, 폼 등 주요 기능이 대폭 업그레이드된 비주얼 스위트, 브랜드와 비즈니스 성장을 위한 강력한 AI 레이어와 다양한 툴 등 새 기능들을 통해 사용자들이 자신의 아이디어를 어떻게 실현할지 무척 기대된다”고 전했다. 한편, 캔바는 전문 디자인과 일상 창작의 경계를 허문 새로운 ‘올 뉴 어피니티(All-New Affinity)’를 공개했다. 벡터 편집, 이미지 보정, 고급 레이아웃 디자인 등 많은 사랑을 받아온 전문 디자인 도구들을 하나의 강력한 제품과 통합된 파일 형식으로 결합해, 이제 여러 프로그램을 오갈 필요 없이 전문가 수준의 작업이 가능하다. 이제 어피니티는 전문 크리에이터가 어피니티에서 애셋을 제작한 뒤 바로 캔바로 이동해 협업, 게시, 브랜드 확장을 이어갈 수 있도록 지원하며, 전체 디자인 프로세스를 완성한다. 또한 어피니티는 이번에 최초로 영구 무료로 제공되어, 전문 크리에이터들의 마지막 진입 장벽을 제거하고 누구나 세계적 수준의 도구에 접근할 수 있도록 지원한다.
작성일 : 2025-10-31
[포커스] 코리아 그래픽스 2025, AI로 가속하는 산업과 크리에이티브의 변화를 짚다 (1)
‘코리아 그래픽스 2025’가 지난 9월 11~12일 온라인으로 진행됐다. ‘AI로 혁신하는 3D 시각화와 산업의 미래’를 주제로 열린 ‘코리아 그래픽스 2025’에서는 급변하는 기술 트렌드 속에서 AI(인공지능)와 3D 시각화가 산업과 문화 전반에 미치는 영향력을 조명했다. 또한 AI 기술의 실질적인 적용 사례와 잠재력을 통해, AI가 단순한 도구를 넘어 창의적 동반자로 진화하는 흐름을 짚었다. ■ 정수진 편집장     캐드앤그래픽스 최경화 국장은 개회사에서 AI와 3D 시각화 기술의 융합이 산업과 문화를 혁신하는 핵심 동력이라고 강조했다. 생성형 AI가 3D 창작을 대중화하는 가운데, 제조·건설 분야에서는 디지털 트윈과 XR(확장현실)이, 엔터테인먼트에서는 실시간 시각화 기술이 새로운 가치를 만들고 있다. 최경화 국장은 “AI를 창의적 동반자로 삼아 기술을 지휘하는 디자이너의 역할이 중요해질 것”이라고 덧붙였다.   AI 시대의 디자인 혁신과 생성형 AI의 미래 행사 첫째 날인 9월 11일, 한양대학교 현경훈 교수는 ‘디자이너와 생성형 AI가 만드는 디자인-제조의 미래’를 주제로 기조연설을 진행했다. 그는 “생성형 AI는 불과 몇 분 만에 고품질의 시각적 결과물을 만들어낼 정도로 기술 발전 속도가 빠르다. 특히 공간 설계 분야, 즉 건축 설계에서는 많은 인력과 전문 지식이 필요하여 설계 자동화에 대한 관심이 매우 크며, 자동 평면도 생성 및 건물 성능 시뮬레이션 방법이 지속적으로 개발되어 왔다. 그러나 이 분야의 생성형 AI는 주로 정량화된 목표 달성을 위한 수단으로만 활용되는 한계가 있다”고 짚었다. 한편으로 스타일, 의미, 조형성, 선호도와 같은 정성적 지표나 디자인 초기 단계처럼 목표 정의가 어려운 영역에서는 AI 모델을 바로 활용하여 디자인을 자동화하기가 어렵다. 또한, 많은 디자인 요소를 가진 객체에서는 이들 요소의 재조합에 따른 탐색 공간이 더욱 방대해지고, 모든 공간을 탐색하는 데에 오랜 시간이 걸린다. 따라서 인간이 디자인 공간을 효과적으로 탐색할 수 있도록 지원하는 것이 필요하며, 이는 디자이너를 위한 생성형 AI가 해결해야 할 문제라는 것이 현경훈 교수의 시각이다. 현경훈 교수는 프롬프트만으로 원하는 결과물을 얻기가 어려운 생성형 AI와의 소통 문제를 해결할 수 있는 방법으로 ‘동작 기반 AI 인터랙션’ 개념을 제시했다. 핵심은 디자이너가 아이디어를 구상하는 과정에서 취하는 스케치, 검색, 특정 영역 응시 등 다양한 ‘동작’을 통해 디자이너의 관심 영역과 의도를 추론하고, 이를 바탕으로 정량화하기 어려운 목표를 달성하도록 지원하는 것이다. 현경훈 교수는 “디자이너를 위한 생성형 AI는 동작을 활용하여 디자이너가 의도한 결과를 생성할 수 있어야 하고, 단순한 아이디어 시각화를 넘어 탐색과 활용의 균형을 통해 진정한 AI 기반 탐색이 가능해져야 한다”고 짚었다.   ▲ 한양대학교 현경훈 교수   AI 시대의 디자인 패러다임 변화와 디자이너의 역할 9월 12일에는 두 편의 기조연설이 진행됐다. 서울미디어대학원대학교 유훈식 교수는 ‘AI 시대의 그래픽 디자인 패러다임 변화와 혁신 사례’를 주제로 한 기조연설에서 디지털 전환(DX)을 넘어 AI로의 완전한 패러다임 변화가 도래했으며, 기업과 개인 모두가 AI를 통해 업무 방식을 혁신해야 한다고 강조했다. 유훈식 교수는 AI의 기술 발전 속도가 매우 빠르며, 디자인 분야에서도 생성형 AI의 활용이 활발히 이루어지고 있다고 설명했다. 특히 이미지, 텍스트, 동영상 등 고품질의 시각적 결과물을 순식간에 만들어내는 생성형 AI의 능력은 디자인 산업에 큰 혁신을 가져오고 있다고 분석했다. 또한, 생성형 AI를 활용한 가구 공연 영상 제작 경험을 공유하면서, “디자인 패러다임이 시스템 구축 및 프롬프트 엔지니어링 중심으로 변화하고 있으며, AI를 통해 인간의 역량을 증강하는 디자인 방식으로 나아가야 한다”고 전했다. 이런 변화에 맞춰서 디자이너의 역할은 전통적인 GUI(그래픽 사용자 인터페이스) 디자인을 넘어 UX/UI, 제품 및 서비스 경험, 나아가 비즈니스 모델까지 고려하는 형태로 확장되고 있다. 유훈식 교수는 “미래에는 디자이너가 AI 디자인 시스템을 구축하고, 데이터 학습 및 프롬프트 최적화 역량을 갖춘 ‘AI 디자이너’로서 활동해야 한다”고 말했다. AI는 텍스트, 이미지, 영상 생성 분야에서 이미 인간보다 뛰어난 능력을 보여주고 있으며, 인간은 AI와 협업하여 창의적이고 감성적인 ‘휴먼 터치’를 더하는 역할에 집중해야 한다는 것이다. AI 디자이너는 궁극적으로 AI를 디자인하여 자신만의 AI 시스템을 만들고, 이를 통해 최적화된 결과물을 창출하는 철학과 관점을 가져야 한다는 것이 유훈식 교수의 조언이다.   ▲ 서울미디어대학원대학교 유훈식 교수   모빌리티 XR과 AI 융합 기술의 미래 고려대학교 박진호 교수는 ‘XR과 인공지능의 만남 : XR 콘텐츠의 무한한 가능성과 초연결 콘텐츠의 미래’를 주제로 한 기조연설에서, XR 기술과 AI의 결합이 산업에 가져올 가능성을 조명했다. 박진호 교수는 VR, AR, MR을 포함한 XR 기술이 메타버스 및 디지털 트윈과 밀접하게 연관되어 있으며, 그래픽, 디바이스, 시뮬레이션 기술이 유기적으로 연결되어 있다고 설명했다. 특히 AI가 XR 기술과 융합되어 에이전틱 AI(agentic AI) 및 피지컬 AI(physical AI)로 발전하고 있다고 강조했다. 모빌리티 산업에서는 XR 기술이 주로 교육/훈련 및 엔지니어링 분야에 적용되고 있다. 실제 차량을 이용한 프로토타이핑, 테스팅, 마케팅 등은 많은 비용과 시간이 들지만, 가상현실 기술을 활용한 버추얼 검증을 통해 이를 상당 부분 대체하면서 시간과 비용을 절감하는 추세이다. 박진호 교수는 “또한 모빌리티 분야에서 AI의 중요성이 부각되고 있으며, 특히 무인화 추세가 가속화된다”고 설명했다. AI는 전투기를 포함해 전차, 농기계 등의 무인 조종 기술 개발에 활용된다. AI 개발 환경 지원 툴을 활용해 가상 환경을 자동으로 생성하고 물리 기반의 합성 데이터를 만들어 AI 훈련에 활용할 수 있다. AI가 탑재된 모빌리티의 가상 주행 데이터를 분석하는 검사 시스템도 개발되고 있다. 박진호 교수는 가상 훈련과 가상 검증을 넘어, AI와 모빌리티가 혼합된 ‘AI In The Loop’ 시뮬레이션 시스템의 기술적 수요가 증가하고 있다고 전했다. 박진호 교수는 “미래 자율주행 시대가 도래하면 자동차가 더 이상 단순한 이동 수단이 아니라 콘텐츠 소비 플랫폼이 될 것”이라고 전망하면서, 이러한 모빌리티 콘텐츠의 확장이 미래 산업에서 중요한 방향이 될 것으로 내다봤다.   ▲ 고려대학교 박진호 교수   한편, 9월 11일에는 ‘디지털 트윈 & 3D 시각화’ 트랙이, 9월 12일에는 ‘AI 비주얼 트렌드 & 응용’ 트랙이 진행됐다.   ■ 이어 보기 : [포커스] 코리아 그래픽스 2025, AI로 가속하는 산업과 크리에이티브의 변화를 짚다 (2)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
[칼럼] 인공지능 기술 : 도입에서 혁신으로
디지털 지식전문가 조형식의 지식마당   빠르게, 그리고 깊게 지난 2년간 필자는 정신없이 AI 지식을 흡수하고 수많은 설루션을 직접 사용했다. 신기함과 불편함이 뒤섞인 체험 끝에, 직감적으로 2025년이 인공지능 기술의 이정표가 될 것이라 확신하게 됐다.   거시 흐름, 지능형 자동화와 에이전트의 부상 인공지능(AI) 기술의 발전은 2024년을 기점으로 단순히 새로운 기술의 도입을 넘어, 산업과 사회 전반의 혁신을 촉발하는 핵심 동력으로 자리 잡았다. 여러 분석가는 2024년이 AI 도입의 해였다면, 2025년은 AI가 기존 산업의 경계를 허물고 운영 방식을 근본적으로 재정의하는 ‘혁신의 해’가 될 것으로 전망하고 있다. 이러한 변화의 물결 속에서 기업들은 막연한 기대감을 넘어, AI 기술을 통해 실질적인 비즈니스 가치(ROI)를 창출하는 데 집중하고 있다. 특히, 반복적이고 명확한 규칙 기반의 작업을 AI로 자동화함으로써 즉각적인 효율성 증대와 함께 투자 성과를 확보하는 전략이 부상하고 있다. 이러한 맥락에서 ‘지능형 자동화(intelligent automation)’는 단순 반복 작업을 넘어 복잡한 워크플로를 자율적으로 처리하고 의사결정까지 내리는 단계로 진화하고 있다. 이는 ‘AI 에이전트’의 형태로 구현되며, 응용 AI의 차세대 진화로 주목받고 있다.  이러한 거시적 흐름 속에서 AI 기술의 3대 핵심 분야인 언어 모델, 이미지 및 영상 모델, 음성 모델의 최신 기술적 동향과 시장 변화를 심층적으로 분석하고, 나아가 이들 간의 융합 현상인 ‘멀티모달 AI’의 부상을 조망함으로써 비즈니스 리더와 기술 전문가에게 전략적 통찰을 만들어 봤다. 첫 번째, 대규모 언어 모델(LLM)의 혁신은 대부분 ‘트랜스포머(transformer)’ 아키텍처에 기반을 두고 있다. GPT-4, LLaMA 2, Falcon 등 현재 시장을 선도하는 모델은 이 아키텍처를 활용하여 방대한 데이터 세트에서 인간 언어의 패턴과 구조를 학습한다. 트랜스포머는 언어 모델의 근간을 이루며, 그 영향력은 비단 텍스트에만 머무르지 않고, 오픈AI(OpenAI)의 최신 비디오 생성 모델인 소라(Sora)의 ‘디퓨전 트랜스포머’ 아키텍처에도 확장 적용되고 있다. 최근 LLM 훈련 방법론은 단순히 모델의 규모를 키우는 것을 넘어, 효율과 특화된 성능을 확보하는 방향으로 진화하고 있다. LLM 시장은 ‘규모’를 추구하는 초대형 모델(LLM)과 ‘효율’을 추구하는 소형 언어 모델(SLM)이 공존하는 양면적 발전 양상을 보인다. GPT-4o나 제미나이(Gemini)와 같은 초대형 모델은 뛰어난 범용성과 성능으로 시장을 선도하는 한편, 특정 산업이나 용도에 맞게 최적화된 SLM은 적은 비용과 빠른 속도를 무기로 틈새시장을 공략하고 있다. 이러한 이원화된 전략은 기업이 적용 업무의 성격에 따라 두 모델을 전략적으로 선택하거나 조합하는 하이브리드 접근법을 채택하도록 유도하고 있다. 두 번째, 최근 이미지 및 영상 생성 모델의 핵심 기술은 ‘디퓨전 모델(diffusion model)’이다. 이 모델은 기존의 생성적 적대 신경망(GAN)이 가진 ‘모드 붕괴(mode collapse)’ 문제를 해결하며 고품질의 다양하고 사실적인 이미지 생성을 가능하게 했다. 디퓨전 모델은 이미지에 점진적으로 노이즈를 추가한 뒤, 이 노이즈를 단계적으로 제거하며 깨끗한 이미지를 복원하는 방식을 사용한다. 이 기술은 스테이블 디퓨전(Stable Diffusion), 달리(DALL-E)와 같은 대표적인 서비스에 활용되고 있다. 대규모 언어 모델과 마찬가지로, 이미지 및 영상 모델 역시 규모의 확장과 효율의 최적화라는 상반된 흐름을 동시에 경험하고 있다. 디퓨전 모델은 모델의 규모가 클수록 더 좋은 성능을 보이지만, 그만큼 막대한 연산 자원과 느린 처리 속도라는 문제에 직면한다. 이러한 한계를 극복하기 위해 모델 경량화와 처리 속도를 높이는 기술적 접근이 중요하게 다루어지고 있다. 이는 AI 기술의 상용화와 대중화를 위한 필수 단계이다. 영상 생성 기술은 미디어 및 엔터테인먼트 산업의 콘텐츠 창작 패러다임을 근본적으로 변화시키고 있다. 텍스트 입력만으로 원하는 비디오를 만들 수 있는 능력은 브레인스토밍을 가속화하고, 마케팅 자료, 게임 비주얼, 와이어프레임 및 프로토타입 제작 시간을 획기적으로 단축시켜 기업의 시장 대응력을 높인다. 특히, 전자상거래 기업은 AI 생성 이미지를 사용하여 다양한 제품 쇼케이스와 맞춤형 마케팅 자료를 대규모로 제작할 수 있다. 세 번째, 음성 모델은 크게 음성 신호를 텍스트로 변환하는 ‘음성 인식(ASR : Automatic Speech Recognition)’과 텍스트를 음성으로 변환하는 ‘음성 합성(TTS : Text-to-Speech)’ 기술로 구분된다. 딥러닝 기술의 발전은 이 두 분야에 혁명적인 변화를 가져왔다. 음성 인식(ASR) : 딥러닝 기반의 엔드 투 엔드 모델은 음향 모델링과 언어 모델링 과정을 통합하여 ASR의 정확도를 비약적으로 향상시켰다. 최신 시스템은 배경 소음을 제거하고 자연어 처리(NLP) 기술을 활용하2025/10여 문맥을 이해함으로써 최대 99%에 가까운 정확도를 달성하고 있다. 이는 단순히 음성을 텍스트로 바꾸는 것을 넘어, 사용자의 의도를 정확히 이해하고 적절하게 대응하는 대화형 AI 시스템의 핵심 기반이 된다. 음성 합성(TTS) : 딥러닝 기반 모델은 기계적인 느낌을 벗어나 사람처럼 자연스럽고 운율이 담긴 목소리를 생성하는 데 큰 발전을 이루었다. 이는 텍스트 분석, 운율 모델링, 그리고 실제 음성 파형을 생성하는 ‘보코더(vocoder)’ 과정을 통해 이루어진다. 현대 음성 합성 기술의 발전 방향은 단순히 자연스러움을 넘어, 인간-기계 상호작용을 더욱 몰입감 있고 개인화된 경험으로 이끄는 데 있다. 감정 표현 TTS : 이는 기계에 감정을 부여하여 인간 언어와 더욱 유사한 음성을 생성하는 것을 목표로 한다. 기쁨, 슬픔, 분노 등 다양한 감정을 표현하는 음성 합성은 사용자 경험을 더욱 풍부하게 만든다. 개인화된 음성 합성(Personalized TTS) : 이 기술은 약 1시간 분량의 데이터만으로 개인의 목소리를 복제하여 맞춤형 TTS를 만드는 연구 단계에 있다. 이는 부모의 목소리로 동화책을 읽어주는 등 감성적이고 따뜻한 응용 분야에 적용될 가능성을 열어준다.   감성으로 완성되는 기술 올해는 유난히 더운 것인지 아니면, 우리가 에어컨 환경에 너무 노출되어서 더위에 대한 저항력이 없어진 것인지는 모르지만 너무 더워서 정신적 활동이 힘들었다. 그 와중에 개인 자료를 정리하던 중에 개인적으로는 필자의 입사 이력서 사진을 우연히 찾아봤으나, 손상이 많이 되어서 인공지능으로 복원해 보기로 했다.     그림 1. 옛날 사진을 스마트폰으로 촬영한 이미지와 구글 인공지능으로 생성한 이미지   우선 스마트폰으로 이 사진을 찍은 다음 구글의 제미나이로 복원하고 다양한 모습으로 재현해 봤다. 그리고 동영상도 만들어 봤다. 아주 작고 희미한 흑백 사진이라고 우리의 머리속에 있는 이미지와 유사할 때까지 계속 보강된 이미지를 만들 수 있다. 그래서 최근에는 ‘포즈의 정리(Theorem of Pose)’라는 책을 구입해서 인공지능 생성 이미지 프롬프트를 본격적으로 연구해 보기로 했다.     그림 2. 구글 제미나이로 생성된 이미지   돌이켜보면 생각보다 빠른 속도다. 기술은 때로 불안과 경외를 동시에 불러온다. 그러나 확실한 것은, 인공지능이 우리의 감성을 자극하기 시작했다는 사실이다. 오래된 사진이 되살아나고, 목소리가 감정을 띠며, 텍스트가 움직이는 영상으로 변한다. 도입의 해를 지나 혁신의 해로 들어서는 지금, 우리는 효율을 넘어 의미를 설계해야 한다. AI는 결국, 우리 일과 삶의 이야기를 더 풍부하게 엮어내는 도구다. 기술이 감성을 만나 경험을 재편할 때, 진짜 혁신은 비로소 현실이 된다. 기업의 입장에서 2024년이 ‘도입의 해’였다면 2025년은 운영 방식 자체를 재정의하는 ‘혁신의 해’다. 기업은 막연한 기대가 아니라 ROI로 말하기 시작했고, 반복적·규칙 기반 업무를 AI로 자동화하여 즉각적인 효율과 투자 성과를 확보하는 전략이 주류로 부상했다. 그 중심에는 언어, 시각(이미지·영상), 음성이라는 세 가지 축과 이들을 촘촘히 엮어내는 멀티모달 AI가 있다.   ■ 조형식 항공 유체해석(CFD) 엔지니어로 출발하여 프로젝트 관리자 및 컨설턴트를 걸쳐서 디지털 지식 전문가로 활동하고 있다. 현재 디지털지식연구소 대표와 인더스트리 4.0, MES 강의, 캐드앤그래픽스 CNG 지식교육 방송 사회자 및 컬럼니스트로 활동하고 있다. 보잉, 삼성항공우주연구소, 한국항공(KAI), 지멘스에서 근무했다. 저서로는 ‘PLM 지식’, ‘서비스공학’, ‘스마트 엔지니어링’, ‘MES’, ‘인더스트리 4.0’ 등이 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
엔비디아, “새로운 오픈 모델과 시뮬레이션 라이브러리로 로보틱스 연구개발 가속화”
엔비디아가 오픈소스 뉴턴 물리 엔진(Newton Physics Engine)을 엔비디아 아이작 랩(NVIDIA Isaac Lab)에서 이용 가능하며, 로봇 기술을 위한 엔비디아 아이작 GR00T N1.6 추론 비전 언어 행동(vision language action : VLA) 모델과 새로운 AI 인프라를 함께 제공한다고 발표했다. 이들 기술은 개발자와 연구자에게 개방형 가속 로보틱스 플랫폼을 제공해 반복 작업을 가속화하고, 테스트를 표준화하며, 로봇의 추론과 훈련 통합을 지원한다. 아울러 로봇이 시뮬레이션에서 실제 환경으로 안전하고 안정적으로 기술을 이전할 수 있도록 돕는다. 로봇은 시뮬레이션 환경에서 더 빠르고 안전하게 학습할 수 있지만, 복잡한 관절, 균형, 움직임을 가진 휴머노이드 로봇은 오늘날 기존 물리 엔진의 한계를 시험한다. 전 세계 25만 명 이상의 로보틱스 개발자들은 정확한 물리 엔진을 필요로 하며, 이는 로봇이 시뮬레이션에서 학습한 기술을 현실 세계에서 안전하고 안정적으로 수행하기 위해 필수이다. 엔비디아는 리눅스 재단이 관리하는 GPU 가속 오픈소스 물리 엔진 뉴턴의 베타 버전을 공개했다. 이는 엔비디아 워프(Warp)와 오픈USD(OpenUSD) 프레임워크 기반으로, 엔비디아와 구글 딥마인드, 디즈니 리서치가 공동 개발했다. 뉴턴은 유연한 설계 및 다양한 물리 솔버와의 호환성을 갖췄다. 이를 통해 개발자가 눈이나 자갈 위를 걷거나, 컵과 과일을 다루는 등 매우 복잡한 로봇 동작을 시뮬레이션하고 이를 현실 세계에 성공적으로 적용할 수 있도록 지원한다.     휴머노이드가 물리적 환경에서 인간과 유사한 작업을 수행하기 위해서는 모호한 지시를 이해하고 이전에 경험하지 못한 상황에 대처할 수 있어야 한다. 곧 허깅 페이스에서 공개될 오픈소스 아이작 GR00T N1.6 로봇 파운데이션 모델의 최신 버전에는 피지컬 AI를 위해 개발된 오픈 맞춤형 추론 비전 언어 모델(VLM)인 엔비디아 코스모스 리즌(Cosmos Reason)이 통합될 예정이다. 코스모스 리즌은 로봇이 심층 사고를 하는 두뇌 역할을 담당하며 기존의 지식, 상식, 물리학을 활용해 모호한 지시를 단계별 계획으로 전환하고, 새로운 상황을 처리하며, 다양한 작업에 걸쳐 일반화할 수 있도록 한다. 코스모스 리즌은 현재 피지컬 리즈닝 리더보드(Physical Reasoning Leaderboard) 1위를 차지하고 있으며, 100만 회 이상 다운로드를 기록했다. 또한, 모델 훈련을 위한 대규모 실제 데이터, 합성 데이터를 선별하고 주석을 달 수 있다. 코스모스 리즌 1은 NIM에서 제공되며, 사용하기 쉬운 마이크로서비스 형태로 AI 모델 배포를 지원한다.  아이작 GR00T N1.6은 휴머노이드가 물체를 동시에 이동하고 조작할 수 있도록 해 상체와 팔의 자유도를 넓히고, 무거운 문을 여는 것과 같은 까다로운 작업을 수행할 수 있도록 한다. 개발자는 허깅 페이스의 오픈소스 엔비디아 피지컬 AI 데이터세트(Physical AI Dataset)를 사용해 아이작 GR00T N 모델을 사후 훈련할 수 있다. 이 데이터세트는 480만 회 이상 다운로드됐으며, 현재 수천 개의 합성 궤적과 실제 궤적 데이터를 포함한다. 또한, 엔비디아는 오픈소스 코스모스 월드 파운데이션 모델(WFM)의 신규 업데이트를 발표했다. 300만 회 이상 다운로드된 이 모델은 개발자가 텍스트, 이미지, 영상 프롬프트를 활용해 대규모로 피지컬AI 모델 훈련을 가속화할 수 있는 다양한 데이터 생성을 지원한다. 코스모스 프리딕트(Cosmos Predict) 2.5는 곧 출시될 예정이며, 세 가지 코스모스 WFM의 성능을 하나의 강력한 모델로 통합해 복잡성을 줄이고, 시간을 절약하며, 효율을 높인다. 또한 최대 30초의 긴 동영상 생성, 다중 뷰 카메라 출력을 지원해 더욱 풍부한 세계 시뮬레이션을 구현한다. 코스모스 트랜스퍼(Cosmos Transfer) 2.5는 곧 출시될 예정이며, 기존 모델 대비 3.5배 작으면서도 더 빠르고 높은 품질의 결과를 제공한다. 이제 사실적인 합성 데이터를 생성할 수 있으며, 그라운드 트루스(ground-truth) 3D 시뮬레이션 장면, 깊이, 세분화, 에지, 고해상도 지도와 같은 공간 제어 입력값을 활용할 수 있다.   로봇에게 물체를 잡는 법을 학습시키는 것은 로보틱스에서 가장 어려운 과제 중 하나다. 파지는 단순히 팔을 움직이는 것이 아니라 생각을 정밀한 동작으로 전환하는 것으로, 로봇이 시행착오를 통해 학습해야 하는 기술이다. 엔비디아 옴니버스(Omniverse) 플랫폼 기반의 아이작 랩 2.3 개발자 프리뷰의 새로운 정밀 파지(dexterous grasping) 워크플로는 다관절 손과 팔을 가진 로봇을 가상 환경에서 자동화된 커리큘럼으로 훈련시킨다. 이 과정은 간단한 작업부터 시작해 점차 복잡성을 높여간다. 해당 워크플로는 중력, 마찰, 물체의 무게 등 요소를 변경해 로봇이 예측 불가능한 환경에서도 기술을 습득하도록 훈련시킨다. 컵을 집거나 방을 가로질러 걷는 것과 같이 새로운 기술을 로봇에게 숙달시키는 것은 매우 어렵다. 또한, 이러한 기술을 실제 로봇에서 테스트하는 과정은 시간과 비용이 많이 요구된다. 이러한 어려움을 해결할 수 있는 방법은 시뮬레이션이다. 시뮬레이션은 로봇이 학습한 기술을 무수한 시나리오, 작업, 환경에서 테스트할 수 있는 방법을 제공한다. 그러나 개발자들은 시뮬레이션 환경에서도 현실 세계를 반영하지 못하고 단편적이고 단순화된 테스트를 구축하는 경우가 많다. 완벽하고 단순한 시뮬레이션 환경에서 학습한 로봇은 현실 세계의 복잡성에 직면하는 순간 실패할 가능성이 크다. 엔비디아와 라이트휠은 개발자가 시스템을 처음부터 구축하지 않고도 시뮬레이션 환경에서 복잡한 대규모 평가를 실행할 수 있는 오픈소스 정책 평가 프레임워크인 아이작 랩-아레나(Arena) 공동 개발 중이다. 이 프레임워크는 확장 가능한 실험과 표준화된 테스트를 지원하며 곧 공개될 예정이다. 엔비디아는 개발자들이 이러한 첨단 기술과 소프트웨어 라이브러리를 최대한 활용할 수 있도록, 까다로운 워크로드를 위해 설계된 AI 인프라를 발표했다. 엔비디아 GB200 NVL72는 엔비디아 그레이스(Grace) CPU 36개와 엔비디아 블랙웰(Blackwell) GPU 72개를 통합한 랙 규모 시스템으로, 주요 클라우드 공급업체들이 채택해 복잡한 추론과 피지컬 AI 작업을 포함한 AI 훈련과 추론을 가속화하고 있다. 엔비디아 RTX 프로 서버(RTX PRO Servers)는 훈련, 합성 데이터 생성, 로봇 학습, 시뮬레이션 전반의 모든 로봇 개발 워크로드를 위한 단일 아키텍처를 제공하며, RAI 연구소(RAI Institute)에서 도입 중이다. 블랙웰 GPU로 구동되는 엔비디아 젯슨 토르(Jetson Thor)는 로봇이 실시간 지능형 상호작용을 위한 다중 AI 워크플로 실행을 지원한다. 또한 실시간 로봇 추론으로 휴머노이드 로보틱스 전반에서 고성능 피지컬 AI 워크로드와 애플리케이션의 돌파구를 마련한다. 젯슨 토르는 피규어 AI, 갤봇(Galbot), 구글 딥마인드, 멘티 로보틱스, 메타(Meta), 스킬드 AI, 유니트리(Unitree) 등 파트너사에 도입 중이다. 엔비디아의 레브 레바레디언(Rev Lebaredian) 옴니버스, 시뮬레이션 기술 부문 부사장은 “휴머노이드는 피지컬 AI의 차세대 영역으로, 예측 불가능한 세상에서 추론하고, 적응하며, 안전하게 행동하는 능력이 필요하다. 이번 업데이트로 개발자들은 로봇을 연구 단계에서 일상 생활로 가져오기 위한 세 가지 컴퓨터를 갖게 됐다. 아이작 GR00T가 로봇의 두뇌 역할을 하고, 뉴턴이 신체를 시뮬레이션하며, 엔비디아 옴니버스가 훈련장이 된다”고 말했다.
작성일 : 2025-09-30
DJI, 핸즈프리 웨어러블 카메라 ‘오즈모 나노’ 출시
DJI가 오즈모 나노(Osmo Nano)를 출시했다. 가벼운 웨어러블 액션캠인 오즈모 나노는 양면 자석 디자인으로 다양한 곳에 장착할 수 있다. 또한 차세대 1/1.3인치 센서와 고성능 이미지 프로세서를 탑재해 최대 13.5스톱의 다이내믹 레인지를 제공한다. 초소형 디자인, 간편한 마그네틱 마운팅, 다양한 액세서리 옵션을 갖춘 오즈모 나노는 어디든 장착이 가능하다. DJI 액션 카메라 중 가장 작은 모델로, 무게는 52g이며 크기는 약 57mm×29mm×28mm이다. 헤드밴드, 헬멧, 랜야드, 모자 등 다양한 장착 옵션을 제공해 사용자가 어디든 휴대하며 콘텐츠를 촬영할 수 있다.     수상 스포츠 및 야외 활동 시에는 추가 하우징 없이도 최대 10m 방수 성능을 제공하며, 다기능 비전 독(Vision Dock)과 함께 사용할 경우 땀·비·가벼운 물 튀김으로부터 보호하는 IPX4 등급의 생활 방수 기능을 제공한다. 다기능 비전 독의 내장 OLED HD 터치스크린을 통해 원격으로도 제어할 수 있다. 1/1.3인치 센서는 소형 액션캠에서 가능한 높은 화질을 제공하며, 고성능 이미지 프로세서는 13.5스톱의 다이내믹 레인지를 제공해 저조도 환경에서도 성능을 보장한다. 최대 4K/60fps 동영상과 4K/120fps 슬로 모션으로 장면을 선명하게 포착하며, 143° 초광각 시야는 모든 프레임에 더 넓은 앵글을 담는다. 오즈모 나노는 10-bit & D-Log M 컬러 성능을 제공한다. 10-bit 동영상은 최대 10억 가지 색상을 캡처하며, 8-bit 표준 동영상보다 약 72% 더 넓은 컬러 스페이스를 담아 향상된 시각 표현이 가능하다. 한편, D-Log M 모드는 색상 및 밝기 정보를 보존해 후반 작업과 편집에 유용하다. 저조도 환경에서는 오즈모 나노의 슈퍼나이트(SuperNight) 모드가 노이즈 감소 알고리즘을 이용해 화질을 향상시킨다. 이미지 안정화 시스템으로는 호라이즌밸런싱(HorizonBalancing)이 수평을 유지하고 ±30° 범위 내에서 기울기를 보정하며, 록스테디 3.0(RockSteady 3.0)은 손떨림을 방지해 준다. 오즈모 나노의 다기능 비전 독은 디스플레이 화면, 원격 사진 트리거, 충전 스테이션 및 고속 파일 전송 스테이션 역할을 한다. 마그네틱 디자인으로 카메라를 어떤 방향으로든 장착할 수 있어 셀카와 인물 사진 촬영 모드 간 전환이 간편하다. 비전 독을 사용하면 메인 카메라를 20분 만에 배터리 잔량 80%까지 고속 충전할 수 있다. 완전히 충전된 카메라는 1080p/24fps 동영상을 최대 200분까지 녹화할 수 있으며, 새로운 인듀어런스 모드를 사용하면 4K/30fps(16:9) 동영상을 최대 60분까지 녹화할 수 있다. 다기능 비전 독에는 내장 마이크로SD 카드 슬롯이 있어, PD 고속 충전 케이블을 사용해 모바일 기기나 컴퓨터에 연결하면 최대 600 MB/s의 속도로 전송을 할 수 있다. 오즈모 나노에는 듀얼 마이크가 내장되어 스테레오 녹음을 지원하며, 몰입감 있는 1인칭 시청각 경험을 위한 선명하고 생생한 오디오를 제공한다. 오즈모오디오(OsmoAudio) 직접 마이크 연결을 통해서는 오즈모 나노를 두 개의 DJI 마이크 송신기에 수신기 없이 직접 연결하여 스튜디오 품질의 사운드를 녹음할 수 있다. DJI 오즈모 나노는 DJI 스토어 및 공인 판매처에서 주문할 수 있다. 오즈모 나노 카메라, 다기능 비전 독, 마그네틱 모자 클립, 마그네틱 스트랩, 보호 케이스, USB-C to USB-C PD 케이블(USB 3.1), 양방향 마그네틱 볼 조인트 어댑터 마운트가 포함된 오즈모 나노 스탠더드 콤보는 카메라 내장 저장장치의 용량에 따라 64GB 38만 9000원, 128GB 44만 9000원이다. 오즈모 나노의 촬영 경험을 향상시킬 수 있는 다양한 마운트와 액세서리가 별도로 판매된다. 여기에는 마그네틱 헤드밴드, 양방향 퀵 릴리즈 접이식 어댑터 마운트, ND 필터 세트, 글라스 렌즈 커버, 양방향 마그네틱 볼 조인트 어댑터 마운트 등이 있다.
작성일 : 2025-09-24
[신간] 회사에서 바로 통하는 오토캐드 AutoCAD 2026
심미현 지음 / 2만 9000원 / 한빛미디어   오토캐드(AutoCAD) 입문자를 위한 현장 밀착형 실무서인 이 책은 제도의 기초부터 2D, 3D 도면 작성, 편집, 출력까지의 전 과정을 체계적으로 다루며, 실무에서 가장 자주 쓰는 핵심 명령어 중심으로 구성됐다. 초보자도 엄선된 실무 예제를 따라 하며 핵심 기능을 효과적으로 익힐 수 있도록 설계됐다. 건축, 인테리어, 기계 실무 도면 기본기 완성 이 책은 AutoCAD를 처음 배우는 학생이나 신입사원, 그리고 사용법은 알지만 실제 도면 작업에 어려움을 겪는 이들에게 최적화된 필독서다. 실무 중심의 핵심 명령어 선별: 수많은 AutoCAD 명령어 중 실무에서 자주 사용하는 필수 명령어만을 선별해 학습 효율을 극대화하고 작업 능률을 높였다. 체계적인 4단계 학습 구성: '제도 기초 지식 → AutoCAD 기본 명령 → 명령 활용과 도면 그리기 → 도면 완성 및 출력'의 4단계 구성을 통해 입문자도 차근차근 실력을 쌓아 실전 능력을 갖출 수 있게 했다. 현장 밀착형 실무 예제: 건축, 인테리어, 기계 분야의 실무 도면 예제를 통해 각 명령어가 실제 작업에서 어떻게 활용되는지 자연스럽게 익힐 수 있다. 저자 직강 유튜브 무료 동영상 강의 제공: AutoCAD 2026의 새로운 기능과 핵심 기능에 대한 저자의 무료 동영상 강의 20강을 유튜브 채널을 통해 제공하여 학습 효과를 높였다. 저자 심미현은 기업체 AutoCAD 교육 강사로 활동하며, 건축, 인테리어, 가구, 기계 설계 업무를 진행한 실무 전문가이다.    
작성일 : 2025-08-20
구글, 대학생에게 ‘구글 AI 프로’ 1년 무료 제공
구글은 국내 대학생 및 대학원생들이 AI 기술을 더 쉽게 활용하도록 돕고, 캠퍼스 생활 전반에 AI 활용 문화를 확산하기 위해 ‘구글 AI 프로(Google AI Pro)’ 요금제를 1년간 무료 제공하는 한편, 대학(원)생 앰배서더 프로그램도 운영한다고 밝혔다. 이번 대학(원)생 한정 ‘구글 AI 프로’ 플랜은 만 18세 이상의 국내 대학생이 학교 이메일 인증을 완료하고 계정을 등록하면, 개인 구글 계정 1개에 한해 ‘구글 AI 프로’ 요금제를 1년간 무료로 이용할 수 있다. 8월 7일부터 10월 6일까지 전용 링크에서 신청 가능하며, 신청한 학생은 멀티모달 검색, 코딩 지원, 동영상 생성 등 ‘구글 AI 프로’의 고급 기능을 1년간 자유롭게 경험할 수 있다. ‘구글 AI 프로’는 구글의 AI 모델인 ‘제미나이 2.5 프로(Gemini 2.5 Pro)’를 기반으로 한 요금제로, 과제나 글쓰기 등 학업 전반에 대한 빠른 지원은 물론, 수백 개의 웹사이트에서 복잡한 주제에 대한 정보를 수집해 요약해주는 ‘딥 리서치(Deep Research)’, 5배 더 많은 AI 오디오와 동영상 개요가 지원되는 AI 기반 사고 툴 ‘노트북LM(NotebookLM)’, 텍스트나 이미지를 입력하면 오디오와 함께 8초 분량의 영상을 생성해주는 ‘비오 3(Veo 3)’, 버그 수정부터 기능 개발까지 지원하는 AI 코딩 에이전트 ‘줄스(Jules)’ 등 다양한 생성형 AI 툴을 제공한다. 또한, 사진, 문서, 과제 등을 저장할 수 있는 2TB 용량의 저장 공간도 함께 제공된다. 구글은 이번 ‘구글 AI 프로’ 지원이 단순한 설루션 제공을 넘어, 학생들의 사고력과 이해도를 높이는 AI 기반 학습 파트너 역할도 할 것으로 기대하고 있다. 예를 들어, 복잡한 수학 문제를 단계별로 해결하거나 논리적인 글쓰기 구조를 함께 설계할 수 있는 ‘가이드 학습(Guided Learning)’, 강의 자료를 바탕으로 핵심을 정리해주는 맞춤형 학습 가이드(Study Guides), 이미지 및 영상 등을 활용한 인터랙티브 퀴즈 기능을 통해 학생들이 개념을 스스로 익히고 더 깊이 있는 학습으로 이어질 수 있도록 지원한다. 특히, 멀티모달 응답 기능을 통해 학습 몰입도와 이해도를 한층 높일 수 있는 것이 특징이다. 이 밖에도, 캔버스(Canvas)로 친구들과의 추억을 쌓을 수 있는 게임 만들기, 비오 3를 활용한 재미난 밈 제작, 학교 축제를 위한 아이디어 브레인스토밍 등에도 활용할 수 있다.      한편, 구글은 이번 대학(원)생 전용 무료 혜택의 인지도를 높이고 학생들의 AI 활용 문화 확산을 위해 전국 20여 개 대학교에서 선발된 총 100명의 앰배서더를 대상으로 '제미나이 대학생 앰배서더’ 프로그램도 운영한다고 전했다. 최종 선발된 학생들은 오는 8월 11일 발대식을 시작으로, 12월까지 약 5개월 간 자체 콘텐츠 제작, 오프라인 캠페인, 커뮤니티 연계 활동 등 다양한 홍보 활동과 실습 프로그램을 통해 캠퍼스 내외에서 제미나이 활용법을 소개하고, AI 기술 중심의 캠퍼스 문화 조성에 참여할 예정이다. 발대식에는 유튜브 메가 크리에이터 ‘미미미누’가 명예 앰버서더 자격으로 참석할 예정이다. 최종 선발된 학생들에게는 구글 AI 기술 기반 콘텐츠 제작에 필요한 다양한 툴이 제공되며, 일부 대학 캠퍼스에서는 학생 참여형 AI 실습 이벤트인 ‘스트리트 AI 챌린지’도 진행될 예정이다. 구글 관계자는 “이번 대학(원)생 전용 ‘구글 AI 프로’ 요금제와 대학생 앰배서더 프로그램은 대학생들이 AI 기술을 실질적인 학습 도구로 활용해 AI 기술에 대한 접근성을 높이고, 더 창의적이고 실용적인 방식으로 경험을 확장하도록 지원하기 위해 기획됐다”며, “앞으로도 구글은 더 많은 학생들이 AI를 통해 성장하고 기회를 넓혀가도록 지속적으로 지원할 것”이라고 밝혔다.
작성일 : 2025-08-07
DJI, 8K 360° 동영상 촬영 지원하는 ‘오즈모 360’ 출시
DJI가 자사의 첫 번째 360도 카메라 ‘오즈모 360(Osmo 360)’을 공식 출시한다고 밝혔다. 오즈모 360은 16mm(1인치) 360° 이미징으로 선명한 이미지를 구현하며, 8K/50fps 360° 동영상 촬영을 지원하는 360 카메라다. 또한 8K/30fps로 최장 100분 연속 촬영이 가능하다. 360° 촬영을 위해 특별히 설계된 오즈모 360은 정사각형 HDR 이미지 센서를 탑재했다. 기존 16mm 직사각형 센서와 동일한 360° 이미지 필드를 유지하면서, 비효율적으로 남는 기존 직사각형 센서의 미사용 영역을 제거한 것이다. DJI는 이 설계 덕분에 센서 활용률이 25% 향상되었고, 더 뛰어난 화질과 전력 효율, 더 작은 크기와 적은 무게를 갖출 수 있었다”고 설명했다.     오즈모 360은 2.4μm 픽셀을 기반으로 한 네이티브 8K/30fps 360° 파노라마 영상 촬영이 가능하다. 8K/30fps 기준으로 최장 100분 연속 촬영이 가능하며, 더 큰 픽셀을 통해 더 많은 디테일, 노이즈 감소, 저조도 성능 강화 및 향상된 다이내믹 레인지를 실현한다. 또한 8K/50fps 초고화질 영상도 지원한다. 여기에 13.5스톱의 다이내믹 레인지와 대형 픽셀, 그리고 f/1.9 조리개가 결합돼 일출이나 일몰처럼 명암 대비가 큰 환경이나 저조도 상황에서도 선명하고 생동감 있는 영상을 안정적으로 촬영할 수 있다는 것이 DJI의 설명이다. 별도의 편집 없이 자연스럽게 사라지는 오즈모 인비저블 셀피 스틱은 마치 제3자가 촬영한 듯한 3인칭 시점의 다이내믹한 화면 구성을 연출할 수 있게 해준다. 4K 해상도에서100fps의 고속 프레임 레이트로 360° 동영상 촬영이 가능하고, 최대 4배속 느린 속도의 슬로 모션 모드로 동영상을 촬영할 수도 있다. 사진 촬영에서는 최대 120MP 해상도의 360° 스틸 이미지 촬영이 가능하다. 또한 손바닥 제스처 한 번이나 간단한 음성 명령으로 녹화 시작/정지 등의 조작을 핸즈프리로 실행할 수 있다. 오즈모 360에 탑재된 호라이즌스테디(HorizonSteady) 기능은 카메라가 어떤 방향으로 회전하더라도 영상을 수평으로 유지하고, 록스테디 3.0(RockSteady 3.0)은 단일 렌즈 모드에서 흔들림을 최소화하면서도 1인칭 시점의 몰입감을 제공한다. 오즈모 360과 연동할 수 있는 DJI 미모(DJI Mimo) 앱의 자이로프레임(GyroFrame) 기능을 사용하면 모션 컨트롤을 통해 360° 영상의 구도를 자유롭게 조정할 수 있다. 또한, 인텔리전트 트래킹 기능을 통해 사람, 차량, 반려동물 등 다양한 피사체를 자동으로 인식하고 추적할 수 있다. DJI 미모 또는 DJI 스튜디오(DJI Studio) 앱을 활용해 모바일과 데스크톱 환경 모두에서 손쉽게 영상 편집이 가능하며, 어도비 프리미어 전용 플러그인을 통해 360° 영상 제작 워크플로도 간소화된다.   오즈모 360은 녹화를 중단하지 않고 전면 및 후면 렌즈를 전환할 수 있어, 여행 브이로그를 하나의 끊김 없는 클립으로 매끄럽게 담을 수 있다. 또 단일 렌즈 모드에서는 1인칭 액션 카메라로 활용할 수 있는데, 이 경우 5K/60fps 평면 영상과 155°의 시야각을 제공한다. 이외에도 부스트 비디오 모드를 활성화하면 시야각이 170°까지 확장되며, 4K/120fps의 고속 영상 촬영도 지원한다. 오즈모 360은 105GB의 내장 스토리지를 탑재해 편의성을 높였다. 무게는 183g이며 스택형 디자인을 통해 두 개의 16mm 360 이미징 렌즈 모듈을 본체에 담았다. 또한 -20℃ 환경에서 1.5시간 이상 연속 촬영이 가능하다. 기본 배터리 기준 8K/30fps 해상도로 최대 100분간 연속 촬영이 가능하며, 오즈모 360 배터리 연장 로드를 사용하면 180분을 추가로 촬영할 수 있다. 충전은 12분 만에 50%까지 가능하다. 오즈모 360은 기존 DJI 생태계를 활용한다. 오즈모 액션 시리즈와 동일한 디자인의 마그네틱 퀵 릴리즈를 채택해 오즈모 액션 액세서리와 호환되며, 1/4인치 나사 홀을 갖춰 기존 장비와도 쉽게 호환된다. 수신기 없이 두 개의 DJI 마이크 송신기에 직접 연결해서 스튜디오 수준의 음질로 녹음할 수도 있다. DJI 오즈모 360는 DJI 스토어 및 공인 판매처에서 주문할 수 있다. 가격은 기본 구성인 스탠더드 콤보가 61만 6000원이며, 다기능 배터리 케이스와 조절식 퀵 릴리즈 어댑터 마운트, 1.2m 인비저블 셀피 스틱이 포함된 어드벤처 콤보가 77만 원이다. 이외에 다양한 액세서리를 별도로 구매할 수 있다. DJI의 크리스티나 장(Christina Zhang) 기업 전략 부문 수석 이사는 “DJI는 오즈모 360을 통해 360 카메라 시장의 기존 틀을 깨고 새로운 기준을 제시하고자 한다”면서, “DJI가 창의적인 카메라 기술 분야에서 쌓아온 깊은 혁신 역량을 바탕으로 파노라마 이미지 촬영의 새로운 장을 열고자 한다. 업계 최초의 사각형 HDR 센서를 적용한 16mm 360° 이미지 구현부터 저조도 환경에서의 탁월한 성능에 이르기까지, DJI는 360 카메라의 한계를 끊임없이 확장해 나가는 것을 목표로 한다”고 말했다.
작성일 : 2025-08-01
가트너, “기업용 소프트웨어의 80%가 5년 내 멀티모달로 바뀔 것”
가트너가 2030년까지 기업용 소프트웨어 및 애플리케이션의 80%가 멀티모달(multimodal) 방식으로 전환될 것이라는 전망을 발표했다. 이는 2024년 10% 미만이었던 수치에서 크게 증가한 것이다. 가트너의 로버타 코자(Roberta Cozza) 시니어 디렉터 애널리스트는 “멀티모달 생성형 AI는 기존 모델로는 구현할 수 없었던 기능 및 성능을 제공해 의료, 금융, 제조 등 다양한 산업 분야의 기업용 애플리케이션을 혁신할 것”이라면서, “도메인 특화 언어 모델의 정밀도 향상, 운영 자동화, 맥락 기반 의사결정 인텔리전스 강화로 AI가 업무 전반에서 선제적으로 행동할 수 있도록 할 것이다. 기업용 소프트웨어의 멀티모달 전환은 비즈니스 운영 및 혁신에서의 근본적인 변화”라고 설명했다. 멀티모달 생성형 AI는 이미지, 동영상, 오디오, 텍스트, 수치 데이터 등 여러 유형의 데이터 입출력을 단일 생성 모델 내에서 처리한다. 이처럼 멀티모달리티는 모델이 다양한 유형의 데이터와 상호작용하고 결과물을 생성하도록 지원해 생성형 AI의 활용성을 강화한다. 가트너는 현재 많은 멀티모달 모델이 텍스트 투 비디오(T2V), 스피치 투 이미지(S2I) 등 몇몇 모달리티에 제한되어 있지만, 향후 몇 년간 더 다양하고 새로운 모달리티가 추가될 것으로 보고 있다.     멀티모달 생성형 AI 모델과 같이 파괴력이 높은 기술은 가트너의 생성형 AI 신기술 임팩트 레이더(Emerging Tech Impact Radar for GenAI)의 핵심부에 자리한다. 제품 리더는 고객이 한 단계 높은 비즈니스 가치를 달성할 수 있도록, 이러한 신흥 AI 기술 투자에서 전략적인 결정을 내려야 한다. 코자 시니어 디렉터 애널리스트는 “기업은 사용자 경험과 운영 효율성 향상을 위해 소프트웨어에 멀티모달 기능을 통합하는 데 집중해야 한다. 각 사업부는 멀티모달 생성형 AI가 제공하는 다양한 데이터 입출력을 활용해 새로운 차원의 생산성과 혁신을 실현할 수 있을 것”이라고 강조했다.
작성일 : 2025-07-03