• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 양자 컴퓨터"에 대한 통합 검색 내용이 2,457개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
케이던스, 반도체 설계 혁신과 글로벌 비전 공유하는 ‘케이던스라이브 코리아 2025’ 개최
케이던스 디자인 시스템즈는 오는 9월 9일 서울 롯데호텔월드에서 반도체 설계 콘퍼런스 ‘케이던스라이브 코리아2025(CadenceLIVE Korea 2025)를 개최한다고 밝혔다. 이번 행사는 첨단 반도체 및 전자 설계 자동화(EDA) 기술을 공유하고, 글로벌 및 국내 업계 전문가들과 교류할 수 있는 자리로 마련된다. ‘실리콘/컴퓨터 성장을 주도하는AI(AI driving Silicon/Compute Growth)’를 테마로 케이던스 코리아의 최신 Intelligent System Design 전략과 AI 기반 설계 혁신 사례가 발표되며, 반도체 산업의 미래를 이끌 핵심 주제들이 다뤄질 예정이다. 기조연설은 케이던스 본사의 친치 텡(Chin-Chi Teng) 부사장이 맡아, 반도체 및 시스템 설계의 글로벌 기술 트렌드와 케이던스의 전략 방향을 공유할 예정이다. 이어서 삼성전자를 비롯한 국내 주요 고객사가 참여해, 케이던스 플랫폼을 기반으로 한 3D IC, STCO(System-Technology Co-Optimization), 첨단 패키징 기술 등의 실제 적용 사례를 발표한다. 이와 함께, Digital Full Flow, Custom & Analog, Verification, System Design & Analysis, Silicon Solutions 등 다양한 분야에 걸친 전문 기술 세션이 진행되며, 최신 설계 흐름과 툴에 대한 심층 논의가 이루어진다. 또한 행사장 내 ‘Designer Expo’ 부스에서는 케이던스의 설계 설루션을 직접 확인하고, 기술 전문가와의 1:1 교류를 통해 현장의 니즈를 공유하는 자리가 마련된다. 케이던스 디자인 시스템 코리아의 서병훈 사장은 “케이던스라이브 코리아2025는 한국 반도체 설계의 현재와 미래를 조망하고, 글로벌과 지역을 잇는 협력의 장이 될 것”이라고 전했다.  
작성일 : 2025-09-05
포토닉스 소자 시뮬레이션을 위한 앤시스 루메리컬
앤시스 워크벤치를 활용한 해석 성공 사례   포토닉스 소자와 시스템 설계 및 해석이 가능한 광학 및 포토닉스 소자 시뮬레이션 소프트웨어 앤시스 루메리컬(Ansys Lumerical)은 오늘날 통신, 반도체, 바이오포토닉스, 센서, 디스플레이 등 다양한 산업에서 활용되고 있다. 이번 호에서는 앤시스 루메리컬에 대한 간단한 소개부터 다양한 솔버에 대해 소개하고자 한다.   ■ 박건 태성에스엔이 SBU팀의 매니저로 포토닉스, 파동광학 해석 기술 지원 및 교육, 용역 업무를 담당하고 있다. 홈페이지 | www.tsne.co.kr   앤시스 루메리컬 앤시스 루메리컬은 포토닉스 소자, 프로세스 설계 및 재료 모델링을 위한 goldstandard 제품으로, 다양한 응용 분야에서 강력하고 신뢰할 수 있는 설루션을 제공한다. 또한 광학 소자와 시스템을 설계하고 분석하는데 있어 높은 성능을 보여준다. 앤시스 루메리컬은 <그림 1>과 같이 통신, 반도체, 바이오포토닉스, 센서, 디스플레이, 복잡한 포토닉스 소자 등 다양한 산업에서 활용되고 있다.   그림 1. 앤시스 루메리컬의 응용 분야   표 1. 앤시스 루메리컬 제품 및 솔버   앤시스 루메리컬 제품은 <표 1>과 같이 크게 디바이스 레벨(device level)과 시스템 레벨(system level)의 두 가지로 분류할 수 있다. 포토닉스 소자 설계 및 해석이 가능한 디바이스 레벨에는 광학적 해석을 하는 FDTD, 웨이브가이드(waveguide) 설계 및 해석에 특화된 모드(MODE), 전기적 특성 및 열적 특성 등 다양한 물리적 해석이 가능한 멀티피직스(Multiphysics)가 있으며, 설계한 포토닉스 소자를 회로 레벨에서 시뮬레이션 가능한 인터커넥트(INTERCONNECT)가 있다.   그림 2. 앤시스 루메리컬의 다양한 솔버를 사용한 설계 예시   <그림 2>처럼 앤시스 루메리컬의 다양한 솔버를 사용하여 소자를 설계하면 광학적 특성 해석 뿐만 아닌 광학적으로 생성된 전기, 열 특성 분석도 가능하다. 반대로 전기, 열, 양자적 특성으로 발생하는 광학적 특성도 해석이 가능하다.   앤시스 루메리컬 FDTD 앤시스 루메리컬 FDTD(Finite-Difference TimeDomain)는 시간 영역에서 맥스웰(Maxwell) 방정식을 직접 풀어 전자기파의 전파를 시뮬레이션한다. 이를 통해 전자기장의 시간적 변화를 정확하게 분석할 수 있다. FDTD를 통해 분석할 수 있는 결과는 근거리 전자기장, 원거리 전자기장, 반사 스펙트럼, 투과 스펙트럼, 흡수 스펙트럼, 포인팅(Poynting) 벡터 등이 있다. 앤시스 루메리컬 FDTD에는 FDTD, RCWA, STACK 등 총 세 가지의 솔버가 있다. FDTD는 RCWA와 STACK으로 수행하는 모든 해석이 가능하지만, 특정한 해석 구조와 조건에서 RCWA와 STACK 솔버를 사용한다면 FDTD보다 훨씬 빠른 속도로 해석이 가능하며 데이터 사용량도 줄일 수 있다.   그림 3. FDTD 솔버 선택 방법   <그림 3>처럼 서로 다른 굴절률을 가진 여러 층(다층 구조)에 평면파가 입사되는 조건에 대해 시뮬레이션할 때, 구조의 형태에 따라 적합한 솔버를 선택하면 해석 시간과 컴퓨터 자원을 효율적으로 쓸 수 있다. 다층박막 및 필름 같은 형태의 구조 : STACK 솔버 동일한 형태의 구조가 규칙성을 가지고, 반복적으로 배치된 와이어 그리드(wire grid) 및 창살(grating)같은 형태의 구조 : RCWA 솔버 주기성이 없는 랜덤한 형태의 구조 : FDTD 솔버     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-09-03
[케이스 스터디] KAI의 언리얼 엔진 기반 차세대 시뮬레이션 에코시스템
비행 훈련부터 제품 개발·운영까지 아우르는 핵심 인프라를 목표로   최근 몇 년 사이 시뮬레이션 산업은 디지털 트윈, AI(인공지능), VR(가상현실)/AR(증강현실) 등 첨단 디지털 기술 중심으로 빠르게 재편되고 있다. KAI(한국항공우주산업)는 이러한 흐름에 발맞춰 언리얼 엔진을 도입함으로써 항공산업 전반에 걸친 디지털 혁신을 추진하고 있다. ■ 자료 제공 : 에픽게임즈   KAI는 KT-1 기본 훈련기, T-50 고등훈련기, 수리온 기동헬기, 송골매 무인기 등 다양한 항공우주 시스템을 자체적으로 설계 및 제작하며, 지난 40년간 항공산업 및 국방산업을 선도해 온 종합 항공우주 설루션 기업이다. 최근에는 소형무장헬기(LAH)와 차세대 전투기 KF-21 개발을 비롯해 위성과 발사체 총조립 등 우주 분야로도 사업을 확대하고 있다. KAI는 2024년 ‘언리얼 페스트 시애틀 2024(Unreal Fest Seattle 2024)’에 참가해 자사의 시뮬레이션 전략을 소개하는 세션을 진행했다. 이번 호에서는 이 발표 내용을 바탕으로 시뮬레이션 산업의 급변하는 흐름 속에서 KAI가 어떻게 대응하고 있는지, 언리얼 엔진을 중심으로 한 시뮬레이션 통합 전략과 실제 적용 사례, 그리고 향후 비전 등을 중심으로 KAI의 기술 혁신에 대해 살펴본다.   ▲ 이미지 출처 : ‘KAI의 언리얼 엔진 기반 차세대 시뮬레이션 에코시스템 | 언리얼 엔진’ 영상 캡처   시뮬레이션 산업의 변화와 KAI의 대응 최근 시뮬레이션 산업은 빠르게 발전하며 구조적인 변화를 겪고 있다. 클라우드 기반 시뮬레이션 도입으로 언제 어디서든 고성능 자원에 접근할 수 있게 되었고, 디지털 트윈, AI, 머신러닝 기술의 결합을 통해 시뮬레이션은 단순한 재현을 넘어 예측과 최적화를 수행할 수 있는 툴로 진화하고 있다. 또한 VR/AR/MR(혼합현실) 기술은 훈련의 몰입감과 현실감을 높여 실제 환경과 유사한 시뮬레이션을 가능하게 하고, 마이크로서비스 아키텍처를 기반으로 한 소프트웨어 설계는 유연성과 확장성을 높이고 있다. KAI는 이러한 디지털 전환에 적극 대응하기 위해 전통적인 레거시 시뮬레이션 시스템을 언리얼 엔진과 통합하고 있다. 핵심 전략은 세 가지이다. 첫째, 언리얼 엔진을 활용한 빠른 프로토타이핑으로 기술 검증과 적용 속도를 높이는 것이다. 둘째, 표준화된 인터페이스를 통해 기존 시스템과의 원활한 연동을 실현하는 것이다. 셋째, 지속 가능한 콘텐츠 개발을 위한 플랫폼 설계로 장기적인 생태계 구축을 추진하는 것이다. 이를 통해 KAI는 기존 자산의 가치를 극대화함과 동시에 급변하는 기술 환경에 유연하고 효율적으로 대응하고 있다.   언리얼 엔진이 변화하는 시뮬레이션 산업에 주는 영향 언리얼 엔진은 시뮬레이션 산업의 진화에 있어 중요한 역할을 하고 있다. 우선 고품질의 리얼타임 3D 그래픽을 통해 현실감 있는 몰입형 시뮬레이션 환경을 구현할 수 있어, 훈련과 테스트의 효율성을 높이고 있다. 또한 VR/AR/MR과의 통합 지원은 다양한 산업에서 실제 같은 체험 기반 학습을 가능하게 한다. 언리얼 엔진의 모듈형 아키텍처와 개방된 생태계는 기존 레거시 시스템과의 통합을 쉽게 하고, 새로운 기술이나 기능을 빠르게 적용할 수 있는 유연성을 제공한다. 특히 디지털 트윈, AI, 머신러닝 등 최신 기술과의 연계가 원활하여 복잡한 시스템의 설계, 유지보수, 운영 효율을 높일 수 있다. KAI와 같은 기업에게 언리얼 엔진은 단순한 툴을 넘어, 지속 가능한 시뮬레이션 콘텐츠를 개발하고 새로운 시뮬레이션 생태계를 구축하는 핵심 기술로 자리잡고 있다.   ▲ KAI의 시뮬레이터로 본 FA-50의 모습(이미지 출처 : KAI)   기존 시스템에 언리얼 엔진을 통합한 사례 KAI는 항공기 훈련 체계에 언리얼 엔진을 도입해 현실성과 효율을 갖춘 시뮬레이터를 개발하고 있다. 대표적으로 VR 시뮬레이터의 경우, 조종사가 풀 플라이트 시뮬레이터에 들어가기 전 VR 기기를 통해 절차와 조작 감각을 사전에 익힐 수 있도록 돕고 있다. 언리얼 엔진으로 실제 항공기와 동일한 가상 조종석을 구현해 이륙/착륙, 비상절차, 항전 장비 조작 등을 별도 교관 없이 반복 학습할 수 있도록 했다. 기존의 시뮬레이터는 실제 항공기 수준의 조작감과 훈련 효과를 제공하지만, 높은 구축 비용과 운영 비용, 전용 시설의 필요 등으로 대량 보급에 한계가 있었다. KAI는 이러한 문제를 보완하기 위해 VR 기술을 도입했다. 언리얼 엔진은 영상 발생 장치, 계기 패널, 입출력 장치 등을 대체한 것은 물론, VR HMD(헤드 마운트 디스플레이) 하나만으로 기존의 여러 장치를 필요로 하는 대형 시현 시스템의 효과를 구현할 수 있게 했다. 또한 KAI는 독자적인 역학 모델과 항전 시스템을 언리얼 엔진의 실시간 렌더링과 결합해 실제 조종과 유사한 수준의 훈련 환경을 제공하고 있다. GIS(지리 정보 시스템), DEM(수치 표고 모델) 등 초정밀지도 기반의 한반도 3D 지형을 재현해 조종사의 임무 지역 지형 학습까지 지원하고 있다. 정비 훈련 분야에서도 언리얼 엔진은 핵심 플랫폼으로 활용되고 있다. 2024년 I/ITSEC 전시회에서 공개된 FA-50 정비 훈련 시뮬레이터는 VR 환경에서 점검과 부품 교체를 실습할 수 있을 뿐만 아니라, 사용자가 직접 교육 과정을 만들 수 있도록 설계됐다. 이를 통해 기존 문서와 평면형 CBT(컴퓨터 기반 훈련), 반복 시나리오 기반의 실습 중심 교육의 한계를 극복할 대안을 제시했다. 또한 같은 행사에서 선보인 수리온 헬기 비행 시뮬레이터(VFT)는 디지털 트윈과 고해상도 시각화를 통해 실제 기체 성능과 지형 정보를 반영한 몰입형 훈련 환경을 제공했다.   ▲ FA-50 비행 시뮬레이션의 디스플레이 장면(이미지 출처 : KAI)   시뮬레이션·시스템 개발에서 언리얼 엔진의 기여도 언리얼 엔진 도입 이후 KAI의 시뮬레이션 제작 파이프라인에는 큰 변화가 있었다. 데이터스미스를 활용해 카티아 등 설계 도구의 3D 모델을 쉽게 불러올 수 있어, 실제 설계 기반의 가상 조종석과 기체 모델을 빠르게 구축하고 별도의 모델링 없이 제작 시간을 줄일 수 있었다. 또한 자체 개발한 비행역학 엔진과 항공전자 시뮬레이션 소프트웨어를 언리얼 엔진과 실시간으로 연동해, 백엔드 시스템과 시각화 프론트엔드를 효과적으로 통합함으로써 전반적인 생산성이 향상되었다. 특히 조종사가 시각과 청각 정보를 통해 상황을 판단하는 VR 시뮬레이터 개발에서는 언리얼 엔진의 렌더링, 사운드, 애니메이션 기능이 핵심 도구로 사용되었다. 물리 기반 렌더링(PBR)은 금속, 유리, 계기판 등 재질을 사실적으로 구현했으며, 파티클 시스템과 머티리얼 노드를 통해 연기, 공기 왜곡 등의 시각 효과도 유연하게 조정할 수 있었다. 사운드 역시 메타사운드를 통해 엔진 RPM이나 환경 변화에 따라 실시간으로 반응하며, 조종사에게 실제 비행과 유사한 감각을 제공했다. 또한 애니메이션 블루프린트를 활용해 조종간, 계기판, 비행 제어면 간 연동 애니메이션의 비주얼을 직관적으로 구현할 수 있었으며, 스카이 애트머스피어, 볼류메트릭 클라우드, 하이트 포그 등의 기능은 대기 표현과 공간 인식 훈련의 몰입감을 높였다. 지형 구현에서도 언리얼 엔진의 LWC(Large World Coordinates)를 통해 수천 km 단위의 지형에서도 고속 이동 시 정밀도를 유지할 수 있었고, 풀 소스 코드를 활용해 AI 훈련 체계에 맞는 좌표 변환, 시스템 연동, 정밀 지형 구조를 구현할 수 있었다. 이 과정에서 실제 지형 데이터, 항공 사진, 고도 정보를 언리얼 엔진에 통합했고, GIS, DEM 기반의 정밀 지형 정보를 효과적으로 활용해 복잡한 비행 경로, 저공 비행 훈련, 목표 탐색 등 고난도 시나리오도 현실감 있게 구현할 수 있었다. 그 결과 KAI는 초대형 지형 데이터, 초정밀 위치 기반 훈련, 외부 시스템과의 정밀한 좌표 연동을 모두 만족하는 차세대 항공기 시뮬레이터 플랫폼을 성공적으로 구축할 수 있었다. 이외에도 다양한 플러그인, 하드웨어 인터페이스, 형상 관리 툴 연동, 이제는 리얼리티스캔으로 변경된 리얼리티캡처, 마켓플레이스 등을 활용하여 프로젝트 확장성과 콘텐츠 제작 유연성이 높아졌다.   ▲ 애니메이션 블루프린트를 활용해 구현한 조종간(이미지 출처 : KAI)   대규모 전술 훈련을 위한 AI 에이전트를 언리얼 엔진에 도입 KAI는 차세대 전술 훈련 시뮬레이터 개발을 위해 강화학습 기반의 AI 에이전트를 실제 훈련 시나리오에 연동하는 작업을 진행 중이다. 특히, 복잡한 전장 환경에서는 다양한 무기 체계와 플랫폼이 동시에 운용되기 때문에, 이를 하나의 시뮬레이션 공간에서 유기적으로 연동하는 기술이 매우 중요하다. 기존 상용 시뮬레이터 설루션의 경우 외부 시스템 연동이나 커스터마이징에 제약이 많지만, 언리얼 엔진은 C++ 기반의 풀 소스 코드 접근이 가능해 이러한 한계를 극복할 수 있다. KAI는 이러한 개방성을 바탕으로 자체 개발한 AI 에이전트를 정밀하게 통합해, 복잡한 상호작용이 필요한 전술 훈련 시나리오에서도 실질적인 이점을 확보할 수 있었다. 이와 같은 통합은 단순히 AI를 활용하는 수준을 넘어, 인간 조종사와 AI가 동일한 시뮬레이션 환경에서 훈련하고 상호 작용할 수 있는 구조를 의미한다. 기존의 설루션으로는 구현하기 어려웠지만 KAI는 언리얼 엔진을 도입해 이를 실현할 수 있었다. 결과적으로 언리얼 엔진은 AI, 실시간 시뮬레이션, 데이터 피드백이 통합된 플랫폼을 제공하며, KAI의 차세대 전술 훈련체계 구현에 핵심 역할을 하고 있다.   ▲ 지형 데이터 통합으로 구현한 대규모 도시 지역 디지털 트윈(이미지 출처 : KAI)   향후 시뮬레이션 에코시스템의 방향과 KAI의 비전 향후 시뮬레이션 에코시스템은 개방성, 지속 가능성, 개인화를 중심으로 발전해 나갈 것이다. AI와 빅데이터를 기반으로 한 맞춤형 훈련 시스템, 클라우드 환경에서의 지리적 제약 없는 고성능 시뮬레이션 그리고 VR/AR, 웨어러블 기술 등을 활용한 몰입형 실시간 피드백 시스템이 표준이 되어갈 것으로 전망된다. 이러한 변화 속에서 KAI는 기술 통합형 플랫폼과 자체 시뮬레이션 에코시스템을 구축하며, 대한민국 시뮬레이션 산업의 지속 가능한 성장 기반을 마련할 예정이다. 언리얼 엔진을 단순한 개발 툴이 아닌 시뮬레이션 엔진으로 활용하며, 플랫폼을 중심으로 고퀄리티 콘텐츠를 빠르게 생산할 수 있는 시뮬레이션 콘텐츠 파이프라인을 개발 중이다. KAI의 비전은 국내를 넘어 글로벌 시뮬레이션 에코시스템과 연결되는 것이다. 언리얼 엔진의 개방성과 기술력을 바탕으로 산업 전반에 걸쳐 공유 가능한 시뮬레이션 플랫폼을 만들고, 이를 통해 다양한 산업, 기관, 개발자가 협력할 수 있는 건강하고 확장 가능한 에코시스템을 조성하는 것이 목표다. 이러한 방향성과 비전을 바탕으로, KAI는 시뮬레이션 기술을 단순한 훈련 도구를 넘어 제품 개발, 유지보수, 운영 효율 개선을 위한 핵심 인프라로 성장시키고자 한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-09-03
코리아 그래픽스 2025, 9월 11~12일 온라인 개최...“AI로 혁신하는 3D 시각화와 산업의 미래” 집중 조명
국내 대표 컴퓨터 그래픽 컨퍼런스인 ‘코리아 그래픽스 2025’가 오는 9월 11일(목)부터 12일(금)까지 온라인으로 개최된다. 올해로 13회째를 맞이하는 이번 행사는 ‘AI로 혁신하는 3D 시각화와 산업의 미래’를 주제로, 제조·건축·엔터테인먼트 등 산업 현장에서 적용 가능한 AI·XR·디지털 트윈 최신 기술과 활용 사례를 심도 있게 다룰 예정이다. 9월 11일, 행사 첫째 날은 ‘디지털 트윈과 3D 시각화’를 주제로 진행된다. 한양대학교 현경훈 교수는 생성형 AI를 활용한 디자인·제조 혁신 방안을 발표한다. 에픽게임즈 코리아 권오찬 시니어 에반젤리스트는 언리얼 엔진 리얼타임 기술 기반의 디지털 트랜스포메이션 사례를 소개한다. HP코리아 차성호 이사는 AI 워크스테이션을 통한 생산성 향상 사례를 공유한다. 에스엘즈 정재헌 대표는 AEC 산업의 공간지능 및 증강휴먼 기술 발전을 다룬다. 유니티코리아 김현민 엔지니어는 Unity Asset Manager를 통한 CAD 데이터 관리 및 실시간 협업 혁신을 제시한다. 메가존클라우드 홍동희 그룹장은 CAD와 Unity 결합을 통한 신규 비즈니스 모델과 기회를 설명한다. 캐디안 한명기 상무는 AI-CAD 기반 3D 도면 생성 기술 및 적용 솔루션을 소개한다. 이노시뮬레이션 이지선 CTO는 모빌리티 XR과 AI 융합 사례를 발표한다. 9월 12일, 둘째 날은 'AI 비주얼 트렌드와 응용 사례'를 주제로 AI 기반 비주얼 트렌드와 응용 사례가 집중적으로 다뤄진다. 서울미디어대학원대학교 유훈식 교수는 AI 시대 그래픽 디자인 패러다임 변화와 혁신 사례를 발표한다. 현대자동차 신종호 매니저는 언리얼 엔진 기반 제조 소프트웨어 개발과 스마트팩토리 사례를 소개한다. LG CNS 이희재 팀장은 생성형 AI 플랫폼 ‘COP’을 통한 업무 생산성 향상 방안을 공유한다. 아이스케이프 조세희 대표는 생성형 AI 영상 제작 노하우를 공개한다. AI팩토리 김태영 CEO는 노코드 AI 에이전트와 바이브 코딩을 활용한 자동화 및 생산성 향상 방안을 제시한다. 이윰 스페이스 이윰 대표는 세계관 디자인을 중심으로 한 생성 AI 기반 아트워크 사례를 발표한다. 고려대학교 박진호 교수는 XR과 AI 융합을 통한 초연결 콘텐츠의 가능성을 제시한다. 한편 이번 행사에는 에픽게임즈코리아, 유니티코리아, 메가존클라우드, HP코리아, 현대자동차, LG CNS 등 국내외 주요 기업과 연구진이 참여한다. 산업별 AI·3D 시각화 기술의 미래 방향성을 제시하며, 실무 적용 가능한 인사이트를 공유할 예정이다. 이번 행사를 주관하는 캐드앤그래픽스 최경화 국장은 “산학연 전문가가 함께 모여 AI와 3D 시각화 기술의 융합 가능성을 논의하는 자리가 될 것”이라며, “급변하는 산업 환경 속에서 혁신을 이끌어갈 유익한 기회가 될 것”이라고 밝혔다. 현재 코리아 그래픽스 2025 사전등록 이벤트가 진행 중이다. 
작성일 : 2025-08-30
DJI, 성능과 확장성 갖춘 미니 무선 마이크 DJI Mic 3 출시
DJI가 강력한 성능과 유연한 확장성을 갖춘 초경량 무선 마이크 DJI Mic 3(DJI 마이크 3)를 출시한다고 밝혔다. 이번 제품은 최대 4개의 송신기(TX)와 8개의 수신기(RX)를 지원해 멀티 카메라 제작 환경이나 그룹 녹음 시에도 안정적인 성능을 제공한다. 또한 DJI Mic 시리즈 최초로 자동 게인 조절(Adaptive Gain Control) 기능이 탑재돼 자동으로 클리핑을 방지하거나 음량을 조정할 수 있으며, 세 가지 음성 톤 프리셋(Voice Tone Presets)과 2단계 노이즈 캔슬링 기능도 제공된다. 또한 32GB 저장 공간의 듀얼 파일 32-bit Float 내부 레코딩(Dual-File 32-bit Float Internal Recording) 기능도 처음 적용되었다.     16g 무게의 DJI Mic 3 송신기는 가볍고 컴팩트한 디자인이 특징이다. 탈착식 회전 클립을 이용해 마이크 각도를 자유롭게 조정할 수 있어, 어떤 방식으로 부착하더라도 최적의 오디오를 확보할 수 있다. 자석 또는 클립 방식으로 착용 가능하며, 윈드스크린은 촬영 환경이나 의상에 맞춰 선택할 수 있도록 5가지 색상으로 별도 구매가 가능하다. 크리에이터는 멀티 신(multi-scene) 촬영 시 장소를 이동하는 중에도 Mic 3를 충전하며 간편하게 휴대할 수 있다. 함께 제공되는 올인원 충전 케이스는 송신기 2개와 수신기 1개를 수납할 수 있으며, 윈드스크린이나 자석 클립을 부착한 상태로도 보관이 가능하다. 케이스 내부에는 자석과 잠금 오디오 어댑터 케이블을 함께 수납할 공간도 마련되어 있다. DJI Mic 3는 인텔리전트 기능을 통해 역동적인 고품질의 사운드를 구현하며, DJI 마이크 중 최초로 두 가지 자동 게인 조절 모드를 갖췄다. 야외 스포츠 경기처럼 음량 변화가 큰 환경에서는 ‘자동(Auto)’ 모드가 갑작스러운 볼륨 피크를 억제해 클리핑을 방지하고, 실내 스튜디오처럼 정적인 환경에서는 ‘다이내믹(Dynamic)’ 모드가 음량 변화에 따라 자동으로 게인을 조정해 일관된 음량을 유지한다. DJI Mic 3는 DJI 마이크 가운데 최초로 세 가지 음성 톤 프리셋(레귤러, 리치, 브라이트)을 지원한다. 이 기능은 다양한 음색을 가진 여러 화자가 참여하는 인터뷰에 적합하며, 음성을 전문적으로 조정해 저음을 강화하여 울림을 줄이고, 고음을 강조함으로써 명료도를 높인다. 동시에, 2단계 능동형 노이즈 캔슬링 기능이 에어컨과 같은 배경 소음을 억제해 선명하고 또렷한 음질을 구현한다. 윈드스크린을 장착하면 바람 소리까지 추가로 줄일 수 있다. 마지막으로, 무손실 오디오(Lossless Audio) 기능을 통해 송신기에서 수신기로 압축되지 않은 48kHz/24-bit 오디오를 직접 전송해 정밀한 고음질을 담아낸다. Mic 3는 최대 4개의 송신기와 8개의 수신기를 동시에 연결할 수 있으며(추가 송신기와 수신기는 별도 판매), 그룹 인터뷰나 멀티 카메라 촬영에서도 모든 기기에서 선명한 오디오를 확보해 후반 작업을 한층 수월하게 한다. 쿼드라포닉(Quadraphonic) 모드에서는 DJI Mic 3 리시버를 특정 소니 카메라나 컴퓨터 소프트웨어와 연동해 네 개의 오디오 트랙을 독립적으로 출력할 수 있어, 정밀한 트랙 분리와 유연한 믹싱을 가능하게 하며 후반 제작에서 더욱 넓은 창작의 자유를 제공한다. Mic 3는 대규모 박람회나 스포츠 경기장과 같은 복잡한 환경에서도 최대 400m에 이르는 송신 범위와 간섭 저항 전송 성능을 제공한다. 또한 2.4GHz와 5GHz 대역 간 자동 주파수 전환을 통해 안정적인 전송을 지원한다. 내장형 녹음 기능은 무선 장애나 장비 이슈로 인한 오디오 손실을 방지한다. DJI Mic 3는 오리지널 트랙과 알고리즘 보정 트랙을 동시에 저장하는 듀얼 파일 내부 레코딩(Dual-file internal recording)을 지원해 창작의 유연성을 제공하고 후반 작업을 간소화한다. 또한 24-bit 또는 32-bit Float 포맷을 지원해 폭넓은 다이내믹 레인지를 구현하며, 복잡한 음향 환경에서도 속삭임부터 고함까지 모든 음성의 뉘앙스를 정밀하게 포착할 수 있다. 송신기에 탑재된 고정밀 타임코드 기능은 내장 녹음 시 타임코드 데이터를 함께 기록하며, 24시간 동안 1프레임 이내의 오차 범위를 유지해 멀티 카메라 환경에서도 영상과 오디오를 정확히 동기화하고 후반 제작에서 손쉬운 편집을 지원한다. DJI Mic 3는 완충 시 송신기는 최대 8시간, 수신기는 최대 10시간까지 사용할 수 있으며, 충전 케이스를 이용하면 2.4회 완충으로 총 28시간까지 연장된다. 5분 고속 충전으로 2시간 사용이 가능하고, 50분이면 완전 충전이 완료된다. 또한 다양한 절전 기능을 갖춰 재충전 빈도를 줄여준다. 예를 들어 ‘자동 절전(Auto Power-Savings)’ 기능은 사용하지 않을 때 송신기와 수신기를 절전 모드로 전환하고, ‘자동 전원 차단(Auto Power-Off)’ 기능은 일정 시간 미사용 시 전원을 꺼 배터리 소모를 최소화한다. DJI Mic 3는 DJI 오즈모오디오(OsmoAudio) 생태계에 직접 연결되어 오즈모 360(Osmo 360), 오즈모 액션 5 프로(Osmo Action 5 Pro), 오즈모 액션 4(Osmo Action 4), 오즈모 포켓 3(Osmo Pocket 3) 등 DJI 주요 제품에 수신기 없이 바로 연결할 수 있으며, 프리미엄 오디오를 제공하는 동시에 장비 구성을 최소화하고 크리에이터의 워크플로를 단순화한다. 또한 락킹 3.5mm TRS 출력 포트, 3.5mm TRRS 모니터링 포트, USB-C 포트를 갖춰 다양한 외부 장비와 유선 연결이 가능하며, 스마트폰에는 블루투스를 통해 수신기 없이 바로 연결할 수 있다. DJI Mic3는 DJI 스토어 및 공인 판매처로부터 주문할 수 있다. 송신기 2개 + 수신기 1개 + 충전 케이스 구성은 46만 9000원, 송신기 1개 + 수신기 1개 구성은 26만 5000원이다. DJI Mic 3 수신기와 송신기는 각각 16만 3000원과 14만 2000원에 별도 구매할 수 있으며, DJI Mic 3 충전 케이스는 10만 7000원에 판매된다. DJI의 크리스티나 장(Christina Zhang) 기업 전략 부문 수석 이사는 “DJI Mic 3는 지금까지 볼 수 없었던 컴팩트한 외형에 프리미엄 오디오 품질과 스마트 기능을 결합한 제품”이라면서, “다양한 환경, 여러 피사체, 다양한 장비를 이용하는 환경에 맞춰 오디오를 자유롭게 담을 수 있도록 다재다능한 디자인을 갖췄다. 또, 인텔리전트 기능들을 이용해 누구나 간편하게 선명하고 풍부한 사운드를 담아내어 창작의 과정을 한층 매끄럽게 해주는 것이 특징”이라고 밝혔다.
작성일 : 2025-08-29
IBM-AMD, 양자·AI·HPC 융합한 차세대 컴퓨팅 개발 협력
IBM과 AMD는 양자 컴퓨터와 HPC(고성능 컴퓨팅)를 결합한 차세대 컴퓨팅 아키텍처인 양자 중심 슈퍼컴퓨팅(quantum-centric supercomputing) 개발 계획을 발표했다. IBM은 고성능의 양자 컴퓨터 및 소프트웨어 개발에서의 리더십을, AMD는 HPC 및 AI 가속기 분야의 리더십을 바탕으로 확장 가능하고 오픈소스 기반의 플랫폼을 공동 개발해 컴퓨팅의 미래를 재정의하고자 한다. 양자 컴퓨팅은 정보를 표현하고 처리하는 방식에서 기존 컴퓨터와 완전히 다르다. 기존 컴퓨터는 0과 1의 비트로 정보를 처리하지만, 양자 컴퓨터는 양자역학의 법칙에 따라 정보를 표현하는 큐비트(qubit)를 사용한다. 이러한 특성은 신약 개발, 소재 탐색, 최적화, 물류 등 기존 컴퓨팅으로는 해결이 어려운 복잡한 문제에 대한 해결책을 탐색할 수 있는 연산 능력을 제공한다. 양자 중심 슈퍼컴퓨팅 아키텍처에서는 양자 컴퓨터가 CPU, GPU, 기타 컴퓨팅 엔진으로 구성된 HPC 및 AI 인프라와 함께 작동한다. 이 하이브리드 접근 방식에서는 문제의 각 요소를 가장 적합한 컴퓨팅 방식으로 해결한다. 예를 들어, 미래에는 양자 컴퓨터가 원자와 분자의 행동을 시뮬레이션하고, AI 기반의 슈퍼컴퓨터가 방대한 데이터 분석을 수행할 수도 있다. 이런 기술이 결합되면 현실 세계의 문제를 더욱 빠른 속도와 큰 규모로 해결할 수 있을 것으로 기대된다. IBM과 AMD는 AMD의 CPU, GPU, FPGA(프로그래밍이 가능한 반도체)를 IBM의 양자 컴퓨터와 통합해 기존 컴퓨팅 방식으로는 해결할 수 없는 새로운 알고리즘을 효율적으로 가속화하는 방안을 모색하고 있다. 이는 IBM이 2030년까지 실현하고자 하는 오류 내성 양자 컴퓨터(fault-tolerant quantum computing) 로드맵에도 기여할 수 있다. AMD의 기술은 오류 내성 양자 컴퓨팅의 핵심 요소인 실시간 오류 수정 기능을 제공할 수 있는 가능성을 지니고 있다. 양사는 올해 말 IBM의 양자 컴퓨터와 AMD 기술이 함께 작동하는 하이브리드 양자-클래식 연계 프로젝트 시연을 계획하고 있으며, IBM 키스킷(Qiskit)과 같은 오픈소스 생태계를 활용해 새로운 알고리즘 개발과 채택을 촉진하는 방안도 함께 검토 중이다. IBM의 아빈드 크리슈나(Arvind Krishna) 회장 겸 CEO는 “양자 컴퓨팅은 자연 세계를 시뮬레이션하고 정보를 완전히 새로운 방식으로 표현할 수 있다. IBM의 양자 컴퓨터와 AMD의 고성능 컴퓨팅 기술을 결합함으로써 기존 컴퓨팅의 한계를 뛰어넘는 강력한 하이브리드 모델을 구축할 수 있을 것”이라고 말했다. AMD의 리사 수(Lisa Su) CEO는 “HPC는 세계의 주요 과제를 해결하는 기반이 된다. IBM과의 협력을 통해 고성능 컴퓨팅과 양자 기술의 융합을 모색함으로써, 우리는 혁신과 발견을 가속화할 수 있는 엄청난 기회를 마주하고 있다”고 밝혔다.
작성일 : 2025-08-27
엔비디아, "AI와 디지털 트윈으로 물리적 프로토타입 없는 제조 혁신 이끈다"
엔비디아는 글로벌 컴퓨터 그래픽 콘퍼런스인 ‘시그라프(SIGGRAPH) 2025’에서, 아마존 디바이스 앤 서비스(Amazon Devices & Services)가 엔비디아 디지털 트윈 기술을 활용해 제조 분야의 혁신을 이끌고 있다고 밝혔다. 아마존 디바이스 생산 시설에 이달 도입된 이 설루션은 시뮬레이션 우선 접근 방식을 적용한 ‘제로 터치(zero-touch)’ 제조 방식을 구현했다. 제로 터치의 핵심은 로봇 팔이 다양한 장비의 제품 품질을 자율적으로 검사하고, 새로운 제품을 생산 라인에 통합하도록 훈련하는 과정 전체를 하드웨어 변경 없이 합성 데이터를 기반으로 수행하는 것이다. 이를 위해 아마존 디바이스가 자체 개발한 조립 라인 공정 시뮬레이션 소프트웨어와 엔비디아 기술 기반의 디지털 트윈을 결합했다. 모듈형 AI 기반 워크플로를 통해 기존보다 더 빠르고 효율적인 검사를 진행하며, 제조업체의 워크플로를 간소화해 신제품을 소비자에게 전달하는 시간을 줄일 수 있다는 것이 엔비디아의 설명이다.     또한, 이 설루션은 공장 작업대와 장비의 사실적인 물리 기반 표현에 기반한 합성 데이터를 생성해 로봇 운영을 위한 ‘제로샷(zero-shot)’ 제조를 가능하게 한다. 공장에 특화된 데이터는 시뮬레이션과 실제 작업 환경에서 AI 모델의 성능을 높이는 데에 쓰이며, 시뮬레이션과 실제 작업 환경에서의 AI 모델 성능 격차를 최소화할 수 있다. 엔비디아는 “제로샷 제조를 통해 물리적 프로토타입 없이도 다양한 제품과 생산 공정을 유연하게 처리할 수 있는 범용 제조 시대를 향한 중요한 도약을 이뤄냈다”고 평가했다. 아마존 디바이스 앤 서비스는 디지털 트윈 환경에서 로봇을 훈련시켜 새로운 장비를 인식하고 다루도록 한다. 이를 통해 소프트웨어 변경만으로 한 제품의 감사 작업에서 다른 제품으로 손쉽게 전환할 수 있으며, 더 빠르고 제어가 용이한 모듈화 제조 파이프라인을 구축했다. 이를 위해 엔비디아의 아이작(Isaac) 기술 제품군을 활용한다. 아마존은 신규 장치가 도입되면 CAD 모델을 엔비디아 옴니버스(Omniverse) 플랫폼 기반의 오픈소스 로보틱스 시뮬레이션 애플리케이션인 엔비디아 아이작 심(Sim)에 적용한다. 아이작 심은 각 장치의 CAD 모델을 통해 물체 및 결함 탐지 모델 훈련에 필수인 5만 개 이상의 합성 이미지를 생성한다. 이후 엔비디아 아이작 ROS를 활용해 제품 취급을 위한 로봇 팔 궤적을 생성하고 조립부터 테스트, 포장, 검사까지 모든 과정을 구성한다. 로봇이 작업 환경을 이해하고 충돌 없는 궤적을 생성하는 데에는 엔비디아 젯슨 AGX 오린(Jetson AGX Orin) 모듈에서 실행되는 쿠다(CUDA) 가속 동작 계획 라이브러리 엔비디아 cu모션(cuMotion)이 사용된다. 또한, 500만 개의 합성 이미지로 훈련된 엔비디아의 파운데이션 모델 파운데이션포즈(FoundationPose)는 로봇이 장비의 정확한 위치와 방향을 파악하도록 돕는다. 파운데이션포즈는 사전 노출 없이도 새로운 물체에 맞춰 일반화할 수 있어, 모델 재훈련 없이 다양한 제품 간의 원활한 전환을 가능하게 한다. 한편, 이 기술을 더욱 빠르게 개발하기 위해 아마존 디바이스 앤 서비스는 AWS 배치(Batch)와 아마존 EC2 G6 인스턴스를 통해 분산 AI 모델 훈련을 수행했으며, 생성형 AI 서비스인 아마존 베드록(Bedrock)으로 제품 사양 문서를 분석해 공장 내 고수준 작업과 특정 검사 테스트 사례를 계획했다. 아마존 베드록 에이전트코어(Bedrock AgentCore)는 생산 라인 내 다중 공장 작업대를 위한 자율 워크플로 계획에 사용되며, 3D 설계와 표면 특성 등 멀티모달 제품 사양 입력을 처리할 수 있다.
작성일 : 2025-08-18
오라클, OCI 생성형 AI 서비스에 구글 제미나이 모델 제공
오라클과 구글 클라우드는 구글의 최신 AI 모델인 제미나이(Gemini) 2.5부터 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스를 통해 제공한다고 발표했다. 이를 통해 오라클 고객은 멀티모달 이해, 고급 코딩 및 소프트웨어 개발, 생산성과 업무 프로세스 자동화, 연구 및 지식 검색 등 다양한 활용 사례에서 AI 에이전트를 구축할 수 있게 됐다. 또한, 오라클과 구글 클라우드는 AI 관련 분야에서 협력을 강화할 계획이다. 오라클은 구글 클라우드의 버텍스 AI(Vertex AI)와의 새로운 통합을 통해 비디오 및 이미지, 음성,·음악 생성용 최첨단 모델과 MedLM 같은 산업 특화 모델을 포함한 제미나이 전체 모델 제품군을 OCI 생성형 AI 서비스에서 제공할 계획이다. 또한, 오라클 퓨전 클라우드 애플리케이션(Fusion Cloud Applications) 내에서도 버텍스 AI 기반 제미나이 모델을 선택 옵션으로 제공해, 금융 및 인사, 공급망, 영업, 서비스, 마케팅 등 주요 업무 프로세스에 AI 기능을 강화할 수 있도록 더 폭넓은 선택지를 제공할 예정이다. 오라클 고객은 보유 중인 오라클 유니버설 크레딧(Oracle Universal Credits)으로 제미나이 모델을 바로 사용할 수 있다. 구글 제미나이 모델은 최신성을 위해 구글 검색 데이터를 기반으로 응답을 보강하는 기능과 대규모 맥락 창(context windows), 강력한 암호화와 데이터 프라이버시 정책, 그리고 우수한 추론 능력을 앞세워 엔터프라이즈 환경에서 높은 성능을 발휘할 수 있게 했다. 오라클은 기업 데이터와 가까운 곳에서 최신 AI 기술을 제공하며, 보안 및 유연성, 확장성을 우선시한다. 이를 통해 산업 전반의 기업 고객이 생성형 AI와 에이전틱 AI를 적합한 비즈니스 시나리오에 즉시 적용할 수 있도록 돕는다. 또 전 세계 수천 명의 AI 개발자와 기업이 OCI의 경제적이고 특화된 AI 인프라를 활용해 대규모 및 고난도 AI 워크로드를 더 빠르게 실행하고 있다. OCI 베어메탈 GPU 인스턴스는 생성형 AI, 자연어 처리(NLP), 컴퓨터 비전, 추천 시스템 같은 애플리케이션을 구동할 수 있다. 구글 클라우드의 토마스 쿠리안(Thomas Kurian) CEO는 “선도적인 기업들은 이미 제미나이를 활용해 다양한 산업과 업무에서 AI 에이전트를 구동하고 있다”면서, “이제 오라클의 기업 고객은 오라클 환경에서 구글 클라우드의 대표 모델에 접근할 수 있어, 개발자 지원과 데이터 통합 작업 간소화, 그 외 다양한 기능을 수행하는 강력한 AI 에이전트를 배포하는 일을 훨씬 쉽게 시작할 수 있다”고 말했다. 오라클 클라우드 인프라스트럭처의 클레이 마고요크 사장은 “오라클은 기업 고객을 위해 엄선한 다양한 AI모델 선택지를 전략적으로 제공해 왔으며, 여기에는 공개 모델과 독점 모델이 모두 포함된다”라며, “OCI 생성형 AI 서비스에서 제미나이를 제공하는 것은 고객이 혁신을 추진하고 비즈니스 목표를 달성할 수 있도록 강력하고 안전하며 비용 효율적인 AI 설루션을 제공하겠다는 오라클의 의지를 반영하는 것”이라고 전했다.
작성일 : 2025-08-18
오픈소스 LLM 모델 젬마 3 기반 AI 에이전트 개발해 보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 최근 이슈인 AI 에이전트(agent) 개발 시 필수적인 함수 호출(function call) 방법을 오픈소스를 이용해 구현해 본다. 이를 위해 구글에서 공개한 젬마 3(Gemma 3) LLM(대규모 언어 모델)과 역시 오픈소스인 LLM 관리도구 올라마(Ollama)를 활용하여 간단한 AI 에이전트를 로컬 PC에서 개발해본다. 아울러, 이런 함수 호출 방식의 한계점을 개선하기 위한 설루션을 나눔한다.   ■  강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   이번 호의 글은 다음 내용을 포함한다. AI 에이전트 구현을 위한 사용자 도구 함수 호출 방법 올라마를 통한 젬마 3 사용법 채팅 형식의 프롬프트 및 메모리 사용법 그라디오(Gradio) 기반 웹 앱 개발   그림 1. AI 에이전트 내부의 함수 호출 메커니즘(Akriti, 2025)   이 글의 구현 코드는 다음 링크에서 확인할 수 있다. AI_agent_simple_function_call   젬마 3 모델의 특징 젬마 3는 구글이 개발해 2025년 3월 10일에 출시한 LLM이다. 차세대 경량 오픈 멀티모달 AI 모델로, 텍스트와 이미지를 동시에 처리할 수 있는 기능을 갖추고 있다. 이 모델은 다양한 크기와 사양으로 제공되어 단일 GPU 또는 TPU 환경에서도 실행 가능하다. 젬마 3는 1B, 4B, 12B, 27B의 네 가지 모델 크기로 제공되며, 각각 10억, 40억, 120억, 270억 개의 파라미터를 갖추고 있다. 1B 모델은 텍스트 전용으로 32K 토큰의 입력 컨텍스트를 지원하고, 4B/12B/27B 모델은 멀티모달 기능을 지원하며 128K 토큰의 입력 컨텍스트를 처리할 수 있다. 이는 이전 젬마 모델보다 16배 확장된 크기로, 훨씬 더 많은 양의 정보를 한 번에 처리할 수 있게 해 준다. 이 모델은 텍스트와 이미지 데이터를 동시에 처리하고 이해하는 멀티모달 기능을 제공한다. 이미지 해석, 객체 인식, 시각적 질의응답 등 다양한 작업을 수행할 수 있으며, 텍스트 기반 작업에 시각적 정보를 효과적으로 활용할 수 있도록 지원한다.   그림 2. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   그림 3. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   젬마 3는 140개 이상의 언어를 지원하여 전 세계 다양한 언어 사용자를 대상으로 하는 AI 애플리케이션 개발에 매우 유리하다. 사용자는 자신의 모국어로 젬마 3와 상호작용할 수 있으며, 다국어 기반의 텍스트 분석 및 생성 작업도 효율적으로 수행할 수 있다. 이 모델은 다양한 작업 수행 능력을 갖추고 있다. 질문–답변, 텍스트 요약, 논리적 추론, 창의적인 텍스트 형식 생성(시, 스크립트, 코드, 마케팅 문구, 이메일 초안 등), 이미지 데이터 분석 및 추출 등 광범위한 자연어 처리 및 컴퓨터 비전 관련 작업을 수행할 수 있다. 또한, 함수 호출 및 구조화된 출력을 지원하여 개발자가 특정 작업을 자동화하고 에이전트 기반의 경험을 구축하는 데 도움을 준다. 젬마 3는 다양한 도구 및 프레임워크와 원활하게 통합된다. Hugging Face Transformers, Ollama, JAX, Keras, PyTorch, Google AI Edge, UnSloth, vLLM, Gemma. cpp 등 다양한 개발 도구 및 프레임워크와 호환되어 개발자들이 자신이 익숙한 환경에서 젬마 3를 쉽게 활용하고 실험할 수 있다. 이 모델은 다양한 벤치마크 테스트에서 동급 모델 대비 최첨단 성능을 입증했다. 특히, Chatbot Arena Elo Score에서 1338점을 기록하며, 여러 오픈 소스 및 상용 모델보다 높은 성능을 보였다.  젬마 3는 오픈 모델로, 개방형 가중치를 제공하여 사용자가 자유롭게 조정하고 배포할 수 있다. 캐글(Kaggle)과 허깅 페이스(Hugging Face)에서 다운로드 가능하며, Creative Commons 및 Apache 2.0 라이선스를 따름으로써 개발자와 연구자에게 VLM 기술에 대한 접근성을 높여준다.   개발 환경 개발 환경은 다음과 같다. 미리 설치 및 가입한다. 오픈 LLM 관리 도구 올라마 : https://ollama.com/download/ windows LLM 모델 젬마 3 : https://ollama.com/search dashboard 웹 검색 도구 Serper 서비스 가입 : https://serper.dev/ 설치되어 있다면 다음 명령을 터미널(윈도우에서는 도스 명령창)에서 실행한다. ollama pull gemma3:4b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-08-04