• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "추론"에 대한 통합 검색 내용이 397개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, ‘젯슨 토르’ 출시로 로보틱스·피지컬 AI 혁신 가속
엔비디아가 에지 환경에서 실시간 AI 추론을 수행할 수 있는 엔비디아 젯슨 토르(NVIDIA Jetson Thor) 모듈을 출시했다. 젯슨 토르는 연구와 산업 현장의 로봇 시스템에서 두뇌 역할을 수행하며, 휴머노이드와 산업용 로봇 등 다양한 로봇이 보다 스마트하게 동작하도록 지원한다. 로봇은 방대한 센서 데이터와 저지연 AI 처리를 요구한다. 실시간 로봇 애플리케이션을 실행하려면 여러 센서에서 동시 발생하는 데이터 스트림을 처리할 수 있는 충분한 AI 컴퓨팅 능력과 메모리가 필요하다. 현재 정식 출시된 젯슨 토르는 이전 모델인 엔비디아 젯슨 오린(Orin) 대비 AI 컴퓨팅이 7.5배, CPU 성능이 3.1배, 메모리 용량이 2배 향상돼 이러한 처리를 디바이스에서 가능하게 한다. 이러한 성능 도약은 로봇 연구자들이 고속 센서 데이터를 처리하고 에지에서 시각적 추론을 수행할 수 있도록 한다. 이는 기존에는 동적인 실제 환경에서 실행하기에는 속도가 너무 느려 실행하기 어려웠던 워크플로이다. 이로써 휴머노이드 로보틱스와 같은 멀티모달 AI 애플리케이션의 새로운 가능성을 열어주고 있다.   ▲ 엔비디아 젯슨 AGX 토르 개발자 키트   휴머노이드 로보틱스 기업인 어질리티 로보틱스(Agility Robotics)는 자사의 5세대 로봇인 디지트(Digit)에 엔비디아 젯슨을 통합했다. 이어서 6세대 디지트에는 온보드 컴퓨팅 플랫폼으로 젯슨 토르를 채택할 계획이다. 이를 통해 디지트는 실시간 인식과 의사결정 능력을 강화하고 점차 복잡해지는 AI 기술과 행동을 지원할 수 있게 된다. 디지트는 현재 상용화됐으며, 창고와 제조 환경에서 적재, 상차, 팔레타이징(palletizing) 등 물류 작업을 수행하고 있다. 30년 넘게 업계 최고 수준의 로봇을 개발해온 보스턴 다이내믹스(Boston Dynamics)는 자사 휴머노이드 로봇 아틀라스(Atlas)에 젯슨 토르를 탑재하고 있다. 이를 통해 아틀라스는 이전에는 서버급에서만 가능했던 컴퓨팅, AI 워크로드 가속, 고대역폭 데이터 처리, 대용량 메모리를 디바이스 내에서도 활용할 수 있게 됐다. 휴머노이드 로봇 외에도, 젯슨 토르는 더 크고 복잡한 AI 모델을 위한 실시간 추론을 통해 다양한 로봇 애플리케이션을 가속화할 예정이다. 여기에는 수술 보조, 스마트 트랙터, 배송 로봇, 산업용 매니퓰레이터(manipulator), 시각 AI 에이전트 등이 포함된다. 젯슨 토르는 생성형 추론 모델을 위해 설계됐다. 이는 차세대 피지컬 AI 에이전트가 클라우드 의존도를 최소화하면서 에지에서 실시간으로 실행될 수 있도록 한다. 차세대 피지컬 AI 에이전트는 대형 트랜스포머 모델, 비전 언어 모델(vision language model : VLM), 비전 언어 행동(vision language action : VLA) 모델을 기반으로 구동된다. 젯슨 토르는 젯슨 소프트웨어 스택으로 최적화돼 실제 애플리케이션에서 요구되는 저지연과 고성능을 구현한다. 따라서 젯슨 토르는 모든 주요 생성형 AI 프레임워크와 AI 추론 모델을 지원하며, 탁월한 실시간 성능을 제공한다. 여기에는 코스모스 리즌(Cosmos Reason), 딥시크(DeepSeek), 라마(Llama), 제미나이(Gemini), 큐원(Qwen) 모델과 함께, 로보틱스 특화 모델인 아이작(Isaac) GR00T N1.5 등이 포함된다. 이를 통해 개발자는 손쉽게 로컬 환경에서 실험과 추론을 실행할 수 있다. 젯슨 토르는 생애 주기 전반에 걸쳐 엔비디아 쿠다(CUDA) 생태계의 지원을 받는다. 또한 젯슨 토르 모듈은 전체 엔비디아 AI 소프트웨어 스택을 실행해 사실상 모든 피지컬 AI 워크플로를 가속화한다. 여기에는 로보틱스를 위한 엔비디아 아이작, 영상 분석 AI 에이전트를 위한 엔비디아 메트로폴리스(Metropolis), 센서 처리를 위한 엔비디아 홀로스캔(Holoscan) 등의 플랫폼이 활용된다. 이러한 소프트웨어 도구를 통해 개발자는 다양한 애플리케이션을 손쉽게 구축하고 배포할 수 있다. 실시간 카메라 스트림을 분석해 작업자 안전을 모니터링하는 시각 AI 에이전트, 비정형 환경에서 조작 작업을 수행할 수 있는 휴머노이드 로봇, 다중 카메라 스트림 데이터를 기반으로 외과의에게 안내를 제공하는 스마트 수술실 등이 그 예시이다. 젯슨 토르 제품군에는 개발자 키트와 양산용 모듈이 포함된다. 개발자 키트에는 젯슨 T5000 모듈과 다양한 연결성을 제공하는 레퍼런스 캐리어 보드, 팬이 장착된 액티브 방열판, 전원 공급 장치가 함께 제공된다. 엔비디아는 젯슨 생태계가 다양한 애플리케이션 요구사항과 고속 산업 자동화 프로토콜, 센서 인터페이스를 지원해 기업 개발자의 시장 출시 시간을 단축한다고 전했다. 하드웨어 파트너들은 다양한 폼팩터로 유연한 I/O와 맞춤형 구성을 갖춰 생산에 준비된 젯슨 토르 시스템을 개발하고 있다. 센서 및 액추에이터 업체들은 엔비디아 홀로스캔 센서 브릿지(Sensor Bridge)를 활용하고 있다. 이 플랫폼은 센서 융합과 데이터 스트리밍을 간소화하며, 카메라, 레이더, 라이다 등에서 발생한 센서 데이터를 초저지연으로 젯슨 토르 GPU 메모리에 직접 연결할 수 있게 해준다. 수천 개의 소프트웨어 기업들은 젯슨 토르에서 구동되는 다중 AI 에이전트 워크플로를 통해 기존 비전 AI와 로보틱스 애플리케이션 성능을 향상시킬 수 있다. 그리고 200만 명 이상의 개발자들이 엔비디아 기술을 활용해 로보틱스 워크플로를 가속화하고 있다.
작성일 : 2025-08-29
인텔, “AI 설루션으로 LG이노텍의 생산 공정 효율 향상”
인텔은 LG이노텍이 자사의 기술을 활용해 인공지능(AI) 기반의 자동화 시스템을 구축하고 있다고 소개했다. 소재·부품 전문 기업인 LG이노텍은 휴대폰, 자동차 디스플레이, 스마트 기기 등에 들어가는 수십만 개의 초소형 부품을 완벽한 정확도와 무결점으로 복제하는 것을 목표로 삼고 있으며, 혁신 기술을 통해 이러한 목표를 달성하고자 한다.  LG이노텍의 구미 공장에서는 인텔 코어(Intel Core) 프로세서, 인텔 제온(Intel Xeon) 프로세서 및 인텔 아크(Intel Arc) 내장형 그래픽처리장치(GPU)가 조화를 이루며 작동한다. 이들 기술은 오픈비노(OpenVINO) 소프트웨어 툴킷으로 통합된다. LG이노텍은 생산 라인의 특정 단말기에서 규칙 기반 검사 및 딥러닝 기반 시스템을 사용해 제품 품질을 높여왔다. 여기서 나아가, LG이노텍은 제조 공정 전반에 걸쳐 AI를 광범위하게 적용하여 성능 저하 없이 완전 자동화된 시스템을 구축하고자 했다. 인텔은 지난 2024년 인텔 코어 및 제온 프로세서와 아크 외장형 GPU를 기반으로 하는 AI 기반 검사 시스템에 대한 구축 지원을 위해 LG이노텍과 논의를 시작했다. 핵심은 생산 공정에서 발생하는 데이터가 인텔 코어 CPU를 탑재한 PC로 스트리밍되며, 내장 GPU는 결함 데이터를 분석하는 데 비용 효율을 제공하는 것이다. 고해상도 이미지에서 다중 알고리즘을 실행하는 등 부하가 큰 워크로드는 인텔 아크 외장 GPU가 처리하게끔 했다. 시간이 지남에 따라 축적된 데이터셋은 인텔 제온 기반의 사전 학습 서버로 전송된다.      양사는 향후 협업을 통해 인텔 가우디 AI 가속기가 탑재된 서버를 활용한 사전 학습 워크로드 관리를 검토하고 있다. 이처럼 CPU를 기반으로 내장 및 외장 GPU로 가속화된 인텔 기반 기술 조합을 활용하여 AI 검사 시스템 구축 비용을 절감할 수 있었다는 것이 인텔의 설명이다. 인텔은 “아크 기반 외장 GPU를 도입하면서, 동급 성능의 타사 하드웨어 대비 성능에 비해 높은 비용 효율성을 달성했다. 이러한 비용 절감 효과는 규모의 경제를 더욱 극대화할 수 있는 기반이 되고 있다”고 전했다.  LG이노텍은 2024년 모바일 카메라 모듈 생산 라인에 인텔의 AI 비전 검사 설루션을 처음 적용했으며, 올해는 FC-BGA(flip-chip ball grid array)를 생산하는 구미4공장 등 국내 주요 생산 거점과 해외 생산라인에 단계적으로 확대 적용할 계획이다.  시스템 도입 당시에는 기존 딥러닝 환경이 특정 외장 그래픽 카드를 기반으로 구축되어 있어, 처음에는 통합 GPU 도입에 대한 우려가 있었다. 특히, 신규 GPU에 맞춰 기존 코드를 재작성하고 다시 매핑하는 것이 매우 어려울 것이라는 걱정이 있었만, 오픈비노(OpenVINO) 소프트웨어 툴킷을 활용해 우려를 해소할 수 있었다. 2018년 오픈비노 출시 이후, 인텔은 전 세계 개발자가 AI 기반 개발을 가속화할 수 있도록 지원해왔다. 오픈비노는 개발자가 한 번의 코드 작성으로 다양한 환경에 AI 모델을 배포할 수 있도록 돕는 오픈소스 AI 툴킷이다. LG 이노텍의 엔지니어들은 대량 생산 과정에서 공정이 변경되거나 원자재가 바뀔 때, 딥러닝 모델을 재학습하기 위해 AI 기반 워크로드에 최적화된 AI 가속기가 탑재된 인텔 제온 CPU 활용도 고려하고 있다. 제온 CPU는 병렬 연산 속도를 높이고, 인텔 AMX(Intel Advanced Matrix Extensions)라는 특수 내장 가속기를 지원해 제온 CPU에서 딥러닝 학습 및 추론 성능을 향상시킨다. 인텔은 제온 CPU와 별도 서드파티 GPU를 함께 사용하는 기존 방식에 비해 AI 기반 파인튜닝(Fine Tuning) 작업을 CPU로 처리함으로써 시스템 비용을 줄일 수 있을 것으로 기대하고 있다.
작성일 : 2025-08-26
레노버, “새로운 서비스·설루션·플랫폼으로 하이브리드 AI 확대”
레노버가 AI 시대를 맞아 기업의 IT 전환 가속화를 위해 ‘레노버 하이브리드 AI 어드밴티지(Lenovo Hybrid AI Advantage)’를 확장했다고 밝혔다. 이번 확장을 통해 레노버는 고성능 서버 기반의 가속 컴퓨팅, 네트워킹, 파트너 통합 기능을 갖춘 AI 인프라를 바탕으로 기업이 AI 팩토리를 구축·확장·운영할 수 있도록 지원하는 프레임워크를 제공한다. 새롭게 검증된 설루션과 서비스, 플랫폼은 기업이 모든 환경에 맞춰 적합한 AI를 보다 빠르게 배포할 수 있도록 지원하고 생산성, 민첩성, 신뢰성을 기반으로 한 비즈니스 가치 실현을 가능하게 한다. 레노버 하이브리드 AI 어드밴티지는 AI 인프라, 데이터, 모델, 서비스, 검증된 활용 사례를 통합해 기업이 조직 전반의 인력, 운영, 데이터에 AI를 적용할 수 있도록 지원한다. 레노버는 자사의 서비스를 기반으로 생성형 AI 도구 도입 프레임워크를 적용할 경우 생산성과 효율이 최대 31% 향상(주당 절감 시간 기준)될 수 있다고 설명했다. 레노버의 AI 도입 및 변화 관리 서비스(AI Adoption and Change Management Services)는 기업이 AI 수용 태세를 점검하고, 인력 역량을 강화하며, 참여도를 높이고, 페르소나 기반의 변화 관리와 모범 사례를 통해 기업 시스템에서 ROI를 극대화하도록 지원한다. 주요 서비스 항목으로는 ▲레노버 AI 인적 준비도 평가 ▲페르소나 기반 교육 및 참여 유도 ▲ 코파일럿 도입 지원 ▲AI 거버넌스 및 조직 문화 수용성 강화 등이다. 레노버 하이브리드 AI 어드밴티지는 기업이 AI 실험 단계를 넘어 조직 전반에 걸쳐 측정 가능한 성과를 달성할 수 있도록 지원한다. AI에 대한 기대와 실제 효과 사이의 격차를 줄이기 위해서는 주요 비즈니스 과제를 해결하고 기업 워크플로에 맞게 확장 가능한 신뢰도 높은 AI 애플리케이션이 필요하다. 레노버는 ISV와의 협력을 통해 검증된 레노버 AI 이노베이터 디자인 기반의 설루션을 제공해 기업이 손쉽게 설루션을 맞춤화하고 성능을 최적화할 수 있도록 지원한다고 밝혔다. 이 설루션들은 하이브리드 AI 플랫폼 환경에 최적화되어 실제 비즈니스 워크플로와 활용 사례를 구현할 수 있도록 설계됐다. 대표 설루션으로는 ▲센티픽(Centific) AI 데이터 파운드리 및 엔비디아 기반의 호스피탈리티 설루션 ▲아바돈(Avathon) 비주얼 AI 및 엔비디아 기반의 산업 현장 안전 및 보호장비 착용 준수 여부 모니터링 설루션 ▲웨이트타임(WaitTime) 및 인텔 기반의 리테일 및 스마트 공간 분석 설루션 ▲트리포크(Trifork) 및 엔비디아 기반의 품질 검사 설루션 등이 있다. 이번 확장은 시스코, IBM, 엔비디아와의 협업을 기반으로 글로벌 기업의 AI 도입을 가속화하는 새로운 통합 설루션을 제공한다. 새로운 플랫폼은 업계 선도 파트너의 가속 컴퓨팅, 네트워킹, 스위칭, 소프트웨어를 통합한 고성능·저전력 AI 인프라를 기반으로 기업이 하이브리드 AI 팩토리를 손쉽게 구축·확장·운영할 수 있도록 지원한다. 레노버는 다양한 산업의 모델 개발, 그래픽 처리, 시뮬레이션 워크로드를 위한 연산 성능을 제공하는 새로운 씽크시스템 SR680a V4 시스템을 선보였다. 이 시스템은 인텔 제온(Xeon) 6 CPU와 엔비디아 블랙웰(BlackWell) GPU를 탑재했으며, 고속 엔비디아 NV링크로 GPU 간 고속 연결을 지원해 탁월한 컴퓨팅 파워와 AI 가속 기능을 제공한다. 또한 8개의 엔비디아 슈퍼NIC과 블루필드-3 DPU를 탑재해 기존 대비 최대 11배 빠른 대규모 언어 모델 추론 성능, 7배 높은 연산 처리 성능, 4배 확장된 메모리를 지원한다. 또한 IBM 왓슨x 기반 하이브리드 AI 플랫폼은 레노버 씽크시스템 SR675 서버, 레드햇 오픈시프트(Red Hat OpenShift), 엔비디아 기술을 기반으로 구축된 고성능 인프라를 통해 생성형 AI 모델의 개발, 배포, 거버넌스를 가속화한다. 시스코 기반의 하이브리드 AI 플랫폼은 최대 8개의 엔비디아 RTX PRO 6000 블랙웰 GPU를 탑재한 레노버 SR675 V3 서버를 기반으로 구축되며, 엔비디아 스펙트럼-X(Spectrum-X)가 적용된 시스코 넥서스(Nexus) 스위치를 통해 1.6배 향상된 AI 네트워크 성능과 효율적인 네트워크 관리를 제공한다. 레노버 인프라스트럭처 설루션 그룹(ISG) 애슐리 고라크푸르왈라(Ashley Gorakhpurwalla) 사장은 “레노버는 통합 설루션 전반에서 획기적인 혁신을 이끌며 업계 변화를 주도하는 한편, 모든 기업이 엔터프라이즈급 AI를 실현할 수 있도록 하이브리드 AI 분야를 선도하고 있다”면서, “레노버는 이번 설루션과 신뢰할 수 있는 파트너십을 기반으로 AI를 현실화하고 있다. 검증된 다양한 사용 사례와 서비스를 통해 측정 가능한 생산성 향상과 만족도 제고, 데이터 기반의 빠른 비즈니스 가치 실현을 가능케 할 것”이라고 밝혔다.
작성일 : 2025-08-26
인텔-AWS, 제온 6 프로세서 기반 EC2 인스턴스 출시
인텔은 클라우드 환경에서 동급 인텔 프로세서 중 가장 높은 성능과 가장 빠른 메모리 대역폭을 제공하는 P-코어를 탑재한 인텔 제온 6 프로세서(Intel Xeon 6 processors with P-cores) 기반의 신규 EC2(Amazon Elastic Compute Cloud) R8i 및 R8I-플렉스 인스턴스를 아마존웹서비스(AWS)에서 출시한다고 밝혔다. 이번 새로운 인스턴스는 인텔과 AWS 간 수년간 협력을 바탕으로, 확장성, 비용 효율성 및 고성능 클라우드 인프라를 추구하는 고객에게 최신 실리콘 혁신과 밀접하게 통합된 소프트웨어 최적화를 제공한다. 기업의 실시간 데이터 처리, 인공지능(AI), 컴플라이언스 집약적인 워크로드 활용이 점점 늘어남에 따라, 유연한 고성능 클라우드 인프라에 대한 필요도가 더 높아졌다. 인텔은 제온 6 프로세서가 전문적인 가속기에 대한 의존도를 최소화하면서 유연한 다목적 컴퓨팅 플랫폼을 제공하며, 다양한 활용 사례에 대한 배포 및 관리를 간소화해준다고 설명했다.     새로운 제온 6 기반 인스턴스의 주요 특징은 ▲고집적도 컴퓨팅 ▲ 클라우드 상에서 가장 빠른 DDR5 지원 ▲ 내장형 AI 가속 ▲인텔 QAT(QuickAssist Technology) 등이다. 제온 6는 재설계된 코어 아키텍처와 향상된 파이프라인, 더 많은 코어 수를 통해 성능과 스레드 확장성을 향상시켰다. 이를 통해 AWS는 최대 96xlarge와 같은 대규모 인스턴스 크기를 제공해 고객이 워크로드에 필요한 컴퓨팅 자원을 더욱 높은 집적도로 활용할 수 있도록 지원한다. 신규 인스턴스는 DDR5 메모리 속도 최대 7200 MT/s를 지원하며 분석, 머신러닝(ML), 인메모리 데이터베이스에 적합한 고대역폭 메모리 및 낮은 지연 시간을 제공한다. 또한, 인텔 AMX(Intel Advanced Matrix Extensions)를 통합해 AI 추론 및 머신러닝 성능을 최대 2배 향상시키며, 외부 가속기 사용 필요성을 줄이고 배포를 간편하게 한다. 이외에도 하드웨어 가속화된 암호화 및 압축을 지원하여 CPU 리소스를 절감하고, 금융, 의료, 공공 애플리케이션 등 보안에 민감하거나 규제 대상인 워크로드 성능을 향상시킨다. 인텔은 프로세서 마이크로아키텍처와 펌웨어 튜닝부터 하이퍼바이저 튜닝, 가상화, 소프트웨어 프레임워크에 이르기까지 스택(stack)의 모든 계층을 아우르는 최적화를 진행했다. 고객들은 이러한 통합을 통해 AWS의 글로벌 인프라 전역에서 제온 6의 성능을 최대한 활용할 수 있다. 인텔은 이번 협력으로 AWS 및 더 광범위한 클라우드 생태계에서 핵심 기술 제공 기업으로서의 입지를 강화할 수 있을 것으로 기대하고 있다. 개발자, 데이터 사이언티스트, IT 리더들이 보다 빠르고 효율적으로 혁신하고, 규모를 확장하며, 서비스를 배포할 수 있도록 지원하겠다는 것이다. AWS의 니샨트 메타(Nishant Mehta) EC2 제품 관리 부사장은 “고객들은 가장 요구도가 높은 워크로드 속도에 맞춘 인프라가 필요하다”면서, “인텔과의 협력을 통해 새로운 아마존 EC2 R8i 및 R8i-플렉스 인스턴스는 전 세대 대비 메모리 대역폭은 2.5배 더 향상되었고 가격 대비 성능은 15% 더 우수하다. 이는 고객이 성능을 극대화하면서 비용을 절감할 수 있도록 지원하는 혁신”이라고 말했다. 인텔의 로낙 싱할(Ronak Singhal) 선임 펠로우는 “인텔 제온 6 프로세서로 구동되는 8세대 EC2 인스턴스 출시는 AWS와의 협업에서 중요한 이정표”라며, “인텔과 AWS는 AI 가속화, 메모리 성능 향상, 쉬운 배포를 통해 고객이 인사이트를 빠르게 얻고 강력한 투자수익률(ROI)을 달성할 수 있도록 지원하는 인프라를 함께 구축했다”고 밝혔다.
작성일 : 2025-08-22
심데이터, “전 세계 시뮬레이션 및 해석 시장 8.8% 성장”
PLM 전략 경영 컨설팅 및 리서치 기업인 심데이터(CIMdata)는 ‘심데이터 시뮬레이션 및 해석(S&A) 시장 분석 보고서’를 발표한다고 밝혔다. ‘심데이터 2025 PLM 시장 분석 보고서 시리즈’의 일부로 수행된 S&A 시장 분석을 확장한 이 보고서는 전 세계 S&A 시장을 다양한 차원에서 상세히 설명한다. 또한 심데이터의 S&A 시장 세분화에 대한 업데이트, S&A 산업의 동향에 대한 논의, 상위 S&A 설루션 공급업체에 대한 최신 정보를 포함한다. 심데이터 보고서에 따르면, 2024년 전 세계 시뮬레이션 및 해석 시장 매출은 2023년의 100억 달러(약 13조 9000억 원)에서 8.8% 증가한 109억 달러(약 15조 1510억 원) 규모로 나타났다.  심데이터는 PLM 시장 전체가 강력한 성장을 지속할 것으로 보았는데, 이 중 S&A 부문은 2025년에 10.7% 성장하여 매출 규모가 120억 달러(약 16조 6800억 원)를 약간 넘을 것으로 전망했다.     또한, 이번 보고서에서는 2024년 업계를 근본적으로 재편한 세 가지 핵심 동향으로 ▲EDA(전자 설계 자동화)와 S&A의 통합 ▲인공지능(AI)/머신러닝(ML) 통합의 부상 ▲ 디지털 트윈의 성숙 등을 꼽았다. 전자 및 반도체 시스템은 더 이상 특정 산업 영역이나 응용 분야에 국한되지 않고, 모든 신제품 및 프로세스 개발의 중심 부분이 되고 있다. 이러한 핵심적인 산업 수요에 따라, EDA 설루션 공급업체들은 ‘실리콘에서 시스템까지’ 아우르는 소프트웨어 스택 비전을 실현하기 위해 빠르게 움직이고 있다. 물리 기반 시뮬레이션 기술은 이들 제품의 핵심적인 부분으로 자리 잡고 있다. AI와 머신러닝 기능은 오랫동안 시뮬레이션 워크플로에 내장되어 주로 배경적인 역할을 수행해 왔다. 그러나 GPU 컴퓨팅 발전과 생성형 AI가 불러일으킨 큰 관심에 힘입어, 신생 스타트업과 기존 설루션 공급업체 모두 시뮬레이션 워크플로를 재창조하고 있다. 여기에는 과거의 시뮬레이션 및 테스트 데이터를 사용한 모델 개발(핵심 머신러닝), 훈련 시간 및 데이터 요구사항을 줄이기 위한 물리 정보 AI 훈련 방법 사용, 기하학적 딥러닝을 기본 구성 요소로 활용하는 것 등이 포함된다. 많은 기업이 ‘파운데이션 모델’을 개발하려 시도하고 있으며, 이를 통해 완전히 훈련된 모델을 사용한 추론으로 시뮬레이션의 패러다임을 전환하고 있다. 디지털 트윈 기술은 개념적 아이디어에서 여러 산업에 걸친 실질적인 구현 단계로 발전했다. 시뮬레이션 및 해석은 디지털 트윈의 기본 요소로서, 예측 통찰력에 필요한 물리 기반 모델링을 제공한다. 기업은 예측 유지보수 및 가상 시운전과 같은 응용 분야에 디지털 트윈을 활용하여 제품 운영과 설계 간의 폐순환(closed-loop) 시스템을 구축하고 있다.
작성일 : 2025-08-20
오라클, 데이터베이스 및 클라우드 애플리케이션에 GPT-5 도입
오라클이 자사의 데이터베이스 포트폴리오 및 SaaS 애플리케이션 전반에 오픈AI의 GPT-5를 도입했다고 밝혔다. 이번 도입에는 오라클 퓨전 클라우드 애플리케이션(Oracle Fusion Cloud Applications), 오라클 넷스위트(Oracle NetSuite), 오라클 헬스(Oracle Health)와 같은 오라클 인더스트리 애플리케이션(Oracle Industry Applications)이 포함된다. 오라클은 “신뢰할 수 있는 비즈니스 데이터와 최첨단 AI를 결합해 기업 고객이 핵심 비즈니스 워크플로에서 정교한 코딩 및 추론 기능을 기본적으로 활용할 수 있도록 지원한다”고 전했다. GPT-5는 현재까지 공개된 오픈AI의 모델 중 가장 지능적이고, 빠르며 유용한 모델이면서 코드 생성과 편집, 디버깅에 최적화되어 있다. 또한 기업 환경에서 고도화된 에이전트 기능과 정교한 추론 역량을 제공한다. API에서 세 가지 규모로 제공되는 GPT-5는 기업의 다양한 요구사항을 충족시킬 수 있는 유연성과 확장성을 제공하고, 챗GPT 엔터프라이즈(ChatGPT Enterprise)에서도 이용 가능하다. 오라클은 GPT-5를 도입함으로써 비즈니스 프로세스 전반에서 다단계 추론 및 오케스트레이션을 강화하고 코드 생성, 버그 해결, 문서화 속도를 높일 수 있을 것으로 보고 있다. 또한, 비즈니스 인사이트 및 권고 사항의 정확성과 깊이도 강화할 수 있을 전망이다.     오라클의 크리스 라이스 데이터베이스 소프트웨어 개발 부문 수석 부사장은 “오라클 데이터베이스 23ai의 데이터 AI 역량과 GPT-5의 결합은 기업이 획기적인 인사이트를 얻고, 혁신 및 생산성 향상을 달성하는 데 도움을 줄 것”이라면서, “오라클 AI 벡터와 셀렉트 AI(Select AI)가 GPT-5와 결합되면 데이터 검색 및 분석이 더 쉽고 효율적이게 된다. 오라클의 SQLcl MCP 서버는 GPT-5가 오라클 데이터베이스의 데이터에 손쉽게 접근할 수 있도록 한다. 이러한 기능은 사용자가 전체 데이터를 대상으로 검색을 수행하고, 보안성이 확보된 AI 기반 작업을 실행하며, SQL을 통해 생성형 AI를 직접 사용할 수 있도록 지원하여 엔터프라이즈 데이터에서 AI의 잠재력을 극대화한다”고 전했다. 오라클의 미튼 바브사 애플리케이션 개발 부문 수석 부사장은 “GPT-5는 오라클 퓨전 애플리케이션 사용자에게 오픈AI의 정교한 추론과 심층적 사고 역량을 제공할 것”이라면서, “오픈AI의 최신 모델은 고급 자동화와 높은 생산성, 신속한 의사결정을 가능하게 하는 역량으로 더욱 고도화된 AI 에이전트 기반 프로세스를 지원할 수 있을 것”이라고 말했다.
작성일 : 2025-08-19
HPE, 엔비디아와 협력해 에이전틱·피지컬 AI 혁신 가속화
HPE는 기업이 AI를 도입하고 개발 및 운영하는 과정을 폭넓게 지원하는 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)’ 포트폴리오의 주요 혁신 사항을 공개했다. HPE는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)와의 통합을 한층 강화하고, 최신 엔비디아 AI 모델 및 엔비디아 블루프린트(NVIDIA Blueprints)를 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)에 탑재함으로써 개발자들이 AI 애플리케이션을 보다 간편하게 구축하고 운영할 수 있도록 지원하게 되었다고 전했다. 또한 HPE는 엔비디아 블랙웰(NVIDIA Blackwell) 기반 가속 컴퓨팅을 탑재한 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) 서버를 출하할 예정이며, 이를 통해 생성형 AI, 에이전틱 AI 및 피지컬 AI 워크로드를 향상된 성능으로 지원할 수 있을 것으로 보고 있다. 엔비디아 블랙웰 아키텍처를 탑재한 HPE 프로라이언트 컴퓨트 서버는 두 종류의 엔비디아 RTX PRO 서버 구성을 포함한다. HPE 프로라이언트 DL385 Gen11 서버는 신규 2U RTX PRO 서버 폼팩터의 공랭식 서버로, 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 최대 2개까지 지원한다. 이 제품은 기업의 증가하는 AI 수요를 충족해야 하는 데이터센터 환경에 최적화된 설계를 지향한다. HPE 프로라이언트 컴퓨트 DL380a Gen12 서버는 4U 폼팩터 기반으로, 엔비디아 RTX PRO 6000 GPU를 최대 8개까지 지원하며 2025년 9월 출시될 예정이다.   특히 HPE 프로라이언트 컴퓨트 Gen12 서버는 HPE iLO(Integrated Lights Out) 7의 실리콘 RoT(Root of Trust) 및 시큐어 인클레이브(Secure Enclave) 기반으로 한 다층 보안 기능을 갖추고 있으며, 위조 및 변조 방지 보호와 양자 내성 펌웨어 서명(quantum-resistant firmware signing) 기능을 통해 한층 강화된 보안 환경을 제공한다.   ▲ HPE 프로라이언트 DL380a Gen12 서버   또한, HPE 컴퓨트 옵스 매니지먼트(HPE Compute Ops Management)으로 지원되는 중앙 집중형 클라우드 네이티브 방식의 라이프사이클 자동화 기능은 서버 관리에 소요되는 IT 업무 시간을 최대 75%까지 줄이고, 서버당 연간 평균 4.8시간의 다운타임 감소 효과를 제공한다. 대상 워크로드에는 생성형 및 에이전틱 AI을 비롯해 로보틱스 및 산업용 사례 등 피지컬 AI, 품질 관리(QC) 모니터링 및 자율주행과 같은 비주얼 컴퓨팅, 시뮬레이션, 3D 모델링, 디지털 트윈, 그리고 각종 엔터프라이즈 애플리케이션이 포함된다. 한편, HPE는 올해 말 출시 예정인 차세대 ‘HPE 프라이빗 클라우드 AI’를 발표했다. 이 설루션은 엔비디아 RTX PRO 6000 GPU를 탑재한 HPE 프로라이언트 컴퓨트 Gen12 서버를 지원하며, GPU 세대 간의 원활한 확장성, 폐쇠망(air-gapped) 관리 및 엔터프라이즈 멀티 테넌시(multi-tenancy) 기능 등을 제공할 예정이다. HPE와 엔비디아가 공동 개발한 엔터프라이즈 턴키 AI 팩토리 설루션인 HPE 프라이빗 클라우드 AI는 에이전틱 AI를 위한 최신 버전의 엔비디아 네모트론(NVIDIA Llama Nemotron) 모델, 피지컬 AI 및 로보틱스를 위한 코스모스 리즌(Cosmos Reason) VLM(vision language model), 엔비디아 블루프린트 VSS 2.4 (NVIDIA Blueprint for Video Search and Summarization)를 지원하여 대규모 영상 데이터에서 인사이트를 추출하는 영상 분석 AI 에이전트를 구축할 수 있다. 또한, HPE 프라이빗 클라우드 AI는 최신 AI 모델을 위한 엔비디아 NIM 마이크로서비스, 엔비디아 블루프린트를 빠르게 배포할 수 있도록 맞춤형 설계되어, 고객들은 HPE AI 에센셜(HPE AI Essentials)를 통해 이를 간편하게 활용할 수 있다. 이와 함께 HPE 프라이빗 클라우드 AI는 엔비디아 AI 가속화 컴퓨팅, 네트워킹, 소프트웨어와의 깊은 통합을 바탕으로, 기업들이 데이터 통제를 유지하면서도 AI의 가치를 보다 신속하게 활용할 수 있도록 지원한다. 이를 통해 고객은 급증하는 AI 추론 수요를 효과적으로 관리하고 AI 생산 속도를 가속화할 수 있다. HPE 셰리 윌리엄스(Cheri Williams) 프라이빗 클라우드 및 플렉스 설루션 부문 수석 부사장 겸 총괄은 “HPE는 AI 시대를 맞아 기업들이 성공을 이룰 수 있도록 필요한 툴과 기술을 제공하는 데 전념하고 있다”면서, “엔비디아와의 협업을 통해 기술 혁신의 경계를 지속적으로 넓혀가며, 생성형 AI, 에이전틱 AI, 피지컬AI의 가치 실현을 포함해 엔터프라이즈 환경의 복잡하고 다양한 요구를 충족하는 설루션을 제공하고 있다. HPE 프로라이언트 서버와 HPE 프라이빗 클라우드 AI의 확장된 역량을 결합함으로써, 기업들이 AI 혁신의 다음 단계를 더욱 신속하고 신뢰 있게 수용할 수 있도록 지원하고 있다”고 밝혔다. 엔비디아의 저스틴 보이타노(Justin Boitano) 엔터프라이즈 AI 부사장은 “기업은 최신 AI 요구사항에 맞추기 위해 유연하고 효율적인 인프라가 필요하다”면서, “엔비디아 RTX PRO 6000 블랙웰 GPU를 탑재한 HPE 2U 프로라이언트 서버는 단일 통합형 기업용 플랫폼에서 거의 모든 워크로드를 가속화할 수 있도록 해줄 것”이라고 밝혔다.
작성일 : 2025-08-18
오라클, OCI 생성형 AI 서비스에 구글 제미나이 모델 제공
오라클과 구글 클라우드는 구글의 최신 AI 모델인 제미나이(Gemini) 2.5부터 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스를 통해 제공한다고 발표했다. 이를 통해 오라클 고객은 멀티모달 이해, 고급 코딩 및 소프트웨어 개발, 생산성과 업무 프로세스 자동화, 연구 및 지식 검색 등 다양한 활용 사례에서 AI 에이전트를 구축할 수 있게 됐다. 또한, 오라클과 구글 클라우드는 AI 관련 분야에서 협력을 강화할 계획이다. 오라클은 구글 클라우드의 버텍스 AI(Vertex AI)와의 새로운 통합을 통해 비디오 및 이미지, 음성,·음악 생성용 최첨단 모델과 MedLM 같은 산업 특화 모델을 포함한 제미나이 전체 모델 제품군을 OCI 생성형 AI 서비스에서 제공할 계획이다. 또한, 오라클 퓨전 클라우드 애플리케이션(Fusion Cloud Applications) 내에서도 버텍스 AI 기반 제미나이 모델을 선택 옵션으로 제공해, 금융 및 인사, 공급망, 영업, 서비스, 마케팅 등 주요 업무 프로세스에 AI 기능을 강화할 수 있도록 더 폭넓은 선택지를 제공할 예정이다. 오라클 고객은 보유 중인 오라클 유니버설 크레딧(Oracle Universal Credits)으로 제미나이 모델을 바로 사용할 수 있다. 구글 제미나이 모델은 최신성을 위해 구글 검색 데이터를 기반으로 응답을 보강하는 기능과 대규모 맥락 창(context windows), 강력한 암호화와 데이터 프라이버시 정책, 그리고 우수한 추론 능력을 앞세워 엔터프라이즈 환경에서 높은 성능을 발휘할 수 있게 했다. 오라클은 기업 데이터와 가까운 곳에서 최신 AI 기술을 제공하며, 보안 및 유연성, 확장성을 우선시한다. 이를 통해 산업 전반의 기업 고객이 생성형 AI와 에이전틱 AI를 적합한 비즈니스 시나리오에 즉시 적용할 수 있도록 돕는다. 또 전 세계 수천 명의 AI 개발자와 기업이 OCI의 경제적이고 특화된 AI 인프라를 활용해 대규모 및 고난도 AI 워크로드를 더 빠르게 실행하고 있다. OCI 베어메탈 GPU 인스턴스는 생성형 AI, 자연어 처리(NLP), 컴퓨터 비전, 추천 시스템 같은 애플리케이션을 구동할 수 있다. 구글 클라우드의 토마스 쿠리안(Thomas Kurian) CEO는 “선도적인 기업들은 이미 제미나이를 활용해 다양한 산업과 업무에서 AI 에이전트를 구동하고 있다”면서, “이제 오라클의 기업 고객은 오라클 환경에서 구글 클라우드의 대표 모델에 접근할 수 있어, 개발자 지원과 데이터 통합 작업 간소화, 그 외 다양한 기능을 수행하는 강력한 AI 에이전트를 배포하는 일을 훨씬 쉽게 시작할 수 있다”고 말했다. 오라클 클라우드 인프라스트럭처의 클레이 마고요크 사장은 “오라클은 기업 고객을 위해 엄선한 다양한 AI모델 선택지를 전략적으로 제공해 왔으며, 여기에는 공개 모델과 독점 모델이 모두 포함된다”라며, “OCI 생성형 AI 서비스에서 제미나이를 제공하는 것은 고객이 혁신을 추진하고 비즈니스 목표를 달성할 수 있도록 강력하고 안전하며 비용 효율적인 AI 설루션을 제공하겠다는 오라클의 의지를 반영하는 것”이라고 전했다.
작성일 : 2025-08-18
HP Z2 미니 G1a 데스크톱 제품 리뷰어 모집
캐드앤그래픽스에서 HP Z2 Mini G1a 데스크톱 성능을 체험 리뷰하실 리뷰어를 찾습니다. 리뷰 기사는 캐드앤그래픽스 2025년 10월호에 실릴 예정이며, 리뷰용 제품을 받으신 후 실제로 사용해 보시고, 9월 12일(금요일)까지 리뷰 원고를 보내 주시면 됩니다. (Z2 Mini G1a 데스크탑과 24인치 모니터 배송 예정) 잡지에 실리는 리뷰 기사에 대해서는 소정의 원고료를 드립니다. 리뷰를 원하시는 분은 간단한 자기소개 및 사용하시는 소프트웨어에 관한 내용을 메일(cadgraphpr@gmail.com)로 보내주세요. - 제목 :  HP Z2 미니 G1a 리뷰어 지원 - 보내실 내용 : 간단 약력 등 자기소개, 사용 소프트웨어, 전화/메일/소속 (참고할 만한 기고 이력이나 블로그 링크 등 있을 경우 같이 기재) - 모집기간 : 선정시(선착순, 이력 검토 후 선정) - 모집 마감되었습니다. 문의 : 02-333-6900 리뷰어 모집 대상  :  제조, 건축, 엔지니어링 분야 엔지니어(캐드, CAE, 3D 디자인 및 렌더링 등 사용자)     ------------------------------------------------------------------------------------------------------ HP Z2 Mini G1a 데스크톱 워크스테이션 소개   HP Z2 Mini G1a는 컴팩트한 크기에 강력한 성능을 담은 미니 워크스테이션으로, 복잡한 3D 디자인, 그래픽 프로젝트, 로컬 AI 모델(LLM) 환경에 적합합니다. 최고 사양의 AMD Ryzen™ AI Max+ PRO 시리즈 프로세서(최대 16코어/32스레드, 5.1GHz 부스트, 64MB 캐시)가 장착되며, 내장 그래픽(최대 AMD Radeon™ 8060S)을 통해 별도의 외장 GPU 없이도 GPU 가속 3D 작업 및 AI 추론을 실행할 수 있습니다. 최대 128GB LPDDR5x 통합 메모리 중 96GB까지 그래픽 갯수에 할당 가능하므로, 여러 개 전문 애플리케이션을 동시에 실행해도 병목 현상이 적습니다. 스토리지는 NVMe M.2 SSD 슬롯 2개를 사용해 최대 8TB까지 확장 가능하며, RAID 0/1을 지원합니다. 연결성도 우수합니다. Thunderbolt™ 4 USB-C 포트, Mini DisplayPort 2.1, 10GbE LAN, Wi-Fi 7 등 최신 포트를 모두 지원하며, 내부 전원 어댑터(300W 내장)로 외부 어댑터 없이 간결한 설치가 가능합니다. 냉각 설계는 대형 방열판과 팬 조합, 3D 메쉬 흡기 구조 등으로 내부 발열을 최소화합니다. 시스템 RAM은 납땜되어 교체는 불가능하지만, 두 개의 PCIe Gen4 M.2 슬롯으로 저장장치 확장이 자유롭습니다. Geekbench 6 기준 CPU 멀티코어 점수 약 17,210점, GPU OpenCL 점수 91,591점을 기록하며, 최신 워크스테이션 수준의 성능을 입증했습니다. ISV 인증과 HP Wolf Security(BIOS~OS)로 전문적인 워크플로우와 기업 보안, 안정성까지 제공합니다. 작은 공간, 고성능 AI·그래픽 작업, 3D 디자인, 콘텐츠 크리에이션, 엔터프라이즈 환경에 모두 어울립니다. 공식 제품 정보는 HP 웹사이트(https://www.hp.com/kr-ko/workstations/z2-mini-a.html)에서 확인할 수 있습니다.     참고 후기 HP Z북 울트라 G1a 리뷰 (1) - AI 크리에이터와 3D 작업을 위한 최적화 HP Z북 울트라 G1a 리뷰 (2) - 설계 엔지니어 관점에서 본 고성능 노트북
작성일 : 2025-08-13
오픈소스 LLM 모델 젬마 3 기반 AI 에이전트 개발해 보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 최근 이슈인 AI 에이전트(agent) 개발 시 필수적인 함수 호출(function call) 방법을 오픈소스를 이용해 구현해 본다. 이를 위해 구글에서 공개한 젬마 3(Gemma 3) LLM(대규모 언어 모델)과 역시 오픈소스인 LLM 관리도구 올라마(Ollama)를 활용하여 간단한 AI 에이전트를 로컬 PC에서 개발해본다. 아울러, 이런 함수 호출 방식의 한계점을 개선하기 위한 설루션을 나눔한다.   ■  강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   이번 호의 글은 다음 내용을 포함한다. AI 에이전트 구현을 위한 사용자 도구 함수 호출 방법 올라마를 통한 젬마 3 사용법 채팅 형식의 프롬프트 및 메모리 사용법 그라디오(Gradio) 기반 웹 앱 개발   그림 1. AI 에이전트 내부의 함수 호출 메커니즘(Akriti, 2025)   이 글의 구현 코드는 다음 링크에서 확인할 수 있다. AI_agent_simple_function_call   젬마 3 모델의 특징 젬마 3는 구글이 개발해 2025년 3월 10일에 출시한 LLM이다. 차세대 경량 오픈 멀티모달 AI 모델로, 텍스트와 이미지를 동시에 처리할 수 있는 기능을 갖추고 있다. 이 모델은 다양한 크기와 사양으로 제공되어 단일 GPU 또는 TPU 환경에서도 실행 가능하다. 젬마 3는 1B, 4B, 12B, 27B의 네 가지 모델 크기로 제공되며, 각각 10억, 40억, 120억, 270억 개의 파라미터를 갖추고 있다. 1B 모델은 텍스트 전용으로 32K 토큰의 입력 컨텍스트를 지원하고, 4B/12B/27B 모델은 멀티모달 기능을 지원하며 128K 토큰의 입력 컨텍스트를 처리할 수 있다. 이는 이전 젬마 모델보다 16배 확장된 크기로, 훨씬 더 많은 양의 정보를 한 번에 처리할 수 있게 해 준다. 이 모델은 텍스트와 이미지 데이터를 동시에 처리하고 이해하는 멀티모달 기능을 제공한다. 이미지 해석, 객체 인식, 시각적 질의응답 등 다양한 작업을 수행할 수 있으며, 텍스트 기반 작업에 시각적 정보를 효과적으로 활용할 수 있도록 지원한다.   그림 2. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   그림 3. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   젬마 3는 140개 이상의 언어를 지원하여 전 세계 다양한 언어 사용자를 대상으로 하는 AI 애플리케이션 개발에 매우 유리하다. 사용자는 자신의 모국어로 젬마 3와 상호작용할 수 있으며, 다국어 기반의 텍스트 분석 및 생성 작업도 효율적으로 수행할 수 있다. 이 모델은 다양한 작업 수행 능력을 갖추고 있다. 질문–답변, 텍스트 요약, 논리적 추론, 창의적인 텍스트 형식 생성(시, 스크립트, 코드, 마케팅 문구, 이메일 초안 등), 이미지 데이터 분석 및 추출 등 광범위한 자연어 처리 및 컴퓨터 비전 관련 작업을 수행할 수 있다. 또한, 함수 호출 및 구조화된 출력을 지원하여 개발자가 특정 작업을 자동화하고 에이전트 기반의 경험을 구축하는 데 도움을 준다. 젬마 3는 다양한 도구 및 프레임워크와 원활하게 통합된다. Hugging Face Transformers, Ollama, JAX, Keras, PyTorch, Google AI Edge, UnSloth, vLLM, Gemma. cpp 등 다양한 개발 도구 및 프레임워크와 호환되어 개발자들이 자신이 익숙한 환경에서 젬마 3를 쉽게 활용하고 실험할 수 있다. 이 모델은 다양한 벤치마크 테스트에서 동급 모델 대비 최첨단 성능을 입증했다. 특히, Chatbot Arena Elo Score에서 1338점을 기록하며, 여러 오픈 소스 및 상용 모델보다 높은 성능을 보였다.  젬마 3는 오픈 모델로, 개방형 가중치를 제공하여 사용자가 자유롭게 조정하고 배포할 수 있다. 캐글(Kaggle)과 허깅 페이스(Hugging Face)에서 다운로드 가능하며, Creative Commons 및 Apache 2.0 라이선스를 따름으로써 개발자와 연구자에게 VLM 기술에 대한 접근성을 높여준다.   개발 환경 개발 환경은 다음과 같다. 미리 설치 및 가입한다. 오픈 LLM 관리 도구 올라마 : https://ollama.com/download/ windows LLM 모델 젬마 3 : https://ollama.com/search dashboard 웹 검색 도구 Serper 서비스 가입 : https://serper.dev/ 설치되어 있다면 다음 명령을 터미널(윈도우에서는 도스 명령창)에서 실행한다. ollama pull gemma3:4b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-08-04