• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "APU"에 대한 통합 검색 내용이 416개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
바이브 코딩 지원 멀티 에이전트 코덱스의 사용법
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 바이브 코딩(vibe coding)이 열풍이다. 이번 호에서는 오픈AI(OpenAI)가 개발한 바이브 코딩을 지원하는 멀티 에이전트 코덱스(Codex)의 사용법을 간략히 소개한다. 얼마 전 챗GPT(ChatGPT) 프로 버전에 무료로 오픈된 코덱스와 오픈소스 코덱스 버전(CLI)의 사용법을 모두 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/lAPUta999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. Codex | OpenAI   2025년 4월 중순에 OpenAI o3, o4, Codex가 공개되었다. 멀티 AI 에이전트 기능을 충실히 구현한 영상 데모가 업로드되었고, 특히 자동화 코딩을 지원하는 코덱스가 로컬 컴퓨터에서 실행 가능한 형태로 공개된 점이 인상적이었다.   그림 2. 오픈AI o3, o4, 코덱스 공개 영상   코덱스는 단순한 코드 생성에 그치지 않고 버그 수정, 테스트 실행, 코드 리뷰 제안 등 복잡한 개발 업무를 자동화한다. 각 작업은 사용자의 코드 저장소가 사전 로드된 격리된 클라우드 샌드박스 환경에서 독립적으로 실행되며, 작업의 복잡도에 따라 1분에서 30분 이내에 결과를 제공한다. 또한, 코덱스는 작업 수행 과정에서 생성된 터미널 로그와 테스트 출력 등의 증거를 제공하여, 사용자가 변경 사항을 추적하고 검토할 수 있도록 지원한다.코덱스 코드 및 도구는 깃허브(GitHub)에 공개되었다. Codex Lightweight coding agent that runs : https://github.com/openai/codex 6월 초에는 챗GPT 프로 사용자에게 코덱스 기능이 공개되었다. 코덱스는 챗GPT의 사이드바를 통해 접근할 수 있으며, 사용자는 자연어로 코딩 작업을 지시하거나 기존 코드에 대한 질문을 할 수 있다. 또한 코덱스는 사용자의 개발 환경과 유사하게 구성할 수 있어, 실제 개발 환경과의 통합이 용이하다. 보안 측면에서도 코덱스는 격리된 환경에서 실행되며, 인터넷 접근은 기본적으로 비활성화되어 있다. 필요한 경우 특정 도메인에 대한 접근을 허용할 수 있으며, 이를 통해 외부 리소스를 사용하는 테스트나 패키지 설치 등이 가능하다. 코덱스는 현재 챗GPT 프로/팀/엔터프라이즈 사용자에게 제공되며, 플러스 및 에듀 사용자에게도 점차 확대되고 있다. 또한, 코덱스 CLI(Codex CLI)를 통해 터미널 환경에서도 코덱스의 기능을 활용할 수 있어, 다양한 개발 환경에서의 활용이 가능하다.(openai.com)   챗GPT에서 코덱스 사용법 코덱스를 활용한 전체 사용 과정은 단순한 코드 자동 생성 수준을 넘어, 실제 소프트웨어 개발의 전 과정을 자연어 기반으로 자동화하는 방식으로 개발되어 있다. 코덱스는 현재 깃허브를 기본 연결해 사용하도록 되어 있어, 다음과 같이 필자의 깃허브 프로젝트를 연결해 실습을 진행했음을 밝힌다. https://github.com/mac999/AI_agent_simple_function_ call.git 참고로, 필자는 필자의 깃허브 저장소를 이용하였지만, 독자는 각자 깃허브에 로그인한 후 본인의 프로젝트 개발을 진행할 저장소를 선택해야 한다. 아울러, 바이브 코딩 결과물이 제대로 동작하려면 반드시 챗GPT 등을 이용해 미리 PRD(Product Requirement Document)에 요구사항을 명확히 작성한 후, 이를 바이브 코딩 도구에 입력해 프로젝트와 코드를 생성하도록 하는 것이 좋다.   그림 3. 식사 레스토랑 평가용 앱 개발을 위한 PRD 문서 예시(How to vibe code : 11 vibe coding best practices, https://zapier.com)   프로젝트 시작 : 코드 저장소 구성 및 환경 연결 챗GPT 프로의 왼쪽 메뉴에서 <그림 4>와 같이 코덱스를 실행하면, 연결할 깃허브 계정 및 저장소를 요청한다. 코덱스에서 <그림 4>와 같이 본인의 깃허브 계정을 연결한다.   그림 4     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-09-03
엔텍시스템, AI 기반 모터 진단 솔루션으로 산업 예지보전 선도
전력 계측 및 AI 기반 모터 진단 솔루션 전문기업, 엔텍시스템   산업 현장에서 고장이나 생산이 중단될 수 있는 상황을 미리 예측해, 장비 가동 중지 등의 사태를 막는 예지보전의 중요성이 높아지고 있다. AI 기반 산업 진단 기술 전문기업 엔텍시스템(www.nteksys.com)은 전력 계측과 모터 진단 분야에서 20년 이상 축적된 기술력으로 산업 설비의 안전성과 효율성을 높이는 데 앞장서고 있다.   엔텍시스템 김영식 부사장   산업 현장의 숨은 위험 신호, AI가 먼저 알아챈다 2002년 설립된 엔텍시스템은 전력 계측 및 AI 기반 모터 진단 솔루션을 전문으로 제공하는 기술 기업이다. 전기 신호 분석과 머신러닝 기술을 융합해 설비의 이상을 조기에 탐지하고, 운영 최적화를 유도하는 ‘AI 예지정비’ 분야에서 독자적 위치를 구축해왔다. 주요 제품으로는 ▲멀티채널 미터(GEMS 3500 시리즈) ▲AI 모터 진단 시스템(GEMS 5500 시리즈) ▲전기실 온라인 진단 시스템(EMS) 등이 있다. 이 중 멀티채널 미터는 수배전반의 인입 및 분기 회로를 동시에 고정밀 측정하여 에너지 효율과 전력 품질 감시에 활용되고, AI 모터 진단 솔루션은 전기 신호를 분석해 이상 징후를 조기에 탐지하고 머신러닝 기반 예지보전으로 설비 안정성 및 운영 효율을 향상시킨다. 또 전기실 온라인 진단 시스템은 실시간 전력 감시와 변압기 진단을 가능케 하여 원격 모니터링과 이상 감지에 강점을 보이고 있다. 삼성전자·LG전자·포스코 등 100여 개 이상의 기업과 150여 개 공장에 솔루션을 공급해 온 엔텍시스템은  2024년에는 미국 메릴랜드 법인을 설립하며 본격적인 글로벌 시장 공략에도 나섰다. 이와 함께 CE, UL, FCC 등 국제 인증을 확보하여 글로벌 경쟁력을 강화하고 있다. 산업AI EXPO에서 혁신적인 AI 진단시스템과 산업현장 적용 사례 소개 이 회사는 9월 3일부터 5일까지 코엑스 마곡에서 열리는 2025 산업AI EXPO에 참가해 대표 제품인 ‘SV500’ 모터 진단 시스템과 클라우드 기반 SaaS 서비스를 선보이며, 산업계의 스마트 유지보수 전환을 본격화할 계획이다. 엔텍시스템이 산업AI EXPO 2025 참가를 결정한 배경에는 “AI 기술의 실효성과 방향성을 업계에 선도적으로 제시하고자 하는 의지”가 있다. “국내 산업 AI 생태계 확산을 위한 첫 이정표로서, AI 기술의 방향성과 산업 현장 적용 사례를 업계에 선도적으로 알릴 수 있는 중요한 기회라고 판단해 산업AI EXPO에 참가하게 되었다”는 엔텍시스템 관계자는 “이번 전시를 통해 이미 여러 산업 현장에서 적용 사례를 갖춘 솔루션인 SV500의 기술 신뢰성과 실제 효과를 널리 알리고 싶다”고 전했다. 엔텍시스템이 주력으로 전시할 SV500은 24비트 해상도와 8kHz 샘플링의 전류·전압 실시간 파형 분석을 기반으로 인버터와 모터 전기 신호를 정밀 분석한다. 또 디지털 트윈 기술을 활용한 이상 탐지와 토크·고조파 분석, 웹기반 대시보드 시각화로 현장 상태를 실시간 확인할 수 있다. 이와 함께 이 회사의 전시부스에서는 클라우드 기반 실시간 모터 진단 SaaS 서비스도 선보일 예정이다. 이 서비스는 모터 이상 탐지 및 진단, 시공간 제약 없이 진단 현황 확인, 원격 실시간 모니터링 기능을 제공하여 현장 유지보수 업무의 효율성을 극대화한다. “산업AI EXPO는 산업계와 AI 기술이 실질적으로 만나는 통합 플랫폼으로서 의미가 크다”는 김영식 부사장은 “제조, 에너지, 인프라 분야에서 디지털 전환이 가속되는 가운데, 기업 간 AI 적용 경험과 니즈를 공유하고 협력할 수 있는 소통의 장이 될 것”이라고 덧붙였다. 특히 엔텍시스템은 이번 EXPO 참가를 통해 ‘스마트 유지보수의 새로운 기준’을 제시하며, 다양한 산업 고객 및 파트너와 실질적인 비즈니스 협업을 확대하는 계기로 삼을 계획이다. 이를 위해 전시 기간 내 SV500 실물 데모를 운영하여 방문객들이 센서 설치와 웹 대시보드를 직접 체험하도록 할 예정이다. 맞춤형 AI 유지보수 솔루션으로 산업계 표준 제시 엔텍시스템의 향후 목표는 명확하다. 산업 현장에서 발생할 수 있는 다양한 모터 고장 패턴을 AI가 정확히 예측할 수 있도록 머신러닝 및 딥러닝 알고리즘을 고도화하고, 고객 맞춤형 유지보수 기능을 강화해 신뢰도 높은 예지보전 시스템을 완성하겠다는 것이다. 특히 사용자 맞춤 알람 임계값 설정 기능, 모바일 최적화 UI·UX 개선, 클라우드 기반 플랫폼 강화 등을 통해 산업 전반에 AI 유지보수 솔루션을 표준화해 나갈 계획이다. 더불어, 일본, 베트남, 중동 등지로의 해외 진출도 확대하며 글로벌 SaaS 플랫폼 기업으로의 도약을 준비 중이다.  
작성일 : 2025-08-09
오픈소스 LLM 모델 젬마 3 기반 AI 에이전트 개발해 보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 최근 이슈인 AI 에이전트(agent) 개발 시 필수적인 함수 호출(function call) 방법을 오픈소스를 이용해 구현해 본다. 이를 위해 구글에서 공개한 젬마 3(Gemma 3) LLM(대규모 언어 모델)과 역시 오픈소스인 LLM 관리도구 올라마(Ollama)를 활용하여 간단한 AI 에이전트를 로컬 PC에서 개발해본다. 아울러, 이런 함수 호출 방식의 한계점을 개선하기 위한 설루션을 나눔한다.   ■  강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/lAPUta999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   이번 호의 글은 다음 내용을 포함한다. AI 에이전트 구현을 위한 사용자 도구 함수 호출 방법 올라마를 통한 젬마 3 사용법 채팅 형식의 프롬프트 및 메모리 사용법 그라디오(Gradio) 기반 웹 앱 개발   그림 1. AI 에이전트 내부의 함수 호출 메커니즘(Akriti, 2025)   이 글의 구현 코드는 다음 링크에서 확인할 수 있다. AI_agent_simple_function_call   젬마 3 모델의 특징 젬마 3는 구글이 개발해 2025년 3월 10일에 출시한 LLM이다. 차세대 경량 오픈 멀티모달 AI 모델로, 텍스트와 이미지를 동시에 처리할 수 있는 기능을 갖추고 있다. 이 모델은 다양한 크기와 사양으로 제공되어 단일 GPU 또는 TPU 환경에서도 실행 가능하다. 젬마 3는 1B, 4B, 12B, 27B의 네 가지 모델 크기로 제공되며, 각각 10억, 40억, 120억, 270억 개의 파라미터를 갖추고 있다. 1B 모델은 텍스트 전용으로 32K 토큰의 입력 컨텍스트를 지원하고, 4B/12B/27B 모델은 멀티모달 기능을 지원하며 128K 토큰의 입력 컨텍스트를 처리할 수 있다. 이는 이전 젬마 모델보다 16배 확장된 크기로, 훨씬 더 많은 양의 정보를 한 번에 처리할 수 있게 해 준다. 이 모델은 텍스트와 이미지 데이터를 동시에 처리하고 이해하는 멀티모달 기능을 제공한다. 이미지 해석, 객체 인식, 시각적 질의응답 등 다양한 작업을 수행할 수 있으며, 텍스트 기반 작업에 시각적 정보를 효과적으로 활용할 수 있도록 지원한다.   그림 2. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   그림 3. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   젬마 3는 140개 이상의 언어를 지원하여 전 세계 다양한 언어 사용자를 대상으로 하는 AI 애플리케이션 개발에 매우 유리하다. 사용자는 자신의 모국어로 젬마 3와 상호작용할 수 있으며, 다국어 기반의 텍스트 분석 및 생성 작업도 효율적으로 수행할 수 있다. 이 모델은 다양한 작업 수행 능력을 갖추고 있다. 질문–답변, 텍스트 요약, 논리적 추론, 창의적인 텍스트 형식 생성(시, 스크립트, 코드, 마케팅 문구, 이메일 초안 등), 이미지 데이터 분석 및 추출 등 광범위한 자연어 처리 및 컴퓨터 비전 관련 작업을 수행할 수 있다. 또한, 함수 호출 및 구조화된 출력을 지원하여 개발자가 특정 작업을 자동화하고 에이전트 기반의 경험을 구축하는 데 도움을 준다. 젬마 3는 다양한 도구 및 프레임워크와 원활하게 통합된다. Hugging Face Transformers, Ollama, JAX, Keras, PyTorch, Google AI Edge, UnSloth, vLLM, Gemma. cpp 등 다양한 개발 도구 및 프레임워크와 호환되어 개발자들이 자신이 익숙한 환경에서 젬마 3를 쉽게 활용하고 실험할 수 있다. 이 모델은 다양한 벤치마크 테스트에서 동급 모델 대비 최첨단 성능을 입증했다. 특히, Chatbot Arena Elo Score에서 1338점을 기록하며, 여러 오픈 소스 및 상용 모델보다 높은 성능을 보였다.  젬마 3는 오픈 모델로, 개방형 가중치를 제공하여 사용자가 자유롭게 조정하고 배포할 수 있다. 캐글(Kaggle)과 허깅 페이스(Hugging Face)에서 다운로드 가능하며, Creative Commons 및 Apache 2.0 라이선스를 따름으로써 개발자와 연구자에게 VLM 기술에 대한 접근성을 높여준다.   개발 환경 개발 환경은 다음과 같다. 미리 설치 및 가입한다. 오픈 LLM 관리 도구 올라마 : https://ollama.com/download/ windows LLM 모델 젬마 3 : https://ollama.com/search dashboard 웹 검색 도구 Serper 서비스 가입 : https://serper.dev/ 설치되어 있다면 다음 명령을 터미널(윈도우에서는 도스 명령창)에서 실행한다. ollama pull gemma3:4b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-08-04
파이썬 버전 라이브러리 p5 기반 3D 데이터 시각화
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 컴퓨터 그래픽스 분야에서 유명한 프로세싱(processing) 도구를 파이썬(Python)으로 포팅한 p5를 알아보고, 이를 이용한 데이터셋 3D 가시화 방법을 확인해 본다. 또한 관련된 개발 프로세스를 이해하는 데 도움이 되는 간단한 예제를 설치, 코딩 및 실행하는 방법을 다룬다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/lAPUta999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. p5 데모   실행 가능한 소스 코드는 다음 링크에서 다운로드할 수 있다. 깃허브 : https://github.com/mac999/llm-media-art-demo   p5 소개 p5 Python은 JavaScript 라이브러리 p5.js와 컴퓨터 그래픽 미디어아트에서 자주 사용되는 processing.org에서 영감을 받아 창의적인 코딩을 위해 설계된 라이브러리이다. 2D 및 3D 모두에서 그래픽, 애니메이션 및 대화형 프로그램을 구축하기 위한 간단한 API를 제공한다. p5는 파이썬을 지원하므로 pandas, numpy, 딥러닝 관련 라이브러리를 함께 사용해 가시화하기 편리하다.   그림 2   기본적으로 `p5py`는 `setup()`과 `draw()` 함수를 중심으로 프로그램의 구조를 구성한다. `setup()` 함수는 초기 설정을 담당하며, `draw()` 함수는 프레임마다 반복 호출되어 애니메이션이나 실시간 그래픽 표현을 가능하게 한다. 이를 통해 반복적이거나 시간 기반의 시각적 표현이 용이하게 된다. 그래픽 요소의 생성 및 조작이 매우 직관적이다. 예를 들어, `circle()`, `rect()`, `line()` 등의 함수는 간단한 인자 전달만으로 기본 도형을 화면에 출력할 수 있게 하며, `fill()`, `stroke()`, `background()` 등은 색상과 스타일 설정을 손쉽게 조절할 수 있게 한다. 마우스와 키보드 입력을 처리하기 위한 이벤트 함수도 포함되어 있다. `mousePressed()`, `keyPressed()` 등은 사용자와의 인터랙션을 가능하게 하며, 이를 통해 인터랙티브 아트, 시각적 피드백, 교육용 시뮬레이션 등을 손쉽게 개발할 수 있다. 이미지, 사운드, 텍스트 등 다양한 멀티미디어 요소도 지원한다. 이미지 로딩 및 출력은 `loadImage()`와 `image()`로, 텍스트 출력은 `text()`로 구현되며 각각의 요소는 다양한 좌표 기반 조정이 가능하다. 또한, NumPy와 같은 파이썬 과학계산 생태계와도 호환이 가능하여, 복잡한 수학적 계산이나 데이터 시각화 작업에 활용할 수 있는 확장성이 있다. 전반적으로 p5py는 예술가, 디자이너, 교육자, 프로그래밍 입문자를 위한 시각 중심의 프로그래밍 도구로서, 단순한 문법과 풍부한 기능을 통해 창의적 프로토타이핑을 효율적으로 지원하는 라이브러리이다. 상세한 내용은 다음 링크를 참고한다. https://github.com/p5py/p5 https://p5.readthedocs.io/en/latest/install.html   p5 Python 설치 시작하려면 컴퓨터에 파이썬이 설치되어 있어야 한다. 다음 단계에 따라 필요한 라이브러리를 설정한다.   1단계 : 파이썬 설치 파이썬 3.11이 설치되어 있는지 확인한다. 없다면 python.org에서 다운로드한다.   2단계 : p5 설치 pip를 사용하여 p5를 설치한다. pip install p5   3단계 : pandas 설치 CSV 파일을 처리하려면 라이브러리를 설치한다. pip install pandas   4단계 : 설치 라이브러리 검사 터미널에서 다음의 명령을 입력해 제대로 설치되었는지 확인한다. python -c "import p5" python -c "import pandas"     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-07-01
HP Z북 울트라 G1a 리뷰 (1) - AI 크리에이터와 3D 작업을 위한 최적화
2025년형 HP ZBook Ultra G1a(Z북 울트라 G1a)는 휴대성과 고성능을 모두 만족시키는 최신 모바일 워크스테이션이다. 이번 리뷰에서는 AI 콘텐츠 제작, 블렌더 기반의 3D 작업, 언리얼 엔진을 활용한 디지털 휴먼 제작 등 실제 프로젝트 기반으로 테스트한 결과를 중심으로 제품의 성능을 살펴보았다.   HP Z북 울트라 G1a는 2025년 최신 모델로, 이 글에서는 AI 크리에이터 작업과 블렌더(Blender)를 이용한 3D 작업, 높은 컴퓨터 성능을 필요로 하는 언리얼 엔진을 활용한 디지털 휴먼 작업을 통해 리뷰하고자 한다. 처음 노트북을 개봉할 때 느낌은 모던하면서 고성능 느낌의 노트북 디자인이 적용되어 보여 좋았다.   HP Z북 울트라 G1a의 제품 구성 Z북 울트라 G1a의 기본 성능 체크를 위해 내 컴퓨터 성능을 체크한다. 이 모델은 워크스테이션급 성능을 노트북에 담아 휴대성과 성능을 모두 만족시키는 제품으로 설계되었다. AMD 라이젠(Ryzen) AI MAX+ 395는 16코어 32스레드의 젠 5(Zen 5) 아키텍처와 40개 컴퓨트 유닛을 탑재한 라데온(Radeon) 8060S 통합 그래픽을 결합한 혁신적인 APU(Accelerated Processing Unit : 가속 처리 장치)다. 이 프로세서는 50 TOPS의 XDNA 2 NPU를 통해 강력한 AI 성능을 제공하며, 별도의 독립 그래픽카드 없이도 RTX 4060에서 4070 수준의 그래픽 성능을 구현한다. AI 크리에이터와 3D 그래픽 작업을 하는 휴대용 워크스테이션이 필요한 사람들에게 좋은 컴퓨터 성능이다. 이번 리뷰에서 가장 좋았던 것은 AI 콘텐츠를 개발할 때 컴퓨터2025/7의 성능을 계속해서 체크해야 하는 부분이 있다는 것이다. 온디바이스 AI를 활용하여 인터넷이 연결되지 않았을 때도 코파일럿+ PC(Copilot+ PC)를 적용하여 마치 비서처럼 쓸 수 있었다. AI 콘텐츠를 제작할 때 새로운 방법을 이용하여 접근할 때가 많은데, 이럴 때는 오류와 문제들이 많이 발생한다. 이런 경우, 이 부분을 함께 해결할 협업자가 필요한데 문제 해결과 검색에 많이 활용되었으며, 음성인식을 지원하여 대화하며 문제를 해결할 수 있어서 작업하는데 편했다.   ▲ HP Z북 울트라 G1a의 구성   AMD 최적화된 AI 모델로 온디바이스 AI 활용 온디바이스 AI 기능을 통해 클라우드 연결 없이도 로컬에서 AI 작업을 수행할 수 있어 데이터 보안과 작업 속도 면에서 큰 장점을 보였다. 특히 실시간 AI 문제 해결과 정보 서치 작업에서 지연 시간이 거의 없어 원활한 작업 환경을 제공했다. AMD에 최적화된 모델 발표가 있어 그 부분을 테스트한 부분이 좋은 성과라고 생각된다. 어뮤즈(Amuse)는 AI 기반 이미지 생성 및 편집을 위한 소프트웨어로 텐서스택(TensorStack)에서 개발했으며, AMD와 협력하여 최적화된 성능을 제공한다. 주요 기능으로는 스테이블 디퓨전(Stable Diffusion) 모델을 활용한 AI 이미지 생성, AMD XDNA 슈퍼 레졸루션(AMD XDNA Super Resolution)을 통한 고해상도 이미지 출력 등이 있으며, 사용자 친화적인 인터페이스로 간편한 설치 및 사용이 가능하다. AMD에서 전문적인 생성형 AI 프로그램인 어뮤즈를 이용하여 이미지를 만들어 보았다. 약 15초 정도 걸렸으며, 노트북에서도 이런 퀄리티가 가능했다.   ▲ 온디바이스 AI 활용   ▲ AMD에 최적화된 AI 모델   생성형 AI 이미지 작업 생성형 AI를 활용한 이미지 작업에서는 복잡한 프롬프트도 빠르게 처리하여 고품질의 이미지를 생성할 수 있었다. 특히 AMD의 하드웨어 가속 기능을 통해 일반적인 노트북 대비 2~3배 빠른 렌더링 속도를 보여 주었다. 생성 시간은 15초(2048×2048)였다. 콤피UI(ComfyUI)는 생성형 AI 오픈소스 프로그램으로 AI를 이용하여 이미지와 비디오를 생성할 수 있는 오픈 소스다. 콤피UI보다 빨리 렌더링되는 느낌이었다.   ▲ 생성형 AI 이미지 작업   생성형 AI 비디오 작업 비디오 생성 작업에서도 안정적인 성능을 보여주었으나, 짧은 시간의 비디오 생성의 부분과 해상도가 높지 않은 생성형 비디오 생성이라서 한계는 있다. 하지만 비디오 생성을 노트북으로 테스트해서 확인할 수 있다는 자체가 놀라웠다.   ▲ 생성형 AI 이미지 작업   메타휴먼을 활용한 언리얼 엔진 작업 테스트 고사양의 컴퓨터 성능이 필요한 메타휴먼 작업에 활용해 보았다. 먼저 클라우드와 연결하여 디지털 휴먼을 만들어 보았다. 일반 노트북에서는 끊어지는 현상과 고사양의 노트북이 아닐 때는 화면이 끊어지는 현상이 있는데, HP Z북 울트라 G1a에서는 자연스럽게 화면이 이어지며 움직임 테스트에서도 언리얼 엔진의 게임 템플릿에서 자연스럽게 리얼타임으로 실행되는 결과를 볼 수 있었다.   ▲ 메타휴먼을 활용한 언리얼 엔진 작업   언리얼 엔진 작업 테스트 실제 시네마틱 영상 제작 과정에서는 언리얼 엔진의 실시간으로 미리보기 기능 자체와 실제 렌더링을 할 때 컴퓨터의 성능이 중요한 역할을 한다. 다른 노트북으로는 작업했을 때에는 실시간 미리보기는 화면이 끊어지는 현상이 있었지만, 이번 리뷰를 통해 워크스테이션급 노트북을 이용하면 어느 정도 작업이 가능하다는 점을 확인할 수 있었다.   ▲ 언리얼 엔진에서 작업   블렌더 3D 렌더링 테스트 블렌더 3D를 셋업하고 샘플 신(scene)의 인테리어 부분을 이미지 렌더링해 보니 시간적인 면에서 17분 39초가 소요됐다. 이는 동급 노트북 대비 상당히 빠른 렌더링 속도로, 복잡한 3D 신도 효율적으로 처리할 수 있음을 보여준다. 하지만 다른 작업을 하면서 멀티 렌더링할 때 다운되는 현상이 있었다. 메모리가 필요한 다른 작업 없이 블렌더 싱글 렌더링만 진행할 때는 큰 이상은 없었다.   ▲ 블렌더 렌더링 테스트   맺음말 결론적으로 온디바이스 AI를 통해 정보 검색과 문제해결에 도움이 되었고, AI 전문 작업에서 빠른 제작 시간과 렌더링 시간을 보여주었다. 실제 인터넷에서 서비스 페이지까지 들어가서 프롬프트를 입력하면 보통 120초 이상 걸리는데, 바로 열어서 프롬프트를 입력하거나 대화하면 10초 정도면 바로 원하는 정보를 얻을 수 있다. 3D 작업과 리얼타임 엔진인 언리얼 엔진 작업에서도 노트북으로 편하게 시네마틱 영상 제작을 할 수 있었다. AMD의 그래픽카드이기 때문에 엔비디아 칩셋을 이용한 콤피UI는 테스트 설치가 되지 않아, 많이 사용하는 AI 오픈 소스로는 테스트하지 못해 아쉽다.   ■ 최석영 AI프로덕션 감성놀이터의 대표이며, 국제고양이AI필름페스티· 21벌 총감독이다. AI 칼럼니스트로도 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다. 
작성일 : 2025-07-01
HP Z북 울트라 G1a 리뷰 (1) - AI 크리에이터와 3D 작업을 위한 최적화
2025년형 HP ZBook Ultra G1a(Z북 울트라 G1a)는 휴대성과 고성능을 모두 만족시키는 최신 모바일 워크스테이션이다. 이번 리뷰에서는 AI 콘텐츠 제작, 블렌더 기반의 3D 작업, 언리얼 엔진을 활용한 디지털 휴먼 제작 등 실제 프로젝트 기반으로 테스트한 결과를 중심으로 제품의 성능을 살펴보았다.   HP Z북 울트라 G1a는 2025년 최신 모델로, 이 글에서는 AI 크리에이터 작업과 블렌더(Blender)를 이용한 3D 작업, 높은 컴퓨터 성능을 필요로 하는 언리얼 엔진을 활용한 디지털 휴먼 작업을 통해 리뷰하고자 한다. 처음 노트북을 개봉할 때 느낌은 모던하면서 고성능 느낌의 노트북 디자인이 적용되어 보여 좋았다.   HP Z북 울트라 G1a의 제품 구성 Z북 울트라 G1a의 기본 성능 체크를 위해 내 컴퓨터 성능을 체크한다. 이 모델은 워크스테이션급 성능을 노트북에 담아 휴대성과 성능을 모두 만족시키는 제품으로 설계되었다. AMD 라이젠(Ryzen) AI MAX+ 395는 16코어 32스레드의 젠 5(Zen 5) 아키텍처와 40개 컴퓨트 유닛을 탑재한 라데온(Radeon) 8060S 통합 그래픽을 결합한 혁신적인 APU(Accelerated Processing Unit : 가속 처리 장치)다. 이 프로세서는 50 TOPS의 XDNA 2 NPU를 통해 강력한 AI 성능을 제공하며, 별도의 독립 그래픽카드 없이도 RTX 4060에서 4070 수준의 그래픽 성능을 구현한다. AI 크리에이터와 3D 그래픽 작업을 하는 휴대용 워크스테이션이 필요한 사람들에게 좋은 컴퓨터 성능이다. 이번 리뷰에서 가장 좋았던 것은 AI 콘텐츠를 개발할 때 컴퓨터2025/7의 성능을 계속해서 체크해야 하는 부분이 있다는 것이다. 온디바이스 AI를 활용하여 인터넷이 연결되지 않았을 때도 코파일럿+ PC(Copilot+ PC)를 적용하여 마치 비서처럼 쓸 수 있었다. AI 콘텐츠를 제작할 때 새로운 방법을 이용하여 접근할 때가 많은데, 이럴 때는 오류와 문제들이 많이 발생한다. 이런 경우, 이 부분을 함께 해결할 협업자가 필요한데 문제 해결과 검색에 많이 활용되었으며, 음성인식을 지원하여 대화하며 문제를 해결할 수 있어서 작업하는데 편했다.   ▲ HP Z북 울트라 G1a의 구성   AMD 최적화된 AI 모델로 온디바이스 AI 활용 온디바이스 AI 기능을 통해 클라우드 연결 없이도 로컬에서 AI 작업을 수행할 수 있어 데이터 보안과 작업 속도 면에서 큰 장점을 보였다. 특히 실시간 AI 문제 해결과 정보 서치 작업에서 지연 시간이 거의 없어 원활한 작업 환경을 제공했다. AMD에 최적화된 모델 발표가 있어 그 부분을 테스트한 부분이 좋은 성과라고 생각된다. 어뮤즈(Amuse)는 AI 기반 이미지 생성 및 편집을 위한 소프트웨어로 텐서스택(TensorStack)에서 개발했으며, AMD와 협력하여 최적화된 성능을 제공한다. 주요 기능으로는 스테이블 디퓨전(Stable Diffusion) 모델을 활용한 AI 이미지 생성, AMD XDNA 슈퍼 레졸루션(AMD XDNA Super Resolution)을 통한 고해상도 이미지 출력 등이 있으며, 사용자 친화적인 인터페이스로 간편한 설치 및 사용이 가능하다. AMD에서 전문적인 생성형 AI 프로그램인 어뮤즈를 이용하여 이미지를 만들어 보았다. 약 15초 정도 걸렸으며, 노트북에서도 이런 퀄리티가 가능했다.   ▲ 온디바이스 AI 활용   ▲ AMD에 최적화된 AI 모델   생성형 AI 이미지 작업 생성형 AI를 활용한 이미지 작업에서는 복잡한 프롬프트도 빠르게 처리하여 고품질의 이미지를 생성할 수 있었다. 특히 AMD의 하드웨어 가속 기능을 통해 일반적인 노트북 대비 2~3배 빠른 렌더링 속도를 보여 주었다. 생성 시간은 15초(2048×2048)였다. 콤피UI(ComfyUI)는 생성형 AI 오픈소스 프로그램으로 AI를 이용하여 이미지와 비디오를 생성할 수 있는 오픈 소스다. 콤피UI보다 빨리 렌더링되는 느낌이었다.   ▲ 생성형 AI 이미지 작업   생성형 AI 비디오 작업 비디오 생성 작업에서도 안정적인 성능을 보여주었으나, 짧은 시간의 비디오 생성의 부분과 해상도가 높지 않은 생성형 비디오 생성이라서 한계는 있다. 하지만 비디오 생성을 노트북으로 테스트해서 확인할 수 있다는 자체가 놀라웠다.   ▲ 생성형 AI 이미지 작업   메타휴먼을 활용한 언리얼 엔진 작업 테스트 고사양의 컴퓨터 성능이 필요한 메타휴먼 작업에 활용해 보았다. 먼저 클라우드와 연결하여 디지털 휴먼을 만들어 보았다. 일반 노트북에서는 끊어지는 현상과 고사양의 노트북이 아닐 때는 화면이 끊어지는 현상이 있는데, HP Z북 울트라 G1a에서는 자연스럽게 화면이 이어지며 움직임 테스트에서도 언리얼 엔진의 게임 템플릿에서 자연스럽게 리얼타임으로 실행되는 결과를 볼 수 있었다.   ▲ 메타휴먼을 활용한 언리얼 엔진 작업   언리얼 엔진 작업 테스트 실제 시네마틱 영상 제작 과정에서는 언리얼 엔진의 실시간으로 미리보기 기능 자체와 실제 렌더링을 할 때 컴퓨터의 성능이 중요한 역할을 한다. 다른 노트북으로는 작업했을 때에는 실시간 미리보기는 화면이 끊어지는 현상이 있었지만, 이번 리뷰를 통해 워크스테이션급 노트북을 이용하면 어느 정도 작업이 가능하다는 점을 확인할 수 있었다.   ▲ 언리얼 엔진에서 작업   블렌더 3D 렌더링 테스트 블렌더 3D를 셋업하고 샘플 신(scene)의 인테리어 부분을 이미지 렌더링해 보니 시간적인 면에서 17분 39초가 소요됐다. 이는 동급 노트북 대비 상당히 빠른 렌더링 속도로, 복잡한 3D 신도 효율적으로 처리할 수 있음을 보여준다. 하지만 다른 작업을 하면서 멀티 렌더링할 때 다운되는 현상이 있었다. 메모리가 필요한 다른 작업 없이 블렌더 싱글 렌더링만 진행할 때는 큰 이상은 없었다.   ▲ 블렌더 렌더링 테스트   맺음말 결론적으로 온디바이스 AI를 통해 정보 검색과 문제해결에 도움이 되었고, AI 전문 작업에서 빠른 제작 시간과 렌더링 시간을 보여주었다. 실제 인터넷에서 서비스 페이지까지 들어가서 프롬프트를 입력하면 보통 120초 이상 걸리는데, 바로 열어서 프롬프트를 입력하거나 대화하면 10초 정도면 바로 원하는 정보를 얻을 수 있다. 3D 작업과 리얼타임 엔진인 언리얼 엔진 작업에서도 노트북으로 편하게 시네마틱 영상 제작을 할 수 있었다. AMD의 그래픽카드이기 때문에 엔비디아 칩셋을 이용한 콤피UI는 테스트 설치가 되지 않아, 많이 사용하는 AI 오픈 소스로는 테스트하지 못해 아쉽다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 최석영 AI프로덕션 감성놀이터의 대표이며, 국제고양이AI필름페스티· 21벌 총감독이다. AI 칼럼니스트로도 활동하고 있다.     ■ 기사 내용은 PDF로도 제공됩니다. 
작성일 : 2025-07-01
인공지능 AI 에이전트 표준 프로토콜 MCP의 사용, 분석 및 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   MCP(Model Context Protocol)는 클로드(Claude)의 개발사인 앤트로픽(Anthropic)의 인공지능 AI 에이전트 표준 프로토콜이다. 이번 호에서는 최근 많은 이슈가 되고 있는 MCP의 사용 방법을 간략히 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/lAPUta999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. MCP의 개념   MCP는 애플리케이션이 LLM(대규모 언어 모델)에 컨텍스트를 제공하는 방식을 표준화한 개방형 프로토콜이다. USB-C 포트처럼, 다양한 도구와 데이터를 LLM에 연결하는 통합된 인터페이스 역할을 한다. LLM 기반 에이전트와 워크플로 구축을 지원하며 유연한 통합, 데이터 보호, 공급업체 간 전환성을 제공한다. MCP를 이용하면 AI 에이전트가 다양한 도구를 이용해 기존 LLM보다 훨씬 많은 일을 할 수 있다. 예를 들어, LLM에서 실시간 웹 자료를 이용해 여행 일정을 짜고, 마케팅 보고서를 만들며, 레빗(Revit)과 같은 3D 모델 콘텐츠를 프롬프트 엔지니어링으로 개발할 수 있다.   그림 2. AI 에이전트 기반 3D 모델링(United Top Tech 유튜브)   그림 3. MCP 도구 서버(https://mcp.so)   MCP의 개념 아키텍처 구조 MCP는 호스트-클라이언트-서버 구조로 구성되며, 로컬 및 원격 데이터를 안전하게 연결할 수 있는 아키텍처를 따른다. 호스트는 서버에서 제공해 주는 파일 관리, 웹 서칭, 계산 등의 도구를 연결해 LLM을 통해 추론, CoT, 도구 호출, 생성 등의 역할을 담당한다.   그림 4. MCP의 구조   각 구성요소의 역할은 다음과 같다. MCP 호스트는 MCP 프로토콜을 통해 서비스에 액세스할 수 있는 애플리케이션이다. 클로드 데스크톱 앱, AI 에이전트/CLI, 커서 IDE 등이 이에 해당하며, LLM(로컬 또는 원격)을 활용하여 다양한 작업을 수행한다. MCP 클라이언트는 MCP 서버와 연결하기 위해 호스트 애플리케이션과 통합된 클라이언트이다. MCP 서버는 MCP 프로토콜을 통해 특정 기능을 노출하는 응용 프로그램 또는 프로그램이다. 서버는 도커(Docker) 컨테이너, JVM, Node.js(UV/UVX) 프로세스에서 실행될 수 있으며, MCP 커뮤니티에서 제공하는 사전 구축된 서버를 활용할 수도 있다. 로컬 데이터 소스는 로컬 시스템에 존재하는 데이터베이스 또는 파일 시스템이다. 원격 서비스는 웹 API를 통해 액세스할 수 있는 깃허브(GitHub), 브레이브 서치(Brave Search)와 같은 외부 리소스이다. MCP를 이용하면 서버, 클라이언트, 로컬에 있는 파일, 폴더, 앱에 접근해 이를 LLM으로 컨트롤할 수 있다. MCP 구조를 구성하는 호스트와 서버는 다음과 같은 도구를 통해 구성해 활용한다. 호스트 : 클로드, 커서(Cursor), 챗GPT(ChatGPT), 깃허브 코파일럿(Github Copilot) 등 서버 : Model Context Protocol Servers(https://github. com/modelcontextprotocol/servers) MCP는 전형적인 호스트-서버 프로토콜(TCP/IP와 유사)을 따른다. 서버의 실행 모드는 SSE(server sent event)와 stdio(표준입출력) 모드가 있다. SSE는 네트워크로 연결해 도구를 호출할 수 있도록 한다. stdio는 로컬 자체에서 도구를 호출할 수 있도록 한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-06-04
델, AMD ‘크라켄 포인트’ 탑재한 기업용 ‘델 프로 노트북’ 첫 공개
델 테크놀로지스가 AMD의 차세대 AI PC 프로세서인 ‘라이젠 AI 프로 300 시리즈(코드명 크라켄 포인트)'를 탑재한 기업용 노트북인 ‘델 프로 노트북(Dell Pro laptop)’ 신제품 5종을 공개했다. 델 테크놀로지스는 고객의 다양한 요구사항에 최적화된 AI PC를 제공하기 위해 인텔, AMD, 퀄컴 등 글로벌 반도체 기업과 협업하고 있다. 이번에 선보인 델 프로 노트북은 최대 50 TOPS를 지원하는 AMD 차세대 APU를 탑재한 델의 첫 번째 기업용 노트북으로, 강력한 온-디바이스 AI 기능과 함께 고급스러운 디자인과 휴대성을 갖추었다. ‘델 프로 플러스(Dell Pro Plus)’ 제품군은 다양한 사양을 제공하는 메인스트림 기업용 노트북으로, 사용자의 니즈에 따라 다양한 스펙, 폼 팩터(클램셸 및 투인원), 디스플레이 크기(13, 14, 16형)를 선택할 수 있다는 점이 특징이다. 이번에 발표된 신제품인 AMD 기반 ‘델 프로 13, 14 및 16 플러스(Dell Pro 13, 14, 16 Plus)’는 각각 13, 14, 16형 디스플레이를 탑재한 고급형 기업용 노트북으로, 올해 출시한 AMD 라이젠 AI 프로 300 시리즈를 탑재했다. 언어 번역 및 고급 AI 이미지 생성 등을 포함하는 코파일럿+(Copilot+) 기능을 지원하고, 최대 50 NPU TOPS의 AI 처리 능력을 갖춰 즉각적인 트랜스크립션과 같은 비즈니스 생산성을 구현한다. 이들 제품은 2024년에 출시한 ‘AMD 라이젠 AI 프로 300 시리즈’의 고성능 스트릭스 포인트 프로세서와 ‘AMD 라이젠 AI 프로 200 시리즈(호크 포인트)’ 옵션도 제공한다. 이번 AMD 기반 델 프로 플러스 신제품 가운데 ‘델 프로 14 플러스(Dell Pro 14 Plus)’ 및 ‘델 프로 16 플러스(Dell Pro 16 Plus)’는 각각 ‘AMD 라이젠 AI 5 프로 340’, ‘AMD 라이젠 AI 7 프로 350’ 프로세서를 탑재했으며, 두 모델 모두 ‘AMD 라이젠 AI 9 HX 프로 370’ 프로세서(코드네임 스트릭스 포인트) 옵션을 제공한다. 16:10 화면비의 디스플레이, 긴 배터리 수명, 슬림하고 내구성이 뛰어난 폼팩터로 하이브리드 업무 환경의 비즈니스 사용자에게 적합한 제품이다. FHD+ 해상도에서 각각 최대 14.5시간, 11.5시간의 긴 배터리 지속 시간을 지원해 전원 연결 없이 작업이 가능하며, 화상 회의 시 열악한 조명 조건에서도 이미지 디테일을 정확하게 캡처하는 HDR 기반 5MP 카메라가 옵션으로 탑재되어 있다. 아울러, 사용자가 직접 교체할 수 있는 ‘모듈형 USB-C 포트’를 적용하여 수리용이성을 강화했다. 내구성이 강한 알루미늄 소재를 적용하여 차분하고 세련된 플래티넘 실버 색상으로 제공되며, 기존 클램셸 형태 외에 투인원 폼 팩터로도 선택할 수 있다.   ▲ AMD 라이젠 AI 프로 300 시리즈를 탑재한 델 프로 16 플러스   델 프로 제품군은 일상적인 업무를 위한 필수 성능을 제공하는 것이 특징으로, 이번 신제품인 AMD 기반 ‘델 프로 14(Dell Pro 14)’ 및 ‘델 프로 16(Dell Pro 16)’은 각각 14,16형 디스플레이에 최대 ‘AMD 라이젠 AI 7 프로 350’ 프로세서를 탑재한 기업용 노트북이다. 이전 세대 대비 각각 5% 및 10% 넓어진 화면 영역으로 한층 시원한 시야감을 구현했고, 1kg대의 가벼운 무게감과 긴 배터리 수명은 다양한 장소에서 멀티태스킹을 해야 하는 사용자에게 최적의 사용자 경험을 제공한다. FHD+ 해상도에서 각각 최대 15.1시간, 11.1시간의 배터리 지속 시간을 제공하며, 미국 국방성 내구성 표준 테스트(MIL-STD)를 거쳐 내구성과 안정성까지 보장한다. 이들 제품은 시크한 메탈릭 마감(플래티넘 실버 색상)으로 제공된다. AMD 라이젠 200 시리즈를 탑재한 델 프로 14 및 델 프로 16 노트북은 질감이 느껴지는 마그네타이트 색상으로 제공된다. 이와 함께, 델 테크놀로지스는 AMD 라이젠 프로 데스크톱 프로세서를 탑재한 기업용 데스크톱 PC인 ‘‘델 프로 데스크톱(Dell Pro Desktops)’ 신제품 2종도 선보였다. 마이크로형(micro)과 슬림형(slim)의 두 가지 폼 팩터로 제공되는 이 제품군은 AI에 최적화된 성능과 높은 전력 효율을 제공한다. 마이크로형은 좁은 업무 공간에서도 효율성과 생산성을 극대화하도록 설계된 초소형 데스크톱이며, 슬림형은 높은 보안 및 관리 용이성 설루션을 갖춘 공간 절약형 데스크톱이다. 이들 제품은 AMD 라이젠 7 프로 데스크톱 프로세서를 기반으로 강력한 성능은 물론, 기업 환경에 최적화된 보안 및 관리 기능, 안정성 및 일관된 수명 주기를 제공하며, 세련된 디자인과 견고한 내구성까지 겸비했다. 델 프로 노트북과 델 프로 데스크톱에서는 델의 온-디바이스 AI 애플리케이션 개발 툴킷인 ‘델 프로 AI 스튜디오(Dell Pro AI Studio)’를 구동할 수 있다. 이는 개발자와 IT 관리자가 인터넷 연결 없이 AI 애플리케이션을 개발하고 배포할 수 있도록 지원하는 포괄적인 툴킷으로, 개발자는 이를 활용해 혁신적인 AI 애플리케이션을 빠르게 개발하고, IT 관리자는 기업 환경에 배포한 애플리케이션을 효율적으로 관리할 수 있다. NPU를 활용하기에 AI 워크로드를 보다 민첩하고 효율적으로 처리하고, 델 검증 도구, 프레임워크, 템플릿 및 모델 세트를 통해 AI 프로젝트 개발 기간을 대략 6주로 대폭 줄일 수 있다. 한국 델 테크놀로지스의 김경진 총괄사장은 “AI PC는 컴퓨팅의 새로운 지평을 열며, 비즈니스 환경을 탈바꿈시키는 중요한 툴로 다시 한 번 부상하고 있다”면서, “델은 혁신적인 PC 경험을 제공하기 위해 최신 AI 기술과 다양한 프로세서 옵션을 전체 포트폴리오에 빠르게 적용하고, 통합 리브랜딩으로 사용자들이 각자 니즈에 맞게 최적의 AI 디바이스를 선택할 수 있게끔 지원하고 있다”고 말했다.
작성일 : 2025-05-08
[무료강좌] 오픈마누스 AI 에이전트의 설치, 사용 및 구조 분석
BIM 칼럼니스트 강태욱의 이슈 & 토크   생성형 AI 에이전트는 목표 달성을 위해 세상을 관찰하고 스스로 행동하는 자율적인 애플리케이션으로, 행동과 의사결정을 위한 인지 아키텍처를 갖추고 있다. 이번 호에서는 오픈소스 AI 에이전트인 오픈마누스(OpenManus)를 통해 AI 에이전트의 동작 메커니즘이 어떻게 구현되는지 분석해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/lAPUta999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   최근 AI 에이전트 기술이 크게 발전하고 있다. 구글의 에이전트 백서를 보면, 생성형 AI 에이전트는 목표 달성을 위해 세상을 관찰하고 스스로 행동하는 자율적인 애플리케이션으로 설명한다. 명시적인 지시가 없어도 스스로 판단하고 능동적으로 목표에 접근할 수 있다. 이러한 에이전트는 행동과 의사결정을 위한 인지 아키텍처를 갖추며, 핵심 구성 요소는 <그림 1>과 같이 사용자 입력에 대한 추론 역할을 하는 모델(보통은 GPT와 같은 LLM), 입력에 대해 필요한 기능을 제공하는 도구(tools), 그리고 어떤 도구를 호출할지 조율하는 오케스트레이션의 세 가지로 이루어진다.   그림 1. AI 에이전트의 구성 요소(Agents, Google, 2024)   이번 호에서는 AI 에이전트의 동작 메커니즘을 분석하기 위한 재료로, 딥시크(DeekSeek)와 더불어 관심이 높은 마누스(Manus.im)에서 영감을 받아 개발된 오픈마누스(OpenManus) 오픈소스 AI 에이전트를 활용하겠다. 오픈마누스는 메타GPT(MetaGPT)라는 이름으로 활동 중인 중국인 개발자가 공개한 AI 에이전트이다. 개발자는 오픈마누스가 연결된 다양한 도구를 LLM으로 조율하고 실행할 수 있다고 주장하고 있다. 깃허브(GitHub) 등에 설명된 오픈마누스는 다음과 같은 기능을 지원한다. 로컬에서 AI 에이전트 실행 여러 도구 및 API 통합 : 외부 API, 로컬 모델 및 자동화 도구를 연결, 호출 워크플로 사용자 지정 : AI가 복잡한 다단계 상호 작용을 효율적으로 처리 여러 LLM 지원 : 라마(LLaMA), 미스트랄(Mistral) 및 믹스트랄(Mixtral)과 같은 인기 있는 개방형 모델과 호환 자동화 향상 : 내장 메모리 및 계획 기능을 통해 코딩, 문서 처리, 연구 등을 지원   <그림 2>는 이 에이전트가 지원하는 기능 중 일부이다. 프롬프트 : “Create a basic Three.js endless runner game with a cube as the player and procedurally generated obstacles. Make sure to run it only in browser. If possible also launch it in the browser automatically after creating the game.”   그림 2   오픈마누스는 이전에 중국에서 개발된 마누스에 대한 관심을 오픈소소로 옮기는 데 성공했다. 오픈마누스는 현재 깃허브에서 4만 2000여 개의 별을 받을 정도로 관심을 받고 있다.    그림 3. 오픈마누스(2025년 4월 기준 42.8k stars)   필자는 오픈마누스에 대한 관심이 높았던 것은 구현된 기술보다는 에이전트 분야에서 크게 알려진 마누스에 대한 관심, 오픈소스 버전의 AI 에이전트 코드 공개가 더 크게 작용했다고 생각한다. 이제 설치 및 사용해 보고, 성능 품질을 확인해 보자. 그리고 코드 실행 메커니즘을 분석해 본다.    오픈마누스 설치 개발 환경은 이미 컴퓨터에 엔비디아 쿠다(NVIDIA CUDA), 파이토치(PyTorch) 등이 설치되어 있다고 가정한다. 이제, 다음 명령을 터미널에서 실행해 설치한다.   conda create -n open_manus python=3.12 conda activate open_manus git clone https://github.com/mannaandpoem/OpenManus.git cd OpenManus pip install -r requirements.txt playwright install   오픈마누스가 설치하는 패키지를 보면, 많은 경우, 기존에 잘 만들어진 LLM, AI Agent 라이브러리를 사용하는 것을 알 수 있다. 여기서 사용하는 주요 라이브러리는 다음과 같다.  pydantic, openai, fastapi, tiktoken, html2text, unicorn, googlesearch-python, playwright, docker     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-05-02
오픈소스 LLM 기반 블렌더 모델링 AI 에이전트 개발하기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 올라마(Ollama)와 오픈AI(OpenAI) GPT가 지원하는 오픈 소스 AI 모델을 블렌더(Blender)와 연결해 프롬프트 입력에 의한 자동 모델링 에이전트를 개발하는 방법을 설명한다. 이 연결을 통해 3D 모델링 작업 흐름을 간소화하고, 간단한 텍스트 프롬프트만으로 3D 장면을 생성하고 수정할 수 있다. 이번 호의 내용을 통해 이 프로세스를 직접 구현하는 방법을 이해하고, AI 에이전트 도구로서 LLM 모델의 역량을 평가할 수 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/lAPUta999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 프롬프트 : ‘Generate 100 cubes along the line of a circle with a radius of 30. The color and size of each cube are random.’   개념 : 텍스트 기반 3D 모델링 ‘텍스트 기반 3D 모델링’이란, 사용자가 입력한 텍스트를 AI 모델이 분석하여 블렌더에서 실행할 수 있는 코드를 생성하고 이를 통해 3D 그래픽을 구현하는 방식이다. 텍스트 토큰을 조건으로 설정하여 메시 모델을 생성하는 방법도 존재하며, 이는 스테이블 디퓨전(Stable Diffusion : SD) 계열의 기술을 활용하는 경우가 많다. 그러나 SD 기반 모델은 정확한 크기와 위치를 지정하는 데 근본적인 한계를 가진다. 이번 호에서는 정확한 치수를 가진 모델을 생성하는 것에 초점을 맞추고 있으므로, SD 기반 모델에 대한 자세한 설명은 생략한다. 텍스트를 3D 모델로 변환하는 에이전트 도구는 CAD 툴과의 상호작용 방식을 개선할 가능성이 있으며, 그래픽 모델링의 진입 장벽을 낮추고 신속한 프로토타이핑이 가능할 수 있다.   실행 가능한 코드 다운로드 이번 호의 내용과 관련된 실행 가능한 코드는 깃허브(GitHub)에서 다운로드할 수 있으니 참고한다. GitHub 링크 : https://github.com/mac999/blender-llm-addin   라이브러리 설치 블렌더와 올라마를 설치해야 한다.   1. 블렌더 다운로드 : blender.org   2. 윈도우에서 올라마 다운로드 : https://ollama.com/download   3. 오픈 소스 LLM 모델 설치(터미널에서 실행) ollama pull llama3.2 ollama pull gemma2 ollama pull codellama ollama pull qwen2.5-coder:3b ollama pull vanilj/Phi-4   4. 필요한 라이브러리 설치 pip install pandas numpy openai ollama   블렌더의 파이썬(Python) 환경에서 라이브러리를 설치하려면, 블렌더 설치 경로에 맞게 다음을 실행해야 한다. cd "C:/Program Files/Blender Foundation/Blender /python/bin" ./python.exe -m ensurepip ./python.exe -m pip install pandas numpy openai ollama   코드 설명 블렌더 UI 패널 생성 사용자가 블렌더에서 직접 모델을 선택하고 텍스트 프롬프트를 입력할 수 있도록 커스텀 UI를 생성한다. class OBJECT_PT_CustomPanel(bpy.types.Panel):  bl_label = "AI Model Selector"  bl_idname = "OBJECT_PT_custom_panel"  bl_space_type = 'VIEW_3D'  bl_region_type = 'UI'  bl_category = "Gen AI 3D Graphics Model"  def draw(self, context):   layout = self.layout   layout.label(text="Select Model:")   layout.prop(context.scene, "ai_model", text="")   layout.label(text="User Prompt:")   layout.prop(context.scene, "user_prompt", text="")   layout.operator("object.submit_prompt", text="Submit")     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-04-02