• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "라이브러리"에 대한 통합 검색 내용이 748개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
캐디안, 멀티 플랫폼 지원하는 ‘아레스캐드 2025’ 출시
캐디안은 다양한 플랫폼을 지원하는 ‘아레스캐드 2025(AresCAD 2025)’를 출시했다고 밝혔다. 독일의 그래버트(Graebert)가 개발하고 캐디안이 공급하는 이 도면설계 툴은 PC·모바일·클라우드 등 여러 환경에서 사용 가능하다.   아레스캐드 2025는 파일 오픈 속도가 평균 40% 향상되었고, 줌(zoom) 기능도 22% 개선되었다. 또한, 오픈AI(OpenAI)의 기술을 기반으로 하는 ARES AI(A3) 도우미가 포함되어 있어 계산 수행 및 기술적 질문에 대한 답변도 가능하며, 맥OS 사용자를 위한 인쇄창 UI도 윈도우와 동일하게 최적화되었다. ARES AI(A3)는 다양한 언어로 소통을 가능하게 하며, 다른 사용자가 아레스 캐드로 마이그레이션할 경우 익숙하지 않은 기능을 쉽게 찾고 트리니티 협업 기능이나 BIM 기능을 배울 수 있도록 돕는다. 이 외에도 시빌 3D(Civil 3D) 지원, DWG 파일을 DGN 포맷으로 내보내기, 테이블 자동 채우기(auto-fill) 기능, 동적 블록(dynamic block) 라이브러리 강화 등이 추가되어 사용자의 편의성을 개선했으며, 치수 스타일 관리자 UI 개선, 3D 비주얼 스타일 지원 및 BIM 도면이 개선되었다.     데스크톱 버전인 아레스 커맨더(ARES Commander), 클라우드 버전인 아레스 쿠도(ARES Kudo), 모바일 버전인 아레스 터치(ARES Touch) 등 세 가지 플랫폼을 지원하는 ‘삼위일체(trinity)’ 개념의 아레스캐드 2025 버전은 태그 지정, QR 코드, 클라우드 필드 등 협업 기능이 강화되었기 때문에, 도면 설계자와 관리자는 도면 설계 및 아이디어 공유 등 협업 과정을 효과적으로 진행할 수 있다. 웹 기반 CAD인 아레스 쿠도는 리본 메뉴  인터페이스를 도입했으며, 모바일 기반의 아레스 터치는 향상된 편집 기능을 통해 사용자 편의성이 강화되었다. 캐디안은 “국내외에서 900만 명 이상의 설계자가 사용하는 아레스캐드는 오토캐드의 DWG와 호환되며, 글로벌 설치 라이선스 수에서도 높은 점유율을 보이고 있다”면서, “아레스캐드는 연간 라이선스 뿐만 아니라 영구 라이선스와 네트워크 라이선스도 제공하기 때문에 사용자에게 선택의 폭을 제공하면서 라이선스 부담을 줄일 수 있다”고 전했다.
작성일 : 2024-04-18
폼랩, 빠르고 가장 경제적인 3D 프린터 폼 4/폼 4B 출시
폼랩이 자사의 4세대 데스크톱 레진 3D 프린터인 폼 4(Form 4)와 폼 4B(Form 4B)를 출시했다. 폼 4와 폼 4B는 기존 폼 3보다 최대 5배 빠른 속도로 평균 부품 제작을 2시간 내외로 줄여 제품 디자이너 및 엔지니어, 제조업체, 헬스케어 분야의 생산성 향상과 시장 출시 기간 단축을 지원한다. 폼 4와 폼 4B는 폼랩의 새로운 저강도 디스플레이(Low Force Display : LFD) 프린터 엔진과 향상된 재료 라이브러리, 새로운 자동 후처리 시스템 및 직관적인 사용자 경험 등이 특징이다. 소재에 따라 폼 3+보다 최소 2배에서 최대 5배 빠른 속도로 제품을 인쇄해 시제품 반복 제작 또는 mSLA(광조형) 기술을 사용한 일괄 생산이 가능하다. 시간당 수직 프린트 속도는 최대 100mm로 대부분의 제품은 2시간 이내, 소형 부품은 몇 분 이내에 제작할 수 있다. 또한 레이저 및 검류계 기술에서 출발해 초고출력 백라이트(16 mw/㎠), 독자적인 이형 텍스처, LPU 4(Light Processing Unit 4), 이중 레이어의 유연한 필름 레진 탱크를 탑재했다.     신뢰성과 경제성도 갖추었다. 오래 지속되는 재료 탱크(7만 5000 레이어 이상)와 광 처리 장치(100만 레이어 이상), 40% 낮은 레진 가격, 30% 더 큰 프린트 볼륨, 3.5배 더 높은 처리량으로 부품당 비용을 최대 40% 절약할 수 있으며, 정밀 가열, 힘 감지 및 이물질 감지 기능이 있어 높은 수준의 프린트 성공률을 제공한다는 것이 폼랩의 설명이다. 50미크론 픽셀, 높은 기준 조명, 고급 픽셀 스무딩, 가벼운 터치 지원이 가능해 다양한 상황에서 정확하게 맞는 부품 생산이 가능하며, 자동 레진 처리, 즉각적인 재료 변경, 자동 후처리 및 퀵 릴리스(신속 분리) 기술이 탑재된 빌드 플랫폼을 통해 누구나 15분이면 3D 프린트 방법을 손쉽게 습득할 수 있다. 이에 더해 폼랩은 재료 라이브러리에 폼 4 에코시스템을 활용해 폼 3보다 2~5배 더 빠르게 프린트할 수 있는 새롭게 재구성된 4가지 범용 레진, 고속 프로토타입 및 교정용 모델 제작을 위한 고속 모델 레진, 정확한 치과용 모델이 제작 가능한 정밀 모델 등 6가지 새로운 레진을 추가했다. 폼 4는 폼랩의 재료 라이브러리에서 17개 이상의 다른 성능 재료를 사용할 수 있도록 검증이 완료되었으며, 새로운 재료가 정기적으로 추가될 예정이다. 폼 4B는 15개의 추가 생체 적합성 재료와 호환되어 치과 및 의료 산업의 혁신을 지원한다. 마이크로소프트의 마크 혼슈케(Mark Honschke) 적층 가공 프로토타이핑 책임자는 “마이크로소프트의 모든 하드웨어 카테고리를 지원하는 폼랩이 출시한 폼 4는 엔지니어링 등급의 재료가 필요한 프로젝트에 있어서 빠른 프린트 시간으로 고성능 부품을 제작하는 것은 물론, 24시간 내 여러 번의 반복 제작이 가능해졌다”고 말했다. 포드 자동차의 브루노 알베스(Bruno Alves) AM/IM 개발 엔지니어는 “폼 4의 속도와 다양한 소재 덕분에 매일 여러 개의 프로토타입과 제조 보조 부품을 제작할 수 있게 됐다”면서, “폼 4는 부품 설계 및 생산 방식을 바꾸어 제품 개발의 효율성을 높이는 데 도움을 주고 있다”고 말했다. 폼랩의 맥스 로보브스키(Max Lobovsky) CEO는 “13만 대 이상의 프린터와 3억 개 이상의 부품을 제작하며 얻은 강점과 통찰력을 바탕으로 출시한 SLA 프린터 폼 4는 폼랩과 고객뿐 아니라 3D 프린팅 업계 전체에 큰 도약이 될 것”이라면서, “폼 4의 안정성과 새로운 차원의 속도는 모든 산업에서 우리의 고객이 신제품을 제작하고 개발하는 방식을 변화시킬 것”이라고 전했다.
작성일 : 2024-04-18
델, 파워엣지 서버에서 인텔 가우디3 AI 가속기 지원
델 테크놀로지스는 자사의 고성능 AI 서버인 ‘델 파워엣지 XE9680(Dell PowerEdge XE9680)’에 ‘인텔 가우디 3(Intel Gaudi 3)’ AI 가속기 지원을 추가한다고 밝혔다. 델은 데이터 집약적이고 복잡한 워크로드를 효과적으로 지원하게끔 설계된 XE9680의 확장된 라인업을 통해 AI 활용을 고려하는 엔터프라이즈 고객들에게 더 넓어진 선택지를 제공하게 됐다고 전했다. 델 파워엣지 XE9680은 x86 서버 아키텍처에 8개의 GPU를 탑재하는 모델로 AI 운영에 특화된 성능을 제공한다. 델은 XE9680 에코시스템에 인텔 가우디3 가속기를 통합함으로써, 고객이 생성형 AI 워크로드와 관련된 컴퓨팅 요구 사항에 맞춰 시스템을 맞춤화할 수 있도록 지원한다. 델은 범용성과 강력한 성능을 모두 갖춘 AI 가속 인프라를 제공하겠다는 전략이다.     안전성과 확장성에 중점을 두고 설계된 XE9680은 가우디3 가속기를 추가함으로써 보다 풍부한 서버 구성 옵션을 제공하게 됐다. 최대 32개의 DDR5 메모리 DIMM 슬롯을 통해 데이터 처리량을 향상시켰고, 16개의 EDSFF3 플래시 스토리지 드라이브와 8개의 PCIe Gen 5.0 슬롯으로 확장된 연결성과 대역폭을 제공한다. 프로세서당 최대 56개 코어를 지원하는 4세대 인텔 제온 스케일러블(Intel Xeon Scalable) 프로세서를 2개를 장착했으며, 고난도의 AI/ML 워크로드에 대한 데이터 처리 및 분석에 최적화되어 있다. 인텔 가우디3 AI 가속기는 64개의 커스텀 및 프로그래밍 가능한 텐서 프로세서 코어(TPC)와 128GB의 HBMe2 메모리 용량, 3.7TB의 메모리 대역폭, 96MB의 온보드 SRAM 등 생성형 AI 워크로드에 대응하기 위한 스펙을 갖췄다. 가우디3는 또한 개방형 에코시스템을 갖춰 파트너십 기반의 최적화 및 모델 라이브러리 프레임워크 지원의 이점이 있다. 기존 코드베이스의 전환을 간소화하는 개발 툴로 간편한 마이그레이션을 지원한다. 가우디3 가속기로 강화된 파워엣지 XE9680은 6개의 OSFP 800GbE 포트를 통해 가속기에 직접 결합된 새로운 네트워킹 기능을 제공한다. 외장 NIC를 시스템에 배치할 필요 없이 외부 가속기 패브릭에 직접 연결이 가능해 인프라를 단순화하고, 인프라의 총소유비용과 복잡성을 낮추는데 효과적이다. 또한 인텔 가우디3 전문 미디어 디코더는 AI 비전 애플리케이션을 위해 설계됐다. 광범위한 사전 처리 작업을 지원해 비디오에서 텍스트로의 변환을 간소화하고 엔터프라이즈 AI 애플리케이션의 성능을 높인다. 기존 하드웨어 성능을 넘어 AI를 통해 심층적인 데이터 인사이트를 확보하고자 하는 기업에서는 폭넓은 가속기 옵션을 갖춘 XE9680을 중요 자산으로 활용할 수 있다. 고급 처리 능력과 효율적인 공랭식 설계가 결합된 것도 특징이다. 인텔 가우디 3 AI 가속기를 탑재한 파워엣지 XE9680 서버 모델은 2024년 안에 국내 출시될 계획이다  한국 델 테크놀로지스의 김경진 총괄 사장은 “델은 폭넓은 협업 전략을 통해 AI 개발의 경계를 확장하고, 새로운 표준을 끊임없이 제시하고 있다”면서, “고객이 AI 여정의 어느 단계에 있든 목표 달성을 가속하고 미래에 필요하게 될 요구 성능에 대비하는 동시에, 이 여정이 안전하게 지속될 수 있도록 지원하는데 집중할 계획”이라고 덧붙였다.
작성일 : 2024-04-15
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12
로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 LLM 모델을 사용하는 방법이 점차 간편해지고 있어 자체적으로 LLM을 구축해 챗봇, 전문가 시스템 등을 자신의 서버에서 제공하는 경우가 많아지고 있다. 이번 호에서는 GPU가 있는 PC에서 직접 실행해 볼 수 있도록, 로컬 호스트 LLM(대규모 언어 모델) 오픈소스 기반의 BIM 전문가 챗봇 서비스를 간단히 개발해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   이번 호에서는 기존의 BIM PDF 파일을 검색해 학습하고, LLM에 RAG(Retrieval-augmented generation) 증강 학습한 후, 이를 간단한 UI로 웹 서비스하는 과정을 간략히 따라해 본다. 이번 호의 내용은 로컬 LLM의 편한 개발을 지원하는 올라마(Ollama), LLM 프롬프트 엔지니어링 프레임워크인 랭체인(LangChain), 텍스트 임베딩 벡터 데이터베이스 크로마(Chroma), 손쉬운 웹 앱 개발 지원 도구인 스트림릿(Streamlit)을 사용한다. 이를 이용해 간단하게 BIM 전문 지식을 PDF로 학습한 챗봇을 개발한다.   그림 1. 로컬 호스트 LLM 챗봇 아키텍처   그림 2. 구현된 BIM 지식 챗봇 서비스   LLM에 관련된 깊은 내용은 다음의 링크를 참고한다. 이 글은 여러 참고 자료를 이용해 작성된 것이다. 상세 내용은 레퍼런스를 참고하기 바란다. Facebook LLAMA-2 paper : https://daddynkidsmakers.blogspot.com/2024/02/llama-2.html Facebook LLAMA-2 installation : https://daddynkidsmakers.blogspot.com/2023/09/llama2.html LLM은 빅테크 업체 간 경쟁이 심한 분야이다. 이와 관련해서 젬마(Gemma), MPT-7B과 같은 LLM 모델이 오픈소스로 공개되고 있어 선택지가 많아지고 있다. 이와 관련해서는 다음을 참고한다.  Google Gemma : https://github.com/google/gemma_pytorch Blooom : https://huggingface.co/bigscience/bloom   설치 설치를 위해서는 엔비디아 드라이버, CUDA, 텐서플로(TensorFlow), 파이토치(PyTorch) 등 기본 딥러닝 개발 환경이 설치되어 있어야 한다.(최소 구동을 위한 GPU RAM은 6GB이다.) TensorFlow 설치 : https://www.tensorflow.org/install/pip?hl=ko#windows-native_1 Start Locally | PyTorch 설치 : https://pytorch.org/get-started/locally/ 설치 순서는 다음과 같다.  1. 기본 패키지를 설치한다. LLM 모델 기반 서비스 개발 지원 라이브러리 랭체인, 웹 앱 UI 개발을 지원하는 스트림릿, 텍스트 임베딩 벡터 데이터베이스 크로마 DB 등을 설치한다. pip install langchain streamlit streamlit_chat pypdf fastembed chardet pip install chromadb==0.4.15   그림 3. 다양한 LLM 모델을 이용한 서비스 개발을 지원하는 랭체인 패키지   그림 4. 간단한 코드로 웹 앱 개발을 지원하는 UI 라이브러리 패키지 streamlit.io   혹은 pip와 유사한 패키지 설치 관리자인 poetry를 설치한 후, 다음 사용 패키지들을 pyproject.toml 이름으로 저장하고 설치한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01
생성형 AI 데이터 학습에 사용되는 딥러닝 강화학습의 개념과 구조
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 생성형 AI 모델 학습과 같이 현재도 다양한 곳에서 필수로 사용되는 강화학습 딥러닝 기술의 기본 개념, 이론적 배경, 내부 작동 메커니즘을 확인한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   강화학습은 바둑, 로봇 제어와 같은 제한된 환경에서 최대 효과를 얻는 응용분야에 많이 사용된다. 강화학습 코딩 전에 사전에 강화학습의 개념을 미리 이해하고 있어야 제대로 된 개발이 가능하다. 강화학습에 대해 설명한 인터넷의 많은 글은 핵심 개념에 대해 다루기보다는 실행 코드만 나열한 경우가 많아, 실행 메커니즘을 이해하기 어렵다. 메커니즘을 이해할 수 없으면 응용 기술을 개발하기 어렵다. 그래서 이번 호에서는 강화학습 메커니즘과 개념 발전의 역사를 먼저 살펴보고자 한다. 강화학습 개발 시 오픈AI(OpenAI)가 개발한 Gym(www.gymlibrary.dev/index.html)을 사용해 기본적인 강화학습 실행 방법을 확인한다. 참고로, 깃허브 등에 공유된 강화학습 예시는 대부분 게임이나 로보틱스 분야에 치중되어 있는 것을 확인할 수 있다. 여기서는 CartPole 예제로 기본적인 라이브러리 사용법을 확인하고, 게임 이외에 주식 트레이딩, 가상화폐, ESG 탄소 트레이딩, 에너지 활용 설비 운영과 같은 실용적인 문제를 풀기 위한 방법을 알아본다.   그림 1. 강화학습의 개념(출처 : Google)   강화학습의 동작 메커니즘 강화학습을 개발하기 전에 동작 메커니즘을 간략히 정리하고 지나가자.   강화학습 에이전트, 환경, 정책, 보상 강화학습의 목적은 주어진 환경(environment) 내에서 에이전트(agent)가 액션(action)을 취할 때, 보상 정책(policy)에 따라 관련된 변수 상태 s와 보상이 수정된다. 이를 반복하여 총 보상 r을 최대화하는 방식으로 모델을 학습한다. 정책은 보상 방식을 알고리즘화한 것이다. <그림 2>는 이를 보여준다. 이는 우리가 게임을 하며 학습하는 것과 매우 유사한 방식이다.   그림 2. 강화학습 에이전트, 환경, 액션, 보상 개념(출처 : towardsdatascience)   강화학습 설계자는 처음부터 시간에 따른 보상 개념을 고려했다. 모든 시간 경과에 따른 보상치를 동시에 계산하는 것은 무리가 있으므로, 이를 해결하기 위해 DQN(Deep Q-Network)과 같은 알고리즘이 개발되었다. 모든 강화학습 라이브러리는 이런 개념을 일반화한 클래스, 함수를 제공한다. 다음은 강화학습 라이브러리를 사용한 일반적인 개발 코드 패턴을 보여준다.   train_data, test_data = load_dataset()  # 학습, 테스트용 데이터셋 로딩 class custom_env(gym):  # 환경 정책 클래스 정의    def __init__(self, data):       # 환경 변수 초기화    def reset():       # 학습 초기 상태로 리셋    def step(action):       # 학습에 필요한 관찰 데이터 변수 획득       # 액션을 취하면, 그때 관찰 데이터, 보상값을 리턴함 env = custom_env(train_data)  # 학습환경 생성. 관찰 데이터에 따른 보상을 계산함 model = AgentModel(env)      # 에이전트 학습 모델 정의. 보상을 극대화하도록 설계 model.learn()                       # 보상이 극대화되도록 학습 model.save('trained_model')    # 학습된 파일 저장 # 학습된 강화학습 모델 기반 시뮬레이션 및 성능 비교 env = custom_env(test_data)  # 테스트환경 생성 observed_state = env.reset() while not done:    action = model.predict(observed_state) # 테스트 관찰 데이터에 따른 극대화된 보상 액션    observed_state, reward, done, info = env.step(action)    # al1_reward = env.step(al1_action) # 다른 알고리즘에 의한 액션 보상값과 성능비교    # human_reward = env.step(human_action) # 인간의 액션 보상값과 성능비교   ■ 상세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-03-05
전기전자 해석 소프트웨어, ZWSim-EM
  주요 CAE 소프트웨어 소개 전기전자 해석 소프트웨어, ZWSim-EM ■ 개발 : Zwsoft, www.zwsoft.com ■ 자료 제공 : 인피니크, 02-565-4123, www.zw3d-cad.kr ZWSim-EM은 고정밀, 고효율,낮은 메모리 공간 및 강력한 모델링 기능을 갖춘 3D 전파 전자기 시뮬레이터이다. 사용자에게 산업별 RF 관련 올인원 시뮬레이션 솔루션을 제공하기 위해 최선을 다하고 있다. 1. 주요 기능 (1) EIT : 임베디드 통합 기술 ZWSim-EM의 주요 알고리즘인 EIT(Embedded Integral Technique)는 FDTD(Finite-Different Time-Domain)를 기반으로 자체 개발한 기술이다. Conformal Technology 및 Irregular Grid Processing Technology와 같은 일련의 기술과 함께 ZWSim-EM의 시뮬레이션 정확도와 효율성을 높인다. (2) 정확하고 효율적이며 적은 메모리 사용 EIT 알고리즘은 고정밀, 고효율 및 낮은 메모리 공간을 보장한다. (3) 쉬운 사용성 ZWSim-EM은 친숙한 사용자 인터페이스와 명확한 작업순서로 사용하기 쉽다. 사용자 인터페이스는 다른 영역을 드래그하여 사용자 정의할 수 있으며, 시뮬레이션 프로세스는 사용자 인터페이스 디자인과 일치한다. 전체 시뮬레이션 프로세스는 탐색 트리에서 위에서 아래로, 또는 리본 메뉴에서 왼쪽에서 오른쪽으로 설정할 수 있다. (4) 뛰어난 호환성 20 개 이상의 주요 CAD 형식과 완벽하게 호환되며, 다양한 CAD 파일을 자유롭게 가져오고 내보낼 수 있다. (5) 강력한 3D 모델링 ZWSim-EM은 파라메트릭 모델링과 같은 ZW3D의 강력한 모델링 기능을 사용하여, ZWSim-EM에서 직접 모델을 빌드 및 편집하여 모델링 효율성을 개선하고 향후 최적화를 용이하게 한다. 2. 주요 특징 (1) 풍부한 재료 라이브러리 ZWSim-EM은 160 가지 이상의 재료가 포함된 풍부한 재료 라이브러리를 제공하여 할당할 다양한 전자기 재료를 제공한다. 형상 모델의 경우 수백 종류의 재료를 선택할 수 있다. Infinitely Thin Faces의 경우 PEC 재료가 제공된다. 또한 특정 요구 사항에 따라 재료를 사용자 정의하고 새로 만든 재료를 재료 라이브러리에 추가할 수 있으므로 액세스 및 재사용이 편리하다. (2) 매개 변수 스윕 매개 변수 스윕은 특정 매개 변수 범위에서 결과가 어떻게 영향을 받는지 확인하고, 이에 따라 최적화하여 예상 결과를 얻도록 도와준다. 정산된 변수 매개 변수를 스캔 및 시뮬레이션하고, 특정 범위의 매개 변수가 결과에 미치는 영향을 분석하여 모델을 최적화하고, 설계 효율성을 개선하기 위한 참조를 제공할 수 있다. 여러 스위핑 작업을 설정하고 각 작업에 여러 스위핑 매개 변수를 추가할 수 있다. (3) 다중 어레이 패턴 ZWSim-EM은 안테나를 위한 강력한 어레이 기능을 제공하여 어레이 안테나 시뮬레이션의 효율적인 전처리를 실현한다. 어레이 안테나를 형성하고 시뮬레이션 요구 사항을 충족하기 위해 어레이 안테나 장치를 지원한다. 선형 배열, 원형 배열, 다각형 배열, 점 대 점 배열, 곡선 또는 표면을 따른 배열과 같은 다양한 배열 패턴을 사용할 수 있다. 또한 모델, 재료 및 포트를 동시에 배열하여 배열 안테나를 효율적으로 시뮬레이션할 수 있다. (4) 다중 배경 및 경계 옵션 다양한 종류의 배경과 경계가 있으며 안테나 및 도파 관과 같은 다양한 전자기 개체를 시뮬레이션해야 하는 요구를 충족한다. 기본 배경 재질은 진공이거나 재질 라이브러리에서 다른 재질을 선택하거나 직접 정의할 수도 있다. 개방 경계(기본값), PEC, PMC 및 주기적과 같은 다양한 경계가 지원된다. 안테나 시뮬레이션의 경우 배경은 진공이고 경계는 개방이다. 전력 분배기, 필터 등과 같은 도파관 시뮬레이션의 경우 배경은 PEC과 같은 도체일 수 있으며 경계는 PEC여야 한다. (5) 지능형 검사 시뮬레이션이 원활하게 실행될 수 있도록 사전 처리 설정의 유효성을 확인하기 위해, 그에 따라 분석 및 조정하여 프로젝트를 확인할 수 있다. 겹친 객체 검사, 배경 및 경계 검사, 여기 신호 검사, 여기 소스 검사, 프로브 검사, 메시 검사 및 솔버 검사를 포함한 여러 검사 옵션이 있다. 통과된 항목은 ‘√’로 표시되고, 실패한 항목은 메시지 보드에 오류 경고와 함께 ‘×’로 표시된다. 3. 도입 효과 기존의 값비싼 제품들의 오래된 논리들을 떠나 새로운 논리를 사용하여 솔루션을 제공함으로써, 전자기해석을 도입하고자 하는 사용자가 손쉬운 결과를 얻을 수 있도록 한다.     좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2024-02-12
자율주행 시뮬레이션, Virtual Test Drive(VTD)
자율주행 시뮬레이션, Virtual Test Drive(VTD)   주요 CAE 소프트웨어 소개   ■ 개발 : Forming Technologies, www.forming.com ■ 자료 제공 : 한국엠에스씨소프트웨어/031-719-4466/www.mscsoftware.com/kr 1. VTD : 가상환경 시뮬레이션을 위한 Complete Tool-chain  VTD(Virtual Test Drive)는 ADAS 및 자율 주행 차량의 개발 및 검증을 위한 가상 환경 시뮬레이션 플랫폼으로 도로 네트워크, 시나리오, 차량 동역학, 교통 및 음향 시뮬레이션, 센서 시뮬레이션 등을 위한 모듈화된 시스템으로 실제 환경과 동일한 가상환경을 생성한다. 이런 가상환경에서 생성된 자율주행차량의 데이터는 MiL, SiL, HiL, DiL, ViL 애플리케이션에서 사용할 수 있다. VTD는 20년 동안, 광업, 농업 및 운송 애플리케이션을 통해 전 세계 자동차, 항공우주 및 철도 산업의 수많은 설비에서 서비스되고 있다. 최근 VTD는 MS Azure, AWS와 같은 클라우드 시스템에서 수백만개의 시나리오를 생성하고 Edge Case 시나리오를 검증할 수 있는 서비스를 시작했다. 수백만 개의 시나리오를 분석하여 수십억 개의 가상 테스트가 실시간 시뮬레이션보다 훨씬 더 빠르게 수행되도록 병렬 프로세스를 지원하여 ADAS 및 AV 시스템에 대한 연산 속도를 높인다. VTD는 OpenDRIVE, OpenCRG 및 OpenSCENARIO의 Global Standards를 준수한다.  OpenDRIVE는 도로네트워크, 도로시설물, 노면, 표지판등 가상환경 도로 구성을 위한 Global stand-ards이다.  OpenCRG는 도로 표면의 굴곡, 거칠기등 상세한 표현을 위한 규격으로, 도로 표면의 생성, 관리, 평가를 위한 기준 및 툴이다. OpenSCENARIO는 시뮬레이션 도로 네트워크상에서 움직이는 모든 동적 요인을 정의하고 구성하기 위한 Global Standards이다.  VTD의 ROD(Road Designer)는 가상의 도로 네트워크를 생성하기 위한 3D 편집 도구로 OpenDRIVE, OpenCRG 등의 편집이 가능한 도구이다. 사용자의 편의성을 위해 다양한 국가의 3D Modeling 및 도로 형태의 데이터를 라이브러리로 구성, 데이터베이스화 하여 제공한다.   2. 주요 기능 (1) Sensors ■ Simplified perfect sensors는 감지된 오브젝트 정보 및 포인트 클라우드(Point Clouds) 같은 센서의 원시데이터를 고속(Real-time)으로 출력 ■ 노면상 Road Mark를 검지할 수 있는 수준의 고해상도 감지 기능 ■ Sensor Model 커스터마이징을 위한 SDK 제공 (2) Traffic & Pedestrian ■ 사전 정의된 이벤트 혹은 시나리오 경로를 따라 자동차 및 보행자의 행동범위 정의 ■ 다가오는 차량을 주시하는 등의 차량-보행자 상호작용 가능 ■ 도로네트워크 상 수많은 자동차 및 보행자의 개별 움직임 기반 시나리오 구성  ■ 중장비, 보행자, 자전거, 세그웨이, 동물 등 다양한 객체 생성 지원 ■ SCP 명령을 통한 실시간 객체 위치, 행동, 제스처 변경   (3) Scenarios ■ 시나리오 내 200대 이상의 차량, 보행자 생성 및 동시 주행 가능 ■ 실제 차량 및 보행자 궤적을 적용한 시나리오 구성, 혹은 사용자 연구목적에 따른 이상적인 이동 궤적 생성 및 적용   (4) Vehicle Model ■ 고정밀도 기반의 차량 모델 생성(스쿠터, 자전거, 세그웨이, 기차, UAM등 적용) ■ 실사정보를 기반으로 측정 및 모델 메시 정보를 적용한 차량 모델 제작   (5) Weather ■ 다양한 기상현상 표현 및 감지(time-of-day, clouds, visibility, Rain, Snow)   (6) Massive Scaling ■ Edge Case Scenario를 효율적으로 추출하기 위한 수천개의 시나리오 병렬 Computing 기능 지원  ■ PROSTEP OpenPDM 기술을 활용한 PDM 통합 ■ 모든 트랜잭션 데이터 자동 저장 지원 ■ 웹브라우저 기반의 빠른 개발 및 배포 기능 지원  ■ 다중 접속 기술지원 및 실험 환경 구성 가능   3. 적용 효과 ■ Native support for OpenDRIVE, OpenCRG, OpenSCENARIO ■ 영상, 다이나믹, 센서 등 모듈화된 운영 방식(내부 네트워크망을 통한 통합) ■ MiL, SiL, DiL, ViL, HiL 등 다양한 실험구성과 연동 및 통합 가능 ■ 고정밀 센서 모델 제공(object-list 기반 센서 및 physics-based 기반 센서); 사용자화 가능한 SDK 제공 ■ 물질 및 물리현상이 적용된 고해상도 이미지 생성(PBR 기술적용) : 사용자화 가능한 SDK 제공 ■ 다양한 3D Model 라이브러리 및 국가별 표지판, 신호등 데이터 베이스 제공 ■ 매우 복잡한 교통상환 시나리오 구성 가능(3rd party Traffic Simulation Tool 통합 가능 : Vissim, SUMO) ■ 손쉬운 데이터 모니터링 기능 지원, 실시간 SCP 명령을 통한 시뮬레이션 조건 변경 기능 지원 ■ 단일 Workstation에서 풀 스케일 HPC 환경까지 운영 가능(사용자 목적에 따라 변경 가능) ■ 정확한 차량 동역학 기반의 센서모델링을 위해 Adams Real-Time과 같은 Hexagon AB solutions 내 솔루션도구와 통합 ■ Hexagon’s LeicaGeosystems의 솔루션을 통한 정밀지리정보 취득 및 VTD 적용(OpenDRIVE format)      좀더 자세한 내용은 'CAE가이드 V1'에서 확인할 수 있습니다. 상세 기사 보러 가기 
작성일 : 2024-02-12
딥러닝 수치해석 데이터의 병렬처리를 지원하는 파이썬 넘바 라이브러리
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 GPU CUDA(쿠다) 병렬처리를 지원하는 넘바(Numba) 라이브러리를 간략히 소개한다. CUDA는 현재 딥러닝 기술의 기반처럼 사용되며, 사실상 산업 표준이다. 딥러닝은 모든 연산이 텐서 행렬 계산이므로, 엔비디아 GPU에 내장된 수많은 계산 유닛(실수 계산에 특화된 CPU)들을 사용한다. CUDA의 강력한 수치해석 데이터 병렬처리 기능은 딥러닝뿐 아니라 디지털 트윈의 핵심인 시뮬레이션, 모델 해석 등에 필수적인 수치계산 엔진으로 사용된다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   CUDA는 내장된 수많은 계산 유닛에 입력 데이터를 할당하고, 행렬연산을 하여 출력된 데이터를 CPU 메모리가 접근할 수 있도록 데이터 고속 전송/교환하는 역할을 한다. 그러므로, 딥러닝 모델 학습 성능은 GPU CUDA 성능에 직접적 영향을 받는다. 이벙 호에서는 파이썬(Python)에서 CUDA를 이용해 수치해석 등 계산 성능을 극대화할 수 있는 방법과 간단한 예제를 살펴본다.   그림 1. CUDA 아키텍처(출처 : Multi-Process Service : GPU Deployment and Management Documentation)   GPU CUDA 소개 CUDA는 게임 화면에 렌더링되는 3차원 이미지를 2차원 픽셀에 매핑하기 위한 수많은 행렬을 실시간 처리할 수 있도록 개발되어 왔다. 이런 이유로, 행렬 고속 연산이 필요한 딥러닝 학습에 적극 사용된 것이다.   그림 2. CUDA 기반 실시간 텐서 행렬 연산 결과   CUDA는 오랫동안 개발자의 요구사항을 반영해 발전되어, 개발 플랫폼으로서 탄탄한 생태계를 구축했다.   그림 3. 엔비디아 개발자 사이트   그림 4. CUDA 기반 레이트레이싱 렌더링 결과(출처 : Ray Tracey's blog : GPU path tracing tutorial 3 : GPU)   사실, 많은 스타트업이 이런 기능을 지원하는 딥러닝용 AI 칩을 FPGA 기법 등을 이용해 개발, 홍보하고 있으나, 이런 개발자 지원도구와 플랫폼 생태계 없다면 산업계에서는 의미가 없다고 볼 수 있다.   넘바 소개 넘바는 파이썬 기반 CUDA GPU 프로그래밍을 지원한다. 넘바는 컴파일 기술을 지원하여 CPU와 GPU 모드에서 코딩되는 데이터 구조, 함수 호출을 추상화한다. 넘바는 엔비디아의 CUDA 함수와 설정을 래핑한 고수준의 함수 API를 제공한다. 이를 통해 개발자가 CUDA의 세부 설정에 신경쓸 필요 없이, 데이터 병렬 처리 개발에만 집중할 수 있다.   개발 환경 넘바의 개발 환경은 다음과 같다. NVIDIA Compute Capability 5.0 이상 CUDA 지원 GPU 장착 PC(2023년 12월 시점) NVIDIA CUDA 11.2 이상 NVIDIA TX1, TX2, 자비에, 젯슨 나노 GTX 9, 10, 16 시리즈. RTX 20, 30, 40 시리즈. H100 시리즈 CONDA 환경의 경우, 다음과 같이 터미널을 이용해 CUDA 툴킷을 자동 설치할 수 있다. conda install cudatoolkit 넘바는 cuda python을 이용해 엔비디아 GPU CUDA와 바인딩한다. conda install nvidia::cuda-python 설치 방법은 다음과 같다. conda install numba   ■ 상세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-02-02
CAD&Graphics 2024년 2월호 목차
  17 THEME. 2023 국내 엔지니어링 소프트웨어 시장 조사 Part 1. 2024년 경제 및 주력산업 전망 Part 2. MDA/PDM 분야 Part 3. CAE 분야 Part 4. AEC 분야 Part 5. 엔지니어링 소프트웨어 업계 인터뷰   INFOWORLD   Case Study 47 LG U+의 유니티 기반 가상 오피스 프로젝트  사람과 사람을 잇고 경험을 공유하는 메타슬랩   Focus 50 디모아-PTC, DX 서밋에서 디지털 전환 전략과 성공 사례 소개   People & Company 52 티와이엠 김승동 중앙기술연구소 연구관리팀장 PLM, ERP, MES 등 기업 전반의 디지털 전환 추진   New Products 54 충돌 구조물의 설계 해석 및 최적화 프로그램 Visual Crash Studio 58 사실적인 애니메이션을 빠르게 제작하는 툴세트 포즈 드라이버 커넥트 80 이달의 신제품   On Air 60 캐드앤그래픽스 CNG TV 지식방송 지상중계 K 스마트 공장의 꿈과 혁신의 미래 전망 61 캐드앤그래픽스 CNG TV 지식방송 지상중계 플랜트 조선 분야를 위한 AI와 디지털 트윈 혁신 전략은?   Column 62 3D 프린팅, 올해도 제조업에 변화의 바람 일으킬까 / 다니엘 톰슨 64 디지털 지식전문가 조형식의 지식마당 / 조형식 디지털 위기에서 디지털 기회로 66 현장에서 얻은 것 No.15 / 류용효 CES 2024에서 본 미래 : AI와 모빌리티의 새로운 지평   74 New Books 76 News   CADPIA   AEC 83 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 딥러닝 수치해석 데이터의 병렬처리를 지원하는 파이썬 넘바 라이브러리 88 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2024 (10) / 천벼리 사용자 정의 팔레트 Ⅱ 92 새로워진 캐디안 2024 살펴보기 (2) / 최영석 테이블 테두리 서식 지정 및 비주얼 스타일 탐색기 기능   Reverse Engineering 95 문화유산 분야의 이미지 데이터베이스와 활용 사례 (2) / 유우식 서화, 낙관, 탁본 데이터베이스   Analysis 102 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (6) / 나인플러스IT 대규모 와류 시뮬레이션에 유용한 피델리티 찰스 솔루션 106 앤시스 워크벤치를 활용한 해석 성공사례 / 최낙정 앤시스 스페오스를 활용한 라이트 가이드 설계와 해석 111 MBD의 이해와 기업 가치 향상을 위한 전략 (2) / 오재응 MBD의 성공 비결 및 향후 전망   Mechanical 118 제품 개발 혁신을 가속화하는 크레오 파라메트릭 10.0 (9) / 박수민 설계 탐색(DEX) 기능 활용하기 124 제조업 DX, 3D 데이터의 목표는? (2) / 아이지피넷 DX의 목표는 인간의 지식과 지혜를 디지털화하는 것     캐드앤그래픽스 2024년 2월호 목차 from 캐드앤그래픽스     캐드앤그래픽스 당월호 책자 구입하기   캐드앤그래픽스 당월호 PDF 구입하기
작성일 : 2024-01-30