• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "텐서플로"에 대한 통합 검색 내용이 21개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
PyMAPDL의 기초부터 활용까지
앤시스 워크벤치를 활용한 해석 성공사례   파이앤시스(PyAnsys)는 파이썬(Python)을 활용하여 앤시스(Ansys) 제품을 사용할 수 있는 라이브러리를 뜻한다. 파이앤시스는 구조해석과 관련한 PyMAPDL, PyMechanical과 전처리 및 후처리에 대한 PyDPF가 있다. 이와 같은 라이브러리를 이용하면 파이썬 내에 있는 패키지와 함께 다양한 작업이 가능해진다. 이번 호에서는 파이앤시스 중에서도 PyMAPDL에 대한 사용 방법과 활용 예시를 소개하고자 한다.   ■ 노은솔 태성에스엔이 구조 3팀 매니저로 구조해석 및 자동화 프로그램에 대한 기술 지원을 담당하고 있다. 이메일 | esnoh@tsne.co.kr 홈페이지 | www.tsne.co.kr   앤시스에서 구조, 열, 음향 등 다양한 해석에 사용되는 유한요소 솔버 중 하나인 Mechanical APDL은 명령어를 기반으로 구동된다. 복잡한 연산이나 매개변수 설정 및 자동화 기능이 가능하기 때문에 여전히 많이 사용되고 있다. 하지만 앤시스 워크벤치(Ansys Workbench)의 제한적인 기능을 활용할 경우, 추가적으로 APDL 명령어를 사용해야 한다. 말하자면 APDL 명령어로 여러 기능을 구현할 수 있지만, 넓은 범위에서 적용하기에는 한계가 있는 것이다. 예로 머신러닝이나 딥러닝과 관련한 라이브러리인 텐서플로(TensorFlow)나 케라스(Keras) 등은 APDL 명령어 내에서는 사용할 수 없으며, 파이썬과 APDL 연동에도 한계가 있다.  이 때 PyMAPDL 라이브러리를 사용하면 파이썬 내에서 APDL을 사용하기 때문에 활용도가 넓어진다. 이번 호에서는 PyMAPDL의 사용 방법과 활용 예시를 다뤄보고자 한다.    PyMAPDL 사용 방법 PyMAPDL은 파이썬에서 사용될 때 gRPC(Google Remote Procedure Call)를 기반으로 파이썬 명령어를 APDL 명령어로 변환하여 MAPDL 인스턴스(Instance)에 전송하고, 결과를 파이썬으로 다시 반환한다. 이러한 작업 과정 때문에 파이썬과 MAPDL 간 원활한 데이터 통신이 가능해지며, 다수의 MAPDL 인스턴스를 생성하여 다른 명령으로 동시 작업 또한 가능하다.   그림 1. PyMAPDL gRPC   먼저 PyMAPDL을 사용하기 위해서 앤시스 메커니컬(Ansys Mechanical)이 설치되어 있어야 하며, 관련 라이선스를 보유하고 있어야 한다. 현재 파이앤시스 홈페이지에 따르면 파이썬 3.8 이상 버전을 지원하고 있으며, gRPC 기반으로 사용하기 위해서 앤시스 2021 R1 이상을 권장한다. 파이썬과 앤시스 모두 설치되어 있는 환경이라면 추가적으로 PyMAPDL 라이브러리를 설치해야 한다. 터미널 창에 ‘pip install ansys-mapdl-core’ 한 줄의 입력으로 쉽게 설치되며, 버전을 따로 지정하지 않을 경우 최신 버전으로 설치된다. PyMAPDL은 <그림 2>와 같이 ‘launch_mapdl’ 함수를 호출하여 사용한다. 이는 Mechanical APDL Product Launcher를 실행하는 것과 유사하다. 해당 함수를 활용할 때 입력 가능한 주요 인자들을 입력하여 작업 폴더 위치나 파일 이름, 계산 방식 및 라이선스 등을 지정할 수 있다.    그림 2. PyMAPDL 실행 명령어   기존에 APDL에서 육면체 형상을 모델링하여 요소를 생성하는 과정은 <그림 3>과 같이 작성되고, 동일한 작업을 PyMAPDL로는 <그림 4>와 같이 구성할 수 있다. 작성된 APDL과 PyMAPDL 명령어를 비교하면 형태가 매우 유사한 것을 볼 수 있다. 이 때 PyMAPDL은 파이썬에서 두 가지 방식으로 사용된다. 첫 번째는 ‘run’ 명령어를 활용하여 APDL 명령어를 스트링(string)으로 입력해 직접 실행하는 방법이며, 두 번째는 파이썬 명령어로 변환해서 처리하는 방법이다.   그림 3. MAPDL 모델링 및 요소 생성 예시   그림 4. PyMAPDL 모델링 및 요소 생성 예시     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-05-02
로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 LLM 모델을 사용하는 방법이 점차 간편해지고 있어 자체적으로 LLM을 구축해 챗봇, 전문가 시스템 등을 자신의 서버에서 제공하는 경우가 많아지고 있다. 이번 호에서는 GPU가 있는 PC에서 직접 실행해 볼 수 있도록, 로컬 호스트 LLM(대규모 언어 모델) 오픈소스 기반의 BIM 전문가 챗봇 서비스를 간단히 개발해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   이번 호에서는 기존의 BIM PDF 파일을 검색해 학습하고, LLM에 RAG(Retrieval-augmented generation) 증강 학습한 후, 이를 간단한 UI로 웹 서비스하는 과정을 간략히 따라해 본다. 이번 호의 내용은 로컬 LLM의 편한 개발을 지원하는 올라마(Ollama), LLM 프롬프트 엔지니어링 프레임워크인 랭체인(LangChain), 텍스트 임베딩 벡터 데이터베이스 크로마(Chroma), 손쉬운 웹 앱 개발 지원 도구인 스트림릿(Streamlit)을 사용한다. 이를 이용해 간단하게 BIM 전문 지식을 PDF로 학습한 챗봇을 개발한다.   그림 1. 로컬 호스트 LLM 챗봇 아키텍처   그림 2. 구현된 BIM 지식 챗봇 서비스   LLM에 관련된 깊은 내용은 다음의 링크를 참고한다. 이 글은 여러 참고 자료를 이용해 작성된 것이다. 상세 내용은 레퍼런스를 참고하기 바란다. Facebook LLAMA-2 paper : https://daddynkidsmakers.blogspot.com/2024/02/llama-2.html Facebook LLAMA-2 installation : https://daddynkidsmakers.blogspot.com/2023/09/llama2.html LLM은 빅테크 업체 간 경쟁이 심한 분야이다. 이와 관련해서 젬마(Gemma), MPT-7B과 같은 LLM 모델이 오픈소스로 공개되고 있어 선택지가 많아지고 있다. 이와 관련해서는 다음을 참고한다.  Google Gemma : https://github.com/google/gemma_pytorch Blooom : https://huggingface.co/bigscience/bloom   설치 설치를 위해서는 엔비디아 드라이버, CUDA, 텐서플로(TensorFlow), 파이토치(PyTorch) 등 기본 딥러닝 개발 환경이 설치되어 있어야 한다.(최소 구동을 위한 GPU RAM은 6GB이다.) TensorFlow 설치 : https://www.tensorflow.org/install/pip?hl=ko#windows-native_1 Start Locally | PyTorch 설치 : https://pytorch.org/get-started/locally/ 설치 순서는 다음과 같다.  1. 기본 패키지를 설치한다. LLM 모델 기반 서비스 개발 지원 라이브러리 랭체인, 웹 앱 UI 개발을 지원하는 스트림릿, 텍스트 임베딩 벡터 데이터베이스 크로마 DB 등을 설치한다. pip install langchain streamlit streamlit_chat pypdf fastembed chardet pip install chromadb==0.4.15   그림 3. 다양한 LLM 모델을 이용한 서비스 개발을 지원하는 랭체인 패키지   그림 4. 간단한 코드로 웹 앱 개발을 지원하는 UI 라이브러리 패키지 streamlit.io   혹은 pip와 유사한 패키지 설치 관리자인 poetry를 설치한 후, 다음 사용 패키지들을 pyproject.toml 이름으로 저장하고 설치한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01
인텔, 알테라를 FPGA 기업으로 독립
인텔은 지난 2015년 인수한 FPGA(프로그래밍이 기능한 반도체) 기업 알테라(Altera)를 다시 신생 기업으로 분사한다고 발표했다.  알테라의 확장된 포트폴리오와 로드맵은 클라우드, 네트워크, 에지 전반을 공략할 FPGA 시장의 성장에 더 효과적으로 대응할 수 있으며, 쿼터스 프라임(Quartus Prime) 소프트웨어와 도입하기 쉬운 AI 역량 향상을 통해 빠르게 성장하는 애플리케이션 분야를 공략할 수 있도록 지원한다. 인공지능(AI)의 등장은 모든 산업 전반에 걸쳐 새로운 복잡성과 기회를 창출하고 있다. 알테라는 텐서플로(TensorFlow), 파이토치(Pytorch) 등의 표준 프레임워크를 기반으로 최적화된 지적재산(IP)를 생성하는 FPGA AI 스위트 및 오픈비노(OpenVINO)를 통해 이러한 기회를 활용하고 있다. 알테라의 FPGA는 중요 AI 추론 기능의 원활한 통합 등 변화하는 시장 요구 사항에 더 효과적으로 대응하고 PCI 익스프레스(PCI Express), CXL, 이더넷, 6G 무선 등의 진화하는 표준을 더 적절히 활용하는 유연한 솔루션을 제공한다. 알테라의 솔루션은 네트워킹 및 통신 인프라부터 저전력 임베디드 응용 분야에 이르기까지 광범위한 시장과 사용 사례에 맞춰 최적화되었다. 알테라는 다양한 고객 요구 사항을 충족하는 새로운 제품과 서비스도 발표했다. 여기에는 ▲고대역폭 혼합 신호 FPGA가 필요한 레이더 및 군용 항공우주 분야에 적합한 고속의 데이터 변환기를 제공하는 애질렉스 9(Agilex 9) ▲와트당 패브릭 성능이 높아 데이터센터, 네트워킹, 방위 산업과 같은 고대역 컴퓨팅에 적합한  애질렉스 7(Agilex 7) F 시리즈 및 I 시리즈 디바이스 ▲AI가 탑재된 FPGA 패브릭으로 높은 성능과 와트당 성능을 제공하며 임베디드 및 에지 분야에 적합한 애질렉스 5(Agilex 5) 등이 있다. 또한, 곧 공개 예정인 애질렉스 3(Agilex 3)는 복잡성이 낮은 기능에 높은 저전력 FPGA 라인을 제공할 예정이며 클라우드, 통신 및 지능형 에지 분야에 적합하다.     한편, FPGA 비전 웹캐스트에서 알테라의 샌드라 리베라(Sandra Rivera) CEO와 섀넌 폴린(Shannon Poulin) 최고운영책임자(COO)는 550억 달러 이상 시장 기회에서 리더십을 확보할 수 있는 전략을 공개했다. 핵심은 패브릭에 AI가 내장된 FPGA를 비롯해 기업 포트폴리오를 확장하고, 증가하는 고객 문제를 해결하도록 지원하겠다는 것이다.    샌드라 리베라 CEO는 “고객들이 점점 더 복잡해지는 기술 과제에 대응하며 경쟁사와 차별화를 이루고 가치 창출 시간을 단축하고자 노력함에 따라 FPGA 시장이 재활성화할 기회가 생겼다”면서, “통신, 클라우드, 데이터센터, 임베디드, 산업, 자동차, 군용 항공기 시장 등 광범위한 응용 분야에 걸쳐 프로그래밍 가능한 솔루션과 활용 가능한 AI 기술을 제공하기 위해 대담하고 민첩하며 고객 중심적인 접근 방식을 취함으로써 FPGA 시장을 선도하겠다”고 밝혔다.
작성일 : 2024-03-04
Arm, 업계 리더와 협력해 미래 AI 기반 구축 추진
Arm은 AI(인공지능) 혁신을 촉진하고 AI 기반 경험을 현실화하기 위해 다양한 새로운 전략적 파트너십에 참여하고 있다고 소개했다. AI의 확산은 하드웨어와 소프트웨어 혁신 간의 지속적인 조율에 달려 있다. 이러한 결합은 에지에서 워크로드를 실행하는 작은 센서부터 대형 언어 모델(LLM) 학습을 위해 복잡한 워크로드를 처리하는 가장 큰 서버에 이르기까지 모든 기술의 접점에서 AI 기능을 향상시킨다. 에코시스템이 AI의 진정한 잠재력을 실현하기 위해 움직임에 따라 보안, 지속 가능성, 데이터 한계 등이 모두 어려운 과제가 될 것으로 보인다. 이에 따라 Arm은 에지에서 더 많은 추론을 포함하여 대규모로 AI를 구현할 수 있도록 업계 전반의 협업을 지속적으로 모색하는 것이 중요하다고 보고 있다.  Arm은 이미 개발이 진행되고 있는 자체 기술 플랫폼 외에도 AMD, 인텔, 메타, 마이크로소프트, 엔비디아, 퀄컴 테크놀로지 등 선도적인 기술 기업과 협력하여 보다 반응이 빠르고 안전한 사용자 경험을 위한 고급 AI 기능을 구현하는 데 중점을 둔 다양한 이니셔티브를 진행하고 있다. 이러한 파트너십은 컴퓨팅의 모든 영역에서 차세대 AI 경험을 제공하기 위해 1500만 명 이상의 Arm 개발자들에게 필요한 기본 프레임워크, 기술 및 사양을 제공하게 된다. Arm은 수년 동안 에지에서 AI를 제공하는 데 주력해 왔다. Arm에 따르면, 스마트폰 분야에서 서드파티 AI 애플리케이션의 70%가 Arm CPU에서 실행되고 있다. 그러나 지속 가능한 방식으로 AI를 제공하고 데이터를 효율적으로 이동하는 방법을 모색함에 따라 업계는 에지에서 AI 및 머신러닝(ML) 모델을 실행하도록 발전해야 한다. 한편, 개발자는 점점 더 제한된 컴퓨팅 리소스로 작업하고 있기 때문에 이는 어려운 과제다. Arm은 엔비디아와 협력하여 Ethos-U NPU용 로코드 오픈소스 AI 툴킷인 TAO를 적용하고 있으며, 이는 프로세서에 배포할 목적으로 성능에 최적화된 비전 AI 모델을 생성할 수 있도록 지원한다. 엔비디아 TAO는 대표적인 무료 오픈소스 AI 및 ML 프레임워크인 텐서플로(TensorFlow)와 파이토치(PyTorch)를 기반으로 구축에 사용하기 쉬운 인터페이스를 제공한다. 개발자에게 이는 모델을 쉽고 원활하게 개발 및 배포하는 동시에 더 복잡한 AI 워크로드를 에지 디바이스로 가져와 향상된 AI 기반 경험을 제공할 수 있음을 의미한다. AI의 지속적인 성장에 있어 중요한 측면은 에지에서의 뉴럴 네트워크 배포를 발전시키는 것이다. Arm과 메타는 ExecuTorch를 통해 에지에 있는 Arm 기반 모바일 및 임베디드 플랫폼에 파이토치를 제공하기 위해 노력하고 있다. 개발자는 ExecuTorch를 사용하여 모바일 및 에지 디바이스 전반에서 고급 AI 및 ML 워크로드에 필요한 최첨단 뉴럴 네트워크를 훨씬 더 쉽게 배포할 수 있다. 앞으로 Arm과 메타의 협력을 통해 파이토치 및 ExecuTorch를 활용하여 AI와 ML 모델을 쉽게 개발하고 배포할 수 있다. 메타와의 협력은 Arm이 이미 AI 및 ML 가속기를 위한 공통 프레임워크를 제공하고 딥 뉴럴 네트워크에서 사용되는 광범위한 워크로드를 지원하는 Tensor Operator Set Architecture(TOSA)에 투자한 상당한 성과를 기반으로 한다. TOSA는 Arm 아키텍처에 구축된 다양한 프로세서와 수십억 개의 디바이스를 위한 AI 및 ML의 초석이 될 것이다. 한편 Arm은 상대적으로 저렴한 비용으로 AI를 확장할 수 있도록, AI 워크로드에 초점을 맞춘 다양한 새로운 소형 데이터 유형을 지원하기 위해 노력해왔다. Arm, 인텔, 엔비디아는 2022년 공동 협력을 통해 새로운 8비트 부동소수점 사양인 ‘FP8’을 발표했다. 이후 해당 사양은 탄력을 받으며 AMD, Arm, 구글, 인텔, 메타, 엔비디아로 참여 기업 그룹이 확대되었으며, 함께 공식 OCP 8비트 부동소수점 사양(OFP8)을 개발했다. Arm은 최신 A-프로파일 아키텍처 업데이트에서 이 표준에 부합하는 OFP8을 추가하여 업계 전반의 뉴럴 네트워크에 OFP8이 빠르게 채택될 수 있도록 지원했다. OFP8은 소프트웨어 에코시스템에서 뉴럴 네트워크 모델을 쉽게 공유할 수 있도록 하는 8비트 데이터 형식으로, 수십억 개의 디바이스에서 AI 컴퓨팅 기능을 지속적으로 발전시킬 수 있도록 지원한다. 개방형 표준은 AI 에코시스템에서 혁신, 일관성 및 상호 운용성을 촉진하는 데 매우 중요하다. 이러한 표준에 대한 업계의 협력을 지속적으로 지원하기 위해 Arm은 최근 AMD, Arm, 인텔, 메타, 마이크로소프트, 엔비디아 및 퀄컴 테크놀로지가 포함된 Microscaling Formats(MX) 얼라이언스에 가입했다. MX 얼라이언스는 최근 수년간의 설계 공간 탐색 및 연구를 기반으로 마이크로스케일링으로 알려진 새로운 기술 사양을 공동 개발했으며, 이는 AI 애플리케이션의 소형 비트(8비트 및 8비트 미만) 훈련 및 추론을 위한 세분화된 확장 방식이다. 이 사양은 이러한 소형 비트 데이터 형식을 표준화하여 업계 전반의 단편화를 제거하고 확장 가능한 AI를 구현한다. MX 얼라이언스는 협업의 정신으로 하이퍼스케일 데이터 센터 운영자 및 기타 컴퓨팅 인프라 업계 관계자들로 구성된 오픈 컴퓨트 프로젝트를 통해 라이선스 없는 개방형 MX 사양을 공개하여 업계의 광범위한 채택을 장려했다. 이는 에코시스템 전반에서 확장 가능한 AI 솔루션에 대한 공평한 액세스를 제공해야 할 필요성을 인식한 결과다.
작성일 : 2023-11-16
도커 기반의 손쉬운 딥러닝을 위한 텐서플로, 파이토치 설치와 사용기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 많은 오픈소스 프로젝트 및 서비스에 사용되는 실행 이미지 가상화 컨테이너인 도커(Docker)를 이용해, 설정이 까다로운 딥러닝 프레임워크(Framework)인 텐서플로(Tensorflow), 파이토치(PyTorch)를 설치하고 사용하는 방법을 공유한다.   강태욱 | 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 Engineering digest와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | http://www.facebook.com/laputa999 홈페이지 | https://sites.google.com/site/bimprinciple  팟캐스트 | http://www.facebook.com/groups/digestpodcast     도커는 2013년 3월 열린 파이콘(Pycon) 콘퍼런스(미국 샌타클래라)에서 닷클라우드(dotCloud) 창업자인 솔로몬 하익스(Solomon Hykes)가 리눅스 컨테이너의 미래라는 세션을 발표하면서 처음 알려졌다. 이후 도커는 급성장해 2015년 4월 1100억원의 투자유치를 받았으며, 마이크로소프트가 2016년 6월 400억 달러에 도커를 인수하려 했다. 도커는 컨테이너 기반 오픈소스 가상화 플랫폼이다. 실행 중인 컨테이너에 접속해 명령을 실행하고, apt-get으로 패키지를 설치할 수 있다. 여러 프로세스를 백그라운드로 실행할 수 있다. 이미지는 컨테이너 실행에 필요한 파일과 설정 값을 포함하고 있다. 컨테이너는 이미지를 실행한 상태이다. 예를 들어, 우분투 이미지는 우분투 실행을 위한 모든 파일을 가지고 있다. 도커 이미지는 Docker hub(도커 허브)에 등록되거나 Docker Registry(도커 레지스트리) 저장소를 만들어 관리할 수 있다. 현재 공개된 도커 이미지는 50만개 이상이며, 도커 기반 오픈소스 프로젝트는 10만개가 넘는다.   그림 1   이미지는 url 방식으로 관리하고, 태그를 붙일 수 있다. 도커는 이미지를 만들기 위해 Dockerfile(도커파일)이란 DSL(domain specific language)를 이용해 이미지 생성과정을 기술한다. 도커 명령어는 직관적이며, http기반의 REST API도 지원해 확장성이 좋다. 도커는 가상머신에 비해 사용이 쉽고 성능이 좋으나 한계가 있다. 운영체제의 라이브러리 및 시스템을 재활용하므로, 이에 의존해 동작한다. 만약, 운영체제의 드라이버 설정에 GPU 설치가 안되어 있다면 도커 이미지도 이와 관련된 라이브러리를 사용하지 못할 것이다. 이는 성능은 느리나 운영체제 독립적인 가상머신과는 크게 다른 점이다. 여기서는 리눅스 오픈소스 운영체제인 우분투(Ubuntu) 20.04, 도커, CUDA(쿠다) 11.0 기반의 NVIDIA-DOCKER(엔비디아-도커)를 사용한다. NVIDIA-DOCKER를 이용하면 딥러닝 프레임워크 설치 시 많은 문제를 일으키는 패키지 의존 에러 없이, 미리 설치된 딥러닝 관련 패키지를 이용해 편리하게 딥러닝 모델을 개발할 수 있다. 또한 아마존, 구글과 같이 비싼 기계학습 딥러닝용 클라우드를 사용하지 않고도 직접 여러사람이 네트워크로 접속할 수 있는 서버를 개발할 수 있다.   그림 2. NVIDIA DOCKER 아키텍처 구조  
작성일 : 2022-06-02
CAD&Graphics 2022년 6월호 목차
  17 Theme. 스마트 제조를 위한 CAM 소프트웨어 트렌드   가공부터 검증까지, 스마트 제조를 위한 CAM의 역할 확대 / 박재형, 김성근 디지털 제조를 실현하는 통합 CAM 소프트웨어가 떠오른다 / 김택민 설계와 생산을 잇는 디지털 트윈으로 제조 프로세스 개선 / 시엠시엔지니어링 에스포트 한국지점 데이터 기반의 스마트 제조를 위한 소프트웨어 기술 / 양승일   Infoworld   New Product 27 설계/제조/해석 소프트웨어 통합 플랫폼으로 발돋움 ZW3D 2023 30 워크플로와 렌더링 기능 향상 및 플랫폼 지원 개선 Unity 2021 LTS 32 3D 모델링 작업시간을 줄이는 최적의 워크플로 제공 SketchUp 2022 60 이달의 신제품   Focus 35 유니티 웨이브 2022, 메타버스·디지털 트윈 등 미래 핵심 기술 공유 38 빌드스마트 포럼 2022, 디지털화에 의한 건설 프로세스의 변화와 발전 방향 짚다 40 AWS, “아이디어를 현실로 만드는 클라우드 인프라의 시대가 왔다” 43 한국오라클, “기업별 환경에 최적화된 클라우드 전략 제공할 것”   Case Study 46 삼우이머션의 VARLOS 항만 모니터링 시스템 언리얼 엔진으로 디지털 트윈 제작해 효율적 항만 물류 관리 시스템 구축   People&Company 50 로티파일즈 다니엘 니스따우스 수석 디자이너 모션 및 애니메이션 워크플로 간소화로 모션 그래픽의 새로운 패러다임 제시하다   Column 53 트렌드에서 얻은 것 No.11 / 류용효 MBSE의 모든 것 56 디지털 지식전문가 조형식의 지식마당 / 조형식 메타버스 X, Metaverse of Everything   On-Air 59 캐드앤그래픽스 CNG TV 지식방송 지상중계     클라우드 기반의 CAD/CAM 소프트웨어 공개 /  디지털 트윈과 APM을 통한 운영 혁신 전략 짚다   62 New Books 64 News   Directory 115 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 69 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 도커 기반의 손쉬운 딥러닝을 위한 텐서플로, 파이토치 설치와 사용기 74 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2023 (1) / 천벼리 신기능 및 개선사항 78 신속한 도면 설계가 가능한 캐디안 마스터 2021A (2) / 최영석 치수 구속 기능   Mechanical 81 스마트 모빌리티 섀시 설계하기 (6) / 김인규 프런트 서스펜션 시스템 Ⅰ 94 미래 지향적인 설계로 제품 혁신을 가속화하는 크레오 8.0 (13) / 박수민 FMX를 활용하여 이기종 CAD 데이터를 편집하기   Reverse Engineering 86 우리의 감각과 인공적 감각(센서) (6) / 유우식 미각, 무미   Analysis 100 선형 문제 해결을 위한 ROM 생성 도구 / 김도현 Model Reduction inside Ansys의 소개와 활용 104 시뮬리아 아바쿠스와 아이사이트를 활용한 배터리 시뮬레이션 / 강주연, 임영빈 전기자동차 배터리 셀 구조해석용 등가물성 도출   Cloud Computing 108 AWS 클라우드 환경의 가상 서버, Amazon EC2 인스턴스 (3) / 조상만 AWS 환경에서는 어떤 타입의 가상 서버가 존재하는가?    
작성일 : 2022-05-31
엔비디아, 애저에서 구동되는 GPU 가속 슈퍼컴퓨터 공개
엔비디아가 마이크로소프트의 클라우드 컴퓨팅 플랫폼 애저(Azure)에서 구동되는 새로운 GPU 가속 슈퍼컴퓨터를 공개했다. 까다로운 인공지능(AI) 및 고성능 컴퓨팅(HPC) 애플리케이션을 처리하도록 설계된 애저의 새로운 NDv2 인스턴스는 단일 멜라녹스 인피니밴드(Mellanox InfiniBand) 백엔드 네트워크에서 상호 연결된 최대 800개의 엔비디아 V100 텐서 코어(Tensor Core) GPU를 제공한다.   ▲ 엔비디아의 V100 텐서 코어 GPU   복잡한 AI, 머신러닝 및 HPC 워크로드에 적합한 새로운 제품은 기존 CPU 기반 컴퓨팅과 비교해 성능과 비용 모든 측면에서 이점을 제공한다. 빠른 성능을 제공하는 솔루션이 필요한 AI 연구진은 여러 NDv2 인스턴스를 신속하게 스핀업(spin up)하고 복잡한 대화형 AI 모델을 단 몇 시간 만에 교육할 수 있다. 마이크로소프트와 엔비디아의 엔지니어들은 시험판 버전의 클러스터에서 64개의 NDv2 인스턴스를 사용하여 구글의 AI 언어모델인 버트(BERT)를 약 3 시간 만에 훈련시켰다. 여기에는 NCCL, 엔비디아 쿠다 X(CUDA X) 라이브러리, 그리고 고속 멜라녹스 인터커넥트에서 제공되는 다중 GPU 최적화가 활용됐다.  엔비디아의 이안 벅(Ian Buck) 가속 컴퓨팅 담당 부사장 겸 총괄은 “지금까지 AI와 HPC를 위해 슈퍼컴퓨터를 이용할 수 있는 기회는 주로 세계 최대 규모의 기업 및 기관에 국한됐다. 마이크로소프트 애저의 새로운 제품은 AI를 민주화시켜, 세계가 직면한 주요 도전과제들의 일부를 해결하는데 필요한 툴을 폭넓게 이용할 수 있도록 한다”고 설명했다. 마이크로소프트의 기리시 바블라니(Girish Bablani) 애저 컴퓨트 담당 부사장은 “클라우드 컴퓨팅이 전세계 모든 업계에 걸쳐 도입이 가속화되면서 고객들은 보다 강력한 서비스를 요구하고 있다. 마이크로소프트는 엔비디아와 협력해 고객들로 하여금 이전에는 상상할 수 없었던 수준의 슈퍼컴퓨팅 파워에 즉각적으로 액세스할 수 있도록 함으로써, 새로운 혁신의 시대를 열고 있다”고 밝혔다. 고객들은 또한 여러 NDv2 인스턴스를 사용하여 LAMMPS와 같은 복잡한 HPC 워크로드를 실행할 때에도 이점을 얻을 수 있다. LAMMPS는 약물 개발 및 발견과 같은 영역에서 원자 규모로 물질을 시뮬레이션하는데 사용되는 분자 역학 애플리케이션이다. 단일 NDv2 인스턴스는 딥 러닝과 같은 특정 유형의 애플리케이션에 GPU 가속없이 기존 HPC 노드보다 훨씬 빠른 결과를 제공할 수 있다. 이 같은 성능은 대규모 시뮬레이션을 위해 백 개의 인스턴스로 선형적으로 확장할 수 있다. 모든 NDv2 인스턴스는 GPU에 최적화된 HPC 애플리케이션, 머신러닝 소프트웨어, 그리고 엔비디아 NGC 컨테이너 레지스트리 및 애저 마켓플레이스에서 이용가능한 텐서플로(TensorFlow), 파이토치(PyTorch), MxNet 등과 같은 딥 러닝 프레임워크의 지원을 받는다. 이 레지스트리는 또한 쿠버네티스(Kubernetes) 클러스터에 AI 소프트웨어를 쉽게 배포할 수 있는 헬름(Helm) 차트를 제공한다. NDv2는 8개의 엔비디아 V100 GPU를 사용하는 하나의 인스턴스를 클러스터링하여 다양한 워크로드 수요에 맞게 확장할 수 있으며, 현재 프리뷰 버전으로 이용 가능하다. 
작성일 : 2019-11-19
케라스와 코랩을 활용한 간단한 딥러닝 모델 훈련, 모델 저장 및 재사용
BIM 칼럼니스트 강태욱의 이슈 & 토크   해외 건설분야에서는 딥러닝과 같은 인공지능 기술 기반 스타트업이 큰 투자를 받고 있다. 이번 호에서는 딥러닝 환경을 쉽게 구축해 학습할 수 있는 방법을 소개한다.   ■ 강태욱 | 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 Engineering digest와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://sites.google.com/site/bimprinciple 팟캐스트 | http://www.facebook.com/groups/digestpodcast   딥러닝 개발은 코딩보다는 딥러닝 환경 설과 데이터 구축에 많은 노력이 들어간다. 예를 들어 딥러닝 환경설정은 무한 삽질로 빠지는 경우가 있다. 우분투, 텐서플로(Tensorflow), 케라스(Keras) 등의 설정은 GPU와 궁합이 잘 맞지 않을 경우 우분투부터 여러 번 설치해야 할 수 있다. 딥러닝 학습 모델에 필요한 데이터 세트를 모으고 라벨링하는 작업은 정말 피곤한 일이다. 이후 라벨링된 데이터 세트를 얻은 후에도 딥러닝 모델 학습에 맞게 구조화하는 작업도 귀찮은 것이다. 케라스는 이러한 일을 단순화시켜주는 기능을 제공한다. 이번 호에서는 딥러닝 환경으로 구글의 코랩(CoLab)을 사용한다. 케라스의 ImageDataGenerator는 수집한 데이터 파일들을 폴더에 <그림 1>과 같이 넣어 두면, 폴더명을 라벨로 사용해 각 데이터 파일에 라벨링을 자동으로 처리한다. 이를 이용하면 라벨링하는 노력을 아낄 수 있다.   trainset/cats          /dogs testset/cats          /dogs     이번 호에서는 다음과 같은 CNN(Convolutional Neural Network) 모델을 학습할 때 좀 더 손쉬운 학습 데이터를 준비, 훈련, 저장 및 재사용 방법을 간략히 정리한다.   그림 1. CNN Deep Learning Model(Convolutional Neural Networks with Data Augmentation using Keras, kaggle)   이 글에서는 데이터 준비 및 훈련 방법에만 초점을 맞추기 위해 Cat, Dog 이미지 데이터를 사용한다. 딥러닝 도구는 케라스의 CNN을 사용할 것이다.   1. 데이터 준비 우선 다음 압축파일을 다운로드 받는다. 이 파일 안에는 구글에서 얻은 고양이와 개 이미지 파일들을 훈련용 8000개, 테스트용 2000개를 가지고 있다. ■ CNN 소스코드 및 데이터 : https://sds-platform-private.s3-us-east-2.amazonaws.com/uploads/P14-Convolutional-Neural-Networks.zip   코랩 서버에 훈련 데이터 세트를 업로드하기 위해, 압축파일을 풀고 dataset 폴더를 별도 zip 파일으로 압축한다. 참고로, 이 데이터 세트 구조는 <그림 2>와 같다.   그림 2. 딥러닝 데이터 세트 구조
작성일 : 2019-09-02
도커 기반 케라스 딥러닝 환경 구축 및 비정형 데이터 예측
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 간단하게 머신러닝 플랫폼을 컴퓨터에 구축하는 방법을 설명한다. 굳이 복잡한 머신러닝 패키지와 운영체제를 설정하는 작업 없이 미리 만들어 놓은 가상머신 이미지를 설치하는 식으로 우리는 머신러닝 플랫폼을 얻을 수 있다. 이번 호에서는 이미지를 관리하고 가상화시키는 도커(Docker)를 이용한다. 도커는 가상화될 이미지를 만들고 실행할 수 있는 컨테이너이다. 여기서 이미 만들어 놓은 머신러닝 이미지를 다운로드하여 머신러닝 플랫폼을 구축한다. 이후 도커를 기반으로 케라스(Keras)를 이용한 LSTM(Long Short-term Memory)을 코딩해 보고 비정형 데이터 예측 방법을 익힌다.   ■ 강태욱 | 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 Engineering digest와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://sites.google.com/site/bimprinciple 팟캐스트 | http://www.facebook.com/groups/digestpodcast   머신러닝(기계학습)의 하나인 딥러닝은 이제 모든 산업에 필수적인 기술로 활용되고 있다. 최근 정부는 다른 산업분야에 비해 뒤쳐져 있는 건설기술 경쟁력을 확보하고자 스마트 건설 로드맵을 추진하고 있다. 이 로드맵은 인공지능 기술과 BIM을 포함하고 있다. 이런 접근이 성공하기 위해서는 건설 분야의 비정형 데이터를 BIM과 같이 정형화해 머신러닝 기술과 연계하는 일은 필수적일 것이다. 이번 호에서는 간단하게 머신러닝 플랫폼을 컴퓨터에 구축하는 방법을 설명한다. 굳이 복잡한 머신러닝 패키지와 운영체제를 설정하는 작업 없이 미리 만들어 놓은 가상머신 이미지를 설치하는 식으로 우리는 머신러닝 플랫폼을 얻을 수 있다. 이 글은 이미지를 관리하고 가상화시키는 도커를 이용한다. 도커는 가상화될 이미지를 만들고, 실행할 수 있는 컨테이너이다. 여기서 이미 만들어 놓은 머신러닝 이미지를 다운로드하여 머신러닝 플랫폼을 구축한다. 이후 도커를 기반으로 케라스를 이용한 LSTM(long short-term memory)을 코딩해 보고 비정형 데이터 예측 방법을 익힌다. 텐서플로, 케라스를 사용하는 방법은 크게 다음과 같다. ① 우분투 리눅스, 텐서플로 및 케라스 설치 ② 아나콘다 설치 후 텐서플로 및 케라스 설치 ③ AWS(Amazon Web Services)같은 클라우드 기반 텐서플로, 케라스 사용   각각이 장단점이 있다. 우선, ①, ②번 같은 경우는 직접 본인 컴퓨터에서 설치부터 시작해 사용까지 경험해본다는 측면에서 공부하기 좋으나, 수많은 관련 라이브러리 버전의 의존성을 맞춰주고 하나가 업데이트되면 다른 라이브러리 의존성이 깨져 재설치를 해야 하는 등 번거로움이 많다. ③번 같은 경우에는 클라우드 제공사이트에 회원가입 후 몇몇 설정만 해주면 쉽게 사용할 수 있으나, 중요한 부분은 업체에서 대신 해주기 때문에 깊은 부분까지 학습하기 어렵고 사용량이 많아지면 업체에 돈을 내야 한다. 딥러닝 라이브러리 사용 편의성과 과금을 피해가는 방법 중 하나가 이번 호에서 제안하는 도커를 이용한 딥러닝 라이브러리 사용 방법이다. 도커는 사전 설치된 이미지가 있으면 다운로드 받아 컨테이너에 실행하면 되므로 라이브러리 종속성 문제나 과금에 자유롭다. 다만 수많은 이미지 중 안정적인 버전을 찾기가 쉽지 않은 문제가 있다. 이 글에서는 Kitematic(카이트매틱)이란 도구를 사용해 딥러닝 라이브러리 설치된 이미지를 검색하고, 이를 사용해 LSTM을 실행해 보도록 하겠다.
작성일 : 2019-07-30
루시드웍스, 인공지능/머신러닝으로 기업 데이터의 검색과 활용 돕는다
루시드웍스가 국내 지사를 설립하고 데이터 검색/인텔리전스 분야에서 진일보한 기술을 선보이겠다고 밝혔다. 지난 4월 9일 기자간담회에서 루시드웍스의 공동창업자인 그랜트 잉거솔 CTO는 “루시드웍스는 기업이 가지는 데이터 액세스, 데이터 상호작용, 데이터를 통한 학습 등에 관한 도전과제를 해결하면서 가치를 창출해 왔다”고 소개했다. 2007년 샌프란시스코에서 설립한 루시드웍스는 인공지능과 머신러닝을 활용한 기업용 검색 솔루션을 개발/공급하는 회사이다. 가트너 매직 쿼드런트에서 인사이트 엔진 부문의 리더로 선정되는 등 성장을 지속했고, 올해 한국과 싱가포르 지사 설립 등 아태지역 비즈니스 확대를 모색하고 있다. 루시드웍스는 검색 결과의 관련성을 확보하고, 문서 등 다양한 콘텐츠에서 데이터를 활용하며, 사이트 검색 등 온라인 리테일 서비스를 향상시키는 것과 관련해 데이터에 대한 이해 및 인텔리전스를 강화하는 기술을 제공한다. 루시드웍스가 주력하고 있는 분야는 ▲프리/포스트 세일즈 관련 고객 참여 개선 및 고객과 연계 확대 ▲디지털 혁신을 위해 더 나은 데이터로 더 나은 의사결정 지원 ▲고객이 가진 데이터/콘텐츠의 캡처 및 사용자 패턴 분석 등이다. 이러한 영역에서 데이터의 수집과 분석 역량을 제공하는 것이 루시드웍스 퓨전(Lucidworks Fusion)이다.     루시드웍스 퓨전은 퓨전 앱 스튜디오(Fusion App Studio), 퓨전 서버(Fusion Server), 퓨전 AI(Fusion AI)로 구성된다. 퓨전 앱 스튜디오는 UI 개발자가 데이터 중심의 애플리케이션을 구축할 수 있는 라이브러리의 역할을 한다. 검색 박스와 리포트 등 공통 기능은 OOTB로 구현하며, 몽고DB, 카산드라, 오라클, 구글 검색 등 외부 DB 솔루션과도 상호작용이 가능하다. 퓨전 서버는 앱을 확장/보완하고 프로그래머의 복잡한 작업을 대신 수행하는 기반을 제공한다. 데이터베이스인 아파치 솔라와 오프라인 분석 및 머신러닝을 위한 아파치 스파크(Apache Spark) 등 두 개의 오픈소스 프로젝트에 바탕을 두고 있으며, 설계 시부터 확장성을 고려해 대규모 데이터와 사용자를 지원할 수 있다. 퓨전 AI는 데이터에 대한 이해를 강화하고 앱의 결과를 자동으로 지속 개선하는데 인공지능을 활용할 수 있도록 한다. 텐서플로(TensorFlow), NLTK(Natural Language Toolkit), 파이썬(Python) 기반 데이터 과학 툴 등 다양한 오픈소스 머신러닝 라이브러리를 지원한다. 잉거솔 CTO는 제조산업에서도 다양한 엔지니어링 문서의 데이터를 추출하고 활용할 수 있다고 밝혔다. 또한, 농기계 관련 기업에서 서비스, 설계 관련 문서, 파트너 관계 문서 등을 검색엔진에 올려서 검색결과를 개선한 사례를 소개했다.  루시드웍스의 우디 권 한국지사장은 “지난 1월 투비소프트와 전략적 파트너십을 시작으로 기업용 애플리케이션 전문 파트너를 모집하고 국내 비즈니스를 본격 시작했다. 한국시장에 진출한 직후 디지털 커머스와 엔터프라이즈 검색을 중심으로 국내 고객을 빠르게 확보하고 있으며, 마켓컬리가 첫 번째 국내 고객사이다. 한국에 제품을 공급하고 커스터마이제이션/언어 현지화 등도 파트너사와 함께 진행할 계획이며, 솔루션 공급 외에도 오픈소스 커뮤니티 행사 및 커뮤니티 활성화도 지속할 것”이라고 밝혔다.
작성일 : 2019-05-07