• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "오픈소스"에 대한 통합 검색 내용이 655개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 LLM 모델을 사용하는 방법이 점차 간편해지고 있어 자체적으로 LLM을 구축해 챗봇, 전문가 시스템 등을 자신의 서버에서 제공하는 경우가 많아지고 있다. 이번 호에서는 GPU가 있는 PC에서 직접 실행해 볼 수 있도록, 로컬 호스트 LLM(대규모 언어 모델) 오픈소스 기반의 BIM 전문가 챗봇 서비스를 간단히 개발해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   이번 호에서는 기존의 BIM PDF 파일을 검색해 학습하고, LLM에 RAG(Retrieval-augmented generation) 증강 학습한 후, 이를 간단한 UI로 웹 서비스하는 과정을 간략히 따라해 본다. 이번 호의 내용은 로컬 LLM의 편한 개발을 지원하는 올라마(Ollama), LLM 프롬프트 엔지니어링 프레임워크인 랭체인(LangChain), 텍스트 임베딩 벡터 데이터베이스 크로마(Chroma), 손쉬운 웹 앱 개발 지원 도구인 스트림릿(Streamlit)을 사용한다. 이를 이용해 간단하게 BIM 전문 지식을 PDF로 학습한 챗봇을 개발한다.   그림 1. 로컬 호스트 LLM 챗봇 아키텍처   그림 2. 구현된 BIM 지식 챗봇 서비스   LLM에 관련된 깊은 내용은 다음의 링크를 참고한다. 이 글은 여러 참고 자료를 이용해 작성된 것이다. 상세 내용은 레퍼런스를 참고하기 바란다. Facebook LLAMA-2 paper : https://daddynkidsmakers.blogspot.com/2024/02/llama-2.html Facebook LLAMA-2 installation : https://daddynkidsmakers.blogspot.com/2023/09/llama2.html LLM은 빅테크 업체 간 경쟁이 심한 분야이다. 이와 관련해서 젬마(Gemma), MPT-7B과 같은 LLM 모델이 오픈소스로 공개되고 있어 선택지가 많아지고 있다. 이와 관련해서는 다음을 참고한다.  Google Gemma : https://github.com/google/gemma_pytorch Blooom : https://huggingface.co/bigscience/bloom   설치 설치를 위해서는 엔비디아 드라이버, CUDA, 텐서플로(TensorFlow), 파이토치(PyTorch) 등 기본 딥러닝 개발 환경이 설치되어 있어야 한다.(최소 구동을 위한 GPU RAM은 6GB이다.) TensorFlow 설치 : https://www.tensorflow.org/install/pip?hl=ko#windows-native_1 Start Locally | PyTorch 설치 : https://pytorch.org/get-started/locally/ 설치 순서는 다음과 같다.  1. 기본 패키지를 설치한다. LLM 모델 기반 서비스 개발 지원 라이브러리 랭체인, 웹 앱 UI 개발을 지원하는 스트림릿, 텍스트 임베딩 벡터 데이터베이스 크로마 DB 등을 설치한다. pip install langchain streamlit streamlit_chat pypdf fastembed chardet pip install chromadb==0.4.15   그림 3. 다양한 LLM 모델을 이용한 서비스 개발을 지원하는 랭체인 패키지   그림 4. 간단한 코드로 웹 앱 개발을 지원하는 UI 라이브러리 패키지 streamlit.io   혹은 pip와 유사한 패키지 설치 관리자인 poetry를 설치한 후, 다음 사용 패키지들을 pyproject.toml 이름으로 저장하고 설치한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01
CAD&Graphics 2024년 4월호 목차
  17 THEME. 플랜트·조선 산업 혁신을 위한 디지털화 전략   Part 1. 디지털 기술로 플랜트·조선 산업을 혁신하다 데이터 기반의 업무 혁신, 건설산업의 새로운 시작 클라우드 서비스를 통한 대내외 보안 환경 조성 경쟁력 있는 플랜트를 위한 설비 관리 전략 스마트 디지털 리얼리티와 스마트 야드형 공사 정보 디지털 백본 구축 해양의 미래 : 자율운항 선박의 혁신과 시뮬레이션의 중요성 디지털 전환 여정을 위한 3D CAD 기반 디지털 트윈 구축의 4단계   Part 2. 디지털 트윈의 구축과 활용을 위한 기술 디지털 트윈 가속화를 위한 3D 엔지니어링 데이터 경량 시각화 솔루션 3D 스캔 데이터를 효과적으로 분석하고 활용하는 방법 플랜트 BIM 배관 공사의 필수 아이템 Ez-ISO Strand7 R3 : 범용 유한요소 해석 프로그램   Infoworld   Column 55 책에서 얻은 것 No. 19 / 류용효 커넥팅 80 디지털 지식전문가 조형식의 지식마당 / 조형식 제조업 디지털 전환과 디지털 엔지니어링, 디지털 PLM   Case Study 58 해외 소장 문화재의 ‘디지털 귀향’ 프로젝트 언리얼 엔진과 에픽 에코시스템으로 이뤄낸 문화유산 디지털 경험 62 최신 렌더링 기능의 사용 돕는 URP 3D 샘플 고품질 그래픽스의 효율적인 제작 및 스케일링 방법 제시   Focus 64 지멘스 DISW, “솔리드 엣지로 지능형 제품 설계를 실현한다” 66 모두솔루션, 지스타캐드 시장 확대 및 파트너십 강화 전략 소개 68 슈나이더 일렉트릭, 데이터 플랫폼으로 EV 배터리 시장 공략 70 한국산업지능화협회, “산업 디지털 전환을 주도하기 위해 다방면의 활동 강화” 72 레노버, “클라우드부터 에지까지 폭넓은 AI 포트폴리오 제공” 74 생성형 AI와 협업 툴의 만남, ‘플로우 3.0’ AI Now   New Products 76 이달의 신제품   On Air 78 캐드앤그래픽스 CNG TV 지식방송 지상중계 SIMTOS 2024와 디지털 제조 혁신 트렌드   82 New Books 84 News   Directory 131 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 87 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기 94 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2024 (12) / 천벼리 아레스 커맨더의 사용자 인터페이스 108 새로워진 캐디안 2024 살펴보기 (4) / 최영석 구성선 및 자유선 기능 128 복잡한 모델에서 인사이트를 얻고 설계 의사결정을 돕는 직스캐드 (1) / 이소연 직스캐드 2024의 최신 기능 업데이트   Reverse Engineering 100 문화유산 분야의 이미지 데이터베이스와 활용 사례 (4) / 유우식 한지 데이터베이스   Mechanical 111 제품 개발 혁신을 가속화하는 크레오 파라메트릭 10.0 (11) / 김주현 매스캐드 프라임 9.0 사용하기 Ⅰ   Analysis 97 시뮤텐스 소프트웨어를 활용한 복합소재 해석 (1) / 씨투이에스코리아 복합소재 공정 전반의 가상 프로세스 체인 118 앤시스 워크벤치를 활용한 해석 성공사례 / 김선명 전기자동차용 헤어핀 모터 코일의 DfAM 및 금속 적층제조 프로세스 124 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (8) / 나인플러스IT CFD 시스템 설계 및 분석 가속화를 위한 밀레니엄 M1     캐드앤그래픽스 2024년 4월호 목차 from 캐드앤그래픽스  
작성일 : 2024-03-28
스노우플레이크, 미스트랄 AI와 협력해 5개 국어의 LLM 모델 지원
데이터 클라우드 기업 스노우플레이크가 프랑스의 AI 솔루션 제공업체 미스트랄 AI(Mistral AI)와 파트너십을 맺고, 플래그십 대규모 언어 모델(LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에 적용한다고 밝혔다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있다. 프랑스어, 영어, 독일어, 스페인어, 이탈리아어, 5개 언어 처리가 가능한데, 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(MMLU)’을 비교하는 과정에서 성능을 입증했다. 이와 함께, 미스트랄 AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈소스 모델 ‘믹스트랄(Mixtral) 8x7B’에 대한 엑세스 제공 및 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 미스트랄 AI에 대한 시리즈 A 투자 등도 이번 파트너십 발표에 포함됐다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이고, ‘믹스트랄 8x7B’는 여러 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다. 미스트랄 AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스이다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안, 개인 정보 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다.     스노우플레이크는 2023년 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한, 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 미스트랄 AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서, 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되면서, 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 미스트랄 AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크는 미스트랄 AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 되었다”면서, “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인 정보 보호는 강화하고 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. 미스트랄 AI의 아르튀르 멘슈(Arthur Mensch) CEO는 “미스트랄 AI는 전세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능, 고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”면서, “스노우플레이크 데이터 클라우드에서 미스트랄 AI의 모델을 활용함으로써, 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 전했다.
작성일 : 2024-03-11
[포커스] 오라클, 생성형 AI로 기업의 대규모 AI 도입과 활용 지원
클라우드 시장 후발주자로 나선 오라클이 혁신 기술을 선보이며 시장 공략에 나섰다. 한국오라클은 연례 콘퍼런스 행사인 ‘오라클 클라우드 서밋’을 1월 25일 그랜드 인터컨티넨탈 서울 파르나스 호텔에서 개최하고, 멀티 클라우드 시대를 맞아 오라클의 통합 클라우드 및 생성형 AI 전략을 소개했다. 이와 함께 자사의 사업 성과와 새롭게 출시된 생성형 AI(generative AI) 서비스에 대해서도 밝혔다. ■ 최경화 국장   ▲ 한국오라클 탐 송 회장   한국오라클 탐 송 회장은 ‘오라클 클라우드 서밋 2024’ 기자간담회에서 한국오라클의 사업 주요 성과에 대해 발표했다. 탐 송 회장은 “한국오라클의 클라우드 사업은 2023년 6월~11월 기준 3배 이상 성장하고 있는데, 기업의 데이터 기반 디지털 혁신을 위한 클라우드 전환 및 신규 확산 수요가 성장을 견인하고 있다. 주요 대기업의 미션 크리티컬 부문에서 클라우드 성과는 4배 수준으로 성장했고, 중견/중소기업 및 스타트업 부문에서도 클라우드 성과가 60% 이상 성장했다”면서,.이처럼 오라클 클라우드가 성장하고 있는 이유는 “싸고, 빠르고, 안전하기 때문”이라고 밝혔다.     오라클은 클라우드 후발 주자로 나선 만큼 가격과 함께 제품 경쟁력의 차별화를 내세우면서 시장을 공략하고 있다..올해 한국오라클은 데이터-AI 통합 솔루션 제공을 가속화하여 기업 주요 시스템의 클라우드 전환 조력 및 가치를 극대화해 나갈 계획이다. 또한 국내 중소/스타트업 기업을 위한 지원과 협력 활동을 지속하고, 새로운 리더십과 조직 강화로 성장 모멘텀 지속 확장 및 매출 성장을 달성한다는 계획이다.   OCI 생성형 AI 서비스 출시 오라클은 오라클 클라우드 인프라스트럭처(OCI)에 생성형 AI 서비스를 정식 출시한다고 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 한층 진보한 최신 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 새로운 혁신 기술을 선보인다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어(Cohere)의 대규모 언어 모델(LLM)과 메타(Meta)의 라마 2(Llama 2) LLM을 원활하게 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은 OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전(OCI Dedicated Region)을 통해 온프레미스 환경에서도 이용 가능하다.     생성형 AI 모델의 커스터마이징 간소화 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용 가능한 관리형 서비스 방식으로 제공한다. 또한 고객은 오라클의 강력한 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 또한 오라클의 검색 증강 생성(Retrieval Augmented Generation : RAG) 기술은 고객이 자체 데이터를 사용해 생성형 AI모델을 추가적으로 학습시킴으로써, 조직의 독특한 내부 운영 방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트(OCI Generative AI Agents) 서비스에는 RAG 에이전트가 포함돼 있다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치(OCI OpenSearch)를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 해당 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 향후 버전에서는 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색(AI Vector Search) 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어(Vector Store) 기능을 활용한 MySQL 히트웨이브(MySQL HeatWave)에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트(Oracle Fusion Cloud Applications Suite), 오라클 넷스위트(Oracle NetSuite)를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스(Oracle Health)를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다.     오라클의 솔루션 포트폴리오 전반에 걸쳐 내장되는 생성형 AI 오라클은 “선도적인 AI 인프라스트럭처 및 포괄적인 클라우드 애플리케이션 포트폴리오가 고객의 두터운 신뢰를 얻고 있다”고 밝히고 있다. 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 한편, 오라클은 고객이 허깅페이스(Hugging Face)의 트랜스포머(Transformers), 파이토치(PyTorch) 등의 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스(OCI Data Science)의 기능을 확장해 나가고 있다..2월에 베타 버전이 출시된 OCI 데이터 사이언스 AI 퀵 액션(OCI Data Science AI Quick Actions) 기능은 메타 또는 미스트랄 AI(Mistral AI) 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다.   오라클은 어떤 회사? 오라클은 1977년 래리 엘리슨이 봅 마이너, 에드 오츠와 함께 미국 국방부의 프로젝트에 관계형 데이터베이스 관리 시스템(Relational Database Management System)을 개발, 상용화한 것을 시작으로 설립돼, 전 세계 클라우드 및 IT 시장에서 활약하는 기업으로 자리잡았다. 지난 2009년 4월에는 썬마이크로시스템즈를 인수하면서 기업용 소프트웨어에서 하드웨어 인프라에 이르기까지 통합된 시스템을 제공할 수 있는 기업으로 탈바꿈했다. 특히, 오라클은 클라우드 영역에서 ERP(전사적자원관리), HCM(인적자본관리), CX(고객경험솔루션), SCM(공급망관리) 및 이와 연계된 퓨전 애널리틱스(Fusion Analytics) 등 클라우드 애플리케이션부터 서비스형 플랫폼(PaaS) 및 서비스형 인프라(IaaS)까지 광범위한 제품군을 미주, 유럽 및 아시아 전역의 44개 클라우드 리전에서 제공하고 있다. 오라클의 주요 사업 영역으로는 ▲오라클 DBMS 및 클라우드(PaaS/IaaS) ▲오라클 클라우드 애플리케이션(SaaS) ▲오라클 시스템(System) 등이 있다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-03-04
[넥스트폼 3월] 넥스트폼 3월 OpenFOAM / BARAM 사용자 교육 안내
              교육 소식 >             3월 OpenFOAM 사용자 교육 안내 >             3월 OpenFOAM 사용자 교육 안내 OpenFOAM에 관심은 있으나 첫 발을 내딛지 못한 고객 여러분께 도움을 드리고자 초보 사용자를 위한 예제 실습 위주의 교육을 진행합니다. OpenFOAM 소개, 사용방법 및 예제 실습을 통해 사용자의 OpenFOAM 숙련도를 높일 수 있도록 도와드립니다. 일정 : 3월 20일 ~ 22일 (링크)를 클릭하시면 3월 OpenFOAM 사용자 교육 내용을 확인하실 수 있습니다.                         3월 BARAM을 활용한 CFD 실전 교육 안내 >               BARAM을 활용한 CFD 실전 교육 CFD 기본 이론, 개념, 과정과 예제 실습을 하며 CFD를 처음 접하시는 분들의 이해를 도와드립니다. 실습은 공개소스 S/W인 BARAM을 사용하기 때문에 교육 후에도 제한 없이 사용할 수 있습니다. 일정 : 3월 28일 ~ 29일 (링크)를 클릭하시면 BARAM을 활용한 CFD 실전 교육 내용을 확인하실 수 있습니다.                         4월 HPC 교육 안내 >              CAE / AI 엔지니어를 위한 HPC 교육 4월 CAE / AI 엔지니어를 위한 HPC 교육을 안내드립니다. [HPC 환경에서 CFD 및 AI 학습 방법] / [HPC 구축 실습을 통해 HPC 개념 이해] / [최적 성능을 도출 방안 및 효율적인 HPC 관리 방안]의 내용으로 교육이 진행됩니. 일정 : 4월 24일 ~ 25일 (링크)를 클릭하시면 CAE / AI 엔지니어를 위한 HPC 교육 내용을 확인하실 수 있습니다.                           일반 소식 >             19th OpenFOAM WORKSHOP (OFW) >   19th OpenFOAM WORKSHOP OpenFOAM 유저들의 국제 워크샵인 19th OpenFOAM WORKSHOP (이하 OFW)가 중국 북경에서 개최됩니다. 지난 18th O.F.W.에 이어 이번 19th OFW에서도 OpenFOAM을 활용한 다양한 CFD 해석 사례들이 발표될 예정입니다. 여러분들의 많은 관심 부탁드리겠습니다. 장소 : 중국 베이징대학교 일정 : 6월 25일 ~ 6월 28일 사전 등록 기간 : ~4월 30일 (링크)를 클릭하시면 19th OFW에 대한 보다 자세한 안내를 확인할 수 있습니다.             WHAT IS OPENFOAM? OpenFOAM은 오픈소스 CFD 소프트웨어이다. GNU GPL 라이센스를 사용하고 있어 누구나 자유롭게 사용이 가능하며 수정 및 재배포를 할 수 있다.       WHAT IS MESHLESS CFD? 질점격자 기반의 CFD해석 기법으로 FVM해석 기법의 보존성을 갖추고 있으며 전처리 작업시간을 획기적으로 줄일 수 있습니다.FAMUS는 무격자 기법의 CFD 해석 SW 입니다.       WHAT IS BARAM SERIES? BARAM은 넥스트폼이 개발한 OpenFOAM CFD 해석 프로그램입니다. 넥스트폼이 개발한 OpenFOAM Solver와 Utility를 GUI 기반으로 사용이 가능합니다.           수신거부
작성일 : 2024-02-23
엔비디아, RTX 기반 원도우 AI PC에 맞춤형 챗봇 제공
엔비디아가 사용자만의 콘텐츠로 챗봇을 개인화할 수 있는 ‘챗 위드 RTX(Chat With RXT)’를 윈도우 PC에서 제공한다고 밝혔다. 챗 위드 RTX는 사용자가 자신만의 콘텐츠로 챗봇을 개인화할 수 있는 기술 데모이다. 최소 8GB의 비디오 랜덤 액세스 메모리 또는 VRAM을 갖춘 로컬 엔비디아 지포스 RTX 30(GeForce RTX 30) 시리즈 GPU 이상으로 가속되며, 현재 무료로 다운로드가 가능하다. 챗 위드 RTX는 검색 증강생성(RAG), 엔비디아 텐서RT-LLM(TensorRT-LLM) 소프트웨어, 엔비디아 RTX 가속화 등을 사용해 로컬 지포스 기반 윈도우 PC에 생성형 AI 기능을 제공한다. 사용자는 PC의 로컬 파일을 데이터셋으로 미스트랄(Mistral)이나 라마 2(Llama 2)와 같은 오픈소스 LLM(대규모 언어 모델)에 빠르고 쉽게 연결해 상황에 맞는 빠른 답변을 얻을 수 있다.     사용자들은 메모나 저장해둔 콘텐츠를 검색하는 대신 간단한 검색어를 입력해 챗봇을 이용할 수 있다. 예를 들어 “라스베가스에 있을 때 내 친구가 추천한 레스토랑이 어디야?”라고 질문하면, 챗 위드 RTX가 사용자가 지정한 로컬 파일을 스캔해 상황에 맞는 답변을 제공한다. 이 도구는 *.txt, *.pdf, *.doc/*.docx, *.xml 등 다양한 파일 형식을 지원한다. 애플리케이션에서 해당 형식의 파일들을 포함한 폴더를 가리키면, 이 파일들은 몇 초 만에 라이브러리에 로드된다. 사용자는 유튜브 동영상 혹은 재생 목록의 정보도 포함할 수 있다. 챗 위드 RTX에 동영상 URL을 추가하면 사용자는 해당 정보를 챗봇에 통합해 상황에 맞는 질문을 할 수 있다. 예를 들어, 좋아하는 인플루언서 동영상의 콘텐츠를 기반으로 여행 추천을 요청하거나, 우수한 교육 자료를 기반으로 빠른 튜토리얼과 사용법을 안내를 받을 수 있다. 챗 위드 RTX는 윈도우 RTX PC와 워크스테이션에서 로컬로 실행되므로 결과가 빠르게 제공되고, 사용자의 데이터는 디바이스에 그대로 유지된다. 또한, 클라우드 기반 LLM 서비스 대신 챗 위드 RTX를 사용하면 민감한 데이터를 제3자와 공유하거나 인터넷에 연결하지 않고도 처리할 수 있다. 챗 위드 RTX는 최소 8GB의 VRAM이 탑재된 지포스 RTX 30 시리즈 이상의 GPU와 윈도우 10, 11 그리고 최신 엔비디아 GPU 드라이버에서 사용 가능하다.
작성일 : 2024-02-14
엔비디아, 차세대 AI 디자인과 시각화를 위한 RTX 2000 에이다 제너레이션 GPU 출시
엔비디아가 차세대 AI 가속화 시대를 위한 엔비디아 RTX 2000 에이다 제너레이션 GPU(NVIDIA RTX 2000 Ada Generation GPU)를 출시했다고 밝혔다. 현재 산업 전반에 걸쳐 변화를 주도하고 있는 생성형 AI의 이점을 활용하기 위해 기업들은 워크플로를 작동시킬 수 있는 적절한 하드웨어를 선택해야 한다. 엔비디아 RTX 2000 에이다 제너레이션은 최신 AI, 그래픽, 컴퓨팅 기술을 컴팩트 워크스테이션에 적용해 전문가용 워크플로에서 이전 세대 RTX A2000 12GB 대비 최대 1.5배의 성능을 제공한다. 새로운 GPU는 정교한 3D 환경 제작부터 복잡한 설계 검토의 간소화, 산업 디자인에 이르기까지 다양한 기능을 처리할 수 있다. 향상된 기능은 전문가들이 성능의 저하 없이 더 많은 것을 실현할 수 있도록 지원하며 AI로 가속화된 미래를 위한 기반을 제공한다. AI 기반 도구, 멀티 디스플레이 설정, 고해상도 콘텐츠 등과 같은 최신 멀티 애플리케이션 워크플로에는 GPU 메모리에 대한 요구가 상당히 높다. 전문가들은 RTX 2000 에이다 제너레이션의 16GB 메모리를 통해 최신 기술과 도구를 활용해 데이터를 더욱 빠르고 효과적으로 작업할 수 있다. 엔비디아 RTX 기술로 구동되는 새로운 GPU는 엔비디아 DLSS를 통해 그래픽에 높은 사실감을 부여한다. 이를 통해, 이전보다 3배 이상 빠른 초고화질의 실사에 가까운 레이 트레이싱 이미지를 제공할 수 있다. 또한, RTX 2000 에이다 제너레이션은 제품 디자인과 엔지니어링 설계 검토와 같은 엔터프라이즈 가상 현실 워크플로에 몰입감 높은 경험을 제공한다.     성능과 활용성에 AI 기능까지 결합된 RTX 2000 에이다 제너레이션은 다양한 산업 분야의 전문가들이 효율성을 달성할 수 있도록 지원한다. 건축가와 도시 설계사는 시각화 워크플로와 구조 분석을 가속화해 설계 정밀도를 높일 수 있다. 산업용 PC를 사용하는 제품 디자이너와 엔지니어는 빠르고 사실적인 렌더링과 AI 기반 생성 디자인을 통해 제품 디자인의 반복 작업을 수행할 수 있다. 콘텐츠 크리에이터는 고해상도 동영상과 이미지를 원활하게 편집하고, AI를 활용한 사실적인 시각 효과를 연출해 콘텐츠 제작에 도움을 받을 수 있다. 아울러 중요한 임베디드 애플리케이션과 에지 컴퓨팅에서 RTX 2000 에이다 제너레이션은 의료 기기의 실시간 데이터 처리를 지원한다. 또한, 예측 유지보수를 통해 제조 공정을 최적화하거나 유통  환경에서 AI 기반 인텔리전스를 구현할 수 있다. 엔비디아 RTX 2000 에이다 제너레이션은 엔비디아 에이다 러브레이스(Lovelace) GPU 아키텍처의 최신 기술을 탑재하고 있다. 여기에는 ▲최대 1.7배 빠른 레이 트레이싱 성능으로 충실하고 사실적인 렌더링이 가능한 3세대 RT 코어 ▲이전 세대 대비 최대 1.8배의 AI 처리량, 구조화된 희소성, FP8 정밀도로 AI 가속 도구와 애플리케이션에 더 높은 추론 성능을 제공하는 4세대 텐서 코어 ▲이전 세대 대비 최대 1.5배의 FP32 처리량으로 그래픽과 컴퓨팅 워크로드의 성능이 향상된  쿠다(CUDA) 코어 ▲이전 세대와 동일한 70W의 전력으로 전문가용 그래픽, 렌더링, AI, 컴퓨팅 워크로드 전반에서 최대 2배의 성능 향상 ▲이전 세대 대비 가상 현실 워크플로 성능 최대 3배 향상 ▲더 큰 규모의 프로젝트를 처리할 수 있는 16GB의 GPU 메모리 및 오류 수정 코드 메모리 ▲AI 기반 그래픽을 개선하고 고품질 프레임을 추가로 생성해 성능을 높이는 DLSS 3 ▲AV1을 지원하며 H.264보다 효율을 40% 높인 8세대 엔비디아 인코더(NVENC) 등이 있다. 한편, 엔비디아는 RTX 엔터프라이즈 드라이버의 최신 업데이트에 그래픽 워크플로를 개선하는 다양한 기능과 함께 RTX 2000 에이다 지원을 포함한다고 밝혔다. 여기에는 ▲AI 기반의 표준 다이나믹 레인지(SDR)에서 하이 다이나믹 레인지(HDR)로 톤 매핑을 지원하는 비디오 트루HDR(Video TrueHDR) ▲엔비디아 GPU에서 최신 대규모 언어 모델(LLM)에 대한 추론 성능을 최적화하고 가속화하는 오픈소스 라이브러리인 텐서RT-LLM(TensorRT-LLM) ▲비트 심도 확장 기술과 새로운 저지연 B프레임을 통한 비디오 품질 개선과 비디오 코덱의 코딩 효율 향상 ▲더 빠른 작업 완료를 위해 실행 간접 확장 엔비디아 API를 사용해 CPU에서 GPU로 작업을 오프로드하는 기능 ▲데스크톱의 엔비디아 제어판(NV Control Panel)에서 GPU 일련 번호를 표시하는 기능 등이 있다. RTX 2000 에이다 제너레이션의 성능을 앞서 활용하고 있는 기업으로는 솔리드웍스(SOLIDWORKS) 애플리케이션을 보유한 다쏘시스템, 롭 월커스 디자인 앤 엔지니어링(Rob Wolkers Design and Engineering), WSP 등이 있다. 다쏘시스템이 2월 11일~14일 미국 댈러스에서 진행한 ‘3D익스피리언스 월드’에서는 엔비디아 RTX 2000 에이다로 구동되는 다쏘시스템 솔리드웍스 애플리케이션의 실시간 데모가 진행되기도 했다. 다쏘시스템 솔리드웍스 그래픽 애플리케이션 연구개발 책임자인 올리비에 제그던(Olivier Zegdoun)은 “고효율 차세대 아키텍처, 저전력 소비, 대용량 프레임 버퍼를 갖춘 새로운 엔비디아 RTX 2000 에이다는 솔리드웍스 사용자에게 큰 도움이 될 것이다. 이 제품은 디자이너와 엔지니어가 더 큰 데이터세트에서도 완전한 모델 충실도로 혁신적인 제품 경험을 빠르게 개발할 수 있도록 뛰어난 성능을 제공한다”고 말했다.  엔비디아 RTX 2000 에이다는 현재 애로우 일렉트로닉스(Arrow Electronics), 잉그램 마이크로(Ingram Micro), 리드텍(Leadtek), PNY, 료요 엘렉트로(Ryoyo Electro), TD시넥스(TD SYNNEX) 등 글로벌 유통 파트너를 통해 구매할 수 있다. 오는 4월부터는 델 테크놀로지스, HP, 레노버 등에서도 구매 가능하다.
작성일 : 2024-02-14
어도비, 애플 ‘비전 프로’에 어도비 크리에이티브 툴 및 파이어플라이 지원
  어도비가 ‘애플 비전 프로(Apple Vision Pro)’에 자사의 크리에이티브 및 생성형 AI 툴을 제공한다고 발표했다. 파이어플라이는 상업적 용도로 설계된 어도비의 크리에이티브 생성형 AI 모델군이다. 이를 통해 애플 비전 프로에서 어도비 파이어플라이의 ‘텍스트를 이미지로(text to image)’ 기능을 사용할 수 있게 됐다.  사용자는 비전 프로의 운영체제인 비전OS에 맞춤 설계된 경험을 통해 어도비 파이어플라이로 다양한 크리에이티브 비전을 구상하고 실현할 수 있다. ▲비전 프로의 가상 디스플레이에서 아트워크를 생성 및 렌더링해 콘텐츠 몰입감을 높이고 ▲이미지를 메인 앱 창 밖으로 드래그해 벽, 책상 및 주변에 위치한 실제 공간에 배치할 수 있다. 또한 ▲향후 사용자를 둘러 싼 파노라마 및 360도 환경 등을 생성할 수 있게 지원할 예정이다. 이외에도 ▲무료 오픈소스 기술인 ‘콘텐츠 자격 증명(content credentials)’이 비전 프로에서 어도비 파이어플라이로 제작한 모든 콘텐츠에 자동 첨부 및 내장돼, 콘텐츠와 데이터의 투명성을 보장한다. 한편, 비전 프로용 어도비 라이트룸은 몰입감 넘치는 사진 편집 환경을 제공해 더 큰 규모의 사진 편집과 섬세한 작업이 가능하며, 와이드 프레임 파노라마 이미지 및 영상을 경험할 수 있다. 어도비는 어도비 프레스코(Fresco) 및 비핸스(Behance)를 통해 더욱 새로운 크리에이티브 경험이 가능하며, 향후 다양한 기능이 추가될 예정이라고 밝혔다.
작성일 : 2024-02-05
알리바바 클라우드, 기업의 생성용 AI 활용 돕는 서버리스 솔루션 공개
  알리바바 클라우드가 개인과 기업에 모델 구축 및 추론(Inference)을 위한 비용 효율적인 솔루션을 제공하기 위해 설계된 PAI(Platform for AI)-EAS(Elastic Algorithm Service)의 서버리스 버전을 공개했다.  이번에 공개된 PAI-EAS 플랫폼은 사용자들이 필요에 따라 컴퓨팅 리소스를 활용하는 것을 가능하게 해 물리적 또는 가상 서버의 관리와 유지를 감독할 필요가 없어진다. 또한 사용한 컴퓨팅 자원에 대한 비용만 청구되므로 기존 요금 정책에 비해 추론 작업 비용을 50% 절감할 수 있다. 현재 베타 테스트 중인 이 서버리스 버전은 이미지 생성 모델 구축을 위해 사용될 수 있다. 이 버전은 2024년 3월 알리바바의 AI 모델 커뮤니티인 ModelScope의 유명 오픈소스 LLM과 모델들을 구축할 수 있도록 그 기능이 확장될 예정이다. 여기에는 이미지 분할, 요약 생성, 음성 인식과 같은 작업에 맞게 조정된 모델이 포함된다. LLM, 교육 서비스 및 벡터 엔진 기술을 보유한 알리바바 클라우드는 검색 증강 생성(RAG) 프로세스를 지원할 수 있으며, 기업들이 더 나은 결과를 얻기 위해 자사 지식 기반을 토대로 LLM을 강화하도록 돕는다. 이는 정확도 향상, 연관성 높은 정보의 검색 속도 가속화와 보다 세밀한 인사이트 제공을 가능하게 해 보다 많은 애플리케이션에 효율과 의사결정 역량을 강화해 준다. 알리바바 클라우드의 저우 징런(Zhou Jingren) CTO는 “알리바바 클라우드는 지속적으로 AI 및 클라우드 기술 혁신의 최전선에 서 있으며, 이번 기술 업데이트는 기업이 인텔리전스 기반의 최신 솔루션을 통해 효율과 성과를 향상하는 데 일조하고자 하는 우리의 노력을 잘 보여준다”면서, “이번 기술 향상은 다양한 애플리케이션 상에서 인공지능의 가능성을 재정의하는 혁신적인 솔루션을 제공하려는 알리바바 클라우드의 사명에서 중요한 진전을 이룬 것”이라고 전했다. 한편, 알리바바 클라우드는 지난 1월 31일 싱가포르에서 개최된 AI & 빅데이터 서밋에서 더 많은 자사 제품에 벡터 엔진(vector engine) 기술을 통합할 계획을 밝혔다. 벡터 엔진 기술이 통합되는 제품에는 데이터 웨어하우스 홀로그레스(Hologres), 검색 서비스 엘라스틱서치(Elasticsearch) 및 오픈서치(OpenSearch) 등이 있다. 이번 기술 통합은 기업이 다양한 대규모 언어 모델(LLM)에 더욱 쉽게 접근하고 맞춤형 생성형 AI 애플리케이션을 구축하는 것을 가능하게 한다.
작성일 : 2024-02-02