• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "오픈소스"에 대한 통합 검색 내용이 660개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
레드햇-퀄컴, 소프트웨어 정의 차량의 혁신 가속화 위한 비전 제시
레드햇과 퀄컴테크놀로지는 기술 협력을 통해 소프트웨어 정의 차량(SDV)의 가상 테스트와 배포를 위한 플랫폼을 제공한다고 발표했다. 이 플랫폼은 ‘레드햇 차량용 운영체제(Red Hat In-Vehicle Operating System)’를 기반으로 한다. 양사는 이번 협력을 통해 마이크로서비스 기반 ADAS(Advanced Driver Assistance Systems : 첨단 운전자 지원 시스템) 애플리케이션의 엔드 투 엔드 개발과 배포를 통해 SDV를 가속화할 수 있는 방법을 제시할 예정이다. 퀄컴의 스냅드래곤 라이드 플렉스(Snapdragon Ride Flex) SoC(System on Chip)와 레드햇 차량용 운영체제를 기반으로 하는 이 플랫폼은 자동차 제조업체가 클라우드에서 기능을 개발하고 이러한 컨테이너 네이티브 워크로드 및 애플리케이션을 테스트 시설이나 차량에 배포할 수 있게 하는 것을 목표로 한다. 레드햇과 퀄컴은 자동차 테스트와 혁신에 대한 접근 방식을 쇄신하기 위해 SDV와 클라우드로 전환하는 추세가 이어지는 것으로 보고 있다. 자동차 제조업체는 클라우드 네이티브 워크로드를 통해 확장 가능한 온디맨드 컴퓨팅 리소스의 성능을 활용해 인공지능(AI) 모델과 소프트웨어 업데이트를 포괄적으로 테스트할 수 있다. 그리고 무선으로 차량 소프트웨어를 업데이트(OTA : Over-The-Air)함으로써 고객에게 새로운 기능과 향상된 성능, 강화된 안전성 등을 더 원활히 제공하고 차량을 기술 혁신의 속도에 발맞춰 유지할 수 있다. 이러한 접근 방식은 개발 프로세스를 간소화할 뿐만 아니라 자동차 제조업체가 진화하는 소비자 요구에 더욱 신속히 대응해 자동차 산업을 지속적으로 개선하고 혁신할 수 있도록 지원한다. 레드햇과 퀄컴은 이번 협력이 SDV를 성공적으로 실현하는데 있어 중요한 역할을 할 것으로 기대하고 있다. 양사의 협력을 통해 자동차 제조업체는 소프트웨어 수정 사항과 신기능, 수익 창출 서비스를 차량에 배포하기에 앞서 프로토타입을 클라우드 상에서 더 잘 제작할 수 있게 될 예정이다. 또한, 소프트웨어 업데이트를 공장의 테스트 랩 또는 운행 중인 차량에 직접 배포할 수 있어 시스템 테스트를 개선하고 비용과 출시 시간을 줄일 수 있다. 예를 들어, 자동차 제조업체는 퀄컴의 AI 기술과 스냅드래곤 라이드 플렉스 SoC를 사용하여 소프트웨어 수정 사항, SDV용 신기능 및 수익 창출 서비스의 개발과 배포를 가속화할 수 있다. 우선 인클라우드 에뮬레이션 구성을 통해 AI 객체 감지 모델의 프로토타입을 제작하고 검증할 수 있다. 그런 다음 이를 클라우드 환경에서 테스트하고 개선함으로써 차량에 배포하기 전에 정확성과 효율성을 확인할 수 있다. 이 모든 과정은 개방형 표준 기반 플랫폼인 레드햇 차량용 운영체제를 통해 이루어지므로, 고객은 모바일 장치에서 애플리케이션이나 소프트웨어를 업그레이드하는 것과 동일한 방식으로 차량을 업데이트할 수 있다. 레드햇은 자동차 산업 전반에 걸쳐 SDV을 위한 오픈소스 솔루션을 제공하기 위해 딜로이트(Deloitte), 이타스(ETAS), 제너럴모터스 등 기업과 협력하고 있다고 전했다.
작성일 : 2024-05-13
NEXTFOAM 5, 6월 교육 일정 안내
              교육 소식 >             5월 OpenFOAM 사용자 교육 >             OpenFOAM 사용자 교육 5월 OpenFOAM 사용자 교육에 대해 안내드립니다. OpenFOAM에 관심은 있으나 첫 발을 내딛지 못한 고객 여러분께 도움을 드리고자 초보 사용자를 위한 예제 실습 위주의 교육을 진행합니다. OpenFOAM 소개, 사용 방법 및 예제 실습을 통해 사용자의 OpenFOAM 숙련도를 높일 수 있도록 도와드립니다. 일정 : 5월 22일 ~ 5월 24일 (링크)를 클릭하시면 5월 OpenFOAM 사용자 교육에 대해 더욱 자세하게 확인할 수 있습니다.                                   5월 OpenFOAM 코드 개발자 교육 >             OpenFOAM 코드 개발자 교육 5월 OpenFOAM 코드 개발자 교육에 대해 안내드립니다. OpenFOAM을 이용하여 사용자 요구에 맞는 customized solver를 만들고자 하시는 여러분께 도움을 드리고자 OpenFOAM solver를 직접 modify하는 방법에 대해 교육을 진행합니다. OpenFOAm compile 사용법 및 High Level 프로그래밍, 경계조건 라이브러리 만들기 실습 등을 통해 직접 코드를 수정 및 compile 하는 시간을 가집니다. 일정 : 5월 29일 ~ 5월 31일 (링크)를 클릭하시면 5월 OpenFOAM 코드 개발자 교육에 대해 더욱 자세하게 확인할 수 있습니다.             6월 BARAM을 활용한 CFD 실전 교육 >             BARAM을 활용한 CFD 실전 교육 6월 BARAM을 활용한 CFD 실전 교육에 대해 안내드립니다. CFD 기본 이론, 개념, 과정 설명과 예제 실습을 통해 CFD를 처음 접하시는 분들의 이해를 도와드립니다. 실습은 공개소스 S/W인 BARAM을 사용하므로 교육 후에도 제한 없이 사용하실 수 있습니다. 일정 : 6월 27일 ~ 6월 28일 (링크)를 클릭하시면 5월 OpenFOAM 코드 개발자 교육에 대해 더욱 자세하게 확인할 수 있습니다.             일반 소식 >             19th OFW (OpenFOAM Workshop) >              6월 25일 ~ 6월 28일, 3박 4일 동안 중국 베이징 대학교에서 19th OFW가 개최됩니다. 사전 등록 기간은 5월 15일까지입니다. OFW는 OpenFOAM을 활용한 다양한 해외 연구개발 사례를 쉽게 접할 수 있는 기회이며, OpenFOAM 관련 행사 중 가장 큰 국제 행사입니다. 관심있으신 OpenFOAM 사용자 분들의 많은 참가 부탁드립니다.                         2024년도 한국전산유체공학회 춘계학술대회 >              2024년도 한국전산유체공학회 춘계학술대회가 5월 29일 (수) ~ 5월 31일 (금), 2박 3일 동안 소노캄 제주에서 개최됩니다. 이번 행사에서는 탄소 중립을 위한 조선 공학분야에서 CFD 연구 사례, 파이썬 병렬프로그래밍의 단기강좌도 진행됩니다. 관심 있으신 분들의 많은 참여 바랍니다.             WHAT IS OPENFOAM? OpenFOAM은 오픈소스 CFD 소프트웨어이다. GNU GPL 라이센스를 사용하고 있어 누구나 자유롭게 사용이 가능하며 수정 및 재배포를 할 수 있다.       WHAT IS MESHLESS CFD? 질점격자 기반의 CFD해석 기법으로 FVM해석 기법의 보존성을 갖추고 있으며 전처리 작업시간을 획기적으로 줄일 수 있습니다.FAMUS는 무격자 기법의 CFD 해석 SW 입니다.       WHAT IS BARAM? BARAM은 넥스트폼이 개발한 OpenFOAM CFD 해석 프로그램입니다. 넥스트폼이 개발한 OpenFOAM Solver와 Utility를 GUI 기반으로 사용이 가능합니다.           수신거부
작성일 : 2024-05-07
[포커스] 오라클, 모던 데이터 플랫폼 및 데이터베이스 혁신 전략 발표
한국오라클이 지난 4월 16일 ‘모던 데이터 플랫폼 및 데이터베이스 혁신 전략’을 주제로 기자간담회를 열고, 융합형 데이터베이스(Converged DB)를 중심으로 한 오라클의 포괄적인 기업 데이터 관리 기술의 현재와 미래에 대해 소개했다.  ■ 박경수 기자   기자간담회에는 ‘DB의 아버지’라 불리는 오라클의 앤디 멘델손(Andy Mendelsohn) DB 서버 기술개발사업부 총괄 부사장이 참석해 ‘데이터, AI 및 앱 개발의 미래’를 주제로 발표하고, 오라클 DB 솔루션이 향후 AI 시대를 주도할 데이터 플랫폼의 미래 시장에서 어떤 가치를 갖고 있는지 설명했다.   오라클 모던 데이터 플랫폼 오라클 모던 데이터 플랫폼(Oracle Modern Data Platform)은 전체 라이프사이클을 간소화하고 더 빠른 속도로 통찰력을 제공한다는 점이 특징이다. 단일 플랫폼 상에서 모든 트랜잭션, 웨어하우스, 분석 및 인공지능(AI)/머신러닝(ML) 자산에 대한 수집, 선별(curation) 및 관리를 통해 기업이 데이터에 대한 더 큰 통제 권한을 얻을 수 있다. 오라클은 온프레미스, 하이브리드, 규제, 퍼블릭 클라우드 솔루션 등 원하는 형식이 무엇이든 지원할 수 있다고 강조했다. 모던 데이터 플랫폼은 기업 조직에 데이터 저장, 처리 및 분석을 위한 통합 환경을 제공하는 중앙 집중형 인프라로, 일반적으로 데이터 웨어하우스, 데이터 레이크, 추출, 변환, 로드(ETL) 파이프라인 및 분석 도구 등의 기술들을 포함하고 있다.  모던 데이터 플랫폼은 표준화 및 통합된 데이터 관리 접근방식을 확립해 기업 조직이 귀중한 통찰력을 얻고, 데이터 기반 의사결정을 내릴 수 있도록 하는 지원하는 것을 주된 목표로 삼는다. 단일 통합 저장소에서 데이터 자산을 중앙 집중형으로 관리해 데이터에 대한 더 쉬운 액세스, 협업 및 통제를 가능케 한다.   ▲ 오라클 모던 데이터 플랫폼 기자간담회 모습   융합형 데이터베이스 중심의 기업 데이터관리 앤디 멘델손 부사장은 “오라클의 데이터베이스 비전은 기업 앱 및 분석 개발 운영을 어떠한 활용 사례 및 규모에서든 수월하게 만드는 것”이라며, “전략적 핵심은 기업의 개발뿐만 아니라, 생성형 AI 및 LLM 결합을 통해 생성까지 쉽게 만드는 것”이라고 말했다. 이러한 비전 달성을 지원하는 두 가지 핵심 축은 ‘융합형 DB’ 및 ‘자율운영 DB’이다. 오라클의 융합형 DB는 23c 버전을 클라우드 환경으로 정식 출시됐고, 곧 사내구축형 환경으로도 출시될 예정이다. 멘델손 부사장은 오라클이 2023년 9월에 발표한 차세대 융합형 DB인 오라클 DB 23c가 기존 관계형 모델과 JSON 및 그래프 모델 간의 통합을 구현하는 혁신을 이뤘다고 소개했다. 또한 최근의 앱은 관계형뿐만 아니라 JSON, 그래프 등 다양한 데이터 유형이 혼합 운영되는 가운데, 개발자는 오라클 DB 23c를 통해 3가지 유형의 데이터 장점을 모두 활용하는 앱을 개발, 운영하고 있으며 그 과정에서 데이터의 일관성을 손쉽게 유지할 수 있다고 설명했다. 융합형 DB는 멀티 모델, 멀티 테넌트 및 멀티 워크로드 DB로, 각 개발팀이 원하는 데이터 모델과 액세스 방법을 지원하면서 불필요한 기능으로 방해받지 않도록 한다. 또한 각 개발 팀이 필요로 하는 모든 워크로드(OLTP, 분석, IoT 등)를 탁월한 성능으로 지원한다.  한편 오라클은 지난해 9월 오라클 데이터베이스23c(Oracle Database 23c)에 AI 벡터를 사용하는 시맨틱 검색 기능을 추가할 계획이라고 발표했다. AI 벡터 검색(AI Vector Search)이라는 기능 모음에는 새로운 벡터 데이터 유형, 벡터 인덱스, 벡터 검색 SQL 연산자 등이 포함되어 있다.   ▲ 오라클의 앤디 멘델손 DB 서버 기술개발사업부 총괄 부사장   생성형 AI 기술과 데이터베이스 접목 멘델손 부사장은 또 오라클 DB 비전과 관련해 생성형 AI를 접목한 융합형 DB(Converged Database)와 이를 구동하는 자율운영 DB(Oracle Autonomous Database)를 통해 모던 앱 및 분석을 생성 및 운영하는 작업이 간소화될 것이라고 강조했다. 이를 통해 융합 개방형 SQL DB가 기존 단일목적 상용 DB를 대체함으로써, 기업 개발자와 IT 전문가가 데이터 통합 시간을 줄이고 혁신에 더 집중하도록 돕는다는 전략이다. 오라클은 생성형 AI 기능을 자사 DB 포트폴리오에 내장하고 있는데, 기업이 오라클의 AI 기반 애플리케이션을 구축하도록 지원하기 위함이다. 대표적인 예로, 기업은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 또한 오라클은 OCI 데이터 사이언스(OCI Data Science)의 기능도 확장하고 있으며, 이를 통해 기업이 허깅페이스(Hugging Face)의 트랜스포머(Transformers) 또는 파이토치(PyTorch)와 같은 오픈소스 라이브러리를 사용해 복수의 LLM을 구축, 훈련, 배포 및 관리하도록 지원한다.   ▲ 차세대 융합형 데이터베이스, 오라클 DB 23c   오라클 글로벌 분산형 자율운영 데이터베이스 오라클 글로벌 분산형 자율운영 데이터베이스(Oracle Globally Distributed Autonomous Database)는 기업이 데이터 레지던시 요건을 충족시키고, 비즈니스 크리티컬 애플리케이션에 생존성을 제공하며, 클라우드급 DB 성능을 제공하도록 지원하는 완전 자동화된 분산형 클라우드 DB다.  또한 Oracle DB 샤드 세트로 분산된 단일 논리적 오라클 DB로, 각 샤드는 논리적 DB 데이터의 하위 집합을 호스팅하는 독립적인 오라클 DB 인스턴스다. 다수 샤드를 하나의 OCI 가용성 도메인, 여러 OCI 가용성 도메인 또는 리전, 또는 상이한 지역의 OCI 리전에서 실행해 각각 성능 극대화, 최상의 가용성 확보 및 데이터 레지던시 요건을 지원할 수 있다. 이 밖에도 기업의 핵심 워크로드 구동에 최적화된 고성능 및 고안정성을 제공하는 동시에, 데이터 주권 및 보안 강화를 지원하는 오라클의 서비스로는 오라클 융합형 DB(Oracle Converged Database), 오라클 자율운영 DB(Oracle Autonomous Database), 오라클 엑사데이터 클라우드앳커스터머(Oracle Exadata Cloud@Customer), MySQL 히트웨이브(MySQL HeatWave) 등이 있다. 또한 오라클은 기업 요구사항을 충족시킬 수 있는 DB 및 분석 서비스에 지속적으로 투자하고 있다.   멀티 클라우드 지원 오라클의 또 다른 전략적 핵심은 '멀티 클라우드 지원'이다. 오라클과 마이크로소프트는 주로 애저(Azure) 클라우드 이용 약정 계약을 맺고 있다. 애저 환경에서 자사의 앱 및 오라클 DB를 함께 운영하길 원하는 양사 고객들을 위해 ‘오라클 데이터베이스앳애저(Oracle Database@Azure)’를 발표했다.  해당 오퍼링은 물리적인 엑사데이터(Exadata) 하드웨어를 애저 클라우드 리전 안에 위치시켜 애저 클라우드 데이터 센터 안에서 바로 엑사데이터 기반 클라우드 서비스를 제공하는 변화를 선보였다. 이를 통해 양사 고객들은 기존 애저 클라우드 서비스에 대한 이용 약정 계약 금액만으로 애저 클라우드 및 오라클 데이터베이스 클라우드 서비스를 모두 사용할 수 있게 됐다. 향후 오라클은 MS 외에도 타 클라우드 기업들과 파트너십 확대를 전략적 목표로 삼고 있으며, 올해 오라클 클라우드 월드에서 관련 내용을 소개할 예정이다.  이번 기자간담회를 통해 오라클은 오라클 DB에 많은 양의 비즈니스 데이터를 보유한 기업들이 강력한 AI 기술 및 SQL을 손쉽게 활용해 간단한 방식으로 데이터 검색을 지원하는데 초점을 맞추고 있다는 것을 알 수 있다. 이를 통해 기업은 내부 독점 데이터를 더 잘 활용하는 것은 물론 이해할 수 있게 될 것으로 전망하고 있다. 또한 표준 SQL 기반으로 제공되는 AI 기술이기 때문에 컴퓨터 공학 부문에서 높은 학위가 없다고 하더라도 SQL을 이용할 수 있는 모든 DBA(데이터베이스 관리자)가 활용할 수 있다는 점도 특징이다.    질의 응답 Q. 오라클 DB의 자연어 질문 및 답변 지원 기능과 관련해, 이를 일반적 챗GPT와 비교 시, 기업 내 환경에서는 일반 사용자들이 경험하는 환각현상 같은 것들이 허용되지 않고 정확해야 하는데 이에 대한 관점은 A. 회사 내 데이터에 대해 LLM 기반 검색은 말씀하신 그런 LLM 모델로는 좋은 답을 제공할 수 없다. 말씀한 모델은 인터넷에 공개된 방대한 데이터에 대해 훈련됐지만, 기업 보유의 프라이빗 데이터에 대해서는 전혀 알지 못하기 때문이다. 비즈니스적인 질문을 비즈니스 데이터에 대해 할 경우에 자연어로 질문을 할 때 LLM이 올바른 SQL 질문을 만들 수 있도록 도울 수 있는 데이터 강화가 필요하다. 그래서 사용자의 질문의 맥락에 따라서 가장 적절하다고 생각되는 데이터베이스 스키마를 생성 및 제공해야 한다.  이에 오라클은 LLM이 SQL 생성 후 적절한 오라클 데이터베이스에 있는 스키마만 참조할 수 있도록 하며, 인터넷 공개 데이터로 답변하지 않도록 한다. 애널리스트들이 자주 묻는 질문을 알고 있기 때문에, 이것을 기반으로 관계형 뷰를 만들어서 여기서 가장 자주 묻는 질문에 해당하는 스키마 생성 및 이를 LLM에 전송해서 기업 맥락에 맞는 답변할 수 있도록 보완한다.    Q. 자율운영 DB 개념과 다른 리전에서 고가용성 및 레지던스 확보를 지원하는 기능에 대해 설명해 달라 A. 글로벌 분산형 자율운영 DB는 전 세계적으로 각국 정부가 데이터 주권 규제 강화하고 있는 추세를 지원하고자 출시했다. 예를 들어 현대기아자동차 같이 글로벌하게 운영하는 기업은 전 세계 고객에 대한 DB를 갖고 있다. 데이터 주권 규제로 인해 고객 DB를 국가별로 분산해서 나눠서 관리해야 하는 의무가 있다. 하나의 단일한 고객 DB를 통합해서 관리할 수 없고, 중국, EU 등으로 나눠서 관리해야 하며 이것을 데이터베이스 샤딩이라는 용어로 표현하고 있다. 그래서 23c에서 글로벌 샤딩을 쉽게 만드는 기술을 포함하고 있다.   Q. 파운데이션 LLM 사업을 직접 하지 않는 이유와 최근에 등장하는 경쟁력 있는 MS 오픈 AI, 구글 제미나이 등에 모델을 올리기 어려운 점에 대한 관점은 A. 챗GPT 같은 파운데이션 LLM 모델 개발 구축에 많은 비용이 들며, 시장의 무료 모델을 쓸 수 있기 때문이다. 또한 셀렉트 AI 등 오라클이 AI로 LLM 활용을 지원하는 기술들 중 좋은 API로 연결해 시중의 인기 있는 널리 사용되고 있는 LLM 모델과 잘 연동되고 지원하도록 기술을 고도화하고 있다. 오라클 클라우드 관점에서 오픈AI 등 LLM 벤더와 파트너십을 맺어서 오라클 클라우드를 사용하도록 움직이고 있다. 말하자면 프라이빗 LLM 만들 수 있도록 지원하는 것이다. 현재 AI 커뮤니티에서 굉장히 많은 개발 움직임이 있는데, 그 중 하나가 업무별로 특화된 LLM을 만드는 것이다. 이 경우 운영 비용이 굉장히 저렴해질텐데, 예를 들면 SQL 생성에 특화된 LLM 만든다고 했을 때, 이런 쪽과 협력해서 특화된 기술을 저렴한 비용으로 사용할 수 있도록 하는 협력을 진행하고 있다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[넥스트폼] BARAM v24.1.3 Release
              SW 소식 >             BARAM v24.1.0 공개 >             BARAM v24.1.0이 공개되었습니다. BARAM v24.1.0에는 밀도 기반 압축성 솔버와 Batch Process 등 다양한 기능이 포함되어 있습니다. (링크)를 누르시면 BARAM v24.1.0 안내 페이지로 이동합니다.  이외에도 baramFlow tutorials 6개, baramMesh tutorials 1개가 추가되었습니다. (링크)에서 확인해주세요.             baramFlow New Features 밀도 기반 압축성 솔버 및 Far-field Riemann 경계 조건 추가 (TSLAeroFoam) User Parameters 기능 추가 Batch Process 기능 추가 User Parameters를 조합하여 순서대로 계산 실행 가능 격자 정보 확인 기능 추가 (격자 갯수, 해석 영역 크기, 최대/최소 격자 체적) baramFlow Improvement Realizable k-ε 모델의 벽함수 개선 정상 상태 계산을 비정상 상태 계산의 초기값으로 사용하는 기능 추가 cell zone source term에 단위 표시 계산 종료 시, 종료 팝업 창 띄우는 기능 추가 특정 경계면은 이름에 따라 경계 조건 자동 부여 다상 유동의 정상 상태 계산 시 maximum Courant number 설정 가능             baramMesh New Features snap 단계에서 Implicit Feature Snapping 지원 baramMesh Improvement 형상 이름의 공백에 _ (underscore) 자동 추가 Region 단계에서 고체 영역만 설정하도록 기능 개선                                     BARAM ARM 64 버전 Azure Marketplace 공개 >              Azure Marketplace에서 사용할 수 있는 BARAM CFD Package가 공개되었습니다. 이제 고사양의 HPC (High Performance Computing) 없이도 BARAM을 이용하여 복잡한 CFD 계산을 돌릴 수 있습니다.  Azure Marketplace에서 NEXTFOAM BARAM을 검색하시거나 (링크)를 클릭하시면 Azure Marketplace에 등록되어 있는 BARAM CFD Package를 사용하실 수 있습니다.                         교육 소식 >             4월 CAE / AI 엔지니어를 위한HPC 교육 >             CAE / AI 엔지니어를 위한 HPC 교육 4월 CAE / AI 엔지니어를 위한 HPC 교육 일정을 안내드립니다. HPC 환경에서 OpenFOAM 수행 방법 및 병렬 AI 학습 방법 / HPC 구축 실습을 통해 HPC의 개념 이해 / 최적 성능을 도출할 수 있는 방안 및 효율적인 HPC 관리 방안을 목표로 교육이 진행됩니다. 일정 : 4월 24일 ~ 4월 25일 (링크)를 클릭하시면 4월 CAE/ AI 엔지니어를 위한 HPC 교육 내용을 확인하실 수 있습니다.                         일반 소식 >             2024년 AI CFD 춘계 워크샵              지난 2월 29일 서강대학교 AS관 509호에서 AI CFD 워크샵이 있었습니다. GIST 최성임 교수님, 인하대학교 고승찬 교수님, KAIST 이승철 교수님을 비롯하여 AI CFD를 주제로 연구하시는 분들과 모임을 가지는 뜻 깊은 시간이었습니다.  이 자리에서 PINN (Physics-Informed Neural Network)를 비롯하여 FNO, DeepONet 등 Neural Network를 CFD에 적용한 연구 및 활용 성과에 대해 의견을 나누었습니다.  저희 회사에서도 이보성 박사님께서 NEXTFOAM 연구 성과 및 근황을 주제로 발표를 진행해주셨습니다.                         WHAT IS OPENFOAM? OpenFOAM은 오픈소스 CFD 소프트웨어이다. GNU GPL 라이센스를 사용하고 있어 누구나 자유롭게 사용이 가능하며 수정 및 재배포를 할 수 있다.       WHAT IS MESHLESS CFD? 질점격자 기반의 CFD해석 기법으로 FVM해석 기법의 보존성을 갖추고 있으며 전처리 작업시간을 획기적으로 줄일 수 있습니다.FAMUS는 무격자 기법의 CFD 해석 SW 입니다.       WHAT IS BARAM SERIES? BARAM은 넥스트폼이 개발한 OpenFOAM CFD 해석 프로그램입니다. 넥스트폼이 개발한 OpenFOAM Solver와 Utility를 GUI 기반으로 사용이 가능합니다.           수신거부
작성일 : 2024-04-29
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 LLM 모델을 사용하는 방법이 점차 간편해지고 있어 자체적으로 LLM을 구축해 챗봇, 전문가 시스템 등을 자신의 서버에서 제공하는 경우가 많아지고 있다. 이번 호에서는 GPU가 있는 PC에서 직접 실행해 볼 수 있도록, 로컬 호스트 LLM(대규모 언어 모델) 오픈소스 기반의 BIM 전문가 챗봇 서비스를 간단히 개발해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   이번 호에서는 기존의 BIM PDF 파일을 검색해 학습하고, LLM에 RAG(Retrieval-augmented generation) 증강 학습한 후, 이를 간단한 UI로 웹 서비스하는 과정을 간략히 따라해 본다. 이번 호의 내용은 로컬 LLM의 편한 개발을 지원하는 올라마(Ollama), LLM 프롬프트 엔지니어링 프레임워크인 랭체인(LangChain), 텍스트 임베딩 벡터 데이터베이스 크로마(Chroma), 손쉬운 웹 앱 개발 지원 도구인 스트림릿(Streamlit)을 사용한다. 이를 이용해 간단하게 BIM 전문 지식을 PDF로 학습한 챗봇을 개발한다.   그림 1. 로컬 호스트 LLM 챗봇 아키텍처   그림 2. 구현된 BIM 지식 챗봇 서비스   LLM에 관련된 깊은 내용은 다음의 링크를 참고한다. 이 글은 여러 참고 자료를 이용해 작성된 것이다. 상세 내용은 레퍼런스를 참고하기 바란다. Facebook LLAMA-2 paper : https://daddynkidsmakers.blogspot.com/2024/02/llama-2.html Facebook LLAMA-2 installation : https://daddynkidsmakers.blogspot.com/2023/09/llama2.html LLM은 빅테크 업체 간 경쟁이 심한 분야이다. 이와 관련해서 젬마(Gemma), MPT-7B과 같은 LLM 모델이 오픈소스로 공개되고 있어 선택지가 많아지고 있다. 이와 관련해서는 다음을 참고한다.  Google Gemma : https://github.com/google/gemma_pytorch Blooom : https://huggingface.co/bigscience/bloom   설치 설치를 위해서는 엔비디아 드라이버, CUDA, 텐서플로(TensorFlow), 파이토치(PyTorch) 등 기본 딥러닝 개발 환경이 설치되어 있어야 한다.(최소 구동을 위한 GPU RAM은 6GB이다.) TensorFlow 설치 : https://www.tensorflow.org/install/pip?hl=ko#windows-native_1 Start Locally | PyTorch 설치 : https://pytorch.org/get-started/locally/ 설치 순서는 다음과 같다.  1. 기본 패키지를 설치한다. LLM 모델 기반 서비스 개발 지원 라이브러리 랭체인, 웹 앱 UI 개발을 지원하는 스트림릿, 텍스트 임베딩 벡터 데이터베이스 크로마 DB 등을 설치한다. pip install langchain streamlit streamlit_chat pypdf fastembed chardet pip install chromadb==0.4.15   그림 3. 다양한 LLM 모델을 이용한 서비스 개발을 지원하는 랭체인 패키지   그림 4. 간단한 코드로 웹 앱 개발을 지원하는 UI 라이브러리 패키지 streamlit.io   혹은 pip와 유사한 패키지 설치 관리자인 poetry를 설치한 후, 다음 사용 패키지들을 pyproject.toml 이름으로 저장하고 설치한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01
CAD&Graphics 2024년 4월호 목차
  17 THEME. 플랜트·조선 산업 혁신을 위한 디지털화 전략   Part 1. 디지털 기술로 플랜트·조선 산업을 혁신하다 데이터 기반의 업무 혁신, 건설산업의 새로운 시작 클라우드 서비스를 통한 대내외 보안 환경 조성 경쟁력 있는 플랜트를 위한 설비 관리 전략 스마트 디지털 리얼리티와 스마트 야드형 공사 정보 디지털 백본 구축 해양의 미래 : 자율운항 선박의 혁신과 시뮬레이션의 중요성 디지털 전환 여정을 위한 3D CAD 기반 디지털 트윈 구축의 4단계   Part 2. 디지털 트윈의 구축과 활용을 위한 기술 디지털 트윈 가속화를 위한 3D 엔지니어링 데이터 경량 시각화 솔루션 3D 스캔 데이터를 효과적으로 분석하고 활용하는 방법 플랜트 BIM 배관 공사의 필수 아이템 Ez-ISO Strand7 R3 : 범용 유한요소 해석 프로그램   Infoworld   Column 55 책에서 얻은 것 No. 19 / 류용효 커넥팅 80 디지털 지식전문가 조형식의 지식마당 / 조형식 제조업 디지털 전환과 디지털 엔지니어링, 디지털 PLM   Case Study 58 해외 소장 문화재의 ‘디지털 귀향’ 프로젝트 언리얼 엔진과 에픽 에코시스템으로 이뤄낸 문화유산 디지털 경험 62 최신 렌더링 기능의 사용 돕는 URP 3D 샘플 고품질 그래픽스의 효율적인 제작 및 스케일링 방법 제시   Focus 64 지멘스 DISW, “솔리드 엣지로 지능형 제품 설계를 실현한다” 66 모두솔루션, 지스타캐드 시장 확대 및 파트너십 강화 전략 소개 68 슈나이더 일렉트릭, 데이터 플랫폼으로 EV 배터리 시장 공략 70 한국산업지능화협회, “산업 디지털 전환을 주도하기 위해 다방면의 활동 강화” 72 레노버, “클라우드부터 에지까지 폭넓은 AI 포트폴리오 제공” 74 생성형 AI와 협업 툴의 만남, ‘플로우 3.0’ AI Now   New Products 76 이달의 신제품   On Air 78 캐드앤그래픽스 CNG TV 지식방송 지상중계 SIMTOS 2024와 디지털 제조 혁신 트렌드   82 New Books 84 News   Directory 131 국내 주요 CAD/CAM/CAE/PDM 소프트웨어 공급업체 디렉토리   CADPIA   AEC 87 BIM 칼럼니스트 강태욱의 이슈 & 토크 / 강태욱 로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기 94 데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2024 (12) / 천벼리 아레스 커맨더의 사용자 인터페이스 108 새로워진 캐디안 2024 살펴보기 (4) / 최영석 구성선 및 자유선 기능 128 복잡한 모델에서 인사이트를 얻고 설계 의사결정을 돕는 직스캐드 (1) / 이소연 직스캐드 2024의 최신 기능 업데이트   Reverse Engineering 100 문화유산 분야의 이미지 데이터베이스와 활용 사례 (4) / 유우식 한지 데이터베이스   Mechanical 111 제품 개발 혁신을 가속화하는 크레오 파라메트릭 10.0 (11) / 김주현 매스캐드 프라임 9.0 사용하기 Ⅰ   Analysis 97 시뮤텐스 소프트웨어를 활용한 복합소재 해석 (1) / 씨투이에스코리아 복합소재 공정 전반의 가상 프로세스 체인 118 앤시스 워크벤치를 활용한 해석 성공사례 / 김선명 전기자동차용 헤어핀 모터 코일의 DfAM 및 금속 적층제조 프로세스 124 성공적인 유동 해석을 위한 케이던스의 CFD 기술 (8) / 나인플러스IT CFD 시스템 설계 및 분석 가속화를 위한 밀레니엄 M1     캐드앤그래픽스 2024년 4월호 목차 from 캐드앤그래픽스  
작성일 : 2024-03-28
스노우플레이크, 미스트랄 AI와 협력해 5개 국어의 LLM 모델 지원
데이터 클라우드 기업 스노우플레이크가 프랑스의 AI 솔루션 제공업체 미스트랄 AI(Mistral AI)와 파트너십을 맺고, 플래그십 대규모 언어 모델(LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에 적용한다고 밝혔다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있다. 프랑스어, 영어, 독일어, 스페인어, 이탈리아어, 5개 언어 처리가 가능한데, 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(MMLU)’을 비교하는 과정에서 성능을 입증했다. 이와 함께, 미스트랄 AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈소스 모델 ‘믹스트랄(Mixtral) 8x7B’에 대한 엑세스 제공 및 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 미스트랄 AI에 대한 시리즈 A 투자 등도 이번 파트너십 발표에 포함됐다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이고, ‘믹스트랄 8x7B’는 여러 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다. 미스트랄 AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스이다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안, 개인 정보 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다.     스노우플레이크는 2023년 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한, 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 미스트랄 AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서, 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되면서, 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 미스트랄 AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크는 미스트랄 AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 되었다”면서, “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인 정보 보호는 강화하고 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. 미스트랄 AI의 아르튀르 멘슈(Arthur Mensch) CEO는 “미스트랄 AI는 전세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능, 고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”면서, “스노우플레이크 데이터 클라우드에서 미스트랄 AI의 모델을 활용함으로써, 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 전했다.
작성일 : 2024-03-11
[포커스] 오라클, 생성형 AI로 기업의 대규모 AI 도입과 활용 지원
클라우드 시장 후발주자로 나선 오라클이 혁신 기술을 선보이며 시장 공략에 나섰다. 한국오라클은 연례 콘퍼런스 행사인 ‘오라클 클라우드 서밋’을 1월 25일 그랜드 인터컨티넨탈 서울 파르나스 호텔에서 개최하고, 멀티 클라우드 시대를 맞아 오라클의 통합 클라우드 및 생성형 AI 전략을 소개했다. 이와 함께 자사의 사업 성과와 새롭게 출시된 생성형 AI(generative AI) 서비스에 대해서도 밝혔다. ■ 최경화 국장   ▲ 한국오라클 탐 송 회장   한국오라클 탐 송 회장은 ‘오라클 클라우드 서밋 2024’ 기자간담회에서 한국오라클의 사업 주요 성과에 대해 발표했다. 탐 송 회장은 “한국오라클의 클라우드 사업은 2023년 6월~11월 기준 3배 이상 성장하고 있는데, 기업의 데이터 기반 디지털 혁신을 위한 클라우드 전환 및 신규 확산 수요가 성장을 견인하고 있다. 주요 대기업의 미션 크리티컬 부문에서 클라우드 성과는 4배 수준으로 성장했고, 중견/중소기업 및 스타트업 부문에서도 클라우드 성과가 60% 이상 성장했다”면서,.이처럼 오라클 클라우드가 성장하고 있는 이유는 “싸고, 빠르고, 안전하기 때문”이라고 밝혔다.     오라클은 클라우드 후발 주자로 나선 만큼 가격과 함께 제품 경쟁력의 차별화를 내세우면서 시장을 공략하고 있다..올해 한국오라클은 데이터-AI 통합 솔루션 제공을 가속화하여 기업 주요 시스템의 클라우드 전환 조력 및 가치를 극대화해 나갈 계획이다. 또한 국내 중소/스타트업 기업을 위한 지원과 협력 활동을 지속하고, 새로운 리더십과 조직 강화로 성장 모멘텀 지속 확장 및 매출 성장을 달성한다는 계획이다.   OCI 생성형 AI 서비스 출시 오라클은 오라클 클라우드 인프라스트럭처(OCI)에 생성형 AI 서비스를 정식 출시한다고 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 한층 진보한 최신 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 새로운 혁신 기술을 선보인다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어(Cohere)의 대규모 언어 모델(LLM)과 메타(Meta)의 라마 2(Llama 2) LLM을 원활하게 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은 OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전(OCI Dedicated Region)을 통해 온프레미스 환경에서도 이용 가능하다.     생성형 AI 모델의 커스터마이징 간소화 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용 가능한 관리형 서비스 방식으로 제공한다. 또한 고객은 오라클의 강력한 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 또한 오라클의 검색 증강 생성(Retrieval Augmented Generation : RAG) 기술은 고객이 자체 데이터를 사용해 생성형 AI모델을 추가적으로 학습시킴으로써, 조직의 독특한 내부 운영 방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트(OCI Generative AI Agents) 서비스에는 RAG 에이전트가 포함돼 있다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치(OCI OpenSearch)를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 해당 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 향후 버전에서는 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색(AI Vector Search) 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어(Vector Store) 기능을 활용한 MySQL 히트웨이브(MySQL HeatWave)에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트(Oracle Fusion Cloud Applications Suite), 오라클 넷스위트(Oracle NetSuite)를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스(Oracle Health)를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다.     오라클의 솔루션 포트폴리오 전반에 걸쳐 내장되는 생성형 AI 오라클은 “선도적인 AI 인프라스트럭처 및 포괄적인 클라우드 애플리케이션 포트폴리오가 고객의 두터운 신뢰를 얻고 있다”고 밝히고 있다. 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 한편, 오라클은 고객이 허깅페이스(Hugging Face)의 트랜스포머(Transformers), 파이토치(PyTorch) 등의 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스(OCI Data Science)의 기능을 확장해 나가고 있다..2월에 베타 버전이 출시된 OCI 데이터 사이언스 AI 퀵 액션(OCI Data Science AI Quick Actions) 기능은 메타 또는 미스트랄 AI(Mistral AI) 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다.   오라클은 어떤 회사? 오라클은 1977년 래리 엘리슨이 봅 마이너, 에드 오츠와 함께 미국 국방부의 프로젝트에 관계형 데이터베이스 관리 시스템(Relational Database Management System)을 개발, 상용화한 것을 시작으로 설립돼, 전 세계 클라우드 및 IT 시장에서 활약하는 기업으로 자리잡았다. 지난 2009년 4월에는 썬마이크로시스템즈를 인수하면서 기업용 소프트웨어에서 하드웨어 인프라에 이르기까지 통합된 시스템을 제공할 수 있는 기업으로 탈바꿈했다. 특히, 오라클은 클라우드 영역에서 ERP(전사적자원관리), HCM(인적자본관리), CX(고객경험솔루션), SCM(공급망관리) 및 이와 연계된 퓨전 애널리틱스(Fusion Analytics) 등 클라우드 애플리케이션부터 서비스형 플랫폼(PaaS) 및 서비스형 인프라(IaaS)까지 광범위한 제품군을 미주, 유럽 및 아시아 전역의 44개 클라우드 리전에서 제공하고 있다. 오라클의 주요 사업 영역으로는 ▲오라클 DBMS 및 클라우드(PaaS/IaaS) ▲오라클 클라우드 애플리케이션(SaaS) ▲오라클 시스템(System) 등이 있다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-03-04