• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 시맨틱"에 대한 통합 검색 내용이 46개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
스노우플레이크, 벤더 중립적 시맨틱 표준 위한 ‘오픈 시맨틱 인터체인지’ 출범
스노우플레이크가 업계 파트너십을 통해 시맨틱 메타데이터의 정의와 공유 방식을 표준화하는 새로운 오픈소스 이니셔티브인 ‘오픈 시맨틱 인터체인지(Open Semantic Interchange, 이하 OSI)’를 출범한다고 밝혔다. 세일즈포스, 블랙록, dbt 랩스, 릴레이셔널AI 등 글로벌 20여개 기업이 참여하는 이번 이니셔티브에서는 벤더 중립적인 시맨틱 모델 사양을 도입한다. OSI는 벤더 중립적이고 공통적인 시맨틱 모델 사양을 도입함으로써 AI 및 비즈니스 인텔리전스(BI) 애플리케이션 전반에 걸쳐 일관된 비즈니스 로직을 보장할 수 있다. 기업들이 사용하는 각종 도구와 플랫폼마다 다른 데이터 해석 방식을 해결하기 위해 모든 시스템이 동일한 방식으로 데이터를 이해할 수 있는 공통 표준을 만드는 것이 목표다.     각기 다른 데이터 형태, 데이터 도구 등 데이터 분산은 AI 도입을 늦추는 원인이었다. OSI는 서로 다른 AI, BI, 데이터 도구가 같은 언어로 소통할 수 있도록 공통 시맨틱 표준을 구축해 플랫폼 간 상호 운용성을 강화하며 데이터 분산 문제를 해결한다. 데이터 정의 및 교환 방식을 표준화해 AI가 일관되고 정확한 정보를 활용할 수 있게 함으로써 AI, BI 애플리케이션 도입을 가속화하고 AI에 활용하는 데이터 신뢰성을 보다 높일 수 있게 된다. 스노우플레이크는 “결과적으로 데이터팀의 운영을 간소화하고, 시스템 간 서로 다른 정의를 맞추거나 중복 작업을 하는 데 소모하는 비효율을 줄일 것”이라면서, “그만큼 데이터 및 AI 팀들이 단순 문제 해결보다 보다 중요한 비즈니스 혁신에 집중할 수 있게 된다”고 전했다. 스노우플레이크를 비롯한 OSI 이니셔티브 기업들은 협력을 통해 폐쇄적이고 벤더 종속적인 시스템에서 벗어나 더 나은 개방형 AI를 도입하는 것을 목표로 한다. 이들은 AI 혁신을 이끌 새로운 패러다임으로 상호운용성과 표준화를 바탕으로 한 오픈소스 협력을 제시하고 있다. 태블로(Tableau)의 사우서드 존스(Southard Jones) 최고제품책임자(CPO)는 “AI의 미래는 신뢰에 달려있으며, 신뢰는 일관되고 믿을 수 있는 데이터에서 시작된다”며, “스노우플레이크와 파트너사들이 공동으로 OSI를 주도함으로써 플랫폼 전반에 걸쳐 동일한 의미를 유지하는 공통 시맨틱 프레임워크를 구축하고 AI 에이전트와 BI 애플리케이션을 통해 고객이 신뢰할 수 있는 데이터 인사이트를 활용할 수 있게 됐다”고 말했다. 스노우플레이크의 크리스티안 클레이너만(Christian Kleinerman) 제품 담당 수석부사장은 "스노우플레이크는 상호 운용성과 개방형 표준이 데이터와 함께 AI의 가능성을 발현하는데 필수적이라고 믿고 있다”며, "OSI 이니셔티브를 통해 파트너들과 함께 AI의 근본적인 과제인 공통 시맨틱 표준의 부재를 해결하는 데 앞장서게 되어 자랑스럽다. 이번 이니셔티브는 업계가 경쟁하는 것이 아니라 공동의 과제를 해결하고 모두를 위한 더욱 연결되고 개방적인 생태계를 구축하기 위해 힘을 합치는 것”이라고 말했다.
작성일 : 2025-09-24
[칼럼] 디지털 온톨로지와 디지털 트윈화
디지털 지식전문가 조형식의 지식마당   지난 1월호 칼럼인 ‘디지털 철학과 디지털 지속가능성을 시작하다’부터 2025년은 디지털 전환을 지나서 인공지능 전환의 시대에 더 근본적으로 접근해 보기로 했다. 디지털 철학은 너무 범위가 넓어서 그 중에 디지털 온톨로지(digital ontology) 또는 객체 지향 존재론(object-orientd ontology)으로 국한해서 생각해 봤다. 그리고 이것은 현재 인공지능과 함께 지속적으로 진화하는 디지털 트윈의 상관관계 관점에서 생각해 보았다. 현재 인공지능의 발전은 그동안 물리적 트윈의 거울 이미지가 강했던 디지털 트윈에게 새로운 진화의 방향을 제시한다. 최근까지 디지털 트윈은 다양한 목적으로 사용될 수 있는 물리적 자산 또는 물리적 트윈, 프로세스 및 시스템의 디지털 복제본을 의미했다.   그림 1. 팔란티어의 온톨리지 전략(출처 : Palantir)   그러나 디지털 트윈은 계속 진화해, 이제는 이론적으로 이 세상에 존재하는 추상적이거나 물리적으로 존재하는 모든 실체(entity)에 대해서 디지털 트윈이 존재할 수 있다. 수상한 기업인 팔란티어(Palantir)는 자신의 디지털 트윈 전략에서 추상적인 데이터에 대해 디지털 트윈화(digital twinlization)를 했고, 미래에는 조직을 디지털 트윈화한다는 야심찬 목표를 세우고 있다. 모든 실체를 디지털 트윈화하기 위해서 자연어 처리(natural language processing) 인공지능이 정확하게 이해할 수준의 컴퓨터 온톨로지(computer ontology)가 필요하다. 이것은 팔란티어의 온톨로지 전략과 유사하다. 이런 접근은 이전에 시맨틱 웹(semantic web)에서 시도됐으나, 최근 인공지능 자연어 처리의 폭발적인 발전으로 다시 각광을 받고 있는 것 같다. 팔란티어의 전략에서 디지털 트윈은 데이터를 현실 세계와 동기화하는 ‘두뇌’ 역할을 한다. 가장 중요한 것은 인공지능을 이용해서 데이테에게 의미를 부여하는 것이며, 여기에서 디지털 온톨로지가 중요한 역할을 할 수 있다. 예를 들어서, 의료 디지털 트윈 분야에서 백신을 가장 빨리 개발하는 방법은 대상(object) 바이러스를 디지털 트윈화한 후, 다음 단계의 진화를 예상하고 대상 바이러스의 안티 디지털 트윈(anti digital twin)을 만들어서, 백신을 미리 완성하거나 아주 짧은 시간에 개발할 수 있는 역량을 갖추는 것이다. 그런 관점에서 이 세상은 모든 것을 디지털 트윈화하거나 역 디지털 트윈화할 수 있다. 이것은 최근 급격히 발전한 인공지능, 특히 생성형 인공지능의 역할이 크다고 할 수 있다. 디지털 트윈은 기존의 시뮬레이션과 비슷해 보인다. 하지만, 디지털 트윈은 양방향이고 실시간으로 이전의 시뮬레이션의 추론 결과를 다시 디지털 트윈의 입력 자료에 재입력하여 더 강화된 결과를 지속적으로 얻을 수 있다.   그림 2. 노트북LM 시작 화면(출처 : Google)   최근에는 다양한 인공지능 도구와 환경으로 우리의 추상적인 지식이나 경험을 디지털 트윈화할 수 있다. 예를 들어서 구글의 노트북LM(NotebookLM)이나 LM스튜디오(LM Studio)는 질문만 하는 챗GPT, 딥시크, 제미나이에서 진화해 더 복잡한 자료를 입력할 수 있고, 다양한 방법으로 추론해서 요약 음성까지 출력할 수 있는 지식의 디지털 트윈을 만들 수 있다. 현재에도 이런 강력한 AI 도구가 20개 정도 유료로 사용 가능하며, 거대한 기본 모델을 다양한 방법으로 결합하고 자동화할 수 있는 도구가 지속적으로 만들어지고 있다. 이런 가운데 기존 IT 기업들의 고민도 커질 수 있다. 결론적으로 인공지능 시대에 지식 및 경험의 디지털 트윈을 가진 조직과 개인만이 경쟁력을 가지는 것이고, 이를 가능하게 하는 핵심은 디지털 온톨로지의 지식과 의미 있는 데이터로 디지털 트윈을 만들 수 있는 역량이라고 할 수 있다. 이제는 단순히 인공지능 모델을 잘 사용하는 것만으로는 충분하지 않다. 그 모델을 사용해서 자신의 비즈니스 모델이나 문제 해결에 필요한 디지털 트윈으로 특정 데이터에 의미를 부여하는 디지털 온톨로지가 정말 필요한 시점이다.   ■ 조형식 항공 유체해석(CFD) 엔지니어로 출발하여 프로젝트 관리자 및 컨설턴트를 걸쳐서 디지털 지식 전문가로 활동하고 있다. 현재 디지털지식연구소 대표와 인더스트리 4.0, MES 강의, 캐드앤그래픽스 CNG 지식교육 방송 사회자 및 컬럼니스트로 활동하고 있다. 보잉, 삼성항공우주연구소, 한국항공(KAI), 지멘스에서 근무했다. 저서로는 ‘PLM 지식’, ‘서비스공학’, ‘스마트 엔지니어링’, ‘MES’, ‘인더스트리 4.0’ 등이 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-06-04
마이크로소프트, “비즈니스 전반에서 AI 에이전트가 활약하는 시대가 온다”
마이크로소프트가 ‘마이크로소프트 빌드 2025(Microsoft Build 2025)’를 개최하고 AI 에이전트, 개발자 도구, 오픈 플랫폼 등 신규 기능과 주요 업데이트를 발표했다.   AI는 추론 능력과 메모리 기술의 고도화로 인해 스스로 학습하고 결정을 내리는 에이전트로 진화하고 있다. 이번 행사에서 마이크로소프트는 이러한 AI 에이전트가 개인, 조직, 팀은 물론 전체 비즈니스 전반에 작동하는 인터넷 환경을 ‘오픈 에이전틱 웹(Open Agentic Web)’으로 정의하며, AI가 사용자나 조직을 대신해 결정을 내리고 작업을 수행하는 시대가 도래했다고 강조했다.  전 세계 수십만 조직이 마이크로소프트 365 코파일럿(Microsoft 365 Copilot)을 활용해 리서치, 아이디어 브레인스토밍 등 다양한 업무에 특화된 AI 에이전트를 구축하고 있다. 이 중 포춘 500대 기업 90%를 포함한 23만 개 이상 조직은 코파일럿 스튜디오(Copilot Studio)를 통해 AI 에이전트와 자동화 앱을 개발하고 있다. 또한, 전 세계 약 1500만 명의 개발자가 깃허브 코파일럿(GitHub Copilot)을 통해 코드 작성, 검토, 배포, 디버깅 등 개발 전 과정을 효율화하고 있다.     이번 빌드 2025에서는 AI 에이전트 개발을 돕는 플랫폼과 도구가 집중 소개됐다. 먼저 깃허브(GitHub), 애저 AI 파운드리(Azure AI Foundry), 윈도우(Windows) 등 주요 개발 플랫폼에서 활용할 수 있는 다양한 기능과 업데이트가 발표됐다. 이번 업데이트는 개발 생애 주기의 변화에 따라 개발자가 보다 효율적으로 작업하고, 대규모 개발 환경에서도 유연하게 대응할 수 있도록 설계됐다.  깃허브 코파일럿에는 비동기화(asynchronous) 방식의 코딩 에이전트 기능이 새롭게 도입됐다. 또한, 깃허브 모델(GitHub Models)에는 프롬프트 관리, 경량평가(LightEval), 엔터프라이즈 제어 기능이 추가돼, 개발자는 깃허브 내에서 다양한 AI 모델을 실험할 수 있게 됐다. 이와 함께 깃허브 코파일럿 챗(GitHub Copilot Chat) 또한 비주얼 스튜디오 코드(Visual Studio Code)에서 오픈소스로 공개됐다. 깃허브 코파일럿 확장 기능의 AI 기능은 이제 개발 도구를 구동하는 오픈소스 저장소의 일부가 됐다.  윈도우 AI 파운드리(Windows AI Foundry)도 새롭게 공개됐다. 개발자에게 개방적이고 널리 사용되는 플랫폼 중 하나로서 윈도우가 확장성, 유연성, 그리고 성장 기회를 제공함에 따라, 윈도우 AI 파운드리는 학습부터 추론까지 AI 개발자 라이프사이클을 지원하는 통합되고 신뢰할 수 있는 플랫폼을 제공한다. 이를 통해 개발자는 시각 및 언어 작업에 특화된 간단한 모델 API를 활용해 오픈소스 대규모 언어 모델(LLM)을 파운드리 로컬(Foundry Local) 환경에서 실행하거나, 자체 개발한 모델을 가져와 변환·미세조정한 뒤 클라이언트 또는 클라우드 환경에 배포할 수 있다.  애저 AI 파운드리도 주요 업데이트를 진행했다. 애저 AI 파운드리는 개발자가 AI 애플리케이션과 에이전트를 설계·맞춤화·관리할 수 있도록 지원하는 통합 플랫폼으로, 이번 애저 파운드리 모델(Azure Foundry Models) 업데이트를 통해 AI 기업 xAI의 그록3(Grok 3) 및 그록3 미니(Grok 3 Mini) 모델이 마이크로소프트 생태계에 추가됐다. 두 모델은 마이크로소프트가 직접 제공하며 과금한다. 이로써 개발자가 선택할 수 있는 AI 모델의 범위는 파트너사 및 마이크로소프트 제공 모델을 포함해 1900개 이상으로 확대됐다. 이와 함께, 안전한 데이터 통합, 모델 맞춤화, 엔터프라이즈급 관리 기능도 제공돼 보다 정밀한 AI 운영이 가능해졌다.   AI 모델을 항목별로 비교해 순위를 보여주는 모델 리더보드(Model Leaderboard)와 특정 쿼리나 작업에 따라 최적의 모델을 실시간으로 선택할 수 있도록 설계된 모델 라우터(Model Router) 등 신규 도구도 함께 공개됐다.   AI 에이전트 개발과 배포를 보다 안전하고 효율적으로 수행하도록 지원하는 기능도 선보였다. 사전 구축된 에이전트(pre-built agents), 맞춤형 에이전트 설계 도구, 멀티 에이전트 기능, 새로운 모델 등으로 구성된 이번 업데이트는 개발자와 조직이 보다 유연하게 AI 에이전트를 구축하고 생산성을 높이는 데 활용할 수 있도록 지원한다.  애저 AI 파운드리 에이전트 서비스(Azure AI Foundry Agent Service)는 여러 전문 에이전트를 조율해 복잡한 작업을 처리할 수 있도록 지원한다. 이번 업데이트에서는 시맨틱 커널(Semantic Kernel)과 오토젠(AutoGen)을 통합 제공하는 단일 SDK와, 에이전트 간 상호작용을 가능하게 하는 A2A(Agent-to-Agent) 기능 및 모델 컨텍스트 프로토콜(Model Context Protocol, 이하 MCP) 지원 기능도 포함한다.  애저 AI 파운드리 옵저버빌리티(Azure AI Foundry Observability)에는 AI 에이전트의 신뢰도를 높일 수 있도록 성능, 품질, 비용, 안전성 등의 지표들을 모니터링할 수 있는 기능이 탑재됐다. 모든 지표는 통합 대시보드를 통해 시각적으로 추적할 수 있어, 운영 현황을 직관적으로 파악할 수 있다.  보안과 거버넌스 측면에서도 기능이 강화됐다. 프리뷰로 제공되는 엔트라 에이전트 ID(Microsoft Entra Agent ID)를 활용하면, 애저 AI 파운드리나 코파일럿 스튜디오에서 생성한 에이전트에 고유 ID가 자동으로 부여된다. 이를 통해 에이전트를 초기 단계부터 안전하게 관리하고, 무분별한 생성을 방지해 보안 사각지대를 방지할 수 있다. 또한, 애저 AI 파운드리로 구축된 애플리케이션과 에이전트는 퍼뷰(Microsoft Purview)의 데이터 보안 및 컴플라이언스 제어 기능과 통합된다. 여기에 위험 파라미터 설정, 자동 평가 수행, 상세 보고서 제공 등 고도화된 거버넌스 도구도 함께 제공돼 정밀한 보안 및 운영 관리가 가능해졌다.  마이크로소프트 365 코파일럿 튜닝(Microsoft 365 Copilot Tuning)은 기업 고유의 데이터, 워크플로, 업무 프로세스를 기반으로 로코드 방식의 AI 모델 학습과 에이전트 생성을 돕는다. 생성된 에이전트는 마이크로소프트 365 환경 내에서 안전하게 실행되며, 조직별 업무에 특화된 작업을 높은 정확도로 수행할 수 있다. 예를 들어, 로펌은 자사의 전문성과 양식에 맞춰 문서를 작성하는 에이전트를 구축할 수 있다.  멀티 에이전트 오케스트레이션 기능도 코파일럿 스튜디오(Copilot Studio)에 새롭게 도입됐다. 이를 통해 다양한 에이전트를 상호 연결하고 기능을 결합함으로써 복잡하고 광범위한 업무를 처리할 수 있다.  이와 함께 마이크로소프트는 AI 에이전트의 미래를 위해 개방형 표준과 공유 인프라를 발전시키는 MCP 생태계 지원 업데이트와 새로운 개방형 프로젝트인 ‘NLWeb’을 발표했다. 마이크로소프트는 깃허브, 코파일럿 스튜디오, 다이나믹스 365(Dynamics 365), 애저 AI 파운드리, 시맨틱 커널, 윈도우 11 등 자사가 보유한 주요 에이전트 및 프레임워크 전반에서 MCP를 지원한다. 마이크로소프트와 깃허브는 MCP 운영 위원회(MCP Steering Committee)에 새롭게 합류해, 개방형 프로토콜의 보안성과 확장성을 높이기 위한 공동 노력을 이어갈 예정이다.  또한 MCP 생태계 확장을 위한 두 가지 업데이트도 공개했다. 첫 번째는 사용자가 기존 로그인 방식을 그대로 활용해 에이전트 및 LLM 기반 애플리케이션에게 개인 저장소나 구독 서비스와 같은 다양한 데이터에 대한 안전한 접근 권한을 부여할 수 있도록 인증 체계를 개선했다. 두 번째는 MCP 서버 항목을 누구나 최신 공용 또는 사설 저장소에서 중앙화해 관리할 수 있도록 지원하는 MCP 서버 등록 서비스를 설계했다.   NLWeb은 에이전틱 웹 환경을 위한 개방형 프로젝트로, 마이크로소프트는 NLWeb이 에이전틱 웹에서 HTML과 유사한 역할을 할 수 있을 것으로 기대한다. NLWeb은 웹사이트 운영자가 원하는 AI 모델과 자체 데이터를 연결해 대화형 인터페이스를 구축함으로써 사용자가 웹 콘텐츠와 직접 상호작용하며 풍부하고 의미 있는 정보를 얻도록 돕는다. 또한 모든 NLWeb 엔드포인트는 MCP 서버이기도 하기 때문에 웹사이트 운영자는 필요시 AI 에이전트들이 해당 사이트의 콘텐츠를 쉽게 검색하고 접근하도록 설정할 수 있다.  한편, 마이크로소프트는 과학 연구를 가속화하기 위한 AI 에이전트 기반 플랫폼 마이크로소프트 디스커버리(Microsoft Discovery)도 선보였다. 이 플랫폼은 연구자가 AI 에이전트를 활용해 과학적 발견 과정 전반을 혁신할 수 있도록 지원한다. 마이크로소프트는 이를 통해 제약, 환경 등 다양한 산업 분야의 연구개발 부서가 신제품 출시 기간을 단축하고, 연구 전반의 속도와 범위를 확장할 수 있을 것으로 기대하고 있다. 
작성일 : 2025-05-20
퓨어스토리지, AI 혁신 가속화를 위한 ‘생성형 AI 포드’ 발표
퓨어스토리지가 자사 플랫폼 기반의 턴키 설계를 제공하는 풀스택 설루션인 새로운 퓨어스토리지 생성형 AI 포드(GenAI Pod)를 발표했다. 기업은 이를 통해 AI 기반 혁신을 가속화하고, 생성형 AI 프로젝트 구축에 필요한 시간, 비용, 전문 기술력을 절감할 수 있다.  오늘날 기업들은 프라이빗 클라우드에서 생성형 AI와 검색 증강 생성(RAG)을 배포하는데 어려움을 겪고 있다. 이는 생성형 AI 워크로드를 지원하는 하드웨어, 소프트웨어, 기본 모델, 개발 도구를 적시에 비용 효율적으로 배포하는 복잡성을 포함한다. 따라서 기업들은 AI로 인해 진화하는 모든 스토리지 요구사항을 해결할 수 있는 단일 통합 스토리지 플랫폼이 필요로 한다. 퓨어스토리지 플랫폼에 구축된 생성형 AI 포드는 새로운 설계를 통해 생성형 AI 사용사례를 위한 턴키 설루션을 제공하며, 기업들이 이들 과제를 해결하도록 지원한다. 생성형 AI 포드는 원클릭 구축과 벡터 데이터베이스 및 기반 모델에 대한 간소화된 2일차(Day 2) 운영을 통해 기업의 AI 이니셔티브를 가속화한다. 포트웍스(Portworx)와 통합된 생성형 AI 포드는 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼과 밀버스(Milvus) 벡터 데이터베이스를 통해 엔비디아 네모 (NeMo) 및 NIM 마이크로서비스(NIM microservices)의 배포 자동화를 지원하며, 2일차 운영을 더욱 간소화한다. 이러한 검증된 설계의 초기 산업 애플리케이션으로는 신약 개발, 무역 조사 및 투자 분석, 시맨틱 검색, 지식 관리 및 챗봇을 위한 에이전트 프레임워크를 갖춘 검색 증강 생성(RAG)이 포함된다. 퓨어스토리지의 풀스택 설루션에는 하드웨어, 소프트웨어 및 기본 모델은 물론, 업계 주요 AI 공급업체의 전문 서비스가 포함된다. 초기 검증 설계를 위해 퓨어스토리지는 아리스타, 시스코, KX, 메타, 엔비디아, 레드햇, 슈퍼마이크로 및 WWT와 파트너십을 체결했다. 퓨어스토리지 생성형 AI 포드는 2025년 상반기에 정식 출시될 예정이다. 한편, 퓨어스토리지는 플래시블레이드//S500(FlashBlade//S500)가 엔비디아 DGX 슈퍼포드(NVIDIA DGX SuperPOD)의 이더넷 호환성 인증을 통해 엔터프라이즈 AI 구축을 가속화한다고 밝혔다.  대규모 AI를 구축하는 기업은 복잡한 아키텍처 설계와 성능, 전력, 공간 요건을 충족해야 하는 과제를 안고 있다. 이에 따라 퓨어스토리지는 이더넷 기반의 플래시블레이드//S500에 대한 엔비디아 DGX 슈퍼포드 인증을 획득했다. 이 인증을 통해 고객은 향후 증가하는 AI 요구사항에 대비할 수 있도록 유연하고 안정적이며 공간 및 에너지 효율성이 높은 고성능 스토리지 플랫폼으로 하이엔드 엔터프라이즈 AI 트레이닝을 가속화할 수 있다. 새로운 생성형 AI 검증 설계는 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증과 함께, 엔비디아 DGX 베이스포드 인증 받은 에이리(AIRI with NVIDIA DGX BasePOD), 검증된 엔비디아 OVX 서버, 시스코와 공동 설계한 AI용 플래시스택(FlashStack for AI with Cisco) 등 퓨어스토리지의 AI 설루션 포트폴리오를 더욱 확장한다. 이번 발표를 통해 퓨어스토리지는 이제 막 AI 여정을 시작한 고객부터 대규모, 고성능 컴퓨팅 및 데이터 집약적인 요구사항을 가진 고객까지 아우르는 포괄적인 AI 인프라 설루션을 제공하는 선도적인 기업으로서의 입지를 다질 전망이다. 퓨어스토리지의 댄 코건(Dan Kogan) 엔터프라이즈 성장 및 설루션 부문 부사장은 “혁신의 속도가 빨라지면서 기업 고객들은 비즈니스 전 영역에 AI를 활용해야 하지만, 사일로화된 데이터 플랫폼과 복잡한 생성형 AI 파이프라인이라는 근본적인 문제로 어려움을 겪고 있다”며, “퓨어스토리지의 확장된 AI 설루션 포트폴리오는 생성형 AI 및 대규모 엔터프라이즈 AI 클러스터를 위한 검증된 턴키 설계를 통해 고객이 이러한 과제를 해결하도록 지원한다. 검증된 설계는 기술 스택의 모든 계층에서 요구사항을 총체적으로 해결해 AI 프로젝트의 가치 실현 시간과 운영 리스크를 획기적으로 줄인다”고 말했다. 엔비디아의 토니 백데이(Tony Paikeday) AI 시스템 부문 수석 디렉터는 “AI는 전례 없는 속도로 산업을 혁신하고 있으며, 기업들은 이를 달성하기 위해 강력하고 검증된 설루션과 인프라가 필요하다”며, “퓨어스토리지 생성형 AI 포드와 엔비디아 AI 엔터프라이즈 소프트웨어, 플래시블레이드//S500의 엔비디아 DGX 슈퍼포드 인증은 기업들이 인프라 복잡성을 제거하고, 구축 속도를 높이며, 운영을 간소화할 수 있도록 지원한다”고 말했다.
작성일 : 2024-11-22
[무료다운로드] AI로 실시간 3D 경험 만드는 유니티 뮤즈
LLM 통합으로 뮤즈 챗의 정확성과 신뢰성을 높이는 방법   이번 호에서는 유니티 뮤즈 챗(Unity Muse Chat)이 유용한 솔루션을 제공하기 위해 정확히 어떻게 설계되었는지 알 수 있도록, 응답을 생성하는 과정의 구성 방식을 살펴본다. 현재 진행 중인 탐구 활동과 향후 개발 예정인 LLM(대규모 언어 모델) 파이프라인에 대해서도 미리 살펴볼 수 있다.   ■ 자료 제공 : 유니티 코리아, https://unity.com/kr   그림 1   유니티 뮤즈(Unity Muse)는 AI 기능을 통해 실시간 3D 경험을 탐색하고, 아이디어를 구상하고, 반복 작업(iteration)을 수행할 수 있도록 지원한다. 뮤즈 챗은 제작 속도를 높이는데 사용할 수 있는 툴이다. 뮤즈 챗은 유니티에 대한 지식과 에디터를 손쉽게 활용하도록 지원하여 디버깅 조언, 첫 번째 초안 작성을 위한 코드 생성 등 유용한 정보를 유니티 에디터와 프로젝트의 컨텍스트 내에서 모두 제공해 준다.   풍부한 지식 보강으로 신뢰할 수 있는 답변 제공 뮤즈 챗은 쿼리 계획 및 다양한 정보의 중재를 위한 여러 시스템과 LLM(대규모 언어 모델) 통합으로 구성된 파이프라인으로서 구축되었다. 뮤즈 챗은 요청을 수신하면 에디터나 사용자가 제공한 정보 및 해결하려는 문제를 기반으로 향후 응답의 형식을 간략하게 설명하는 작업 계획을 도출한다. Space Purr-suit의 공동 제작자인 제시카 소우자는 “나는 뮤즈를 개인 비서처럼 사용하여 모든 것을 직접 구축하고 코딩했다. 물론 동료들의 도움도 있었지만, 뮤즈가 없었다면 이렇게 짧은 시간 안에 탁월한 결과를 얻지 못했을 것 같다”고 전했다. 신뢰도 높은 응답을 구성할 때는 두 가지 과제가 있다. 하나는 응답을 작성하기 위해 관련 정보를 검색하는 것이고, 다른 하나는 대화의 맥락과 기록을 바탕으로 해당 정보가 응답에 적절하게 포함되도록 하는 것이다. 뮤즈 챗은 정보를 수집하여 문서 섹션이나 코드 스니핏과 같은 80만 개 이상의 정보 청크를 통해 이 두 가지 과제를 모두 해결하고자 한다. 청크는 주변 정보에 대한 참조를 통해 처리 및 보완되므로 각각 유용하고 독립적인 정보 유닛을 제공한다. 청크는 기술 자료를 통해 추적된 내용에 따라 콘텐츠와 고유한 컨텍스트를 기준으로 분류된다. 또한 시스템의 투명성과 해석 가능성을 제공하며, 호환 가능한 정보를 효과적으로 검색할 수 있도록 한다. 현재 나머지 파이프라인이 어떻게 구성되어 있는지 알아보려면 <그림 2>의 다이어그램과 다음의 설명을 참조할 수 있다.   그림 2   요청 : 요청이 들어왔다. 에디터 컨텍스트 : 에디터에 있는 경우 관련 컨텍스트가 에디터에서 동적으로 추출되며, 뮤즈에 적절한 정보를 제공하라는 요청이 함께 제시된다. 쿼리 확장 : 초기 계획 시스템은 정확한 계획을 도출하기 위한 쿼리 확장을 수행한다. 정보 카탈로그 형식을 최대한 복제하고 각 단계에 맞는 이상적인 청크 구조를 다시 만들도록 LLM에 지시한다. 이 접근 방식을 사용하면 시스템이 원하는 청크의 컨텍스트, 콘텐츠 및 사용 사례를 캡처하는 임베딩을 계산할 수 있다. 이러한 각 계획 단계는 세분화된 시맨틱 검색에 사용된다. 정보 검색 : 관련 정보를 찾기 위해 대칭 시맨틱 검색 및 메타데이터 필터링을 사용하여 쿼리 확장 단계에서 식별한 이상적인 예상 청크와 가장 유사한 청크를 정보 카탈로그에서 검색한다. 공식화 : 최종 응답을 생성하기 위해, 필터링된 원래 계획 단계와 관련 기본 정보를 전달하는데 필요한 소스를 모두 포함하는 세부 개요를 기반으로 다른 LLM을 사용하여 응답을 작성한다. 응답 : 뮤즈 챗이 답변을 제공한다.   상황에 맞는 파이프라인을 구축하여 에디터 통합 지원 에디터에서 뮤즈 챗을 사용할 수 있도록 만들기 위해, 파이프라인의 두 번째 단계인 에디터 컨텍스트 추출을 도입했다. 이를 파이프라인의 맨 처음에 추가하면 쿼리를 분석하여 에디터에서 추출할 내용을 식별하고, 이를 파싱하여 뮤즈에 다음 단계에 대해 알려 준다. 사용자 피드백을 바탕으로 프로젝트 설치 및 설정, 게임 오브젝트/프리팹, 콘솔 액세스부터 작업을 시작했다. 이제 경고나 메시지와 함께 콘솔 오류가 발생하면 콘솔에서 관련 행을 클릭하여 오류를 선택 항목에 추가하기만 하면 된다. 아래 예시에서는 스크립트에서 중괄호가 누락되어 오류가 발생했다.   그림 3     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-10-07
 오라클, AI 중심 기업용 생성형 개발 인프라 발표
오라클이 AI 중심 애플리케이션 개발 인프라인 기업용 생성형 개발(GenDev)을 발표했다. 이는 개발자가 정교한 애플리케이션을 신속하게 생성하고, 애플리케이션이 AI 기반 자연어 인터페이스와 인간 중심 데이터를 쉽게 사용할 수 있도록 지원하는 혁신적 개발 기술을 제공한다. 생성형 개발은 JSON 관계형 이중성 뷰(JSON Relational Duality Views), AI 벡터 검색(AI Vector Search), APEX 등 오라클 데이터베이스 23ai(Oracle Database 23ai) 기능을 결합하여 생성형 AI를 활용한 개발을 용이하게 한다. 모듈형 애플리케이션 생성, 선언적 언어 사용, 기업 앱에 필요한 확장성, 신뢰성, 일관성, 보안의 자동화를 통해 AI의 이점을 가속화하면서 위험을 완화하는 데에 도움을 준다. 생성형 개발의 경우 데이터 계층에서 데이터의 복잡성을 처리하고, 의도, 기밀성, 유효성 검사, 무결성 등 애플리케이션 데이터 규칙이 데이터 엔진에 의해 적용된다. 이를 가능케 하는 오라클의 융합형 데이터 엔진인 데이터베이스 23ai는 기업이 필요로 하는 투명한 데이터 일관성, 성능, 가용성을 유지하며 모든 데이터 유형 및 워크로드를 지원한다. 또한 개발자는 오라클 클라우드 인프라스트럭처(OCI) 및 오라클 데이터베이스앳애저(Oracle Database@Azure)에서 제공되는 오라클 데이터베이스 23ai의 오라클 자율운영 데이터베이스(Oracle Autonomous Database)를 통해서도 오라클 데이터베이스 23ai의 기능을 활용할 수 있다. 자율운영 데이터베이스는 다양한 신규 기능을 통해 생성형 개발을 더욱 간소화하고 가속화한다. RAG 및 기타 향상된 기능을 갖춘 자율운영 데이터베이스 셀렉트 AI(Oracle Autonomous Database Select AI)는 검색증강생성(RAG) 및 AI 벡터 검색을 통해 엔터프라이즈 데이터에 대규모 언어 모델(LLM)을 적용할 때 자연어 질문에 대한 보다 정확한 응답을 제공함으로써, 환각(hallucination) 현상을 최소화할 수 있도록 지원한다. 오라클은 자율운영 데이터베이스와 구글 제미나이(Google Gemini), 앤트로픽 클로드(Anthropic Claude), 허깅페이스(Hugging Face) 등의 추가 LLM을 통합할 수 있는 내장 통합 기능으로 기업이 생성형 AI를 통해 더 많은 가치를 얻을 수 있도록 돕는다. 자율운영 데이터베이스는 7개 제공업체의 35개 LLM과 통합 가능하다. 또한, 자율운영 데이터베이스는 엔비디아 GPU를 지원해, GPU 서버를 직접 프로비저닝하거나 관리할 필요 없이 GPU에 액세스하여 특정 AI 데이터 작업의 성능을 가속화할 수 있다. 이외에도 오라클은 ▲데이터 스튜디오(Data Studio)의 AI 기능 향상 ▲그래프 스튜디오(Graph Studio)의 기능 향상 ▲개발자를 위한 자율운영 데이터베이스 서비스 ▲개발자를 위한 자율운영 데이터베이스 컨테이너 이미지 ▲자율운영 데이터베이스 셀렉트AI 합성 데이터 생성 등을 지원한다고 밝혔다. 오라클의 후안 로이자(Juan Loaiza) 미션 크리티컬 DB 기술 총괄 부사장은 “자동차를 최대 효율로 활용하기 위해서는 포장도로를 건설해야 했던 것처럼, AI 앱 생성의 이점을 최대한 누리기 위해서는 애플리케이션 개발 인프라에 변화가 필요하다. 생성형 개발은 개발자가 AI를 활용하여 이해하기 쉽고 안전한 모듈형의 확장 가능한 기업용 애플리케이션을 신속하게 생성할 수 있도록 지원한다. 사용자는 자연어로 데이터 및 애플리케이션과 상호 작용하고 시맨틱 콘텐츠를 기반으로 데이터를 검색할 수 있다”면서, “오라클 데이터베이스 23ai는 엔터프라이즈 앱의 생성형 개발을 획기적으로 가속화할 수 있는 AI 중심 인프라를 제공한다”고 말했다.
작성일 : 2024-09-13
파수, AI 개인정보 관리 기능 더한 기업 데이터 백업 솔루션 ‘FC-BR’ 출시
파수가 기업 데이터 백업 솔루션 ‘FC-BR(Fasoo Content Backup and Recovery)’에 AI 기능을 더한 신규 버전을 출시했다. 새로워진 FC-BR은 AI를 기반으로 백업 데이터의 민감 정보를 식별해 개인정보 등을 보다 안전하게 관리하고 데이터의 활용도 또한 높인다. 파수의 FC-BR은 파수의 문서 보호 솔루션과 연동해 랜섬웨어 공격 등의 데이터 유실에 대비할 수 있는 파일 중심의 백업 솔루션이다. 필요한 문서만 실시간으로 자동으로 백업하고, 원클릭으로 간단하게 복구가 가능하다. 파수의 데이터 보안 솔루션인 ‘파수 엔터프라이즈 디알엠(Fasoo Enterprise DRM, FED)’ 및 데이터 식별·분류 솔루션인 '파수 데이터 레이더(Fasoo Data Radar, FDR)' 등의 보안 등급이나 분류 라벨은 물론, 부서나 사용자, 문서 확장자 등을 기준으로 자동 백업 대상을 설정할 수 있어 효율성과 경제성이 높다는 것이 파수의 설명이다.     AI 기능을 접목한 새로운 FC-BR은 AI를 기반으로 백업된 문서 내에 포함된 개인정보 등의 민감한 정보를 식별한다. 일반 텍스트 문서 외에 이미지 또는 PDF 내의 민감정보까지 탐지한다. AI 기반 자연어 처리 기술을 통해 복잡한 문장에서도 맥락을 파악하고 성별, 이름, 주소 등 다양한 유형의 개인정보를 검출할 수 있다. 검출 결과 또한 파일 미리보기 기능을 통해 별도의 앱 설치나 다운로드 없이 간편하게 확인이 가능하다. FC-BR의 이번 신규 버전에는 AI 기반의 의미 검색(시맨틱 검색) 기능도 추가했다. 검색의 의미를 이해하고 단어의 뜻과 문맥을 고려해서 정확한 검색 결과를 연관성이 높은 순서대로 제시한다. 한편, 파수는 이번 FC-BR의 업데이트가 기업용 LLM ‘엘름(Ellm)’을 출시하는 등 AI 기업으로 거듭나고 있는 자사의 AI 전략의 일환이라고 밝혔다. 파수는 AI 비전 중 하나인 ‘AI 기반(AI-Powered) 애플리케이션’ 전략 하에 기존 솔루션에 포트폴리오에 순차적으로 AI 기능을 더하고 있다.  최근에는 문서 요약과 시맨틱 검색 등이 가능한 ‘AI어시스턴트’ 기능을 더한 문서 관리 솔루션 ‘랩소디(Wrapsody)’와 외부 협업 플랫폼 ‘랩소디 에코(Wrapsody eCo)’을 선보인 바 있다. 파수의 조규곤 대표는 “백업 및 복원 효율을 높이면서 비용을 절감하는 파수의 백업 솔루션 FC-BR은 급증하는 랜섬웨어의 공격 등으로부터 안전하게 데이터를 지키는 효율적인 방법”이라며, “AI 기능으로 더 똑똑해진 FC-BR은 개인정보 관리라는 핵심 역량은 물론, 단순한 데이터 백업에서 나아가 다양한 활용이 가능하도록 데이터의 가치를 높여준다”고 전했다.
작성일 : 2024-08-27
[포커스] 오라클, 오픈소스 DB에서 생성형 AI의 활용 위한 서비스 발표
오라클은 트랜잭션 및 레이크하우스 규모 분석을 위한 오픈소스 기반의 MySQL 데이터베이스 처리 서비스인 히트웨이브(HeatWave)를 제공하고 있다. 여기에 생성형 AI를 통합한 서비스가 히트웨이브 생성형 AI(HeatWave GenAI)이다. 히트웨이브 생성형 AI는 인-데이터베이스(in-database) 대규모 언어 모델(LLM), 자동화된 인-데이터베이스 벡터 저장소, 확장 벡터 처리 및 비정형 콘텐츠 기반의 맥락화된 자연어 대화 기능 등을 제공한다. ■ 정수진 편집장   오라클의 니푼 아가르왈(Nipun Agarwal) MySQL & 히트웨이브 개발 수석부사장은 “히트웨이브는 완전 관리형 데이터베이스 처리 서비스로서 멀티 클라우드 환경에서 제공된다. 초기에는 MySQL 기반의 OLTP(온라인 트랜잭션 처리) 서비스로 제공되었고, 이후 꾸준히 기능을 강화해 왔다. 이번에 생성형 AI 및 벡터 저장소 기능을 포함하게 되면서, 단일 서버 위에서 더욱 다양한 기능을 제공하게 되었다”고 설명했다. 히트웨이브 생성형 AI는 인-데이터베이스 자동 백터 저장소, 인-데이터베이스 LLM, 확장형 벡터 처리, 히트웨이브 챗(HeatWave Chat) 등 네 가지의 새로운 기능을 선보였다.   ▲ 오라클은 데이터베이스에서 생성형 AI를 활용하기 위한 서비스를 선보였다.   기업의 비정형 콘텐츠에 LLM의 강점을 결합 벡터 저장소는 비정형 콘텐츠에 LLM을 활용하도록 지원함으로써, 기업의 내부 콘텐츠에 LLM의 강점을 적용할 수 있게 돕는다. 히트웨이브에 인-데이터베이스 자동 벡터 저장소를 추가함으로써 비정형 데이터에 대한 시맨틱 검색을 지원하는 등 전통적인 데이터 처리와 다른 방식을 구현한다는 것이 오라클의 설명이다. 아가르왈 수석부사장은 “오브젝트 스토리지의 데이터를 생성형 AI가 히트웨이브 내부에서 처리함으로써 생성형 AI의 강점을 데이터베이스 내부로 가져올 수 있는 독보적인 아키텍처를 구현했다”면서, “데이터 처리 작업 과정을 히트웨이브 내에서 진행함으로써 스토리지의 비용을 줄이고, 확장성과 안정성을 높은 수준으로 구현할 수 있다”고 설명했다. 오라클 인-데이터베이스 벡터 저장소는 벡터 저장소의 생성 과정을 단순화하고 자동화함으로써, 벡터 저장소 생성의 퍼포먼스를 높이고 비용을 줄일 수 있도록 했다. 생성형 AI 앱의 개발은 먼저 벡터 스토어를 구성한 뒤 LLM을 활용해 이 벡터 스토어를 적용하는 과정으로 진행된다. 오라클은 이 두 단계를 합치고 단계별로 하나의 호출 커맨드만으로 처리할 수 있다면서, 앱이 생성형 AI를 활용하는 방식을 단순화할 수 있다고 설명했다. 또한 데이터가 데이터베이스 밖으로 나가지 않기 때문에 보안도 강화할 수 있다.   LLM 활용의 비용은 줄이고 속도는 높인다 히트웨이브 생성형 AI는 데이터베이스 내부에서 CPU를 사용해 LLM을 구동할 수 있도록 했다. LLM을 구축 및 활용하기 위해 GPU 서비스를 추가로 사용하지 않아도 된다는 것이다. 아가르왈 수석부사장은 인-데이터베이스 LLM의 이점으로 단순화, 저비용, 유연성, 보안/퍼포먼스 등을 꼽았다. 추가 클라우드 서비스나 GPU가 필요 없고, 동일한 서비스를 여러 클라우드에서 사용할 수 있으며, 데이터가 데이터베이스 밖으로 나가지 않기 때문이다. 아가르왈 부사장은 “물론 외부 LLM을 적용하는 것도 가능하다. 오라클 클라우드 인프라스트럭처(OCI)에서 제공하는 GPU 기반의 생성형 AI 서비스를 활용할 수 있지만, 전력 소비 등에서 CPU 기반 인-데이터베이스 LLM의 이점이 크다고 본다”고 전했다. 인-데이터베이스 LLM의 또 다른 이점은 히트웨이브를 사용할 수 있는 모든 클라우드 환경에서 LLM을 사용할 수 있으며, 히트웨이브의 오토ML과 연동해 LLM을 활용한 쿼리 정확도 및 성능의 향상이 가능하다는 점이다. 오라클은 오토ML이 인풋 데이터의 양을 줄여줘서 LLM 호출 비용을 줄일 수 있다는 설명도 덧붙였다. 또한, 히트웨이브 내에서 벡터 프로세싱 지원이 추가됐다. 히트웨이브 MySQL에서 신규 벡터 데이터타입을 지원해 MySQL의 쿼리를 효율적으로 사용할 수 있게 됐다. 아가르왈 수석부사장은 “인 메모리 프로세싱이 가능해지면서 여러 노드에서 확장이 용이해졌고, 낮은 비용으로 빠른 벡터 처리를 지원할 수 있게 됐다. 스노우플레이크, 데이터브릭스, 구글 빅쿼리 등과 쿼리 처리 성능을 비교한 자체 테스트에서는 15~30배 높은 속도를 보였다”고 전했다. 이번에 함께 선보인 히트웨이브 챗(HeatWave Chat)은 SQL 또는 자연어를 기반으로 히트웨이브와 시각적으로 상호작용하는 인터페이스를 제공한다. 이는 히트웨이브 생성형 AI에 기반한 여러 앱 중 하나로 서버 내 채팅 이력, 인용 내용, LLM 옵션 등을 저장하고, 히트웨이브 환경 내에서 자유롭게 챗을 사용할 수 있게 한다.   ▲ 오라클의 니푼 아가르왈 수석부사장은 히트웨이브 생성형 AI를 추기 비용 없이 사용할 수 있다고 소개했다.   자동화, 단순화, 안전성 등을 강점으로 내세워 오라클은 히트웨이브 생성형 AI가 인-데이터베이스에서 통합된 자동화 솔루션으로 높은 안전성과 앱 개발의 단순성을 제공한다고 설명했다. 이를 통해 앱 개발 비용을 줄이면서 보안도 강화할 수 있다는 것이다. 비용과 관련해 아가르왈 수석부사장은 “히트웨이브는 완전 관리형 서비스로 제공되며 라이선스 단위로 관리하지 않기 때문에, 히트웨이브 내에서 생성형 AI를 활용하기 위한 추가 비용이 없다”면서, “다른 업체는 머신러닝, OLTP, 생성형 AI 등을 별도의 서비스로 구성하고 있지만, 오라클은 모든 고객이 모든 데이터에 AI를 사용할 수 있도록 하기 위해 데이터 처리 플랫폼에 생성형 AI 기능을 내장했으며, 유료화나 가격 인상 계획 또한 없다”고 설명했다. 오라클은 보안 관점에서 인-데이터베이스 벡터 저장소가 유용하다는 점도 강조했다. 많은 LLM이 공개된 콘텐츠를 활용하지만, 기업 내부 콘텐츠에 LLM을 적용하고자 하는 요구도 있다. 오라클은 기업 데이터를 기반으로 LLM을 추가 생성할 필요가 없이, 벡터 저장소의 결과값을 LLM의 입력값으로 피딩하면 기업 데이터의 유출 없이 LLM을 사용할 수 있다는 점을 내세운다. 기업 데이터의 이력을 저장하지 않고 입력값으로만 사용하기 때문에 데이터 보호 수준이 높다는 것이다.  아가르왈 수석부사장은 “인-메모리 데이터베이스 안에서 모든 데이터를 스캔해 결과를 도출하기 때문에 정확한 벡터 처리 결과값을 얻을 수 있다. 여기에 RAG(검색 증강 생성)를 사용한다면 공개 데이터를 사용하는 것과 다르게 LLM의 문제로 꼽히는 환각현상을 줄일 수 있다”고 전했다. 한편, 한국어 지원에 대해서는 “현재 히트웨이브 생성형 AI는 메타의 라마 3(Llama 3)를 기반 LLM 모델로 사용하는데, 영어만큼 정확도가 높지는 않지만, 기술이 빠르게 발전하고 있어 수개월 내에 한국어의 정확도가 더욱 높아질 것으로 본다”고 밝혔다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-08-02
오라클, 자연어 기반 앱 개발 지원하는 ‘에이펙스 AI 어시스턴트’ 발표
오라클이 에이펙스(APEX) 로코드(low-code) 개발 플랫폼의 최신 릴리스에 새롭게 추가되는 AI 기능을 발표했다. 오라클 에이펙스의 에이펙스 AI 어시스턴트(APEX AI Assistant)는 애플리케이션 개발 과정을 간소화하여 개발자들이 풍부한 기능을 갖춘 대규모 미션 크리티컬 애플리케이션을 신속하게 구축할 수 있도록 돕는다.  에이펙스 AI 어시스턴트의 자연어 프롬프트를 사용하면 원하는 기능 및 구성 요소 지정, SQL 문 자동 생성, 원클릭 디버그 수정, 테이블 이름 자동 저장, 기존 애플리케이션에 즉시 사용 가능한 대화형 인터페이스 추가 등 다양한 작업을 수행할 수 있다. 오라클 에이펙스는 오라클 데이터베이스 및 오라클 자율운영 데이터베이스를 비롯한 모든 오라클 데이터베이스 서비스에서 무상으로 지원되는 기능으로, 무료 체험이 가능하다. 오라클 에이펙스는 선언적 개발 방식을 제공함으로써 복잡한 기존의 코딩 방식을 대체한다. 이를 통해 1/100 수준의 적은 코드량과 20배 빨라진 속도로 미션 크리티컬 엔터프라이즈 애플리케이션을 구축 및 배포할 수 있도록 지원한다. 오라클 에이펙스는 이미 2100만 개 이상의 애플리케이션 구축에 활용된 바 있으며, 다양한 글로벌 산업 분야에서 85만 명 이상의 개발자가 활용하고 있다. 오라클은 “에이펙스는 오라클 데이터베이스(Oracle Database) 및 오라클 자율운영 데이터베이스 (Oracle Autonomous Database)를 비롯한 모든 오라클 데이터베이스 서비스에 포함되어 있으며, 탁월한 애플리케이션 성능과 함께 업계 최고 수준의 안전성, 가용성, 확장성을 제공한다”고 설명했다. 예를 들어, 오라클 데이터베이스 23ai(Oracle Database 23ai)의 AI 벡터 검색(AI Vector Search) 기능과 오라클 에이펙스를 함께 활용하면 문서, 이미지, 기타 비정형 데이터에 대한 시맨틱 검색과 비공개 비즈니스 데이터 검색을 한 번에 수행할 수 있다.     오라클 에이펙스가 새롭게 선보이는 향상된 AI 기능으로는 에이펙스 AI 어시스턴트,  앱 생성 어시스턴트,  대화형 AI 인터페이스 등이 있다. 자연어 사용자 프롬프트로부터 유효한 SQL문을 생성하는 ‘에이펙스 AI 어시스턴트’는 개발자 대신 SQL 구문을 기억하고, SQL 쿼리 작성을 자동화한다. 기존 코드에 대한 설명을 제공하고, 간단한 클릭만으로 적용 가능한 코드 버그 수정안을 제안하여 개발자가 반복적인 코딩 작업에서 벗어날 수 있도록 지원한다. ‘앱 생성 어시스턴트(Create App Assistant)’는 자연어 사용자 프롬프트로 원하는 속성과 기능을 지정하여 새로운 애플리케이션 청사진(blueprints)을 생성할 수 있는 기능이다. 개발자는 이 기능을 활용하여 신규 애플리케이션 개발을 간소화하고, 기본적인 코딩 작업 대신 고유한 맞춤형 애플리케이션 기능 제작에 에너지 및 리소스를 집중할 수 있다. ‘대화형 AI 인터페이스(Conversational AI dialogs)’는 즉시 사용 가능한 대화형 인터페이스를 기존 애플리케이션에 간단히 추가하여 최종 사용자가 애플리케이션과 자연어로 대화할 수 있도록 지원하는 기능이다. 개발자는 이 기능을 활용하여 생성형 AI 또는 자연어 처리 구성 요소를 처음부터 직접 구축할 필요 없이 더욱 풍부한 인앱(in-app) 경험을 제공할 수 있다. 오라클의 마이크 히치와(Mike Hichwa) 소프트웨어 개발 담당 수석 부사장은 “매일 SQL문을 작성하는 개발자의 입장에서 사용 빈도가 떨어지는 테이블 및 열의 이름이나 구문을 직접 기억한다는 것은 무척 어려운 일이다. 개발자에게 있어 맥락에 맞는 열 이름 결정, 조인(JOIN), 복잡한 구문 생성 등의 기능을 지원하는 AI 어시스턴트는 진정 획기적이라 할 수 있다”면서, “예를 들어, ‘미국의 캔자스시티와 위치타 지점으로 가장 최근에 배송하고 남은 라지 사이즈의 핑크색 티셔츠를 모두 보여줘’와 같이 평범한 자연어를 입력하면 에이펙스 AI 어시스턴트가 이를 자동화하여 정확한 결과를 보여 주게 된다”고 설명했다.
작성일 : 2024-06-19
파수, 랩소디/랩소디 에코에 AI 어시스턴트 추가
파수가 기존 솔루션에 AI 기능을 확대, 사용자들이 손쉽게 AI로 업무 효율성과 생산성을 혁신할 수 있도록 돕겠다고 밝혔다. 파수는 그 첫 번째 제품군으로 문서 관리 솔루션인 ‘랩소디(Wrapsody)’와 외부 협업 플랫폼인 ‘랩소디 에코(Wrapsody eCo)’의 신규 업데이트 버전을 통해 문서 요약과 시맨틱 검색 등이 가능한 ‘AI 어시스턴트’ 기능을 제공한다. 최근 기업용 LLM(대규모 언어 모델)인 ‘엘름(Ellm)’을 출시한 파수는 올해 초 ‘고객들의 AI 활용을 돕는 AI 기업’으로의 변화를 선포하고, AI 비전 중 하나로 AI 기능을 접목하는 ‘AI 기반(AI-Powered) 애플리케이션’을 발표한 바 있다. 파수는 이 전략의 일환으로 랩소디와 랩소디 에코의 신규 버전을 통해 AI가 제대로 적용된 문서중앙화 솔루션과 외부 협업 플랫폼의 기능을 제공한다. 새로워진 랩소디와 랩소디 에코는 AI 어시스턴트 기능을 추가해 사용 편의성과 업무 효율성을 높인다. 상용 LLM과 연동된 AI 어시스턴트를 통해 최대 5개의 문서를 한 번에 비교하거나 요약하고 문서 정보를 검색할 수 있다. 원하는 문서를 AI 채팅창에 끌어다 놓는 간편한 방식으로 대상 문서를 지정하고, ‘문서 요약’ 등의 가이드 버튼을 클릭하거나 자유롭게 질문을 입력해 내용 요약은 물론, 문서 간 차이점이나 필요한 정보를 찾고 번역하거나 정리하도록 시킬 수 있다. 예를 들어 간단한 질문 입력으로 여러 개의 영문 보고서에서 언급된 특정 주제에 대해 한글로 요약 및 정리된 내용을 확인할 수 있다.     한편 AI 기능이 적용된 랩소디는 모든 문서를 암호화 처리 후 중복 없이 중앙저장하고 관리해 기존 문서 중앙화를 대체하는 문서 관리 플랫폼이다. 문서 가상화 기술을 기반으로 다수 사용자가 분산 저장해도 하나의 문서로 관리돼, 한 사용자가 문서 작업 후 저장만 하면 다른 사용자가 저장한 파일들도 최신 버전으로 자동 동기화된다. 문서 자산화, 버전 관리, 권한 관리가 가능해 조직 내 생성형 AI 구축 시 AI를 학습하기 위한 내부 데이터 관리에도 적합하다. 또한 이번 업데이트를 통해 AI 기능 외에도 드라이브 용량 제어 기능을 추가해 관리자가 개인이나 부서 단위로 드라이브의 용량을 일괄 혹은 각각 설정할 수 있도록 했다. 랩소디 에코는 문서 가상화 기술을 기반으로 안전하고 효율적인 외부 협업 환경을 구축하는 플랫폼이다. 모든 문서는 암호화 공유되며, 언제든지 열람·편집 권한 제어는 물론, 구성원별로 세밀한 보안 단계를 적용할 수 있다. 다양한 협업 솔루션을 손쉽게 통합하고, 문서 공유나 채팅 등 모든 협업 이력을 한눈에 파악할 수 있으며, 워크크룹 이력에서 채팅 이력까지 같이 확인할 수 있다. 파수의 조규곤 대표는 “AI 어시스턴트 기능을 추가한 랩소디와 랩소디 클라우드는 AI를 제대로 적용한 문서 중앙화 솔루션과 협업 플랫폼으로서, 사용자들이 실제로 편의성과 효율성을 크게 체험할 수 있을 것”이라며, “최근 출시한 기업용 sLLM 엘름(Ellm)과 이번에 선보인 랩소디, 랩소디 에코 외에도 파수는 고객들이 AI를 업무에 제대로 활용할 수 있도록 다양한 방면으로 AI를 접목해 나갈 것”이라고 말했다.
작성일 : 2024-05-27