몽고DB는 통합 AI 데이터 플랫폼 비전과 전략을 강화하는 새로운 기능을 발표했다. 몽고DB는 기업이 프로덕션 환경에서 AI 에이전트를 운영하는 데 필요한 실시간 데이터베이스, 풀텍스트 및 벡터 검색, 메모리, 임베딩, 리랭커 모델을 단일 플랫폼으로 제공한다는 전략을 구체화했다. 이를 통해 서로 다른 시스템을 직접 연결하고 대규모 환경에서의 작동 여부를 고민해야 했던 문제를 해결할 수 있다는 설명이다.
현재 퍼블릭 프리뷰로 제공되는 몽고DB 벡터 서치용 보이지 AI 자동 임베딩(Automated Voyage AI Embeddings in MongoDB Vector Search)은 데이터가 기록되거나 업데이트될 때 임베딩을 자동으로 생성해 에이전트가 정확한 컨텍스트를 실시간으로 확보할 수 있도록 지원한다. 에이전트의 성능은 무엇을 기억하고 검색할 수 있는지에 달려 있다. 임베딩 모델은 정보를 수학적 의미를 표현하는 숫자 배열인 벡터로 변환해 에이전트가 적절한 정보를 찾을 수 있게 한다. 보이지 AI 자동 임베딩은 그동안 기업의 정확한 AI 검색을 가로막았던 수동 인프라 구축 작업을 제거한다. 이전에는 검색 인프라 구축에 수 주가 소요됐지만 이제는 몇 분 만에 시맨틱 검색을 진행할 수 있다.
높은 정확도를 위해서는 강력한 메모리가 필요하다. 메모리가 없는 에이전트는 학습이나 개선이 불가능하며 신뢰할 수 없다. 현재 정식 출시된 LangGrpah.js 장기 메모리 스토어는 자바스크립트 및 타입스크립트 개발자에게 파이썬 개발자가 사용하는 수준의 대화 간 지속되는 에이전트 메모리를 제공한다. 이는 몽고DB 아틀라스를 단일 백엔드로 활용하여 구동되기 때문에 별도의 데이터베이스가 필요하지 않다. 몽고DB는 에이전트가 올바르게 동작하도록 적절한 컨텍스트와 메모리를 제공하는 과정을 간소화했다고 설명했다.
또한, 몽고DB 8.3은 애플리케이션 코드 변경 없이도 몽고DB 8.0 대비 읽기 성능 최대 45%, 쓰기 성능 최대 35%, ACID 트랜잭션 성능 최대 15%, 복잡한 작업 성능을 최대 30% 향상시켰다. 몽고DB 8.3은 빠른 검색과 컨텍스트 업데이트 속도 및 무중단 운영에 최적화된 구조로 설계됐다. 또한 일반적인 데이터 변환 작업을 데이터베이스 자체로 통합해 에이전트에게 데이터를 제공하기 위한 별도의 외부 파이프라인을 유지할 필요가 없어졌다.
몽고DB는 AWS, 구글 클라우드, 마이크로소프트 애저, 온프레미스 및 하이브리드 환경 전반에 걸쳐 운영된다. 고객은 배포 환경에 관계없이 단일 데이터베이스와 API를 활용할 수 있다. AWS 프라이빗링크 크로스 리전 연결이 정식 출시됨에 따라 서로 다른 리전에 위치한 몽고DB 아틀라스 클러스터 간 데이터베이스 트래픽은 공용 인터넷에 노출되지 않고 전용 네트워크 내에서만 이동한다. 이를 통해 보안 팀은 컴플라이언스와 글로벌 확장성을 동시에 확보하며 크로스 리전 아키텍처를 더 빠르게 승인할 수 있다.
몽고DB의 CJ 데사이 CEO는 “프로덕션 환경에서 에이전트를 운영할 때 가장 까다로운 부분은 모델 자체가 아니라 그 근간을 이루는 데이터 레이어”라면서, “대규모로 운영되는 에이전트를 신뢰하기 위해서 에이전트는 올바른 컨텍스트를 검색하고 세션 간 메모리를 유지하며 기업이 필요로 하는 어느 곳에서든 기계와 같은 속도로 작동해야 한다”고 말했다.








