• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " OCI"에 대한 통합 검색 내용이 144개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오라클-구글 클라우드, AI 기반 데이터 혁신 위해 파트너십 확대
오라클이 구글 클라우드와 파트너십을 확장하고 기업 데이터 전반에 인공지능을 적용할 수 있는 새로운 설루션을 선보인다. 이번 협력으로 출시된 제미나이 엔터프라이즈용 오라클 AI 데이터베이스 에이전트(Oracle AI Database Agent for Gemini Enterprise)는 사용자가 자연어를 통해 오라클 데이터와 간편하게 상호작용하도록 돕는다. 또한 오라클 AI 데이터베이스앳구글 클라우드는 전 세계 더 많은 리전으로 가용성을 넓히고 새로운 기능을 추가해 기업의 클라우드 전환을 지원한다. 오라클 클라우드 인프라스트럭처(OCI) 네이선 토머스 제품 관리 부문 수석부사장은 “제미나이 엔터프라이즈의 기능과 오라클의 데이터베이스 성능, 보안, 거버넌스가 결합해 기업 데이터에 자연어로 접근하고 조치를 수행하는 과정이 쉬워졌다”면서, “AI가 데이터베이스 계층에서 직접 적용되어 정확도를 높이고 모델을 효율적으로 활용할 수 있게 됐다”고 설명했다. 그는 이번 협력이 고객이 신뢰할 수 있는 비즈니스 데이터를 기반으로 에이전틱 AI를 더 쉽게 사용하도록 도울 것이라고 덧붙였다. 구글 클라우드의 사티시 토머스 응용 AI 및 플랫폼 생태계 부문 부사장은 “고객사가 에이전틱 AI로 실질적인 가치를 만들려면 지능형 에이전트를 사용해 비즈니스 데이터와 상호작용하는 안전한 방법이 필요하다”고 전했다. 그는 양사가 해당 에이전트를 제미나이 엔터프라이즈를 통해 제공함으로써 고객이 오라클 데이터베이스의 데이터를 의미 있는 성과로 전환하는 유연성을 높였다고 강조했다. 구글 클라우드 마켓플레이스에서 제공되는 오라클 AI 데이터베이스 에이전트는 사용자가 자연어로 질문하면 오라클 AI 데이터베이스의 내장 기능을 활용해 문맥에 맞는 답변을 제공한다. 고객은 지역별 매출 추세 분석 같은 질문을 던지고 가격 조정이나 영업 우선순위 결정에 필요한 답변을 즉시 받을 수 있다. 이 모든 과정은 복잡한 SQL 작성이나 별도 도구 구축 없이 이루어진다. 이 에이전트는 요청을 해석해 데이터를 다른 곳으로 옮기지 않고도 인사이트를 제공한다. 개발자는 구글의 제미나이 엔터프라이즈 에이전트 플랫폼 내 다른 AI 도구와 연결해 데이터 추출이나 분석, 시각화 작업을 자동화할 수도 있다. 일본의 에이전틱 AI 설루션 기업인 AI 시프트는 오라클 자율운영 AI 데이터베이스를 사용해 자사 플랫폼을 구동 중이며, 향후 오라클 AI 데이터베이스 에이전트를 활용할 계획이다. 글로벌 결제 서비스 기업인 월드라인도 오라클 AI 데이터베이스앳구글 클라우드를 도입해 결제 처리 플랫폼을 현대화하고 있다.  오라클은 실시간 마이그레이션을 지원하는 오라클 클라우드 인프라스트럭처 골든게이트를 통해 데이터 이동의 편의성을 높였다. 이 서비스는 구글 빅쿼리와 연동되어 거의 실시간에 가까운 분석을 제공한다. 또한 오라클 자율운영 AI 레이크하우스와 구글 빅쿼리를 통합해 데이터 중복 없이 오픈 포맷 데이터를 분석할 수 있게 했다. 현재 오라클 AI 데이터베이스앳구글 클라우드는 도쿄, 오사카, 서울을 포함한 전 세계 15개 리전에서 사용할 수 있다. 오라클은 향후 12개월 안에 토리노와 멕시코 등 추가 리전으로 서비스를 확대해 나갈 예정이다.
작성일 : 2026-04-27
오라클, AI 데이터베이스 AWS 서울 리전 출시… 국내 기업의 클라우드 이전 가속화
오라클이 아마존웹서비스(AWS)와 협력하여 오라클 AI 데이터베이스@AWS(Oracle AI Database@AWS) 서비스를 국내 고객에게 공식 제공한다고 밝혔다. 이번 서비스는 AWS의 서울 리전에서 출시되었으며, 국내 기업은 AWS 내 오라클 클라우드 인프라스트럭처(OCI) 전용 인프라에서 오라클 엑사데이터 데이터베이스 서비스와 오라클 자율운영 AI 데이터베이스 등을 운영할 수 있다. 이번 서비스 출시로 기업은 기존 온프레미스 환경에서 운영하던 오라클 워크로드를 큰 변경 없이 AWS로 옮길 수 있게 되었다. 오라클은 “온프레미스와 동일한 기능과 성능을 제공하여 클라우드 전환 과정에서의 복잡성을 줄였다”고 설명한다. 또한 오라클과 AWS 사이의 데이터를 통합하는 제로 ETL 기능을 통해 아마존 베드록과 같은 생성형 AI 서비스와 고급 분석 도구를 쉽게 활용할 수 있는 환경을 마련했다. 전국 1380여 개 매장을 운영하는 뷰티 및 웰니스 리테일 기업인 CJ올리브영은 이 서비스를 활용해 핵심 워크로드를 AWS 내 오라클 데이터베이스 서비스로 이전하고 있다. CJ올리브영 박원호 팀장은 “오라클 AI 데이터베이스@AWS는 핵심 워크로드를 클라우드로 옮기는 손쉬운 경로를 제공한다”면서, “아마존 베드록 등 AWS의 인공지능 서비스와 통합해 비즈니스 성과를 높일 수 있을 것으로 기대한다”고 말했다.     한국오라클 김성하 사장은 이번 출시가 국내 기업의 미션 크리티컬 워크로드 현대화와 AI 혁신 수요에 대응하기 위한 것이라고 설명했다. AWS코리아 함기호 대표 또한 국내 기업이 애플리케이션 재설계 없이 오라클 워크로드를 클라우드로 이전하고 보안성과 확장성을 누릴 수 있게 되었다고 덧붙였다. 고객은 AWS 마켓플레이스에서 서비스를 직접 구매하거나 유클릭, 에티버스와 같은 공인 채널 파트너를 통해 이용할 수 있다. 유클릭 김철 대표와 에티버스 정인성 대표는 이번 서비스가 고객의 AI 기반 혁신을 가속화하고 운영을 간소화하는 중요한 기점이 될 것이라고 강조했다. 이번 서울 리전 출시는 기존 도쿄, 시드니, 런던 등 11개 리전에 이은 확장이다. 오라클과 AWS는 앞으로 싱가포르, 오사카, 파리 등 10개 리전으로 서비스 범위를 더욱 넓힐 계획이다.
작성일 : 2026-04-07
일일이 챙기지 않아도 AI가 알아서… 오라클, ‘스스로 일하는’ 기업용 앱 공개
오라클이 기업의 업무 방식을 재정의하는 퓨전 에이전틱 애플리케이션(Fusion Agentic Applications)을 발표했다. 이 애플리케이션은 성과 지향적이며 추론에 기반해 선제적으로 작동하는 AI 에이전트 팀이 서로 협업하는 새로운 엔터프라이즈 소프트웨어 제품군이다. 오라클 퓨전 클라우드 애플리케이션에 내장된 이 서비스는 기업 내부의 데이터와 워크플로, 승인 체계 등에 안전하게 접근해 비즈니스 프로세스 안에서 직접 의사결정을 내리고 실행한다. 기존의 AI 어시스턴트와 달리 트랜잭션 시스템에서 기본으로 제공되어 기업 규모의 실시간 작업이 가능하다는 점을 특징으로 내세운다. 오라클은 퓨전 에이전틱 애플리케이션이 단순한 기록 시스템을 넘어 설정된 비즈니스 목표를 달성하기 위해 직접 판단하고 행동하는 단계로 발전했다고 설명했다. 오라클의 스티브 미란다 부사장은 “기존의 업무 방식은 프로세스 관리에 너무 많은 시간이 소모되어 오늘날의 비즈니스 속도에 부합하지 않는다”면서,  “이번 애플리케이션은 기업이 더 빠르게 성과를 창출하고 전략적 활동에 집중하도록 도울 것”이라고 밝혔다.     이 애플리케이션은 구체적인 역할과 전문성을 가진 AI 에이전트 그룹으로 구성된다. 에이전트들은 목표 달성을 위해 어떤 업무를 언제 수행해야 하는지 스스로 판단하며 기존 보안 프레임워크 내에서 자율적으로 움직인다. 사람은 결과가 크게 달라질 수 있는 예외 사항이나 중요한 의사결정 단계에만 관여하게 된다. 이를 통해 기업은 업무 진행 과정에서 사용자가 상황을 반복해서 설명할 필요 없이 지속적인 맥락을 유지하며 업무를 추진할 수 있다. 현재 오라클은 재무, 인사(HR), 공급망, 고객 경험 분야에서 활용 가능한 22개의 신규 에이전틱 애플리케이션을 제공하고 있다. 워크포스 오퍼레이션즈(Workforce Operations) 에이전틱 애플리케이션은 인사 관리자가 데이터 수집 시간을 줄이고 급여 관련 문제를 예방하도록 돕는다. 공급망 분야에서는 디자인 투 소스 워크스페이스(Design-to-Source Workspace) 에이전틱 애플리케이션을 통해 제품 비용과 규제 준수 위험을 낮출 수 있다. 영업 팀을 위한 크로스셀 프로그램 워크스페이스(Cross-Sell Program Workspace) 에이전틱 애플리케이션은 성장 기회를 선제적으로 파악해 고객 유치 비용을 절감하며, 재무 팀용 콜렉터스 워크스페이스(Collectors Workspace) 에이전틱 애플리케이션은 대금 회수를 가속화해 현금 흐름을 개선한다. 이러한 서비스는 오라클 클라우드 인프라스트럭처(OCI)에서 거대 언어 모델(LLM)을 기반으로 구동된다. 오라클은 기업이 직접 AI 자동화 시스템을 구축할 수 있도록 오라클 AI 에이전트 스튜디오(Oracle AI Agent Studio)도 함께 지원한다. 기업은 에이전틱 애플리케이션 빌더(Agentic Applications Builder)를 활용해 복잡한 개발 과정 없이도 오라클이나 파트너사의 에이전트를 연결해 사용할 수 있다. 오라클은 가시성과 투자 대비 효과 측정, 안전 제어 기능을 통해 에이전트가 대규모 환경에서도 안전하게 가치를 창출할 수 있다고 덧붙였다.
작성일 : 2026-03-31
[포커스] 오라클, “DB를 넘어 데이터 중심의 AI 플랫폼 기업으로”
한국오라클이 2월 3일 연례 콘퍼런스인 ‘오라클 AI 서밋(Oracle AI Summit) 2026’을 열고, 데이터와 AI의 결합을 통한 기업의 생존 및 성장 전략을 제시했다. 오라클은 AI 벡터 검색 기능이 통합된 데이터베이스 새 버전을 선보이면서, 복잡한 데이터를 의미론적으로 분석하고 검색 증강 생성(RAG) 기술을 효율적으로 구현하는 방안을 설명했다. 또한 스스로 계획하고 행동하는 에이전틱 AI(agentic AI)와 데이터베이스 관리를 돕는 AI 어시스턴트의 도입을 강조했다. 오라클은 자사의 융합형 아키텍처를 앞세워 기업의 현대적인 AI 기반 비즈니스 환경을 지원할 예정이다. ■ 정수진 편집장     AI의 핵심은 데이터, 데이터와 AI의 통합은 필연 오라클은 기업이 AI를 활용해 성과를 얻기 위해 가장 핵심이면서 중요한 요소로 ‘데이터’를 내세운다. AI가 기업 데이터 관리의 패러다임을 재편하는 필수 요소가 되면서, 오라클은 ‘AI와 데이터가 초기 설계 단계부터 함께 구축’되어야 한다고 강조했다. 오라클은 기업이 특정 부서의 업무를 향상시키는 데에는 AI를 잘 활용하고 있지만, 이를 전사 업무 프로세스의 향상으로 확장하는 데에는 어려움을 겪고 있는 것으로 보고 있다. 오라클의 티르탄카르 라히리(Tirthankar Lahiri) 미션 크리티컬 데이터 및 AI 엔진 부문 수석 부사장은 그 핵심 원인에 대해 조직 내 데이터가 분산(silo)되어 있기 때문이라고 짚으면서, “융합형 데이터 플랫폼을 통해 데이터 접근성을 통합해야 실질적인 AI 비즈니스 성과를 낼 수 있다”고 전했다. AI를 활용해 기업 비즈니스와 관련된 질문에 대해 답을 얻으려면, 질문과 관련해서 적절한 기업 내부의 데이터를 AI에 제공해야 한다. AI는 제공받은 비즈니스 데이터와 자체 지식, 그리고 공개된 외부 데이터를 결합하여 보다 정확한 결과를 생성할 수 있다. 오라클이 데이터의 중요성을 강조하는 이유가 여기에 있다. 한편으로, 복잡성을 줄이고 AI 기능의 신뢰도를 높이는 것도 중요하다. 분산된 기술이나 개별 제품을 단순히 이어 붙이는 방식은 복잡성과 비용을 키울 수밖에 없다. 오라클은 데이터가 위치한 곳에 AI를 직접 내재화하여 통합 설계하면, 시스템 운영이 단순해지고 기업이 신뢰할 수 있는 빠르고 일관된 AI 혁신이 가능해진다고 보고 있다.   AI를 위한 통합 아키텍처로 차세대 혁신 지원 AI를 위한 오라클의 데이터 전략은 ‘데이터 혁신을 위한 AI(AI for Data)’로 요약할 수 있다. 이 전략은 단순히 AI 기술을 덧붙이는 것이 아니라, AI를 데이터 플랫폼의 가장 핵심적인 부분에 내재화해서, 기업이 AI 리더로 도약하고 새로운 환경에서 번영할 수 있도록 돕는 데 초점을 맞춘다. 오라클 데이터 전략의 주된 방향은 ▲AI, 데이터, 애플리케이션 개발, 그리고 개방형 표준의 통합 구축 ▲개방형 표준에 기반한 융합형 아키텍처로 모든 데이터 유형과 워크로드를 일관된 플랫폼에서 결합하고 탐색할 수 있도록 지원 ▲데이터 사일로 현상을 해결하기 위해, 데이터, AI 모델, 실행 과정을 하나로 아우르는 단일 프레임워크 제공 ▲자체 LLM뿐 아니라 xAI, 구글, 메타, 코히어, 오픈AI 등의 AI 모델을 오라클 인프라 내에 자동으로 임베디드하고 유연하게 수용 ▲기업의 내부 프라이빗 데이터가 보호받을 수 있도록 거버넌스, 프라이버시, 보안을 최우선으로 고려하는 것이다. 오라클은 이런 전략이 집약된 차세대 AI 네이티브 데이터베이스인 ‘오라클 AI 데이터베이스 26ai’를 통해, 기업들이 경쟁사보다 한발 앞서 비즈니스 인사이트를 얻고 생산성 혁신을 달성할 수 있도록 돕는다는 계획이다.   AI 네이티브를 강조한 오라클 데이터베이스 26ai 오라클 AI 데이터베이스 26ai의 핵심 기능은 다음과 같다. 통합 AI 벡터 검색 : 문서, 이미지, 동영상, 관계형 데이터 등 다양한 형태의 데이터를 의미와 맥락을 나타내는 ‘AI 벡터(vector)’로 변환해서 처리한다. 이를 통해 일치하는 값을 찾는 것을 넘어, 의미적 유사성을 기반으로 밀리초(ms) 단위의 고속 검색을 제공한다. 단일 SQL문을 통한 RAG 파이프라인 통합 : AI 벡터 검색으로 찾은 기업 내부 데이터를 LLM과 결합하여 정확하고 맥락에 맞는 답변을 도출하는 RAG(검색 증강 생성) 기능을 지원한다. 또한, 복잡한 RAG 전체 파이프라인을 단일 SQL 구문이나 데이터베이스 API를 통해 간편하게 실행할 수 있다. 데이터베이스 내 에이전틱 AI(agentic AI) 직접 통합 : AI 에이전트를 데이터베이스 내부에 직접 통합 및 설계해서 기업이 쉽고 안전하게 구축, 배포, 관리할 수 있도록 지원한다. 기업의 내부 프라이빗 데이터는 물론 웹 검색 등 외부 공개 데이터까지 결합해서 수준 높은 답변을 제공할 수 있다. AI를 위한 데이터 주석 기능 : AI가 데이터의 의미를 잘못 유추하지 않도록, 사용자가 테이블이나 컬럼의 의미와 용도를 LLM에게 명시적으로 설명해 줄 수 있는 주석(annotations) 기능을 제공한다. 이는 LLM이 더 우수한 결과물을 생성하도록 돕는다. 모든 데이터 유형의 통합 검색 : AI 벡터 검색 기능은 전통적인 관계형 데이터뿐만 아니라 텍스트, 공간, JSON, XML 데이터 등 모든 종류의 데이터 검색과 매끄럽게 결합되어 통합적인 데이터 탐색 환경을 제공한다.   데이터 중심 AI로 엔터프라이즈 혁신 돕는다 오라클은 개방형 생태계를 기반으로 하는 ‘기업용 맞춤형 AI’를 제공하면서, 기업 내부 데이터의 거버넌스, 프라이버시, 보안을 요구하는 엔터프라이즈 환경에 최적화된 AI 접근 방식을 내세운다. 한국오라클의 김성하 사장은 “오라클은 ‘데이터베이스 기업’이라는 기존의 인식에서 벗어나 ‘데이터 중심의 AI 플랫폼 기업’으로서 입지를 굳히고, 엔터프라이즈 클라우드 시장 점유율을 높이고자 한다”면서, 국내 시장 전략을 소개했다. 한국오라클은 OCI(오라클 클라우드 인프라스트럭처)의 성능과 안정성, 비용 효율에 대한 고객의 신뢰를 바탕으로, 기업의 핵심적인 기간계 업무를 클라우드로 전환하는 데 집중하고 있다. 오라클에 따르면, POC를 넘어 실질적인 클라우드 소비가 전년 대비 2025년 두 배 이상 증가했으며, 비 오라클 데이터베이스 워크로드의 클라우드 전환도 확대하고 있다. 오라클은 국내 2곳의 퍼블릭 클라우드 리전(데이터센터)을 안정적으로 운영하면서 지속적인 성장 발판을 마련했다고 보고 있다. 또한 고객이 자체 데이터센터 내에서 오라클 클라우드를 사용할 수 있도록 지원하는 전용 리전(Dedicated Region Cloud@ Customer)를 국내 세 곳의 고객사에 구축·운영하는 등 고객 맞춤형 인프라 전략을 전개 중이다. 김성하 사장은 “올 상반기 국내 AWS 데이터센터에 오라클의 고성능 데이터베이스 머신인 엑사데이터(Exadata)를 배치할 예정이다. 이는 핵심 데이터베이스를 안전하게 운용하고자 하는 금융권 및 대형 엔터프라이즈 고객의 멀티 클라우드 도입 수요를 흡수하기 위한 전략”이라고 소개했다. 이와 함께, 오라클은 국내 AI 시장을 선도할 유망 스타트업이 OCI를 기반으로 성장할 수 있도록 협력 및 지원을 이어갈 예정이다. 이런 노력을 통해 국내 AI 혁신 고객 사례를 늘려가겠다는 것이 오라클의 계획이다.       ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2026-03-05
한국오라클, ‘오라클 AI 서밋 2026 서울’ 개최
한국오라클이 연례 콘퍼런스인 ‘오라클 AI 서밋(Oracle AI Summit) 2026’을 2월 3일 그랜드 인터콘티넨탈 서울 파르나스에서 개최됐다. 오라클 AI 서밋은 엔터프라이즈 AI 시대를 맞아 AI와 데이터를 중심으로 확장된 오라클의 기술 전략과 국내외 기업들의 성공 사례를 공유하는 대표 행사로, 올해 4회를 맞이했다. ‘모든 것을 변화시키는 AI(AI Changes Everything)’라는 주제로 진행된 이번 행사에는 1000명 이상의 기업 IT 경영자와 관리자, 개발자, 협력사 관계자들이 참석했다. 행사는 한국오라클 김성하 사장의 환영사로 시작됐으며, 오라클의 한 청(Han Chung) 아태지역 시스템 부문 수석 부사장이 ‘오라클 AI : 비즈니스 속도로 구현하는 AI’를 주제로 첫 번째 기조연설을 진행했다. 이어 오라클 티르탄카르 라히리(Tirthankar Lahiri) 미션 크리티컬 데이터 및 AI 엔진 부문 수석 부사장은 ‘데이터를 위한 AI 혁명’을 주제로 두 번째 기조연설을 진행하며 오라클의 통합 데이터 플랫폼을 기반으로 한 엔터프라이즈 AI의 새로운 가능성을 제시했다. 기조연설 이후에는 ‘AI 전략부터 성과까지, 오라클 AI의 가치를 선택한 고객 성공 스토리’ 세션이 이어졌으며, 국내 최대 해운사 HMM이 오라클 클라우드를 통해 창출한 비즈니스 성과와 향후 경쟁력 강화 전략을 대담 형식으로 공유했다. 오후에는 총 3개 트랙, 18개의 상세 세션이 운영되며, 오라클 OCI AI 인프라를 중심으로 AI 시대에 기업이 사업 연속성을 확보하는 방안이 심도 있게 다뤄졌다. 특히 벡터 검색(Vector Search), 셀렉트 AI(Select AI), AI 레이크하우스(AI Lakehouse) 등 오라클 AI 데이터베이스 26ai(Oracle AI Database 26ai)의 주요 기능이 기업의 실제 비즈니스 과제를 해결하는 데 어떻게 기여할 수 있는지가 구체적으로 제시됐다. 오후 트랙에는 엔비디아, 사이오닉 AI를 비롯하여 유클릭, 에티버스, 솔트웨어, 굿어스데이터 등 다양한 후원사 및 파트너사가 함께했다.     한편, 오전에 진행된 언론 대상 간담회에서는 한국오라클 김성하 사장이 한국오라클의 사업 성과와 오라클의 최신 AI 전략을 소개하고, 티르탄카르 라히리 수석 부사장이 데이터를 중심으로 한 AI시대 기업의 생존과 경쟁전략을 발표했다. 한국오라클은 2026 회계연도 상반기 기준으로 리전 개소 이후 6년 이상 두 자릿수 성장을 지속하며 클라우드 매출 성장세를 기록했다. OCI의 성능, 안정성, 비용 효율에 대한 고객들의 신뢰를 바탕으로 클라우드 소비는 전년 대비 두 배 이상 증가했으며, 크립토랩, 멋쟁이사자처럼, 투디지트 등 OCI를 활용한 국내 AI 혁신 고객 사례도 빠르게 확대되고 있다. 오라클은 ‘기업을 위한 AI’ 전략에 집중하며, xAI, 구글, 메타, 코히어, 오픈AI 등 글로벌 선도 AI모델 기업들과의 협업을 통해 강력한 AI 모델과 오라클의 특화된 AI 에이전트 전략을 결합해 기업의 성공을 지원하고 있다. 특히 거버넌스, 프라이버시, 보안을 핵심으로 고려한 오라클의 AI 접근 방식은 엔터프라이즈 환경에 최적화된 서비스를 제공한다. 또한 오라클 클라우드는 AI 생태계 전반에 걸친 폭넓은 선택지를 제공하여 기업들이 필요에 따른 AI를 유연하게 도입하고, 실질적인 가치 창출까지의 시간을 단축할 수 있도록 지원한다. 라히리 수석 부사장은 “AI는 기업 데이터 관리의 패러다임을 빠르게 재편하며, 선택이 아닌 전략적 필수 요소로 자리잡고 있다”면서, “기업이 AI 시대를 선도하기 위해서는 데이터 활용 전반의 혁신, AI를 통한 인사이트 도출, 혁신 가속, 생산성 향상이 실현되어야 한다”고 짚었다. 오라클의 ‘데이터 혁신을 위한 AI(AI for Data)’ 전략은 이러한 요구에 대응해 AI를 데이터 플랫폼의 핵심에 내재화하는 데 초점을 맞춘다. 오라클의 융합형 아키텍처(converged architecture)와 오픈 스탠다드(open standards) 전략은 분산된 기술을 연계 활용할 때 발생하는 복잡성과 비용을 제거한다. 기업은 데이터가 있는 곳에 AI를 통합함으로써 운영을 단순화하고, AI 기능의 신뢰도를 높이며, 트랜잭션과 분석을 아우르는 모든 데이터 유형과 워크로드 전반에서 일관된 AI 인사이트를 확보할 수 있다. 이런 전략의 중심으로 오라클이 내세운 것은 ‘오라클 AI 데이터베이스 26ai’ 버전이다. 오라클 데이터베이스의 최신 릴리스인 오라클 AI 데이터베이스 26ai는 LLM과 AI 벡터를 핵심 기능으로 통합한 AI 네이티브 데이터베이스다. 오라클 AI 데이터베이스 26ai는 문서, 이미지, 동영상, 구조화 데이터 등 다양한 데이터를 처리할 수 있는 AI 벡터를 기반으로, 주요 데이터 유형에 대한 밀리초 단위의 통합 AI 벡터 검색을 제공해 기업의 효율적인 데이터 탐색을 지원한다. 또한 오라클 AI 데이터베이스는 검색증강생성(RAG)을 지원해, AI 벡터 검색을 통한 기업의 내부 데이터 검색 결과를 LLM과 결합함으로써 보다 정확하고 맥락에 맞는 답변을 생성할 수 있도록 한다. RAG 파이프라인은 데이터베이스 API는 물론 단일 SQL문으로도 실행할 수 있으며, 나아가 AI 에이전트를 데이터베이스에 직접 통합 설계해 기업이 쉽고 안전하게 AI 에이전트를 구축, 배포, 관리할 수 있도록 지원한다.
작성일 : 2026-02-03
오라클, “국내 스타트업 4개사에 클라우드 인프라 제공해 AI 기반 서비스 혁신 지원”
한국오라클이 뉴로플로우, 스포잇, 윤회, 코넥시오에이치 등 국내 4개 스타트업에 오라클 클라우드 인프라스트럭처(OCI)를 제공했다고 밝혔다. 4개사는 OCI를 활용해 AI 기반 기술 역량을 한층 더 강화하고, 오라클의 글로벌 인프라를 기반으로 해외 시장 진출을 위한 토대를 마련했다. 오라클은 OCI가 다양한 규모의 AI 학습 및 추론 프로젝트를 지원하면서, “생성형 AI 구축을 위한 주요 인프라로 부상하고 있다”고 전했다. RAG 기반 지능형 업무지원 플랫폼 ‘뉴로보드’를 운영하는 뉴로플로우는 교육기관과 산업체 등으로 고객사를 확대하면서 데이터 처리량이 급증하고 더 높은 수준의 추론 성능이 필요했다. 특히 RAG 기반 검색과 LLM을 결합해 신뢰할 수 있는 출처 기반의 정확한 응답을 제공하는 AI 설루션 특성상, 확장성과 안정성을 갖춘 클라우드 기반 AI/ML 플랫폼이 필수였다. 뉴로플로우는 OCI를 도입해 이러한 과제를 해결했으며, OCI의 고가용성 인프라로 장애 없는 안정적인 서비스 운영이 가능해졌다. 실제 사용량 기반 오토스케일링을 통해 챗봇 응답 품질 향상과 함께 인프라 비용도 절감할 수 있었다. 스포잇은 데이터 기반 전력 분석 및 자동 클립 생성 등 스포츠 AI 영상 서비스를 제공한다.  고객 수요가 빠르게 증가함에 따라, 서비스 확장을 위한 대규모 연산 자원 확보와 AI 실험 비용 절감 및 MLOps 기반 개발 효율화가 주요 과제로 떠올랐다. 이에 회사는 대규모 추론 연산을 효율적으로 지원하는 OCI 베어메탈 인스턴스(OCI Bare Metal Instances)를 도입했다. 이후 OCI의 저지연 네트워크와 높은 처리 성능을 활용하여 모델 학습 시간을 단축하고, 영상 처리 속도를 개선했으며 MLOps 환경도 성공적으로 구축했다. 그 결과 AI 기반 콘텐츠 생산성은 최대 6배, 분석 효율은 약 70% 개선했다. AI 기반 순환패션 플랫폼 케어아이디(CARE ID)를 운영하는 윤회는 글로벌 진출을 앞두고 플랫폼의 응답성, 확장성, 가용성을 전반적으로 강화할 필요성이 있었다. 이에 회사는 OCI로 전환하면서 OCI 컨테이너 레지스트리(OCIR : OCI Container Registry)와 OCI 쿠버네티스 엔진(OKE : OCI Kubernetes Engine)을 도입해 안정적이고 효율적인 AI 인프라를 구축했다. 그 결과, 서비스 운영 안정성을 혁신하는 동시에 기존 클라우드 대비 60%의 운영 비용을 절감할 수 있었다. 핀테크 서비스 기업 코넥시오에이치는 이커머스 데이터베이스와 AI를 활용해 소상공인의 사업 성과를 시각화하고, 이를 기반으로 금융 접근성을 높이는 서비스를 제공하고 있다. 회사는 클라우드 기반의 LLM 서비스 고도화 및 대규모 전자상거래 데이터 분석을 통해 맞춤형 인사이트를 제공하고자 했다. 이를 위해 확장성과 비용 효율성을 갖춘 고성능 플랫폼을 필요로 했다. 이에 회사는 OCI 베어메탈 인스턴스와 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database)를 도입했다. 그 결과, 인프라 운영 비용을 약 40% 절감하는 동시에, 서비스 전반을 안정적으로 확장할 수 있는 기반을 마련할 수 있었다. 이들 네 개 회사는 중소벤처기업부, 창업진흥원(KISED) 및 서울과학기술대학교와 공동으로 진행한 글로벌 기업 협업 프로그램 ‘미라클’에 선정된 스타트업으로, 정부와 글로벌 기업의 지원을 바탕으로 기술력을 고도화하고 해외 시장 진출의 기회를 확보하는 데에 성공했다. 창업진흥원의 유종필 원장은 “이번 미라클 프로그램을 통한 오라클과의 협력으로 국내 유망 스타트업들이 세계적 기술 경쟁력을 확보하고, 글로벌 투자 및 사업 기회를 넓힐 수 있게 되어 기쁘게 생각한다”면서, “창업진흥원은 앞으로도 역량 있는 창업기업들이 글로벌 기술 선도 기업과 협력해 글로벌 혁신을 이끌고 해외시장에 진출할 수 있도록 지원을 아끼지 않을 것”이라고 말했다. 한국오라클의 김성하 사장은 “빅데이터와 AI 기반 시장 환경이 빠르게 변화하는 가운데, 이번 미라클 프로그램에 참여한 스타트업들이 OCI를 활용해 가시적인 성과를 낸 것은 오라클이 국내 기업의 기술 경쟁력 강화에 핵심적인 역할을 하고 있음을 보여준다”면서, “앞으로도 고성능 클라우드 인프라와 차별화된 기술력을 바탕으로, 유망 AI 스타트업과 함께 혁신 생태계를 확장해 나갈 것”이라고 말했다.
작성일 : 2026-01-21
엔비디아, 에이전틱 AI 개발 위한 ‘네모트론 3’ 오픈 모델 제품군 공개
엔비디아가 오픈 모델, 데이터, 라이브러리로 구성된 엔비디아 네모트론 3(NVIDIA Nemotron 3) 제품군을 발표했다. 산업 전반에서 투명하고 효율적이며 목적에 맞게 특화된 에이전틱 AI 개발을 지원하기 위한 네모트론 3 모델은 하이브리드 잠재 전문가 혼합 방식(mixture-of-experts : MoE) 아키텍처를 도입했다. 엔비디아는 “개발자가 대규모 환경에서 신뢰할 수 있는 멀티 에이전트 시스템을 구축하고 배포할 수 있도록 돕는다”고 소개했다. 기업들이 단일 모델 기반 챗봇에서 협업형 멀티 에이전트 AI 시스템으로 전환함에 따라, 개발자들은 통신 과부하, 맥락 이탈, 높은 추론 비용 등 점점 더 많은 과제에 직면하고 있다. 또한 복잡한 워크플로를 자동화할 모델을 신뢰하기 위해 투명성에 대한 요구도 커지고 있다. 네모트론 3는 이러한 과제를 해결하며, 고객이 전문화된 에이전틱 AI를 구축하는 데 필요한 성능과 개방성을 제공한다. 네모트론 3 MoE 모델 제품군은 세 가지 규모로 구성된다. ▲네모트론 3 나노(Nano)는 300억 개의 파라미터를 갖춘 소형 모델로, 한 번에 최대 30억 개의 파라미터를 활성화해 목적에 맞는 고효율 작업을 수행한다. ▲네모트론 3 슈퍼(Super)는 약 1000억 개의 파라미터와 토큰당 최대 100억 개의 활성 파라미터를 갖춘 고정확도 추론 모델로, 멀티 에이전트 애플리케이션에 적합하다. ▲네모트론 3 울트라(Ultra)는 약 5000억 개의 파라미터와 토큰당 최대 500억 개의 활성 파라미터를 갖춘 대규모 추론 엔진으로, 복잡한 AI 애플리케이션을 지원한다. 현재 제공 중인 네모트론 3 나노는 컴퓨팅 비용 효율이 가장 뛰어난 모델로, 낮은 추론 비용으로 소프트웨어 디버깅, 콘텐츠 요약, AI 어시스턴트 워크플로, 정보 검색과 같은 작업에 최적화돼 있다. 이 모델은 고유한 하이브리드 MoE 아키텍처를 활용해 효율성과 확장성 측면에서 향상된 성능을 제공한다. 네모트론 3 나노는 네모트론 2 나노 대비 최대 4배 높은 토큰 처리량을 달성하며, 추론 토큰 생성량을 최대 60%까지 줄여 추론 비용을 절감한다. 또한 100만 토큰 컨텍스트 윈도우를 지원해 더 많은 정보를 기억할 수 있으며, 장시간에 걸친 다단계 작업에서도 정보 간 연결성을 높여 정확도를 향상시킨다. 네모트론 3 슈퍼는 낮은 지연 시간으로 다수의 협업 에이전트가 복잡한 작업을 수행해야 하는 애플리케이션에 강점을 보인다. 네모트론 3 울트라는 심층 연구와 전략적 계획 수립이 요구되는 AI 워크플로를 위한 고급 추론 엔진 역할을 수행한다. 네모트론 3 슈퍼와 울트라는 엔비디아 블랙웰(Blackwell) 아키텍처 기반의 초고효율 4비트 NVFP4 훈련 포맷을 사용해 메모리 요구 사항을 줄이고 훈련 속도를 가속화한다. 이러한 효율성 덕분에 기존 인프라에서도 높은 정밀도 포맷 대비 정확도를 유지한 채 더 대규모 모델 훈련이 가능하다. 네모트론 3 모델 제품군을 통해 개발자는 특정 워크로드에 적합한 규모의 오픈 모델을 선택할 수 있다. 또한, 수십 개에서 수백 개의 에이전트로 확장하는 동시에 복잡한 워크플로에서 더 빠르고 정확한 장기 추론 성능의 이점을 누릴 수 있다.     네모트론 3 나노는 현재 허깅 페이스에서 제공되며, 베이스텐(Baseten), 딥인프라(DeepInfra), 파이어웍스(Fireworks), 프렌들리에이아이(FriendliAI), 오픈라우터(OpenRouter), 투게더 AI(Together AI) 등 추론 서비스 제공업체를 통해서도 이용할 수 있다. 네모트론 3 나노는 엔비디아 가속 인프라 전반에서 안전하고 확장 가능한 배포를 위해 엔비디아 NIM 마이크로서비스 형태로도 제공된다. 퍼블릭 클라우드 고객의 경우, 네모트론 3 나노는 아마존웹서비스(AWS)에서 아마존 베드록(Amazon Bedrock, 서버리스 방식)을 통해 제공될 예정이며, 구글 클라우드, 코어위브, 크루소, 마이크로소프트 파운드리, 네비우스, 엔스케일, 요타에서도 곧 지원될 예정이다. 네모트론 3 슈퍼와 네모트론 3 울트라는 2026년 상반기에 제공될 예정이다. 또한, 엔비디아는 전문화된 AI 에이전트를 구축하기 위한 훈련 데이터세트와 최첨단 강화학습 라이브러리 컬렉션을 공개했다. 총 3조 개의 토큰으로 구성된 새로운 네모트론 사전 훈련, 사후 훈련, 강화학습 데이터세트는 고도화된 추론과 코딩, 다단계 워크플로 사례를 풍부하게 제공해 높은 역량을 갖춘 도메인 특화 에이전트 구축을 지원한다. 개발 속도를 높이기 위해 엔비디아는 네모트론 모델의 훈련 환경과 사후 훈련 기반을 제공하는 오픈소스 라이브러리인 네모 짐(NeMo Gym)과 네모 RL을 함께 공개했다. 또한 모델의 안전성과 성능을 검증할 수 있도록 네모 이밸류에이터(Evaluator)도 선보였다. 모든 도구와 데이터세트는 현재 깃허브(GitHub)와 허깅 페이스(Hugging Face)를 통해 제공되고 있다. 네모트론 3는 LM 스튜디오(LM Studio), 라마.cpp(llama.cpp), SGLang, vLLM을 통해 지원된다. 이와 함께 프라임 인텔렉트(Prime Intellect)와 언슬로스(Unsloth)는 네모 짐의 즉시 사용 가능한 훈련 환경을 자사 워크플로에 직접 통합하고 있으며, 이를 통해 강력한 강화학습 훈련 환경에 보다 빠르고 손쉽게 접근할 수 있다. 엔비디아 네모트론은 엔비디아의 소버린 AI 전략을 지원한다. 유럽부터 대한민국에 이르는 다양한 조직들이 자체 데이터, 규제, 가치에 부합하는 AI 시스템을 구축할 수 있도록 개방적이고 투명하며 효율적인 모델 채택을 가능하게 한다. 네모트론 3의 초기 도입 기업으로는 액센츄어, 케이던스, 크라우드스트라이크, 커서, 딜로이트, EY, 오라클 클라우드 인프라스트럭처(OCI), 팔란티어, 퍼플렉시티, 서비스나우, 지멘스, 시놉시스, 줌 등이 있다. 이들은 제조, 사이버보안, 소프트웨어 개발, 미디어, 커뮤니케이션 등 다양한 산업 전반의 AI 워크플로를 구현하기 위해 네모트론 제품군의 모델을 통합하고 있다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “오픈 혁신은 AI 발전의 토대이다. 네모트론을 통해 우리는 첨단 AI를 개방형 플랫폼으로 전환해, 개발자들이 대규모 환경에서 에이전틱 시스템을 구축하는 데 필요한 투명성과 효율을 제공하고 있다”고 말했다. 서비스나우의 빌 맥더멋(Bill McDermott) 회장 겸 CEO는 “엔비디아와 서비스나우는 수년간 AI의 미래를 함께 만들어왔으며, 최고의 순간은 아직 오지 않았다. 오늘 우리는 모든 산업의 리더들이 에이전틱 AI 전략을 빠르게 추진할 수 있도록 지원하는 데 있어 중요한 진전을 이루고 있다. 서비스나우의 지능형 워크플로 자동화와 엔비디아 네모트론 3의 결합은 탁월한 효율, 속도, 정확성을 바탕으로 계속해서 업계 표준을 제시할 것”이라고 말했다.
작성일 : 2025-12-17
엔비디아, 주요 클라우드 업체와 협력해 다이나모 기반 AI 추론 가속화
엔비디아가 엔비디아 다이나모(NVIDIA Dynamo)를 통해 멀티 노드 추론 성능과 효율을 높이고, 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 인프라스트럭처(OCI) 등 주요 클라우드 제공업체와 통합해 AI 추론 가속화를 지원한다고 밝혔다. 엔비디아의 젠슨 황 CEO는 ‘엔비디아 GTC 워싱턴 D.C.’에서 블랙웰이 엔비디아 호퍼(Hopper) 대비 10배의 성능을 제공해 10배의 수익을 창출할 수 있다고 강조했다. 대규모 전문가 혼합 방식(MoE) 모델과 같은 복잡한 AI 모델에서 높은 성능을 달성하려면, 수백만 명의 동시 사용자에게 서비스를 지원하고 더 빠른 응답을 제공하기 위해 추론 작업을 여러 서버(노드)로 분산시켜야 한다. 엔비디아는 다이나모 소프트웨어 플랫폼이 강력한 멀티 노드 기능을 프로덕션 환경에서 지원해, 기업이 기존 클라우드 환경 전반에서도 동일한 벤치마크 최고 수준의 성능과 효율을 달성할 수 있다고 설명했다.     단일 GPU 또는 서버에 탑재 가능한 AI 모델의 경우, 개발자들은 높은 처리량을 제공하기 위해 여러 노드에 걸쳐 동일한 모델 복제본을 병렬로 실행하는 경우가 많다. 시그널65(Signal65) 수석 애널리스트인 러스 펠로우즈(Russ Fellows)는 최근 발표한 논문에서 이 접근법이 72개의 엔비디아 블랙웰 울트라(Ultra) GPU를 활용해 110만 토큰 처리 속도(TPS)라는 처리량을 달성했다고 밝혔다. AI 모델을 확장해 다수의 동시 사용자를 실시간으로 지원하거나, 입력 시퀀스가 긴 고난도 워크로드를 처리할 때, 분산형 서빙(disaggregated serving) 기술을 활용하면 성능과 효율을 더욱 높일 수 있다. AI 모델 서비스는 입력 프롬프트를 처리하는 프리필(prefill)과 출력을 생성하는 디코드(decode) 두 단계로 구성된다. 기존 방식에서는 두 단계 모두 동일한 GPU에서 실행됐는데, 이로 인해 비효율성과 리소스 병목 현상을 유발할 수 있었다. 분산형 서빙은 이러한 문제를 각각 독립적으로 최적화된 GPU로 작업을 지능적으로 분산함으로써 해결한다. 이를 통해 워크로드의 각 부분이 해당 작업에 가장 적합한 최적화 기법을 활용해 실행되도록 보장해 전체 성능을 극대화한다. 딥시크-R1(DeepSeek-R1)과 같은 최신 대규모 AI 추론과 MoE 모델에서는 분산 서비스가 필수이다. 엔비디아는 다이나모가 이러한 분산형 서빙 기능을 GPU 클러스터 전반에서 프로덕션 규모로 손쉽게 구현할 수 있도록 한다고 전했다. 예를 들어, 베이스텐(Baseten)은 엔비디아 다이나모를 활용해 장문 코드 생성을 위한 추론 서비스 속도를 2배 가속화하고 처리량을 1.6배 증가시켰으며, 이는 추가 하드웨어 비용 없이 이뤄졌다. 이러한 소프트웨어 기반의 성능 향상은 AI 제공업체가 인텔리전스를 생산하는 비용을 절감할 수 있도록 한다. 대규모 AI 훈련에서 그랬던 것처럼, 컨테이너화된 애플리케이션 관리의 업계 표준인 쿠버네티스(Kubernetes)는 엔터프라이즈 규모의 AI 배포를 위해 수십 개 또는 수백 개의 노드에 걸쳐 분산형 서빙을 확장하는 데 최적화돼 있다. 현재 엔비디아 다이나모가 주요 클라우드 제공업체의 관리형 쿠버네티스 서비스에 통합됨에 따라, 고객은 GB200, GB300 NVL72를 포함한 엔비디아 블랙웰 시스템 전반에서 멀티 노드 추론을 확장할 수 있으며, 이는 엔터프라이즈 AI 배포에 요구되는 성능, 유연성, 안정성을 제공한다. 대규모 멀티 노드 추론을 실현하려는 움직임은 하이퍼스케일러(hyperscalers)를 넘어 확장되고 있다. 예를 들어, 네비우스(Nebius)는 엔비디아 가속 컴퓨팅 인프라를 기반으로 대규모 추론 워크로드를 처리할 수 있는 클라우드를 설계하고 있으며, 엔비디아 다이나모와 생태계 파트너로서 협력하고 있다. 분산형 AI 추론은 프리필, 디코드, 라우팅(routing) 등 서로 다른 요구사항을 가진 특수 구성 요소들을 조율해야 한다. 쿠버네티스가 직면한 과제는 더 많은 모델 복제본을 병렬로 실행하는 것이 아니라, 이 다양한 구성 요소들을 하나의 통합된 고성능 시스템으로 능숙하게 운영하는 것이다. 엔비디아 그로브(Grove)는 엔비디아 다이나모에서 사용 가능한 API(application programming interface)로, 사용자에게 전체 추론 시스템을 설명하는 단일 고수준 사양을 제공한다. 예를 들어, 사용자는 단일 사양 안에서 “프리필에는 GPU 노드 3개, 디코드에는 GPU 노드 6개가 필요하며, 가능한 가장 빠른 응답을 위해 단일 모델 복제본의 모든 노드가 동일한 고속 인터커넥트에 배치돼야 한다”고 간단히 요구할 수 있다. 해당 사양을 기반으로 그로브는 모든 복잡한 조율 작업을 자동으로 처리한다. 이때, 관련 구성 요소를 정확한 비율과 종속성을 유지한 채 함께 확장하고, 올바른 순서로 실행하며, 빠르고 효율적인 통신을 위해 클러스터 전반에 전략적으로 배치한다. AI 추론이 점점 더 분산됨에 따라, 쿠버네티스, 엔비디아 다이나모, 엔비디아 그로브의 조합은 개발자가 지능형 애플리케이션을 구축하고 확장하는 방식을 간소화한다.
작성일 : 2025-11-17
오라클, OCI 전용 리전25 통해 소버린 AI 및 클라우드 서비스 배포 지원
오라클은 더 많은 기업이 퍼블릭 클라우드의 민첩성, 경제성 및 확장성을 누릴 수 있도록 오라클 클라우드 인프라스트럭처(OCI) 전용 리전25(Dedicated Region25)를 출시했다고 발표했다. 기업은 OCI 전용 리전25를 통해 단 몇 주 내에 최소 3개의 랙으로 구성된 풀스택 OCI 환경을 구축할 수 있으며, 공간 제약이 있는 환경에서도 손쉽게 전용 리전을 배포할 수 있다. 지난 2020년 처음 출시된 OCI 전용 리전(OCI Dedicated Region)은 대규모 하이퍼스케일 폼팩터에서 더욱 유연한 배포 형태로 발전해 왔다. 현재 전 세계적으로 60개 이상의 OCI 전용 리전과 오라클 알로이(Oracle Alloy) 리전이 운영 중이거나 계획되어 있으며, 고객은 성능, 거버넌스, 퍼블릭 OCI 환경의 호환성을 저해하지 않으면서 자사 비즈니스 규모에 최적화된 배포 모델을 선택할 수 있다.     OCI 전용 리전25는 OCI의 분산형 클라우드 제품군에 속하며, 모듈형 인프라와 간소화된 서비스 설계를 갖춘 엔터프라이즈급 소버린 클라우드를 통해 공공 및 민간 조직이 민첩성을 높이고 제품 출시 기간을 단축하도록 지원한다. 오라클은 “200개 이상의 AI 및 클라우드 서비스가 내장된 완전한 퍼블릭 클라우드 리전을 3개 랙만으로 구축 가능하고, 하이퍼스케일 수준까지 확장 가능하며, 고객 데이터센터 내에서 안전하게 운영할 수 있도록 지원한다”고 소개했다. 이에 따라 시공간적 제약 혹은 규제 관련 제약으로 전용 클라우드 리전 운영이 어려웠던 고객도 혁신을 가속화하고 새로운 비즈니스 모델을 구현할 수 있게 된다는 것이 오라클의 설명이다. 기존의 전용 클라우드 리전은 많은 조직의 전면적 클라우드 전환에 걸림돌이 되었다. OCI 전용 리전25는 ▲고도화된 네트워크 중심의 모듈형 확장성 ▲하이퍼컨버지드 표준 인프라 ▲통합 다계층(multi-layered) 보안 ▲SaaS, AI를 포함한 퍼블릭 클라우드 수준의 서비스 제공 ▲데이터 주권 요건 지원 ▲오라클 운영 클라우드 리전 등의 이점을 제공하여 클라우드 전환의 방해요소를 제거한다. OCI 전용 리전25는 최소 3개 랙으로 시작해 다운타임이나 재설계 없이 네트워크 확장 랙을 추가함으로써 하이퍼스케일까지 원활하게 확장할 수 있다. 그리고 오라클의 표준화된 고밀도 컴퓨팅 및 스토리지 랙을 활용해 데이터센터 공간 및 전력 사용을 절감할 수 있다. 고객은 더 높은 신뢰성, 빠른 복구 시간, 최대 가동 시간을 확보할 수 있으며, 복잡한 운영 부담 없이 컴팩트한 규모로 운영 가능하다. OCI 전용 리전25는 물리, 가상 전 계층에 걸친 다중적 보안 장치로 데이터와 워크로드를 보호해 높은 수준의 보안, 프라이버시, 규제 요건을 충족할 수 있도록 한다. 통합 다계층 보안 기능으로는 생체인식 잠금(biometric-locked) 랙, 암호화된 소프트웨어 정의 네트워크 패브릭 등이 포함된다. 또한 200개 이상의 OCI AI 및 클라우드 서비스를 고객 환경에서 직접 제공함으로써 데이터 주권 및 데이터 지역성 요건을 충족하면서도 퍼블릭 OCI와 동일한 운영 환경을 구현할 수 있다. 이외에도 정부 및 공공기관이 전체 오라클 클라우드 스택을 자체 환경에 배포하고 데이터 및 시스템에 대한 완전한 통제권을 유지할 수 있도록 함으로써 엄격한 수준의 데이터 주권, 프라이버시, 보안, 규제 요건을 충족할 수 있도록 지원한다. OCI 전용 리전25는 오라클이 직접 운영하는 완전한 클라우드 운영 서비스 형태로 제공되므로, 고객은 인프라 관리가 아닌 혁신에 집중할 수 있다. 스콧 트와들 OCI 제품 및 산업 담당 수석 부사장은 “기업은 가장 큰 가치 창출이 가능한 곳에서 AI와 클라우드 서비스를 자유롭게 구동하길 원하며, 소버린 AI(sovereign AI)에 대한 관심이 높아짐에 따라 데이터의 위치와 데이터 통제에 대한 요건이 엄격해져 이러한 요구 사항이 더욱 강화되고 있다”면서, “OCI 전용 리전25의 출시로 오라클은 사실상 모든 데이터센터로 오라클 클라우드의 역량을 확장할 수 있게 되었다. 이 새로운 배포 옵션은 탁월한 유연성, 운영 단순성 및 엔터프라이즈급 데이터 주권을 제공해 전용 클라우드의 기준을 새롭게 정의하고, 고객이 미래 혁신을 대비할 수 있도록 돕는다”고 말했다.
작성일 : 2025-10-20
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17