• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " OCI"에 대한 통합 검색 내용이 138개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 에이전틱 AI 개발 위한 ‘네모트론 3’ 오픈 모델 제품군 공개
엔비디아가 오픈 모델, 데이터, 라이브러리로 구성된 엔비디아 네모트론 3(NVIDIA Nemotron 3) 제품군을 발표했다. 산업 전반에서 투명하고 효율적이며 목적에 맞게 특화된 에이전틱 AI 개발을 지원하기 위한 네모트론 3 모델은 하이브리드 잠재 전문가 혼합 방식(mixture-of-experts : MoE) 아키텍처를 도입했다. 엔비디아는 “개발자가 대규모 환경에서 신뢰할 수 있는 멀티 에이전트 시스템을 구축하고 배포할 수 있도록 돕는다”고 소개했다. 기업들이 단일 모델 기반 챗봇에서 협업형 멀티 에이전트 AI 시스템으로 전환함에 따라, 개발자들은 통신 과부하, 맥락 이탈, 높은 추론 비용 등 점점 더 많은 과제에 직면하고 있다. 또한 복잡한 워크플로를 자동화할 모델을 신뢰하기 위해 투명성에 대한 요구도 커지고 있다. 네모트론 3는 이러한 과제를 해결하며, 고객이 전문화된 에이전틱 AI를 구축하는 데 필요한 성능과 개방성을 제공한다. 네모트론 3 MoE 모델 제품군은 세 가지 규모로 구성된다. ▲네모트론 3 나노(Nano)는 300억 개의 파라미터를 갖춘 소형 모델로, 한 번에 최대 30억 개의 파라미터를 활성화해 목적에 맞는 고효율 작업을 수행한다. ▲네모트론 3 슈퍼(Super)는 약 1000억 개의 파라미터와 토큰당 최대 100억 개의 활성 파라미터를 갖춘 고정확도 추론 모델로, 멀티 에이전트 애플리케이션에 적합하다. ▲네모트론 3 울트라(Ultra)는 약 5000억 개의 파라미터와 토큰당 최대 500억 개의 활성 파라미터를 갖춘 대규모 추론 엔진으로, 복잡한 AI 애플리케이션을 지원한다. 현재 제공 중인 네모트론 3 나노는 컴퓨팅 비용 효율이 가장 뛰어난 모델로, 낮은 추론 비용으로 소프트웨어 디버깅, 콘텐츠 요약, AI 어시스턴트 워크플로, 정보 검색과 같은 작업에 최적화돼 있다. 이 모델은 고유한 하이브리드 MoE 아키텍처를 활용해 효율성과 확장성 측면에서 향상된 성능을 제공한다. 네모트론 3 나노는 네모트론 2 나노 대비 최대 4배 높은 토큰 처리량을 달성하며, 추론 토큰 생성량을 최대 60%까지 줄여 추론 비용을 절감한다. 또한 100만 토큰 컨텍스트 윈도우를 지원해 더 많은 정보를 기억할 수 있으며, 장시간에 걸친 다단계 작업에서도 정보 간 연결성을 높여 정확도를 향상시킨다. 네모트론 3 슈퍼는 낮은 지연 시간으로 다수의 협업 에이전트가 복잡한 작업을 수행해야 하는 애플리케이션에 강점을 보인다. 네모트론 3 울트라는 심층 연구와 전략적 계획 수립이 요구되는 AI 워크플로를 위한 고급 추론 엔진 역할을 수행한다. 네모트론 3 슈퍼와 울트라는 엔비디아 블랙웰(Blackwell) 아키텍처 기반의 초고효율 4비트 NVFP4 훈련 포맷을 사용해 메모리 요구 사항을 줄이고 훈련 속도를 가속화한다. 이러한 효율성 덕분에 기존 인프라에서도 높은 정밀도 포맷 대비 정확도를 유지한 채 더 대규모 모델 훈련이 가능하다. 네모트론 3 모델 제품군을 통해 개발자는 특정 워크로드에 적합한 규모의 오픈 모델을 선택할 수 있다. 또한, 수십 개에서 수백 개의 에이전트로 확장하는 동시에 복잡한 워크플로에서 더 빠르고 정확한 장기 추론 성능의 이점을 누릴 수 있다.     네모트론 3 나노는 현재 허깅 페이스에서 제공되며, 베이스텐(Baseten), 딥인프라(DeepInfra), 파이어웍스(Fireworks), 프렌들리에이아이(FriendliAI), 오픈라우터(OpenRouter), 투게더 AI(Together AI) 등 추론 서비스 제공업체를 통해서도 이용할 수 있다. 네모트론 3 나노는 엔비디아 가속 인프라 전반에서 안전하고 확장 가능한 배포를 위해 엔비디아 NIM 마이크로서비스 형태로도 제공된다. 퍼블릭 클라우드 고객의 경우, 네모트론 3 나노는 아마존웹서비스(AWS)에서 아마존 베드록(Amazon Bedrock, 서버리스 방식)을 통해 제공될 예정이며, 구글 클라우드, 코어위브, 크루소, 마이크로소프트 파운드리, 네비우스, 엔스케일, 요타에서도 곧 지원될 예정이다. 네모트론 3 슈퍼와 네모트론 3 울트라는 2026년 상반기에 제공될 예정이다. 또한, 엔비디아는 전문화된 AI 에이전트를 구축하기 위한 훈련 데이터세트와 최첨단 강화학습 라이브러리 컬렉션을 공개했다. 총 3조 개의 토큰으로 구성된 새로운 네모트론 사전 훈련, 사후 훈련, 강화학습 데이터세트는 고도화된 추론과 코딩, 다단계 워크플로 사례를 풍부하게 제공해 높은 역량을 갖춘 도메인 특화 에이전트 구축을 지원한다. 개발 속도를 높이기 위해 엔비디아는 네모트론 모델의 훈련 환경과 사후 훈련 기반을 제공하는 오픈소스 라이브러리인 네모 짐(NeMo Gym)과 네모 RL을 함께 공개했다. 또한 모델의 안전성과 성능을 검증할 수 있도록 네모 이밸류에이터(Evaluator)도 선보였다. 모든 도구와 데이터세트는 현재 깃허브(GitHub)와 허깅 페이스(Hugging Face)를 통해 제공되고 있다. 네모트론 3는 LM 스튜디오(LM Studio), 라마.cpp(llama.cpp), SGLang, vLLM을 통해 지원된다. 이와 함께 프라임 인텔렉트(Prime Intellect)와 언슬로스(Unsloth)는 네모 짐의 즉시 사용 가능한 훈련 환경을 자사 워크플로에 직접 통합하고 있으며, 이를 통해 강력한 강화학습 훈련 환경에 보다 빠르고 손쉽게 접근할 수 있다. 엔비디아 네모트론은 엔비디아의 소버린 AI 전략을 지원한다. 유럽부터 대한민국에 이르는 다양한 조직들이 자체 데이터, 규제, 가치에 부합하는 AI 시스템을 구축할 수 있도록 개방적이고 투명하며 효율적인 모델 채택을 가능하게 한다. 네모트론 3의 초기 도입 기업으로는 액센츄어, 케이던스, 크라우드스트라이크, 커서, 딜로이트, EY, 오라클 클라우드 인프라스트럭처(OCI), 팔란티어, 퍼플렉시티, 서비스나우, 지멘스, 시놉시스, 줌 등이 있다. 이들은 제조, 사이버보안, 소프트웨어 개발, 미디어, 커뮤니케이션 등 다양한 산업 전반의 AI 워크플로를 구현하기 위해 네모트론 제품군의 모델을 통합하고 있다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “오픈 혁신은 AI 발전의 토대이다. 네모트론을 통해 우리는 첨단 AI를 개방형 플랫폼으로 전환해, 개발자들이 대규모 환경에서 에이전틱 시스템을 구축하는 데 필요한 투명성과 효율을 제공하고 있다”고 말했다. 서비스나우의 빌 맥더멋(Bill McDermott) 회장 겸 CEO는 “엔비디아와 서비스나우는 수년간 AI의 미래를 함께 만들어왔으며, 최고의 순간은 아직 오지 않았다. 오늘 우리는 모든 산업의 리더들이 에이전틱 AI 전략을 빠르게 추진할 수 있도록 지원하는 데 있어 중요한 진전을 이루고 있다. 서비스나우의 지능형 워크플로 자동화와 엔비디아 네모트론 3의 결합은 탁월한 효율, 속도, 정확성을 바탕으로 계속해서 업계 표준을 제시할 것”이라고 말했다.
작성일 : 2025-12-17
엔비디아, 주요 클라우드 업체와 협력해 다이나모 기반 AI 추론 가속화
엔비디아가 엔비디아 다이나모(NVIDIA Dynamo)를 통해 멀티 노드 추론 성능과 효율을 높이고, 아마존웹서비스(AWS), 구글 클라우드, 마이크로소프트 애저, 오라클 클라우드 인프라스트럭처(OCI) 등 주요 클라우드 제공업체와 통합해 AI 추론 가속화를 지원한다고 밝혔다. 엔비디아의 젠슨 황 CEO는 ‘엔비디아 GTC 워싱턴 D.C.’에서 블랙웰이 엔비디아 호퍼(Hopper) 대비 10배의 성능을 제공해 10배의 수익을 창출할 수 있다고 강조했다. 대규모 전문가 혼합 방식(MoE) 모델과 같은 복잡한 AI 모델에서 높은 성능을 달성하려면, 수백만 명의 동시 사용자에게 서비스를 지원하고 더 빠른 응답을 제공하기 위해 추론 작업을 여러 서버(노드)로 분산시켜야 한다. 엔비디아는 다이나모 소프트웨어 플랫폼이 강력한 멀티 노드 기능을 프로덕션 환경에서 지원해, 기업이 기존 클라우드 환경 전반에서도 동일한 벤치마크 최고 수준의 성능과 효율을 달성할 수 있다고 설명했다.     단일 GPU 또는 서버에 탑재 가능한 AI 모델의 경우, 개발자들은 높은 처리량을 제공하기 위해 여러 노드에 걸쳐 동일한 모델 복제본을 병렬로 실행하는 경우가 많다. 시그널65(Signal65) 수석 애널리스트인 러스 펠로우즈(Russ Fellows)는 최근 발표한 논문에서 이 접근법이 72개의 엔비디아 블랙웰 울트라(Ultra) GPU를 활용해 110만 토큰 처리 속도(TPS)라는 처리량을 달성했다고 밝혔다. AI 모델을 확장해 다수의 동시 사용자를 실시간으로 지원하거나, 입력 시퀀스가 긴 고난도 워크로드를 처리할 때, 분산형 서빙(disaggregated serving) 기술을 활용하면 성능과 효율을 더욱 높일 수 있다. AI 모델 서비스는 입력 프롬프트를 처리하는 프리필(prefill)과 출력을 생성하는 디코드(decode) 두 단계로 구성된다. 기존 방식에서는 두 단계 모두 동일한 GPU에서 실행됐는데, 이로 인해 비효율성과 리소스 병목 현상을 유발할 수 있었다. 분산형 서빙은 이러한 문제를 각각 독립적으로 최적화된 GPU로 작업을 지능적으로 분산함으로써 해결한다. 이를 통해 워크로드의 각 부분이 해당 작업에 가장 적합한 최적화 기법을 활용해 실행되도록 보장해 전체 성능을 극대화한다. 딥시크-R1(DeepSeek-R1)과 같은 최신 대규모 AI 추론과 MoE 모델에서는 분산 서비스가 필수이다. 엔비디아는 다이나모가 이러한 분산형 서빙 기능을 GPU 클러스터 전반에서 프로덕션 규모로 손쉽게 구현할 수 있도록 한다고 전했다. 예를 들어, 베이스텐(Baseten)은 엔비디아 다이나모를 활용해 장문 코드 생성을 위한 추론 서비스 속도를 2배 가속화하고 처리량을 1.6배 증가시켰으며, 이는 추가 하드웨어 비용 없이 이뤄졌다. 이러한 소프트웨어 기반의 성능 향상은 AI 제공업체가 인텔리전스를 생산하는 비용을 절감할 수 있도록 한다. 대규모 AI 훈련에서 그랬던 것처럼, 컨테이너화된 애플리케이션 관리의 업계 표준인 쿠버네티스(Kubernetes)는 엔터프라이즈 규모의 AI 배포를 위해 수십 개 또는 수백 개의 노드에 걸쳐 분산형 서빙을 확장하는 데 최적화돼 있다. 현재 엔비디아 다이나모가 주요 클라우드 제공업체의 관리형 쿠버네티스 서비스에 통합됨에 따라, 고객은 GB200, GB300 NVL72를 포함한 엔비디아 블랙웰 시스템 전반에서 멀티 노드 추론을 확장할 수 있으며, 이는 엔터프라이즈 AI 배포에 요구되는 성능, 유연성, 안정성을 제공한다. 대규모 멀티 노드 추론을 실현하려는 움직임은 하이퍼스케일러(hyperscalers)를 넘어 확장되고 있다. 예를 들어, 네비우스(Nebius)는 엔비디아 가속 컴퓨팅 인프라를 기반으로 대규모 추론 워크로드를 처리할 수 있는 클라우드를 설계하고 있으며, 엔비디아 다이나모와 생태계 파트너로서 협력하고 있다. 분산형 AI 추론은 프리필, 디코드, 라우팅(routing) 등 서로 다른 요구사항을 가진 특수 구성 요소들을 조율해야 한다. 쿠버네티스가 직면한 과제는 더 많은 모델 복제본을 병렬로 실행하는 것이 아니라, 이 다양한 구성 요소들을 하나의 통합된 고성능 시스템으로 능숙하게 운영하는 것이다. 엔비디아 그로브(Grove)는 엔비디아 다이나모에서 사용 가능한 API(application programming interface)로, 사용자에게 전체 추론 시스템을 설명하는 단일 고수준 사양을 제공한다. 예를 들어, 사용자는 단일 사양 안에서 “프리필에는 GPU 노드 3개, 디코드에는 GPU 노드 6개가 필요하며, 가능한 가장 빠른 응답을 위해 단일 모델 복제본의 모든 노드가 동일한 고속 인터커넥트에 배치돼야 한다”고 간단히 요구할 수 있다. 해당 사양을 기반으로 그로브는 모든 복잡한 조율 작업을 자동으로 처리한다. 이때, 관련 구성 요소를 정확한 비율과 종속성을 유지한 채 함께 확장하고, 올바른 순서로 실행하며, 빠르고 효율적인 통신을 위해 클러스터 전반에 전략적으로 배치한다. AI 추론이 점점 더 분산됨에 따라, 쿠버네티스, 엔비디아 다이나모, 엔비디아 그로브의 조합은 개발자가 지능형 애플리케이션을 구축하고 확장하는 방식을 간소화한다.
작성일 : 2025-11-17
오라클, OCI 전용 리전25 통해 소버린 AI 및 클라우드 서비스 배포 지원
오라클은 더 많은 기업이 퍼블릭 클라우드의 민첩성, 경제성 및 확장성을 누릴 수 있도록 오라클 클라우드 인프라스트럭처(OCI) 전용 리전25(Dedicated Region25)를 출시했다고 발표했다. 기업은 OCI 전용 리전25를 통해 단 몇 주 내에 최소 3개의 랙으로 구성된 풀스택 OCI 환경을 구축할 수 있으며, 공간 제약이 있는 환경에서도 손쉽게 전용 리전을 배포할 수 있다. 지난 2020년 처음 출시된 OCI 전용 리전(OCI Dedicated Region)은 대규모 하이퍼스케일 폼팩터에서 더욱 유연한 배포 형태로 발전해 왔다. 현재 전 세계적으로 60개 이상의 OCI 전용 리전과 오라클 알로이(Oracle Alloy) 리전이 운영 중이거나 계획되어 있으며, 고객은 성능, 거버넌스, 퍼블릭 OCI 환경의 호환성을 저해하지 않으면서 자사 비즈니스 규모에 최적화된 배포 모델을 선택할 수 있다.     OCI 전용 리전25는 OCI의 분산형 클라우드 제품군에 속하며, 모듈형 인프라와 간소화된 서비스 설계를 갖춘 엔터프라이즈급 소버린 클라우드를 통해 공공 및 민간 조직이 민첩성을 높이고 제품 출시 기간을 단축하도록 지원한다. 오라클은 “200개 이상의 AI 및 클라우드 서비스가 내장된 완전한 퍼블릭 클라우드 리전을 3개 랙만으로 구축 가능하고, 하이퍼스케일 수준까지 확장 가능하며, 고객 데이터센터 내에서 안전하게 운영할 수 있도록 지원한다”고 소개했다. 이에 따라 시공간적 제약 혹은 규제 관련 제약으로 전용 클라우드 리전 운영이 어려웠던 고객도 혁신을 가속화하고 새로운 비즈니스 모델을 구현할 수 있게 된다는 것이 오라클의 설명이다. 기존의 전용 클라우드 리전은 많은 조직의 전면적 클라우드 전환에 걸림돌이 되었다. OCI 전용 리전25는 ▲고도화된 네트워크 중심의 모듈형 확장성 ▲하이퍼컨버지드 표준 인프라 ▲통합 다계층(multi-layered) 보안 ▲SaaS, AI를 포함한 퍼블릭 클라우드 수준의 서비스 제공 ▲데이터 주권 요건 지원 ▲오라클 운영 클라우드 리전 등의 이점을 제공하여 클라우드 전환의 방해요소를 제거한다. OCI 전용 리전25는 최소 3개 랙으로 시작해 다운타임이나 재설계 없이 네트워크 확장 랙을 추가함으로써 하이퍼스케일까지 원활하게 확장할 수 있다. 그리고 오라클의 표준화된 고밀도 컴퓨팅 및 스토리지 랙을 활용해 데이터센터 공간 및 전력 사용을 절감할 수 있다. 고객은 더 높은 신뢰성, 빠른 복구 시간, 최대 가동 시간을 확보할 수 있으며, 복잡한 운영 부담 없이 컴팩트한 규모로 운영 가능하다. OCI 전용 리전25는 물리, 가상 전 계층에 걸친 다중적 보안 장치로 데이터와 워크로드를 보호해 높은 수준의 보안, 프라이버시, 규제 요건을 충족할 수 있도록 한다. 통합 다계층 보안 기능으로는 생체인식 잠금(biometric-locked) 랙, 암호화된 소프트웨어 정의 네트워크 패브릭 등이 포함된다. 또한 200개 이상의 OCI AI 및 클라우드 서비스를 고객 환경에서 직접 제공함으로써 데이터 주권 및 데이터 지역성 요건을 충족하면서도 퍼블릭 OCI와 동일한 운영 환경을 구현할 수 있다. 이외에도 정부 및 공공기관이 전체 오라클 클라우드 스택을 자체 환경에 배포하고 데이터 및 시스템에 대한 완전한 통제권을 유지할 수 있도록 함으로써 엄격한 수준의 데이터 주권, 프라이버시, 보안, 규제 요건을 충족할 수 있도록 지원한다. OCI 전용 리전25는 오라클이 직접 운영하는 완전한 클라우드 운영 서비스 형태로 제공되므로, 고객은 인프라 관리가 아닌 혁신에 집중할 수 있다. 스콧 트와들 OCI 제품 및 산업 담당 수석 부사장은 “기업은 가장 큰 가치 창출이 가능한 곳에서 AI와 클라우드 서비스를 자유롭게 구동하길 원하며, 소버린 AI(sovereign AI)에 대한 관심이 높아짐에 따라 데이터의 위치와 데이터 통제에 대한 요건이 엄격해져 이러한 요구 사항이 더욱 강화되고 있다”면서, “OCI 전용 리전25의 출시로 오라클은 사실상 모든 데이터센터로 오라클 클라우드의 역량을 확장할 수 있게 되었다. 이 새로운 배포 옵션은 탁월한 유연성, 운영 단순성 및 엔터프라이즈급 데이터 주권을 제공해 전용 클라우드의 기준을 새롭게 정의하고, 고객이 미래 혁신을 대비할 수 있도록 돕는다”고 말했다.
작성일 : 2025-10-20
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
오라클, 대규모 클라우드 AI 클러스터 ‘OCI 제타스케일10’ 공개
오라클이 클라우드 환경 내의 대규모 AI 슈퍼컴퓨터인 ‘오라클 클라우드 인프라스트럭처(OCI) 제타스케일10(Zettascale10)’을 발표했다. OCI 제타스케일10은 여러 데이터센터에 걸쳐 수십만 개의 엔비디아 GPU를 연결하여 멀티 기가와트급 클러스터를 형성하며, 최대 16 제타플롭스(zettaFLOPS)에 이르는 성능을 제공한다. OCI 제타스케일10은 스타게이트의 일환으로 미국 텍사스주 애빌린에서 오픈AI(OpenAI)와 협력하여 구축한 대표 슈퍼클러스터를 구성하는 기반 패브릭이다. 차세대 오라클 액셀러론 RoCE(Oracle Acceleron RoCE) 네트워킹 아키텍처를 기반으로 구축된 OCI 제타스케일10은 엔비디아 AI 인프라로 구동된다. 오라클은 강화된 확장성, 클러스터 전반에 걸친 초저지연 GPU-GPU 통신, 가격 대비 높은 성능, 향상된 클러스터 활용도, 대규모 AI 워크로드에 필요한 안정성을 제공한다는 점을 내세운다. OCI 제타스케일10은 2024년 9월 출시된 첫 번째 제타스케일 클라우드 컴퓨팅 클러스터의 차세대 모델이다. OCI 제타스케일10 클러스터는 대규모 기가와트급 데이터센터 캠퍼스에 배치되며, 2킬로미터 반경 내에서 밀도를 높여 대규모 AI 학습 워크로드에 최적화된 GPU-GPU 지연 성능을 제공한다. 이 아키텍처는 오픈AI와 협력하여 애빌린 소재 스타게이트 사이트에 구축 중에 있다. OCI는 고객에게 OCI 제타스케일10의 멀티기가와트 규모 배포를 제공할 계획이다. 초기에는 최대 80만 개의 엔비디아GPU를 탑재한 OCI 제타스케일10 클러스터 배포를 목표로 한다. 이는 예측 가능한 성능과 강력한 비용 효율을 제공하며, 오라클 액셀러론의 초저지연 RoCEv2 네트워킹으로 높은 GPU-GPU 대역폭을 구현한다. OCI는 현재 OCI 제타스케일10 주문을 접수 중이라고 전했다. 이 제품은 2026년 하반기 출시 예정으로, 최대 80만 개의 엔비디아 AI 인프라 GPU 플랫폼을 기반으로 제공될 예정이다. 오라클의 마헤쉬 티아가라얀 OCI 총괄 부사장은 “OCI 제타스케일10을 통해 우리는 OCI의 혁신적인 오라클 액셀러론 RoCE 네트워크 아키텍처를 차세대 엔비디아 AI 인프라와 결합해 전례 없는 규모에서 멀티기가와트급 AI 용량을 제공한다. 고객은 성능 단위당 전력 소비를 줄이면서 높은 안정성을 달성해 가장 큰 규모의 AI 모델을 실제 운영 환경에 구축, 훈련 및 배포할 수 있다. 또한 강력한 데이터 및 AI 주권 제어 기능을 통해 오라클의 분산형 클라우드 전반에서 자유롭게 운영할 수 있다”고 말했다. 오픈AI의 피터 호셸레(Peter Hoeschele) 인프라 및 산업 컴퓨팅 부문 부사장은 “OCI 제타스케일10 네트워크 및 클러스터 패브릭은 오라클과 함께 구축한 슈퍼클러스터인 텍사스주 애빌린에 위치한 대표 스타게이트 사이트에서 최초로 개발 및 배포되었다. 고도로 확장 가능한 맞춤형 RoCE 설계는 기가와트 규모에서 패브릭 전체 성능을 극대화하면서도 대부분의 전력을 컴퓨팅에 집중시켜 준다. 오라클과 협력하여 애빌린 사이트를 비롯한 스타게이트 프로젝트 전반을 전개해 나갈 수 있어 매우 기쁘게 생각한다”고 말했다.
작성일 : 2025-10-16
오라클, 기업의 AI 이니셔티브 가속화 돕는 ‘AI 데이터 플랫폼’ 공개
오라클이 ‘오라클 AI 데이터 플랫폼(Oracle AI Data Platform)’의 정식 출시를 발표했다. 오라클 AI 데이터 플랫폼은 생성형 AI 모델을 기업의 데이터, 애플리케이션, 워크플로와 안전하게 연결할 수 있도록 설계된 포괄적 플랫폼이다. 자동화된 데이터 수집, 시맨틱 강화(semantic enrichment), 벡터 인덱싱에 생성형 AI 도구를 결합해 원시 데이터(raw data)에서 실제 운영 수준(production-grade)의 AI까지 전 과정을 단순화한다. 오라클 AI 데이터 플랫폼은 데이터를 AI에 최적화하고, 오라클 클라우드 인프라스트럭처(OCI), 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database), OCI 생성형 AI(OCI Generative AI) 서비스를 결합해 에이전틱 애플리케이션의 생성과 배포를 가능하게 한다. 기업 고객은 신뢰할 수 있는 실시간 인사이트를 얻을 수 있으며, 반복 업무를 자동화하고, 성장 기회를 발굴하며, 일상적인 워크플로에 지능을 내재화하는 AI 에이전트를 활용할 수 있다. 개발자와 데이터 팀은 엔터프라이즈급 단일 플랫폼에서 이러한 기능을 신속하게 구축하고 확장할 수 있다. 이 플랫폼은 엔비디아 가속 컴퓨팅 인프라를 통합해 고성능 워크로드를 위한 최신 세대 GPU와 라이브러리를 선택할 수 있다. 그 결과 다양한 산업군에서 더욱 신속한 혁신, 높은 생산성, 측정 가능한 비즈니스 성과를 실현할 수 있다. 오라클 AI 데이터 플랫폼은 기업이 데이터와 AI를 효과적으로 활용할 수 있는 기반을 제공한다. 고객은 델타 레이크(Delta Lake) 및 아이스버그(Iceberg)와 같은 오픈 포맷을 활용해 데이터 레이크하우스를 구축하고, 데이터 중복을 줄일 수 있다. 또한 AI 데이터 플랫폼 카탈로그는 모든 데이터와 AI 자산에 대한 통합 뷰와 거버넌스를 제공해 기업의 컴플라이언스 및 신뢰 강화를 지원한다. 카탈로그는 에이전트투에이전트(Agent2Agent : A2A) 및 모델 컨텍스트 프로토콜(MCP) 등 개방형 표준을 폭넓게 지원해 정교한 멀티에이전트 시스템 구성을 가능하게 한다. 더불어 기업 고객을 위한 에이전트 허브(Agent Hub)는 다수의 에이전트를 탐색하는 복잡성을 제거하고, 요청을 해석해 적합한 에이전트를 호출하며, 추천 결과를 제시해 즉각적인 조치를 취할 수 있도록 지원한다. 오라클은 오라클 AI 데이터 플랫폼이 제공하는 기능 및 이점으로 ▲데이터를 인텔리전스로 전환 ▲팀 전반의 혁신 가속 ▲비즈니스 프로세스 자동화 및 확장 ▲엔터프라이즈급 준비 상태 보장 등을 꼽았다. 오라클 AI 데이터 플랫폼은 데이터 레이크하우스와 AI를 하나의 플랫폼에 통합해, 원시 데이터를 실행 가능한 인사이트와 더 스마트한 의사결정으로 전환할 수 있다. 그리고 데이터 엔지니어, 데이터 과학자, AI 개발자를 위한 단일 워크벤치를 제공해 협업과 AI 기반 애플리케이션 제공 속도를 높인다. 이를 통해 단순 분석을 넘어 워크플로를 조율하고, 알림을 자동 생성하며, 비즈니스 성과를 직접 개선하는 AI 에이전트를 통해 효율을 높일 수 있도록 한다. 오라클은 “OCI, 오픈소스 엔진, 업계 선도적 분석 기능, 오라클 자율운영 AI 레이크하우스(Oracle Autonomous AI Lakehouse)의 결합으로 미션 크리티컬 AI 도입에 필요한 규모, 성능, 신뢰성을 제공한다”고 전했다. 제로 ETL(Zero-ETL)과 제로 카피(Zero Copy) 기능을 통해 고객은 재무, HR, 공급망, 마케팅, 영업, 서비스 등 핵심 비즈니스 애플리케이션 데이터는 물론 산업별 애플리케이션 데이터와 기존 엔터프라이즈 데이터베이스에 원활하게 연결할 수 있다. 오라클 AI 데이터 플랫폼은 멀티클라우드 및 하이브리드 크로스-클라우드 오케스트레이션을 지원하여 퍼블릭 클라우드, 온프레미스, 에지 등 모든 소스의 데이터의 연결, 처리, 분석이 가능하다. 또한, 오라클 애플리케이션과 서드파티 환경 전반에서 AI 에이전트가 원활하게 작동할 수 있게 되어 고객이 기업 전반에 걸쳐 AI 기반 혁신을 확장할 수 있다. 오라클은 퓨전(Fusion), 넷스위트(NetSuite)를 포함한 주요 오라클 애플리케이션 제품군 전반과 의료, 소비재, 금융 서비스, 건설 등 산업 전반을 대상으로 사전 통합을 포함한 맞춤형 AI 데이터 플랫폼을 제공할 계획이다. 오라클 퓨전 데이터 인텔리전스(Oracle Fusion Data Intelligence)의 정제되고 풍부하며 AI를 위해 준비된 데이터는 AI 데이터 플랫폼에서 사용 가능하다. 오라클의 T.K. 아난드 총괄부사장은 “오라클 AI 데이터 플랫폼은 고객이 데이터를 AI에 최적화하고, AI를 활용하여 비즈니스 프로세스 전반을 혁신할 수 있도록 돕는다. 이 플랫폼은 데이터를 통합하고 전체적인 AI 라이프사이클을 간소화하여 기업이 신뢰성, 보안성 및 민첩성을 고려하며 AI의 역량을 활용하는 데 있어 가장 포괄적인 기반을 제공한다”고 말했다.
작성일 : 2025-10-15
오라클, AI로 식량 시스템의 회복탄력성 강화 지원
오라클이 세계 식량 시스템의 회복탄력성 강화를 돕는 ‘오라클 거버먼트 데이터 인텔리전스 포 애그리컬처(Oracle Government Data Intelligence for Agriculture)’를 발표했다. 이 AI 설루션은 농업 데이터와 작황 성과에 대한 종합적인 가시성을 제공해 각국의 지도자와 정부 기관이 생산 현황을 수월하게 모니터링하고, 식량 불안정을 초래할 수 있는 문제를 예측하며, 위험을 완화하기 위한 대응 계획을 자동화한다. 세계 각국 정부는 수확 부족이나 과잉 생산에 선제적으로 대응하는 데 필요한 정확하고 시의적절한 농업 성과 및 위험 데이터를 확보하지 못하는 경우가 많다. 오라클 클라우드 인프라스트럭처(OCI)의 보안성, 성능, 확장성을 기반으로 구축된 오라클 거버먼트 데이터 인텔리전스 포 애그리컬처는 독점 데이터와 공개 정부 데이터, 위성 이미지, 기상 데이터, 세부 토양 정보, 과거 작물 기록 등을 포함한 다양한 출처의 방대한 데이터셋을 집계해 농업 생산과 유통에 영향을 미치는 상호 연결된 시스템 및 환경 요인에 대한 핵심 인사이트를 제공한다.     이 애플리케이션은 업계가 직면한 시급한 과제를 해결하도록 설계된 AI 모델을 바탕으로 작물 수확량을 예측하고 잠재적 위협을 탐지하며, 제안된 개입 프로그램의 영향을 모델링하고, 위험을 수치화해 정부가 더 전략적인 농업 계획을 세우고 효율적인 자원 배분을 결정할 수 있도록 한다. 오라클 거버먼트 데이터 인텔리전스 포 애그리컬처는 위협 평가와 식량 안보 모니터링 및 대응 전략에 집중하는 정부 조직을 위해 설계되어 국가의 주요 농업 과제 및 전망에 대한 진척 상황을 명확하게 보여주는 종합 대시보드로 인사이트를 제공한다. 이 시스템은 지속적으로 정보와 작황 진척을 모니터링하여 잠재적 문제를 자동으로 경고한다. 이러한 인사이트를 바탕으로 책임자는 시스템이 식별한 모범 사례를 참고해 위협 대응 및 개입 계획 또는 정책 결정을 수립·모델링할 수 있다. 실행 결과는 설루션에 다시 반영되어 시스템의 이해를 심화하고 향후 대응 권고를 개선한다. 오라클 거버먼트 데이터 인텔리전스 포 애그리컬처는 오라클 디지털 정부 제품군(Oracle Digital Government Suite)의 일부다. 이 제품군은 클라우드 인프라스트럭처 및 AI, 개발 도구, 네트워크 연결, 애플리케이션에 이르는 현대적 설루션 전반을 통해 정부가 고차원 사회적 과제를 해결하고 디지털 전환을 가속화할 수 있도록 지원한다.  오라클의 마이크 시실리아 CEO는 “식량 안보는 모든 국가에 영향을 미치는 글로벌 과제다. 클라우드 컴퓨팅, AI, 위성 기술의 최신 발전을 통해 농업 운영을 완전히 변혁하여 보다 예측 가능한 수확량을 달성할 수 있다”면서, “오라클 거버먼트 데이터 인텔리전스 포 애그리컬처는 이러한 요소를 하나의 안전한 시스템으로 통합해 각국이 식량 시스템의 회복탄력성을 선제적으로 강화하는 데 필요한 가시성과 통찰력을 제공한다”고 말했다.
작성일 : 2025-09-29
오라클, OCI 생성형 AI 서비스에 구글 제미나이 모델 제공
오라클과 구글 클라우드는 구글의 최신 AI 모델인 제미나이(Gemini) 2.5부터 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스를 통해 제공한다고 발표했다. 이를 통해 오라클 고객은 멀티모달 이해, 고급 코딩 및 소프트웨어 개발, 생산성과 업무 프로세스 자동화, 연구 및 지식 검색 등 다양한 활용 사례에서 AI 에이전트를 구축할 수 있게 됐다. 또한, 오라클과 구글 클라우드는 AI 관련 분야에서 협력을 강화할 계획이다. 오라클은 구글 클라우드의 버텍스 AI(Vertex AI)와의 새로운 통합을 통해 비디오 및 이미지, 음성,·음악 생성용 최첨단 모델과 MedLM 같은 산업 특화 모델을 포함한 제미나이 전체 모델 제품군을 OCI 생성형 AI 서비스에서 제공할 계획이다. 또한, 오라클 퓨전 클라우드 애플리케이션(Fusion Cloud Applications) 내에서도 버텍스 AI 기반 제미나이 모델을 선택 옵션으로 제공해, 금융 및 인사, 공급망, 영업, 서비스, 마케팅 등 주요 업무 프로세스에 AI 기능을 강화할 수 있도록 더 폭넓은 선택지를 제공할 예정이다. 오라클 고객은 보유 중인 오라클 유니버설 크레딧(Oracle Universal Credits)으로 제미나이 모델을 바로 사용할 수 있다. 구글 제미나이 모델은 최신성을 위해 구글 검색 데이터를 기반으로 응답을 보강하는 기능과 대규모 맥락 창(context windows), 강력한 암호화와 데이터 프라이버시 정책, 그리고 우수한 추론 능력을 앞세워 엔터프라이즈 환경에서 높은 성능을 발휘할 수 있게 했다. 오라클은 기업 데이터와 가까운 곳에서 최신 AI 기술을 제공하며, 보안 및 유연성, 확장성을 우선시한다. 이를 통해 산업 전반의 기업 고객이 생성형 AI와 에이전틱 AI를 적합한 비즈니스 시나리오에 즉시 적용할 수 있도록 돕는다. 또 전 세계 수천 명의 AI 개발자와 기업이 OCI의 경제적이고 특화된 AI 인프라를 활용해 대규모 및 고난도 AI 워크로드를 더 빠르게 실행하고 있다. OCI 베어메탈 GPU 인스턴스는 생성형 AI, 자연어 처리(NLP), 컴퓨터 비전, 추천 시스템 같은 애플리케이션을 구동할 수 있다. 구글 클라우드의 토마스 쿠리안(Thomas Kurian) CEO는 “선도적인 기업들은 이미 제미나이를 활용해 다양한 산업과 업무에서 AI 에이전트를 구동하고 있다”면서, “이제 오라클의 기업 고객은 오라클 환경에서 구글 클라우드의 대표 모델에 접근할 수 있어, 개발자 지원과 데이터 통합 작업 간소화, 그 외 다양한 기능을 수행하는 강력한 AI 에이전트를 배포하는 일을 훨씬 쉽게 시작할 수 있다”고 말했다. 오라클 클라우드 인프라스트럭처의 클레이 마고요크 사장은 “오라클은 기업 고객을 위해 엄선한 다양한 AI모델 선택지를 전략적으로 제공해 왔으며, 여기에는 공개 모델과 독점 모델이 모두 포함된다”라며, “OCI 생성형 AI 서비스에서 제미나이를 제공하는 것은 고객이 혁신을 추진하고 비즈니스 목표를 달성할 수 있도록 강력하고 안전하며 비용 효율적인 AI 설루션을 제공하겠다는 오라클의 의지를 반영하는 것”이라고 전했다.
작성일 : 2025-08-18
오라클, AI 훈련 및 추론에 OCI 활용한 혁신 기업 사례 소개 
오라클은 전 세계 AI 혁신 기업이 AI 모델의 훈련 및 AI 추론과 애플리케이션 배포를 위해 오라클 클라우드 인프라스트럭처 AI 인프라스트럭처(OCI AI Infrastructure)와 OCI 슈퍼클러스터(OCI Supercluster)를 활용하고 있다고 밝혔다. “파이어웍스AI(Fireworks AI), 헤드라(Hedra), 누멘타(Numenta), 소니옥스(Soniox)를 비롯해 수백 개의 선도적인 AI 혁신 기업이 AI 워크로드 실행 위치에 대한 제어, 컴퓨트 인스턴스 선택권, 확장성, 고성능, 비용 효율성 등의 이유로 OCI를 선택하고 있다”는 것이 오라클의 설명이다. 산업 전반에서 AI 도입이 빠르게 확산됨에 따라, AI 기업들은 신속하고 경제적인 GPU 인스턴스 확장을 지원하는 안전하고 검증된 고가용성 클라우드 및 AI 인프라를 필요로 한다. AI 기업들은 OCI AI 인프라스트럭처를 통해 AI 훈련 및 추론, 디지털 트윈, 대규모 병렬 HPC 애플리케이션 등에 필요한 고성능 GPU 클러스터와 확장성 높은 컴퓨팅 파워에 접근할 수 있다.     파이어웍스 AI는 텍스트와 이미지, 오디오, 임베딩, 멀티모달 형식의 100개 이상의 최첨단 오픈 모델을 서비스하는 고성능 생성형 AI 애플리케이션 플랫폼으로, 개발자와 기업이 최적화된 생성형 AI 애플리케이션을 구축할 수 있도록 지원한다. 파이어웍스 AI는 엔비디아 호퍼(NVIDIA Hopper) GPU로 가속화된 OCI 컴퓨트(OCI Compute) 베어메탈 인스턴스와 AMD MI300X GPU를 탑재한 OCI 컴퓨트를 활용해 플랫폼에서 매일 2조 건 이상의 추론 토큰을 처리하고 글로벌 서비스 확장을 지원한다. 헤드라는 AI 기반 영상 생성전문 회사로, 사용자가 생생한 캐릭터 영상을 제작할 수 있도록 지원한다. 헤드라는 엔비디아 호퍼 GPU로 가속화된 OCI 컴퓨트 베어메탈 인스턴스에서 생성형 이미지, 영상, 오디오를 위한 멀티모달 기반 모델을 배포함으로써 GPU 비용 절감, 훈련 속도 향상, 모델 반복 시간 단축에 성공했다. 누멘타는 딥러닝 시스템의 성능과 효율성을 극대화하는 데 집중하는 AI 전문 기술회사다. 누멘타는 엔비디아 GPU로 가속화된 OCI 컴퓨트 베어메탈 인스턴스를 활용함으로써 고성능의 검증된 훈련 인스턴스에 접근할 수 있게 되었으며, 더 빨라진 훈련 속도 및 증가한 학습 사이클을 경험했다. 소니옥스는 오디오 및 음성 AI 분야 선도 회사로, 오디오, 음성, 언어 이해를 위한 기초 AI 모델을 개발하고 있다. 소니옥스는 OCI 상에서 다국어 음성 인식 AI 모델을 구동하며, 엔비디아 호퍼 GPU 기반 OCI 컴퓨트 베어메탈 인스턴스를 활용해 60개 언어의 음성을 실시간으로 정확하게 인식하고 이해할 수 있도록 학습했다. 오라클의 크리스 간돌포(Chris Gandolfo) OCI 및 AI 부문 수석 부사장은 “OCI는 다양한 규모의 훈련 및 추론 요구사항을 충족시켜 주며, AI 혁신 기업들이 선호하는 클라우드 플랫폼으로 빠르게 자리매김했다”면서, “OCI AI 인프라스트럭처는 초고속 네트워크, 최적화된 스토리지, 최첨단 GPU를 제공하여 AI 기업의 차세대 혁신을 돕는다”고 강조했다.
작성일 : 2025-07-17
오라클, AWS 클라우드에서 자율운영 DB 실행하는 ‘데이터베이스앳AWS’ 출시
오라클과 아마존웹서비스(AWS)가 오라클 데이터베이스앳AWS(Oracle Database@AWS)의 공식 출시(GA)를 발표했다. 이제 AWS 클라우드 환경에서 OCI(오라클 클라우드 인프라스트럭처) 전용 인프라의 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service) 및 오라클 자율운영 데이터베이스(Oracle Autonomous Database)를 실행할 수 있다. 오라클 데이터베이스앳AWS는 AWS의 미국 동부 및 서부 리전에서 이용 가능하며, 대한민국 서울을 포함한 전 세계 20여 개 AWS 리전에서 추가로 출시될 예정이다. 기업 고객은 오라클 데이터베이스 워크로드를 AWS 환경에서 OCI 상에서 실행되는 오라클 데이터베이스앳AWS로 손쉽게 마이그레이션할 수 있으며, 오라클 리얼 애플리케이션 클러스터(RAC) 및 AI 벡터 기능이 내장된 최신 오라클 데이터베이스 23ai의 이점도 누릴 수 있다. 오라클 데이터베이스앳AWS에는 제로 ETL(추출, 변환 및 로드) 기능이 포함되어 있어 엔터프라이즈 오라클 데이터베이스 서비스와 AWS 애널리틱스(AWS Analytics) 서비스 간 데이터 통합이 간편해지고, 이로써 복잡한 데이터 파이프라인을 구축하고 관리할 필요가 없어진다. 이는 오라클 데이터베이스 서비스와 AWS 서비스 간 데이터 흐름을 원활하게 하며, 기업은 자사의 데이터를 AWS 분석, 머신러닝 및 생성형 AI 서비스와 결합해 애플리케이션을 추가로 개선할 수 있다. 이번 출시로 클라우드 내 데이터베이스 실행에 있어 기업 고객들의 선택지는 더욱 넓어졌으며, 기존의 AWS 내 오라클 데이터베이스 실행 옵션이 보완됐다. AWS의 G2 크리슈나무티(G2 Krishnamoorthy) 데이터베이스 서비스 부사장은 “기업은 애플리케이션 재설계 없이도 자사의 오라클 데이터베이스 워크로드를 오라클 데이터베이스앳AWS로 원활히 마이그레이션할 수 있다. 동시에 AWS의 글로벌 인프라가 제공하는 보안성과 복원 탄력성, 확장성도 누릴 수 있다”면서, “보안에 가장 민감한 세계 최대 규모 기업 조직의 상당수가 이미 AWS에서 오라클 워크로드를 실행하고 있다. 오라클 데이터베이스앳AWS는 기업이 AWS의 첨단 분석 및 생성형 AI 기능을 바탕으로 보다 손쉽게 데이터로부터 더 큰 가치를 창출하도록 돕는다”고 말했다. 카란 바타 OCI 수석 부사장은 “기업들은 지난 수십 년간 자사의 가장 가치 있는 데이터를 오라클 데이터베이스에 저장해 왔다”면서, “오라클 데이터베이스앳AWS는 AWS 환경의 OCI에서 오라클 데이터베이스 워크로드를 실행할 수 있게 해 준다. 덕분에 오라클 데이터베이스 23ai의 이점을 온전히 활용하여 애플리케이션 개발을 간소화하고, AI 및 네이티브 벡터 임베딩을 바탕으로 미션 크리티컬 워크로드를 실행할 수 있다. AWS의 고급 생성형 AI 및 분석 서비스와 결합된 오라클 데이터베이스앳AWS는 진정 주목할 만한 설루션”이라고 설명했다. 오라클 데이터베이스앳AWS는 OCI와 AWS 전반에 걸쳐 일관된 사용자 경험을 제공하며, 양사의 통합된 지원으로 데이터베이스 관리와 구매, 배포를 간소화할 수 있다. 이는 기업 고객이 신뢰하는 기업용 애플리케이션에 최적화된 참조 아키텍처 및 랜딩 존을 기반으로 설계되었다.  이 서비스를 활용하면 오라클 제로 다운타임 마이그레이션(Oracle Zero Downtime Migration)을 비롯한 마이그레이션 도구와의 호환성을 바탕으로 기존 오라클 데이터베이스의 클라우드 마이그레이션을 간소화 및 가속화할 수 있다. 그리고 오라클 RAC를 통한 워크로드의 고도의 복원력 및 확장성 상승, 여러 AWS 가용 영역(AWS Availability Zones)과 아마존 S3(Amazon S3)을 통한 백업 및 재해 복구가 가능하다. 또한, AWS 마켓플레이스(AWS Marketplace)를 활용한 간소화된 구매 경험을 누릴 수 있다. 기존 AWS 약정 및 BYOL(Bring Your Own License) 등 오라클 라이선스 혜택과 오라클 서포트 리워드(OSR) 등 할인 프로그램을 오라클 데이터베이스앳AWS와 함께 사용할 수 있다. 아마존 EC2(Amazon EC2), 아마존EKS(Amazon EKS), 아마존 ECS(Amazon ECS)와 AI 벡터 검색(AI Vector Search) 등 오라클 데이터베이스 기능을 결합하면 확장 가능한 새로운 마이크로서비스 기반 애플리케이션을 구축할 수 있고, 이를 통해 애플리케이션 인텔리전스를 개선하면서 신기능을 신속하게 시장에 출시할 수 있다. 오라클 데이터베이스앳AWS는 내장형 오라클 AI 벡터 검색을 지원하는 오라클 데이터베이스 23ai를 제공한다. 사용자는 특정 단어와 픽셀, 데이터 값이 아닌 개념적 콘텐츠를 기반으로 문서, 이미지, 관계형 데이터를 손쉽게 검색할 수 있다. AWS 관리 콘솔(AWS Management Console), AWS 명령줄 인터페이스(AWS Command Line Interface), API 등 익숙한 도구 및 손쉬운 워크로드 관리를 위한 모니터링 기능이 제공되며, 고급 분석, 머신러닝, 생성형 AI 서비스를 활용한 데이터 준비가 가능하다. 이외에도 AWS IAM(AWS Identity and Access Management), AWS 클라우드 포메이션(AWS CloudFormation), 아마존 클라우드워치(Amazon CloudWatch), 아마존 VPC 라티스(Amazon VPC Lattice), 아마존 이벤트브리지(Amazon EventBridge) 등 AWS 서비스와의 통합이 제공된다. 한편으로 오라클 E-비즈니스 스위트(Oracle E-Business Suite), 피플소프트(PeopleSoft), JD 에드워즈 엔터프라이즈원(JD Edwards EnterpriseOne), 오라클 EPM(Oracle Enterprise Performance Management), 오라클 리테일 애플리케이션(Oracle Retail Applications) 등 오라클 애플리케이션도 지원된다. 오라클 데이터베이스앳AWS는 현재 AWS 미국 동부(버지니아주 북부) 및 서부(오리건주) 리전에서 이용 가능하며, AWS의 클라우드 인프라를 활용하고 있다. 오라클 데이터베이스앳AWS 설루션은 대한민국의 서울을 포함해 캐나다(중부), 프랑크푸르트, 하이데라바드, 아일랜드, 런던, 멜버른, 밀라노, 뭄바이, 오사카, 파리, 상파울루, 싱가포르, 스페인, 스톡홀름, 시드니, 도쿄, 미국 동부(오하이오주), 미국 서부(캘리포니아주), 취리히를 포함해 20여 곳의 추가 AWS 리전에서도 출시를 앞두고 있다.
작성일 : 2025-07-10