• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 생성형 AI"에 대한 통합 검색 내용이 807개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
아마존, “한국 클라우드 인프라에 7조 원 추가 투자 계획”
아마존웹서비스(AWS)는 2025년부터 2031년까지 한국 내 AI 및 클라우드 컴퓨팅 기술 지원을 위한 데이터센터 인프라 확충에 7조 원(약 50억 달러)을 추가 투자할 계획이라고 발표했다. AWS는 현재까지 한국 클라우드 인프라에 5조 6000억 원(40억 달러) 이상을 투자해왔으며, 2031년까지 아마존의 국내 총 투자 규모는 12조 6000억 원(90억 달러)을 넘어설 전망이다. AWS의 확장된 인프라는 국내 기업이 머신러닝과 분석부터 복잡한 업무를 자율적으로 처리할 수 있는 새로운 AI 에이전트(AI agent)에 이르기까지 AI의 모든 기능을 폭넓게 활용할 수 있도록 지원한다. AWS는 AI 도입 여정의 어느 단계에 있든 기업이 안정적이고 확장 가능한 기반 위에서 혁신을 이어갈 수 있도록 지원하고 있다고 소개했다. AWS의 하이메 발레스(Jaime Vallés) 아시아·태평양·일본(APJ) 총괄 부사장은 “7조 원 규모의 이번 신규 투자는 모든 규모의 한국 기업의 디지털 전환을 지원하고 한국이 글로벌 AI 강국으로 도약하는 데 기여하고자 하는 우리의 장기적 약속을 더욱 공고히 하는 것”이라며, “AWS는 세계적 수준의 데이터센터 인프라를 확장함으로써 한국의 기술적 미래에 투자하고 있다. 한국 기업이 가장 발전된 컴퓨팅 성능과 특화된 AI 도구를 활용해 빠르게 혁신하고, 생성형 AI가 제공하는 막대한 기회를 활용할 수 있도록 지원하게 되어 기쁘다”라고 말했다. 김정관 산업통상자원부 장관은 “AWS의 대규모 AI 인프라 투자는 한국이 글로벌 AI 강국으로 도약하는 데 크게 기여할 것”이라며, “생산성 정체와 글로벌 보호무역 확산 등 우리 산업이 직면한 위기를 극복하기 위해서는 AI 전환(AX)이 유일한 해법이며, AWS가 구축할 AI 인프라는 산업 전반의 AX를 가속화한다는 점에서 더욱 의미가 크다. 정부는 국내외 기업들이 AI 인프라 확충과 AX 확산을 위한 적극적인 투자와 비즈니스 활동을 전개할 수 있도록 적극 지원하겠다”고 말했다. 이번 신규 투자는 AWS가 한국의 국가 AI 기반 강화를 위해 SK그룹과 협력하에 추진 중인 ‘울산 AI 존’에 대한 투자를 포함한다. 2027년 운영을 시작할 예정인 이 AI 특화 시설은 SK그룹이 건설을 담당하고, AWS는 자사의 AI 및 클라우드 역량을 한국 고객에게 제공할 계획이다. 한편, AWS는 빠르게 성장하는 스타트업부터 대기업, 주요 정부 기관에 이르기까지 수천 개의 한국 고객들이 자사의 기술을 활용해 AI 여정을 가속화하고 비용을 절감하며 민첩성을 높이고 혁신을 추진하고 있다고 전했다. AWS는 고성능 컴퓨팅 인프라와 특화된 AI 하드웨어에 대한 전략적 투자를 확대해, 향후 생성형 AI와 에이전틱 AI(agentic AI) 혁신을 위한 기술적 기반을 구축하고 있다. 여기에는 트레이니움(Trainium)과 인퍼런시아(Inferentia) 칩과 같은 특수 목적 하드웨어를 갖춘 고도의 보안 인프라부터, 아마존 베드록(Amazon Bedrock)을 통해 앤트로픽, 오픈AI 등이 제공하는 100개 이상의 AI 모델에 접근하고, AI 에이전트를 통해 경쟁력을 강화하는 것까지 포함된다. AWS는 한국의 조직들이 안전하고 대규모로 AI 혁신을 가속화할 수 있도록 필요한 도구와 서비스를 제공하고 있다고 소개했다. AWS코리아 함기호 대표는 “다년에 걸친 이번 투자 계획은 한국의 디지털 전환 여정을 지원하고자 하는 AWS의 확고한 의지를 보여준다”며, “확장된 클라우드 인프라는 모든 규모의 국내 기업이 글로벌 시장에서 경쟁력을 확보하고, 데이터 주권을 유지하면서 첨단 AI 기술을 활용할 수 있도록 지원할 것이다. 이번 투자를 통해 한국 경제에 기여하고, 대규모 AI 혁신을 가능하게 하며, 사회 전반에 실질적인 혜택을 제공하게 되어 기쁘다”고 말했다.
작성일 : 2025-10-29
IBM, AI 가속기 ‘스파이어 엑셀러레이터’ 정식 출시
IBM은 자사의 메인프레임 시스템 IBM z17 및 IBM 리눅스원 5(IBM LinuxONE 5)에 적용 가능한 인공지능(AI) 가속기 ‘스파이어 엑셀러레이터(Spyre Accelerator)’를 정식 출시한다고 밝혔다. 스파이어 엑셀러레이터는 생성형 및 에이전트 기반 AI 업무를 지원하는 빠른 추론 기능을 제공하며, 핵심 업무의 보안과 복원력을 최우선으로 고려해 설계되었다. 12월 초부터는 파워11(Power11) 서버용 제품도 제공될 예정이다. 오늘날 IT 환경은 기존의 논리 기반 업무 흐름에서 에이전트 기반 AI 추론 중심으로 전환되고 있으며, AI 에이전트는 저지연(low-latency) 추론과 실시간 시스템 반응성을 요구한다. 기업은 처리량의 저하없이 가장 까다로운 엔터프라이즈 업무와 AI 모델을 동시에 처리할 수 있는 메인프레임과 서버 인프라를 필요로 한다. IBM은 이러한 수요에 대응하기 위해서 생성형 및 에이전트 기반 AI를 지원하면서도 핵심 데이터, 거래, 애플리케이션의 보안과 복원력을 유지할 수 있는 AI 추론 전용 하드웨어가 필수적이라고 판단했다. 스파이어 엑셀러레이터는 기업이 중요한 데이터를 사내 시스템(온프레미스, on-premise) 내에서 안전하게 관리할 수 있도록 설계되었으며, 운영 효율성과 에너지 절감 효과도 함께 제공한다.     스파이어 엑셀러레이터는 IBM 리서치 AI 하드웨어 센터의 혁신 기술과 IBM 인프라 사업부의 개발 역량이 결합된 결과물이다. 시제품으로 개발된 이후 IBM 요크타운 하이츠 연구소의 클러스터 구축과 올버니대학교 산하 ‘신흥 인공지능 시스템 센터(Center for Emerging Artificial Intelligence Systems)’와의 협업을 통해 빠른 반복 개발 과정을 거쳐 완성도를 높였다. 이렇게 기술적 완성도를 높여 온 시제품 칩은 현재는 IBM Z, 리눅스원, 파워 시스템에 적용 가능한 기업용 제품으로 진화했다. 현재 스파이어 엑셀러레이터는 32개의 개별 가속 코어와 256억 개의 트랜지스터를 탑재한 상용 시스템온칩(SoC, system-on-a-chip) 형태로 완성되었다. 5나노미터 공정 기술을 기반으로 제작된 각 제품은 75와트(Watt) PCIe 카드에 장착되며, IBM Z 및 리눅스원 시스템에는 최대 48개, IBM 파워 시스템에는 최대 16개까지 클러스터 구성이 가능하다. IBM 고객들은 스파이어 엑셀러레이터를 통해 빠르고 안전한 처리 성능과 사내 시스템 기반의 AI 가속 기능을 활용할 수 있다. 이는 기업이 IBM Z, 리눅스원, 파워 시스템 상에서 데이터를 안전하게 유지하면서도 AI를 대규모로 적용할 수 있게 되었음을 의미한다. 특히, IBM Z 및 리눅스원 시스템에서는 텔럼 II(Telum II) 프로세서와 함께 사용되어 보안성, 저지연성, 높은 거래 처리 성능을 제공한다. 이를 통해 고도화된 사기 탐지, 유통 자동화 등 예측 기반 업무에 다중 AI 모델을 적용할 수 있다. IBM 파워 기반 서버에서는 AI 서비스 카탈로그를 통해 기업 업무 흐름에 맞춘 종합적인 AI 활용이 가능하다. 고객은 해당 서비스를 한 번의 클릭으로 설치할 수 있으며, 온칩 가속기(MMA)와 결합된 파워용 스파이어 엑셀러레이터는 생성형 AI를 위한 데이터 변환을 가속화해 심층적인 프로세스 통합을 위한 높은 처리량을 제공한다. 또한 128개 토큰 길이의 프롬프트 입력을 지원하며, 이를 통해 시간당 800만 건 이상의 대규모 문서를 지식 베이스에 통합할 수 있다. 이러한 성능은 IBM의 소프트웨어 스택, 보안성, 확장성, 에너지 효율성과 결합되어, 기업이 생성형 AI 프레임워크를 기존 업무에 통합해 나가는 여정을 효과적으로 지원한다. IBM 인프라 사업부 최고운영책임자(COO)이자 시스템즈 사업부 총괄 배리 베이커(Barry Baker) 사장은 “스파이어 엑셀러레이터를 통해 IBM 시스템은 생성형 및 에이전트 기반 AI를 포함한 다중 모델 AI를 지원할 수 있는 역량을 갖추게 됐다. 이 기술 혁신은 고객이 AI 기반 핵심 업무를 보안성과 복원력, 효율성을 저해하지 않고 확장할 수 있도록 돕는 동시에, 기업 데이터의 가치를 효과적으로 끌어낼 수 있도록 지원한다”고 말했다. IBM 반도체 및 하이브리드 클라우드 부문 무케시 카레(Mukesh Khare) 부사장은 “IBM은 2019년 AI 리서치 하드웨어 센터를 설립해, 생성형 AI와 대규모 언어 모델(LLM)이 본격적으로 확산되기 이전부터 AI의 연산 수요 증가에 대응해 왔다. 최근 고도화된 AI 역량에 대한 수요가 높아지는 가운데, 해당 센터에서 개발된 첫 번째 칩이 상용화 단계에 진입해 자랑스럽다”면서, “이번 스파이어 칩의 정식 출시로 IBM 메인프레임 및 서버 고객에게 향상된 성능과 생산성을 제공할 수 있게 되었다”고 설명했다.
작성일 : 2025-10-28
CAE 컨퍼런스 2025, 11월 7일 수원컨벤션센터에서 개최 예정
CAE 컨퍼런스 행사장 모습(사진은 CAE 컨퍼런스 2024 전경) 국내 제조업의 디지털 전환을 이끌 ‘CAE 컨퍼런스 2025’가 오는 11월 7일(금) 수원컨벤션센터에서 열린다. 올해로 15회를 맞는 이번 행사는 ‘시뮬레이션의 미래: AI와 디지털 트윈이 주도하는 제조 혁신’을 주제로, AI(인공지능)와 CAE(Computer Aided Engineering)의 융합이 만들어내는 산업 변화와 최신 기술 트렌드를 조명한다. 이번 행사는 월간 캐드앤그래픽스가 주최하고, CAE 컨퍼런스 준비위원회가 주관하며, ‘제7회 스마트공장구축 및 생산자동화전(SMATEC 2025)’과 함께 개최된다.  올해 컨퍼런스에서는 디지털 트윈과 생성형 AI를 접목한 최신 시뮬레이션 기술이 집중적으로 다뤄진다. 앤시스코리아 강태신 전무는 ‘디지털 제조 혁신을 위한 Ansys End-to-End 솔루션’을 주제로, AI 기반 통합 시뮬레이션 전략을 통한 생산성 향상 방안을 제시한다. 연세대학교 이종수 교수는 ‘자율지능 에이전트를 위한 물리모델 기반 시스템엔지니어링 & 생성적 산업인공지능’ 발표를 통해, 분포 외(OOD) 환경에서도 신뢰성을 확보하는 모델기반 접근법을 소개한다. 나니아랩스 강남우 대표는 ‘생성형 AI에서 Agentic AI까지: 자율설계의 미래’를 주제로, 스스로 설계 의사결정을 내리는 Agentic AI 기술과 설계 자동화 사례를 공개한다. 피도텍 최병열 연구위원은 ‘RBDO, 데이터 시대에 무결점 설계를 향해’ 발표를 통해 신뢰도 기반 최적설계의 최신 적용 사례를 다룬다.  또한 메타리버테크놀로지 서인수 이사는 'GPU 기반 입자해석기술(samadii)을 활용한 반도체·디스플레이 응용 사례'를, AWS 전병승 솔루션즈 아키텍트는 ‘클라우드 기반 CAE 혁신’을 주제로 AI와 클라우드를 결합한 차세대 시뮬레이션 환경을 소개한다. 한국알테어 이승훈 본부장은 ‘CAE 최신 동향과 AI 기반 디지털 트윈 가속화’ 발표를 통해 Meshless·Multi-Physics·Cloud 기술 트렌드와 AI 가속화 사례를 발표한다. LG전자 문강석 책임은 ‘파우치형 배터리 실링 공정의 시뮬레이션 최적화’, 장일주 책임은 ‘TV 제품 CAE 자동화 및 AI 활용 사례’를 발표하며, 시뮬레이션이 제조 공정의 신뢰성과 효율성을 동시에 높이는 방법을 제시한다. 현대자동차 한만용 책임연구원은 ‘승객 모니터링과 인체모델의 융합을 통한 디지털 트윈 기술’을 통해 SDV(Software Defined Vehicle) 시대의 고객 중심 설계 혁신 사례를 소개한다. CAE 컨퍼런스 준비위원장 이종수 교수는 “생성형 AI와 물리기반 모델의 결합이 가속화되며, 신뢰성 확보와 시뮬레이션 자동화가 산업의 핵심 이슈로 부상하고 있다”고 강조했다. 그는 이어 “AI·MLOps·클라우드 기반 시뮬레이션이 주도하는 새로운 패러다임 속에서, 지속가능하고 효율적인 제조 혁신 방향을 논의하는 장이 될 것”이라고 덧붙였다. 이번 컨퍼런스에는 현대자동차, LG전자, 앤시스코리아, 피도텍, 나니아랩스, 메타리버테크놀로지, AWS, 한국알테어 등 주요 제조기업과 CAE 솔루션 기업이 참여해 최신 기술과 사례를 공유한다. 또한 SMATEC 2025 전시회와의 연계로 다양한 CAE·AI·디지털 트윈 솔루션을 현장에서 직접 체험할 수 있다. 사전등록은 CAE 컨퍼런스 공식 홈페이지(www.cadgraphics.co.kr/cae)에서 가능하다. 한편, 10월 20일에는 캐드앤그래픽스 지식방송 CNG TV에서 프리뷰 방송이 진행되어, 한국기계연구원 박종원 단장과 태성에스엔이 김지원 이사가 CAE 기술의 방향성과 AI 융합 트렌드를 소개했다.   CAE 컨퍼런스 2025 발표자 - 연세대 이종수 / 앤시스코리아 강태신 /  나니아랩스 강남우 / 피도텍 최병열 / 메타리버테크놀러지 서인수 / AWS 전병승 / 한국알테어 이승훈 / 현대자동차 한만용 / LG전자 장일주 / LG전자 문강석
작성일 : 2025-10-28
한국BIM학회, 지능형 건설을 주제로 국제 심포지엄 개최
한국BIM학회(KIBIM)가 오는 11월 14일 한국과학기술회관에서 ‘KIBIM 2025 국제 심포지엄’을 개최한다. ‘스마트를 넘어 : 지능형 건설의 부상(Beyond Smart : The Rise of Intelligent Construction)’을 주제로 열리는 이번 심포지엄은 AI, 빅데이터, 디지털 트윈, 로보틱스 등 첨단 기술이 건축·건설 산업에 접목되는 현시점에서 지능형 건설의 현재와 미래 방향을 탐구하기 위해 마련됐다. 한국BIM학회의 추승연 회장은 “지속가능성, 안전, 생산성 문제를 해결하기 위한 통찰과 전략을 공유하는 뜻깊은 자리가 될 것”이라고 전했다. 심포지엄에서는 글로벌 전문가의 기조연설이 진행된다. ▲타이거 그룹(Tiger Group)의 수하일 알 라이에스(Suhail Al Rayes) 전무이사가 ‘두바이 메가 프로젝트를 위한 지능형 시스템’을 소개하고 ▲구글의 버나드 크레스(Bernard Kress) XR 엔지니어링 디렉터는 ‘스마트 건설을 위한 스마트 안경 및 증강 현실 헤드셋’ 활용 방안을 공유한다. ▲오토데스크코리아의 오찬주 대표는 ‘AECO(설계·엔지니어링·건설·운영) 산업을 위한 연결된 미래’라는 제목으로 AI와 클라우드 기반의 ‘성과 기반 BIM’을 소개한다. 오후 행사는 ▲국토교통부, 한국공항공사, 국가철도공단 등이 공공 발주기관의 BIM 적용 전략과 성과를 발표하는 ‘공공 부문의 BIM 리더십’ 특별 세션 ▲한양대학교, 인하대학교, 연세대학교, 성균관대학교에서 AI 기반 시뮬레이션과 생성형 AI를 활용한 구조계산 자동화 기술 등을 소개하는 ‘스마트 건설의 기반’ 세션 ▲네이버랩스, BLUA, 대우건설, COWI에서 데이터와 파이썬, AI를 활용한 BIM 데이터 검증 프레임워크 등을 소개하는 ‘건축 환경을 위한 AI 및 자동화’ 세션 ▲옵티콘, 현대건설, 수성엔지니어링 등에서 효율적인 BIM 파이프라인 구축 사례 및 디지털 전환 시대 건설 산업의 역할에 대해 공유하는 ‘건설 분야 디지털 전환’ 세션 등 네 개의 세션으로 나뉘어 진행된다.  
작성일 : 2025-10-27
레노버, 엔비디아 그레이스 블랙웰 슈퍼칩 탑재한 AI 워크스테이션 ‘씽크스테이션 PGX’ 출시
한국레노버가 엔비디아 GB10 그레이스 블랙웰 슈퍼칩을 탑재한 컴팩트한 AI 워크스테이션 ‘씽크스테이션 PGX(ThinkStation PGX)’를 출시했다. 새롭게 선보인 씽크스테이션 PGX는 AI 연구자, 개발자, 데이터 과학자, 엔지니어 등을 위한 전문 AI 워크스테이션이다. 최대 1페타플롭(1000 TOPS) AI 연산 성능을 제공하며 최대 2000억 개 파라미터를 가진 대규모 생성형 AI 모델을 처리할 수 있다. 128GB 통합 시스템 메모리를 탑재해 사용자는 최신 추론 AI 모델을 실험하고, 미세 조정 및 추론 작업을 원활하게 수행할 수 있다. 두 대의 시스템을 연결하면 최대 4050억 개 파라미터를 가진 더 큰 AI 모델까지 처리 가능하다. 1.13리터의 사이즈와 최소 1.2kg의 무게로 공간 활용성을 높였다.     씽크스테이션 PGX는 엔비디아 DGX OS와 엔비디아 AI 소프트웨어 스택은 물론, 파이토치(PyTorch), 주피터(Jupyter) 등 개발자에게 익숙한 도구와 프레임워크가 사전 구성되어 있다. 이를 통해 개발자는 데스크톱 환경에서 대규모 AI 모델을 즉시 프로토타이핑하고, 미세 조정 및 추론 과정을 거쳐 데이터센터나 클라우드로 손쉽게 배포할 수 있다. 생성형 AI 모델의 규모와 복잡성이 급격히 증가함에 따라 로컬 환경에서의 개발은 점점 더 많은 제약에 직면하고 있다. 대규모 모델의 프로토타이핑, 튜닝, 추론에는 방대한 GPU 메모리와 연산 성능이 요구된다. 씽크스테이션 PGX는 이러한 한계를 극복하고 AI 애플리케이션 프로토타이핑을 위한 강력하면서도 경제적인 플랫폼을 제공한다. 이에 따라 개발자는 AI 온프레미스 클러스터나 클라우드 컴퓨팅 환경의 리소스를 한층 효율적으로 활용할 수 있다. 또한 씽크스테이션 PGX 사용자는 엔비디아 AI 플랫폼 소프트웨어 아키텍처를 기반으로 코드를 거의 수정하지 않고도 데스크톱 환경에서 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 이전 가능하다. 이를 통해 프로토타이핑, 미세 조정, 반복 등 개발 작업을 손쉽게 수행할 수 있다. 한국레노버의 신규식 대표는 “생성형 AI 시대를 맞아 기업과 연구기관의 AI 개발 역량이 핵심 경쟁력으로 부상하고 있다”며, “고성능이면서도 컴팩트한 씽크스테이션 PGX는 전문가들이 클라우드 인프라의 복잡성과 비용 부담 없이 확장 가능한 AI 기능을 구현할 수 있는 최적의 설루션”이라고 말했다. 이어 “레노버는 워크스테이션 포트폴리오를 지속적으로 확장해 전문가들이 생성형 AI 혁신을 가속화하고 채택할 수 있도록 적극 지원할 것”이라고 덧붙였다.
작성일 : 2025-10-27
가트너, 2026년부터 주목해야 할 10대 AI 전망 발표
가트너가 2026년부터 주목해야 할 최우선 AI 전략 전망 10가지를 발표했다. 이 전망은 ▲AI 시대의 인재 ▲AI 주권 ▲인시디어스 AI(Insidious AI) 등 세 가지 핵심 트렌드로 분류된다. 가트너는 2027년까지 생성형 AI와 AI 에이전트의 사용이 지난 30년간 생산성 도구 시장에 발생한 가장 큰 도전 과제가 될 것이며, 580억 달러 규모의 시장 재편을 촉발할 것이라고 전망했다. 생성형 AI의 발전에 따라 기업은 업무 효율을 높이기 위해 생성형 AI 혁신을 우선순위에 둘 것으로 보인다. 과거의 형식과 호환성은 중요성이 낮아져, 진입 장벽은 낮아지고 다양한 공급업체 간의 새로운 경쟁이 촉발될 것으로 전망된다. 일상적 생성형 AI의 비용 구조와 패키징은 시간이 지나면서 변화할 것으로 보인다. 업체들은 유료 기능을 무료로 전환하고, 무료 제품을 더 넓은 사용자층에 적합하도록 만들 것이다. 2027년까지 기업 채용 과정의 75%가 모집 단계에서 업무용 AI 역량 인증 및 테스트를 포함하게 될 것으로 예상된다. 기업은 표준화된 프레임워크와 맞춤형 설문조사를 통해 지원자의 AI 활용 능력을 진단하고, 인력 내 기술 격차를 해소할 수 있을 것이다. 이러한 추세는 정보 수집, 보존, 종합이 핵심인 직종에서 특히 두드러질 것이다. 생성형 AI 역량이 급여와 점점 더 밀접하게 연계됨에 따라, 지원자들은 AI 역량 개발에 더 큰 가치를 두게 될 것이다. 이에 따라 문제 해결, 생산성 향상, 합리적 의사결정 능력을 입증하는 것이 필수 요건으로 부상할 것으로 예상된다. 한편, 가트너는 2026년까지 생성형 AI 사용으로 인한 비판적 사고력 저하로 전 세계 기업의 50%가 채용 과정에서 ‘AI 프리(AI Free)’ 능력 평가를 요구할 것으로 보았다. 기업이 생성형 AI 활용을 확대함에 따라, 채용 절차는 독립적 사고 능력을 갖춘 지원자와 AI가 생성한 결과물에 지나치게 의존하는 지원자를 구분하는 방향으로 변화할 것으로 보인다. 모집 과정에서는 AI 도움 없이 문제 해결, 증거 평가 및 판단 능력을 입증하는 역량이 점점 더 중요한 평가 기준이 될 것이다. 인간의 추론 능력을 별도로 평가하기 위한 전문 테스트 방법과 플랫폼이 등장하면서, AI 프리 평가 도구 및 서비스에 대한 2차 시장이 형성될 가능성도 높다. 2027년까지 전 세계 국가의 35%가 고유한 컨텍스트 데이터를 활용하는 지역 특화 AI 플랫폼에 고착될 전망이다. 기술적, 지정학적 요인으로 인해, 기업들은 엄격한 규제, 언어적 다양성, 문화적 적합성에 대응하기 위해 AI 설루션을 특성화할 수밖에 없으며, 그 결과 AI 환경은 파편화될 것으로 보인다. 지역 간 차이가 증가됨에 따라 범용 AI 설루션은 점차 사라질 것으로 예상된다. 다국적 기업은 글로벌 시장에 통합형 AI를 배포함에 있어 복잡한 과제에 직면하게 될 것이며, 고유한 규제 준수와 데이터 거버넌스 요구 조건을 가진 다양한 플랫폼 파트너십을 관리해야 할 것이다. 가트너는 2028년까지 고객 대면 비즈니스 프로세스의 80%에 다중 에이전트 AI를 활용하는 기업이 시장을 장악할 것으로 보았다. 고객관계관리(CRM) AI가 일상적인 업무를 처리하고, 인간은 복잡하고 감정적 요소가 중요한 상호작용에 집중하는 하이브리드 AI 모델이 업계 표준으로 자리 잡을 것이다. 고객은 계속해서 거래 실행이나 제품 정보 확인에는 AI 지원 완전 셀프서비스를 선호하는 반면, 복잡한 문제 해결이나 청구 분쟁 등에서는 인간을 선호할 것이다. 최소한의 노력과 신속한 서비스에 대한 고객의 기대가 일반화되면서, CRM 프로세스에 다중 에이전트 AI를 도입하지 못한 기업은 경쟁 우위를 상실할 위험이 있다. 한편, 2028년에는 B2B 구매의 90%가 AI 에이전트를 통해 이루어지며, AI 에이전트 거래로 15조 달러 이상의 B2B 지출이 발생할 것으로 보인다. 새로운 생태계에서 검증 가능한 운영 데이터는 화폐처럼 작용하며, 디지털 신뢰 프레임워크와 검증 가능성을 필수 전제로 하는 데이터 기반 경제를 촉진할 것이다. 컴포저블 마이크로서비스, API 우선, 클라우드 네이티브, 헤드리스 아키텍처로 설계된 제품은 상당한 경쟁 우위를 확보할 것이다. AI 위험 예방책 부족으로 인한 ‘AI발 사고’ 관련 소송은 2026년까지 1000건을 돌파할 전망이다. AI 관련 안전 관리 실패로 인한 사고와 피해 사례가 증가함에 따라 규제 기관의 감시 및 통제 강화, 리콜, 법 집행 기관의 개입, 소송 비용 증가가 예상된다. 규제 감독이 강화되면서 조직은 법적 의무 준수를 넘어, AI 위험 예방책을 활용해 비즈니스 시스템의 안전성과 투명성을 최우선 과제로 삼아야 하는 압박에 직면하게 될 것이다. AI 사용과 의사결정 거버넌스 실패의 영향은 지역별 법적·규제 체계의 차이에 따라 달라지며, 이는 조직이 다양한 위험과 책임에 노출될 수 있음을 의미한다. 또한, 2030년에는 금전거래의 22%가 이용 약관을 내장한 형태로 프로그래밍할 수 있게 되어 AI 에이전트에게 경제적 주체성을 부여할 것으로 보인다. 프로그래머블 머니는 M2M(Machine-To-Machine) 협상, 자동화된 상거래, 시장 탐색, 데이터 자산 수익화를 가능하게 함으로써 새로운 비즈니스 모델을 창출하고, 공급망 관리와 금융 서비스와 같은 산업을 근본적으로 재편하고 있다. 실시간으로 프로그래밍 가능한 거래는 마찰 감소, 유동성 향상, 운영 비용 절감을 통해 효율성을 높이고, 궁극적으로 자율 비즈니스 운영의 부상을 뒷받침할 것이다. 그러나 프로그래머블 머니 플랫폼과 블록체인 인프라 간의 파편화된 기준과 상호운용성 부족은 시장의 성장을 저해하고, AI 에이전트와 기계 고객이 완전한 경제 주체로 기능하는 것을 제한할 것이다. 2027년까지 프로세스 중심 서비스 계약의 비용 대비 가치 격차는 에이전트 AI 재설계를 통해 적어도 50% 감소할 것으로 전망됐다. AI 에이전트는 숨겨진 지식을 발견하도록 진화하며, 이러한 지식과의 상호작용 자체가 프로세스의 핵심이 될 것이다. AI 에이전트가 활용하는 숨겨진 지식은 새로운 가치 자산으로 이어질 것으로 예상된다. 한편, 표준화된 워크플로가 문맥적 오케스트레이션으로 대체됨에 따라 지속적인 혁신 기반 가격 책정은 인건비에 의해 제한되지 않을 것이다. 가트너는 2027년까지 파편화된 AI 규제가 전 세계 경제의 50%로 확산하며, 50억 달러 규모의 규정 준수 투자를 일으키게 될 것으로 보았다. 2024년에만 1000건 이상의 AI 관련 법률이 제안됐지만, 어떤 법률도 AI를 일관되게 정의하지 못하고 있다. AI 거버넌스는 혁신을 촉진하는 동시에 장벽으로 작용할 수 있다. 기술의 잠재력을 터뜨리는 것은 AI 사용 능력이다. 안전한 미래를 위해 기업들은 기술 담당 리더들에게 항구적인 ‘법률 및 규제’ 마인드맵 구축을 요구하게 될 것이다. 한편 보안과는 별개로, 새로운 형태로 등장하고 진화하는 AI의 위험을 관리하기 위해 전담 인력과 전문 소프트웨어를 갖춘 AI 거버넌스 프로그램이 표준으로 자리잡게 될 것이다. 가트너의 다릴 플러머(Daryl Plummer) 수석 VP 애널리스트는 “급격한 기술 변화가 가져오는 위험과 기회는 인간의 행동과 선택에 점점 더 큰 영향을 미치고 있다”면서, “기업의 CIO와 경영진은 미래에 대비하기 위해 기술 변화뿐만 아니라 행동 양식 변화 또한 최우선 과제로 삼아야 한다”고 말했다.
작성일 : 2025-10-23
HP Z AI 워크스테이션 웨비나, 실무 사용기와 함께 공개
AI와 3D 그래픽 작업의 경계가 빠르게 허물어지고 있는 가운데, HP코리아가 차세대 크리에이터를 위한 새로운 솔루션을 선보인다. 10월 22일 오후 2시, 캐드앤그래픽스가 주최하는 웨비나 ‘고가의 GPU 없이도 최대 VRAM 96GB 작업 가능, HP Z AI 워크스테이션 및 사용기 소개’에서는 최신 HP Z AI 워크스테이션의 성능과 실제 현업 디자이너의 사용기를 생생하게 들을 수 있다. 이번 세션은 HP코리아의 차성호 이사(Value Products Category Manager)와 마루인터내셔널 배현수 부장(맥슨 한국총판 기술지원팀)이 발표자로 참여한다. 참가비는 무료이며, 사전등록을 통해 누구나 참여할 수 있다. 이번에 소개되는 HP Z AI 워크스테이션은 GPU 리소스에 대한 한계를 크게 낮춘 것이 특징이다. 고가의 GPU 없이도 최대 96GB VRAM을 활용할 수 있으며, 3D 디자인·렌더링 동시 작업, 대규모 LLM(대형언어모델) 실행 등 기존 워크스테이션에서 경험하기 어려웠던 고부하 작업을 로컬 환경에서도 안정적으로 수행할 수 있다. HP는 이번 모델을 통해 AI 시대의 ‘로컬 퍼포먼스 컴퓨팅’이라는 새로운 비전을 제시하고 있다. 특히 클라우드 의존도를 낮추면서도 고해상도 그래픽, 복잡한 시뮬레이션, 생성형 AI 모델 학습까지 가능하다는 점에서 크리에이터와 엔지니어 모두에게 주목받고 있다. 한편 이번 웨비나의 또 다른 핵심은 실제 현업 디자이너의 사용 경험이다. 맥슨(Maxon)의 한국총판 마루인터내셔널의 배현수 부장은 모션그래픽 디자이너이자 AI 크리에이터로, HP Z2 Mini G1a 데스크탑 워크스테이션을 활용한 협업 사례와 실무 노하우를 직접 공유할 예정이다. 이번 웨비나는 하이엔드 그래픽스, 3D 콘텐츠 제작, 생성형 AI 프로젝트를 수행하는 전문가들에게 실질적인 도움을 줄 것으로 기대된다.
작성일 : 2025-10-21
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
어도비, 기업용 LLM 옵티마이저 출시… AI 기반 챗 서비스 및 브라우저 전반 가시성 제고
어도비가 ‘어도비 LLM 옵티마이저(Adobe LLM Optimizer)’의 정식 출시를 발표했다. 새로운 기업용 애플리케이션은 생성형 AI 기반 인터페이스가 빠르게 확산되는 시대에 기업이 브랜드의 연관성과 영향력을 확보할 수 있도록 지원한다. LLM 옵티마이저를 통해 기업은 생성형 엔진 최적화(GEO : Generative Engine Optimization)를 위한 포괄적인 설루션을 활용할 수 있다. 가령, AI 기반 트래픽을 모니터링하고 브랜드 가시성을 벤치마킹할 수 있으며, 자사 디지털 채널은 물론 브랜드가 인용되는 서드 파티 디지털 채널에서 발견 가능성을 향상시키기 위한 방법을 취할 수 있다. AI 기반 챗 서비스와 브라우저는 소비자들이 제품을 검색하고 조사하는 데 필수적인 툴이 되었다. 어도비의 최신 데이터에 따르면, 기업들이 디지털 존재감을 재정비해야 할 필요성이 그 어느 때보다 커지고 있다. 2025년 9월 기준, 어도비는 미국 소매 웹사이트로 유입된 AI 트래픽이 전년 대비 1100% 증가한 것을 확인했다. 생성형 AI 소스를 통한 방문자는 비 AI 트래픽(유료 검색, 제휴사 및 파트너, 이메일, 오가닉 검색, 소셜 미디어 등) 유입 대비 체류 시간 및 페이지 뷰 등과 같은 참여도는 12%,  전환율은 5% 각각 더 높게 나타났다. 이는 디지털 행동의 근본적인 변화를 시사하는 것으로, AI가 제품 검색 단계에서 더 많은 정보를 가진 소비자를 만들어내는 만큼 기업은 뒤처지지 않도록 대비해야 한다는 것이 어도비의 설명이다.     기업용 어도비 LLM 옵티마이저는 ▲AI 기반 트래픽, 인용 측정 및 벤치마킹 ▲가시성 향상을 위한 콘텐츠 및 코드 최적화 ▲비즈니스 가치 입증 등의 기능을 제공한다. LLM 옵티마이저는 AI 인터페이스가 사용자 질의에 대한 응답을 제공하는 데 활용하는 자사 콘텐츠를 식별할 수 있다. 이를 통해 LLM이 우선시하는 디지털 채널(예 : 특정 웹 페이지)을 파악하고 AI 추천의 변화를 모니터링할 수 있다. 또한 벤치마킹을 통해 가치가 높은 질의에서 경쟁사 대비 가시성을 평가할 수 있다. LLM 옵티마이저의 초기 고객 분석 결과, 80%가 AI 접점이 주요 제품 정보나 리뷰에 접근하지 못하는 문제를 안고 있었다. 이를 해결하기 위해 LLM 옵티마이저 내 추천 엔진은 브랜드 가시성 격차를 감지하고, 웹페이지와 FAQ 같은 자사 채널 및 위키피디아, 공개 포럼 등의 외부 채널 전반을 아우르는 개선 사항을 제안한다. 여기에는 콘텐츠 최적화뿐 아니라 누락되거나 잘못된 메타데이터 같은 기술적 수정 사항이 포함되며, LLM이 인식하지 못하는 웹 사이트 영역을 자동 감지해 콘텐츠 가시성을 높이는 조치도 해당된다. 이를 통해 팀은 한 번의 클릭으로 최적화 방안을 검토, 승인 및 배포할 수 있어 인사이트를 실질적인 성과로 전환할 수 있다.   또한, LLM 옵티마이저는 AI 가시성을 사용자 행동과 비즈니스 성과로 연결하는 기여도 기능을 제공한다. 이로써 참여도 및 전환율에 미치는 영향을 입증할 수 있고, 즉시 사용 가능한 리포트 기능을 활용해 조직 전반에 인사이트를 빠르게 공유할 수 있다. LLM 옵티마이저는 단독 애플리케이션으로 제공되며, 콘텐츠 관리 시스템인 어도비 익스피리언스 매니저 사이트(Adobe Experience Manager Sites)와 네이티브 통합된다. 또한 에이전트 투 에이전트(A2A) 및 모델 컨텍스트 프로토콜(MCP)과 같은 업계 표준을 지원해, 다양한 서드파티 설루션 워크플로와의 원활한 상호운용성을 제공한다. 어도비는 누구나 쉽게 AI 가시성 인사이트를 활용할 수 있도록 LLM 옵티마이저 기반 무료 크롬 확장 프로그램 ‘Is Your Webpage Citable?’도 출시했다. 이 도구를 통해 LLM이 웹사이트에서 인식하는 내용과 놓치는 부분을 확인할 수 있어,  AI 가시성의 숨겨진 격차를 발견할 수 있다. LLM 옵티마이저는 이 같은 기본 인사이트를 바탕으로 엔터프라이즈급 측정, 최적화 및 보고 기능을 포함한 종합 설루션을 제공한다. 어도비의 로니 스타크(Loni Stark) 익스피리언스 클라우드 전략 및 제품 부문 부사장은 “생성형 엔진 최적화는 경영진의 주요 관심사로 급부상하고 있으며, 선도 기업들은 이미 다양한 AI 채널에서 영향력을 구축하고 경쟁 우위를 확보하고 있다”면서, “어도비 LLM 옵티마이저는 자사 사이트 및 타 채널에서의 브랜드 성과 인사이트를 바탕으로 자동으로 최적화 조치를 취하는 즉각적인 가치를 제공함으로써, 기업이 급변하는 환경 속에서 두각을 드러낼 수 있도록 지원한다”고 전했다.
작성일 : 2025-10-17
오라클, 기업의 AI 이니셔티브 가속화 돕는 ‘AI 데이터 플랫폼’ 공개
오라클이 ‘오라클 AI 데이터 플랫폼(Oracle AI Data Platform)’의 정식 출시를 발표했다. 오라클 AI 데이터 플랫폼은 생성형 AI 모델을 기업의 데이터, 애플리케이션, 워크플로와 안전하게 연결할 수 있도록 설계된 포괄적 플랫폼이다. 자동화된 데이터 수집, 시맨틱 강화(semantic enrichment), 벡터 인덱싱에 생성형 AI 도구를 결합해 원시 데이터(raw data)에서 실제 운영 수준(production-grade)의 AI까지 전 과정을 단순화한다. 오라클 AI 데이터 플랫폼은 데이터를 AI에 최적화하고, 오라클 클라우드 인프라스트럭처(OCI), 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database), OCI 생성형 AI(OCI Generative AI) 서비스를 결합해 에이전틱 애플리케이션의 생성과 배포를 가능하게 한다. 기업 고객은 신뢰할 수 있는 실시간 인사이트를 얻을 수 있으며, 반복 업무를 자동화하고, 성장 기회를 발굴하며, 일상적인 워크플로에 지능을 내재화하는 AI 에이전트를 활용할 수 있다. 개발자와 데이터 팀은 엔터프라이즈급 단일 플랫폼에서 이러한 기능을 신속하게 구축하고 확장할 수 있다. 이 플랫폼은 엔비디아 가속 컴퓨팅 인프라를 통합해 고성능 워크로드를 위한 최신 세대 GPU와 라이브러리를 선택할 수 있다. 그 결과 다양한 산업군에서 더욱 신속한 혁신, 높은 생산성, 측정 가능한 비즈니스 성과를 실현할 수 있다. 오라클 AI 데이터 플랫폼은 기업이 데이터와 AI를 효과적으로 활용할 수 있는 기반을 제공한다. 고객은 델타 레이크(Delta Lake) 및 아이스버그(Iceberg)와 같은 오픈 포맷을 활용해 데이터 레이크하우스를 구축하고, 데이터 중복을 줄일 수 있다. 또한 AI 데이터 플랫폼 카탈로그는 모든 데이터와 AI 자산에 대한 통합 뷰와 거버넌스를 제공해 기업의 컴플라이언스 및 신뢰 강화를 지원한다. 카탈로그는 에이전트투에이전트(Agent2Agent : A2A) 및 모델 컨텍스트 프로토콜(MCP) 등 개방형 표준을 폭넓게 지원해 정교한 멀티에이전트 시스템 구성을 가능하게 한다. 더불어 기업 고객을 위한 에이전트 허브(Agent Hub)는 다수의 에이전트를 탐색하는 복잡성을 제거하고, 요청을 해석해 적합한 에이전트를 호출하며, 추천 결과를 제시해 즉각적인 조치를 취할 수 있도록 지원한다. 오라클은 오라클 AI 데이터 플랫폼이 제공하는 기능 및 이점으로 ▲데이터를 인텔리전스로 전환 ▲팀 전반의 혁신 가속 ▲비즈니스 프로세스 자동화 및 확장 ▲엔터프라이즈급 준비 상태 보장 등을 꼽았다. 오라클 AI 데이터 플랫폼은 데이터 레이크하우스와 AI를 하나의 플랫폼에 통합해, 원시 데이터를 실행 가능한 인사이트와 더 스마트한 의사결정으로 전환할 수 있다. 그리고 데이터 엔지니어, 데이터 과학자, AI 개발자를 위한 단일 워크벤치를 제공해 협업과 AI 기반 애플리케이션 제공 속도를 높인다. 이를 통해 단순 분석을 넘어 워크플로를 조율하고, 알림을 자동 생성하며, 비즈니스 성과를 직접 개선하는 AI 에이전트를 통해 효율을 높일 수 있도록 한다. 오라클은 “OCI, 오픈소스 엔진, 업계 선도적 분석 기능, 오라클 자율운영 AI 레이크하우스(Oracle Autonomous AI Lakehouse)의 결합으로 미션 크리티컬 AI 도입에 필요한 규모, 성능, 신뢰성을 제공한다”고 전했다. 제로 ETL(Zero-ETL)과 제로 카피(Zero Copy) 기능을 통해 고객은 재무, HR, 공급망, 마케팅, 영업, 서비스 등 핵심 비즈니스 애플리케이션 데이터는 물론 산업별 애플리케이션 데이터와 기존 엔터프라이즈 데이터베이스에 원활하게 연결할 수 있다. 오라클 AI 데이터 플랫폼은 멀티클라우드 및 하이브리드 크로스-클라우드 오케스트레이션을 지원하여 퍼블릭 클라우드, 온프레미스, 에지 등 모든 소스의 데이터의 연결, 처리, 분석이 가능하다. 또한, 오라클 애플리케이션과 서드파티 환경 전반에서 AI 에이전트가 원활하게 작동할 수 있게 되어 고객이 기업 전반에 걸쳐 AI 기반 혁신을 확장할 수 있다. 오라클은 퓨전(Fusion), 넷스위트(NetSuite)를 포함한 주요 오라클 애플리케이션 제품군 전반과 의료, 소비재, 금융 서비스, 건설 등 산업 전반을 대상으로 사전 통합을 포함한 맞춤형 AI 데이터 플랫폼을 제공할 계획이다. 오라클 퓨전 데이터 인텔리전스(Oracle Fusion Data Intelligence)의 정제되고 풍부하며 AI를 위해 준비된 데이터는 AI 데이터 플랫폼에서 사용 가능하다. 오라클의 T.K. 아난드 총괄부사장은 “오라클 AI 데이터 플랫폼은 고객이 데이터를 AI에 최적화하고, AI를 활용하여 비즈니스 프로세스 전반을 혁신할 수 있도록 돕는다. 이 플랫폼은 데이터를 통합하고 전체적인 AI 라이프사이클을 간소화하여 기업이 신뢰성, 보안성 및 민첩성을 고려하며 AI의 역량을 활용하는 데 있어 가장 포괄적인 기반을 제공한다”고 말했다.
작성일 : 2025-10-15