• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "클라우드"에 대한 통합 검색 내용이 6,687개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AWS, 포괄적 AI 에이전트 플랫폼 ‘아마존 베드록 에이전트코어’ 출시
아마존웹서비스(AWS)가 포괄적인 에이전틱 플랫폼인 ‘아마존 베드록 에이전트코어(Amazon Bedrock AgentCore)’를 출시한다고 발표했다. AWS는 “미션 크리티컬 시스템 구축 경험을 바탕으로 개발된 아마존 베드록 에이전트코어는 안전하고 신뢰할 수 있으며 확장 가능한 종합 에이전트 플랫폼으로, 에이전트의 비결정적 특성에 최적화된 프로덕션 환경을 제공한다”고 소개했다. 에이전트코어는 기업이 AI 에이전트를 파일럿에서 프로덕션까지 신속하게 전환하고 개발자가 에이전트를 구축, 배포, 운영하는 데 필요한 완전한 기반을 제공한다. 개발자는 복잡한 워크플로를 처리할 수 있도록 에이전트에 도구, 메모리, 데이터를 손쉽게 연결할 수 있으며, 몇 줄의 코드로 안전하고 확장 가능한 런타임 환경에 배포할 수 있다. 또한 엔터프라이즈급 접근 제어 및 관리 기능을 통해 안정적으로 운영할 수 있다. 이 모든 기능은 인프라를 관리 없이 원하는 모델이나 프레임워크를 자유롭게 선택해 쉽게 시작할 수 있다. 에이전트코어는 구축부터 배포, 운영까지 에이전트 개발 수명주기 전반에 걸쳐 완전 관리형 서비스를 제공하는 에이전틱 플랫폼이다. 기업은 원하는 모델이나 프레임워크를 자유롭게 조합해 사용할 수 있으며 엔터프라이즈급 인프라 및 도구에 대한 액세스와 함께 높은 유연성을 제공한다. 에이전트코어는 통합 또는 개별 사용이 가능한 컴포저블(composable) 서비스를 제공한다. 기업은 크루AI, 구글 ADK, 랭그래프, 라마인덱스, 오픈AI 에이전트 SDK, 스트랜드 에이전트 등 선호하는 프레임워크와 아마존 베드록에서 제공되는 모델 또는 오픈AI, 제미나이 등 아마존 베드록 외부 모델을 사용하여 필요한 에이전트코어 서비스를 선택할 수 있다.     에이전트코어 코드 인터프리터(AgentCore Code Interpreter)는 격리된 환경에서 에이전트가 코드를 안전하게 생성하고 실행할 수 있게 하며, 에이전트코어 브라우저(AgentCore Browser)는 대규모 웹 애플리케이션 상호작용을 지원한다. 에이전트코어 게이트웨이(AgentCore Gateway)는 기존 API와 AWS 람다(AWS Lambda) 함수를 에이전트 호환 도구로 전환하고 기존 모델 컨텍스트 프로토콜(Model Context Protocol : MCP) 서버에 연결하며, 지라, 아사나, 젠데스크 등 서드파티 비즈니스 도구 및 서비스와의 원활한 통합을 제공한다. 에이전트코어 아이덴티티(AgentCore Identity)를 통해 에이전트는 오스(OAuth) 표준을 사용한 적절한 인증 및 권한 부여로 이러한 도구에 안전하게 액세스하고 운영할 수 있다. AI 에이전트는 컨텍스트를 유지하고 상호작용을 통해 학습할 수 있어야 한다. 에이전트코어 메모리(AgentCore Memory)는 개발자가 복잡한 메모리 인프라를 관리하지 않고도 정교하고 컨텍스트를 인식하는 경험을 만들 수 있도록 지원하며, 에이전트가 사용자 선호도, 과거 상호작용, 관련 컨텍스트에 대한 상세한 이해를 구축하고 유지할 수 있게 한다. 아마존 클라우드워치(Amazon CloudWatch) 기반의 에이전트코어 옵저버빌리티(AgentCore Observability)는 실시간 대시보드와 상세한 감사 추적을 통해 포괄적인 모니터링을 제공한다. 기업은 모든 에이전트 작업을 추적하고 문제를 신속하게 디버깅하며 성능을 지속적으로 최적화할 수 있다. 오픈텔레메트리(OpenTelemetry : OTEL) 호환성을 통해 다이나트레이스, 데이터독, 아리제 피닉스, 랭스미스, 랭퓨즈 등 기존 모니터링 도구와 통합된다. 에이전트 워크로드는 기존 애플리케이션과 달리 실행 시간이 불규칙하다. 에이전트코어 런타임(AgentCore Runtime)은 이러한 변동성(variability)에 대응해 필요에 따라 제로에서 수천 개의 세션으로 자동 확장되며 장시간 실행 작업을 위한 업계 최고 수준의 8시간 런타임을 제공한다. 에이전트코어는 에이전트가 안전하게 작동할 수 있도록 모든 서비스에 보안을 내장했다. 가상 프라이빗 클라우드(VPC) 환경과 AWS 프라이빗링크(AWS PrivateLink)를 지원하여 네트워크 트래픽을 비공개로 안전하게 유지한다. 에이전트코어 런타임은 마이크로VM 기술을 통해 매우 높은 수준의 보안을 제공하여 각 에이전트 세션에 고유한 격리된 컴퓨팅 환경을 제공함으로써 데이터 유출을 방지하고 모든 상호작용의 무결성을 유지한다. 에이전트코어는 키로(Kiro), 커서AI(Cursor A)I와 같은 통합 개발 환경(IDE)과 호환되는 MCP 서버를 통해 프로덕션급 에이전트 구축을 지원한다. AWS는 “시작까지 단 몇 분밖에 걸리지 않지만 이는 단순한 도구가 아니라 강력한 보안을 유지하면서 제로에서 수천 개의 세션으로 즉시 확장할 수 있는 완전한 기능의 프로덕션급 설루션”이라고 소개했다. 아마존 디바이스 운영 및 공급망(Amazon Devices Operations & Supply Chain) 팀은 에이전트코어를 사용하여 에이전틱 제조 접근 방식을 개발하고 있다. AI 에이전트들은 제품 사양을 사용하여 함께 작업하며 수동 프로세스를 자동화하며 협업한다. 한 에이전트는 제품 요구사항을 읽고 품질 관리를 위한 상세한 테스트 절차를 만들고, 다른 에이전트는 제조 라인의 로봇에 필요한 비전 시스템을 훈련시킨다. 그 결과 기존에 며칠이 걸리던 객체 감지 모델 미세 조정이 1시간 이내에 높은 정밀도로 단축됐다. 에이전트코어는 뭄바이, 싱가포르, 시드니, 도쿄, 더블린, 프랑크푸르트, 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오리건) 등 9개 AWS 리전에서 정식 출시됐다. 기업은 에이전트코어에서 작동하도록 설계된 AWS 마켓플레이스(AWS Marketplace)의 사전 구축된 에이전트 및 도구를 통해 가치 실현 시간을 가속화할 수 있다.
작성일 : 2025-10-17
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
어도비, 기업용 LLM 옵티마이저 출시… AI 기반 챗 서비스 및 브라우저 전반 가시성 제고
어도비가 ‘어도비 LLM 옵티마이저(Adobe LLM Optimizer)’의 정식 출시를 발표했다. 새로운 기업용 애플리케이션은 생성형 AI 기반 인터페이스가 빠르게 확산되는 시대에 기업이 브랜드의 연관성과 영향력을 확보할 수 있도록 지원한다. LLM 옵티마이저를 통해 기업은 생성형 엔진 최적화(GEO : Generative Engine Optimization)를 위한 포괄적인 설루션을 활용할 수 있다. 가령, AI 기반 트래픽을 모니터링하고 브랜드 가시성을 벤치마킹할 수 있으며, 자사 디지털 채널은 물론 브랜드가 인용되는 서드 파티 디지털 채널에서 발견 가능성을 향상시키기 위한 방법을 취할 수 있다. AI 기반 챗 서비스와 브라우저는 소비자들이 제품을 검색하고 조사하는 데 필수적인 툴이 되었다. 어도비의 최신 데이터에 따르면, 기업들이 디지털 존재감을 재정비해야 할 필요성이 그 어느 때보다 커지고 있다. 2025년 9월 기준, 어도비는 미국 소매 웹사이트로 유입된 AI 트래픽이 전년 대비 1100% 증가한 것을 확인했다. 생성형 AI 소스를 통한 방문자는 비 AI 트래픽(유료 검색, 제휴사 및 파트너, 이메일, 오가닉 검색, 소셜 미디어 등) 유입 대비 체류 시간 및 페이지 뷰 등과 같은 참여도는 12%,  전환율은 5% 각각 더 높게 나타났다. 이는 디지털 행동의 근본적인 변화를 시사하는 것으로, AI가 제품 검색 단계에서 더 많은 정보를 가진 소비자를 만들어내는 만큼 기업은 뒤처지지 않도록 대비해야 한다는 것이 어도비의 설명이다.     기업용 어도비 LLM 옵티마이저는 ▲AI 기반 트래픽, 인용 측정 및 벤치마킹 ▲가시성 향상을 위한 콘텐츠 및 코드 최적화 ▲비즈니스 가치 입증 등의 기능을 제공한다. LLM 옵티마이저는 AI 인터페이스가 사용자 질의에 대한 응답을 제공하는 데 활용하는 자사 콘텐츠를 식별할 수 있다. 이를 통해 LLM이 우선시하는 디지털 채널(예 : 특정 웹 페이지)을 파악하고 AI 추천의 변화를 모니터링할 수 있다. 또한 벤치마킹을 통해 가치가 높은 질의에서 경쟁사 대비 가시성을 평가할 수 있다. LLM 옵티마이저의 초기 고객 분석 결과, 80%가 AI 접점이 주요 제품 정보나 리뷰에 접근하지 못하는 문제를 안고 있었다. 이를 해결하기 위해 LLM 옵티마이저 내 추천 엔진은 브랜드 가시성 격차를 감지하고, 웹페이지와 FAQ 같은 자사 채널 및 위키피디아, 공개 포럼 등의 외부 채널 전반을 아우르는 개선 사항을 제안한다. 여기에는 콘텐츠 최적화뿐 아니라 누락되거나 잘못된 메타데이터 같은 기술적 수정 사항이 포함되며, LLM이 인식하지 못하는 웹 사이트 영역을 자동 감지해 콘텐츠 가시성을 높이는 조치도 해당된다. 이를 통해 팀은 한 번의 클릭으로 최적화 방안을 검토, 승인 및 배포할 수 있어 인사이트를 실질적인 성과로 전환할 수 있다.   또한, LLM 옵티마이저는 AI 가시성을 사용자 행동과 비즈니스 성과로 연결하는 기여도 기능을 제공한다. 이로써 참여도 및 전환율에 미치는 영향을 입증할 수 있고, 즉시 사용 가능한 리포트 기능을 활용해 조직 전반에 인사이트를 빠르게 공유할 수 있다. LLM 옵티마이저는 단독 애플리케이션으로 제공되며, 콘텐츠 관리 시스템인 어도비 익스피리언스 매니저 사이트(Adobe Experience Manager Sites)와 네이티브 통합된다. 또한 에이전트 투 에이전트(A2A) 및 모델 컨텍스트 프로토콜(MCP)과 같은 업계 표준을 지원해, 다양한 서드파티 설루션 워크플로와의 원활한 상호운용성을 제공한다. 어도비는 누구나 쉽게 AI 가시성 인사이트를 활용할 수 있도록 LLM 옵티마이저 기반 무료 크롬 확장 프로그램 ‘Is Your Webpage Citable?’도 출시했다. 이 도구를 통해 LLM이 웹사이트에서 인식하는 내용과 놓치는 부분을 확인할 수 있어,  AI 가시성의 숨겨진 격차를 발견할 수 있다. LLM 옵티마이저는 이 같은 기본 인사이트를 바탕으로 엔터프라이즈급 측정, 최적화 및 보고 기능을 포함한 종합 설루션을 제공한다. 어도비의 로니 스타크(Loni Stark) 익스피리언스 클라우드 전략 및 제품 부문 부사장은 “생성형 엔진 최적화는 경영진의 주요 관심사로 급부상하고 있으며, 선도 기업들은 이미 다양한 AI 채널에서 영향력을 구축하고 경쟁 우위를 확보하고 있다”면서, “어도비 LLM 옵티마이저는 자사 사이트 및 타 채널에서의 브랜드 성과 인사이트를 바탕으로 자동으로 최적화 조치를 취하는 즉각적인 가치를 제공함으로써, 기업이 급변하는 환경 속에서 두각을 드러낼 수 있도록 지원한다”고 전했다.
작성일 : 2025-10-17
오라클, 대규모 클라우드 AI 클러스터 ‘OCI 제타스케일10’ 공개
오라클이 클라우드 환경 내의 대규모 AI 슈퍼컴퓨터인 ‘오라클 클라우드 인프라스트럭처(OCI) 제타스케일10(Zettascale10)’을 발표했다. OCI 제타스케일10은 여러 데이터센터에 걸쳐 수십만 개의 엔비디아 GPU를 연결하여 멀티 기가와트급 클러스터를 형성하며, 최대 16 제타플롭스(zettaFLOPS)에 이르는 성능을 제공한다. OCI 제타스케일10은 스타게이트의 일환으로 미국 텍사스주 애빌린에서 오픈AI(OpenAI)와 협력하여 구축한 대표 슈퍼클러스터를 구성하는 기반 패브릭이다. 차세대 오라클 액셀러론 RoCE(Oracle Acceleron RoCE) 네트워킹 아키텍처를 기반으로 구축된 OCI 제타스케일10은 엔비디아 AI 인프라로 구동된다. 오라클은 강화된 확장성, 클러스터 전반에 걸친 초저지연 GPU-GPU 통신, 가격 대비 높은 성능, 향상된 클러스터 활용도, 대규모 AI 워크로드에 필요한 안정성을 제공한다는 점을 내세운다. OCI 제타스케일10은 2024년 9월 출시된 첫 번째 제타스케일 클라우드 컴퓨팅 클러스터의 차세대 모델이다. OCI 제타스케일10 클러스터는 대규모 기가와트급 데이터센터 캠퍼스에 배치되며, 2킬로미터 반경 내에서 밀도를 높여 대규모 AI 학습 워크로드에 최적화된 GPU-GPU 지연 성능을 제공한다. 이 아키텍처는 오픈AI와 협력하여 애빌린 소재 스타게이트 사이트에 구축 중에 있다. OCI는 고객에게 OCI 제타스케일10의 멀티기가와트 규모 배포를 제공할 계획이다. 초기에는 최대 80만 개의 엔비디아GPU를 탑재한 OCI 제타스케일10 클러스터 배포를 목표로 한다. 이는 예측 가능한 성능과 강력한 비용 효율을 제공하며, 오라클 액셀러론의 초저지연 RoCEv2 네트워킹으로 높은 GPU-GPU 대역폭을 구현한다. OCI는 현재 OCI 제타스케일10 주문을 접수 중이라고 전했다. 이 제품은 2026년 하반기 출시 예정으로, 최대 80만 개의 엔비디아 AI 인프라 GPU 플랫폼을 기반으로 제공될 예정이다. 오라클의 마헤쉬 티아가라얀 OCI 총괄 부사장은 “OCI 제타스케일10을 통해 우리는 OCI의 혁신적인 오라클 액셀러론 RoCE 네트워크 아키텍처를 차세대 엔비디아 AI 인프라와 결합해 전례 없는 규모에서 멀티기가와트급 AI 용량을 제공한다. 고객은 성능 단위당 전력 소비를 줄이면서 높은 안정성을 달성해 가장 큰 규모의 AI 모델을 실제 운영 환경에 구축, 훈련 및 배포할 수 있다. 또한 강력한 데이터 및 AI 주권 제어 기능을 통해 오라클의 분산형 클라우드 전반에서 자유롭게 운영할 수 있다”고 말했다. 오픈AI의 피터 호셸레(Peter Hoeschele) 인프라 및 산업 컴퓨팅 부문 부사장은 “OCI 제타스케일10 네트워크 및 클러스터 패브릭은 오라클과 함께 구축한 슈퍼클러스터인 텍사스주 애빌린에 위치한 대표 스타게이트 사이트에서 최초로 개발 및 배포되었다. 고도로 확장 가능한 맞춤형 RoCE 설계는 기가와트 규모에서 패브릭 전체 성능을 극대화하면서도 대부분의 전력을 컴퓨팅에 집중시켜 준다. 오라클과 협력하여 애빌린 사이트를 비롯한 스타게이트 프로젝트 전반을 전개해 나갈 수 있어 매우 기쁘게 생각한다”고 말했다.
작성일 : 2025-10-16
오라클, 기업의 AI 이니셔티브 가속화 돕는 ‘AI 데이터 플랫폼’ 공개
오라클이 ‘오라클 AI 데이터 플랫폼(Oracle AI Data Platform)’의 정식 출시를 발표했다. 오라클 AI 데이터 플랫폼은 생성형 AI 모델을 기업의 데이터, 애플리케이션, 워크플로와 안전하게 연결할 수 있도록 설계된 포괄적 플랫폼이다. 자동화된 데이터 수집, 시맨틱 강화(semantic enrichment), 벡터 인덱싱에 생성형 AI 도구를 결합해 원시 데이터(raw data)에서 실제 운영 수준(production-grade)의 AI까지 전 과정을 단순화한다. 오라클 AI 데이터 플랫폼은 데이터를 AI에 최적화하고, 오라클 클라우드 인프라스트럭처(OCI), 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database), OCI 생성형 AI(OCI Generative AI) 서비스를 결합해 에이전틱 애플리케이션의 생성과 배포를 가능하게 한다. 기업 고객은 신뢰할 수 있는 실시간 인사이트를 얻을 수 있으며, 반복 업무를 자동화하고, 성장 기회를 발굴하며, 일상적인 워크플로에 지능을 내재화하는 AI 에이전트를 활용할 수 있다. 개발자와 데이터 팀은 엔터프라이즈급 단일 플랫폼에서 이러한 기능을 신속하게 구축하고 확장할 수 있다. 이 플랫폼은 엔비디아 가속 컴퓨팅 인프라를 통합해 고성능 워크로드를 위한 최신 세대 GPU와 라이브러리를 선택할 수 있다. 그 결과 다양한 산업군에서 더욱 신속한 혁신, 높은 생산성, 측정 가능한 비즈니스 성과를 실현할 수 있다. 오라클 AI 데이터 플랫폼은 기업이 데이터와 AI를 효과적으로 활용할 수 있는 기반을 제공한다. 고객은 델타 레이크(Delta Lake) 및 아이스버그(Iceberg)와 같은 오픈 포맷을 활용해 데이터 레이크하우스를 구축하고, 데이터 중복을 줄일 수 있다. 또한 AI 데이터 플랫폼 카탈로그는 모든 데이터와 AI 자산에 대한 통합 뷰와 거버넌스를 제공해 기업의 컴플라이언스 및 신뢰 강화를 지원한다. 카탈로그는 에이전트투에이전트(Agent2Agent : A2A) 및 모델 컨텍스트 프로토콜(MCP) 등 개방형 표준을 폭넓게 지원해 정교한 멀티에이전트 시스템 구성을 가능하게 한다. 더불어 기업 고객을 위한 에이전트 허브(Agent Hub)는 다수의 에이전트를 탐색하는 복잡성을 제거하고, 요청을 해석해 적합한 에이전트를 호출하며, 추천 결과를 제시해 즉각적인 조치를 취할 수 있도록 지원한다. 오라클은 오라클 AI 데이터 플랫폼이 제공하는 기능 및 이점으로 ▲데이터를 인텔리전스로 전환 ▲팀 전반의 혁신 가속 ▲비즈니스 프로세스 자동화 및 확장 ▲엔터프라이즈급 준비 상태 보장 등을 꼽았다. 오라클 AI 데이터 플랫폼은 데이터 레이크하우스와 AI를 하나의 플랫폼에 통합해, 원시 데이터를 실행 가능한 인사이트와 더 스마트한 의사결정으로 전환할 수 있다. 그리고 데이터 엔지니어, 데이터 과학자, AI 개발자를 위한 단일 워크벤치를 제공해 협업과 AI 기반 애플리케이션 제공 속도를 높인다. 이를 통해 단순 분석을 넘어 워크플로를 조율하고, 알림을 자동 생성하며, 비즈니스 성과를 직접 개선하는 AI 에이전트를 통해 효율을 높일 수 있도록 한다. 오라클은 “OCI, 오픈소스 엔진, 업계 선도적 분석 기능, 오라클 자율운영 AI 레이크하우스(Oracle Autonomous AI Lakehouse)의 결합으로 미션 크리티컬 AI 도입에 필요한 규모, 성능, 신뢰성을 제공한다”고 전했다. 제로 ETL(Zero-ETL)과 제로 카피(Zero Copy) 기능을 통해 고객은 재무, HR, 공급망, 마케팅, 영업, 서비스 등 핵심 비즈니스 애플리케이션 데이터는 물론 산업별 애플리케이션 데이터와 기존 엔터프라이즈 데이터베이스에 원활하게 연결할 수 있다. 오라클 AI 데이터 플랫폼은 멀티클라우드 및 하이브리드 크로스-클라우드 오케스트레이션을 지원하여 퍼블릭 클라우드, 온프레미스, 에지 등 모든 소스의 데이터의 연결, 처리, 분석이 가능하다. 또한, 오라클 애플리케이션과 서드파티 환경 전반에서 AI 에이전트가 원활하게 작동할 수 있게 되어 고객이 기업 전반에 걸쳐 AI 기반 혁신을 확장할 수 있다. 오라클은 퓨전(Fusion), 넷스위트(NetSuite)를 포함한 주요 오라클 애플리케이션 제품군 전반과 의료, 소비재, 금융 서비스, 건설 등 산업 전반을 대상으로 사전 통합을 포함한 맞춤형 AI 데이터 플랫폼을 제공할 계획이다. 오라클 퓨전 데이터 인텔리전스(Oracle Fusion Data Intelligence)의 정제되고 풍부하며 AI를 위해 준비된 데이터는 AI 데이터 플랫폼에서 사용 가능하다. 오라클의 T.K. 아난드 총괄부사장은 “오라클 AI 데이터 플랫폼은 고객이 데이터를 AI에 최적화하고, AI를 활용하여 비즈니스 프로세스 전반을 혁신할 수 있도록 돕는다. 이 플랫폼은 데이터를 통합하고 전체적인 AI 라이프사이클을 간소화하여 기업이 신뢰성, 보안성 및 민첩성을 고려하며 AI의 역량을 활용하는 데 있어 가장 포괄적인 기반을 제공한다”고 말했다.
작성일 : 2025-10-15
SAP, 연례행사 ‘SAP 커넥트’에서 AI 기반 비즈니스 스위트 선보여
SAP가 10월 6일부터 3일간 미국 라스베이거스에서 새롭게 선보인 연례행사 ‘SAP 커넥트(SAP Connect)’를 개최했다고 밝혔다. SAP는 이번 행사에서 AI, 데이터 및 애플리케이션의 통합이 어떻게 비즈니스 가치를 창출하는지를 선보였다. 특히 이번 발표에서 ▲인간과 협력해 성과를 높이는 쥴(Joule)의 역할 기반 AI 어시스턴트 네트워크 ▲더 깊은 인사이트를 제공하는 확장형 데이터 생태계 ▲공급망 리스크를 사전에 예측하는 소프트웨어 등의 설루션을 공개하며, 비즈니스 운영 방식에 대한 새로운 혁신을 제시했다.     SAP는 비즈니스 스위트의 가치 창출 중심에 있는 핵심 AI 엔진으로서 쥴의 차세대 단계를 공개했다. SAP 비즈니스 스위트 전반의 애플리케이션과 데이터를 기반으로, SAP는 쥴에 새로운 세대의 역할 인식형 어시스턴트를 도입했다. 각 어시스턴트는 특정 비즈니스 역할을 수행하는 사람과 함께 협업하도록 설계됐으며, 쥴의 어시스턴트는 업무에 적합한 에이전트를 활용해 이를 구성, 조율 및 관리함으로써 인간이 보다 높은 수준의 인사이트와 생산성을 발휘하는 데 집중할 수 있도록 한다. 특히 전문화된 쥴 에이전트(Joule Agent) 라이브러리는 특정 기능 내에서 복잡한 워크플로를 수행하도록 설계되어 쥴의 어시스턴트를 지원한다. 피플 매니저 어시스턴트(People Manager Assistant)는 보상 이상 징후와 같은 문제를 발견하고 해결하는 데 도움을 주는 새로운 피플 인텔리전스 에이전트(People Intelligence Agent)를 포함한 전문 에이전트 팀을 조율해 관리자가 성과를 이끌 수 있도록 지원한다. 또한 새롭게 선보이는 재무 계획 어시스턴트(Financial Planning Assistant)는 현금 흐름을 최적화하고 이자 수익을 높이는 새로운 현금 관리 에이전트(Cash Management Agent)를 포함한 전문 에이전트 그룹의 도움을 받아 재무 담당자가 효율성을 높일 수 있도록 돕는다. 이처럼 새로운 역할 인식형 AI 어시스턴트는 개별 비즈니스 영역에서 성과를 향상시키기 위해 사람과 협력할 뿐 아니라, 복잡한 전사적 문제를 해결하기 위해 비즈니스 기능 전반에 걸쳐 함께 해결한다. 데이터는 AI 혁신의 원동력이지만, 여전히 여러 시스템에 분산되어 있는 경우가 적지 않다. SAP는 이번 행사에서 이러한 장벽을 없애기 위해 SAP 비즈니스 데이터 클라우드 커넥트(SAP Business Data Cloud Connect : SAP BDC 커넥트)를 선보였다. SAP BDC 커넥트는 SAP BDC를 파트너 플랫폼과 안전하게 연결해, 조직과 기술의 경계를 넘어 비즈니스 데이터 제품이 양방향으로 오갈 수 있도록 지원한다. 아울러 제로 카피 공유(zero-copy sharing) 방식으로 데이터는 SAP 시스템 내에 안전하게 보관되면서도 고객의 기존 데이터 플랫폼에서 즉시 액세스할 수 있으며, 비용이 많이 드는 복제 없이도 비즈니스 맥락을 그대로 유지할 수 있다. 그 결과, 사일로는 줄어들고, 데이터 파이프라인은 단순해지며, 중복은 사라지고, 필요한 시점과 장소에 신뢰할 수 있는 데이터 제품을 제공할 수 있다. 또한 SAP는 데이터브릭스(Databricks)와 구글 클라우드(Google Cloud)가 SAP BDC 커넥트를 지원하는 첫 공식 파트너이며, 향후 더 많은 파트너가 추가될 예정이라고 밝혔다. SAP 데이터브릭스(SAP Databricks)는 지난 2월 SAP BDC 내의 데이터 서비스로 유지될 것이라고 발표한 바 있으며, SAP BDC 커넥트는 개방형 데이터 생태계 전반에 걸쳐 이러한 혜택을 확장했다. 이번 파트너십은 고객에게 분석 및 AI를 위한 데이터 제품에 대해 더욱 신속하게 접근할 수 있고, 원천 데이터에서 실시간 비즈니스 성과로 전환하는 과정을 한층 빠르고 간단하게 수행할 수 있도록 지원한다. SAP의 차별화된 가치 제안의 핵심은 데이터가 생성되고 AI 기반 인사이트를 경험하는 엔터프라이즈 애플리케이션이다. SAP 공급망 오케스트레이션(SAP Supply Chain Orchestration)은 쥴의 역량과 실시간 지식 그래프를 결합한 새로운 AI 네이티브 설루션으로, 여러 단계의 공급업체까지 실시간 위험을 감지하고 이에 대한 대응을 효과적으로 조율한다. 이를 통해 고객은 비용을 절감하고 공급망을 원활하게 유지할 수 있다. SAP 인게이지먼트 클라우드(SAP Engagement Cloud)는 새로운 고객 경험 설루션으로, 비즈니스에 중요한 맥락을 활용하여 고객, 공급 업체 및 기타 이해관계자 전반에 걸쳐 상호작용을 개인화한다. 또한 이번 행사에서는 차세대 SAP 아리바(SAP Ariba) 조달 제품군이 조달부터 공급업체 관리에 이르기까지 지출 관리의 모든 단계에 인텔리전스를 제공하는 AI 네이티브 설루션으로 주목받기도 했다. SAP의 무하마드 알람(Muhammad Alam) 제품 엔지니어링 총괄 및 이사회 임원은 “불확실성이 일상이 된 시대에 기업이 성장하기 위해서는 최고의 애플리케이션을 단순히 조합하는 것 이상의 접근 방식이 필요하다”면서, “이번 행사에서 발표한 내용은 AI, 데이터 및 애플리케이션이 하나로 결합되어 더 나은 의사결정, 더 빠른 실행, 그리고 확장할 수 있는 혁신을 주도하는 SAP 비즈니스 스위트(SAP Business Suite)의 강력한 힘을 보여준다”고 말했다.
작성일 : 2025-10-13
인텔, 팬서 레이크 아키텍처 공개하면서 18A 공정 기반의 AI PC 플랫폼 제시
인텔은 차세대 클라이언트 프로세서인 인텔 코어 울트라 시리즈 3(코드명 팬서 레이크)의 아키텍처 세부 사항을 공개했다. 2025년 말 출시 예정인 팬서 레이크는 미국에서 개발 및 제조되며, 진보된 반도체 공정인 인텔 18A로 제작된 인텔의 첫 번째 제품이 될 것으로 보인다. 인텔 코어 울트라 시리즈 3 프로세서는 인텔 18A 기반으로 제조된 클라이언트 시스템 온 칩(SoC)으로, 다양한 소비자 및 상업용 AI PC, 게이밍 기기, 에지 설루션을 구동할 예정이다. 팬서 레이크는 확장 가능한 멀티 칩렛 아키텍처를 도입하여 파트너사들에게 폼 팩터, 세그먼트, 가격대 전반에 걸쳐 향상된 유연성을 제공한다. 인텔이 소개한 팬서 레이크의 주요 특징은 ▲루나 레이크 수준의 전력 효율과 애로우 레이크 급 성능 ▲최대 16개의 새로운 P-코어 및 E-코어로 이전 세대 대비 50% 이상 향상된 CPU 성능 제공 ▲최대 12개의 Xe 코어를 탑재한 새로운 인텔 아크 GPU로, 이전 세대 대비 50% 이상 향상된 그래픽 성능 제공 ▲최대 180 플랫폼 TOPS(초당 수 조의 연산)를 지원하는 차세대 AI 가속화를 위한 균형 잡힌 XPU 설계 등이다.     인텔은 팬서 레이크를 PC뿐 아니라 로봇 공학을 포함한 에지 애플리케이션으로 확장할 계획이다. 새로운 인텔 로봇 공학 AI 소프트웨어 제품군과 레퍼런스 보드는 정교한 AI 기능을 갖춘 고객이 팬서 레이크를 제어 및 AI /인식 모두에 활용하여 비용 효율적인 로봇을 신속하게 혁신하고 개발할 수 있도록 지원한다.  팬서 레이크는 2025년 대량 생산을 시작하며, 첫 번째 SKU는 연말 이전에 출하될 예정이다. 또한 2026년 1월부터 폭넓게 시장에 공급될 예정이다.  한편, 인텔은 또한 2026년 상반기에 출시될 예정인 인텔 18A 기반 서버 프로세서인 제온 6+(코드명 클리어워터 포레스트)를 미리 공개했다. 팬서 레이크와 클리어워터 포레스트는 물론 인텔 18A 공정으로 제조된 여러 세대의 제품들은 모두 애리조나주 챈들러에 위치한 인텔의 공장인 팹 52에서 생산된다. 인텔의 차세대 E-코어 프로세서인 인텔 제온 6+는 인텔이 지금까지 개발한 가장 효율적인 서버 프로세서로, 인텔 18A 공정으로 제작된다. 인텔은 2026년 상반기에 제온 6+를 출시할 계획이다.  제온 6+의 주요 특징은 ▲최대 288개의 E-코어 지원 ▲전 세대 대비 사이클당 명령어 처리량(IPC) 17% 향상 ▲밀도, 처리량 및 전력 효율의 개선 등이다. 클리어워터 포레스트는 하이퍼스케일 데이터센터, 클라우드 제공업체 및 통신사를 위해 설계되어 조직이 워크로드를 확장하고 에너지 비용을 절감하며 더 지능적인 서비스를 제공할 수 있도록 지원한다.  인텔 18A는 미국에서 개발 및 제조된 최초의 2나노미터급 노드로, 인텔 3 대비 와트당 성능이 최대 15% 향상되고 칩 밀도가 30% 개선되었다. 이 공정은 미국 오리건 주 공장에서 개발 및 제조 검증 과정을 거쳐 초기 생산을 시작했으며, 현재 애리조나 주에서 대량 생산을 향해 가속화되고 있다. 인텔은 향후 출시될 자사의 클라이언트 및 서버 제품에서 최소 3세대에 인텔 18A 공정을 활용할 계획이다. 인텔 18A는 10년 만에 선보이는 인텔의 새로운 트랜지스터 아키텍처 리본FET(RibbonFET)를 적용해, 더 큰 확장성과 효율적인 스위칭을 통해 성능과 에너지 효율을 높인다. 그리고 새로운 백사이드 전원 공급 시스템인 파워비아(PowerVia)를 통해 전력 흐름과 신호 전달을 개선한다. 인텔의 첨단 패키징 및 3D 칩 적층 기술인 포베로스(Foveros)는 여러 칩렛을 적층 및 통합하여 고급 시스템 온 칩(SoC) 설계로 구현함으로써 시스템 수준에서 유연성, 확장성 및 성능을 제공한다.  인텔의 립부 탄(Lip-Bu Tan) CEO는 “우리는 향후 수십 년간 미래를 형성할 반도체 기술의 큰 도약으로 가능해진 흥미진진한 컴퓨팅의 새 시대에 접어들고 있다”며, “차세대 컴퓨팅 플랫폼은 선도적인 공정 기술, 제조 역량 및 첨단 패키징 기술과 결합되어 새로운 인텔을 구축하는 과정에서 전사적 혁신의 촉매가 될 것이다. 미국은 항상 인텔의 최첨단 연구개발, 제품 설계 및 제조의 본거지였다. 미국내 운영을 확대하고 시장에 새로운 혁신을 선보이면서 이러한 유산을 계승해 나가게 되어 자랑스럽게 생각한다”고 말했다.
작성일 : 2025-10-10
에픽게임즈, 다양한 산업에서 활용할 수 있는 신기능 추가된 ‘트윈모션 2025.2’ 출시
에픽게임즈는 다양한 산업 분야의 크리에이터를 위한 신규 기능 및 개선 사항이 추가된 ‘트윈모션 2025.2(Twinmotion 2025.2)’를 출시했다고 발표했다. 트윈모션은 언리얼 엔진 5를 기반으로 건축과 영화 & TV, 자동차, 제품 디자인 등 다양한 산업 분야에서 빠르게 사실적인 시각화 작업을 지원하며, 직관적이고 쉬운 UI와 강력한 라이브러리 제공을 통해 전문가와 초보자 모두 누구나 손쉽게 사용할 수 있는 리얼타임 3D 시각화 설루션이다.     최신 버전인 트윈모션 2025.2에서는 ▲나나이트(Nanite) 가상화된 지오메트리 ▲빠르고 쉬운 시각화 ▲향상된 렌더링 기능 ▲향상된 애니메이션 ▲버추얼 카메라(VCam) ▲향상된 머티리얼 할당, 편집, 구성 등 다양한 산업 분야의 크리에이터를 위한 새로운 기능과 향상된 워크플로를 제공한다. 2년 전 언리얼 엔진 5의 다이내믹 글로벌 일루미네이션 시스템 ‘루멘(Lumen)’이 트윈모션에 도입된 데 이어, 이번 버전에서는 UE5의 또 다른 기능인 나나이트 가상화된 지오메트리 시스템이 추가됐다. 나나이트는 보이는 데이터만 필요할 때 자동으로 스트리밍하는 기능으로, 수억 개 또는 수십억 개의 폴리곤으로 구성된 여러 개의 초고해상도 복잡한 메시도 실시간 성능을 유지하면서 작업할 수 있다. 이를 통해 파일을 임포트하기 전에 최적화할 필요가 없어 시간을 절약할 수 있다. 메시는 임포트할 때나 임포트 후에도 나나이트로 변환할 수 있으며, 해당 오브젝트의 모든 메시를 일괄 변환할 수 있는 것은 물론 메가스캔 3D 애셋 및 3D 식물, 스케치팹 애셋도 나나이트로 변환할 수 있다. 트윈모션 2025.2 버전에는 빠르고 쉬운 시각화를 위해 기존과 같은 수준의 시각화를 더 빠르고 간편하게 구현하면서도, 성능 부담을 줄여주는 신규 기능이 추가됐다. 먼저, ‘패럴랙스 윈도우’를 지원한다. 패럴랙스 윈도우는 오픈 셰이딩 언어(OSL) 셰이더를 통해 단순한 가벼운 평면에 실내 공간의 깊이감을 만들어 내 복잡한 3D 지오메트리 없이도 방이나 건물 내부를 시뮬레이션할 수 있는 기능이다. 창문을 모델링할 필요 없이 외부 표면에 패럴랙스 윈도우를 배치하기만 하면 된다. 라이브러리에는 사무실, 주거 공간, 헬스장, 소매점 등 27가지 인테리어가 포함된 패럴랙스 윈도우 폴더가 추가됐다. 이와 함께, ‘애니메이션 포그 카드’를 통해 신에 사실감을 손쉽게 구현할 수 있다. 라이브러리 VFX 폴더에 포함된 17종의 새로운 애니메이션 포그 카드를 사용하면 성능에 미치는 영향을 최소화하면서도 드래그 앤 드롭으로 손쉽게 안개를 배치하고 연출할 수 있다. 안개는 신의 바람이나 카드별로 바람 속도, 방향에 따라 반응할 수 있도록 설정이 가능하다. 트윈모션 2025.2는 향상된 렌더링 기능으로 포토리얼한 트윈모션에서 좀 더 자유로운 스타일이 필요할 때 활용할 수 있도록, 해칭, 쿠와하라 필터링, 펜 등 회화 및 스케치 스타일 효과와 같이 더욱 유연하고 향상된 비주얼 퀄리티를 제공하기 위해 전체 ‘FX 포스트 프로세싱’ 시스템을 개편했다. 또한, 이제 .cube 형식의 자체 룩업 테이블(LUT)을 임포트할 수 있어, 특정 컬러 룩을 구현하고 여러 샷이나 프로젝트 간에 컬러 일관성을 유지하며 컬러 그레이딩 과정을 간소화할 수 있다. 정적인 신에서 움직임을 빠르게 시뮬레이션할 때 유용한 ‘스태틱 오브젝트에 선형 또는 방사형 모션 블러 적용’ 기능과 비디오나 시퀀스를 익스포트할 때 더 높은 퀄리티의 사실적인 모션 블러를 적용할 수 있는 옵션도 추가됐다. 트윈모션 2025.2에는 향상된 애니메이션으로 선택한 형태(평면, 원기둥, 구체)에 따라 오브젝트를 원래 위치에서 바깥쪽이나 안쪽으로 이동시켜 기술 프레젠테이션이나 극적인 연출에 활용할 수 있는 분해도 애니메이션 ‘익스플로더’가 추가됐다. 기존의 트랜슬레이터 및 로테이터 애니메이터에도 ‘스태거 오프셋’이 추가돼 오브젝트가 하늘에서 떨어지거나 지면에서 솟아오르는 효과 그리고 순차적으로 회전하는 것과 같이 신에 역동적인 연쇄 연출을 손쉽게 만들 수 있게 됐다. 또한, 애니메이터를 ‘시퀀스 툴’에서 트랙으로 사용할 수 있어, 애니메이션의 시작 시각 변경, 재생 시간 조절, 다른 애니메이션 요소와 동기화하는 것이 간편해졌으며, 애니메이션을 멈추고 정확한 순간을 선택해 촬영할 수 있도록 이미지 속성에 새로운 글로벌 ‘스태틱/리얼타임 애니메이션’ 재생 옵션이 추가됐다. 이번 버전은 촬영감독부터 시각화 전문가에 이르기까지 누구나 활용 가능한 버추얼 카메라(VCam)를 새롭게 지원한다. 트윈모션을 안드로이드 또는 iOS에서 언리얼 VCam 앱에 연결하면 휴대용 디바이스를 움직이는 것만으로 신에 버추얼 카메라를 배치할 수 있다. ‘샷 탐색’ 기능을 활용하면 신을 자유롭게 탐색하면서 카메라 배치, 각도, 노출, 초점, 배율 등의 설정을 1인칭 시점에서 실험해 볼 수 있으며, ‘디자인 리뷰’에서는 가상의 애셋을 실제로 걸어 다니면서 모든 각도에서 살펴볼 수 있다. 트윈모션 2025.2에서는 향상된 머티리얼 할당, 편집, 구성을 통해 머티리얼 도크에서 머티리얼을 폴더로 정리하고 이름으로 검색할 수 있으며, 머티리얼을 알파벳순으로 정렬할 수 있다. 또한 툴바에 ‘멀티드롭’ 툴 버튼이 추가되어 신에서 마우스 클릭 한 번으로 머티리얼을 빠르게 적용할 수 있어 반복적인 드래그 앤 드롭 작업이 필요 없어졌다. 머티리얼 속성 패널을 탭으로 구성해 가독성을 높이는 한편 주요 설정에 더 쉽게 접근할 수 있고, UV, 엑스레이, 양면과 같은 일부 속성을 서로 다른 유형의 여러 머티리얼을 선택해서 일괄 변경할 수도 있다. 이 탭 중 하나는 해당 머티리얼이 어떤 메시에 할당되어 있는지 확인하고 선택할 수 있는 새로운 기능을 제공한다. 이 외에도, 이번 버전에서는 트윈모션 뷰포트 카메라 위치 및 속성을 DCC 뷰포트 카메라와 동기화할 수 있으며, 컨피규레이션 일괄 익스포트, 클라우드 호스팅 콘텐츠 기능, 3D 잔디, 파노라마 세트, 알리아스(*.wire) 파일 테셀레이션 옵션 등 더욱 향상된 다양한 기능을 만나볼 수 있다.
작성일 : 2025-10-01
AI로 더욱 똑똑해진 CAD 어시스턴트, A3
데스크톱/모바일/클라우드를 지원하는 아레스 캐드 2026 (7)   DWG 호환 CAD로 잘 알려진 독일 그래버트(Graebert)의 아레스 캐드(ARES CAD)는 PC 기반의 아레스 커맨더(ARES Commander), 모바일 기반의 아레스 터치(ARES Touch), 클라우드 기반의 아레스 쿠도(ARES Kudo) 모듈로 구성되어 있으며, 이들 모듈은 상호 간 동기화되어 작동한다. 이러한 구성으로 인해 아레스 캐드는 삼위일체형(trinity) CAD로 불린다. 이번 호에서는 아레스 커맨더에 탑재된 AI 도우미 A3를 중심으로, 새롭게 추가된 주요 기능을 살펴보겠다.   ■ 천벼리 캐디안 3D 솔루션 사업본부 대리로 기술영업 업무를 담당하고 있다. 홈페이지 | www.arescad.kr 블로그 | https://blog.naver.com/graebert 유튜브 | www.youtube.com/GraebertTV   그림 1   아레스 AI 어시스트(ARES AI ASSIST : A3)는 사용자의 개인용 CAD 도우미이다. 아레스 커맨더가 현재 14개 언어를 지원하는 것과 달리, A3는 50개 이상의 언어를 지원하여 사용자에게 더욱 폭넓고 맞춤화된 경험을 제공한다. 올해 A3는 선택 및 수정 기능을 A3 팔레트를 통해 새롭게 추가하여, 작업 효율을 한층 높였다. 사용자는 팔레트 기반의 직관적인 인터페이스를 통해 원하는 객체를 빠르게 선택하고, 보다 간편하게 수정 작업을 수행할 수 있다.   A3의 CAD 지식 및 기능 A3는 소프트웨어 학습을 도와준다. 예를 들어, “PDF 가져오기 기능이 어디 있는지 보여줘”라고 물어보면(그림 2), A3는 리본 메뉴에서 해당 기능의 위치를 직접 표시한다.(그림 3~4)   그림 2   그림 3   그림 4   또 “보기 전용 링크를 생성하는 절차를 알려줘”라고 말하면(그림 5), A3는 단계별 사용 방법을 안내한다.(그림 6)   그림 5   그림 6   A3로 추가 제안 요청하기 A3는 업계 특화된 질문에도 답할 수 있다. 예를 들어 “DIN 933 표준이 무엇인가요?”라고 물어보면(그림 7), 전문적인 질문에도 대응할 수 있다.(그림 8)   그림 7   그림 8     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-10-01
[피플&컴퍼니] 앤시스 패드메쉬 맨들로이 부사장, 월트 헌 부사장, 앤시스코리아 박주일 대표
시높시스와 통합 시너지 강화… AI로 엔지니어링 혁신 이끈다   제품이 복잡해지면서 반도체 설계와 전체 시스템의 구현을 통합하는 엔지니어링이 필수가 됐다. 앤시스는 EDA(전자 설계 자동화) 기업 시높시스와 통합을 통해 제품 개발의 전체 과정을 단일 플랫폼으로 지원한다는 비전을 마련했다. 이와 함께 AI(인공지능) 기술을 자사 포트폴리오 전반에 적용해, 전문가의 전유물이었던 시뮬레이션의 장벽을 허문다는 전략도 제시했다. ■ 정수진 편집장   ▲ 앤시스 패드메쉬 맨들로이 부사장   ‘실리콘부터 시스템까지’ 아우르는 엔지니어링 시대 연다 제품이 점차 스마트해지고 복잡해지면서 물리 세계와 전자 세계의 만남이 그 어느 때보다 중요해지고 있다. 앤시스와 시높시스는 지난 7월 통합 완료를 발표했는데, 두 회사는 각자의 전문성을 결합해 반도체 칩 설계(실리콘)부터 최종 시스템에 이르는 전체 과정을 지원하는 통합 설루션을 제공할 계획이다. 앤시스의 패드메쉬 맨들로이(Padmesh Mandloi) 고객지원 부문 아시아 부사장은 “오늘날의 제품은 단순히 기능을 수행하는 것을 넘어 스스로 사고하고, 협업하며, 환경에 적응하는 지능형 시스템으로 발전하고 있다. 이런 변화는 엔지니어링의 복잡성을 가중시키고 있으며, 반도체 설계와 물리적 시스템의 구현을 별개로 볼 수 없게 되었다”면서, “시뮬레이션 분야의 선도 기업 앤시스와 EDA 1위 기업 시높시스가 손을 잡은 것은 이런 시대적 요구에 부응하기 위한 것”이라고 설명했다. 맨들로이 부사장은 “시스템은 실리콘의 요구사항을, 실리콘은 시스템의 요구사항을 정확히 이해해야 한다”고 짚었다. 예를 들면, 자동차 기업이 자율주행 기능을 구현하기 위해서는 AI 반도체 설계를 고려해야 하고, 반도체 기업은 칩이 자동차에 쓰일지 데이터센터에 쓰일지에 따라 다른 접근법을 선택해야 한다는 것이다. 제품 개발을 위해 엔지니어링 시뮬레이션과 EDA의 긴밀한 상호작용이 필수가 되면서, 앤시스는 시높시스와의 통합이 큰 시너지를 낼 수 있을 것으로 기대하고 있다.   물리 기반 시뮬레이션을 EDA 흐름에 통합 양사 통합의 핵심 전략은 앤시스의 강점인 물리 기반 시뮬레이션을 시높시스의 EDA 설계 흐름에 통합하는 것이다. 이를 통해 차세대 인공지능(AI) 칩, 3D IC 등 고도의 반도체를 설계할 때 필수로 고려해야 하는 열, 구조 변형, 뒤틀림 같은 물리적 문제를 설계 초기 단계부터 해결할 수 있게 된다는 것이다. 앤시스코리아의 박주일 대표는 “특히 고대역폭 메모리(HBM)와 같이 여러 칩을 쌓는 ‘스택 구조’에서 이러한 통합 설루션의 가치가 크다. 앤시스는 이미 HBM의 전력 무결성, 열, 구조적 스트레스 분석 분야에서 삼성전자, SK하이닉스 등과 협력해왔다. 앞으로 시높시스와 함께 칩 설계 단계부터 최종 분석까지 아우르는 단일 플랫폼을 제공할 수 있을 것”이라고 전했다. 앤시스와 시높시스는 조직을 통합하기보다는 각자의 비즈니스 운영 방식을 유지하며 시너지를 낼 수 있는 분야를 탐색하는 데 집중하고 있다. 시높시스가 소수의 반도체 기업을 깊이 있게 지원하는 반면, 앤시스는 수천 개의 다양한 산업군 고객을 보유하고 있어 사업 운영 방식에 차이가 있기 때문이라는 것이 박주일 대표의 설명이다. 그는 “다만, HBM 설루션처럼 시장의 요구가 높은 분야의 기술 통합은 더 빠르게 진행될 수 있다”고 덧붙였다. 앤시스는 시높시스와의 통합 설루션이 특히 복잡한 요구조건을 가진 첨단 산업에서 강점을 발휘할 것으로 보고 있다. 앤시스의 월트 헌(Walt Hearn) 글로벌 세일즈 및 고객 담당 부사장은 “이번 합병이 고객들에게 새로운 기술과 기회를 제공할 것으로 기대한다"면서, “물리 시뮬레이션과 EDA의 결합은 제품 개발의 어려운 과제를 해결하는 최고의 포트폴리오가 될 것”이라고 말했다.   ▲ 앤시스 월트 헌 부사장   AI로 엔지니어링의 문턱 낮춘다 앤시스는 인공지능(AI) 기술을 자사 포트폴리오 전반에 통합해 시뮬레이션의 효율과 속도를 높이고, 전문가 수준의 지식이 필요했던 기술의 문턱을 낮추는 데 주력하고 있다. 복잡한 제품 개발 환경에서 더 많은 엔지니어가 시뮬레이션 기술을 쉽게 활용하도록 돕는 것이 앤시스 AI 전략의 핵심이다. 맨들로이 부사장은 “시뮬레이션은 고도의 전문 지식을 갖춘 전문가의 영역으로 여겨져 왔다. 하지만 디지털 전환이 가속화되면서 기업의 비용 절감과 시장 출시 기간 단축을 위해 시뮬레이션의 활용을 확대하려는 요구가 커졌다”면서, “앤시스는 전문 지식에 대한 의존도를 낮추고 더 많은 사용자가 쉽게 접근할 수 있도록 AI 기술이 탑재된 플랫폼을 제공하는 것을 최우선 과제로 삼고 있다”고 설명했다. AI 기술은 초기 머신러닝(ML) 기반의 최적화 도구를 넘어, 대규모 언어 모델(LLM)과 AI 비서를 거쳐 완전히 자율화된 에이전틱 AI(agentic AI)로 나아가고 있다. 헌 부사장은 크게 네 가지 방향에서 AI를 앤시스 설루션에 적용하고 있다고 소개했다. 스마트 UI(사용자 인터페이스) : UI에 AI를 내장해 반복적인 작업을 자동화함으로써 엔지니어의 작업 효율을 높인다. 앤시스GPT(AnsysGPT) : 오픈AI의 기술을 기반으로 하는 앤시스GPT는 자연어 질의응답을 통해 사용자가 엔지니어링 문제에 대한 답을 더 빠르게 찾도록 돕는다. AI 내장 솔버 : 엔지니어링 해석의 핵심 엔진인 솔버 자체에 AI 기술을 통합해 문제 해결 속도를 이전보다 크게 높였다. 심AI(Ansys SimAI) : 과거의 방대한 시뮬레이션 데이터셋을 학습한 AI 솔버이다. 예를 들어, 기존에 일주일이 걸리던 자동차 외부 공기역학 해석 작업에 심AI를 활용하면 단 하루 만에 완료할 수 있다. 헌 부사장은 “앤시스GPT는 이미 2만여 고객사에서 활발히 사용되고 있으며, ‘앤시스 엔지니어링 코파일럿’도 개발하고 있다. 이 코파일럿은 지난 50년간 축적된 앤시스의 제품 개발 지식을 LLM에 탑재한 형태이다. 유동, 구조, 전자기학 등 모든 분야의 엔지니어링 콘텐츠를 단일 플랫폼 안에서 쉽게 검색하고 활용할 수 있게 될 것”이라고 소개하면서, “이런 혁신을 바탕으로 앤시스와 시높시스는 고객이 미션 크리티컬한 과제를 해결하고 AI 기반 제품과 서비스를 성공적으로 개발할 수 있도록 지원을 아끼지 않겠다”고 밝혔다.   솔버 최적화와 클라우드로 컴퓨팅 인프라 부담 해결 시뮬레이션과 AI 기술은 모두 대량의 컴퓨팅 자원을 필요로 한다. 기업에서는 컴퓨팅 인프라의 구축과 운용에 대한 부담이 클 수밖에 없다. 헌 부사장은 “소프트웨어 최적화와 유연한 클라우드 지원을 통해 고객들이 인프라 제약 없이 혁신에 집중할 수 있도록 돕겠다”고 밝혔다. 우선 R&D 차원에서 앤시스는 자사 솔버의 코드를 전면 재작성하고 있다. CFD(전산 유체 역학)와 전자기를 비롯해 모든 분야의 솔버를 GPU(그래픽 처리 장치) 환경에서 구동되도록 최적화하는 것이 핵심이다. 또한, 앤시스는 AWS(아마존 웹 서비스) 및 마이크로소프트 애저(Azure)와 협력해 클라우드 서비스를 제공하고 있다. 고객사가 대규모 해석과 같이 추가적인 컴퓨팅 성능이 필요할 경우 언제든지 클라우드 자원을 활용해 작업을 확장할 수 있도록 하겠다는 것이다. 헌 부사장은 “시높시스 역시 자체 클라우드를 통해 컴퓨팅 리소스를 제공하고 있는데, 향후 이를 통합하면 더욱 시너지를 낼 수 있을 것”이라고 전했다.   ▲ 앤시스코리아 박주일 대표   한국은 가장 복잡한 제품 개발하는 전략적 요충지 앤시스코리아는 최근 몇 년간 두 자릿수의 성장세를 유지하고 있으며, 올해는 예년보다 더 큰 폭의 성장을 예상하고 있다. 박주일 대표는 “이런 성장의 배경에는 국내 시장의 확고한 디지털 전환(DX) 트렌드와 갈수록 복잡해지는 제품 설계 환경이 있다”고 짚었다. 그는 “한국 기업들은 반도체, 자동차, 조선, 항공우주 등 모든 산업 영역에서 최고 수준의 복잡한 제품을 설계하며 글로벌 기업과 경쟁하고 있으며, 그만큼 국내 고객의 기술적 요구 수준 또한 높다”면서, “앤시스 코리아는 높은 수준의 국내 고객 요구를 시뮬레이션 기술로 충족시키는 것을 최우선 과제로 삼고 있으며, 이를 위해 국내 리소스뿐만 아니라 글로벌 조직과의 긴밀한 협업을 통해 한국 시장과 고객을 적극 지원하고 있다”고 설명했다. 앤시스는 HBM, 3D IC와 같은 스택 구조 반도체의 전력 무결성, 열, 구조 변형 문제 해결을 위해 국내 반도체 기업들과 협력하고 있다. 그리고 고밀도 AI 칩을 개발하는 국내 스타트업들과도 협력을 진행 중이다. 우주 산업에서는 국내 스타트업과 협력해 인공위성의 수명과 성능을 위협하는 우주 잔해물 문제 해결을 돕고 있다. 또한, 삼성전자, LG전자, 현대자동차 등 국내 대기업을 중심으로 AI 기술이 탑재된 시뮬레이션 설루션 도입을 빠르게 진행 중이다. 맨들로이 부사장은 “한국 앤시스 고객의 만족도는 96.8%로 역대 최고치를 기록했으며, 이는 지난 몇 년간 꾸준히 상승해 온 결과이다. 앤시스는 이러한 높은 만족도에 큰 자부심을 가지고 있으며, 앞으로도 최고의 기술을 통해 한국 고객들을 지원하는 데 집중할 것”이라고 전했다.    ▲ 앤시스코리아는 9월 17일 연례 콘퍼런스 ‘시뮬레이션 월드 코리아 2025’를 열고, 최신 기술 트렌드와 함께 자사의 비전, 신기술, 고객 사례를 소개했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01