• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "데이터"에 대한 통합 검색 내용이 16,249개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
AWS, 포괄적 AI 에이전트 플랫폼 ‘아마존 베드록 에이전트코어’ 출시
아마존웹서비스(AWS)가 포괄적인 에이전틱 플랫폼인 ‘아마존 베드록 에이전트코어(Amazon Bedrock AgentCore)’를 출시한다고 발표했다. AWS는 “미션 크리티컬 시스템 구축 경험을 바탕으로 개발된 아마존 베드록 에이전트코어는 안전하고 신뢰할 수 있으며 확장 가능한 종합 에이전트 플랫폼으로, 에이전트의 비결정적 특성에 최적화된 프로덕션 환경을 제공한다”고 소개했다. 에이전트코어는 기업이 AI 에이전트를 파일럿에서 프로덕션까지 신속하게 전환하고 개발자가 에이전트를 구축, 배포, 운영하는 데 필요한 완전한 기반을 제공한다. 개발자는 복잡한 워크플로를 처리할 수 있도록 에이전트에 도구, 메모리, 데이터를 손쉽게 연결할 수 있으며, 몇 줄의 코드로 안전하고 확장 가능한 런타임 환경에 배포할 수 있다. 또한 엔터프라이즈급 접근 제어 및 관리 기능을 통해 안정적으로 운영할 수 있다. 이 모든 기능은 인프라를 관리 없이 원하는 모델이나 프레임워크를 자유롭게 선택해 쉽게 시작할 수 있다. 에이전트코어는 구축부터 배포, 운영까지 에이전트 개발 수명주기 전반에 걸쳐 완전 관리형 서비스를 제공하는 에이전틱 플랫폼이다. 기업은 원하는 모델이나 프레임워크를 자유롭게 조합해 사용할 수 있으며 엔터프라이즈급 인프라 및 도구에 대한 액세스와 함께 높은 유연성을 제공한다. 에이전트코어는 통합 또는 개별 사용이 가능한 컴포저블(composable) 서비스를 제공한다. 기업은 크루AI, 구글 ADK, 랭그래프, 라마인덱스, 오픈AI 에이전트 SDK, 스트랜드 에이전트 등 선호하는 프레임워크와 아마존 베드록에서 제공되는 모델 또는 오픈AI, 제미나이 등 아마존 베드록 외부 모델을 사용하여 필요한 에이전트코어 서비스를 선택할 수 있다.     에이전트코어 코드 인터프리터(AgentCore Code Interpreter)는 격리된 환경에서 에이전트가 코드를 안전하게 생성하고 실행할 수 있게 하며, 에이전트코어 브라우저(AgentCore Browser)는 대규모 웹 애플리케이션 상호작용을 지원한다. 에이전트코어 게이트웨이(AgentCore Gateway)는 기존 API와 AWS 람다(AWS Lambda) 함수를 에이전트 호환 도구로 전환하고 기존 모델 컨텍스트 프로토콜(Model Context Protocol : MCP) 서버에 연결하며, 지라, 아사나, 젠데스크 등 서드파티 비즈니스 도구 및 서비스와의 원활한 통합을 제공한다. 에이전트코어 아이덴티티(AgentCore Identity)를 통해 에이전트는 오스(OAuth) 표준을 사용한 적절한 인증 및 권한 부여로 이러한 도구에 안전하게 액세스하고 운영할 수 있다. AI 에이전트는 컨텍스트를 유지하고 상호작용을 통해 학습할 수 있어야 한다. 에이전트코어 메모리(AgentCore Memory)는 개발자가 복잡한 메모리 인프라를 관리하지 않고도 정교하고 컨텍스트를 인식하는 경험을 만들 수 있도록 지원하며, 에이전트가 사용자 선호도, 과거 상호작용, 관련 컨텍스트에 대한 상세한 이해를 구축하고 유지할 수 있게 한다. 아마존 클라우드워치(Amazon CloudWatch) 기반의 에이전트코어 옵저버빌리티(AgentCore Observability)는 실시간 대시보드와 상세한 감사 추적을 통해 포괄적인 모니터링을 제공한다. 기업은 모든 에이전트 작업을 추적하고 문제를 신속하게 디버깅하며 성능을 지속적으로 최적화할 수 있다. 오픈텔레메트리(OpenTelemetry : OTEL) 호환성을 통해 다이나트레이스, 데이터독, 아리제 피닉스, 랭스미스, 랭퓨즈 등 기존 모니터링 도구와 통합된다. 에이전트 워크로드는 기존 애플리케이션과 달리 실행 시간이 불규칙하다. 에이전트코어 런타임(AgentCore Runtime)은 이러한 변동성(variability)에 대응해 필요에 따라 제로에서 수천 개의 세션으로 자동 확장되며 장시간 실행 작업을 위한 업계 최고 수준의 8시간 런타임을 제공한다. 에이전트코어는 에이전트가 안전하게 작동할 수 있도록 모든 서비스에 보안을 내장했다. 가상 프라이빗 클라우드(VPC) 환경과 AWS 프라이빗링크(AWS PrivateLink)를 지원하여 네트워크 트래픽을 비공개로 안전하게 유지한다. 에이전트코어 런타임은 마이크로VM 기술을 통해 매우 높은 수준의 보안을 제공하여 각 에이전트 세션에 고유한 격리된 컴퓨팅 환경을 제공함으로써 데이터 유출을 방지하고 모든 상호작용의 무결성을 유지한다. 에이전트코어는 키로(Kiro), 커서AI(Cursor A)I와 같은 통합 개발 환경(IDE)과 호환되는 MCP 서버를 통해 프로덕션급 에이전트 구축을 지원한다. AWS는 “시작까지 단 몇 분밖에 걸리지 않지만 이는 단순한 도구가 아니라 강력한 보안을 유지하면서 제로에서 수천 개의 세션으로 즉시 확장할 수 있는 완전한 기능의 프로덕션급 설루션”이라고 소개했다. 아마존 디바이스 운영 및 공급망(Amazon Devices Operations & Supply Chain) 팀은 에이전트코어를 사용하여 에이전틱 제조 접근 방식을 개발하고 있다. AI 에이전트들은 제품 사양을 사용하여 함께 작업하며 수동 프로세스를 자동화하며 협업한다. 한 에이전트는 제품 요구사항을 읽고 품질 관리를 위한 상세한 테스트 절차를 만들고, 다른 에이전트는 제조 라인의 로봇에 필요한 비전 시스템을 훈련시킨다. 그 결과 기존에 며칠이 걸리던 객체 감지 모델 미세 조정이 1시간 이내에 높은 정밀도로 단축됐다. 에이전트코어는 뭄바이, 싱가포르, 시드니, 도쿄, 더블린, 프랑크푸르트, 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오리건) 등 9개 AWS 리전에서 정식 출시됐다. 기업은 에이전트코어에서 작동하도록 설계된 AWS 마켓플레이스(AWS Marketplace)의 사전 구축된 에이전트 및 도구를 통해 가치 실현 시간을 가속화할 수 있다.
작성일 : 2025-10-17
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
Arm, 향상된 AI 경험 제공 위해 메타와 전략적 파트너십 강화
Arm은 메타(Meta)와 AI 소프트웨어부터 데이터센터 인프라에 이르는 컴퓨팅의 전 영역에서 AI 효율성을 확장하기 위해 전략적 파트너십을 강화했다고 밝혔다. 양사는 이번 협력을 통해 전 세계 수십억 명의 사용자에게 한층 향상된 AI 경험을 제공할 계획이다. 온디바이스 인텔리전스를 지원하는 밀리와트급 저전력 디바이스부터 최첨단 AI 모델 학습을 담당하는 메가와트급 대규모 시스템까지, 메타의 글로벌 플랫폼을 구동하는 전 영역의 컴퓨팅 환경에서 AI 성능을 최적화하겠다는 것이다. 이번 전략적 파트너십 강화는 양사가 다년간 지속해온 하드웨어 및 소프트웨어 공동 설계 협력을 기반으로 한다. Arm의 전력 효율적 AI 컴퓨팅 기술력과 메타의 AI 제품, 인프라, 오픈소스 기술 혁신을 결합해 성능과 효율성을 대폭 향상시키는 것을 목표로 한다. 페이스북과 인스타그램 등 메타 앱 제품군 전반의 검색 및 개인화를 지원하는 메타의 AI 기반 순위 및 추천 시스템은 x86 시스템 대비 고성능, 저전력 소비를 제공하기 위해 Arm 네오버스(Neoverse) 기반 데이터센터 플랫폼을 활용할 예정이다. 네오버스는 메타가 인프라 전반에 걸쳐 전력 대비 성능 효율을 달성할 수 있도록 지원하며, 하이퍼스케일 환경에서 Arm 컴퓨팅의 효율과 확장성을 강화한다. 양사는 컴파일러와 라이브러리부터 주요 AI 프레임워크에 이르기까지 메타의 AI 인프라 소프트웨어 스택을 Arm 아키텍처에 최적화하기 위해 긴밀히 협력했다. 여기에는 Facebook GENeral Matrix Multiplication(FBGEMM) 및 파이토치(PyTorch)와 같은 오픈소스 구성 요소의 공통 튜닝을 포함되며, Arm의 벡터 확장 기능과 성능 라이브러리를 활용해 추론 효율과 처리량에서 측정 가능한 향상을 이뤘다. 이러한 최적화는 오픈 소스 커뮤니티에 제공되어 글로벌 AI 에코시스템 전반에 영향력을 확대하고 있다. 이번 파트너십은 파이토치 머신러닝 프레임워크, ExecuTorch 엣지 추론 런타임 엔진, vLLM 데이터센터 추론 엔진 전반에 걸쳐 AI 소프트웨어 최적화를 한층 강화한다. 특히 Arm KlediAi로 최적화된 ExecuTorch 기반을 고도화해 수십억 대의 기기에서 효율성을 높이고, 모델 배포를 더욱 간소화함으로써 에지에서 클라우드까지 AI 애플리케이션 성능을 가속화할 예정이다. 이러한 오픈소스 기술 프로젝트는 메타 AI 전략의 핵심으로, 추천 시스템부터 대화형 인텔리전스에 이르기까지 다양한 AI 개발과 배포를 가능하게 한다. 양사는 앞으로도 오픈소스 프로젝트에 대한 최적화를 지속 확장해 전 세계 수백만명의 개발자가 Arm 기반 환경에서 더욱 효율적인 AI를 구축하고 배포할 수 있도록 지원할 계획이다. 메타의 산토시 야나르단(Santosh Janardhan) 인프라 부문 대표는 “플랫폼 경험부터 우리가 만드는 디바이스에 이르기까지, AI는 사람들이 연결하고 창조하는 방식을 변화시키고 있다”면서, “Arm과의 파트너십을 통해 메타 애플리케이션 및 기술을 사용하는 30억 명이 넘는 사용자에게 혁신을 효율적으로 제공할 수 있게 됐다”고 밝혔다. Arm의 르네 하스(Rene Haas) CEO는 “차세대 AI 시대는 대규모 효율성을 실현하는 것이 핵심이 될 것”이라며, “메타와의 협력을 통해 Arm의 전력대비 성능 우위와 메타의 AI 혁신 역량을 결합해 밀리와트급부터 메가와트급까지 모든 영역에서 더욱 스마트하고 효율적인 인텔리전스를 구현할 것”이라고 말했다.
작성일 : 2025-10-17
어도비, 기업용 LLM 옵티마이저 출시… AI 기반 챗 서비스 및 브라우저 전반 가시성 제고
어도비가 ‘어도비 LLM 옵티마이저(Adobe LLM Optimizer)’의 정식 출시를 발표했다. 새로운 기업용 애플리케이션은 생성형 AI 기반 인터페이스가 빠르게 확산되는 시대에 기업이 브랜드의 연관성과 영향력을 확보할 수 있도록 지원한다. LLM 옵티마이저를 통해 기업은 생성형 엔진 최적화(GEO : Generative Engine Optimization)를 위한 포괄적인 설루션을 활용할 수 있다. 가령, AI 기반 트래픽을 모니터링하고 브랜드 가시성을 벤치마킹할 수 있으며, 자사 디지털 채널은 물론 브랜드가 인용되는 서드 파티 디지털 채널에서 발견 가능성을 향상시키기 위한 방법을 취할 수 있다. AI 기반 챗 서비스와 브라우저는 소비자들이 제품을 검색하고 조사하는 데 필수적인 툴이 되었다. 어도비의 최신 데이터에 따르면, 기업들이 디지털 존재감을 재정비해야 할 필요성이 그 어느 때보다 커지고 있다. 2025년 9월 기준, 어도비는 미국 소매 웹사이트로 유입된 AI 트래픽이 전년 대비 1100% 증가한 것을 확인했다. 생성형 AI 소스를 통한 방문자는 비 AI 트래픽(유료 검색, 제휴사 및 파트너, 이메일, 오가닉 검색, 소셜 미디어 등) 유입 대비 체류 시간 및 페이지 뷰 등과 같은 참여도는 12%,  전환율은 5% 각각 더 높게 나타났다. 이는 디지털 행동의 근본적인 변화를 시사하는 것으로, AI가 제품 검색 단계에서 더 많은 정보를 가진 소비자를 만들어내는 만큼 기업은 뒤처지지 않도록 대비해야 한다는 것이 어도비의 설명이다.     기업용 어도비 LLM 옵티마이저는 ▲AI 기반 트래픽, 인용 측정 및 벤치마킹 ▲가시성 향상을 위한 콘텐츠 및 코드 최적화 ▲비즈니스 가치 입증 등의 기능을 제공한다. LLM 옵티마이저는 AI 인터페이스가 사용자 질의에 대한 응답을 제공하는 데 활용하는 자사 콘텐츠를 식별할 수 있다. 이를 통해 LLM이 우선시하는 디지털 채널(예 : 특정 웹 페이지)을 파악하고 AI 추천의 변화를 모니터링할 수 있다. 또한 벤치마킹을 통해 가치가 높은 질의에서 경쟁사 대비 가시성을 평가할 수 있다. LLM 옵티마이저의 초기 고객 분석 결과, 80%가 AI 접점이 주요 제품 정보나 리뷰에 접근하지 못하는 문제를 안고 있었다. 이를 해결하기 위해 LLM 옵티마이저 내 추천 엔진은 브랜드 가시성 격차를 감지하고, 웹페이지와 FAQ 같은 자사 채널 및 위키피디아, 공개 포럼 등의 외부 채널 전반을 아우르는 개선 사항을 제안한다. 여기에는 콘텐츠 최적화뿐 아니라 누락되거나 잘못된 메타데이터 같은 기술적 수정 사항이 포함되며, LLM이 인식하지 못하는 웹 사이트 영역을 자동 감지해 콘텐츠 가시성을 높이는 조치도 해당된다. 이를 통해 팀은 한 번의 클릭으로 최적화 방안을 검토, 승인 및 배포할 수 있어 인사이트를 실질적인 성과로 전환할 수 있다.   또한, LLM 옵티마이저는 AI 가시성을 사용자 행동과 비즈니스 성과로 연결하는 기여도 기능을 제공한다. 이로써 참여도 및 전환율에 미치는 영향을 입증할 수 있고, 즉시 사용 가능한 리포트 기능을 활용해 조직 전반에 인사이트를 빠르게 공유할 수 있다. LLM 옵티마이저는 단독 애플리케이션으로 제공되며, 콘텐츠 관리 시스템인 어도비 익스피리언스 매니저 사이트(Adobe Experience Manager Sites)와 네이티브 통합된다. 또한 에이전트 투 에이전트(A2A) 및 모델 컨텍스트 프로토콜(MCP)과 같은 업계 표준을 지원해, 다양한 서드파티 설루션 워크플로와의 원활한 상호운용성을 제공한다. 어도비는 누구나 쉽게 AI 가시성 인사이트를 활용할 수 있도록 LLM 옵티마이저 기반 무료 크롬 확장 프로그램 ‘Is Your Webpage Citable?’도 출시했다. 이 도구를 통해 LLM이 웹사이트에서 인식하는 내용과 놓치는 부분을 확인할 수 있어,  AI 가시성의 숨겨진 격차를 발견할 수 있다. LLM 옵티마이저는 이 같은 기본 인사이트를 바탕으로 엔터프라이즈급 측정, 최적화 및 보고 기능을 포함한 종합 설루션을 제공한다. 어도비의 로니 스타크(Loni Stark) 익스피리언스 클라우드 전략 및 제품 부문 부사장은 “생성형 엔진 최적화는 경영진의 주요 관심사로 급부상하고 있으며, 선도 기업들은 이미 다양한 AI 채널에서 영향력을 구축하고 경쟁 우위를 확보하고 있다”면서, “어도비 LLM 옵티마이저는 자사 사이트 및 타 채널에서의 브랜드 성과 인사이트를 바탕으로 자동으로 최적화 조치를 취하는 즉각적인 가치를 제공함으로써, 기업이 급변하는 환경 속에서 두각을 드러낼 수 있도록 지원한다”고 전했다.
작성일 : 2025-10-17
세일즈포스, “오픈AI·앤트로픽 파트너십 통해 에이전트포스 360 강화”
세일즈포스는 오픈AI 및 앤트로픽과의 전략적 파트너십을 기반으로 에이전트포스 360과 챗지피티(ChatGPT), 클로드 등 플랫폼과의 통합을 지원하는 한편, 차세대 업무 환경 구축과 커머스 경험 혁신을 지원하기 위한 역량을 지속 강화해 나갈 것이라는 비전을 밝혔다. 이번 세일즈포스와 오픈AI의 파트너십을 기반으로 세일즈포스의 고객은 이제 챗지피티에서도 ‘에이전트포스 360’ 앱을 직접 활용하여 자연어로 기록 조회, 고객 대화 분석, 태블로 데이터 시각화 등의 작업을 수행할 수 있다. 또한 GPT-5를 포함한 오픈AI의 최신 모델을 기반으로 세일즈포스 플랫폼 내에서도 AI 에이전트와 프롬프트를 생성할 수 있게 된다. 오픈AI와 세일즈포스는 앞으로도 챗지피티와 슬랙 등 양사의 대표 플랫폼을 통해 업무 생산성 제고를 위한 에이전틱 AI 기반의 협업 환경 구축을 지원할 계획이다. 나아가 세일즈포스는 ‘에이전트포스 커머스(Agentforce Commerce)’를 챗지피티의 ‘즉시결제(Instant Checkout)’ 및 ‘에이전틱 커머스 프로토콜(Agentic Commerce Protocol)’과 통합한다고 밝혔다. 이를 통해 커머스 기업은 주문, 결제, 고객 관계 등 핵심 프로세스에 대한 통제권을 유지하면서도 새로운 유통 채널을 기반으로 수억 명의 잠재 고객에게 제품을 판매할 수 있는 역량을 확보할 수 있다.     슬랙과 클로드의 통합 기능도 공개됐다. 세일즈포스는 앤트로픽과의 전략적 협업을 통해 클로드(Claude) 모델을 에이전트포스 360 내 선호 AI 모델로 통합하며, 클로드 모델을 세일즈포스의 트러스트 레이어(Trust Layer) 내에 완전히 통합한 최초의 LLM 제공업체라고 소개했다. 세일즈포스는 이번 파트너십을 기반으로 금융·헬스케어·사이버보안 등 규제가 엄격하고 민감한 데이터를 다루는 산업에서도 데이터를 안전하게 보호 및 활용할 수 있는 ‘엔터프라이즈 AI’를 제공하겠다는 의지를 밝혔다. 이에 따라 슬랙의 사용자는 이제 클로드와의 양방향 통합을 통해 문서 분석, 데이터 기반 의사결정, 문서 권한 관리와 같은 업무를 슬랙 내에서 신속하게 수행할 수 있다. 특히 ‘에이전트포스 금융 서비스(Agentforce Financial Services)’와 연계해 산업 내 규제를 준수하면서도 금융 상품 분석, 보험 청구 처리, 고객 포트폴리오 요약 등의 핵심 업무를 자동화하는 것이 가능하다. 대표적으로 ‘크라우드스트라이크(CrowdStrike)’와 ‘RBC 자산 관리(RBC Wealth Management)’와 같은 기업들은 이미 에이전트포스에서 클로드를 활용하여 AI 기반의 새로운 고객 경험을 제공하고 있다. 한편, 세일즈포스는 차세대 AI 기업 대상의 투자를 확대하며, 중장기적인 AI 생태계 지원 의지를 밝혔다. 세일즈포스의 자체 글로벌 투자 기업인 ‘세일즈포스 벤처스(Salesforce Ventures)’는 지난해 드림포스에서 출범한 10억 달러 규모의 AI 펀드 중 75% 이상을 차세대 엔터프라이즈 AI 기업에 투입했다. 현재까지 총 2200억 달러 규모로 성장한 35개 기업에 투자하며 엔터프라이즈 AI 분야의 선도 벤처 캐피털로 자리매김한 세일즈포스 벤처스는 기존 포트폴리오 기업에 대한 투자를 25% 이상 확대할 계획이라고 전했다. 세일즈포스 벤처스의 AI 펀드 포트폴리오에는 앤트로픽, 코히어, 일레븐랩스, 투게더 AI, 런웨이 등의 혁신 기업과, 팔 AI, 월드 랩스, 라이터 등의 스타트업이 포함됐다.  세일즈포스 코리아의 박세진 대표는 “세일즈포스는 오픈AI 및 앤트로픽과 같은 글로벌 파트너와의 긴밀한 협력을 통해 기업들이 AI를 기반으로 한 차세대 업무 환경에서 혁신적인 고객 경험을 제공할 수 있는 ‘에이전틱 엔터프라이즈’로의 전환을 지원하고 있다”면서, “에이전트포스 360은 직원과 고객 모두에게 보다 효율적이고 개인화된 경험을 제공하기 위한 핵심 플랫폼으로 자리매김할 것이며, AI 에이전트가 지닌 무한한 잠재력을 기반으로 국내 기업들과 함께 만들어 나갈 새로운 혁신 여정이 매우 기대된다”고 전했다.
작성일 : 2025-10-16
지멘스, 심센터 테스트랩에 AI 기능 추가해 모달 테스트 및 분석 프로세스 혁신
지멘스 디지털 인더스트리 소프트웨어가 심센터 테스트랩(Simcenter Testlab) 소프트웨어의 최신 업데이트를 발표했다. 이번 업데이트에는 AI 기반 워크플로가 새롭게 추가돼, 물리적 충격(임팩트) 테스트 수행 시 필요 인력을 줄이면서 모달(modal) 분석 프로세스를 최대 7배까지 가속화할 수 있다. 또한 자동화된 데이터 수집과 처리 기능이 강화돼 모든 테스트 단계에서 데이터 품질과 일관성을 향상시킨다. 이를 통해 엔지니어는 더욱 빠르고 스마트하게 테스트를 수행할 수 있게 됐다. 새로운 AI 지원 모달 분석은 복잡한 모드 선택과 검증을 자동화해 수동 작업과 작업자 의존도를 줄이고, 궁극적으로 모달 분석 속도를 최대 7배까지 가속화한다. 이러한 테스트 자동화 혁신의 최전선에는 AI 기반 모달 테스트 기능이 있다. 이 기능은 향상된 자동 모드 선택·검증과 전체 모달 테스트 워크플로를 간소화하는 통합 모달 분석 대시보드를 결합해 모달 분석 워크플로를 최대 700%까지 가속화한다. 또한 지능형 센서 배치와 자동 히트(hit) 선택을 통해 충격 데이터 수집 과정을 단순화하고 필요한 인력을 줄여준다.     이와 함께, 심센터 테스트랩은 향상된 테스트/분석 도구를 제공한다. Transfer Path Analysis(TPA)는 심센터 테스트랩의 새로운 자동화 기능과 처리 역량을 통해 전체 분석 시간을 40% 단축한다. 이를 통해 숙련도가 낮은 사용자도 정교한 소음·진동·불쾌감(Noise Vibration Harshness, NVH) 예측을 보다 쉽게 활용할 수 있다. 심센터(Simcenter) 물리적 테스트 하드웨어와 새로운 심센터 테스트랩 오토메이티드 컴포넌트 모델 익스트랙터(Simcenter Testlab Automated Component Model Extractor) 소프트웨어를 활용한 자동화된 컴포넌트 모델 추출 설루션을 통해, 차단력(blocked forces)과 임피던스(impedance) 주파수 응답 함수(Frequency Response Function : FRF)를 자동으로 수집한다. 결과적으로 컴포넌트 특성화에 소요되는 시간을 수 주에서 수 시간으로 단축할 수 있다. 심센터 테스트랩 스케줄 디자이너(Simcenter Testlab Schedule Designer)는 사전 정의된 시퀀스(sequence)로 데이터 처리와 검증을 자동화한다. 이를 통해 데이터 추적성을 제공하고, 불완전하거나 일관성 없는 테스트 데이터 발생 위험을 제거할 수 있다. 이번 업데이트는 스케줄 디자이너에서 정의된 테스트 계획을 심센터 SCADAS RS 데이터 수집 시스템의 Recorder App으로 원활하게 전송한다. 이 통합을 통해 작업자는 무선 태블릿 기반의 명확한 지침을 제공받을 수 있으며, 즉각적인 데이터 검증과 처리가 가능해져 오류를 줄일 수 있다. 지멘스는 심센터 SCADAS RS가 범용 또는 타사 형식으로 데이터를 내보낼 수 있으며, 이를 통해 다른 소프트웨어 플랫폼에서도 데이터 처리와 분석 수행이 가능하다고 소개했다. 지멘스 디지털 인더스트리 소프트웨어의 장클로드 에르콜라넬리(Jean-Claude Ercolanelli) 시뮬레이션 및 테스트 설루션 부문 수석 부사장은 “지멘스는 엔지니어링 수명주기 전반에 걸쳐 AI를 적극 활용해 프로세스와 워크플로를 간소화하고, 수작업을 최소화하며, 제품 출시 속도를 높이는 데 주력하고 있다. 이번 심센터 테스트랩의 최신 개선 사항은 AI를 통합해 팀이 물리적 테스트를 수행·관리·분석하는 방식을 혁신하기 위한 지멘스의 노력을 보여준다. 우리는 설계와 개발에서부터 물리적 테스트의 핵심 단계에 이르기까지 엔지니어링 관행의 중대한 변화를 이끌고 있다”고 말했다.
작성일 : 2025-10-16
오라클, 대규모 클라우드 AI 클러스터 ‘OCI 제타스케일10’ 공개
오라클이 클라우드 환경 내의 대규모 AI 슈퍼컴퓨터인 ‘오라클 클라우드 인프라스트럭처(OCI) 제타스케일10(Zettascale10)’을 발표했다. OCI 제타스케일10은 여러 데이터센터에 걸쳐 수십만 개의 엔비디아 GPU를 연결하여 멀티 기가와트급 클러스터를 형성하며, 최대 16 제타플롭스(zettaFLOPS)에 이르는 성능을 제공한다. OCI 제타스케일10은 스타게이트의 일환으로 미국 텍사스주 애빌린에서 오픈AI(OpenAI)와 협력하여 구축한 대표 슈퍼클러스터를 구성하는 기반 패브릭이다. 차세대 오라클 액셀러론 RoCE(Oracle Acceleron RoCE) 네트워킹 아키텍처를 기반으로 구축된 OCI 제타스케일10은 엔비디아 AI 인프라로 구동된다. 오라클은 강화된 확장성, 클러스터 전반에 걸친 초저지연 GPU-GPU 통신, 가격 대비 높은 성능, 향상된 클러스터 활용도, 대규모 AI 워크로드에 필요한 안정성을 제공한다는 점을 내세운다. OCI 제타스케일10은 2024년 9월 출시된 첫 번째 제타스케일 클라우드 컴퓨팅 클러스터의 차세대 모델이다. OCI 제타스케일10 클러스터는 대규모 기가와트급 데이터센터 캠퍼스에 배치되며, 2킬로미터 반경 내에서 밀도를 높여 대규모 AI 학습 워크로드에 최적화된 GPU-GPU 지연 성능을 제공한다. 이 아키텍처는 오픈AI와 협력하여 애빌린 소재 스타게이트 사이트에 구축 중에 있다. OCI는 고객에게 OCI 제타스케일10의 멀티기가와트 규모 배포를 제공할 계획이다. 초기에는 최대 80만 개의 엔비디아GPU를 탑재한 OCI 제타스케일10 클러스터 배포를 목표로 한다. 이는 예측 가능한 성능과 강력한 비용 효율을 제공하며, 오라클 액셀러론의 초저지연 RoCEv2 네트워킹으로 높은 GPU-GPU 대역폭을 구현한다. OCI는 현재 OCI 제타스케일10 주문을 접수 중이라고 전했다. 이 제품은 2026년 하반기 출시 예정으로, 최대 80만 개의 엔비디아 AI 인프라 GPU 플랫폼을 기반으로 제공될 예정이다. 오라클의 마헤쉬 티아가라얀 OCI 총괄 부사장은 “OCI 제타스케일10을 통해 우리는 OCI의 혁신적인 오라클 액셀러론 RoCE 네트워크 아키텍처를 차세대 엔비디아 AI 인프라와 결합해 전례 없는 규모에서 멀티기가와트급 AI 용량을 제공한다. 고객은 성능 단위당 전력 소비를 줄이면서 높은 안정성을 달성해 가장 큰 규모의 AI 모델을 실제 운영 환경에 구축, 훈련 및 배포할 수 있다. 또한 강력한 데이터 및 AI 주권 제어 기능을 통해 오라클의 분산형 클라우드 전반에서 자유롭게 운영할 수 있다”고 말했다. 오픈AI의 피터 호셸레(Peter Hoeschele) 인프라 및 산업 컴퓨팅 부문 부사장은 “OCI 제타스케일10 네트워크 및 클러스터 패브릭은 오라클과 함께 구축한 슈퍼클러스터인 텍사스주 애빌린에 위치한 대표 스타게이트 사이트에서 최초로 개발 및 배포되었다. 고도로 확장 가능한 맞춤형 RoCE 설계는 기가와트 규모에서 패브릭 전체 성능을 극대화하면서도 대부분의 전력을 컴퓨팅에 집중시켜 준다. 오라클과 협력하여 애빌린 사이트를 비롯한 스타게이트 프로젝트 전반을 전개해 나갈 수 있어 매우 기쁘게 생각한다”고 말했다.
작성일 : 2025-10-16
슈나이더 일렉트릭, 실시간 모터 관리 설루션으로 해양산업 효율 향상 지원
슈나이더 일렉트릭이 조선·해양 산업의 설비 운용 효율과 안정성을 높일 수 있는 방법으로 자사의 실시간 모터 관리 설루션인 ‘테시스 테라(TeSys Tera)’를 제시했다. 조선·해양 산업에서 모터는 전기 에너지를 회전 및 기계 에너지로 변환하는 핵심 장비로, 전체 전력 소비의 약 80%를 차지할 만큼 에너지 소모가 큰 설비다. 때문에 모터의 안정적인 운전과 체계적인 유지관리는 산업 전반의 효율과 직결되며, 최근에는 친환경 규제 강화 및 스마트 선박 기술 도입에 따라 더욱 정교한 모터 관리 설루션의 필요성이 부각되고 있다. 슈나이더 일렉트릭의 테시스 테라는 이러한 산업 트렌드에 부합하는 디지털 기반의 고도화된 모터 관리 시스템이다. 테시스 테라는 지정된 통신 버스를 통해 모터의 상태, 운전 전류, 전압, 전력, 역률, 외부 냉각 팬 동작까지 실시간으로 수집·모니터링하며, 인더스트리 4.0 표준을 충족해 중앙 제어 시스템과의 연동을 지원한다. 슈나이더 일렉트릭은 “특히 모터 권선과 베어링, 본체 온도를 측정하는 외부 센서를 통해 과열이나 냉각 이상 등 이상 징후를 사전에 감지할 수 있어 치명적인 고장을 예방하고 유지보수 비용을 절감에도 기여한다. 또한 고조파까지 정밀하게 측정할 수 있는 기능은 슈나이더 일렉트릭의 고도화된 전력 관리 기술력을 잘 보여준다”고 소개했다.     진단 기능과 관련해서는 각 보호 기능별 트립(차단) 횟수를 개별적으로 기록하며, 최대 100개의 이벤트를 시간 정보와 함께 순차적으로 저장하는 FIFO(선입선출) 방식 로그 기능을 지원한다. 더불어 열 메모리, 선 전류, 접지 전류 등 20개의 상세 고장 로그를 기록해 고장 원인 분석과 시스템 개선에 유용한 데이터를 제공한다. 시동 전류 곡선은 최대 250포인트까지 기록할 수 있어, 실제 운전 조건에 따른 보호 설정(Trip Class 등)을 최적화할 수 있으며, 시간 기반의 로그 데이터는 공정 정지나 시스템 장애 발생 시 정확한 사건 순서(SOE)를 파악할 수 있게 해준다. 이는 24시간 가동이 필수적인 조선·해양 현장에서 더욱 높은 신뢰성과 운영 효율성을 확보하는 데 도움이 된다. 아울러 테시스 테라는 온도 센서를 활용해 모터 권선, 베어링, 본체 각각에 대해 개별적인 보호 기능을 제공해 과열로 인한 손상을 사전에 방지한다. 모든 보호 기능은 활성화/비활성화, 경보 및 차단 수준 설정, 자동 또는 원격 리셋 기능(시간 지연 포함) 등 사용자가 공정 환경에 맞춰 완벽하게 구성할 수 있다. 또 외부 디지털·아날로그 입력도 고장 조건으로 인식하도록 설정 가능하다. 사용자 친화적인 소프트웨어 인터페이스도 특징이다. 윈도우 기반의 다국어 지원 소프트웨어는 메뉴와 아이콘 중심의 직관적인 UI를 제공한다. 동일 기능 내 여러 데이터를 한 화면에서 탐색할 수 있도록 안내형 내비게이션을 지원함으로써, 복잡한 설정이나 진단 과정도 간소화했다. 또한 별도의 HMI(Human-Machine Interface)를 통해 현장에서 직접 제어기 구성 및 파라미터 변경이 가능하며, 제어 키패드가 내장된 HMI는 상태 확인과 제어 명령을 로컬에서 즉시 수행할 수 있어 네트워크 연결이 원활하지 않은 환경에서도 독립적인 운용이 가능하다. 슈나이더 일렉트릭 코리아 파워 프로덕트 사업부의 김은지 본부장은 “슈나이더 일렉트릭의 디지털 모터 관리 설루션 테시스 테라는 실시간 디지털 모니터링과 정밀한 보호 기능을 통해 모터의 성능 저하와 고장을 사전에 방지함으로써 조선 및 해양 산업의 안전성과 생산성을 높이는 필수적인 설루션으로 주목받고 있다”고 말했다. 한편 슈나이더 일렉트릭 코리아는 오는 10월 21일부터 부산 벡스코에서 개최되는 조선·해양 산업 전문 전시회인 ‘코마린(KORMARINE) 2025’에 참가해 테시스 테라를 선보일 예정이라고 전했다.
작성일 : 2025-10-16
크렐로, ISO 27001 인증 획득… “글로벌 제조 파트너로 도약 추진”
크렐로가 국제표준화기구(ISO)의 정보보안경영시스템 인증(ISO 27001)을 획득했다고 밝혔다. 크렐로는 AI 기반 산업 맞춤 온라인 제조 서비스를 제공하는 기업으로, 3D 프린팅, CNC 가공, 판금, 진공주형, 금형 사출 등 다양한 생산 기술을 활용해 시제품부터 대량 생산까지 개인 및 기업이 빠르고 안정적으로 제조를 시작할 수 있는 인프라를 제공한다.  ISO 27001 프레임워크는 정보 보안 관리에 필요한 핵심 요소(위험 관리, 접근 통제, 물리적 보안, 운영 절차 등)를 통합적이고 체계적으로 관리할 수 있도록 설계되어 있다. ISO 27001은 국제적으로 검증된 정보보안 관리 체계를 충족했음을 의미한다. 이에 따라 파일 접근 권한 관리, 기록 추적, 파일 반출 통제, 물리적 접근 차단 등 전 과정을 글로벌 표준에 맞춰 운영한다. 고객의 도면과 기술 자료 역시 NDA 체결 여부와 관계없이 체계적인 보안 체계 아래 안전하게 관리된다는 것이 크렐로의 설명이다.   크렐로는 “이미 ISO 9001:2015(품질경영시스템)와 ISO 14001(환경경영시스템)을 보유한 데 이어 이번 인증 획득으로 품질·환경·보안을 아우르는 글로벌 수준의 경영 체계를 공식적으로 인정받았다”고 전했다. 또한, “크렐로는 품질, 보안, 환경을 모두 관리 체계 안에 포함시키며 안정성과 신뢰를 확보하고, 지속 가능한 성장을 추구하는 전략적 행보를 이어가고 있다. 특히 로봇, 드론, 자동차 등 첨단 제조 산업의 B2B 기업이 요구하는 보안 기준을 충족하는 데 큰 의미가 있다”고 설명했다. 이번 ISO 27001 인증을 더함으로써 크렐로는 일관된 품질 관리, 고객 데이터 보호 책임 및 지속 가능한 경영을 지속하겠다는 뜻을 밝혔다.   크렐로의 김희중 대표는 “크렐로는 이번 ISO 27001 인증을 통해 품질, 환경, 보안 요건을 모두 충족하는 체계를 갖추게 되었다. 이러한 체계는 제조 서비스 기업이 지켜야 할 기본이지만, 업계에서는 드물게 운영되는 수준”이라면서, “이번 인증은 단순한 내부 체계 구축을 넘어, 보안을 최우선으로 하는 산업군에도 안심할 수 있는 파트너가 되겠다는 약속이다. 앞으로도 고객 여러분께 신뢰와 안정성, 그리고 지속가능한 제조 환경을 제공하겠다”고 밝혔다.
작성일 : 2025-10-15
유라, 캐드바이저에 배선도 및 작업지시서 자동 생성 기능 탑재
유라가 자사의 전장 설계 설루션 ‘캐드바이저(CADvizor)’에 제조 설계 자동화 시스템을 선보였다고 전했다. 차량 전장용 와이어링 하네스 생산 기업인 유라는 IT 사업 본부를 통해 제품 개발과 생산에 필요한 다양한 설루션을 자체 개발해 공급하고 있다. 그 중 캐드바이저는 전기 설계를 위한 ECAD 제품으로, 전장 와이어링 하네스 설계에 최적화된 설루션을 제공한다. 이번 제조 설계 자동화 시스템 도입으로 조인트는 이제 수동 배치 대신 3D 경로 데이터를 바탕으로 와이어 길이와 재질 단가를 함께 고려해, 총비용이 최소가 되는 지점에 자동 배치된다. 이 결과가 제조용 배선도에 자동 반영되고, 이어 작업지시서 생성까지 연결돼 설계부터 생산 준비까지의 흐름이 하나로 이어진다.     이번 캐드바이저의 고도화 효과에 대해 유라는 프로젝트 기준 수작업 192시간이 12시간으로 줄어 93.8%의 시간 절감이 기대된다고 설명했다. 현장에서는 자동 배치 후 간단한 검토·보정만으로 곧바로 출도가 가능하고, 원가 측면에서도 배치 최적화로 와이어 사용량이 감소해 10만 대 기준 9.0~10.5억 원 규모의 절감이 예상된다는 것이다. 캐드바이저는 특히 자동차 전장 하네스 개발·생산팀이 겪어온 빈번한 변경에 따른 배선도 재작업, 작업자별 편차, 작업지시 전달 지연 같은 문제에 대해 ‘배선도 자동 설계 − 원가 최소 배치 − 작업지시서 자동 생성’을 한 흐름으로 묶어 속도·일관성·비용 측면에서 동시에 풀어낼 수 있도록 했다. 유라는 배선도 자동 설계·원가 최소 배치·작업지시서 생성을 하나로 묶어 자동 배치 → 검토·보정 → 확정(출도)의 간결한 절차를 구축, 설계부터 생산 준비까지의 자동화를 강화했다고 밝혔다. 이어 2026년에는 회로 설계 단계에 AI 기반 자동 설계·원가 최적화·라이브러리 추천을 도입하고, 디지키·마우저 등 대형 부품 공급사 데이터와 연계해 부품 선택을 고도화함으로써 회로 설계 → 3D 경로 설계 → 제조 설계 → 작업지시서까지 전 과정을 완성할 것이라고 덧붙였다.
작성일 : 2025-10-15