• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "애플리케이션"에 대한 통합 검색 내용이 4,447개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
단군소프트, 포스트맨과 공식 파트너십 및 글로벌 파트너 선정
단군소프트는 글로벌 API 플랫폼 기업인 포스트맨(Postman)과 공식 파트너십을 체결하고, 한국 내 포스트맨 글로벌 설루션 파트너로 선정됐다고 밝혔다. 단군소프트는 “포스트맨은 전 세계에서 4000만 명 이상의 개발자가 사용하는 API(애플리케이션 프로그래밍 인터페이스) 플랫폼으로, 포천(Fortune) 500 기업의 98%가 활용 중인 대표적인 API 개발 플랫폼이다. API의 설계부터 테스트, 문서화, 배포, 협업까지 API 수명주기의 전 과정을 지원하며, 글로벌 표준 도구로 자리잡고 있다”고 소개했다. 이번 파트너십을 통해 단군소프트는 포스트맨의 한국 시장 진출을 본격화하며, 국내 기업과 개발자들에게 글로벌 수준의 API 개발 환경을 제공한다는 계획이다. 특히 한국의 API 생태계가 빠르게 확장되는 가운데, 단군소프트는 세계적 기술 도구의 도입이 국내 개발자의 글로벌 경쟁력 강화와 생산성 향상에 기여할 것으로 기대하고 있다. 포스트맨 파트너 프로그램은 애플리케이션 현대화와 개발 전 과정을 지원하는 전문화된 모델로 운영된다. 단군소프트는 이 중 최고 등급인 ‘익스퍼트(Expert)’ 티어로 선정되며, 포스트맨과의 전략적 협업을 통해 기술 서비스와 교육 프로그램을 확대할 방침이다. 단군소프트의 이승현 대표는 “단군소프트는 한국의 API 개발 수준을 글로벌 표준으로 끌어올리는 것을 목표로 하고 있다. 앞으로도 포스트맨 웨비나, 교육 과정, 전문 기술 지원 등을 통해 국내 개발자의 API 역량 강화를 적극 지원하겠다”고 전했다.
작성일 : 2025-10-22
AWS, 포괄적 AI 에이전트 플랫폼 ‘아마존 베드록 에이전트코어’ 출시
아마존웹서비스(AWS)가 포괄적인 에이전틱 플랫폼인 ‘아마존 베드록 에이전트코어(Amazon Bedrock AgentCore)’를 출시한다고 발표했다. AWS는 “미션 크리티컬 시스템 구축 경험을 바탕으로 개발된 아마존 베드록 에이전트코어는 안전하고 신뢰할 수 있으며 확장 가능한 종합 에이전트 플랫폼으로, 에이전트의 비결정적 특성에 최적화된 프로덕션 환경을 제공한다”고 소개했다. 에이전트코어는 기업이 AI 에이전트를 파일럿에서 프로덕션까지 신속하게 전환하고 개발자가 에이전트를 구축, 배포, 운영하는 데 필요한 완전한 기반을 제공한다. 개발자는 복잡한 워크플로를 처리할 수 있도록 에이전트에 도구, 메모리, 데이터를 손쉽게 연결할 수 있으며, 몇 줄의 코드로 안전하고 확장 가능한 런타임 환경에 배포할 수 있다. 또한 엔터프라이즈급 접근 제어 및 관리 기능을 통해 안정적으로 운영할 수 있다. 이 모든 기능은 인프라를 관리 없이 원하는 모델이나 프레임워크를 자유롭게 선택해 쉽게 시작할 수 있다. 에이전트코어는 구축부터 배포, 운영까지 에이전트 개발 수명주기 전반에 걸쳐 완전 관리형 서비스를 제공하는 에이전틱 플랫폼이다. 기업은 원하는 모델이나 프레임워크를 자유롭게 조합해 사용할 수 있으며 엔터프라이즈급 인프라 및 도구에 대한 액세스와 함께 높은 유연성을 제공한다. 에이전트코어는 통합 또는 개별 사용이 가능한 컴포저블(composable) 서비스를 제공한다. 기업은 크루AI, 구글 ADK, 랭그래프, 라마인덱스, 오픈AI 에이전트 SDK, 스트랜드 에이전트 등 선호하는 프레임워크와 아마존 베드록에서 제공되는 모델 또는 오픈AI, 제미나이 등 아마존 베드록 외부 모델을 사용하여 필요한 에이전트코어 서비스를 선택할 수 있다.     에이전트코어 코드 인터프리터(AgentCore Code Interpreter)는 격리된 환경에서 에이전트가 코드를 안전하게 생성하고 실행할 수 있게 하며, 에이전트코어 브라우저(AgentCore Browser)는 대규모 웹 애플리케이션 상호작용을 지원한다. 에이전트코어 게이트웨이(AgentCore Gateway)는 기존 API와 AWS 람다(AWS Lambda) 함수를 에이전트 호환 도구로 전환하고 기존 모델 컨텍스트 프로토콜(Model Context Protocol : MCP) 서버에 연결하며, 지라, 아사나, 젠데스크 등 서드파티 비즈니스 도구 및 서비스와의 원활한 통합을 제공한다. 에이전트코어 아이덴티티(AgentCore Identity)를 통해 에이전트는 오스(OAuth) 표준을 사용한 적절한 인증 및 권한 부여로 이러한 도구에 안전하게 액세스하고 운영할 수 있다. AI 에이전트는 컨텍스트를 유지하고 상호작용을 통해 학습할 수 있어야 한다. 에이전트코어 메모리(AgentCore Memory)는 개발자가 복잡한 메모리 인프라를 관리하지 않고도 정교하고 컨텍스트를 인식하는 경험을 만들 수 있도록 지원하며, 에이전트가 사용자 선호도, 과거 상호작용, 관련 컨텍스트에 대한 상세한 이해를 구축하고 유지할 수 있게 한다. 아마존 클라우드워치(Amazon CloudWatch) 기반의 에이전트코어 옵저버빌리티(AgentCore Observability)는 실시간 대시보드와 상세한 감사 추적을 통해 포괄적인 모니터링을 제공한다. 기업은 모든 에이전트 작업을 추적하고 문제를 신속하게 디버깅하며 성능을 지속적으로 최적화할 수 있다. 오픈텔레메트리(OpenTelemetry : OTEL) 호환성을 통해 다이나트레이스, 데이터독, 아리제 피닉스, 랭스미스, 랭퓨즈 등 기존 모니터링 도구와 통합된다. 에이전트 워크로드는 기존 애플리케이션과 달리 실행 시간이 불규칙하다. 에이전트코어 런타임(AgentCore Runtime)은 이러한 변동성(variability)에 대응해 필요에 따라 제로에서 수천 개의 세션으로 자동 확장되며 장시간 실행 작업을 위한 업계 최고 수준의 8시간 런타임을 제공한다. 에이전트코어는 에이전트가 안전하게 작동할 수 있도록 모든 서비스에 보안을 내장했다. 가상 프라이빗 클라우드(VPC) 환경과 AWS 프라이빗링크(AWS PrivateLink)를 지원하여 네트워크 트래픽을 비공개로 안전하게 유지한다. 에이전트코어 런타임은 마이크로VM 기술을 통해 매우 높은 수준의 보안을 제공하여 각 에이전트 세션에 고유한 격리된 컴퓨팅 환경을 제공함으로써 데이터 유출을 방지하고 모든 상호작용의 무결성을 유지한다. 에이전트코어는 키로(Kiro), 커서AI(Cursor A)I와 같은 통합 개발 환경(IDE)과 호환되는 MCP 서버를 통해 프로덕션급 에이전트 구축을 지원한다. AWS는 “시작까지 단 몇 분밖에 걸리지 않지만 이는 단순한 도구가 아니라 강력한 보안을 유지하면서 제로에서 수천 개의 세션으로 즉시 확장할 수 있는 완전한 기능의 프로덕션급 설루션”이라고 소개했다. 아마존 디바이스 운영 및 공급망(Amazon Devices Operations & Supply Chain) 팀은 에이전트코어를 사용하여 에이전틱 제조 접근 방식을 개발하고 있다. AI 에이전트들은 제품 사양을 사용하여 함께 작업하며 수동 프로세스를 자동화하며 협업한다. 한 에이전트는 제품 요구사항을 읽고 품질 관리를 위한 상세한 테스트 절차를 만들고, 다른 에이전트는 제조 라인의 로봇에 필요한 비전 시스템을 훈련시킨다. 그 결과 기존에 며칠이 걸리던 객체 감지 모델 미세 조정이 1시간 이내에 높은 정밀도로 단축됐다. 에이전트코어는 뭄바이, 싱가포르, 시드니, 도쿄, 더블린, 프랑크푸르트, 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오리건) 등 9개 AWS 리전에서 정식 출시됐다. 기업은 에이전트코어에서 작동하도록 설계된 AWS 마켓플레이스(AWS Marketplace)의 사전 구축된 에이전트 및 도구를 통해 가치 실현 시간을 가속화할 수 있다.
작성일 : 2025-10-17
Arm, 향상된 AI 경험 제공 위해 메타와 전략적 파트너십 강화
Arm은 메타(Meta)와 AI 소프트웨어부터 데이터센터 인프라에 이르는 컴퓨팅의 전 영역에서 AI 효율성을 확장하기 위해 전략적 파트너십을 강화했다고 밝혔다. 양사는 이번 협력을 통해 전 세계 수십억 명의 사용자에게 한층 향상된 AI 경험을 제공할 계획이다. 온디바이스 인텔리전스를 지원하는 밀리와트급 저전력 디바이스부터 최첨단 AI 모델 학습을 담당하는 메가와트급 대규모 시스템까지, 메타의 글로벌 플랫폼을 구동하는 전 영역의 컴퓨팅 환경에서 AI 성능을 최적화하겠다는 것이다. 이번 전략적 파트너십 강화는 양사가 다년간 지속해온 하드웨어 및 소프트웨어 공동 설계 협력을 기반으로 한다. Arm의 전력 효율적 AI 컴퓨팅 기술력과 메타의 AI 제품, 인프라, 오픈소스 기술 혁신을 결합해 성능과 효율성을 대폭 향상시키는 것을 목표로 한다. 페이스북과 인스타그램 등 메타 앱 제품군 전반의 검색 및 개인화를 지원하는 메타의 AI 기반 순위 및 추천 시스템은 x86 시스템 대비 고성능, 저전력 소비를 제공하기 위해 Arm 네오버스(Neoverse) 기반 데이터센터 플랫폼을 활용할 예정이다. 네오버스는 메타가 인프라 전반에 걸쳐 전력 대비 성능 효율을 달성할 수 있도록 지원하며, 하이퍼스케일 환경에서 Arm 컴퓨팅의 효율과 확장성을 강화한다. 양사는 컴파일러와 라이브러리부터 주요 AI 프레임워크에 이르기까지 메타의 AI 인프라 소프트웨어 스택을 Arm 아키텍처에 최적화하기 위해 긴밀히 협력했다. 여기에는 Facebook GENeral Matrix Multiplication(FBGEMM) 및 파이토치(PyTorch)와 같은 오픈소스 구성 요소의 공통 튜닝을 포함되며, Arm의 벡터 확장 기능과 성능 라이브러리를 활용해 추론 효율과 처리량에서 측정 가능한 향상을 이뤘다. 이러한 최적화는 오픈 소스 커뮤니티에 제공되어 글로벌 AI 에코시스템 전반에 영향력을 확대하고 있다. 이번 파트너십은 파이토치 머신러닝 프레임워크, ExecuTorch 엣지 추론 런타임 엔진, vLLM 데이터센터 추론 엔진 전반에 걸쳐 AI 소프트웨어 최적화를 한층 강화한다. 특히 Arm KlediAi로 최적화된 ExecuTorch 기반을 고도화해 수십억 대의 기기에서 효율성을 높이고, 모델 배포를 더욱 간소화함으로써 에지에서 클라우드까지 AI 애플리케이션 성능을 가속화할 예정이다. 이러한 오픈소스 기술 프로젝트는 메타 AI 전략의 핵심으로, 추천 시스템부터 대화형 인텔리전스에 이르기까지 다양한 AI 개발과 배포를 가능하게 한다. 양사는 앞으로도 오픈소스 프로젝트에 대한 최적화를 지속 확장해 전 세계 수백만명의 개발자가 Arm 기반 환경에서 더욱 효율적인 AI를 구축하고 배포할 수 있도록 지원할 계획이다. 메타의 산토시 야나르단(Santosh Janardhan) 인프라 부문 대표는 “플랫폼 경험부터 우리가 만드는 디바이스에 이르기까지, AI는 사람들이 연결하고 창조하는 방식을 변화시키고 있다”면서, “Arm과의 파트너십을 통해 메타 애플리케이션 및 기술을 사용하는 30억 명이 넘는 사용자에게 혁신을 효율적으로 제공할 수 있게 됐다”고 밝혔다. Arm의 르네 하스(Rene Haas) CEO는 “차세대 AI 시대는 대규모 효율성을 실현하는 것이 핵심이 될 것”이라며, “메타와의 협력을 통해 Arm의 전력대비 성능 우위와 메타의 AI 혁신 역량을 결합해 밀리와트급부터 메가와트급까지 모든 영역에서 더욱 스마트하고 효율적인 인텔리전스를 구현할 것”이라고 말했다.
작성일 : 2025-10-17
오라클, 기업의 AI 이니셔티브 가속화 돕는 ‘AI 데이터 플랫폼’ 공개
오라클이 ‘오라클 AI 데이터 플랫폼(Oracle AI Data Platform)’의 정식 출시를 발표했다. 오라클 AI 데이터 플랫폼은 생성형 AI 모델을 기업의 데이터, 애플리케이션, 워크플로와 안전하게 연결할 수 있도록 설계된 포괄적 플랫폼이다. 자동화된 데이터 수집, 시맨틱 강화(semantic enrichment), 벡터 인덱싱에 생성형 AI 도구를 결합해 원시 데이터(raw data)에서 실제 운영 수준(production-grade)의 AI까지 전 과정을 단순화한다. 오라클 AI 데이터 플랫폼은 데이터를 AI에 최적화하고, 오라클 클라우드 인프라스트럭처(OCI), 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database), OCI 생성형 AI(OCI Generative AI) 서비스를 결합해 에이전틱 애플리케이션의 생성과 배포를 가능하게 한다. 기업 고객은 신뢰할 수 있는 실시간 인사이트를 얻을 수 있으며, 반복 업무를 자동화하고, 성장 기회를 발굴하며, 일상적인 워크플로에 지능을 내재화하는 AI 에이전트를 활용할 수 있다. 개발자와 데이터 팀은 엔터프라이즈급 단일 플랫폼에서 이러한 기능을 신속하게 구축하고 확장할 수 있다. 이 플랫폼은 엔비디아 가속 컴퓨팅 인프라를 통합해 고성능 워크로드를 위한 최신 세대 GPU와 라이브러리를 선택할 수 있다. 그 결과 다양한 산업군에서 더욱 신속한 혁신, 높은 생산성, 측정 가능한 비즈니스 성과를 실현할 수 있다. 오라클 AI 데이터 플랫폼은 기업이 데이터와 AI를 효과적으로 활용할 수 있는 기반을 제공한다. 고객은 델타 레이크(Delta Lake) 및 아이스버그(Iceberg)와 같은 오픈 포맷을 활용해 데이터 레이크하우스를 구축하고, 데이터 중복을 줄일 수 있다. 또한 AI 데이터 플랫폼 카탈로그는 모든 데이터와 AI 자산에 대한 통합 뷰와 거버넌스를 제공해 기업의 컴플라이언스 및 신뢰 강화를 지원한다. 카탈로그는 에이전트투에이전트(Agent2Agent : A2A) 및 모델 컨텍스트 프로토콜(MCP) 등 개방형 표준을 폭넓게 지원해 정교한 멀티에이전트 시스템 구성을 가능하게 한다. 더불어 기업 고객을 위한 에이전트 허브(Agent Hub)는 다수의 에이전트를 탐색하는 복잡성을 제거하고, 요청을 해석해 적합한 에이전트를 호출하며, 추천 결과를 제시해 즉각적인 조치를 취할 수 있도록 지원한다. 오라클은 오라클 AI 데이터 플랫폼이 제공하는 기능 및 이점으로 ▲데이터를 인텔리전스로 전환 ▲팀 전반의 혁신 가속 ▲비즈니스 프로세스 자동화 및 확장 ▲엔터프라이즈급 준비 상태 보장 등을 꼽았다. 오라클 AI 데이터 플랫폼은 데이터 레이크하우스와 AI를 하나의 플랫폼에 통합해, 원시 데이터를 실행 가능한 인사이트와 더 스마트한 의사결정으로 전환할 수 있다. 그리고 데이터 엔지니어, 데이터 과학자, AI 개발자를 위한 단일 워크벤치를 제공해 협업과 AI 기반 애플리케이션 제공 속도를 높인다. 이를 통해 단순 분석을 넘어 워크플로를 조율하고, 알림을 자동 생성하며, 비즈니스 성과를 직접 개선하는 AI 에이전트를 통해 효율을 높일 수 있도록 한다. 오라클은 “OCI, 오픈소스 엔진, 업계 선도적 분석 기능, 오라클 자율운영 AI 레이크하우스(Oracle Autonomous AI Lakehouse)의 결합으로 미션 크리티컬 AI 도입에 필요한 규모, 성능, 신뢰성을 제공한다”고 전했다. 제로 ETL(Zero-ETL)과 제로 카피(Zero Copy) 기능을 통해 고객은 재무, HR, 공급망, 마케팅, 영업, 서비스 등 핵심 비즈니스 애플리케이션 데이터는 물론 산업별 애플리케이션 데이터와 기존 엔터프라이즈 데이터베이스에 원활하게 연결할 수 있다. 오라클 AI 데이터 플랫폼은 멀티클라우드 및 하이브리드 크로스-클라우드 오케스트레이션을 지원하여 퍼블릭 클라우드, 온프레미스, 에지 등 모든 소스의 데이터의 연결, 처리, 분석이 가능하다. 또한, 오라클 애플리케이션과 서드파티 환경 전반에서 AI 에이전트가 원활하게 작동할 수 있게 되어 고객이 기업 전반에 걸쳐 AI 기반 혁신을 확장할 수 있다. 오라클은 퓨전(Fusion), 넷스위트(NetSuite)를 포함한 주요 오라클 애플리케이션 제품군 전반과 의료, 소비재, 금융 서비스, 건설 등 산업 전반을 대상으로 사전 통합을 포함한 맞춤형 AI 데이터 플랫폼을 제공할 계획이다. 오라클 퓨전 데이터 인텔리전스(Oracle Fusion Data Intelligence)의 정제되고 풍부하며 AI를 위해 준비된 데이터는 AI 데이터 플랫폼에서 사용 가능하다. 오라클의 T.K. 아난드 총괄부사장은 “오라클 AI 데이터 플랫폼은 고객이 데이터를 AI에 최적화하고, AI를 활용하여 비즈니스 프로세스 전반을 혁신할 수 있도록 돕는다. 이 플랫폼은 데이터를 통합하고 전체적인 AI 라이프사이클을 간소화하여 기업이 신뢰성, 보안성 및 민첩성을 고려하며 AI의 역량을 활용하는 데 있어 가장 포괄적인 기반을 제공한다”고 말했다.
작성일 : 2025-10-15
벡터-시높시스, 가상ECU 기반의 SDV 개발 지원
벡터코리아는 AUTOSAR Classic 표준을 준수하는 자사의 ECU 개발 설루션 ‘MICROSAR Classic’과 시높시스의 ‘시높시스 실버(Synopsys Silver)’를 통합하여, ECU(전자제어장치) 개발 검증 시뮬레이션을 초기단계부터 확장하여 실행할 수 있도록 지원한다고 밝혔다. 시높시스 실버는 실제 하드웨어 없이 소프트웨어 개발 초기 단계부터 가상 환경에서 전자 제어 장치(vECU)를 생성하고 테스트하는 소프트웨어 인 더 루프(SiL) 설루션이다. 벡터와 시높시스는 지난 3월, 소프트웨어 정의 차량(SDV)의 개발 가속화를 위해 전략적 협력을 맺은바 있다. 양사는 협력을 통해 벡터의 소프트웨어 팩토리 전문성과 시높시스의 전자 디지털 트윈 기술을 사전 통합(pre-integrated)한 설루션을 제공한다. 자동차 제조업체는 설루션을 활용해 소프트웨어 검증 과정을 앞당겨 개발 생산성을 개선하고, 차량 수명주기 전반에 걸쳐 소프트웨어 개발 및 배포 속도를 높일 수 있다. 최근 SDV 아키텍처의 소프트웨어 복잡성이 증가함에 따라 ECU, ZCU(존 컨트롤 유닛 : Zonal Control Unit), CCU(중앙 컴퓨트 유닛 : Central Compute Unit) 등의 개발 주기가 길어지고 임베디드 디바이스 배포가 지연되는 문제가 발생하고 있다. 이러한 과제를 해결하기 위해서는 자동차 제조사와 공급사가 ECU, ZCU, CCU를 개별적으로 그리고 상호 연동된 상태에서 가능한 한 이른 단계부터 검증하는 것이 중요하다. 이러한 조기 검증을 위해, 가상 프로토타이핑(virtual prototyping) 기반 시뮬레이션 도구는 가상 환경에서의 통합 및 테스트를 가능하게 하여 문제를 조기에 발견하고 물리적 프로토타입 필요성을 줄여준다. 이로써 소프트웨어 품질이 향상되고 초기 피드백 확보가 가능해진다.     시높시스 실버는 가상 프로토타이핑 환경에서 ECU, ZCU, CCU 등 다양한 ECU 유형을 가상 ECU(vECU)로 개발 및 테스트할 수 있도록 지원한다. 이를 통해 소프트웨어 개발 속도를 가속화하고, 공급사와 제조사가 하드웨어 디바이스나 프로토타입에 의존하지 않고 소프트웨어를 통합·테스트·디버깅할 수 있다. 시높시스 실버는 임베디드 스택(Embedded Stack)을 가상 하드웨어 위에 배치하여 애플리케이션 통합, 미들웨어 통합, 운영체제 통합(Level 1~Level 3 vECU)을 지원한다. 이를 통해 ECU 소프트웨어의 모듈·레이어·조합을 격리해 수직적·수평적 통합은 물론, 개발 초기 단계에서 ECU 복합 검증(Compound Validation)이 가능하다. 벡터의 MICROSAR Classic은 시높시스 실버와 통합되면서 vECU 단위의 시스템 수준 통합 및 검증이 가능해졌다. 이 과정에서 운영체제와 드라이버는 실버 시뮬레이션 모듈로 대체되며, 임베디드 스택은 가상 하드웨어 환경에서 실행된다. 애플리케이션 소프트웨어는 OEM이 개발하고, BSW(Basic Software)와 RTE(Runtime Environment)는 MICROSAR Classic이 제공한다. 이를 위한 워크플로우는 다빈치 컨피규레이터 클래식(DaVinci Configurator Classic)을 통해 진행된다. 다빈치 컨피규레이터 클래식은 AUTOSAR 기반 ECU 개발 도구로, BSW와 RTE를 설정하고 코드를 생성한다. 가상 통합 단계에서는 실버 시뮬레이션 모듈이 실제 드라이버를 대체하며, 외부 코드 생성기를 통해 시뮬레이션용 소스 코드가 생성된다. 이후 vECU는 SIL(Software-in-the-Loop) 테스트에 활용될 수 있으며, 필요 시 벡터의 CANoe에 SIL Kit을 통해 연결할 수도 있다. 한편, MICROSAR Classic은 실시간 처리가 가능한 임베디드 기본 소프트웨어 스택(Embedded Base Software Stack)으로, 모든 하드웨어 및 주변장치 드라이버를 포함한 모듈형 구조를 제공한다. 사용자는 런타임 환경(RTE)을 직접 정의할 수 있으며, 하드웨어 위나 Vector OS 및 타 OS 환경에서도 실행이 가능하다. 이는 고성능 멀티코어 시스템뿐 아니라 리소스가 제한된 단일 코어 환경에서도 유연하게 적용될 수 있다.
작성일 : 2025-10-14
매스웍스, ETRI의 직교형 레이더 신호 개발에 FPGA 워크플로 지원
매스웍스는 한국전자통신연구원(ETRI)이 매스웍스의 매트랩(MATLAB)과 시뮬링크(Simulink)를 활용하여 직교형 레이더 신호 송수신용 실시간 신호처리 모듈을 개발했다고 발표했다. 이 모듈은 내셔널인스트루먼트(NI) FPGA(Field-Programmable Gate Array) 기반 레이더 에뮬레이션 동작을 가속화한다. ETRI 입체통신연구소의 전파연구본부는 소출력 레이더 시스템에서 동작하는 직교형 레이더 신호 송수신이라는 복잡한 신호 처리 과제를 해결하기 위해, 매트랩과 시뮬링크를 활용한 모델 기반 설계(MBD) 접근 방식을 도입했다. 이를 통해 알고리즘을 시스템 수준에서 설계하고 검증한 뒤 자동 HDL 코드 생성과 하드웨어 구현까지 가능해졌으며, FPGA 기반 실시간 처리 시스템의 개발 효율성과 구현 정확도를 동시에 향상시켰다. 실시간 신호처리 모듈을 개발하는 과정에서 ETRI 연구팀은 그래픽 프로그래밍 환경을 이용한 기존의 CPU 기반 실행 방식만으로는 정해진 시간 내에 다중 신호를 동시에 분석하고 처리해야 하는 성능 요구사항을 충족할 수 없음을 확인했다. 신호 간섭을 줄이기 위한 정합 필터 뱅크(matched filter bank)와 같은 병렬 처리 알고리즘은 실시간 실행이 필요했고, 직교 신호 수신기는 파이프라인 구조로 구현되어야 했다. 이에 연구팀은 이러한 성능 목표 달성을 위해 NI FPGA로의 전환이 필수라고 판단했다. 그러나 매트랩 알고리즘을 HDL 코드로 변환하는 과정은 비효율적이고 오류가 발생하기 쉬웠으며, 특히 알고리즘이 변경될 때마다 수동으로 코드를 업데이트해야 하는 문제가 있었다.  또한, 알고리즘과 HDL 코드 간의 구조적 불일치로 인해 디버깅 과정이 복잡해졌다.     이러한 문제를 해결하기 위해 연구팀은 알고리즘을 시뮬링크 모델로 변환한 후 HDL 코더(HDL Coder)를 통해 HDL 코드를 자동 생성하는 워크플로를 선택했다. 이러한 접근 방식을 통해 아키텍처, 고정소수점 데이터 타입, 구현 방법 등 FPGA 구현을 위한 다양한 설계 옵션을 쉽게 평가할 수 있었다. 또한 매스웍스의 HDL 베리파이어(HDL Verifier)를 활용해 생성된 HDL 코드와 원본 알고리즘의 동작을 코시뮬레이션을 통해 비교함으로써, 시스템 수준에서의 동작 검증과 성능 테스트를 효과적으로 수행했다. ETRI는 기존의 수동 코딩 워크플로 대비 HDL 코드 구현과 검증에 소요되는 시간과 노력을 약 50% 절감할 수 있었다. 더 나아가, 알고리즘 설계자와 하드웨어 엔지니어 간의 워크플로를 통합하여 반복 작업을 줄이고 인적 오류를 최소화했다. ETRI는 머신러닝 기반 알고리즘이 포함된 향후 프로젝트에서도 동일한 방식으로 HDL Coder를 활용한 자동 코드 생성을 적극 적용할 계획이다. 한국전자통신연구원 전파연구본부의 책임연구원인 김형중 박사는 “매트랩 펑션 블록(MATLAB Function blocks)을 사용하면 주요 알고리즘 코드 대부분을 별도 작업 없이 그대로 사용할 수 있어 특히 유용하다”면서, “HDL 전문 지식이 없어도 HDL 코더를 사용해 알고리즘을 HDL 코드로 쉽게 변환할 수 있었다”고 설명했다. 매스웍스코리아의 정승혁 애플리케이션 엔지니어는 “한국전자통신연구원의 직교형 레이더 신호 개발에서복잡한 신호처리 알고리즘을 FPGA 하드웨어로 효율적으로 구현하는 데 매트랩과 시뮬링크가 핵심 역할을 했다. 이번 성과는 매스웍스의 모델 기반 설계 접근법이 한국의 첨단 연구개발 프로젝트에서 실질적인 혁신을 가능하게 한다는 것을 보여준다”면서, “매스웍스는 앞으로도 한국의 선도적인 연구기관들과 지속적인 협력을 통해 차세대 기술 개발에 적극 지원할 것”이라고 말했다.
작성일 : 2025-09-25
스노우플레이크, 벤더 중립적 시맨틱 표준 위한 ‘오픈 시맨틱 인터체인지’ 출범
스노우플레이크가 업계 파트너십을 통해 시맨틱 메타데이터의 정의와 공유 방식을 표준화하는 새로운 오픈소스 이니셔티브인 ‘오픈 시맨틱 인터체인지(Open Semantic Interchange, 이하 OSI)’를 출범한다고 밝혔다. 세일즈포스, 블랙록, dbt 랩스, 릴레이셔널AI 등 글로벌 20여개 기업이 참여하는 이번 이니셔티브에서는 벤더 중립적인 시맨틱 모델 사양을 도입한다. OSI는 벤더 중립적이고 공통적인 시맨틱 모델 사양을 도입함으로써 AI 및 비즈니스 인텔리전스(BI) 애플리케이션 전반에 걸쳐 일관된 비즈니스 로직을 보장할 수 있다. 기업들이 사용하는 각종 도구와 플랫폼마다 다른 데이터 해석 방식을 해결하기 위해 모든 시스템이 동일한 방식으로 데이터를 이해할 수 있는 공통 표준을 만드는 것이 목표다.     각기 다른 데이터 형태, 데이터 도구 등 데이터 분산은 AI 도입을 늦추는 원인이었다. OSI는 서로 다른 AI, BI, 데이터 도구가 같은 언어로 소통할 수 있도록 공통 시맨틱 표준을 구축해 플랫폼 간 상호 운용성을 강화하며 데이터 분산 문제를 해결한다. 데이터 정의 및 교환 방식을 표준화해 AI가 일관되고 정확한 정보를 활용할 수 있게 함으로써 AI, BI 애플리케이션 도입을 가속화하고 AI에 활용하는 데이터 신뢰성을 보다 높일 수 있게 된다. 스노우플레이크는 “결과적으로 데이터팀의 운영을 간소화하고, 시스템 간 서로 다른 정의를 맞추거나 중복 작업을 하는 데 소모하는 비효율을 줄일 것”이라면서, “그만큼 데이터 및 AI 팀들이 단순 문제 해결보다 보다 중요한 비즈니스 혁신에 집중할 수 있게 된다”고 전했다. 스노우플레이크를 비롯한 OSI 이니셔티브 기업들은 협력을 통해 폐쇄적이고 벤더 종속적인 시스템에서 벗어나 더 나은 개방형 AI를 도입하는 것을 목표로 한다. 이들은 AI 혁신을 이끌 새로운 패러다임으로 상호운용성과 표준화를 바탕으로 한 오픈소스 협력을 제시하고 있다. 태블로(Tableau)의 사우서드 존스(Southard Jones) 최고제품책임자(CPO)는 “AI의 미래는 신뢰에 달려있으며, 신뢰는 일관되고 믿을 수 있는 데이터에서 시작된다”며, “스노우플레이크와 파트너사들이 공동으로 OSI를 주도함으로써 플랫폼 전반에 걸쳐 동일한 의미를 유지하는 공통 시맨틱 프레임워크를 구축하고 AI 에이전트와 BI 애플리케이션을 통해 고객이 신뢰할 수 있는 데이터 인사이트를 활용할 수 있게 됐다”고 말했다. 스노우플레이크의 크리스티안 클레이너만(Christian Kleinerman) 제품 담당 수석부사장은 "스노우플레이크는 상호 운용성과 개방형 표준이 데이터와 함께 AI의 가능성을 발현하는데 필수적이라고 믿고 있다”며, "OSI 이니셔티브를 통해 파트너들과 함께 AI의 근본적인 과제인 공통 시맨틱 표준의 부재를 해결하는 데 앞장서게 되어 자랑스럽다. 이번 이니셔티브는 업계가 경쟁하는 것이 아니라 공동의 과제를 해결하고 모두를 위한 더욱 연결되고 개방적인 생태계를 구축하기 위해 힘을 합치는 것”이라고 말했다.
작성일 : 2025-09-24
델, AI 서버 ‘파워엣지 XE7740’에 인텔 가우디 3 PCIe 가속기 탑재
델 테크놀로지스가 인텔 가우디 3(Intel Gaudi 3) PCIe 가속기를 통합 구성한 ‘델 파워엣지 XE7740 (Dell PowerEdge XE7740)’ 서버를 출시했다고 밝혔다. ‘델 파워엣지 XE7740’은 파워엣지 R 시리즈의 통합 용이성과 XE 시리즈의 성능 및 확장성을 결합한 4U 폼팩터 서버로서 성능, 비용 효율, 유연성을 바탕으로 기업들이 엔터프라이즈 AI에 대한 접근성을 높일 수 있도록 설계되었다. 델 파워엣지 XE7740 서버는 기존 데이터센터에 원활하게 구축할 수 있는 최적화된 규모의 설루션을 제공한다. 동시에 LLM(대규모 언어 모델)의 미세 조정 및 고성능 추론을 포함한 광범위한 AI 워크로드의 배포와 운영을 간소화해 엔터프라이즈 AI의 가격 대비 성능 측면을 고려했다.     이번 신제품은 최대 8개의 더블 와이드 또는 PCIe 가속기를 수용할 수 있는 유연한 구성을 제공한다. 최대 8개의 개별 가우디 3 가속기를 탑재할 수 있으며, 옵션으로 2개의 4-웨이(4-way) 브리지 가속기 그룹을 구성하는 것도 가능하다. RoCE(RDMA 오버 컨버지드 이더넷) v2를 통한 4-웨이(4-way) 가우디 3 PCIe 가속기 브리지 연결은 대규모 AI 모델과 더 큰 메모리 공간을 지원하며, 워크플로의 확장성과 유연성을 제공한다. 또한 8개의 표준 높이 PCIe 슬롯과 통합 OCP 네트워킹 모듈을 통해 가속기와 네트워크 인터페이스 카드(NIC)를 최대 1:1 비율로 매칭할 수 있는 유연한 네트워킹을 제공한다. 기존 인프라에 원활하게 통합 가능한 델 파워엣지 XE7740은 많은 기업들이 직면하고 있는 랙당 전력 한계를 극복하여 기존 데이터 센터에서 일반적으로 사용되는 최대 10kW 랙에서 효율적으로 작동한다. 엔터프라이즈 AI를 위한 제품으로서 기존의 공냉식 랙에 장착할 수 있는 XE7740은 ‘델 스마트 쿨링(Dell Smart Cooling)’ 설루션이 적용됐다. 또한 라마4(Llama4), 라마3(Llama3), 딥시크(Deepseek), 파이4(Phi4), 쿠엔3(Qwen3), 팔콘3(Falcon3) 등과 같은 인기 모델에 최적화되어 원활한 AI 워크플로 통합을 지원한다. 다양한 기존 모델 카탈로그와 함께 가우디 3를 사용하면 기업에서 손쉽게 AI 도입을 가속화할 수 있으며, 큰 비용이 소모되는 전력 및 냉각 업그레이드 없이도 높은 성능을 보장한다. 델은 파워엣지 XE7740가 ▲LLM(대규모 언어 모델) 추론 및 미세 조정 ▲이미지 및 음성 인식과 같은 멀티 모달 AI 애플리케이션 ▲데이터 집약적인 의료 분석 및 유전체 염기서열 분석 ▲금융 서비스 사기 탐지 및 위험 완화 ▲유통 및 전자상거래의 실시간 개인화 등 다양한 AI 워크로드를 지원해 엔터프라이즈 AI에 최적화되어 있다고 전했다. AI 워크로드가 증가함에 따라 기업이나 기관들은 사용량 기반으로 과금하는 GPU 가속기 구독 비용이나 클라우드 데이터의 외부 전송(egress) 비용에 부담을 느끼고 있다.  델은 “파워엣지 XE7740은 이런 비용을 절감하면서도 뛰어난 성능과 데이터 보안을 확보해 온프레미스 AI 프로젝트를 간소화하는데 특화된 설루션”이라고 전했다.  한국 델 테크놀로지스의 김경진 총괄사장은 “현재의 경쟁력을 유지하고 AI 미래에 대비하기 위해서는 확장이 용이하고 적응력이 뛰어난 인프라를 확보해 유연한 준비 태세를 갖추어야 한다. 검증된 AI 설계와 기존 에코시스템과의 원활한 통합이 가능한 XE7740은 경쟁이 치열한 시장에서 특히 주목할 만한 제품”이라고 말했다.
작성일 : 2025-09-22
인텔-엔비디아, AI 인프라 및 PC 제품 공동 개발 협력 발표
인텔과 엔비디아는 하이퍼스케일, 엔터프라이즈 및 소비자 시장 전반에 걸쳐 애플리케이션 및 워크로드를 가속화할 맞춤형 데이터센터 및 PC 제품을 여러 세대에 걸쳐 공동 개발하기 위한 협력을 발표했다. 양사는 엔비디아 NV링크(NVLink)를 활용해 엔비디아와 인텔 아키텍처를 원활하게 연결하는 데 주력하며, 이를 통해 엔비디아의 AI 및 가속 컴퓨팅 역량과 인텔의 CPU 기술 및 x86 생태계를 결합하여 고객에게 최첨단 설루션을 제공할 계획이다. 데이터센터 부문에서 인텔은 엔비디아 맞춤형 x86 CPU를 제작하고, 엔비디아는 이를 자사 AI 인프라 플랫폼에 통합해 시장에 공급할 예정이다. 개인용 컴퓨팅(PC) 분야에서는 인텔이 엔비디아 RTX GPU 칩렛을 통합한 x86 시스템 온 칩(SOC)을 제작해 시장에 공급할 계획이다. 새로운 x86 RTX SOC는 높은 수준의 CPU와 GPU 통합을 요구하는 다양한 PC에 탑재될 것이다. 엔비디아는 인텔 보통주에 주당 23.28달러의 매입가로 50억 달러를 투자할 예정이다. 이번 투자는 규제 당국의 승인을 포함한 통상적인 거래 종결 조건에 따라 진행된다.     엔비디아의 창업자인 젠슨 황(Jensen Huang) CEO는 “AI는 새로운 산업 혁명을 주도하며 실리콘부터 시스템, 소프트웨어에 이르기까지 컴퓨팅 스택의 모든 계층을 재창조하고 있다. 이 재창조의 핵심에는 엔비디아의 CUDA 아키텍처가 자리 잡고 있다”고 말했다. 또한 “이번 역사적인 협력은 두 개의 세계적 플랫폼의 융합으로, 엔비디아의 AI 및 가속 컴퓨팅 스택과 인텔의 CPU, 방대한 x86 생태계를 긴밀히 결합한다. 양사는 생태계를 확장하고 차세대 컴퓨팅 시대의 기반을 마련할 것”이라고 밝혔다. 인텔의 립부 탄(Lip-Bu Tan) CEO는 “인텔의 x86 아키텍처는 수십 년간 현대 컴퓨팅의 기반이 되어왔으며, 인텔은 미래 워크로드를 지원하기 위해 포트폴리오 전반에 걸쳐 혁신을 추진 중”이라면서, “인텔의 선도적인 데이터센터 및 클라이언트 컴퓨팅 플랫폼은 인텔의 공정 기술, 제조 역량, 첨단 패키징 기술과 결합되어 엔비디아의 AI 및 가속 컴퓨팅 리더십을 보완함으로써 업계에 새로운 돌파구를 마련할 것이다. 젠슨황 CEO와 엔비디아 팀이 투자로 보여준 신뢰에 감사하며, 고객을 위한 혁신과 사업 성장을 위해 함께할 앞날을 기대한다”고 밝혔다.
작성일 : 2025-09-19
멘딕스, 메가존과 파트너십 맺고 국내 로코드 기반 디지털 혁신 가속화
지멘스 디지털 인더스트리 소프트웨어의 사업부인 멘딕스는 한국 시장에서 입지를 확대하기 위해 AI·클라우드 기업 메가존클라우드의 모회사인 메가존과 전략적 파트너십을 맺었다고 밝혔다. 이번 파트너십은 시장 개발, 고객사 공동 대응 및 기술 지원 등을 제공하기 위한 포괄적인 프레임워크를 구축하여, 현지 전문성과 지원 체계를 바탕으로 디지털 혁신 전략을 가속화하고자 하는 국내 기업들이 세계적 수준의 로코드(low-code) 개발 역량을 활용할 수 있도록 지원하기 위한 것이다. 멘딕스는 “스튜디오 프로(Studio Pro)에 통합된 마이아(Maia)를 통해서 AI 에이전트 시대를 선도함과 동시에 이번 파트너십을 통해 한국 시장에서 로코드 애플리케이션 개발 역량을 대중화하고, 글로벌 확장 전략을 강화하는 데 중요한 이정표를 수립했다”고 평가했다. 메가존은 한국 시장에 대한 전문성과 견고한 유통망을 바탕으로, 국내 기업이 멘딕스의 포괄적인 개발 플랫폼을 보다 손쉽게 활용해 아이디어를 실효성 있는 애플리케이션으로 구현하는 동시에, 엔터프라이즈급 보안과 거버넌스를 유지할 수 있도록 지원할 예정이다. 멘딕스는 자사의 플랫폼이 고객에게 생성형 AI(GenAI) 기술에 대한 턴키 액세스를 제공하는 GenAI 리소스 팩(GenAI Resource Pack)과 고급 AI 기반 개발 툴과 같은 최신 개선 기능을 통해 애플리케이션 개발 프로세스에 AI를 활용하고자 하는 한국 기업들에게 상당한 가치를 제공할 것으로 기대하고 있다. 멘딕스의 역량과 메가존의 현지 시장에 대한 전문성 및 지원 인프라가 결합됨으로써 한국 시장에 로코드 도입을 가속화할 수 있는 기반이 마련되었다는 것이 멘딕스의 평가이다. 메가존은 멘딕스의 공식 총판 파트너로서 파트너 생태계 개발과 세일즈 활성화를 비롯해 시장 개발을 위한 마케팅, 티어-2 리셀러 리크루팅, 기술 지원 등을 지멘스와 함께 적극 리드할 예정이다. 이를 위해 리셀러 발굴·영입, 과천 사옥 및 역삼 센터 내 전문 교육 프로그램 운영, 세일즈 역량 강화, 제품 인증 제공뿐 아니라 세일즈 프로세스 관리, 공동 제안서 작성, 고객 서비스 지원 등을 수행하며, 연간 매출 목표 달성과 협력적 성장 전략을 통해 비즈니스 성과를 견인하는데 기여할 것으로 보고 있다. 이번 협력의 핵심은 전략적 접근방식을 통해 공동 마케팅 및 세일즈 개발을 가속화하기 위한 것이다. 양사는 한국 시장에서 멘딕스 브랜드의 인지도를 높이고 비즈니스 성과를 강화하기 위한 구체적인 계획을 수립하고, 함께 협력할 예정이다. 공동 세미나와 웨비나 개최는 물론, 성공 사례 개발 및 디지털 캠페인에 이르기까지, 공동의 마케팅 활동을 통해 고객과의 상호작용 및 시장 확장을 위한 다양한 접점을 창출할 계획이다. 지멘스 디지털 인더스트리 소프트웨어의 오병준 한국 지사장은 “메가존과의 파트너십은 멘딕스가 아태지역에서 지속적으로 사업을 확장하는데 중요한 이정표가 될 것”이라면서, “한국은 기업들이 최신 개발 설루션을 도입하는데 매우 역동적이고 혁신적인 시장이다. 멘딕스는 메가존의 검증된 현지 전문성과 시장을 선도하는 파트너 네트워크를 활용하여, 국내 기업들이 로코드 개발 방식의 혁신적인 잠재력을 실현하고, 디지털 중심 경제에서 성장을 가속화할 수 있도록 지원하는 보다 효과적인 서비스를 제공하게 될 것”이라고 말했다. 메가존의 조영국 부사장은 “국내 기업들은 현대적이고 민첩한 개발 설루션을 도입하는데 상당히 적극적이다. 메가존은 멘딕스의 로코드 플랫폼을 통해 국내 기업들의 역량 강화를 지원할 수 있는 최적의 위치에 있다”면서, “메가존은 한국 시장 전반에 걸쳐 최첨단 디지털 설루션을 신속하게 공급하고, 안정적으로 지원할 수 있는 입증된 실적을 바탕으로, 기술 도입 격차를 해소할 수 있는 핵심 강점을 보유하고 있다. 앞으로도 기업들이 멘딕스를 효과적으로 활용하여 디지털 혁신 목표를 가속화하고, 전략적 비즈니스 목표를 달성할 수 있도록 원활한 도입 프로세스를 지원하는데 주력할 것”이라고 밝혔다.
작성일 : 2025-09-19