• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "트래픽"에 대한 통합 검색 내용이 443개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
캐디안, 웹 기반 CAD 도면 뷰어 ‘캐디안 뷰Q’ 출시
캐디안이 웹 브라우저 기반 CAD 뷰어인 ‘캐디안 뷰Q(CADian ViewQ)’를 출시했다고 밝혔다. 캐디안 뷰Q는 AEC(건축·토목·엔지니어링) 분야의 2D 도면 포맷인 DWG, DXF, DWF(이상 오토캐드 파일), DGN(마이크로스테이션 파일)과 더불어 BIM(건설 정보 모델링) 기반의 3D 파일 형식인 IFC, RVT(레빗 파일), 그리고 3D 모델링 파일 OBJ, STL 등 다양한 산업 포맷을 폭넓게 지원한다. 앞으로 현장에서 필요한 도면 파일 포맷이 계속 추가될 예정이다. 웹 브라우저 기반으로 작동해 별도의 프로그램 설치 없이 크롬, 엣지, 사파리 등 주요 브라우저에서 즉시 도면 열람이 가능하며, 장소나 디바이스의 제약 없이 도면 접근성과 협업을 강화한 것이 특징이다.      캐디안 뷰Q는 직관적인 UI와 함께 ▲도면 확대, 이동, 회전 ▲도면층의 리스트, 색상 확인 및 온/오프 설정 기능 ▲객체 속성 정보 확인 ▲거리 및 면적 측정 후 엑셀 파일로 내보내기 ▲도면을 PNG 또는 JPG 이미지로 변환해 빠른 뷰잉 지원 ▲텍스트 추가, 마크업(markup) 기능 ▲스크린 캡처 방지 등 보안 강화 ▲이메일로 첨부된 도면의 미리보기 ▲데스크톱 CAD 인 캐디안 프로(CADian Pro)와 연동으로 편집 가능 등 건설·설계·유지관리 분야의 실무자가 요구하는 핵심 기능을 반영하였다. 캐디안은 RESTful API 기반으로 개발된 뷰Q가 향후 BIM, GIS, PDM, PLM, ERP, FMS(시설물 관리), 스마트 공장, 스마트 건설, IoT(사물인터넷), 빅데이터, 클라우드 컴퓨팅, AI(인공지능), 디지털 전환(DX), VR/AR 등 다양한 외부 시스템과의 연동도 유연하게 확장할 수 있을 것으로 전망하고 있다. 또한, 캐디안 뷰Q 출시와 함께 캐디안은 동시 API 호출 10만 건 이상을 안정적으로 처리할 수 있는 로드 밸런싱 기반 서버 아키텍처를 구축했다고 전했다. 캐디안 뷰Q에 지능형 로드 밸런싱 기술을 적용함으로써 서버 풀 분산 처리, 자동 확장, 세션 유지, 캐싱·큐 기반 처리 등을 통해 트래픽 과부하 상황에서도 빠른 응답 속도와 무중단 CAD 협업을 지원한다는 것이 캐디안의 설명이다. 캐디안은 뷰Q를 앞세워 글로벌 SaaS형 웹 캐드 설루션 시장 진출을 본격화할 계획이다. 이를 통해 ▲대기업·공공기관의 대용량 CAD 협업 지원 ▲글로벌 사용자 간 CAD 파일 공유 및 접근성 향상 ▲오프라인 중심의 CAD 환경을 클라우드로 전환하는 것을 목표로 하고 있으며, B2B 대상의 공급 확대도 적극 추진 중이다. 캐디안은 현재 5000명 규모의 베타 사용자(PC, 스마트폰, 태블릿)에게 뷰Q 무료 체험 서비스를 제공하고 있다. 캐디안의 박승훈 대표는 “캐디안 뷰Q는 대규모 디지털 건설·설계 프로젝트에서 CAD 데이터를 신속하게 불러오고 공유할 수 있는 클라우드 기반 협업 툴로서 생산성 향상에 기여할 것”이라며, “로드 밸런싱 기술을 통해 병목 없이 다수 사용자의 실시간 CAD 협업이 가능해졌다”고 말했다. 
작성일 : 2025-08-26
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
어도비, 브랜드의 가시성 강화 지원하는 ‘LLM 옵티마이저’ 발표
어도비가 새로운 기업용 애플리케이션인 ‘어도비 LLM 옵티마이저(Adobe LLM Optimizer)’를 발표했다. 생성형 AI 구동 인터페이스를 통해 브랜드와 소통하는 소비자가 증가하는 가운데, 이 애플리케이션은 기업이 새로운 방식으로 고객과 접점을 확보할 수 있도록 지원한다. 기업은 웹과 모바일 등 주요 디지털 채널 전반에서 경험을 관리하고 최적화하기 위해 어도비 익스피리언스 클라우드(Adobe Experience Cloud) 애플리케이션을 활용해 왔다. 새로운 어도비 LLM 옵티마이저를 통해, 기업은 변화하는 소비자 행동에 보다 빠르게 대응하고 AI 시대에 브랜드 인지도를 유지할 수 있다. 어도비 LLM 옵티마이저는 AI 기반 트래픽을 모니터링하고 브랜드 가시성을 벤치마크 대비 평가할 수 있는 다양한 기능을 제공한다. 또한 노출 가능성, 참여도 및 전환율 향상을 위한 실질적인 제안을 하고, 이를 기업의 디지털 채널 전반에 신속히 적용할 수 있도록 지원한다.     브랜드는 어도비 LLM 옵티마이저를 통해 AI 기반 트래픽 증대 및 모니터링과 콘텐츠 최적화를 통한 노출 가능성 향상 등의 작업을 수행할 수 있다. LLM 옵티마이저는 AI 구동 인터페이스에서 사용자 질의에 대한 응답으로 활용되고 있는 자사 콘텐츠(예 : 웹사이트 정보)를 식별할 수 있다. 이를 통해 브랜드가 브라우저 및 채팅 서비스에서 어떻게 노출되고 있는지를 실시간으로 파악할 수 있다. 또한 높은 가치를 지닌 검색어 전반에 걸쳐 경쟁사 대비 가시성을 나란히 비교하는 벤치마킹 기능을 통해 콘텐츠 전략 등의 영역에서 조직 프로세스에 정보를 제공하는 역할을 할 수 있다. 권장 엔진은 신뢰할 수 있는 출처의 양질의 정보 성 콘텐츠를 포함해, LLM이 우선순위를 둔 속성을 기반으로 웹 페이지, FAQ 와 같은 자사 채널뿐 아니라 위키피디아(Wikipedia), 공개 포럼 등 외부 채널 전반에서 브랜드 가시성의 부족한 부분을 감지하고 개선 사항을 제시한다. 팀은 제안에 따라 즉시 조치를 취하고 클릭 한 번으로 변경 사항을 적용할 수 있다. 또한 AI 가시성을 사용자 행동 및 비즈니스 성과에 연결하는 기여도 역량을 통해 팀이 참여도, 전환율 및 다운스트림 트래픽 지표에 미치는 영향을 입증할 수 있도록 지원한다. 또한 바로 사용 가능한 리포팅 기능을 활용해 내부 이해관계자와 신속하게 인사이트를 공유하고 비즈니스에 미치는 영향을 전달할 수 있다. LLM 옵티마이저는 SEO 담당자, 콘텐츠 전략가, 디지털 마케터, 웹 퍼블리셔 등 다양한 역할의 기존 워크플로우를 지원하도록 설계돼, 조직 전체가 AI 기반 트래픽에 대한 인사이트와 제안을 쉽게 활용할 수 있도록 돕는다. 또한 이 애플리케이션은 에이전트 투 에이전트(Agent-to-Agent : A2A) 및 모델 컨텍스트 프로토콜(Model Context Protocol : MXP)과 같은 기업용 프레임워크를 지원해, LLM 옵티마이저를 서드파티 설루션이나 에이전시 파트너와도 원활하게 통합할 수 있는 경로를 제공한다. 어도비 LLM 옵티마이저는 단일 애플리케이션으로 활용 가능할 뿐만 아니라 콘텐츠 관리 시스템인 어도비 익스피리언스 매니저 사이트(Adobe Experience Manager Sites)와도 네이티브로 통합되어 있다. 어도비의 로니 스타크(Loni Stark) 익스피리언스 클라우드 전략 및 제품 부문 부사장은 “생성형 AI 인터페이스는 고객이 브랜드를 인지하고 소통하며, 구매를 결정하는 전 과정에서 핵심적인 도구로 자리 잡고 있다”면서, “어도비 LLM 옵티마이저는 브랜드가 새로운 환경 속에서도 자신 있게 대응하고, 브랜드 가시성을 높여 중요한 순간에 성공할 수 있도록 지원한다”고 말했다.
작성일 : 2025-07-02
슈나이더 일렉트릭, AI 시대 데이터센터 혁신 위한 이지 모듈형 데이터센터 올인원 설루션 공개
슈나이더 일렉트릭이 급증하는 데이터 처리량과 AI 워크로드에 효과적으로 대응하기 위한 설루션인 ‘이지 모듈형 데이터센터 올인원(Easy Modular Data Center All-in-One)’을 공개했다. 최근 생성형 AI 기술과 고성능 컴퓨팅(HPC)의 확산은 데이터센터의 역할과 중요성을 더욱 부각시키고 있다. 하지만 365일 24시간 운영되는 데이터센터는 막대한 에너지를 소비하며, AI 워크로드는 일반적인 데이터 트래픽보다 훨씬 더 많은 리소스를 필요로 한다. 이러한 상황에서 기존 데이터센터 구축 방식으로는 급변하는 시장 요구에 신속하게 대응하기 어렵다는 지적이 제기되고 있다. 슈나이더 일렉트릭이 이러한 문제점을 해결하기 위해 선보인 이지 모듈형 데이터센터 올인원 설루션을 선보였다. 이 설루션은 전력, 냉각, IT 인프라를 통합한 모듈을 공장에서 사전 제작한 뒤 현장에서 빠르게 설치하는 방식으로, 기존 데이터센터 구축 방식 대비 시간과 비용을 절감할 수 있다. 또한 모듈형 구조는 필요에 따라 용량을 손쉽게 확장하거나 축소할 수 있어 변화하는 IT 환경에 유연하게 대응할 수 있도록 지원한다.     이지 모듈형 데이터센터 올인원 설루션은 신속한 구축, 유연한 확장성, 일관된 품질, 에너지 효율적인 설계라는 네 가지 핵심 특징을 내세운다. 먼저, 이 설루션은 사전 제작된 모듈을 현장에서 조립하는 방식으로 구현되어, 기존 데이터센터 구축 방식에 비해 전체 구축 기간을 단축할 수 있다. 또한, 모듈을 자유롭게 추가하거나 제거할 수 있어, 비즈니스 요구 변화에 따라 데이터센터 용량을 손쉽게 확장하거나 축소할 수 있는 뛰어난 유연성을 제공한다. 더불어, 공장 환경에서 정밀하게 제작된 모듈을 활용함으로써, 현장마다 달라질 수 있는 품질 편차를 최소화하고, 일관된 품질과 예측 가능한 성능을 확보할 수 있다. 마지막으로, 에너지 효율을 극대화한 최적화된 설계를 바탕으로 운영 비용을 절감하고, 지속 가능성을 고려한 데이터센터 운영을 가능하게 한다. 이지 모듈형 데이터센터 올인원 설루션은 IoT 기반의 디지털 플랫폼인 에코스트럭처(EcoStruxure)를 기반으로 하드웨어와 소프트웨어가 통합된 단일 시스템으로 운영되어 효율적인 관리가 가능하며, IT 모니터링 소프트웨어를 통해 모바일 기기에서도 실시간으로 데이터센터 상태를 확인할 수 있다. 24시간 원격 서비스 지원을 통해 데이터센터 운영 중 발생하는 문제에 신속하게 대처할 수 있다는 점도 장점이다. 다양한 사전 설계 템플릿을 제공하여 예산 및 설계 기간을 단축하고, 필요에 따라 맞춤형 구성도 지원하여 데이터센터 구축에 유연하게 대응할 수 있도록 돕는다. 슈나이더 일렉트릭 코리아 시큐어파워 사업부의 최성환 본부장은 “AI 시대 데이터센터는 단순한 데이터 저장 공간을 넘어, 혁신을 이끄는 핵심 인프라로 자리매김하고 있다”면서, “슈나이더 일렉트릭의 이지 모듈형 데이터센터 올인원 설루션은 신속성, 유연성, 지속가능성이라는 세 가지 핵심 가치를 제공하여 고객이 AI 시대 경쟁 우위를 확보할 수 있도록 지원할 것”이라고 밝혔다.
작성일 : 2025-06-24
티피링크, 와이파이 7 메시 공유기 Deco BE25 출시
티피링크(TP-Link)는 와이파이 7(Wi-Fi 7)을 지원하는 메시 공유기 Deco BE25를 국내에 정식 출시했다고 밝혔다. Deco BE25는 5GHz 대역에서 최대 2882Mbps, 2.4GHz 대역에서 최대 688Mbps의 속도를 지원해 총 3.6Gbps의 무선 속도를 제공한다. 특히 와이파이 7의 핵심 기술인 MLO(Multi-Link Operation)를 적용해 여러 주파수 대역과 채널을 동시에 활용함으로써, 지연시간을 줄이고 데이터 처리량과 연결 안정성을 향상시켰다. 이를 통해 4K/8K 영상 스트리밍, 온라인 게임, 라이브 방송 등 대용량 트래픽 환경에서도 끊김 없는 연결을 유지할 수 있다.     유선 연결 성능도 높였다. 2개의 2.5Gbps 포트를 탑재해 고성능 NAS, IPTV, 게임 콘솔 등과의 고속 유선 연결을 지원하며, WAN/LAN 포트를 자유롭게 구성할 수 있어 유연한 네트워크 환경을 구축할 수 있다. 또한 무선과 유선 백홀을 동시에 활용, 전체 네트워크 처리량을 늘리고 지연 시간을 줄인다. Deco BE25의 핵심인 메시 기술은 집안 전체에 끊김 없는 와이파이 커버리지를 제공한다. 2팩 기준으로 일반 아파트, 단독 주택, 복층 구조의 가정 등에서 활용할 수 있으며, AI 기반 스마트 로밍 기능으로 사용자가 집 안 어디를 이동해도 자동으로 최적의 신호를 연결할 수 있다. 스마트홈 환경에도 최적화되어 있다. 최대 150대 이상의 기기를 안정적으로 연결할 수 있어 다양한 IoT 기기를 보유한 가정에서도 원활한 네트워크 환경을 제공한다. 설정 과정도 간편해서, 메인 기기만 초기 설정하면 추가 기기는 전원 연결만으로 자동으로 네트워크에 합류한다. 기존 Deco 시리즈와도 자유롭게 혼합 구성할 수 있어 확장성과 호환성을 높였다. 티피링크의 프리미엄 보안 서비스인 홈쉴드(HomeShield) 구독은 실시간 사이버 위협 감지, 자녀 보호 기능, IoT 보안 기능을 제공한다. 특정 웹사이트 차단, 온라인 시간 제한, 부적절한 콘텐츠 필터링 등 세부적인 보호 기능도 포함되어 있다. 티피링크 관계자는 “Deco BE25는 와이파이 7의 고성능과 화이트 컬러의 미니멀한 디자인, 안테나 내장형 구조로 성능과 인테리어 조화를 모두 고려한 제품”이라고 밝혔다.
작성일 : 2025-06-09
어도비, 익스피리언스 클라우드에 AI 에이전트 도입
어도비가 모든 접점에서 차별화되고 고도로 개인화된 고객 경험을 제공하도록 지원하는 새로운 기업용 ‘어도비 익스피리언스 클라우드(Adobe Experience Cloud)’ 제품을 발표했다. 경쟁적인 환경에서 브랜드 충성도를 구축하고 높이기 위해 원활하고 통합된 고객 경험 제공이 중요해진 가운데, 기업들은 데이터, 콘텐츠, 고객 여정 전반에 걸친 단절된 워크플로로 어려움을 겪고 있다. 어도비는 통합된 고객 경험을 구동하는 특화된 AI 에이전트를 통해, 실행 가능하고 포괄적인 데이터 인사이트를 제공하는 강력한 역량과 다양한 채널에서 참여도 높은 경험을 조율하는 툴을 공개했다. 분석, 타기팅, 여정 조율 및 콘텐츠 관리 서비스를 아우르는 클라우드 기반 제품군인 어도비 익스피리언스 클라우드는 브랜드가 수동적으로 고객 참여를 관리하는 것에서 벗어나 AI 구동 경험을 능동적으로 조율할 수 있도록 지원한다. 코카콜라 컴퍼니, 콜스, 델타항공, 일라이 릴리 앤 컴퍼니, 제너럴 모터스, HDFC 은행, 헨켈, 홈디포, 메이저리그 베이스볼, 메리어트 인터내셔널, 엔비디아, PGA 투어, 소니 플레이스테이션, TSB 은행, 얼타 뷰티, U.S. 은행, 퀄컴 등 여러 브랜드가 어도비 익스피리언스 클라우드를 도입했으며, 영향력 있고 개인화된 고객 경험을 기획, 구성, 제공할 수 있는 워크플로를 통해 디지털 비즈니스를 강화하고 있다.     어도비 익스피리언스 클라우드를 구동하고 모든 채널에서 고객에 대한 단일 뷰를 제공하는 콘텐츠, 데이터 및 여정 플랫폼인 어도비 익스피리언스 플랫폼(Adobe Experience Platform)을 기반으로 구축된 어도비 저니 옵티마이저 익스페리멘테이션 액셀러레이터(Adobe Journey Optimizer Experimentation Accelerator)는 어도비 저니 옵티마이저의 새로운 AI 퍼스트 모듈이다. 이 모듈은 옴니채널 성과 및 결과를 개선하는 성공 전략을 정확히 찾아내어 성과가 높을 것으로 예상되는 기회를 파악하고 실행할 수 있도록 돕는다. 새로운 실험 에이전트(Experimentation Agent)는 과거 및 현재 활성화된 실험 중 성과가 높은 사례, 트렌드 등을 자동으로 분석해 실행 가능한 인사이트를 도출하고 영향력이 가장 높은 순위에 기반한 테스트 권장 사항을 제공한다. 어도비 익스피리언스 플랫폼 에이전트 오케스트레이터(Adobe Experience Platform Agent Orchestrator)를 기반으로 구축된 해당 AI 에이전트는 기업이 어도비 및 서드파티의 AI 에이전트를 관리하고 조율할 수 있도록 지원한다. 팀은 어도비 저니 옵티마이저의 활성 고객 여정 및 캠페인 내에서 권장 실험을 적용하고 어도비 타깃(Adobe Target)에서 활동을 테스트할 수 있다. 어도비 익스피리언스 플랫폼의 통합된 실시간 데이터로 구동되는 어도비 저니 옵티마이저 익스페리멘테이션 액셀러레이터는 여러 부서로 구성된 팀이 주요 비즈니스 지표, 성과 영향 및 성장 동인에 대한 현재 및 과거 실험 결과를 단일 셀프서비스 뷰로 확인할 수 있도록 지원해 학습 및 최적화 역량을 향상시킨다. 또한 누구나 인사이트를 확인할 수 있도록 함으로써 조직 전반에 걸쳐 실험 프로그램을 확장하도록 돕는다. 어도비 익스피리언스 매니저(Adobe Experience Manager)의 일부이자 채널 전반의 경험을 구동하는 콘텐츠 관리 시스템인 사이트 옵티마이저(Sites Optimizer)는 자동화된 문제 진단 및 솔루션 추천을 통해 웹 트래픽과 참여를 개선할 수 있도록 지원하는 새로운 애플리케이션이다. 이번에 정식 출시된 새로운 설루션을 통해 허쉬 컴퍼니, PGA 투어, 윌슨 컴퍼니 등이 참여와 전환에 중점 둔 비즈니스 목표를 달성하는 영향력 있는 경험을 제공하고 있다. 사이트 옵티마이저는 웹사이트 최적화의 전체 프로세스를 간소화하는 올인원 애플리케이션이다. 실시간 트래픽 성과 모니터링을 통해 새로운 사이트 최적화 에이전트(Site Optimization Agent)는 성과가 높을 것으로 예상되는 기회를 예측, 감지 및 추천할 수 있다. 또한 어도비 익스피리언스 플랫폼 에이전트 오케스트레이터를 기반으로 해, 여러 랜딩 페이지 옵션에서 콘텐츠가 브랜드 규정을 준수하는 지 미리 확인 후, 자동으로 제안 및 생성해 전환율을 높일 수 있다. 특정 웹 경험으로 인해 참여도가 낮아지거나 백링크 끊김과 같은 SEO 문제로 트래픽에 영향을 미치는 경우, AI 에이전트는 문제를 파악하고 조정을 제안할 수 있으며 마케터는 기술적 지원 없이도 클릭 한 번으로 제안 사항을 즉시 구현 가능하다. 어도비의 아미트 아후자(Amit Ahuja) 디지털 경험 비즈니스 부문 수석 부사장은 “통합된 고객 경험을 제공하기 위해서는 실제 고객의 문제를 해결하는 보다 민첩하고 간소화된 운영이 필요한데, 종종 리소스와 시간 제약을 맞닥뜨릴 때가 있다”면서, “어도비는 AI, 데이터 및 콘텐츠 제작 워크플로를 통합해 적절한 디지털 경험을 정교하게 제공하는 동시에 보이지 않는 문제를 발견하는 깊은 전문성을 바탕으로 기업을 지원할 수 있다”고 말했다.
작성일 : 2025-05-28
AWS, AI 기반 마이그레이션 서비스 ‘AWS 트랜스폼’ 출시
아마존웹서비스(AWS)가 기업의 마이그레이션 및 현대화 프로젝트를 가속화하기 위한 AI 기반 서비스인 AWS 트랜스폼(AWS Transform)을 출시했다. AWS 트랜스폼은 지난 AWS 리인벤트 2024에서 아마존 Q 디벨로퍼(Amazon Q Developer)의 변환 기능 중 하나로 선공개된 AI 기반 설루션이다. 이 설루션은 기업의 VM웨어, 메인프레임, 닷넷 워크로드와 관련된 현대화 작업을 자동화하고 복잡한 마이그레이션 작업을 간소화하여, 기존 방식 대비 최대 4배 빠르게 프로젝트를 완료할 수 있도록 지원한다. 또한, 기반 모델, 대규모 언어 모델(LLM), 머신러닝, 그래프 신경망, 자동화 추론 등 AWS의 AI 기술 인프라를 활용하여 기존 인프라, 애플리케이션, 코드 현대화 과정에서의 복잡성과 부담을 줄여준다. 또한 전문적인 트랜스포메이션 어시스턴트 역할을 하는 채팅 기반의 경험을 제공하여 목표 설정, 프로젝트 컨텍스트 공유, 비즈니스 계획 및 비용 절감 평가, 트랜스포메이션 계획 검토 및 조정, 코드 및 인프라 제안 검토 및 승인 등을 지원한다. 뿐만 아니라 통합 웹 환경에서 여러 부서의 팀들이 함께 작업을 검토하고, 진행 상황을 추적하며, 프로젝트 전반에 걸쳐 협업할 수 있게 함으로써 가장 복잡한 레거시 애플리케이션에 대한 트랜스포메이션 계획을 제어할 수 있도록 지원한다. AWS는 닷넷을 위한 AWS 트랜스폼 에이전트가 윈도우에서 리눅스로 닷넷 프레임워크(.NET Framework) 애플리케이션 포팅(porting)을 가속화하여 운영 비용을 최대 40%까지 절감한다고 소개했다. 이러한 비용 절감은 윈도우 서버 라이선싱 비용, 버전 업그레이드, 유지보수 및 지원 종료 문제를 줄이는 동시에 분석, 계획 및 리팩토링 전반에 걸친 트랜스포메이션 비용을 절감함으로써 이루어진다. 닷넷 에이전트(.NET Agent)를 통해 자연어로 채팅하여 트랜스포메이션 목표와 프로젝트 컨텍스트를 공유할 수 있으며, AWS 트랜스폼이 종속성을 분석하고, 과거 현대화 여정의 영역별 전문 지식을 적용하여 맞춤형 현대화 계획을 개발할 수 있다. 또한 자율적으로 코드를 변환하고, 단위 테스트를 실행하고, 트랜스포메이션 요약을 생성하며, 리눅스 환경에서 실행 가능한 상태로의 준비 여부를 검증할 수 있다. AWS 트랜스폼은 닷넷 프레임워크 애플리케이션 코드를 리눅스 환경에서 실행 가능한 상태로 준비된 크로스 플랫폼 닷넷으로 변환하고, 사설 패키지를 포팅하고, 단위 테스트 실행을 자동화한다. 또한 설명 가능한 변환 결정을 제공함으로써 애플리케이션의 성능과 확장성을 향상시킨다. 이 새로운 에이전트는 통합된 웹 경험을 통해 일관된 결과로 수백 개의 애플리케이션을 병렬로 변환시켜 팀 간의 협업을 간소화하고 대규모 현대화 프로젝트를 효율적으로 처리할 수 있도록 지원한다. AWS에 따르면, 메인프레임을 위한 AWS 트랜스폼 에이전트를 통해 전체 현대화 프로세스를 간소화하여 위험과 복잡성을 줄이면서 일정을 최대 50%까지 단축할 수 있다. 채팅 인터페이스를 통해 높은 수준의 현대화 목표를 정의하고 작업 계획을 협의할 수 있다. 준비가 되면 AWS 트랜스폼은 코볼(COBOL)과 JCL(Job Control Language)로 작성된 메인프레임 애플리케이션과 CICS(Customer Information Control System) 트랜잭션 관리자, BMS(Basic Mapping Support) 화면, DB2 데이터베이스, VSAM(Virtual Storage Access Method) 데이터 파일에 의존하는 애플리케이션을 처리한다. 종속성과 누락된 파일을 신속하게 식별하는 고급 코드 분석의 이점을 통해 하위 프로젝트 지연을 줄일 수 있다. 그래프 신경망을 사용하여 모놀리식(monolithic) 애플리케이션을 관리 가능한 모듈로 분해함으로써 중요한 비즈니스 로직을 보존하면서 타기팅된 현대화 접근 방식을 가능하게 한다. 프로젝트 전반에 걸쳐 AWS 트랜스폼은 AI 어시스턴트 역할을 하며, 진행 상황에서 학습하고 생성된 기술 문서를 기반으로 프로그램에 대한 질문에 답변한다. 애플리케이션을 리팩토링(refactoring)할 때, 향상된 정확도를 위해 상태 머신(state machines)과 상태 전이 그래프(state transition graphs)를 활용하여 코볼, JCL 및 DB2를 자바(Java)와 포스트그레(Postgres)로 변환할 수 있다. 애플리케이션을 재구상할 때는 수백만 줄의 코드에서 추출된 포괄적인 기술 문서, 비즈니스 규칙, 논리적 흐름을 얻을 수 있다. AI 에이전트의 지능형 오케스트레이션을 통해 상세한 문서로 기관 지식을 보존하면서 클라우드에서 메인프레임 애플리케이션을 더 빠르고, 단순하고, 안전하게 현대화할 수 있다. VM웨어를 위한 AWS 트랜스폼 에이전트는 인프라를 최적화하고 운영 오버헤드를 줄이면서 증가하는 VM웨어 라이선스 비용을 피할 수 있다. 채팅 인터페이스는 온프레미스 VM웨어 환경에 커넥터를 추가하거나 타사 도구에서 자산 인벤토리를 업로드하도록 안내한다. 목표를 지정한 후, 에이전트는 애플리케이션 검색, 종속성 매핑, 마이그레이션 계획, 네트워크 변환, 서버 마이그레이션 및 EC2 인스턴스 최적화와 같은 작업을 자동화한다. 사용자는 휴먼인더루프(human-in-the-loop) 메커니즘을 통해 아티팩트를 검토, 승인 및 편집할 수 있다. 그래프 신경망을 사용하여 네트워크 트래픽과 통신 패턴을 분석하여 종속성을 식별하고 최적의 마이그레이션 이행 계획(migration wave planning)을 자동으로 생성할 수 있다. VPC, 서브넷, 보안 그룹 및 트랜짓 게이트웨이를 포함한 복잡한 네트워크 구성을 AWS 클라우드 환경에 상응하는 구성요소로 변환할 수 있다. 또한 격리된 VPC 및 유연한 허브앤스포크(Hub-and-Spoke) 구성과 같은 향상된 기능을 통해 네트워크 마이그레이션 문제를 해결할 수 있다. 이를 통해 일반적으로 2주가 소요되던 전통적인 네트워크 구성 작업을, VM웨어를 위한 AWS 트랜스폼을 사용하면 1시간 안에 완료할 수 있으며, 일반적으로 몇 주의 분석이 필요한 마이그레이션 이행 계획을 15분 안에 완료할 수 있게 되었다.
작성일 : 2025-05-20
HPE 아루바 네트워킹, 중소기업 위한 엔터프라이즈급 인스턴트 온 시큐어 게이트웨이 출시
HPE는 진화하는 사이버 위협으로부터 중소기업(SMB) 네트워크를 보호하기 위해 설계된 새로운 다기능 네트워크 설루션인 ‘HPE 네트워킹 인스턴트 온 시큐어 게이트웨이(HPE Networking Instant On Secure Gateway)’를 선보였다. 이는 엔터프라이즈급 보안을 간편한 구축 및 관리 기능과 결합해 전문 IT 인력이나 많은 리소스 없이도 중소기업이 자사의 네트워크를 안전하게 보호할 수 있도록 지원한다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 네트워크 트래픽을 지능적으로 모니터링, 필터 및 운영을 통해 안전하고 허가된 활동만을 허용하고, 악의적인 위협을 사전에 차단하는 1차 방어선 역할을 한다. 방화벽 보호, 침입 탐지 및 차단, VPN 지원, WAN 고가용성 등 핵심 보안 기능을 하나의 간편한 설루션에 통합함으로써, 중소기업이 직면한 주요 사이버 보안 과제를 효과적으로 해결하고 네트워크 보호를 간소화한다.     HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 두 가지 모델로 제공되며, 각 모델은 규모와 사용자 요구에 맞는 적절한 성능과 보호 수준을 제공하도록 설계되었다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이 SG1004(HPE Networking Instant On Secure Gateway SG1004)는 1기가만 지원하는 4포트 유선 시큐어 게이트웨이로, 기본 라우팅, WAN 복원력, VPN, 방화벽 및 IDS/IPS 옵션을 제공한다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이 SG2505P(HPE Networking Instant On Secure Gateway SG2505P)는 멀티 기가 지원 5포트 시큐어 게이트웨이로, 더 높은 성능과 클래스 4 POE 지원을 제공하며, 액세스 포인트에 총 64W의 전력 공급 및 SG1004가 지원하는 모든 기능을 포함한다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 네트워크 트래픽을 지속적으로 모니터링하고 IDS/IPS 서명을 자동으로 업데이트하여 실시간 위협 탐지 및 차단 기능을 제공, 새로운 위협으로부터 보호한다. 여러 핵심 보안 기능을 하나의 플랫폼에 통합함으로써 여러 도구와 벤더에 대한 의존도를 줄이고, 네트워크 보안 관리의 최신화를 촉진한다. 보안 기능을 통합한 HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 하드웨어 비용을 절감하고 서드파티 도구에 대한 의존도를 최소화한다. 고가용성 기능을 통해 다운타임을 최소화하며, 자동화된 사고 대응으로 위협을 신속하게 해결해 비즈니스의 원활한 운영을 지원한다. 또한, 자동화된 정책 시행 및 감사 추적 기능을 통해 클라우드 관리형 게이트웨이는 데이터 보호와 로그 기록을 자동화하여 규제 준수를 용이하게 한다. 또한, HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 하나의 통합된 직관적인 인터페이스를 통해 중소기업이 전체 네트워크를 관리할 수 있는 단일 클라우드 시스템을 제공, 전문 IT 인력 없이도 쉽게 관리할 수 있다. 투명한 구독 모델은 숨겨진 비용을 없애 중소기업이 고급 엔터프라이즈급 보안을 보다 쉽게 접근하고 합리적인 가격에 이용할 수 있도록 한다. HPE 아루바 네트워킹의 아몰 미트라(Amol Mitra) 월드와이드 SMB 총괄 부사장은 “오늘날 중소기업은 제한된 IT 자원과 빠르게 변화하는 디지털 환경 속에서 복잡해지는 사이버 위협으로부터 네트워크를 방어해야 하는 지속적인 과제에 직면해 있다”며, “전담 보안팀이나 충분한 예산이 없는 많은 중소기업이 효과적인 네트워크 보호에 어려움을 겪고 있으며, 기존 보안 설루션은 민첩성과 유연성, 클라우드 보안, 고도화된 위협 탐지 기능이 부족해 보안에 대한 잘못된 안정감을 주고, 결과적으로 기업을 위협에 노출시킨다. HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 이러한 격차를 해소하고, 중소기업이 많은 자원 없이도 엔터프라이즈급 보호를 제공받으며 급변하는 디지털 환경 속에서 안전을 유지할 수 있도록 지원한다”고 전했다. HPE 아루바 네트워킹의 마크 애블릿(Mark Ablett) 아태 지역 부사장은 “아시아태평양 및 일본 지역의 중소기업은 혁신을 확대하고 생산성을 높이며 일자리와 기회를 창출함으로써 지역 경제 성장의 핵심 동력으로 작용하고 있다. 그러나 이들이 잠재력을 온전히 실현하기 위해서는 고유한 과제와 요구에 맞춘 특화된 설루션이 필요하다”며, “HPE 네트워킹 인스턴트 온 시큐어 게이트웨이는 이러한 기업들이 네트워크 보호와 운영 간소화를 위한 고급 보안 설루션을 제공하며, 관리가 용이한 기능을 통해 중소기업들이 더욱 안전하게 혁신하고 확장할 수 있도록 지원한다. 이 혁신은 중소기업들이 더욱 연결되는 환경 속에서 자신감을 가지고 성장할 수 있도록 돕는 핵심 요소”라고 전했다.
작성일 : 2025-05-08
매스웍스-알테라, “AI로 5G/6G 무선 시스템 개발 가속화”
매스웍스가 인텔의 자회사인 알테라(Altera)와 함께 알테라 FPGA(프로그래머블 반도체)의 무선 개발 가속화를 위한 협력 계획을 발표했다. 이를 통해 무선 시스템 엔지니어는 AI 기반 오토인코더를 사용해 채널 상태 정보(CSI) 데이터를 압축하고, 프론트홀 트래픽과 대역폭 요구사항을 크게 줄일 수 있게 된다. 또한 5G 및 6G 무선 통신 시스템을 다루는 엔지니어는 사용자 데이터 무결성을 보장하고, 무선 통신 시스템의 신뢰성과 성능 표준을 유지하는 동시에 비용을 절감할 수 있을 것으로 예상된다. 매스웍스는 알테라 FPGA에 특화된 AI 및 무선 개발을 강화하는 포괄적인 툴 제품군을 제공한다. ‘딥러닝 HDL 툴박스(Deep Learning HDL Toolbox)’는 FPGA 하드웨어에서 딥러닝 신경망을 구현하고자 하는 엔지니어의 요구사항을 충족한다. 딥러닝 HDL 툴박스는 ‘HDL 코더(HDL Coder)’의 기능을 활용함으로써, 사용자는 효율적인 고성능 딥러닝 프로세서 IP 코어를 커스터마이즈하고 구축 및 배포할 수 있다. 이는 표준 네트워크와 레이어를 지원함으로써 무선 애플리케이션의 성능과 유연성을 높인다. FPGA AI 스위트는 오픈비노(OpenVINO) 툴킷을 통해 널리 사용되는 산업 프레임워크의 사전 훈련된 AI 모델을 활용하여 알테라 FPGA에서 버튼 하나로 맞춤형 AI 추론 가속기 IP를 생성할 수 있도록 지원한다. 또한 FPGA AI 스위트는 FPGA 개발자가 쿼터스(Quartus) 프라임 소프트웨어 FPGA 플로를 사용해 AI 추론 가속기 IP를 FPGA 설계에 원활하게 통합할 수 있게 한다. 개발자들은 딥러닝 툴박스와 오픈비노 툴킷을 결합해 알테라 FPGA에서 AI 추론을 최적화할 수 있는 과정을 간소화할 수 있다.     알테라의 마이크 피튼(Mike Fitton) 버티컬 시장 담당 부사장 겸 총괄 매니저는 “매스웍스와 알테라의 협력을 통해 기업은 5G RAN(무선 접속 네트워크)에서 ADAS(첨단 운전자 보조 시스템)에 이르기까지 다양한 5G 및 6G 무선 통신 애플리케이션에 AI의 강력한 힘을 활용할 수 있게 됐다”면서, “개발자는 알테라의 FPGA AI 스위트(suite)와 매스웍스 소프트웨어를 활용해 알고리즘 설계부터 하드웨어 구현에 이르는 워크플로를 간소화하고, AI 기반 무선 시스템이 현대 애플리케이션의 엄격한 요구사항을 충족하도록 보장할 수 있게 됐다”고 말했다. 매스웍스의 후만 자린코우브(Houman Zarrinkoub) 수석 제품 매니저는 “AI 기반 압축은 통신 산업에 있어 매우 강력한 기술”이라며, “매스웍스 소프트웨어는 AI 및 무선 개발을 위한 강력한 기반을 제공한다. 무선 엔지니어는 매스웍스 툴과 알테라의 FPGA 기술을 통합해 고성능 AI 애플리케이션과 첨단 5G 및 6G 무선 시스템을 효율적으로 개발할 수 있다”고 말했다.
작성일 : 2025-03-25
AMD, 5세대 에픽 임베디드 프로세서 공개
AMD가 5세대 AMD 에픽 임베디드 프로세서(AMD EPYC Embedded)를 발표하면서 x86 임베디드 프로세서 포트폴리오를 강화한다. AMD 에픽 임베디드 9005 시리즈 CPU는 임베디드 시장을 겨냥한 제품으로, 첨단 컴퓨팅 기능과 제품 수명, 안정성, 시스템 복원성 및 임베디드 애플리케이션 개발의 용이성을 개선하는 특수 목적의 임베디드 기능을 균형 있게 제공한다. ‘젠 5(Zen 5)’ 아키텍처를 기반으로 하는 이 프로세서는 업계 최고 수준의 성능과 에너지 효율을 통해 네트워크, 스토리지 및 산업용 에지 시스템이 더 많은 데이터를 더 빠르고 효율적으로 처리할 수 있도록 지원한다. AMD 에픽 임베디드 9005 시리즈 프로세서는 단일 소켓에서 8~192개의 코어를 지원하며, 연산 집약적 임베디드 시스템을 위한 고성능을 제공한다. 높은 코어 밀도를 통해 네트워크 및 스토리지 워크로드에서 각각 최대 1.3배 및 1.6배 향상된 데이터 처리 능력을 갖추고 있으며, 네트워크 및 보안 방화벽 플랫폼, 스토리지 시스템 및 산업용 제어 애플리케이션에 적합한 성능을 제공한다. 특히, 일부 제품에 적용된 새로운 ‘젠 5c(Zen 5c)’ 코어 아키텍처는 최대 1.3배 늘어난 소켓 처리량, 경쟁 제품 대비 1.3배 향상된 와트당 성능을 제공한다. 또한, 소켓당 최대 6TB의 DDR5 메모리 용량, CXL 2.0으로 최대 160개의 PCIe Gen5 레인을 지원하는 확장된 I/O 연결을 통해 네트워크 및 스토리지 애플리케이션의 용량 확장 및 고속 데이터 전송을 가능하게 한다.     AMD는 에픽 임베디드 9005 시리즈 프로세서가 플랫폼의 신뢰성과 안정성, 보안성 및 수명 주기 강화를 위해 설계된 고급 임베디드 기능을 포함한다고 설명했다. AMD 에픽 임베디드 9005 시리즈 CPU는 7년의 긴 제품 제조 지원을 제공하여 시스템 개발사에 장기적인 제품 가용성을 보장한다. 또한 AMD는 현재 샘플링 중인 AMD 에픽 임베디드 9005 시리즈 CPU의 설계 수명 운영 목표를 5년에서 7년으로 연장하여 임베디드 시스템의 장기적인 제품 안정성을 보장할 계획이다.  에픽 임베디드 9005 시리즈는 내결함성 다중 호스트 구성에서 높은 가용성을 제공하기 위한 NTB(Non-Transparent Bridging) 기능을 포함한다. NTB는PCIe를 통해 활성화된 두 CPU 간의 데이터 교환을 가능하게 하여 장애 발생 시에도 지속적으로 작동할 수 있도록 네트워크 및 스토리지 시스템의 리던던시 및 장애 조치 기능을 개선한다. DRAM 플러시(DRAM Flush) 기능은 전원 장애 시 DRAM에서 비휘발성 메모리로 데이터를 플러싱하여 데이터 손실을 방지함으로써 필수 스토리지 배포의 안정성을 향상시킨다. 또한, 듀얼 SPI(Serial Peripheral Interface)는 고객이 보안 부트로더를 통해 플랫폼을 인증할 수 있도록 지원하며, 신뢰할 수 있는 실행 환경을 보장한다. 한편, AMD는 차세대 임베디드 프로세서의 시장 출시를 위해 시스코와 IBM 등 생태계 파트너 및 업계 주요 ODM과 OEM과 긴밀히 협력하고 있다고 덧붙였다. AMD는 현재 에픽 임베디드 9005 시리즈 프로세서의 얼리 액세스 고객을 대상으로 샘플을 제공하고 있으며, 양산 출하는 2025년 2분기 시작할 예정이다. AMD 에픽 임베디드 9005 시리즈 프로세서는 이전 세대 제품인 AMD 에픽 임베디드 9004 시리즈와 호환 가능한 SP5 소켓 폼팩터로 제공되어 간편한 업그레이드가 가능하다. AMD의 적응형 및 임베디드 컴퓨팅 부문을 총괄하는 살릴 라지(Salil Raje) 수석 부사장은 “AI 기반 네트워크 트래픽과 폭발적으로 증가하는 데이터 스토리지 요구 사항, 산업용 에지 컴퓨팅의 확장으로 인해 임베디드 플랫폼에서 더 높은 컴퓨팅 성능에 대한 수요가 증가하고 있다”고 설명했다. 또한 그는 “5세대 AMD 에픽 임베디드 프로세서는 업계 최상의 성능과 효율성, 긴 제품 수명 주기와 향상된 시스템 복원력을 제공해 임베디드 고객이 탁월한 시스템을 설계할 수 있도록 지원하고 까다로운 ‘올웨이즈 온’ 환경에서 지속적인 운영을 보장한다”고 밝혔다.
작성일 : 2025-03-12