• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "트래픽"에 대한 통합 검색 내용이 446개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
HPE, 에릭슨과 협력해 듀얼모드 5G 코어 설루션 검증
HPE는 에릭슨과 협력해 통신 서비스 사업자가 멀티벤더 인프라 스택을 구축하는 과정에서 직면하는 핵심 과제를 해결하기 위한 공동 검증 랩 설립을 발표했다. 이번 협력은 클라우드 네이티브 기반의 AI 지원 듀얼모드 5G 코어 설루션의 검증을 통해, 새로운 서비스 도입 과정의 복잡성을 관리하면서도 고성능·확장성·효율성을 갖춘 네트워크를 구축해야 하는 증가하는 수요에 대응한다. HPE와 에릭슨은 이를 기반으로 통신사들이 운영을 간소화하고 혁신을 가속화하며, 초연결 시대의 요구사항을 충족할 수 있도록 지원할 계획이다. 공동 검증 랩은 상호운용성 테스트를 수행하고 검증된 설루션이 통신사의 요구사항을 충족하는지 확인하는 테스트 환경으로 활용된다. 이 스택은 에릭슨의 듀얼모드 5G 코어 설루션과 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) Gen12 서버, 앱스트라 데이터센터 디렉터(Apstra Data Center Director) 기반으로 관리되는 HPE 주니퍼 네트워킹(HPE Juniper Networking) 패브릭, 그리고 레드햇 오픈시프트(Red Hat OpenShift)로 구성된다. ▲‘에릭슨 듀얼 모드 5G 코어’는 5G와 4G 네트워크를 모두 지원하는 설루션으로, 효율적인 확장 및 미래 대비 네트워크 구축을 원하는 통신사의 복잡성과 운영 비용을 절감한다. ▲‘HPE 프로라이언트 DL360 및 DL380 Gen12 서버’는 인텔 제온 6 프로세서를 탑재해 AMF, UPF, SMF 등 네트워크 집약적 텔코 CNF(Containerized Core Network Functions)를 위한 최적의 성능을 제공한다. 또한 칩에서 클라우드까지 보안을 구현한 HPE Integrated Lights Out(iLO) 7을 통해 모든 계층에서 내장형 보안을 제공한다. ▲‘HPE 주니퍼 네트워킹 고성능 패브릭’은 QFX 시리즈 스위치와 앱스트라 데이터센터 디렉터를 기반으로 인텐트 기반 자동화(Intent-based Automation)와 AIOps 기반 보증 기능을 통해 운영 효율을 강화하고 비용을 절감한다. ▲‘레드햇 오픈시프트’는 공통 클라우드 네이티브 텔코 플랫폼으로서, 통신사가 새로운 서비스를 빠르게 개발·배포·확장할 수 있는 민첩성을 제공한다. 이를 통해 시장 출시 시간을 단축하고 기존 배포 주기를 개선하며, 코어에서 에지까지 일관되고 자동화된 운영 경험을 제공해 복잡한 네트워크 기능 배포 및 관리를 간소화한다.     스웨덴 에릭슨 본사 인근에 위치한 이번 검증 랩은 2025년 말 가동을 시작할 예정이다. 또한 실제 고객 테스트와 피드백을 통해 검증을 진행하고, 2026년 상반기에는 통합 설루션의 상용 검증을 완료해 시장 출시 속도를 높이고 라이프사이클 관리 효율을 강화할 계획이다. HPE의 페르난도 카스트로 크리스틴(Fernando Castro Cristin) 텔코 인프라 사업부 부사장 겸 총괄은 “HPE는 에릭슨과의 전략적 파트너십을 바탕으로 통신사가 5G 및 AI 중심의 경제에서 성공할 수 있도록 혁신적인 기술 설루션을 제공하는 데 주력하고 있다”면서, “에릭슨의 클라우드 네이티브 듀얼모드 5G 코어와 레드햇 오픈시프트를 검증된 차세대 HPE 컴퓨트 인프라 및 HPE 주니퍼 네트워킹 패브릭과 통합함으로써, HPE는 통신사가 신속한 서비스 배포와 수요 기반 확장, 트래픽 변동에 대한 유연한 대응, 예측 가능한 라이프사이클 관리, 그리고 빠르게 진화하는 기술 환경에 적응할 수 있는 새로운 통합 설루션을 개발하고 있다”고 말했다. 에릭슨의 크리슈나 프라사드 칼루리(Krishna Prasad Kalluri) 코어 네트웍스 설루션 및 포트폴리오 부문 총괄은 “에릭슨은 5G 및 코어 네트워크 분야의 글로벌 리더로서, 통신사가 클라우드 네이티브 네트워크로 전환하는 여정을 간소화할 수 있도록 개방성과 혁신을 지속적으로 추진하고 있다”며, “HPE와의 협력 및 공동 검증 랩 설립은 멀티벤더 인프라 환경에서 클라우드 네이티브 5G 코어 설루션 개발을 한층 더 발전시키는 중요한 계기가 될 것”이라고 밝혔다.
작성일 : 2025-10-20
AWS, 포괄적 AI 에이전트 플랫폼 ‘아마존 베드록 에이전트코어’ 출시
아마존웹서비스(AWS)가 포괄적인 에이전틱 플랫폼인 ‘아마존 베드록 에이전트코어(Amazon Bedrock AgentCore)’를 출시한다고 발표했다. AWS는 “미션 크리티컬 시스템 구축 경험을 바탕으로 개발된 아마존 베드록 에이전트코어는 안전하고 신뢰할 수 있으며 확장 가능한 종합 에이전트 플랫폼으로, 에이전트의 비결정적 특성에 최적화된 프로덕션 환경을 제공한다”고 소개했다. 에이전트코어는 기업이 AI 에이전트를 파일럿에서 프로덕션까지 신속하게 전환하고 개발자가 에이전트를 구축, 배포, 운영하는 데 필요한 완전한 기반을 제공한다. 개발자는 복잡한 워크플로를 처리할 수 있도록 에이전트에 도구, 메모리, 데이터를 손쉽게 연결할 수 있으며, 몇 줄의 코드로 안전하고 확장 가능한 런타임 환경에 배포할 수 있다. 또한 엔터프라이즈급 접근 제어 및 관리 기능을 통해 안정적으로 운영할 수 있다. 이 모든 기능은 인프라를 관리 없이 원하는 모델이나 프레임워크를 자유롭게 선택해 쉽게 시작할 수 있다. 에이전트코어는 구축부터 배포, 운영까지 에이전트 개발 수명주기 전반에 걸쳐 완전 관리형 서비스를 제공하는 에이전틱 플랫폼이다. 기업은 원하는 모델이나 프레임워크를 자유롭게 조합해 사용할 수 있으며 엔터프라이즈급 인프라 및 도구에 대한 액세스와 함께 높은 유연성을 제공한다. 에이전트코어는 통합 또는 개별 사용이 가능한 컴포저블(composable) 서비스를 제공한다. 기업은 크루AI, 구글 ADK, 랭그래프, 라마인덱스, 오픈AI 에이전트 SDK, 스트랜드 에이전트 등 선호하는 프레임워크와 아마존 베드록에서 제공되는 모델 또는 오픈AI, 제미나이 등 아마존 베드록 외부 모델을 사용하여 필요한 에이전트코어 서비스를 선택할 수 있다.     에이전트코어 코드 인터프리터(AgentCore Code Interpreter)는 격리된 환경에서 에이전트가 코드를 안전하게 생성하고 실행할 수 있게 하며, 에이전트코어 브라우저(AgentCore Browser)는 대규모 웹 애플리케이션 상호작용을 지원한다. 에이전트코어 게이트웨이(AgentCore Gateway)는 기존 API와 AWS 람다(AWS Lambda) 함수를 에이전트 호환 도구로 전환하고 기존 모델 컨텍스트 프로토콜(Model Context Protocol : MCP) 서버에 연결하며, 지라, 아사나, 젠데스크 등 서드파티 비즈니스 도구 및 서비스와의 원활한 통합을 제공한다. 에이전트코어 아이덴티티(AgentCore Identity)를 통해 에이전트는 오스(OAuth) 표준을 사용한 적절한 인증 및 권한 부여로 이러한 도구에 안전하게 액세스하고 운영할 수 있다. AI 에이전트는 컨텍스트를 유지하고 상호작용을 통해 학습할 수 있어야 한다. 에이전트코어 메모리(AgentCore Memory)는 개발자가 복잡한 메모리 인프라를 관리하지 않고도 정교하고 컨텍스트를 인식하는 경험을 만들 수 있도록 지원하며, 에이전트가 사용자 선호도, 과거 상호작용, 관련 컨텍스트에 대한 상세한 이해를 구축하고 유지할 수 있게 한다. 아마존 클라우드워치(Amazon CloudWatch) 기반의 에이전트코어 옵저버빌리티(AgentCore Observability)는 실시간 대시보드와 상세한 감사 추적을 통해 포괄적인 모니터링을 제공한다. 기업은 모든 에이전트 작업을 추적하고 문제를 신속하게 디버깅하며 성능을 지속적으로 최적화할 수 있다. 오픈텔레메트리(OpenTelemetry : OTEL) 호환성을 통해 다이나트레이스, 데이터독, 아리제 피닉스, 랭스미스, 랭퓨즈 등 기존 모니터링 도구와 통합된다. 에이전트 워크로드는 기존 애플리케이션과 달리 실행 시간이 불규칙하다. 에이전트코어 런타임(AgentCore Runtime)은 이러한 변동성(variability)에 대응해 필요에 따라 제로에서 수천 개의 세션으로 자동 확장되며 장시간 실행 작업을 위한 업계 최고 수준의 8시간 런타임을 제공한다. 에이전트코어는 에이전트가 안전하게 작동할 수 있도록 모든 서비스에 보안을 내장했다. 가상 프라이빗 클라우드(VPC) 환경과 AWS 프라이빗링크(AWS PrivateLink)를 지원하여 네트워크 트래픽을 비공개로 안전하게 유지한다. 에이전트코어 런타임은 마이크로VM 기술을 통해 매우 높은 수준의 보안을 제공하여 각 에이전트 세션에 고유한 격리된 컴퓨팅 환경을 제공함으로써 데이터 유출을 방지하고 모든 상호작용의 무결성을 유지한다. 에이전트코어는 키로(Kiro), 커서AI(Cursor A)I와 같은 통합 개발 환경(IDE)과 호환되는 MCP 서버를 통해 프로덕션급 에이전트 구축을 지원한다. AWS는 “시작까지 단 몇 분밖에 걸리지 않지만 이는 단순한 도구가 아니라 강력한 보안을 유지하면서 제로에서 수천 개의 세션으로 즉시 확장할 수 있는 완전한 기능의 프로덕션급 설루션”이라고 소개했다. 아마존 디바이스 운영 및 공급망(Amazon Devices Operations & Supply Chain) 팀은 에이전트코어를 사용하여 에이전틱 제조 접근 방식을 개발하고 있다. AI 에이전트들은 제품 사양을 사용하여 함께 작업하며 수동 프로세스를 자동화하며 협업한다. 한 에이전트는 제품 요구사항을 읽고 품질 관리를 위한 상세한 테스트 절차를 만들고, 다른 에이전트는 제조 라인의 로봇에 필요한 비전 시스템을 훈련시킨다. 그 결과 기존에 며칠이 걸리던 객체 감지 모델 미세 조정이 1시간 이내에 높은 정밀도로 단축됐다. 에이전트코어는 뭄바이, 싱가포르, 시드니, 도쿄, 더블린, 프랑크푸르트, 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오리건) 등 9개 AWS 리전에서 정식 출시됐다. 기업은 에이전트코어에서 작동하도록 설계된 AWS 마켓플레이스(AWS Marketplace)의 사전 구축된 에이전트 및 도구를 통해 가치 실현 시간을 가속화할 수 있다.
작성일 : 2025-10-17
어도비, 기업용 LLM 옵티마이저 출시… AI 기반 챗 서비스 및 브라우저 전반 가시성 제고
어도비가 ‘어도비 LLM 옵티마이저(Adobe LLM Optimizer)’의 정식 출시를 발표했다. 새로운 기업용 애플리케이션은 생성형 AI 기반 인터페이스가 빠르게 확산되는 시대에 기업이 브랜드의 연관성과 영향력을 확보할 수 있도록 지원한다. LLM 옵티마이저를 통해 기업은 생성형 엔진 최적화(GEO : Generative Engine Optimization)를 위한 포괄적인 설루션을 활용할 수 있다. 가령, AI 기반 트래픽을 모니터링하고 브랜드 가시성을 벤치마킹할 수 있으며, 자사 디지털 채널은 물론 브랜드가 인용되는 서드 파티 디지털 채널에서 발견 가능성을 향상시키기 위한 방법을 취할 수 있다. AI 기반 챗 서비스와 브라우저는 소비자들이 제품을 검색하고 조사하는 데 필수적인 툴이 되었다. 어도비의 최신 데이터에 따르면, 기업들이 디지털 존재감을 재정비해야 할 필요성이 그 어느 때보다 커지고 있다. 2025년 9월 기준, 어도비는 미국 소매 웹사이트로 유입된 AI 트래픽이 전년 대비 1100% 증가한 것을 확인했다. 생성형 AI 소스를 통한 방문자는 비 AI 트래픽(유료 검색, 제휴사 및 파트너, 이메일, 오가닉 검색, 소셜 미디어 등) 유입 대비 체류 시간 및 페이지 뷰 등과 같은 참여도는 12%,  전환율은 5% 각각 더 높게 나타났다. 이는 디지털 행동의 근본적인 변화를 시사하는 것으로, AI가 제품 검색 단계에서 더 많은 정보를 가진 소비자를 만들어내는 만큼 기업은 뒤처지지 않도록 대비해야 한다는 것이 어도비의 설명이다.     기업용 어도비 LLM 옵티마이저는 ▲AI 기반 트래픽, 인용 측정 및 벤치마킹 ▲가시성 향상을 위한 콘텐츠 및 코드 최적화 ▲비즈니스 가치 입증 등의 기능을 제공한다. LLM 옵티마이저는 AI 인터페이스가 사용자 질의에 대한 응답을 제공하는 데 활용하는 자사 콘텐츠를 식별할 수 있다. 이를 통해 LLM이 우선시하는 디지털 채널(예 : 특정 웹 페이지)을 파악하고 AI 추천의 변화를 모니터링할 수 있다. 또한 벤치마킹을 통해 가치가 높은 질의에서 경쟁사 대비 가시성을 평가할 수 있다. LLM 옵티마이저의 초기 고객 분석 결과, 80%가 AI 접점이 주요 제품 정보나 리뷰에 접근하지 못하는 문제를 안고 있었다. 이를 해결하기 위해 LLM 옵티마이저 내 추천 엔진은 브랜드 가시성 격차를 감지하고, 웹페이지와 FAQ 같은 자사 채널 및 위키피디아, 공개 포럼 등의 외부 채널 전반을 아우르는 개선 사항을 제안한다. 여기에는 콘텐츠 최적화뿐 아니라 누락되거나 잘못된 메타데이터 같은 기술적 수정 사항이 포함되며, LLM이 인식하지 못하는 웹 사이트 영역을 자동 감지해 콘텐츠 가시성을 높이는 조치도 해당된다. 이를 통해 팀은 한 번의 클릭으로 최적화 방안을 검토, 승인 및 배포할 수 있어 인사이트를 실질적인 성과로 전환할 수 있다.   또한, LLM 옵티마이저는 AI 가시성을 사용자 행동과 비즈니스 성과로 연결하는 기여도 기능을 제공한다. 이로써 참여도 및 전환율에 미치는 영향을 입증할 수 있고, 즉시 사용 가능한 리포트 기능을 활용해 조직 전반에 인사이트를 빠르게 공유할 수 있다. LLM 옵티마이저는 단독 애플리케이션으로 제공되며, 콘텐츠 관리 시스템인 어도비 익스피리언스 매니저 사이트(Adobe Experience Manager Sites)와 네이티브 통합된다. 또한 에이전트 투 에이전트(A2A) 및 모델 컨텍스트 프로토콜(MCP)과 같은 업계 표준을 지원해, 다양한 서드파티 설루션 워크플로와의 원활한 상호운용성을 제공한다. 어도비는 누구나 쉽게 AI 가시성 인사이트를 활용할 수 있도록 LLM 옵티마이저 기반 무료 크롬 확장 프로그램 ‘Is Your Webpage Citable?’도 출시했다. 이 도구를 통해 LLM이 웹사이트에서 인식하는 내용과 놓치는 부분을 확인할 수 있어,  AI 가시성의 숨겨진 격차를 발견할 수 있다. LLM 옵티마이저는 이 같은 기본 인사이트를 바탕으로 엔터프라이즈급 측정, 최적화 및 보고 기능을 포함한 종합 설루션을 제공한다. 어도비의 로니 스타크(Loni Stark) 익스피리언스 클라우드 전략 및 제품 부문 부사장은 “생성형 엔진 최적화는 경영진의 주요 관심사로 급부상하고 있으며, 선도 기업들은 이미 다양한 AI 채널에서 영향력을 구축하고 경쟁 우위를 확보하고 있다”면서, “어도비 LLM 옵티마이저는 자사 사이트 및 타 채널에서의 브랜드 성과 인사이트를 바탕으로 자동으로 최적화 조치를 취하는 즉각적인 가치를 제공함으로써, 기업이 급변하는 환경 속에서 두각을 드러낼 수 있도록 지원한다”고 전했다.
작성일 : 2025-10-17
캐디안, 웹 기반 CAD 도면 뷰어 ‘캐디안 뷰Q’ 출시
캐디안이 웹 브라우저 기반 CAD 뷰어인 ‘캐디안 뷰Q(CADian ViewQ)’를 출시했다고 밝혔다. 캐디안 뷰Q는 AEC(건축·토목·엔지니어링) 분야의 2D 도면 포맷인 DWG, DXF, DWF(이상 오토캐드 파일), DGN(마이크로스테이션 파일)과 더불어 BIM(건설 정보 모델링) 기반의 3D 파일 형식인 IFC, RVT(레빗 파일), 그리고 3D 모델링 파일 OBJ, STL 등 다양한 산업 포맷을 폭넓게 지원한다. 앞으로 현장에서 필요한 도면 파일 포맷이 계속 추가될 예정이다. 웹 브라우저 기반으로 작동해 별도의 프로그램 설치 없이 크롬, 엣지, 사파리 등 주요 브라우저에서 즉시 도면 열람이 가능하며, 장소나 디바이스의 제약 없이 도면 접근성과 협업을 강화한 것이 특징이다.      캐디안 뷰Q는 직관적인 UI와 함께 ▲도면 확대, 이동, 회전 ▲도면층의 리스트, 색상 확인 및 온/오프 설정 기능 ▲객체 속성 정보 확인 ▲거리 및 면적 측정 후 엑셀 파일로 내보내기 ▲도면을 PNG 또는 JPG 이미지로 변환해 빠른 뷰잉 지원 ▲텍스트 추가, 마크업(markup) 기능 ▲스크린 캡처 방지 등 보안 강화 ▲이메일로 첨부된 도면의 미리보기 ▲데스크톱 CAD 인 캐디안 프로(CADian Pro)와 연동으로 편집 가능 등 건설·설계·유지관리 분야의 실무자가 요구하는 핵심 기능을 반영하였다. 캐디안은 RESTful API 기반으로 개발된 뷰Q가 향후 BIM, GIS, PDM, PLM, ERP, FMS(시설물 관리), 스마트 공장, 스마트 건설, IoT(사물인터넷), 빅데이터, 클라우드 컴퓨팅, AI(인공지능), 디지털 전환(DX), VR/AR 등 다양한 외부 시스템과의 연동도 유연하게 확장할 수 있을 것으로 전망하고 있다. 또한, 캐디안 뷰Q 출시와 함께 캐디안은 동시 API 호출 10만 건 이상을 안정적으로 처리할 수 있는 로드 밸런싱 기반 서버 아키텍처를 구축했다고 전했다. 캐디안 뷰Q에 지능형 로드 밸런싱 기술을 적용함으로써 서버 풀 분산 처리, 자동 확장, 세션 유지, 캐싱·큐 기반 처리 등을 통해 트래픽 과부하 상황에서도 빠른 응답 속도와 무중단 CAD 협업을 지원한다는 것이 캐디안의 설명이다. 캐디안은 뷰Q를 앞세워 글로벌 SaaS형 웹 캐드 설루션 시장 진출을 본격화할 계획이다. 이를 통해 ▲대기업·공공기관의 대용량 CAD 협업 지원 ▲글로벌 사용자 간 CAD 파일 공유 및 접근성 향상 ▲오프라인 중심의 CAD 환경을 클라우드로 전환하는 것을 목표로 하고 있으며, B2B 대상의 공급 확대도 적극 추진 중이다. 캐디안은 현재 5000명 규모의 베타 사용자(PC, 스마트폰, 태블릿)에게 뷰Q 무료 체험 서비스를 제공하고 있다. 캐디안의 박승훈 대표는 “캐디안 뷰Q는 대규모 디지털 건설·설계 프로젝트에서 CAD 데이터를 신속하게 불러오고 공유할 수 있는 클라우드 기반 협업 툴로서 생산성 향상에 기여할 것”이라며, “로드 밸런싱 기술을 통해 병목 없이 다수 사용자의 실시간 CAD 협업이 가능해졌다”고 말했다. 
작성일 : 2025-08-26
AWS, 엔비디아 블랙웰 기반의 AI 컴퓨팅 인프라 공개
아마존웹서비스(AWS)는 추론 모델과 에이전틱 AI 시스템(Agentic AI systems) 등 새로운 생성형 AI 발전을 가속화하기 위해, 엔비디아 그레이스 블랙웰 슈퍼칩(NVIDIA Grace Blackwell Superchips)으로 구동되는 P6e-GB200 울트라서버(P6e-GB200 UltraServers)를 출시했다고 밝혔다. P6e-GB200 울트라서버는 크고 정교한 AI 모델의 훈련과 배포를 위해 설계되었다. AWS는 올해 초, 다양한 AI 및 고성능 컴퓨팅(HPC) 워크로드를 위해 엔비디아 블랙웰 GPU로 구동되는 P6-B200 인스턴스(P6-B200 Instances)를 출시한 바 있다. P6e-GB200 울트라서버는 현재 AWS가 제공하는 가장 강력한 GPU 제품으로, 최대 72개의 엔비디아 블랙웰 GPU를 탑재하고, 5세대 엔비디아 NV링크(NVIDIA NVLink)를 통해 상호 연결된 단일 컴퓨팅 유닛으로 작동한다. 각 울트라서버는 360페타플롭스(petaflops)의 FP8 고밀도 컴퓨팅과 13.4테라바이트(TB)의 총 고대역폭 GPU 메모리(HBM3e)를 제공한다. 이는 P5en 인스턴스와 비교하여 단일 NV링크 도메인에서 20배 이상의 컴퓨팅 성능과 11배 이상의 메모리를 제공한다. P6e-GB200 울트라서버는 4세대 일래스틱 패브릭 어댑터(Elastic Fabric Adapter : EFAv4) 네트워킹으로 최대 초당 28.8테라비트(Tbps)의 통합 대역폭을 지원한다. P6-B200 인스턴스는 다양한 AI 활용 사례에 유연하게 대응할 수 있는 옵션이다. 각 인스턴스는 NV링크로 상호 연결된 8개의 엔비디아 블랙웰 GPU와 1.4TB의 고대역폭 GPU 메모리, 최대 3.2Tbps의 EFAv4 네트워킹, 5세대 인텔 제온 스케일러블 프로세서(Intel Xeon Scalable processors)를 제공한다. 또한, P6-B200 인스턴스는 P5en 인스턴스와 비교하여 최대 2.25배 향상된 GPU 테라플롭스(TFLOPs) 연산 성능, 1.27배의 GPU 메모리 크기, 1.6배의 GPU 메모리 대역폭을 제공한다. AWS는 사용자의 구체적인 워크로드 요구사항과 아키텍처 요구사항에 따라 P6e-GB200과 P6-B200를 선택해야 한다고 전했다. P6e-GB200 울트라서버는 조 단위 매개변수(trillion-parameter) 규모의 프론티어 모델 훈련 및 배포와 같은 컴퓨팅 및 메모리 집약적인 AI 워크로드에 적합하다. 엔비디아 GB200 NVL72 아키텍처는 이러한 규모에서 성능을 발휘한다. 72개의 GPU가 통합된 메모리 공간과 조정된 워크로드 분산을 통해 단일 시스템으로 작동할 때, 이 아키텍처는 GPU 노드 간 통신 오버헤드를 줄여 더 효율적인 분산 훈련을 가능하게 한다.  추론 워크로드의 경우, 1조 개 파라미터 모델을 단일 NV링크 도메인 내에 완전히 포함할 수 있어 대규모 환경에서도 더 빠르고 일관된 응답 시간을 제공한다. P6-B200 인스턴스는 광범위한 AI 워크로드를 지원하며 중대형 규모의 훈련 및 추론 워크로드에 적합하다. 기존 GPU 워크로드를 이식하려는 경우, P6-B200 인스턴스는 코드 변경을 최소화하고 현재 세대 인스턴스로부터의 마이그레이션을 간소화하는 친숙한 8-GPU 구성을 제공한다. 또한 엔비디아의 AI 소프트웨어 스택이 Arm과 x86 모두에 최적화되어 있지만, 워크로드가 x86 환경에 특별히 구축된 경우 인텔 제온 프로세서를 사용하는 P6-B200 인스턴스가 효과적인 선택이 될 것이다. 한편, AWS는 3세대 EC2 울트라클러스터(EC2 UltraClusters)에 P6e-GB200 울트라서버를 배포하여, 가장 큰 데이터센터들을 포괄할 수 있는 단일 패브릭을 구현했다고 전했다. 3세대 울트라클러스터는 전력 소모를 최대 40% 줄이고 케이블링 요구사항을 80% 이상 줄여 효율성을 높이는 동시에, 장애 가능성을 유발하는 요소를 감소시킨다. 이러한 대규모 환경에서 일관된 성능을 제공하기 위해, AWS는 SRD(Scalable Reliable Datagram) 프로토콜을 사용하는 EFA(Elastic Fabric Adapter)를 활용한다. 여러 네트워크 경로를 지능적으로 활용해 트래픽을 분산시켜, 혼잡이나 장애 상황에서도 원활한 운영을 유지한다. AWS는 4세대에 걸쳐 EFA의 성능을 지속적으로 개선해 왔다. EFAv4를 사용하는 P6e-GB200과 P6-B200 인스턴스는 EFAv3을 사용하는 P5en 인스턴스와 비교하여 분산 훈련에서 최대 18% 더 빠른 집합 통신 성능을 보여준다. P6-B200 인스턴스는 검증된 공기 냉각 인프라를 사용하는 반면, P6e-GB200 울트라서버는 액체 냉각 방식을 사용하여 대규모 NV링크 도메인 아키텍처에서 더 높은 컴퓨팅 밀도를 가능하게 하고 더 높은 시스템 성능을 제공한다. P6e-GB200은 새로운 기계식 냉각 솔루션을 적용한 액체 냉각 방식으로 설계되었다. 이 시스템은 신규 및 기존 데이터 센터 모두에서 칩 수준까지 냉각이 가능한 유연한 액체-칩(liquid-to-chip) 냉각 방식을 제공한다. 이를 통해 하나의 시설 내에서 액체 냉각 방식의 가속기와 공랭 방식의 네트워크 및 스토리지 인프라를 함께 운영할 수 있다. 이러한 유연한 냉각 설계를 통해 AWS는 낮은 비용으로 높은 성능과 효율을 제공할 수 있다. AWS는 “아마존 세이지메이커 하이퍼팟(Amazon SageMaker HyperPod), 아마존 EKS(Amazon EKS), AWS에 탑재된 엔비디아 DGX 클라우드 등 여러 배포 경로를 통해 P6e-GB200 울트라서버와 P6-B200 인스턴스를 간편하게 시작할 수 있도록 했으며, 조직에 가장 적합한 운영 모델을 유지하면서 블랙웰 GPU 사용을 신속하게 시작할 수 있다”고 밝혔다.
작성일 : 2025-07-15
어도비, 브랜드의 가시성 강화 지원하는 ‘LLM 옵티마이저’ 발표
어도비가 새로운 기업용 애플리케이션인 ‘어도비 LLM 옵티마이저(Adobe LLM Optimizer)’를 발표했다. 생성형 AI 구동 인터페이스를 통해 브랜드와 소통하는 소비자가 증가하는 가운데, 이 애플리케이션은 기업이 새로운 방식으로 고객과 접점을 확보할 수 있도록 지원한다. 기업은 웹과 모바일 등 주요 디지털 채널 전반에서 경험을 관리하고 최적화하기 위해 어도비 익스피리언스 클라우드(Adobe Experience Cloud) 애플리케이션을 활용해 왔다. 새로운 어도비 LLM 옵티마이저를 통해, 기업은 변화하는 소비자 행동에 보다 빠르게 대응하고 AI 시대에 브랜드 인지도를 유지할 수 있다. 어도비 LLM 옵티마이저는 AI 기반 트래픽을 모니터링하고 브랜드 가시성을 벤치마크 대비 평가할 수 있는 다양한 기능을 제공한다. 또한 노출 가능성, 참여도 및 전환율 향상을 위한 실질적인 제안을 하고, 이를 기업의 디지털 채널 전반에 신속히 적용할 수 있도록 지원한다.     브랜드는 어도비 LLM 옵티마이저를 통해 AI 기반 트래픽 증대 및 모니터링과 콘텐츠 최적화를 통한 노출 가능성 향상 등의 작업을 수행할 수 있다. LLM 옵티마이저는 AI 구동 인터페이스에서 사용자 질의에 대한 응답으로 활용되고 있는 자사 콘텐츠(예 : 웹사이트 정보)를 식별할 수 있다. 이를 통해 브랜드가 브라우저 및 채팅 서비스에서 어떻게 노출되고 있는지를 실시간으로 파악할 수 있다. 또한 높은 가치를 지닌 검색어 전반에 걸쳐 경쟁사 대비 가시성을 나란히 비교하는 벤치마킹 기능을 통해 콘텐츠 전략 등의 영역에서 조직 프로세스에 정보를 제공하는 역할을 할 수 있다. 권장 엔진은 신뢰할 수 있는 출처의 양질의 정보 성 콘텐츠를 포함해, LLM이 우선순위를 둔 속성을 기반으로 웹 페이지, FAQ 와 같은 자사 채널뿐 아니라 위키피디아(Wikipedia), 공개 포럼 등 외부 채널 전반에서 브랜드 가시성의 부족한 부분을 감지하고 개선 사항을 제시한다. 팀은 제안에 따라 즉시 조치를 취하고 클릭 한 번으로 변경 사항을 적용할 수 있다. 또한 AI 가시성을 사용자 행동 및 비즈니스 성과에 연결하는 기여도 역량을 통해 팀이 참여도, 전환율 및 다운스트림 트래픽 지표에 미치는 영향을 입증할 수 있도록 지원한다. 또한 바로 사용 가능한 리포팅 기능을 활용해 내부 이해관계자와 신속하게 인사이트를 공유하고 비즈니스에 미치는 영향을 전달할 수 있다. LLM 옵티마이저는 SEO 담당자, 콘텐츠 전략가, 디지털 마케터, 웹 퍼블리셔 등 다양한 역할의 기존 워크플로우를 지원하도록 설계돼, 조직 전체가 AI 기반 트래픽에 대한 인사이트와 제안을 쉽게 활용할 수 있도록 돕는다. 또한 이 애플리케이션은 에이전트 투 에이전트(Agent-to-Agent : A2A) 및 모델 컨텍스트 프로토콜(Model Context Protocol : MXP)과 같은 기업용 프레임워크를 지원해, LLM 옵티마이저를 서드파티 설루션이나 에이전시 파트너와도 원활하게 통합할 수 있는 경로를 제공한다. 어도비 LLM 옵티마이저는 단일 애플리케이션으로 활용 가능할 뿐만 아니라 콘텐츠 관리 시스템인 어도비 익스피리언스 매니저 사이트(Adobe Experience Manager Sites)와도 네이티브로 통합되어 있다. 어도비의 로니 스타크(Loni Stark) 익스피리언스 클라우드 전략 및 제품 부문 부사장은 “생성형 AI 인터페이스는 고객이 브랜드를 인지하고 소통하며, 구매를 결정하는 전 과정에서 핵심적인 도구로 자리 잡고 있다”면서, “어도비 LLM 옵티마이저는 브랜드가 새로운 환경 속에서도 자신 있게 대응하고, 브랜드 가시성을 높여 중요한 순간에 성공할 수 있도록 지원한다”고 말했다.
작성일 : 2025-07-02
슈나이더 일렉트릭, AI 시대 데이터센터 혁신 위한 이지 모듈형 데이터센터 올인원 설루션 공개
슈나이더 일렉트릭이 급증하는 데이터 처리량과 AI 워크로드에 효과적으로 대응하기 위한 설루션인 ‘이지 모듈형 데이터센터 올인원(Easy Modular Data Center All-in-One)’을 공개했다. 최근 생성형 AI 기술과 고성능 컴퓨팅(HPC)의 확산은 데이터센터의 역할과 중요성을 더욱 부각시키고 있다. 하지만 365일 24시간 운영되는 데이터센터는 막대한 에너지를 소비하며, AI 워크로드는 일반적인 데이터 트래픽보다 훨씬 더 많은 리소스를 필요로 한다. 이러한 상황에서 기존 데이터센터 구축 방식으로는 급변하는 시장 요구에 신속하게 대응하기 어렵다는 지적이 제기되고 있다. 슈나이더 일렉트릭이 이러한 문제점을 해결하기 위해 선보인 이지 모듈형 데이터센터 올인원 설루션을 선보였다. 이 설루션은 전력, 냉각, IT 인프라를 통합한 모듈을 공장에서 사전 제작한 뒤 현장에서 빠르게 설치하는 방식으로, 기존 데이터센터 구축 방식 대비 시간과 비용을 절감할 수 있다. 또한 모듈형 구조는 필요에 따라 용량을 손쉽게 확장하거나 축소할 수 있어 변화하는 IT 환경에 유연하게 대응할 수 있도록 지원한다.     이지 모듈형 데이터센터 올인원 설루션은 신속한 구축, 유연한 확장성, 일관된 품질, 에너지 효율적인 설계라는 네 가지 핵심 특징을 내세운다. 먼저, 이 설루션은 사전 제작된 모듈을 현장에서 조립하는 방식으로 구현되어, 기존 데이터센터 구축 방식에 비해 전체 구축 기간을 단축할 수 있다. 또한, 모듈을 자유롭게 추가하거나 제거할 수 있어, 비즈니스 요구 변화에 따라 데이터센터 용량을 손쉽게 확장하거나 축소할 수 있는 뛰어난 유연성을 제공한다. 더불어, 공장 환경에서 정밀하게 제작된 모듈을 활용함으로써, 현장마다 달라질 수 있는 품질 편차를 최소화하고, 일관된 품질과 예측 가능한 성능을 확보할 수 있다. 마지막으로, 에너지 효율을 극대화한 최적화된 설계를 바탕으로 운영 비용을 절감하고, 지속 가능성을 고려한 데이터센터 운영을 가능하게 한다. 이지 모듈형 데이터센터 올인원 설루션은 IoT 기반의 디지털 플랫폼인 에코스트럭처(EcoStruxure)를 기반으로 하드웨어와 소프트웨어가 통합된 단일 시스템으로 운영되어 효율적인 관리가 가능하며, IT 모니터링 소프트웨어를 통해 모바일 기기에서도 실시간으로 데이터센터 상태를 확인할 수 있다. 24시간 원격 서비스 지원을 통해 데이터센터 운영 중 발생하는 문제에 신속하게 대처할 수 있다는 점도 장점이다. 다양한 사전 설계 템플릿을 제공하여 예산 및 설계 기간을 단축하고, 필요에 따라 맞춤형 구성도 지원하여 데이터센터 구축에 유연하게 대응할 수 있도록 돕는다. 슈나이더 일렉트릭 코리아 시큐어파워 사업부의 최성환 본부장은 “AI 시대 데이터센터는 단순한 데이터 저장 공간을 넘어, 혁신을 이끄는 핵심 인프라로 자리매김하고 있다”면서, “슈나이더 일렉트릭의 이지 모듈형 데이터센터 올인원 설루션은 신속성, 유연성, 지속가능성이라는 세 가지 핵심 가치를 제공하여 고객이 AI 시대 경쟁 우위를 확보할 수 있도록 지원할 것”이라고 밝혔다.
작성일 : 2025-06-24
티피링크, 와이파이 7 메시 공유기 Deco BE25 출시
티피링크(TP-Link)는 와이파이 7(Wi-Fi 7)을 지원하는 메시 공유기 Deco BE25를 국내에 정식 출시했다고 밝혔다. Deco BE25는 5GHz 대역에서 최대 2882Mbps, 2.4GHz 대역에서 최대 688Mbps의 속도를 지원해 총 3.6Gbps의 무선 속도를 제공한다. 특히 와이파이 7의 핵심 기술인 MLO(Multi-Link Operation)를 적용해 여러 주파수 대역과 채널을 동시에 활용함으로써, 지연시간을 줄이고 데이터 처리량과 연결 안정성을 향상시켰다. 이를 통해 4K/8K 영상 스트리밍, 온라인 게임, 라이브 방송 등 대용량 트래픽 환경에서도 끊김 없는 연결을 유지할 수 있다.     유선 연결 성능도 높였다. 2개의 2.5Gbps 포트를 탑재해 고성능 NAS, IPTV, 게임 콘솔 등과의 고속 유선 연결을 지원하며, WAN/LAN 포트를 자유롭게 구성할 수 있어 유연한 네트워크 환경을 구축할 수 있다. 또한 무선과 유선 백홀을 동시에 활용, 전체 네트워크 처리량을 늘리고 지연 시간을 줄인다. Deco BE25의 핵심인 메시 기술은 집안 전체에 끊김 없는 와이파이 커버리지를 제공한다. 2팩 기준으로 일반 아파트, 단독 주택, 복층 구조의 가정 등에서 활용할 수 있으며, AI 기반 스마트 로밍 기능으로 사용자가 집 안 어디를 이동해도 자동으로 최적의 신호를 연결할 수 있다. 스마트홈 환경에도 최적화되어 있다. 최대 150대 이상의 기기를 안정적으로 연결할 수 있어 다양한 IoT 기기를 보유한 가정에서도 원활한 네트워크 환경을 제공한다. 설정 과정도 간편해서, 메인 기기만 초기 설정하면 추가 기기는 전원 연결만으로 자동으로 네트워크에 합류한다. 기존 Deco 시리즈와도 자유롭게 혼합 구성할 수 있어 확장성과 호환성을 높였다. 티피링크의 프리미엄 보안 서비스인 홈쉴드(HomeShield) 구독은 실시간 사이버 위협 감지, 자녀 보호 기능, IoT 보안 기능을 제공한다. 특정 웹사이트 차단, 온라인 시간 제한, 부적절한 콘텐츠 필터링 등 세부적인 보호 기능도 포함되어 있다. 티피링크 관계자는 “Deco BE25는 와이파이 7의 고성능과 화이트 컬러의 미니멀한 디자인, 안테나 내장형 구조로 성능과 인테리어 조화를 모두 고려한 제품”이라고 밝혔다.
작성일 : 2025-06-09
어도비, 익스피리언스 클라우드에 AI 에이전트 도입
어도비가 모든 접점에서 차별화되고 고도로 개인화된 고객 경험을 제공하도록 지원하는 새로운 기업용 ‘어도비 익스피리언스 클라우드(Adobe Experience Cloud)’ 제품을 발표했다. 경쟁적인 환경에서 브랜드 충성도를 구축하고 높이기 위해 원활하고 통합된 고객 경험 제공이 중요해진 가운데, 기업들은 데이터, 콘텐츠, 고객 여정 전반에 걸친 단절된 워크플로로 어려움을 겪고 있다. 어도비는 통합된 고객 경험을 구동하는 특화된 AI 에이전트를 통해, 실행 가능하고 포괄적인 데이터 인사이트를 제공하는 강력한 역량과 다양한 채널에서 참여도 높은 경험을 조율하는 툴을 공개했다. 분석, 타기팅, 여정 조율 및 콘텐츠 관리 서비스를 아우르는 클라우드 기반 제품군인 어도비 익스피리언스 클라우드는 브랜드가 수동적으로 고객 참여를 관리하는 것에서 벗어나 AI 구동 경험을 능동적으로 조율할 수 있도록 지원한다. 코카콜라 컴퍼니, 콜스, 델타항공, 일라이 릴리 앤 컴퍼니, 제너럴 모터스, HDFC 은행, 헨켈, 홈디포, 메이저리그 베이스볼, 메리어트 인터내셔널, 엔비디아, PGA 투어, 소니 플레이스테이션, TSB 은행, 얼타 뷰티, U.S. 은행, 퀄컴 등 여러 브랜드가 어도비 익스피리언스 클라우드를 도입했으며, 영향력 있고 개인화된 고객 경험을 기획, 구성, 제공할 수 있는 워크플로를 통해 디지털 비즈니스를 강화하고 있다.     어도비 익스피리언스 클라우드를 구동하고 모든 채널에서 고객에 대한 단일 뷰를 제공하는 콘텐츠, 데이터 및 여정 플랫폼인 어도비 익스피리언스 플랫폼(Adobe Experience Platform)을 기반으로 구축된 어도비 저니 옵티마이저 익스페리멘테이션 액셀러레이터(Adobe Journey Optimizer Experimentation Accelerator)는 어도비 저니 옵티마이저의 새로운 AI 퍼스트 모듈이다. 이 모듈은 옴니채널 성과 및 결과를 개선하는 성공 전략을 정확히 찾아내어 성과가 높을 것으로 예상되는 기회를 파악하고 실행할 수 있도록 돕는다. 새로운 실험 에이전트(Experimentation Agent)는 과거 및 현재 활성화된 실험 중 성과가 높은 사례, 트렌드 등을 자동으로 분석해 실행 가능한 인사이트를 도출하고 영향력이 가장 높은 순위에 기반한 테스트 권장 사항을 제공한다. 어도비 익스피리언스 플랫폼 에이전트 오케스트레이터(Adobe Experience Platform Agent Orchestrator)를 기반으로 구축된 해당 AI 에이전트는 기업이 어도비 및 서드파티의 AI 에이전트를 관리하고 조율할 수 있도록 지원한다. 팀은 어도비 저니 옵티마이저의 활성 고객 여정 및 캠페인 내에서 권장 실험을 적용하고 어도비 타깃(Adobe Target)에서 활동을 테스트할 수 있다. 어도비 익스피리언스 플랫폼의 통합된 실시간 데이터로 구동되는 어도비 저니 옵티마이저 익스페리멘테이션 액셀러레이터는 여러 부서로 구성된 팀이 주요 비즈니스 지표, 성과 영향 및 성장 동인에 대한 현재 및 과거 실험 결과를 단일 셀프서비스 뷰로 확인할 수 있도록 지원해 학습 및 최적화 역량을 향상시킨다. 또한 누구나 인사이트를 확인할 수 있도록 함으로써 조직 전반에 걸쳐 실험 프로그램을 확장하도록 돕는다. 어도비 익스피리언스 매니저(Adobe Experience Manager)의 일부이자 채널 전반의 경험을 구동하는 콘텐츠 관리 시스템인 사이트 옵티마이저(Sites Optimizer)는 자동화된 문제 진단 및 솔루션 추천을 통해 웹 트래픽과 참여를 개선할 수 있도록 지원하는 새로운 애플리케이션이다. 이번에 정식 출시된 새로운 설루션을 통해 허쉬 컴퍼니, PGA 투어, 윌슨 컴퍼니 등이 참여와 전환에 중점 둔 비즈니스 목표를 달성하는 영향력 있는 경험을 제공하고 있다. 사이트 옵티마이저는 웹사이트 최적화의 전체 프로세스를 간소화하는 올인원 애플리케이션이다. 실시간 트래픽 성과 모니터링을 통해 새로운 사이트 최적화 에이전트(Site Optimization Agent)는 성과가 높을 것으로 예상되는 기회를 예측, 감지 및 추천할 수 있다. 또한 어도비 익스피리언스 플랫폼 에이전트 오케스트레이터를 기반으로 해, 여러 랜딩 페이지 옵션에서 콘텐츠가 브랜드 규정을 준수하는 지 미리 확인 후, 자동으로 제안 및 생성해 전환율을 높일 수 있다. 특정 웹 경험으로 인해 참여도가 낮아지거나 백링크 끊김과 같은 SEO 문제로 트래픽에 영향을 미치는 경우, AI 에이전트는 문제를 파악하고 조정을 제안할 수 있으며 마케터는 기술적 지원 없이도 클릭 한 번으로 제안 사항을 즉시 구현 가능하다. 어도비의 아미트 아후자(Amit Ahuja) 디지털 경험 비즈니스 부문 수석 부사장은 “통합된 고객 경험을 제공하기 위해서는 실제 고객의 문제를 해결하는 보다 민첩하고 간소화된 운영이 필요한데, 종종 리소스와 시간 제약을 맞닥뜨릴 때가 있다”면서, “어도비는 AI, 데이터 및 콘텐츠 제작 워크플로를 통합해 적절한 디지털 경험을 정교하게 제공하는 동시에 보이지 않는 문제를 발견하는 깊은 전문성을 바탕으로 기업을 지원할 수 있다”고 말했다.
작성일 : 2025-05-28
AWS, AI 기반 마이그레이션 서비스 ‘AWS 트랜스폼’ 출시
아마존웹서비스(AWS)가 기업의 마이그레이션 및 현대화 프로젝트를 가속화하기 위한 AI 기반 서비스인 AWS 트랜스폼(AWS Transform)을 출시했다. AWS 트랜스폼은 지난 AWS 리인벤트 2024에서 아마존 Q 디벨로퍼(Amazon Q Developer)의 변환 기능 중 하나로 선공개된 AI 기반 설루션이다. 이 설루션은 기업의 VM웨어, 메인프레임, 닷넷 워크로드와 관련된 현대화 작업을 자동화하고 복잡한 마이그레이션 작업을 간소화하여, 기존 방식 대비 최대 4배 빠르게 프로젝트를 완료할 수 있도록 지원한다. 또한, 기반 모델, 대규모 언어 모델(LLM), 머신러닝, 그래프 신경망, 자동화 추론 등 AWS의 AI 기술 인프라를 활용하여 기존 인프라, 애플리케이션, 코드 현대화 과정에서의 복잡성과 부담을 줄여준다. 또한 전문적인 트랜스포메이션 어시스턴트 역할을 하는 채팅 기반의 경험을 제공하여 목표 설정, 프로젝트 컨텍스트 공유, 비즈니스 계획 및 비용 절감 평가, 트랜스포메이션 계획 검토 및 조정, 코드 및 인프라 제안 검토 및 승인 등을 지원한다. 뿐만 아니라 통합 웹 환경에서 여러 부서의 팀들이 함께 작업을 검토하고, 진행 상황을 추적하며, 프로젝트 전반에 걸쳐 협업할 수 있게 함으로써 가장 복잡한 레거시 애플리케이션에 대한 트랜스포메이션 계획을 제어할 수 있도록 지원한다. AWS는 닷넷을 위한 AWS 트랜스폼 에이전트가 윈도우에서 리눅스로 닷넷 프레임워크(.NET Framework) 애플리케이션 포팅(porting)을 가속화하여 운영 비용을 최대 40%까지 절감한다고 소개했다. 이러한 비용 절감은 윈도우 서버 라이선싱 비용, 버전 업그레이드, 유지보수 및 지원 종료 문제를 줄이는 동시에 분석, 계획 및 리팩토링 전반에 걸친 트랜스포메이션 비용을 절감함으로써 이루어진다. 닷넷 에이전트(.NET Agent)를 통해 자연어로 채팅하여 트랜스포메이션 목표와 프로젝트 컨텍스트를 공유할 수 있으며, AWS 트랜스폼이 종속성을 분석하고, 과거 현대화 여정의 영역별 전문 지식을 적용하여 맞춤형 현대화 계획을 개발할 수 있다. 또한 자율적으로 코드를 변환하고, 단위 테스트를 실행하고, 트랜스포메이션 요약을 생성하며, 리눅스 환경에서 실행 가능한 상태로의 준비 여부를 검증할 수 있다. AWS 트랜스폼은 닷넷 프레임워크 애플리케이션 코드를 리눅스 환경에서 실행 가능한 상태로 준비된 크로스 플랫폼 닷넷으로 변환하고, 사설 패키지를 포팅하고, 단위 테스트 실행을 자동화한다. 또한 설명 가능한 변환 결정을 제공함으로써 애플리케이션의 성능과 확장성을 향상시킨다. 이 새로운 에이전트는 통합된 웹 경험을 통해 일관된 결과로 수백 개의 애플리케이션을 병렬로 변환시켜 팀 간의 협업을 간소화하고 대규모 현대화 프로젝트를 효율적으로 처리할 수 있도록 지원한다. AWS에 따르면, 메인프레임을 위한 AWS 트랜스폼 에이전트를 통해 전체 현대화 프로세스를 간소화하여 위험과 복잡성을 줄이면서 일정을 최대 50%까지 단축할 수 있다. 채팅 인터페이스를 통해 높은 수준의 현대화 목표를 정의하고 작업 계획을 협의할 수 있다. 준비가 되면 AWS 트랜스폼은 코볼(COBOL)과 JCL(Job Control Language)로 작성된 메인프레임 애플리케이션과 CICS(Customer Information Control System) 트랜잭션 관리자, BMS(Basic Mapping Support) 화면, DB2 데이터베이스, VSAM(Virtual Storage Access Method) 데이터 파일에 의존하는 애플리케이션을 처리한다. 종속성과 누락된 파일을 신속하게 식별하는 고급 코드 분석의 이점을 통해 하위 프로젝트 지연을 줄일 수 있다. 그래프 신경망을 사용하여 모놀리식(monolithic) 애플리케이션을 관리 가능한 모듈로 분해함으로써 중요한 비즈니스 로직을 보존하면서 타기팅된 현대화 접근 방식을 가능하게 한다. 프로젝트 전반에 걸쳐 AWS 트랜스폼은 AI 어시스턴트 역할을 하며, 진행 상황에서 학습하고 생성된 기술 문서를 기반으로 프로그램에 대한 질문에 답변한다. 애플리케이션을 리팩토링(refactoring)할 때, 향상된 정확도를 위해 상태 머신(state machines)과 상태 전이 그래프(state transition graphs)를 활용하여 코볼, JCL 및 DB2를 자바(Java)와 포스트그레(Postgres)로 변환할 수 있다. 애플리케이션을 재구상할 때는 수백만 줄의 코드에서 추출된 포괄적인 기술 문서, 비즈니스 규칙, 논리적 흐름을 얻을 수 있다. AI 에이전트의 지능형 오케스트레이션을 통해 상세한 문서로 기관 지식을 보존하면서 클라우드에서 메인프레임 애플리케이션을 더 빠르고, 단순하고, 안전하게 현대화할 수 있다. VM웨어를 위한 AWS 트랜스폼 에이전트는 인프라를 최적화하고 운영 오버헤드를 줄이면서 증가하는 VM웨어 라이선스 비용을 피할 수 있다. 채팅 인터페이스는 온프레미스 VM웨어 환경에 커넥터를 추가하거나 타사 도구에서 자산 인벤토리를 업로드하도록 안내한다. 목표를 지정한 후, 에이전트는 애플리케이션 검색, 종속성 매핑, 마이그레이션 계획, 네트워크 변환, 서버 마이그레이션 및 EC2 인스턴스 최적화와 같은 작업을 자동화한다. 사용자는 휴먼인더루프(human-in-the-loop) 메커니즘을 통해 아티팩트를 검토, 승인 및 편집할 수 있다. 그래프 신경망을 사용하여 네트워크 트래픽과 통신 패턴을 분석하여 종속성을 식별하고 최적의 마이그레이션 이행 계획(migration wave planning)을 자동으로 생성할 수 있다. VPC, 서브넷, 보안 그룹 및 트랜짓 게이트웨이를 포함한 복잡한 네트워크 구성을 AWS 클라우드 환경에 상응하는 구성요소로 변환할 수 있다. 또한 격리된 VPC 및 유연한 허브앤스포크(Hub-and-Spoke) 구성과 같은 향상된 기능을 통해 네트워크 마이그레이션 문제를 해결할 수 있다. 이를 통해 일반적으로 2주가 소요되던 전통적인 네트워크 구성 작업을, VM웨어를 위한 AWS 트랜스폼을 사용하면 1시간 안에 완료할 수 있으며, 일반적으로 몇 주의 분석이 필요한 마이그레이션 이행 계획을 15분 안에 완료할 수 있게 되었다.
작성일 : 2025-05-20