• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 애플리케이션"에 대한 통합 검색 내용이 4,453개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
에이수스, 엔비디아 GB10 기반 AI 슈퍼컴퓨터 ‘어센트 GX10’ 국내 출시
에이수스 코리아는 엔비디아 GB10 그레이스 블랙웰(Grace Blackwell) 기반의 개인용 AI 슈퍼컴퓨터 ‘Ascent GX10(어센트 GX10)’을 국내 공식 출시한다고 밝혔다. 에이수스 어센트 GX10은 높은 AI 성능과 공간 효율을 제공한다. 손바닥 정도의 사이즈임에도 최대 1000TOPs의 AI 성능을 구현하여 AI 연구원, 데이터 과학자뿐만 아니라 AI 기반 개발 및 연구를 필요로 하는 개인 및 기업 프로젝트에도 최적의 성능을 제공한다.     어센트 GX10은 내장된 GB10 그레이스 블랙웰 슈퍼칩을 통해 FP4 정밀도 기준 최대 1페타플롭의 AI 성능을 지원한다. 이를 위해 최신 세대 CUDA(쿠다) 코어와 5세대 텐서(Tensor) 코어를 탑재하였으며, NVLink C2C 인터커넥트를 통해 연결된 20개의 Arm 아키텍처 기반 고효율 코어를 포함하고 있다. 또한 128GB의 통합 시스템 메모리를 통해 최대 2000억개의 매개변수를 처리할 수 있으며, 엔비디아 커넥트X(NVIDIA ConnectX) 네트워크 인터페이스 카드를 활용해 GX10 시스템 두 대를 연결하여 라마 3.1(Llama 3.1)과 같이 더 많은 매개변수를 가진 대형 AI 모델도 효율적으로 학습하고 처리할 수 있다. 에이수스는 어센트 GX10이 가진 성능을 최대한 발휘할 수 있는 간편한 AI 모델 개발을 위한 쉬운 개발 환경을 제공한다. 개발자는 엔비디아 AI 소프트웨어 라이브러리를 사용할 수 있으며, 엔비디아 NGC 카탈로그와 엔비디아 개발자 포털에서 제공되는 소프트웨어 개발 키트(SDK), 오케스트레이션 도구, 프레임워크, 모델 등 다양한 리소스를 지원받을 수 있다. 여기에 더해 에이전트 AI 애플리케이션 구축을 위한 엔비디아 블루프린트(NVIDIA Blueprints)와 NIM 마이크로 서비스도 지원하여 다양한 연구 및 개발, 테스트가 가능하다. 에이수스는 국내 공식 대리점인 코잇, 크로스젠, 유니퀘스트, 대원CTS를 통해 어센트 GX10의 구매 및 상담이 가능하다고 전했다.
작성일 : 2025-10-31
샌디스크, 고속 스토리지 설루션 ‘WD 블루 SN5100 NVMe SSD’ 출시
  샌디스크가 https://shop.sandisk.com/ko-kr 크리에이터와 전문가의 AI 기반 워크플로 및 콘텐츠 제작을 한층 빠르게 지원하는 차세대 NVMe SSD ‘WD 블루 SN5100 NVMe SSD’를 출시했다. 새롭게 선보이는 PCIe Gen4 기반의 이번 신제품은 이전 세대 대비 약 30% 향상된 속도를 제공해, 고해상도 영상·이미지 등 대용량 애셋의 편집, 렌더링, 파일 전송 작업을 더욱 빠르게 처리할 수 있다. WD 블루 SN5100 NVMe SSD는 샌디스크 BiCS8 QLC CBA NAND 기술로 설계돼 4K·8K 영상과 큰 규모의 프로젝트 폴더 작업도 매끄럽게 지원한다. 기존 시스템 업그레이드는 물론 신규 워크스테이션 구축에도 적합하며, 사용자는 더 빠른 제작 속도와 넉넉한 저장 공간, 안정적인 멀티태스킹을 경험할 수 있다. 이와 함께 5년 제한 보증도 제공된다. 새로운 WD 블루 SN5100 NVMe SSD는 BiCS8 QLC 3D 낸드와 CBA(CMOS Bonded to Array) 기술을 기반으로, 1TB~2TB 모델에서 최대 7100MB/s의 읽기 속도를 제공한다. SANDISK nCache 4.0 기술을 통해 애플리케이션 응답성을 높이고, 대용량 파일이나 프로젝트 폴더도 빠르게 복사할 수 있다. 또한, 500GB부터 4TB까지 다양한 용량 옵션을 제공해 대규모 프로젝트를 위한 저장 공간을 지원한다.   샌디스크 WD 블루 SN5100 NVMe SSD는 현재 네이버 스마트스토어 등 주요 온라인 쇼핑몰을 통해 구매 가능하다. 국내 소비자 권장 가격은 용량에 따라 500GB 11만 원, 1TB 16만 5000원, 2TB 33만 원, 4TB 66만 원이다.
작성일 : 2025-10-30
인텔, 최신 AI PC 기능/애플리케이션 체험 공간 ‘인텔 서울 팝업 스토어’ 오픈
인텔은 연말 시즌에 맞춰 AI 경험을 소개하는 ‘인텔 팝업 스토어’를 강남역 오퍼스 407에 론칭하고, 11월 1일부터 한 달간 오픈한다고 밝혔다. 인텔 팝업 스토어는 서울을 비롯해 뉴욕, 런던, 뮌헨, 파리 등 전 세계 5개 도시에서 한 달간 운영하는 쇼케이스의 일환으로, 아시아에서는 유일하게 서울 강남에서 오픈한다. PC 제조사에서 주요 유통 채널까지 인텔의 글로벌 파트너인 삼성, LG, 에이서, 에이수스, 델, HP, MSI, 마이크로소프트는 물론 국내 주요 유통 채널인 쿠팡, G마켓, 네이버쇼핑과 함께 진행하며, 국내 데스크톱 브랜드인 포유컴과 퍼플랩도 참여한다. 이 곳에서는 인텔 AI PC 기반의 새로운 기능과 애플리케이션 등 스마트한 AI 경험들을 한자리에서 체험할 수 있으며, 팝업 기간동안 쿠팡, G마켓, 네이버쇼핑 등에서 프로모션하는 제품을 직접 구입할 수 있다.      10월 29일 기자간담회에서 인텔의 최고 매출책임자 및 글로벌 세일즈 마케팅 총괄인 그렉 언스트(Greg Ernst) 부사장은 인텔 글로벌 팝업스토어 프로그램 소개와 함께 최신 인텔 코어 울트라 시리즈를 포함한 클라이언트 제품 전략을 공유했다. 인텔은 2023년 첫 번째 AI PC를 선보이고 제품 라인업을 계속 확장해 나가는 한편, 350개 이상의 ISV와 협력해 약 500개의 고유한 AI 기능을 개발하면서 AI PC 분야를 이끌고 있다. 이어진 인텔 파트너 세션에서는 지지큐, 한컴, 업스테이지에서 AI PC용 애플리케이션 소개 및 활용 사례를 공유했다. 업스테이지의 최홍준 부사장은 Solar LLM 모델로 클라우드 연결 없이도 생산성을 강화할 수 있는 온디바이스 AI 구현 사례를, 지지큐의 이용수 대표는 게임용 AI 코칭 서비스를, 한컴 김연수 대표는 공공 부문 시장을 공략할 지능형 문서 작성 도구인 한컴어시스턴트를 소개했다. 또한 인텔과의 협업에 대해 공유하면서, 다양한 분야에서 AI를 활용해 생산성과 성능을 높일 수 있는 PC 경험을 소개했다. 인텔의 그렉 언스트(Greg Ernst) 세일즈 마케팅 그룹 총괄은 “연말 시즌을 맞아 한국의 주요 유통 채널 및 기술 파트너들과 함께 한국 소비자들에게 AI 기반 경험을 선보이게 되어 기쁘다. AI는 우리 모두에게 놀라운 일상의 경험을 선사할 잠재력을 가지고 있으며, 이번 쇼케이스를 통해 소비자들은 인텔과 파트너사가 창작, 게임, 업무, 학습, 소통을 위한 새로운 방식을 어떻게 구현하고 있는지 직접 체험해 볼 기회가 될 것“이라며, “한국은 인텔에게 빠르게 기술을 받아들이는 소비자와 핵심 기술 파트너를 연결해 주는 중요한 거점이다. 인텔이 제공하는 AI PC의 혁신적인 잠재력을 한국 소비자들이 직접 체험할 수 있는 팝업 스토어를 선보이게 되어 기쁘다”고 밝혔다.
작성일 : 2025-10-29
레노버, 엔비디아 그레이스 블랙웰 슈퍼칩 탑재한 AI 워크스테이션 ‘씽크스테이션 PGX’ 출시
한국레노버가 엔비디아 GB10 그레이스 블랙웰 슈퍼칩을 탑재한 컴팩트한 AI 워크스테이션 ‘씽크스테이션 PGX(ThinkStation PGX)’를 출시했다. 새롭게 선보인 씽크스테이션 PGX는 AI 연구자, 개발자, 데이터 과학자, 엔지니어 등을 위한 전문 AI 워크스테이션이다. 최대 1페타플롭(1000 TOPS) AI 연산 성능을 제공하며 최대 2000억 개 파라미터를 가진 대규모 생성형 AI 모델을 처리할 수 있다. 128GB 통합 시스템 메모리를 탑재해 사용자는 최신 추론 AI 모델을 실험하고, 미세 조정 및 추론 작업을 원활하게 수행할 수 있다. 두 대의 시스템을 연결하면 최대 4050억 개 파라미터를 가진 더 큰 AI 모델까지 처리 가능하다. 1.13리터의 사이즈와 최소 1.2kg의 무게로 공간 활용성을 높였다.     씽크스테이션 PGX는 엔비디아 DGX OS와 엔비디아 AI 소프트웨어 스택은 물론, 파이토치(PyTorch), 주피터(Jupyter) 등 개발자에게 익숙한 도구와 프레임워크가 사전 구성되어 있다. 이를 통해 개발자는 데스크톱 환경에서 대규모 AI 모델을 즉시 프로토타이핑하고, 미세 조정 및 추론 과정을 거쳐 데이터센터나 클라우드로 손쉽게 배포할 수 있다. 생성형 AI 모델의 규모와 복잡성이 급격히 증가함에 따라 로컬 환경에서의 개발은 점점 더 많은 제약에 직면하고 있다. 대규모 모델의 프로토타이핑, 튜닝, 추론에는 방대한 GPU 메모리와 연산 성능이 요구된다. 씽크스테이션 PGX는 이러한 한계를 극복하고 AI 애플리케이션 프로토타이핑을 위한 강력하면서도 경제적인 플랫폼을 제공한다. 이에 따라 개발자는 AI 온프레미스 클러스터나 클라우드 컴퓨팅 환경의 리소스를 한층 효율적으로 활용할 수 있다. 또한 씽크스테이션 PGX 사용자는 엔비디아 AI 플랫폼 소프트웨어 아키텍처를 기반으로 코드를 거의 수정하지 않고도 데스크톱 환경에서 가속화된 클라우드 또는 데이터센터 인프라로 모델을 원활하게 이전 가능하다. 이를 통해 프로토타이핑, 미세 조정, 반복 등 개발 작업을 손쉽게 수행할 수 있다. 한국레노버의 신규식 대표는 “생성형 AI 시대를 맞아 기업과 연구기관의 AI 개발 역량이 핵심 경쟁력으로 부상하고 있다”며, “고성능이면서도 컴팩트한 씽크스테이션 PGX는 전문가들이 클라우드 인프라의 복잡성과 비용 부담 없이 확장 가능한 AI 기능을 구현할 수 있는 최적의 설루션”이라고 말했다. 이어 “레노버는 워크스테이션 포트폴리오를 지속적으로 확장해 전문가들이 생성형 AI 혁신을 가속화하고 채택할 수 있도록 적극 지원할 것”이라고 덧붙였다.
작성일 : 2025-10-27
어도비, B2B 기업용 AI 에이전트로 마케팅 및 고객 경험 혁신 지원
어도비가 B2B 업계의 고객 경험 혁신을 지원하는 AI 에이전트를 발표했다. 이번 발표는 B2B 업계의 길고 복잡한 구매 사이클을 단순화해 비즈니스를 지원하는 데 초점을 맞추고 있다. 어도비의 B2B 전용 AI 에이전트 제품군은 마케팅 및 영업 팀이 보다 신속하고 효과적으로 의사결정권자를 공략할 수 있도록 지원한다. 어도비는 “시스코를 비롯한 주요 B2B 브랜드가 이미 어도비의 B2B 에이전트를 도입해 영업 및 마케팅 조직 전반의 워크플로를 고도화하고 있다”고 소개했다. 어도비 익스피리언스 플랫폼 에이전트 오케스트레이터(Adobe Experience Platform Agent Orchestrator)를 기반으로 하는 어도비의 AI 에이전트는 추론과 다중 에이전트 간 협업을 통해 고객 경험 조율을 돕는다. 어도비의 특화 에이전트는 어도비 저니 옵티마이저 B2B 에디션(Adobe Journey Optimizer B2B Edition), 어도비 커스터머 저니 애널리틱스 B2B 에디션(Adobe Customer Journey Analytics B2B Edition) 등 업계를 선도하는 엔터프라이즈 애플리케이션 내에서 직접 사용할 수 있다. 이러한 애플리케이션을 통해 마케팅 및 영업 팀은 대규모 개인화 경험을 제공할 수 있다.     어도비는 현재 사용 가능한 B2B 워크플로용 어도비 AI 에이전트도 소개했다. 저니 옵티마이저 B2B 에디션의 ‘오디언스 에이전트(Audience Agent)’는 CRM 프로필, 마케팅 활동, 웹 콘텐츠와 같은 정형, 비정형 및 자사 데이터를 분석해 마케터가 목표에 적합한 타깃 고객을 파악할 수 있도록 인사이트를 제공한다. 또한 구매 그룹 페르소나를 파악하고 자사 데이터를 기반으로 구매 그룹 구성원을 추천할 수 있다. 이렇게 도출된 인사이트를 바탕으로 에이전트는 특정 제품군에 대한 고가치 구매 그룹을 설정하며, 이를 옴니채널 여정 전반에 활용해 수요 창출을 보다 효과적으로 지원한다. 저니 옵티마이저 B2B 에디션의 ‘저니 에이전트(Journey Agent)’는 이메일, 웹, 모바일 등 다양한 채널에 걸쳐 고객 여정과 캠페인의 생성 및 조율을 간소화한다. 이 에이전트는 목표에 맞춰 여정을 생성한다. 이후 고객 이탈률 등 다양한 요소를 분석해 고객 접점을 최적화하고, 이를 통해 인사이트를 도출해 고객과의 상호작용을 개선한다. 커스터머 저니 애널리틱스 B2B 에디션의 ‘데이터 인사이트 에이전트(Data Insights Agent)’는 크로스채널 데이터를 기반으로 기업 고객 및 구매 그룹에 대한 인사이트 도출 과정을 단순화하고 확장한다. 이 에이전트는 대화형 경험을 통해 제공되며 마케팅, 영업, 제품 팀 등 보다 넓은 범위의 구성원이 고객 경험 이니셔티브를 시각화하고, 예측하며, 개선할 수 있도록 돕는다. 또한 ‘어카운트 퀄리피케이션 에이전트(Account Qualification Agent)’도 어도비 저니 옵티마이저 B2B 에디션(Adobe Journey Optimizer B2B Edition)에서 조만간 선보일 예정이다. 이를 통해 비즈니스 개발 담당자는 고객 참여 및 자격 검증을 대폭 가속화할 수 있다. 이 에이전트는 잠재 고객의 니즈, 예산, 권한, 일정 등을 평가해 유효한 영업 기회인지 판단하는 동시에, 해당 기업 고객에 대한 인사이트 요약을 담당자에게 제공한다. 조사, 문의, 분석에 걸친 프로세스 자동화를 통해 더 빠르고 매끄러운 워크플로를 생성할 수 있다. 한편, 어도비는 고객의 일상적인 검색 경험을 고도로 개인화된 맞춤형 대화 경험으로 전환할 수 있는 AI 퍼스트 애플리케이션 브랜드 컨시어지(Brand Concierge)도 곧 출시한다. 브랜드 컨시어지는 고객 참여를 지원하고 제품 탐색을 통해 고객 여정을 가속화함으로써 개인별 선호에 맞춘 상호작용을 제공하는 프로덕트 어드바이저 에이전트(Product Advisor Agent)가 포함되어 있다. 이 에이전트는 텍스트, 음성, 이미지 등 멀티 모달을 지원하며, AI 기반의 추천과 비교도 제공한다.
작성일 : 2025-10-23
단군소프트, 포스트맨과 공식 파트너십 및 글로벌 파트너 선정
단군소프트는 글로벌 API 플랫폼 기업인 포스트맨(Postman)과 공식 파트너십을 체결하고, 한국 내 포스트맨 글로벌 설루션 파트너로 선정됐다고 밝혔다. 단군소프트는 “포스트맨은 전 세계에서 4000만 명 이상의 개발자가 사용하는 API(애플리케이션 프로그래밍 인터페이스) 플랫폼으로, 포천(Fortune) 500 기업의 98%가 활용 중인 대표적인 API 개발 플랫폼이다. API의 설계부터 테스트, 문서화, 배포, 협업까지 API 수명주기의 전 과정을 지원하며, 글로벌 표준 도구로 자리잡고 있다”고 소개했다. 이번 파트너십을 통해 단군소프트는 포스트맨의 한국 시장 진출을 본격화하며, 국내 기업과 개발자들에게 글로벌 수준의 API 개발 환경을 제공한다는 계획이다. 특히 한국의 API 생태계가 빠르게 확장되는 가운데, 단군소프트는 세계적 기술 도구의 도입이 국내 개발자의 글로벌 경쟁력 강화와 생산성 향상에 기여할 것으로 기대하고 있다. 포스트맨 파트너 프로그램은 애플리케이션 현대화와 개발 전 과정을 지원하는 전문화된 모델로 운영된다. 단군소프트는 이 중 최고 등급인 ‘익스퍼트(Expert)’ 티어로 선정되며, 포스트맨과의 전략적 협업을 통해 기술 서비스와 교육 프로그램을 확대할 방침이다. 단군소프트의 이승현 대표는 “단군소프트는 한국의 API 개발 수준을 글로벌 표준으로 끌어올리는 것을 목표로 하고 있다. 앞으로도 포스트맨 웨비나, 교육 과정, 전문 기술 지원 등을 통해 국내 개발자의 API 역량 강화를 적극 지원하겠다”고 전했다.
작성일 : 2025-10-22
AWS, 포괄적 AI 에이전트 플랫폼 ‘아마존 베드록 에이전트코어’ 출시
아마존웹서비스(AWS)가 포괄적인 에이전틱 플랫폼인 ‘아마존 베드록 에이전트코어(Amazon Bedrock AgentCore)’를 출시한다고 발표했다. AWS는 “미션 크리티컬 시스템 구축 경험을 바탕으로 개발된 아마존 베드록 에이전트코어는 안전하고 신뢰할 수 있으며 확장 가능한 종합 에이전트 플랫폼으로, 에이전트의 비결정적 특성에 최적화된 프로덕션 환경을 제공한다”고 소개했다. 에이전트코어는 기업이 AI 에이전트를 파일럿에서 프로덕션까지 신속하게 전환하고 개발자가 에이전트를 구축, 배포, 운영하는 데 필요한 완전한 기반을 제공한다. 개발자는 복잡한 워크플로를 처리할 수 있도록 에이전트에 도구, 메모리, 데이터를 손쉽게 연결할 수 있으며, 몇 줄의 코드로 안전하고 확장 가능한 런타임 환경에 배포할 수 있다. 또한 엔터프라이즈급 접근 제어 및 관리 기능을 통해 안정적으로 운영할 수 있다. 이 모든 기능은 인프라를 관리 없이 원하는 모델이나 프레임워크를 자유롭게 선택해 쉽게 시작할 수 있다. 에이전트코어는 구축부터 배포, 운영까지 에이전트 개발 수명주기 전반에 걸쳐 완전 관리형 서비스를 제공하는 에이전틱 플랫폼이다. 기업은 원하는 모델이나 프레임워크를 자유롭게 조합해 사용할 수 있으며 엔터프라이즈급 인프라 및 도구에 대한 액세스와 함께 높은 유연성을 제공한다. 에이전트코어는 통합 또는 개별 사용이 가능한 컴포저블(composable) 서비스를 제공한다. 기업은 크루AI, 구글 ADK, 랭그래프, 라마인덱스, 오픈AI 에이전트 SDK, 스트랜드 에이전트 등 선호하는 프레임워크와 아마존 베드록에서 제공되는 모델 또는 오픈AI, 제미나이 등 아마존 베드록 외부 모델을 사용하여 필요한 에이전트코어 서비스를 선택할 수 있다.     에이전트코어 코드 인터프리터(AgentCore Code Interpreter)는 격리된 환경에서 에이전트가 코드를 안전하게 생성하고 실행할 수 있게 하며, 에이전트코어 브라우저(AgentCore Browser)는 대규모 웹 애플리케이션 상호작용을 지원한다. 에이전트코어 게이트웨이(AgentCore Gateway)는 기존 API와 AWS 람다(AWS Lambda) 함수를 에이전트 호환 도구로 전환하고 기존 모델 컨텍스트 프로토콜(Model Context Protocol : MCP) 서버에 연결하며, 지라, 아사나, 젠데스크 등 서드파티 비즈니스 도구 및 서비스와의 원활한 통합을 제공한다. 에이전트코어 아이덴티티(AgentCore Identity)를 통해 에이전트는 오스(OAuth) 표준을 사용한 적절한 인증 및 권한 부여로 이러한 도구에 안전하게 액세스하고 운영할 수 있다. AI 에이전트는 컨텍스트를 유지하고 상호작용을 통해 학습할 수 있어야 한다. 에이전트코어 메모리(AgentCore Memory)는 개발자가 복잡한 메모리 인프라를 관리하지 않고도 정교하고 컨텍스트를 인식하는 경험을 만들 수 있도록 지원하며, 에이전트가 사용자 선호도, 과거 상호작용, 관련 컨텍스트에 대한 상세한 이해를 구축하고 유지할 수 있게 한다. 아마존 클라우드워치(Amazon CloudWatch) 기반의 에이전트코어 옵저버빌리티(AgentCore Observability)는 실시간 대시보드와 상세한 감사 추적을 통해 포괄적인 모니터링을 제공한다. 기업은 모든 에이전트 작업을 추적하고 문제를 신속하게 디버깅하며 성능을 지속적으로 최적화할 수 있다. 오픈텔레메트리(OpenTelemetry : OTEL) 호환성을 통해 다이나트레이스, 데이터독, 아리제 피닉스, 랭스미스, 랭퓨즈 등 기존 모니터링 도구와 통합된다. 에이전트 워크로드는 기존 애플리케이션과 달리 실행 시간이 불규칙하다. 에이전트코어 런타임(AgentCore Runtime)은 이러한 변동성(variability)에 대응해 필요에 따라 제로에서 수천 개의 세션으로 자동 확장되며 장시간 실행 작업을 위한 업계 최고 수준의 8시간 런타임을 제공한다. 에이전트코어는 에이전트가 안전하게 작동할 수 있도록 모든 서비스에 보안을 내장했다. 가상 프라이빗 클라우드(VPC) 환경과 AWS 프라이빗링크(AWS PrivateLink)를 지원하여 네트워크 트래픽을 비공개로 안전하게 유지한다. 에이전트코어 런타임은 마이크로VM 기술을 통해 매우 높은 수준의 보안을 제공하여 각 에이전트 세션에 고유한 격리된 컴퓨팅 환경을 제공함으로써 데이터 유출을 방지하고 모든 상호작용의 무결성을 유지한다. 에이전트코어는 키로(Kiro), 커서AI(Cursor A)I와 같은 통합 개발 환경(IDE)과 호환되는 MCP 서버를 통해 프로덕션급 에이전트 구축을 지원한다. AWS는 “시작까지 단 몇 분밖에 걸리지 않지만 이는 단순한 도구가 아니라 강력한 보안을 유지하면서 제로에서 수천 개의 세션으로 즉시 확장할 수 있는 완전한 기능의 프로덕션급 설루션”이라고 소개했다. 아마존 디바이스 운영 및 공급망(Amazon Devices Operations & Supply Chain) 팀은 에이전트코어를 사용하여 에이전틱 제조 접근 방식을 개발하고 있다. AI 에이전트들은 제품 사양을 사용하여 함께 작업하며 수동 프로세스를 자동화하며 협업한다. 한 에이전트는 제품 요구사항을 읽고 품질 관리를 위한 상세한 테스트 절차를 만들고, 다른 에이전트는 제조 라인의 로봇에 필요한 비전 시스템을 훈련시킨다. 그 결과 기존에 며칠이 걸리던 객체 감지 모델 미세 조정이 1시간 이내에 높은 정밀도로 단축됐다. 에이전트코어는 뭄바이, 싱가포르, 시드니, 도쿄, 더블린, 프랑크푸르트, 미국 동부(버지니아 북부), 미국 동부(오하이오), 미국 서부(오리건) 등 9개 AWS 리전에서 정식 출시됐다. 기업은 에이전트코어에서 작동하도록 설계된 AWS 마켓플레이스(AWS Marketplace)의 사전 구축된 에이전트 및 도구를 통해 가치 실현 시간을 가속화할 수 있다.
작성일 : 2025-10-17
Arm, 향상된 AI 경험 제공 위해 메타와 전략적 파트너십 강화
Arm은 메타(Meta)와 AI 소프트웨어부터 데이터센터 인프라에 이르는 컴퓨팅의 전 영역에서 AI 효율성을 확장하기 위해 전략적 파트너십을 강화했다고 밝혔다. 양사는 이번 협력을 통해 전 세계 수십억 명의 사용자에게 한층 향상된 AI 경험을 제공할 계획이다. 온디바이스 인텔리전스를 지원하는 밀리와트급 저전력 디바이스부터 최첨단 AI 모델 학습을 담당하는 메가와트급 대규모 시스템까지, 메타의 글로벌 플랫폼을 구동하는 전 영역의 컴퓨팅 환경에서 AI 성능을 최적화하겠다는 것이다. 이번 전략적 파트너십 강화는 양사가 다년간 지속해온 하드웨어 및 소프트웨어 공동 설계 협력을 기반으로 한다. Arm의 전력 효율적 AI 컴퓨팅 기술력과 메타의 AI 제품, 인프라, 오픈소스 기술 혁신을 결합해 성능과 효율성을 대폭 향상시키는 것을 목표로 한다. 페이스북과 인스타그램 등 메타 앱 제품군 전반의 검색 및 개인화를 지원하는 메타의 AI 기반 순위 및 추천 시스템은 x86 시스템 대비 고성능, 저전력 소비를 제공하기 위해 Arm 네오버스(Neoverse) 기반 데이터센터 플랫폼을 활용할 예정이다. 네오버스는 메타가 인프라 전반에 걸쳐 전력 대비 성능 효율을 달성할 수 있도록 지원하며, 하이퍼스케일 환경에서 Arm 컴퓨팅의 효율과 확장성을 강화한다. 양사는 컴파일러와 라이브러리부터 주요 AI 프레임워크에 이르기까지 메타의 AI 인프라 소프트웨어 스택을 Arm 아키텍처에 최적화하기 위해 긴밀히 협력했다. 여기에는 Facebook GENeral Matrix Multiplication(FBGEMM) 및 파이토치(PyTorch)와 같은 오픈소스 구성 요소의 공통 튜닝을 포함되며, Arm의 벡터 확장 기능과 성능 라이브러리를 활용해 추론 효율과 처리량에서 측정 가능한 향상을 이뤘다. 이러한 최적화는 오픈 소스 커뮤니티에 제공되어 글로벌 AI 에코시스템 전반에 영향력을 확대하고 있다. 이번 파트너십은 파이토치 머신러닝 프레임워크, ExecuTorch 엣지 추론 런타임 엔진, vLLM 데이터센터 추론 엔진 전반에 걸쳐 AI 소프트웨어 최적화를 한층 강화한다. 특히 Arm KlediAi로 최적화된 ExecuTorch 기반을 고도화해 수십억 대의 기기에서 효율성을 높이고, 모델 배포를 더욱 간소화함으로써 에지에서 클라우드까지 AI 애플리케이션 성능을 가속화할 예정이다. 이러한 오픈소스 기술 프로젝트는 메타 AI 전략의 핵심으로, 추천 시스템부터 대화형 인텔리전스에 이르기까지 다양한 AI 개발과 배포를 가능하게 한다. 양사는 앞으로도 오픈소스 프로젝트에 대한 최적화를 지속 확장해 전 세계 수백만명의 개발자가 Arm 기반 환경에서 더욱 효율적인 AI를 구축하고 배포할 수 있도록 지원할 계획이다. 메타의 산토시 야나르단(Santosh Janardhan) 인프라 부문 대표는 “플랫폼 경험부터 우리가 만드는 디바이스에 이르기까지, AI는 사람들이 연결하고 창조하는 방식을 변화시키고 있다”면서, “Arm과의 파트너십을 통해 메타 애플리케이션 및 기술을 사용하는 30억 명이 넘는 사용자에게 혁신을 효율적으로 제공할 수 있게 됐다”고 밝혔다. Arm의 르네 하스(Rene Haas) CEO는 “차세대 AI 시대는 대규모 효율성을 실현하는 것이 핵심이 될 것”이라며, “메타와의 협력을 통해 Arm의 전력대비 성능 우위와 메타의 AI 혁신 역량을 결합해 밀리와트급부터 메가와트급까지 모든 영역에서 더욱 스마트하고 효율적인 인텔리전스를 구현할 것”이라고 말했다.
작성일 : 2025-10-17
오라클, 기업의 AI 이니셔티브 가속화 돕는 ‘AI 데이터 플랫폼’ 공개
오라클이 ‘오라클 AI 데이터 플랫폼(Oracle AI Data Platform)’의 정식 출시를 발표했다. 오라클 AI 데이터 플랫폼은 생성형 AI 모델을 기업의 데이터, 애플리케이션, 워크플로와 안전하게 연결할 수 있도록 설계된 포괄적 플랫폼이다. 자동화된 데이터 수집, 시맨틱 강화(semantic enrichment), 벡터 인덱싱에 생성형 AI 도구를 결합해 원시 데이터(raw data)에서 실제 운영 수준(production-grade)의 AI까지 전 과정을 단순화한다. 오라클 AI 데이터 플랫폼은 데이터를 AI에 최적화하고, 오라클 클라우드 인프라스트럭처(OCI), 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database), OCI 생성형 AI(OCI Generative AI) 서비스를 결합해 에이전틱 애플리케이션의 생성과 배포를 가능하게 한다. 기업 고객은 신뢰할 수 있는 실시간 인사이트를 얻을 수 있으며, 반복 업무를 자동화하고, 성장 기회를 발굴하며, 일상적인 워크플로에 지능을 내재화하는 AI 에이전트를 활용할 수 있다. 개발자와 데이터 팀은 엔터프라이즈급 단일 플랫폼에서 이러한 기능을 신속하게 구축하고 확장할 수 있다. 이 플랫폼은 엔비디아 가속 컴퓨팅 인프라를 통합해 고성능 워크로드를 위한 최신 세대 GPU와 라이브러리를 선택할 수 있다. 그 결과 다양한 산업군에서 더욱 신속한 혁신, 높은 생산성, 측정 가능한 비즈니스 성과를 실현할 수 있다. 오라클 AI 데이터 플랫폼은 기업이 데이터와 AI를 효과적으로 활용할 수 있는 기반을 제공한다. 고객은 델타 레이크(Delta Lake) 및 아이스버그(Iceberg)와 같은 오픈 포맷을 활용해 데이터 레이크하우스를 구축하고, 데이터 중복을 줄일 수 있다. 또한 AI 데이터 플랫폼 카탈로그는 모든 데이터와 AI 자산에 대한 통합 뷰와 거버넌스를 제공해 기업의 컴플라이언스 및 신뢰 강화를 지원한다. 카탈로그는 에이전트투에이전트(Agent2Agent : A2A) 및 모델 컨텍스트 프로토콜(MCP) 등 개방형 표준을 폭넓게 지원해 정교한 멀티에이전트 시스템 구성을 가능하게 한다. 더불어 기업 고객을 위한 에이전트 허브(Agent Hub)는 다수의 에이전트를 탐색하는 복잡성을 제거하고, 요청을 해석해 적합한 에이전트를 호출하며, 추천 결과를 제시해 즉각적인 조치를 취할 수 있도록 지원한다. 오라클은 오라클 AI 데이터 플랫폼이 제공하는 기능 및 이점으로 ▲데이터를 인텔리전스로 전환 ▲팀 전반의 혁신 가속 ▲비즈니스 프로세스 자동화 및 확장 ▲엔터프라이즈급 준비 상태 보장 등을 꼽았다. 오라클 AI 데이터 플랫폼은 데이터 레이크하우스와 AI를 하나의 플랫폼에 통합해, 원시 데이터를 실행 가능한 인사이트와 더 스마트한 의사결정으로 전환할 수 있다. 그리고 데이터 엔지니어, 데이터 과학자, AI 개발자를 위한 단일 워크벤치를 제공해 협업과 AI 기반 애플리케이션 제공 속도를 높인다. 이를 통해 단순 분석을 넘어 워크플로를 조율하고, 알림을 자동 생성하며, 비즈니스 성과를 직접 개선하는 AI 에이전트를 통해 효율을 높일 수 있도록 한다. 오라클은 “OCI, 오픈소스 엔진, 업계 선도적 분석 기능, 오라클 자율운영 AI 레이크하우스(Oracle Autonomous AI Lakehouse)의 결합으로 미션 크리티컬 AI 도입에 필요한 규모, 성능, 신뢰성을 제공한다”고 전했다. 제로 ETL(Zero-ETL)과 제로 카피(Zero Copy) 기능을 통해 고객은 재무, HR, 공급망, 마케팅, 영업, 서비스 등 핵심 비즈니스 애플리케이션 데이터는 물론 산업별 애플리케이션 데이터와 기존 엔터프라이즈 데이터베이스에 원활하게 연결할 수 있다. 오라클 AI 데이터 플랫폼은 멀티클라우드 및 하이브리드 크로스-클라우드 오케스트레이션을 지원하여 퍼블릭 클라우드, 온프레미스, 에지 등 모든 소스의 데이터의 연결, 처리, 분석이 가능하다. 또한, 오라클 애플리케이션과 서드파티 환경 전반에서 AI 에이전트가 원활하게 작동할 수 있게 되어 고객이 기업 전반에 걸쳐 AI 기반 혁신을 확장할 수 있다. 오라클은 퓨전(Fusion), 넷스위트(NetSuite)를 포함한 주요 오라클 애플리케이션 제품군 전반과 의료, 소비재, 금융 서비스, 건설 등 산업 전반을 대상으로 사전 통합을 포함한 맞춤형 AI 데이터 플랫폼을 제공할 계획이다. 오라클 퓨전 데이터 인텔리전스(Oracle Fusion Data Intelligence)의 정제되고 풍부하며 AI를 위해 준비된 데이터는 AI 데이터 플랫폼에서 사용 가능하다. 오라클의 T.K. 아난드 총괄부사장은 “오라클 AI 데이터 플랫폼은 고객이 데이터를 AI에 최적화하고, AI를 활용하여 비즈니스 프로세스 전반을 혁신할 수 있도록 돕는다. 이 플랫폼은 데이터를 통합하고 전체적인 AI 라이프사이클을 간소화하여 기업이 신뢰성, 보안성 및 민첩성을 고려하며 AI의 역량을 활용하는 데 있어 가장 포괄적인 기반을 제공한다”고 말했다.
작성일 : 2025-10-15