• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "클라이언트"에 대한 통합 검색 내용이 625개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 최신 AI PC 기능/애플리케이션 체험 공간 ‘인텔 서울 팝업 스토어’ 오픈
인텔은 연말 시즌에 맞춰 AI 경험을 소개하는 ‘인텔 팝업 스토어’를 강남역 오퍼스 407에 론칭하고, 11월 1일부터 한 달간 오픈한다고 밝혔다. 인텔 팝업 스토어는 서울을 비롯해 뉴욕, 런던, 뮌헨, 파리 등 전 세계 5개 도시에서 한 달간 운영하는 쇼케이스의 일환으로, 아시아에서는 유일하게 서울 강남에서 오픈한다. PC 제조사에서 주요 유통 채널까지 인텔의 글로벌 파트너인 삼성, LG, 에이서, 에이수스, 델, HP, MSI, 마이크로소프트는 물론 국내 주요 유통 채널인 쿠팡, G마켓, 네이버쇼핑과 함께 진행하며, 국내 데스크톱 브랜드인 포유컴과 퍼플랩도 참여한다. 이 곳에서는 인텔 AI PC 기반의 새로운 기능과 애플리케이션 등 스마트한 AI 경험들을 한자리에서 체험할 수 있으며, 팝업 기간동안 쿠팡, G마켓, 네이버쇼핑 등에서 프로모션하는 제품을 직접 구입할 수 있다.      10월 29일 기자간담회에서 인텔의 최고 매출책임자 및 글로벌 세일즈 마케팅 총괄인 그렉 언스트(Greg Ernst) 부사장은 인텔 글로벌 팝업스토어 프로그램 소개와 함께 최신 인텔 코어 울트라 시리즈를 포함한 클라이언트 제품 전략을 공유했다. 인텔은 2023년 첫 번째 AI PC를 선보이고 제품 라인업을 계속 확장해 나가는 한편, 350개 이상의 ISV와 협력해 약 500개의 고유한 AI 기능을 개발하면서 AI PC 분야를 이끌고 있다. 이어진 인텔 파트너 세션에서는 지지큐, 한컴, 업스테이지에서 AI PC용 애플리케이션 소개 및 활용 사례를 공유했다. 업스테이지의 최홍준 부사장은 Solar LLM 모델로 클라우드 연결 없이도 생산성을 강화할 수 있는 온디바이스 AI 구현 사례를, 지지큐의 이용수 대표는 게임용 AI 코칭 서비스를, 한컴 김연수 대표는 공공 부문 시장을 공략할 지능형 문서 작성 도구인 한컴어시스턴트를 소개했다. 또한 인텔과의 협업에 대해 공유하면서, 다양한 분야에서 AI를 활용해 생산성과 성능을 높일 수 있는 PC 경험을 소개했다. 인텔의 그렉 언스트(Greg Ernst) 세일즈 마케팅 그룹 총괄은 “연말 시즌을 맞아 한국의 주요 유통 채널 및 기술 파트너들과 함께 한국 소비자들에게 AI 기반 경험을 선보이게 되어 기쁘다. AI는 우리 모두에게 놀라운 일상의 경험을 선사할 잠재력을 가지고 있으며, 이번 쇼케이스를 통해 소비자들은 인텔과 파트너사가 창작, 게임, 업무, 학습, 소통을 위한 새로운 방식을 어떻게 구현하고 있는지 직접 체험해 볼 기회가 될 것“이라며, “한국은 인텔에게 빠르게 기술을 받아들이는 소비자와 핵심 기술 파트너를 연결해 주는 중요한 거점이다. 인텔이 제공하는 AI PC의 혁신적인 잠재력을 한국 소비자들이 직접 체험할 수 있는 팝업 스토어를 선보이게 되어 기쁘다”고 밝혔다.
작성일 : 2025-10-29
알테어, GPU·AI·양자컴퓨팅 지원하는 ‘HPC웍스 2026’ 출시
  알테어가 고성능 컴퓨팅(HPC) 및 클라우드 플랫폼 ‘알테어 HPC웍스(Altair HPCWorks) 2026’을 발표했다. 이번 업데이트는 그래픽처리장치(GPU) 통합 및 활용도 강화, 인공지능(AI)·머신러닝 지원 확대, 고도화된 리포팅 기능을 통해 HPC 환경의 가시성과 효율성을 향상시켰다. 최신 버전은 AI 워크로드를 중심으로 설계돼 GPU와의 통합성을 강화했다. 업데이트된 쿠버네티스 커넥터 및 주피터 노트북 연동 기능을 통해 AI 및 머신러닝 모델 학습 환경을 효율적으로 지원하며, 엔비디아, AMD, 인텔 GPU 가속기를 폭넓게 지원한다. IT 관리자는 향상된 GPU 탐색 및 리포팅 기능을 통해 GPU 리소스를 손쉽게 통합하고 최적화할 수 있다. AI 기반 자동화 기능도 대폭 강화됐다. HPC웍스 2026은 AI 기반 메모리 자원 예측 기능을 통해 작업 제출 및 자원 활용을 최적화하고, 지능형 스케줄링 및 메모리 선택 기능으로 HPC 워크로드의 효율성을 극대화한다. 사용자는 복잡한 정보기술(IT) 지식 없이도 빠르게 결과를 얻을 수 있다. 양자 컴퓨팅 지원도 강화됐다. 새로 출시된 버전은 전통적인 방식의 HPC와 양자 컴퓨팅을 결합한 하이브리드 워크플로를 효율적으로 실행할 수 있도록 지원한다. 이를 통해 신용카드 사기 거래 탐지와 같이 복잡하고 동적인 패턴을 분석하는 작업에 활용할 수 있다. 알테어 HPC웍스 2026은 자사 AI 플랫폼인 알테어 래피드마이너와의 연계를 통해 맞춤형 AI 모델 학습과 워크로드 자동화를 지원한다. 또한 리포트·대시보드 확장, 윈도우 전용 데스크톱 클라이언트 제공, 스트리밍 API 등으로 IT 운영 효율을 강화했다. 알테어의 샘 마할링엄 최고기술책임자(CTO)는 “기술 환경이 빠르게 진화함에 따라 알테어는 AI, 머신러닝, 데이터 분석, EDA(전자설계자동화), 양자 컴퓨팅 등 최신 워크로드를 완벽히 지원하도록 설루션을 발전시키고 있다”면서, “지멘스의 일원으로서 향후 이러한 기술력을 더욱 가속화할 예정”이라고 말했다.
작성일 : 2025-10-23
인텔, 팬서 레이크 아키텍처 공개하면서 18A 공정 기반의 AI PC 플랫폼 제시
인텔은 차세대 클라이언트 프로세서인 인텔 코어 울트라 시리즈 3(코드명 팬서 레이크)의 아키텍처 세부 사항을 공개했다. 2025년 말 출시 예정인 팬서 레이크는 미국에서 개발 및 제조되며, 진보된 반도체 공정인 인텔 18A로 제작된 인텔의 첫 번째 제품이 될 것으로 보인다. 인텔 코어 울트라 시리즈 3 프로세서는 인텔 18A 기반으로 제조된 클라이언트 시스템 온 칩(SoC)으로, 다양한 소비자 및 상업용 AI PC, 게이밍 기기, 에지 설루션을 구동할 예정이다. 팬서 레이크는 확장 가능한 멀티 칩렛 아키텍처를 도입하여 파트너사들에게 폼 팩터, 세그먼트, 가격대 전반에 걸쳐 향상된 유연성을 제공한다. 인텔이 소개한 팬서 레이크의 주요 특징은 ▲루나 레이크 수준의 전력 효율과 애로우 레이크 급 성능 ▲최대 16개의 새로운 P-코어 및 E-코어로 이전 세대 대비 50% 이상 향상된 CPU 성능 제공 ▲최대 12개의 Xe 코어를 탑재한 새로운 인텔 아크 GPU로, 이전 세대 대비 50% 이상 향상된 그래픽 성능 제공 ▲최대 180 플랫폼 TOPS(초당 수 조의 연산)를 지원하는 차세대 AI 가속화를 위한 균형 잡힌 XPU 설계 등이다.     인텔은 팬서 레이크를 PC뿐 아니라 로봇 공학을 포함한 에지 애플리케이션으로 확장할 계획이다. 새로운 인텔 로봇 공학 AI 소프트웨어 제품군과 레퍼런스 보드는 정교한 AI 기능을 갖춘 고객이 팬서 레이크를 제어 및 AI /인식 모두에 활용하여 비용 효율적인 로봇을 신속하게 혁신하고 개발할 수 있도록 지원한다.  팬서 레이크는 2025년 대량 생산을 시작하며, 첫 번째 SKU는 연말 이전에 출하될 예정이다. 또한 2026년 1월부터 폭넓게 시장에 공급될 예정이다.  한편, 인텔은 또한 2026년 상반기에 출시될 예정인 인텔 18A 기반 서버 프로세서인 제온 6+(코드명 클리어워터 포레스트)를 미리 공개했다. 팬서 레이크와 클리어워터 포레스트는 물론 인텔 18A 공정으로 제조된 여러 세대의 제품들은 모두 애리조나주 챈들러에 위치한 인텔의 공장인 팹 52에서 생산된다. 인텔의 차세대 E-코어 프로세서인 인텔 제온 6+는 인텔이 지금까지 개발한 가장 효율적인 서버 프로세서로, 인텔 18A 공정으로 제작된다. 인텔은 2026년 상반기에 제온 6+를 출시할 계획이다.  제온 6+의 주요 특징은 ▲최대 288개의 E-코어 지원 ▲전 세대 대비 사이클당 명령어 처리량(IPC) 17% 향상 ▲밀도, 처리량 및 전력 효율의 개선 등이다. 클리어워터 포레스트는 하이퍼스케일 데이터센터, 클라우드 제공업체 및 통신사를 위해 설계되어 조직이 워크로드를 확장하고 에너지 비용을 절감하며 더 지능적인 서비스를 제공할 수 있도록 지원한다.  인텔 18A는 미국에서 개발 및 제조된 최초의 2나노미터급 노드로, 인텔 3 대비 와트당 성능이 최대 15% 향상되고 칩 밀도가 30% 개선되었다. 이 공정은 미국 오리건 주 공장에서 개발 및 제조 검증 과정을 거쳐 초기 생산을 시작했으며, 현재 애리조나 주에서 대량 생산을 향해 가속화되고 있다. 인텔은 향후 출시될 자사의 클라이언트 및 서버 제품에서 최소 3세대에 인텔 18A 공정을 활용할 계획이다. 인텔 18A는 10년 만에 선보이는 인텔의 새로운 트랜지스터 아키텍처 리본FET(RibbonFET)를 적용해, 더 큰 확장성과 효율적인 스위칭을 통해 성능과 에너지 효율을 높인다. 그리고 새로운 백사이드 전원 공급 시스템인 파워비아(PowerVia)를 통해 전력 흐름과 신호 전달을 개선한다. 인텔의 첨단 패키징 및 3D 칩 적층 기술인 포베로스(Foveros)는 여러 칩렛을 적층 및 통합하여 고급 시스템 온 칩(SoC) 설계로 구현함으로써 시스템 수준에서 유연성, 확장성 및 성능을 제공한다.  인텔의 립부 탄(Lip-Bu Tan) CEO는 “우리는 향후 수십 년간 미래를 형성할 반도체 기술의 큰 도약으로 가능해진 흥미진진한 컴퓨팅의 새 시대에 접어들고 있다”며, “차세대 컴퓨팅 플랫폼은 선도적인 공정 기술, 제조 역량 및 첨단 패키징 기술과 결합되어 새로운 인텔을 구축하는 과정에서 전사적 혁신의 촉매가 될 것이다. 미국은 항상 인텔의 최첨단 연구개발, 제품 설계 및 제조의 본거지였다. 미국내 운영을 확대하고 시장에 새로운 혁신을 선보이면서 이러한 유산을 계승해 나가게 되어 자랑스럽게 생각한다”고 말했다.
작성일 : 2025-10-10
프로세스 자동화 Ⅲ - 유로 형상 설계 최적화
최적화 문제를 통찰하기 위한 심센터 히즈 (8)   이번 호에서는 파이프 유로 형상 설계 최적화를 위해 NX CAD와 심센터 스타-CCM+(Simcenter STAR-CCM+)를 사용하여 CAD 치수 변수를 수정하며 유동해석의 자동화 워크플로를 구성하고 최적화를 진행하는 과정을 소개한다. ■ 연재순서 제1회 AI 학습 데이터 생성을 위한 어댑티브 샘플링과 SHERPA의 활용 제2회 근사모델 기반의 최적화 vs. 직접 검색 기반의 최적화 제3회 수집 또는 측정된 외부 데이터의 시각화 및 데이터 분석 제4회 산포특성을 가지는 매개변수의 상관성 및 신뢰성 분석 제5회 실험 측정과 해석 결과 간의 오차 감소를 위한 캘리브레이션 분석 제6회 프로세스 자동화 Ⅰ – 구조 설계 최적화 제7회 프로세스 자동화 Ⅱ – 모터 설계 최적화 제8회 프로세스 자동화 Ⅲ – 유로 형상 설계 최적화 제9회 프로세스 자동화 Ⅳ – 다물리 시스템 최적화 제10회 프로세스 자동화 Ⅴ – 제조 공정 효율성 최적화   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 히즈를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR   이번에 사용할 심센터 스타-CCM+는 2006년에 첫 버전이 공개되었으며, 통합된 환경과 클라이언트-서버 접근 방식은 당시의 CFD 해석 방법에 새로운 패러다임을 제시했다. 첫 출시 이후 주요 기능이 빠르게 확장되었는데, 대표적으로 코드의 기반이 되는 ‘메시 파이프라인(mesh pipeline)’과, 산업용 CFD 최초로 다면체(polyhedral) 메시 기술을 도입한 점이 큰 변화였다. 2010년에는 컴퓨팅 하드웨어의 가격이 저렴해지는 반면, 라이선스 비용이 하드웨어 활용의 제약이 된다는 시장의 목소리를 반영해 ‘파워 세션(Power Session) 라이선스’를 도입하였고, 이를 통해 하나의 고정 비용으로 무제한 코어에서 대규모 병렬 해석을 수행할 수 있게 되어, 소프트웨어 사용 비용과 하드웨어 활용 간의 한계를 완전히 해소하는 사용 환경을 마련하였다. 2012년에는 업계 최초로 ‘오버셋 메시(overset meshes)’ 기능을 도입해 실제 현장에서 움직이는 격자 기반 해석을 더욱 직관적으로 구현할 수 있게 되었고, 2015년에는 산업용 CFD를 넘어 유체-구조 연성 등 진정한 다중물리 해석을 지원하기 위해 유한요소(finite elements) 해석 솔버를 통합했으며 전자기 해석까지 기능을 확장했다. 오늘날 스타-CCM+는 자동화 기능, 설계 탐색 도구, 포괄적인 다중물리 해석, 그리고 산업을 선도하는 데이터 분석 및 협업형 가상현실 환경까지 지원하며 그 성장을 지속하고 있다. 그 외에도 다양한 혁신적 진보를 이루었지만, 이 내용만으로도 지난 짧은 기간 내 스타-CCM+가 얼마나 빠르게 발전했는지 잘 보여준다고 할 수 있다.   그림 1   프로세스 자동화 다분야 설계 최적화(MDO : Multidisciplinary Design Optimization) 수행 시 설계 및 분석에서 효율적인 데이터 교환 및 프로세스 연동이 필수이므로, 데이터를 신속하고 정확하게 받기 위해서는 다이렉트 인터페이스 포털(Direct Interface Portal)이 필요하다. HEEDS(히즈)에서는 심센터 스타-CCM+를 위한 포털(Portal)을 제공하므로 빠른 설정이 가능하다. 그림 2는 HEEDS에서 제공하는 다양한 설루션의 다이렉트 인터페이스 포털 목록이다.   그림 2   <그림 3>은 파이프 유로 설계 최적화 자동화 워크플로의 주요 단계와 각 툴의 역할을 요약한다.   그림 3   첫째, NX_CAD 포털에서는 HEEDS가 NX CAD의 파트 파일(*.prt)을 NX Expressions를 활용하여 변수(치수 등)를 자동으로 수정한다. 수정된 파이프 형상이 파라솔리드(parasolid) 형식(*.x_t)으로 내보내지는데, 이 파일에는 해석에 필요한 Named Face(경계면) 정보를 포함한다. 둘째, STAR-CCM+ 포털에서는 스타-CCM+ 해석 파일(*. sim)이 전달받은 신규 형상(*.x_t)을 읽고, 메시 업데이트와 경계조건 수정이 자동으로 적용된다. 이후 유동 해석이 수행된 뒤, 결과값은 HEEDS가 자동 추출한다. <그림 3>은 NX CAD와 스타-CCM+ 간의 입력/출력 파일 흐름, 형상 전송, 변수-응답 데이터 매핑 관계를 시각적으로 정리한다. 이처럼 각 단계를 자동화로 설정하면 설계 변수 변경부터 해석 실행 및 결과 평가까지 전체 최적화 과정을 빠르고 효율적으로 반복할 수 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-10-02
어도비, 아이폰용 프리미어 모바일 앱 출시
어도비가 자사의 영상 편집 도구인 어도비 프리미어(Adobe Premiere)를 신규 아이폰 앱을 통해 모바일 환경에서 선보인다고 발표했다. 어도비 프리미어 모바일 앱은 초고속 멀티트랙 타임라인에서 정밀한 편집, 깨끗한 음성 녹음과 완벽한 타이밍의 AI 기반 음향 효과, 스튜디오급 오디오 제작이 가능하다. 독창적인 콘텐츠를 생성하고 수백만 개의 무료 멀티미디어 애셋을 활용할 수 있으며, 모바일에서 제작한 작업물을 프리미어 데스크톱으로 전송해 더 큰 화면에서 세부 조정도 가능하다. 새 모바일 앱은 영상 편집에 필요한 기본 기능을 무료로 제공하며, 추가 저장 공간이나 생성 크레딧이 필요한 경우 업그레이드 플랜(Upgrade Plan)을 선택하면 된다.     아이폰용 프리미어 앱으로 차세대 크리에이터는 정밀한 영상 편집의 강점을 누릴 수 있고, 숙련된 전문가는 이동 중에도 유연하게 편집할 수 있다. 이 신규 모바일 앱은 단편 영화, 뮤직비디오, 유튜브 및 틱톡 콘텐츠, 클라이언트 업무, 개인 프로젝트 등 다양한 콘텐츠 제작과 편집을 가속화한다. 크리에이터는 일상 브이로그를 촬영하고 편집할 수 있으며, 스트리머는 라이브 하이라이트 장면을 클립으로 만들어 공유할 수 있다. 이외에도 팟캐스터는 언제 어디서든 대화를 정리하고 스튜디오급 효과음을 추가할 수 있다. 어도비 프리미어 모바일 앱은 강력한 모바일 편집 툴을 제공하며, 크리에이터가 다양한 기기에서 원활하게 작업할 수 있도록 지원한다. 이동 중에도 편집 프로젝트를 시작하고, 데스크톱에서 프리미어 프로를 통해 정밀하게 편집을 마무리할 수 있는 유연성을 제공한다. 모바일 앱이 제공하는 편집 기능은 다음과 같다. 무제한 초고속 멀티 트랙 타임라인, 4K HDR 편집, 프레임 단위의 정밀 편집, 역동적인 애니메이션 캡션, 부드러운 속도 및 모션 효과, 즉각적인 배경 제거 등 모바일에서도 완전한 크리에이티브 콘텐츠 제어가 가능한 엔드 투 엔드 편집 툴 선명한 보이스오버를 위한 음성 향상 (Enhance Speech)과 완벽한 타이밍의 사운드 요소를 위한 사운드 효과 생성(Generative Sound Effects) 등 스튜디오급 사운드를 제공하는 AI 오디오 툴 AI 기반 스티커부터 매끄러운 배경 확장, 이미지를 비디오로 생성에 이르기까지 독특한 애셋을 어도비의 상업적으로 안전한 생성형 AI를 통해 생성 iOS에 최적화된 빠르고 반응성 높은 성능, 간편한 미디어 관리, 방해 요소와 워터마크 없는 환경에서 영감이 떠오르는 대로 편집 가능 수백만 개의 스티커, 이미지, 어도비 폰트, 로열티 없는 음악 트랙 등 방대한 무료 크리에이티브 애셋을 활용해 콘텐츠에 생동감 부여 틱톡, 유튜브 쇼츠, 인스타그램 등 주요 소셜 플랫폼에 한 번의 터치로 내보내기. 각 플랫폼에 맞게 영상 크기를 조정하고 주요 장면이 프레임을 벗어나지 않게 하는 기능 제공   아이폰용 프리미어 모바일 앱은 전 세계 앱스토어에서 이용 가능하다. 안드로이드용 프리미어 모바일 앱은 현재 개발 중이다. 어도비의 마이크 폴너(Mike Polner) 크리에이터 제품 마케팅 부문 부사장은 “크리에이터에게 전문가 수준의 크리에이티브 콘텐츠 제작 역량을 제공하게 돼 기쁘다”면서, “스튜디오급 오디오, 정교한 편집 툴과 뛰어난 비주얼을 갖춘 아이폰용 프리미어 앱으로 모바일에서도 손쉽게 콘텐츠를 제작하고 공유할 수 있고, 일상적인 순간을 언제 어디서든 완성도 높은 스토리로 바꿀 수 있다”고 말했다.
작성일 : 2025-10-01
인텔-엔비디아, AI 인프라 및 PC 제품 공동 개발 협력 발표
인텔과 엔비디아는 하이퍼스케일, 엔터프라이즈 및 소비자 시장 전반에 걸쳐 애플리케이션 및 워크로드를 가속화할 맞춤형 데이터센터 및 PC 제품을 여러 세대에 걸쳐 공동 개발하기 위한 협력을 발표했다. 양사는 엔비디아 NV링크(NVLink)를 활용해 엔비디아와 인텔 아키텍처를 원활하게 연결하는 데 주력하며, 이를 통해 엔비디아의 AI 및 가속 컴퓨팅 역량과 인텔의 CPU 기술 및 x86 생태계를 결합하여 고객에게 최첨단 설루션을 제공할 계획이다. 데이터센터 부문에서 인텔은 엔비디아 맞춤형 x86 CPU를 제작하고, 엔비디아는 이를 자사 AI 인프라 플랫폼에 통합해 시장에 공급할 예정이다. 개인용 컴퓨팅(PC) 분야에서는 인텔이 엔비디아 RTX GPU 칩렛을 통합한 x86 시스템 온 칩(SOC)을 제작해 시장에 공급할 계획이다. 새로운 x86 RTX SOC는 높은 수준의 CPU와 GPU 통합을 요구하는 다양한 PC에 탑재될 것이다. 엔비디아는 인텔 보통주에 주당 23.28달러의 매입가로 50억 달러를 투자할 예정이다. 이번 투자는 규제 당국의 승인을 포함한 통상적인 거래 종결 조건에 따라 진행된다.     엔비디아의 창업자인 젠슨 황(Jensen Huang) CEO는 “AI는 새로운 산업 혁명을 주도하며 실리콘부터 시스템, 소프트웨어에 이르기까지 컴퓨팅 스택의 모든 계층을 재창조하고 있다. 이 재창조의 핵심에는 엔비디아의 CUDA 아키텍처가 자리 잡고 있다”고 말했다. 또한 “이번 역사적인 협력은 두 개의 세계적 플랫폼의 융합으로, 엔비디아의 AI 및 가속 컴퓨팅 스택과 인텔의 CPU, 방대한 x86 생태계를 긴밀히 결합한다. 양사는 생태계를 확장하고 차세대 컴퓨팅 시대의 기반을 마련할 것”이라고 밝혔다. 인텔의 립부 탄(Lip-Bu Tan) CEO는 “인텔의 x86 아키텍처는 수십 년간 현대 컴퓨팅의 기반이 되어왔으며, 인텔은 미래 워크로드를 지원하기 위해 포트폴리오 전반에 걸쳐 혁신을 추진 중”이라면서, “인텔의 선도적인 데이터센터 및 클라이언트 컴퓨팅 플랫폼은 인텔의 공정 기술, 제조 역량, 첨단 패키징 기술과 결합되어 엔비디아의 AI 및 가속 컴퓨팅 리더십을 보완함으로써 업계에 새로운 돌파구를 마련할 것이다. 젠슨황 CEO와 엔비디아 팀이 투자로 보여준 신뢰에 감사하며, 고객을 위한 혁신과 사업 성장을 위해 함께할 앞날을 기대한다”고 밝혔다.
작성일 : 2025-09-19
한국IBM, 'AI 서밋 코리아' 개최...IBM 제시하는 AI 기업 경쟁력
서울 삼성동 그랜드 인터컨티넨탈 서울 파르나스 호텔에서 ‘IBM AI 서밋 코리아(IBM AI Summit Korea)’가 열렸다. 한국IBM이 주최한 이번 행사는 “AI로 앞서가는, 더 똑똑한 비즈니스의 시작”이라는 주제로, 기업들이 AI를 어떻게 전략적으로 수용하고 활용할지에 대한 깊이 있는 논의와 경험이 공유되었다. 한국IBM 이수정 사장은 개회사에서 AI를 단순한 트렌드가 아닌 기업 경쟁력의 핵심 동인으로 강조했다. 산업 구조와 업무 방식이 AI로 재편되고 있으며, 특히 왓슨x(watsonx) 플랫폼을 중심으로 “클라이언트 제로(Client Zero)” 사례를 통해 실제 성과를 검증했다고 밝혔다. 특히 왓슨x 기반으로 비용 대비 최대 효용을 내기 위한 맞춤형 AI 모델, 그리고 각 산업과 업무 영역에 특화된 접근 방식이 중요하다고 강조했다. IBM 아시아 태평양 총괄 한스 데커스 사장은 '가능성을 현실로, AI로 실현하는 비즈니스의 새로운 지평'을 주제로 데이터 중심, 아키텍처 + 실행 전략이 AI 성공의 열쇠라고 강조했다. 투자 대비 수익(ROI)을 실질적으로 확보하는 기업이 적은 현실(클라우드+AI 도입 기업 중 약 25%만이 만족할 만한 ROI를 실현)에서 왓슨x 포트폴리오 등이 그 한계를 극복할 수 있는 가능성을 제시했다. 특별 강연으로 궁금증뇌연구소 대표인 장동선 박사가 참여해 '뇌과학자가 바라보는 AI 시대의 미래'를 주제로, 뇌과학 관점에서 본 AI 시대의 인간과 기술의 공존에 대해 이야기했다. 장 박사는 AI와 함께 살아가야 하는 시대일수록 인간과 인간이 연결 고리는 더욱 중요해질 것이라고 말했다. 한편, 현장 전시에서는 IBM의 왓슨x 기술이 실제 기업 환경에서 어떻게 적용되는지를 보여주는 ‘페르소나 기반 AI 여정’이 눈길을 끌었다. 인사, 구매, 영업 등 현업 부서와 AI 혁신팀, 데이터팀, IT 운영팀 등 기술 조직을 각각의 페르소나로 설정하고, 각 조직이 직면한 과제를 AI가 어떻게 해결하는지를 시나리오 중심으로 구성했다. 예를 들어, HR 부서는 채용 프로세스 자동화와 직원 경험 개선, 영업 부서는 예측 기반 고객 관리, IT 운영 부서는 운영 리스크 탐지 및 자동 대응 등 각 부서의 니즈에 맞춘 왓슨x 기반 AI 활용 사례가 전시되었다. 이를 통해 참가자들은 기술 중심이 아닌 업무 중심의 AI 적용 방식을 직접 체험할 수 있었다.
작성일 : 2025-09-16
클라우드 서버 환경에서 BPMN을 연결하는 설루션 탐구
BPMN을 활용하여 제품 개발의 소통과 협업 극대화하기 (5)   지난 호에서는 BPMN(Business Process Modeling Notation)을 활용한 프로세스를 보다 폭 넓게 이해하기 위해 간략한 부품 개발 절차에 대한 프로세스를 작성해 보았다. 이번 호에서는 연재의 마지막 시간으로, 그동안 다루었던 개인 사용자 환경(클라이언트)에서 벗어나 서버 환경 특히 클라우드에서 BPMN을 활용하는 방법에 대해 알아보도록 하겠다.   ■ 연재순서 제1회 비즈니스 프로세스 모델링이 필요한 이유 제2회 BPMN은 무엇일까? 제3회 비즈니스 프로세스 모델링을 배워보자 제4회 간단한 제품 개발 프로세스를 디자인해보기 제5회 클라우드 서버 환경에서 BPMN을 연결하는 설루션 탐구   ■ 윤경렬 현대자동차 연구개발본부 책임연구원   ■ 가브리엘 데그라시 이탈리아 Esteco사의 프로젝트 매니저   지난 호에서 작성한 리프 스프링(leaf spring) 개발 프로세스는 이해관계자(참여자)를 3개 영역(Business layer – Business manager, Engineering layer – Engineering designer, Simulation layer – Simulation engineer)으로 구분하고 업무와 역할을 정의하였으며, 각각의 레이어에는 현재 해야 할 태스크를 확인하고, 다음 레이어에는 어느 시점에 업무 흐름이 전개되는지 그리고 어떤 역할을 수행해야 해야 하는지 쉽게 파악할 수 있도록 하였다. BPMN을 이용하면서 업무의 흐름을 명확하고 자세하게 파악할 수 있고 서로 어떻게 연결되어 있는지도 이해할 수 있었을 것으로 생각된다.   그림 1. 리프 스프링 개발 프로세스   클라우드 서버 환경이 필요한 이유 이번 호에서는 서버 환경 특히 클라우드에서 BPMN을 활용하는 방법에 대해 알아보도록 하겠다. 우선 서버 환경이 왜 필요한지에 대해서 알아보면, 사실 서버 환경이 왜 필요한지에 대한 이유는 BPMN에만 국한된 문제는 아니다. 대부분의 도메인 영역에서 비슷한 이유가 있다고 볼 수 있는데, 우리는 BPMN에 대한 이야기를 다루고 있으니까 이와 관련된 예제를 가지고 생각해 보도록 하자.   철수는 리프 스프링 개발 프로세스에 참여하고 있는 프로젝트 매니저로, Camunada와 같은 클라이언트 툴을 사용하여 BPMN으로 프로세스를 작성하고 개인 PC에 저장하였다. 그리고 다른 참여자인 영희와 민수에게 해당 파일(LeafSprinngprocess.bpmn)을 이메일을 통해 전달하고 내용 확인을 요청하였다. 영희는 리프 스프링 개발 프로세스에 참여하고 있는 엔지니어링 디자이너이다. 영희는 철수에게 받은 LeafSpringprocess.bpmn 파일을 다운로드하고 오픈하여 프로세스를 검토하던 중에 특정 부분이 잘못 표시된 점을 발견하였다. 이를 수정하여 이메일 회신을 통해 전송하였는데, 저장을 할 때 변경 정보를 반영하기 위해 LeafSpringprocess_1. bpmn으로 파일 이름을 수정하였다. 다만 실수로 이전 버전인 LeafSpringprocess.bpmn을 메일에 첨부하였다. 그리고 바로 해외 출장 때문에 몇 주간 사무실에서 자리를 비우게 되었다. 민수는 리프 스프링 개발 프로세스에 참여하고 있는 시뮬레이션 엔지니어이다. 민수는 철수와 영희가 주고 받는 메일을 보면서 영희가 마지막으로 수정한 LeafSpringprocess.bpmn이 최종 버전이라 판단하고, 해당 파일을 다운로드하여 BPMN 프로세스를 확인하였다. 큰 문제는 없어 보였기에 프로세스 버전을 기준으로 업무를 수행하기 시작했다. 일주일 후에 철수는 리프 스프링 개발 프로세스에 변경 사항을 반영하기 위해 BPMN에 해당 내용을 반영하여 LeafSpringprocess_1. bpmn으로 저장하여 이메일로 전송하였다. 영희는 해외 출장 중이라 메일을 받기는 했는데, 시간 여유도 없고 사무실에 있는 개인 PC에 접속하기도 어려워서 상세 검토는 복귀 이후에 진행하기로 했다. 나중에 영희는 본인이 수정한 내용이 실수로 반영되지 않았다는 것을 알게 되었고, 전체 프로세스 업데이트에 대한 롤백이 필요하다는 것을 확인하였다. 민수는 LeafSpringprocess.bpmn에 따라 업무를 빠르게 수행하고 있었는데, 새로운 LeafSpringprocess_1.bpmn을 오픈하면서 그 동안 수행한 업무 일부는 새로 작업해야 한다는 것과 영희가 실수한 업데이트 버전이 본인의 작업을 전체적으로 재검토해야 한다는 것을 알게 되었다. 그러면서 공유가 좀 더 빠르게 실시간으로 진행되었다면 하는 아쉬움이 생겼다. 가상의 예제이긴 하지만 BPMN에 국한된 문제이기보다는 그동안 여러 참여자가 실시간 협업을 하면서 종종 마주하게 되는 것과 비슷하다고 볼 수 있다. 여기서 문제의 시작은 참여자들이 개별 PC에서 클라이언트 툴을 이용하여 작업하고 저장하고 관리하고 있다는 점이다. 서로의 소통은 이메일 또는 메신저를 활용하고 있으므로, 업무의 협업 관점에서 보면 부족한 측면이 많을 수 밖에 없는 것이 사실이다. 이러한 문제를 근본적으로 해결하기 위해 서버 환경이 구축되었고, 기술 발전을 거듭하여 이제는 클라우드 서버 환경으로 자리잡게 되었다. 이런 관점에서 보았을 때 우리가 지금까지 살펴 본 클라이언트 툴(Camunda 등)을 활용한 BPMN 프로세스 작성 및 관리는 개인 측면에서 부족함이 없을 수 있지만, 다른 참여자와의 공유 및 협업 측면에서는 아쉬운 부분이 존재한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-07-01
인공지능 AI 에이전트 표준 프로토콜 MCP의 사용, 분석 및 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   MCP(Model Context Protocol)는 클로드(Claude)의 개발사인 앤트로픽(Anthropic)의 인공지능 AI 에이전트 표준 프로토콜이다. 이번 호에서는 최근 많은 이슈가 되고 있는 MCP의 사용 방법을 간략히 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. MCP의 개념   MCP는 애플리케이션이 LLM(대규모 언어 모델)에 컨텍스트를 제공하는 방식을 표준화한 개방형 프로토콜이다. USB-C 포트처럼, 다양한 도구와 데이터를 LLM에 연결하는 통합된 인터페이스 역할을 한다. LLM 기반 에이전트와 워크플로 구축을 지원하며 유연한 통합, 데이터 보호, 공급업체 간 전환성을 제공한다. MCP를 이용하면 AI 에이전트가 다양한 도구를 이용해 기존 LLM보다 훨씬 많은 일을 할 수 있다. 예를 들어, LLM에서 실시간 웹 자료를 이용해 여행 일정을 짜고, 마케팅 보고서를 만들며, 레빗(Revit)과 같은 3D 모델 콘텐츠를 프롬프트 엔지니어링으로 개발할 수 있다.   그림 2. AI 에이전트 기반 3D 모델링(United Top Tech 유튜브)   그림 3. MCP 도구 서버(https://mcp.so)   MCP의 개념 아키텍처 구조 MCP는 호스트-클라이언트-서버 구조로 구성되며, 로컬 및 원격 데이터를 안전하게 연결할 수 있는 아키텍처를 따른다. 호스트는 서버에서 제공해 주는 파일 관리, 웹 서칭, 계산 등의 도구를 연결해 LLM을 통해 추론, CoT, 도구 호출, 생성 등의 역할을 담당한다.   그림 4. MCP의 구조   각 구성요소의 역할은 다음과 같다. MCP 호스트는 MCP 프로토콜을 통해 서비스에 액세스할 수 있는 애플리케이션이다. 클로드 데스크톱 앱, AI 에이전트/CLI, 커서 IDE 등이 이에 해당하며, LLM(로컬 또는 원격)을 활용하여 다양한 작업을 수행한다. MCP 클라이언트는 MCP 서버와 연결하기 위해 호스트 애플리케이션과 통합된 클라이언트이다. MCP 서버는 MCP 프로토콜을 통해 특정 기능을 노출하는 응용 프로그램 또는 프로그램이다. 서버는 도커(Docker) 컨테이너, JVM, Node.js(UV/UVX) 프로세스에서 실행될 수 있으며, MCP 커뮤니티에서 제공하는 사전 구축된 서버를 활용할 수도 있다. 로컬 데이터 소스는 로컬 시스템에 존재하는 데이터베이스 또는 파일 시스템이다. 원격 서비스는 웹 API를 통해 액세스할 수 있는 깃허브(GitHub), 브레이브 서치(Brave Search)와 같은 외부 리소스이다. MCP를 이용하면 서버, 클라이언트, 로컬에 있는 파일, 폴더, 앱에 접근해 이를 LLM으로 컨트롤할 수 있다. MCP 구조를 구성하는 호스트와 서버는 다음과 같은 도구를 통해 구성해 활용한다. 호스트 : 클로드, 커서(Cursor), 챗GPT(ChatGPT), 깃허브 코파일럿(Github Copilot) 등 서버 : Model Context Protocol Servers(https://github. com/modelcontextprotocol/servers) MCP는 전형적인 호스트-서버 프로토콜(TCP/IP와 유사)을 따른다. 서버의 실행 모드는 SSE(server sent event)와 stdio(표준입출력) 모드가 있다. SSE는 네트워크로 연결해 도구를 호출할 수 있도록 한다. stdio는 로컬 자체에서 도구를 호출할 수 있도록 한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-06-04
마이크로소프트, “비즈니스 전반에서 AI 에이전트가 활약하는 시대가 온다”
마이크로소프트가 ‘마이크로소프트 빌드 2025(Microsoft Build 2025)’를 개최하고 AI 에이전트, 개발자 도구, 오픈 플랫폼 등 신규 기능과 주요 업데이트를 발표했다.   AI는 추론 능력과 메모리 기술의 고도화로 인해 스스로 학습하고 결정을 내리는 에이전트로 진화하고 있다. 이번 행사에서 마이크로소프트는 이러한 AI 에이전트가 개인, 조직, 팀은 물론 전체 비즈니스 전반에 작동하는 인터넷 환경을 ‘오픈 에이전틱 웹(Open Agentic Web)’으로 정의하며, AI가 사용자나 조직을 대신해 결정을 내리고 작업을 수행하는 시대가 도래했다고 강조했다.  전 세계 수십만 조직이 마이크로소프트 365 코파일럿(Microsoft 365 Copilot)을 활용해 리서치, 아이디어 브레인스토밍 등 다양한 업무에 특화된 AI 에이전트를 구축하고 있다. 이 중 포춘 500대 기업 90%를 포함한 23만 개 이상 조직은 코파일럿 스튜디오(Copilot Studio)를 통해 AI 에이전트와 자동화 앱을 개발하고 있다. 또한, 전 세계 약 1500만 명의 개발자가 깃허브 코파일럿(GitHub Copilot)을 통해 코드 작성, 검토, 배포, 디버깅 등 개발 전 과정을 효율화하고 있다.     이번 빌드 2025에서는 AI 에이전트 개발을 돕는 플랫폼과 도구가 집중 소개됐다. 먼저 깃허브(GitHub), 애저 AI 파운드리(Azure AI Foundry), 윈도우(Windows) 등 주요 개발 플랫폼에서 활용할 수 있는 다양한 기능과 업데이트가 발표됐다. 이번 업데이트는 개발 생애 주기의 변화에 따라 개발자가 보다 효율적으로 작업하고, 대규모 개발 환경에서도 유연하게 대응할 수 있도록 설계됐다.  깃허브 코파일럿에는 비동기화(asynchronous) 방식의 코딩 에이전트 기능이 새롭게 도입됐다. 또한, 깃허브 모델(GitHub Models)에는 프롬프트 관리, 경량평가(LightEval), 엔터프라이즈 제어 기능이 추가돼, 개발자는 깃허브 내에서 다양한 AI 모델을 실험할 수 있게 됐다. 이와 함께 깃허브 코파일럿 챗(GitHub Copilot Chat) 또한 비주얼 스튜디오 코드(Visual Studio Code)에서 오픈소스로 공개됐다. 깃허브 코파일럿 확장 기능의 AI 기능은 이제 개발 도구를 구동하는 오픈소스 저장소의 일부가 됐다.  윈도우 AI 파운드리(Windows AI Foundry)도 새롭게 공개됐다. 개발자에게 개방적이고 널리 사용되는 플랫폼 중 하나로서 윈도우가 확장성, 유연성, 그리고 성장 기회를 제공함에 따라, 윈도우 AI 파운드리는 학습부터 추론까지 AI 개발자 라이프사이클을 지원하는 통합되고 신뢰할 수 있는 플랫폼을 제공한다. 이를 통해 개발자는 시각 및 언어 작업에 특화된 간단한 모델 API를 활용해 오픈소스 대규모 언어 모델(LLM)을 파운드리 로컬(Foundry Local) 환경에서 실행하거나, 자체 개발한 모델을 가져와 변환·미세조정한 뒤 클라이언트 또는 클라우드 환경에 배포할 수 있다.  애저 AI 파운드리도 주요 업데이트를 진행했다. 애저 AI 파운드리는 개발자가 AI 애플리케이션과 에이전트를 설계·맞춤화·관리할 수 있도록 지원하는 통합 플랫폼으로, 이번 애저 파운드리 모델(Azure Foundry Models) 업데이트를 통해 AI 기업 xAI의 그록3(Grok 3) 및 그록3 미니(Grok 3 Mini) 모델이 마이크로소프트 생태계에 추가됐다. 두 모델은 마이크로소프트가 직접 제공하며 과금한다. 이로써 개발자가 선택할 수 있는 AI 모델의 범위는 파트너사 및 마이크로소프트 제공 모델을 포함해 1900개 이상으로 확대됐다. 이와 함께, 안전한 데이터 통합, 모델 맞춤화, 엔터프라이즈급 관리 기능도 제공돼 보다 정밀한 AI 운영이 가능해졌다.   AI 모델을 항목별로 비교해 순위를 보여주는 모델 리더보드(Model Leaderboard)와 특정 쿼리나 작업에 따라 최적의 모델을 실시간으로 선택할 수 있도록 설계된 모델 라우터(Model Router) 등 신규 도구도 함께 공개됐다.   AI 에이전트 개발과 배포를 보다 안전하고 효율적으로 수행하도록 지원하는 기능도 선보였다. 사전 구축된 에이전트(pre-built agents), 맞춤형 에이전트 설계 도구, 멀티 에이전트 기능, 새로운 모델 등으로 구성된 이번 업데이트는 개발자와 조직이 보다 유연하게 AI 에이전트를 구축하고 생산성을 높이는 데 활용할 수 있도록 지원한다.  애저 AI 파운드리 에이전트 서비스(Azure AI Foundry Agent Service)는 여러 전문 에이전트를 조율해 복잡한 작업을 처리할 수 있도록 지원한다. 이번 업데이트에서는 시맨틱 커널(Semantic Kernel)과 오토젠(AutoGen)을 통합 제공하는 단일 SDK와, 에이전트 간 상호작용을 가능하게 하는 A2A(Agent-to-Agent) 기능 및 모델 컨텍스트 프로토콜(Model Context Protocol, 이하 MCP) 지원 기능도 포함한다.  애저 AI 파운드리 옵저버빌리티(Azure AI Foundry Observability)에는 AI 에이전트의 신뢰도를 높일 수 있도록 성능, 품질, 비용, 안전성 등의 지표들을 모니터링할 수 있는 기능이 탑재됐다. 모든 지표는 통합 대시보드를 통해 시각적으로 추적할 수 있어, 운영 현황을 직관적으로 파악할 수 있다.  보안과 거버넌스 측면에서도 기능이 강화됐다. 프리뷰로 제공되는 엔트라 에이전트 ID(Microsoft Entra Agent ID)를 활용하면, 애저 AI 파운드리나 코파일럿 스튜디오에서 생성한 에이전트에 고유 ID가 자동으로 부여된다. 이를 통해 에이전트를 초기 단계부터 안전하게 관리하고, 무분별한 생성을 방지해 보안 사각지대를 방지할 수 있다. 또한, 애저 AI 파운드리로 구축된 애플리케이션과 에이전트는 퍼뷰(Microsoft Purview)의 데이터 보안 및 컴플라이언스 제어 기능과 통합된다. 여기에 위험 파라미터 설정, 자동 평가 수행, 상세 보고서 제공 등 고도화된 거버넌스 도구도 함께 제공돼 정밀한 보안 및 운영 관리가 가능해졌다.  마이크로소프트 365 코파일럿 튜닝(Microsoft 365 Copilot Tuning)은 기업 고유의 데이터, 워크플로, 업무 프로세스를 기반으로 로코드 방식의 AI 모델 학습과 에이전트 생성을 돕는다. 생성된 에이전트는 마이크로소프트 365 환경 내에서 안전하게 실행되며, 조직별 업무에 특화된 작업을 높은 정확도로 수행할 수 있다. 예를 들어, 로펌은 자사의 전문성과 양식에 맞춰 문서를 작성하는 에이전트를 구축할 수 있다.  멀티 에이전트 오케스트레이션 기능도 코파일럿 스튜디오(Copilot Studio)에 새롭게 도입됐다. 이를 통해 다양한 에이전트를 상호 연결하고 기능을 결합함으로써 복잡하고 광범위한 업무를 처리할 수 있다.  이와 함께 마이크로소프트는 AI 에이전트의 미래를 위해 개방형 표준과 공유 인프라를 발전시키는 MCP 생태계 지원 업데이트와 새로운 개방형 프로젝트인 ‘NLWeb’을 발표했다. 마이크로소프트는 깃허브, 코파일럿 스튜디오, 다이나믹스 365(Dynamics 365), 애저 AI 파운드리, 시맨틱 커널, 윈도우 11 등 자사가 보유한 주요 에이전트 및 프레임워크 전반에서 MCP를 지원한다. 마이크로소프트와 깃허브는 MCP 운영 위원회(MCP Steering Committee)에 새롭게 합류해, 개방형 프로토콜의 보안성과 확장성을 높이기 위한 공동 노력을 이어갈 예정이다.  또한 MCP 생태계 확장을 위한 두 가지 업데이트도 공개했다. 첫 번째는 사용자가 기존 로그인 방식을 그대로 활용해 에이전트 및 LLM 기반 애플리케이션에게 개인 저장소나 구독 서비스와 같은 다양한 데이터에 대한 안전한 접근 권한을 부여할 수 있도록 인증 체계를 개선했다. 두 번째는 MCP 서버 항목을 누구나 최신 공용 또는 사설 저장소에서 중앙화해 관리할 수 있도록 지원하는 MCP 서버 등록 서비스를 설계했다.   NLWeb은 에이전틱 웹 환경을 위한 개방형 프로젝트로, 마이크로소프트는 NLWeb이 에이전틱 웹에서 HTML과 유사한 역할을 할 수 있을 것으로 기대한다. NLWeb은 웹사이트 운영자가 원하는 AI 모델과 자체 데이터를 연결해 대화형 인터페이스를 구축함으로써 사용자가 웹 콘텐츠와 직접 상호작용하며 풍부하고 의미 있는 정보를 얻도록 돕는다. 또한 모든 NLWeb 엔드포인트는 MCP 서버이기도 하기 때문에 웹사이트 운영자는 필요시 AI 에이전트들이 해당 사이트의 콘텐츠를 쉽게 검색하고 접근하도록 설정할 수 있다.  한편, 마이크로소프트는 과학 연구를 가속화하기 위한 AI 에이전트 기반 플랫폼 마이크로소프트 디스커버리(Microsoft Discovery)도 선보였다. 이 플랫폼은 연구자가 AI 에이전트를 활용해 과학적 발견 과정 전반을 혁신할 수 있도록 지원한다. 마이크로소프트는 이를 통해 제약, 환경 등 다양한 산업 분야의 연구개발 부서가 신제품 출시 기간을 단축하고, 연구 전반의 속도와 범위를 확장할 수 있을 것으로 기대하고 있다. 
작성일 : 2025-05-20