• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "LLM"에 대한 통합 검색 내용이 392개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 도시 인프라에 물리 AI 도입하는 옴니버스 블루프린트 공개
엔비디아가 ‘스마트 시티 AI용 엔비디아 옴니버스 블루프린트(NVIDIA Omniverse Blueprint for smart city AI)’를 발표했다. 엔비디아는 이 블루프린트를 옴니버스, 코스모스(Cosmos), 네모(NeMo), 메트로폴리스(Metropolis)와 통합해 유럽의 도시에서 삶의 질을 개선시킬 것으로 기대하고 있다. 2050년까지 도시 인구는 두 배 증가할 것으로 예상된다. 이는 21세기 중반까지 도시 지역에 약 25억 명의 인구가 더해질 수 있음을 의미한다. 따라서 보다 지속 가능한 도시 계획과 공공 서비스의 필요성이 높아지고 있다. 전 세계 도시들은 도시 계획 시나리오 분석과 데이터 기반 운영 결정을 위해 디지털 트윈과 AI 에이전트를 활용하고 있다. 그러나 도시의 디지털 트윈을 구축하고 그 안에서 스마트 시티 AI 에이전트를 테스트하는 것은 복잡하며, 자원 집약적인 작업이다. 여기에는 기술적, 운영적 문제도 수반된다. 엔비디아가 공개한 스마트 시티 AI용 엔비디아 옴니버스 블루프린트는 이러한 문제를 해결하기 위한 것이다. 이 참조 프레임워크는 엔비디아 옴니버스, 코스모스, 네모, 메트로폴리스 플랫폼과 결합해 도시 전체와 주요 인프라에 물리 AI의 이점을 제공한다. 개발자는 이 블루프린트를 사용해 심레디(SimReady)와 같이 시뮬레이션이 가능한 사실적 도시 디지털 트윈을 구축할 수 있다. 이를 통해 도시 운영을 모니터링하고 최적화하는 AI 에이전트를 개발, 테스트할 수 있다. 스마트 시티 AI용 엔비디아 옴니버스 블루프린트는 완전한 소프트웨어 스택을 제공해, 물리적으로 정밀한 도시의 디지털 트윈에서 AI 에이전트의 개발, 테스트를 가속화한다.      엔비디아 옴니버스는 물리적으로 정확한 디지털 트윈을 구축해 도시 규모에서 시뮬레이션을 실행한다. 엔비디아 코스모스는 사후 훈련 AI 모델을 위한 대규모 합성 데이터를 생성한다. 엔비디아 네모는 고품질 데이터를 큐레이션하며, 해당 데이터를 사용해 비전 언어 모델(vision language model, VLM)과 대규모 언어 모델(large language model, LLM)을 훈련하고 미세 조정한다. 엔비디아 메트로폴리스는 영상 검색과 요약(video search and summarization, VSS)용 엔비디아 AI 블루프린트를 기반으로 영상 분석 AI 에이전트를 구축, 배포한다. 이를 통해 방대한 양의 영상 데이터를 처리하고, 비즈니스 프로세스를 최적화하는 데 중요한 인사이트를 제공한다.   이 블루프린트 워크플로는 세 개의 주요 단계로 구성된다. 먼저 개발자는 옴니버스와 코스모스를 통해 특정 위치와 시설의 심레디 디지털 트윈을 구축한다. 여기에는 항공, 위성, 지도 데이터가 활용된다. 이어서 엔비디아 타오(TAO)와 네모 큐레이터(Curator)를 사용해 컴퓨터 비전 모델, VLM 등 AI 모델을 훈련하고 미세 조정한다. 이로써 비전 AI 사용 사례에서 정확도를 높인다​. 마지막으로 이러한 맞춤형 모델에 기반한 실시간 AI 에이전트의 배포로 메트로폴리스 VSS 블루프린트를 사용해 카메라와 센서 데이터를 알림, 요약, 쿼리한다.  엔비디아는 스마트 시티 AI용 블루프린트를 통해 다양한 파트너가 엔비디아의 기술과 자사의 기술을 결합하고, 통합된 워크플로를 기반으로 스마트 시티 사용 사례를 위한 디지털 트윈을 구축, 활성화할 수 있도록 지원한다는 계획이다. 이 새로운 블루프린트를 최초로 활용하게 될 주요 기업에는 XXII, AVES 리얼리티, 아킬라, 블링시, 벤틀리, 세슘, K2K, 링커 비전, 마일스톤 시스템즈, 네비우스, 프랑스 국영철도회사, 트림블, 유나이트 AI 등이 있다. 벤틀리 시스템즈는 엔비디아 블루프린트와 함께 물리 AI를 도시에 도입하는 데 동참하고 있다. 개방형 3D 지리 공간 플랫폼인 세슘은 인프라 프로젝트와 항만의 디지털 트윈을 옴니버스에서 시각화, 분석, 관리하는 기반을 제공한다. 벤틀리 시스템즈의 AI 플랫폼인 블린시는 합성 데이터 생성과 메트로폴리스를 사용해 도로 조건을 분석하고 유지보수를 개선한다. 트림블은 건설, 지리 공간, 운송 등 필수 산업을 지원하는 글로벌 기술 회사이다. 이들은 스마트 시티의 측량, 지도 제작 애플리케이션을 위한 현실 캡처 워크플로와 트림블 커넥트(Connect) 디지털 트윈 플랫폼에 옴니버스 블루프린트의 구성 요소를 통합하는 방법을 모색하고 있다.
작성일 : 2025-06-16
레드햇-메타, “엔터프라이즈용 오픈소스 AI 발전 위해 협력”
레드햇과 메타는 엔터프라이즈용 생성형 AI의 발전을 촉진하기 위해 새롭게 협력한다고 발표했다. 이번 협력은 레드햇이 레드햇 AI(Red Hat AI)와 고성능 vLLM 추론 서버에서 메타의 라마 4(Llama 4) 모델 그룹을 0일차부터 지원하는 것에서 시작됐다. 이를 기반으로 레드햇과 메타는 라마 스택(Llama Stack)과 vLLM 커뮤니티 프로젝트의 연계를 주도해 오픈 생성형 AI 워크로드의 통합 프레임워크를 촉진한다. 가트너(Gartner)에 따르면 2026년까지 독립 소프트웨어 벤더(ISV)의 80% 이상이 엔터프라이즈용 애플리케이션에 생성형 AI 기능을 내장할 것으로 예상되며, 이는 현재의 1% 미만에서 크게 증가한 수치이다. 이는 레드햇과 메타가 추진하고 있는 개방적이고 상호 운용 가능한 기반 기술의 필요성을 보여준다. 양사의 협력은 다양한 플랫폼, 클라우드 및 AI 가속기 전반과 주요 API 계층 및 AI의 실행 단계인 추론 제공(serving) 시 더욱 원활한 생성형 AI 워크로드 기능에 대한 요구사항을 직접적으로 해결하는 데에 초점을 맞추고 있다. 레드햇과 메타는 핵심 오픈소스 프로젝트에 주요 기여자로 적극 참여하며, 개방형 혁신에 대한 강한 의지를 보여준다는 계획이다. 여기에는 메타가 개발하고 오픈소스화한 플랫폼으로 전체 생성형 AI 애플리케이션 라이프사이클을 혁신하는 표준화된 구성 요소와 API를 제공하는 ‘라마 스택’, 대규모 언어 모델(LLM)을 위한 고도로 효율적이고 최적화된 추론을 가능하게 하는 오픈소스 플랫폼을 구현하는 ‘vLLM’ 등이 있다. 이번 협력의 일환으로 레드햇은 라마 스택 프로젝트에 적극적으로 기여하고 있으며, 레드햇 AI를 기반으로 혁신적인 에이전틱 AI 애플리케이션을 구축하는 개발자에게 매력적인 선택지가 될 수 있도록 라마 스택의 역량 강화에 기여하고 있다. 레드햇은 레드햇 AI를 통해 라마 스택을 포함한 다양한 에이전틱 프레임워크 지원을 지속하며 고객의 도구와 혁신 선택권을 촉진한다. 이러한 지원은 차세대 AI 설루션의 개발 및 배포를 가속화하는 견고하고 유연한 환경을 제공하는 것을 목표로 한다. 효율적인 개방형 생성형 AI 분야의 새로운 지평을 열어가고 있는 vLLM 프로젝트는 메타의 커뮤니티 기여 확대 의지에 의해 더욱 큰 추진력을 얻고 있다. 이번 협력을 통해 vLLM은 라마 4를 시작으로 라마 모델 그룹의 최신 세대에 대한 0일차 지원을 제공할 수 있는 능력을 갖추게 된다. 또한 vLLM은 메타와 다른 기업이 개방적이고 포용적인 도구 생태계를 조성하기 위해 협력하는 파이토치 생태계(PyTorch Ecosystem)의 일부이다. 이러한 검증을 통해 vLLM은 기업에서 생성형 AI 가치를 실현하는 최전선에 자리매김한다. 레드햇의 마이크 페리스(Mike Ferris) 수석 부사장 겸 최고 전략 책임자는 “레드햇과 메타는 AI의 미래 성공이 모델 발전뿐만 아니라 사용자가 차세대 모델의 혁신적인 기능을 극대화할 수 있도록 하는 추론 기능이 필요하다는 점을 인식하고 있다”면서, “라마 스택과 vLLM에 대한 양사의 공동 약속은 가속기나 환경에 관계 없이 하이브리드 클라우드 전반에서 필요한 곳 어디서든 더 빠르고 일관되며 비용 효율적인 생성형 AI 애플리케이션을 실현하는 비전을 달성하기 위한 것이다. 이것이 바로 AI의 개방형 미래이며 레드햇과 메타가 맞이할 준비가 된 미래”라고 말했다. 메타의 애시 자베리(Ash Jhaveri) AI 및 리얼리티 랩스 파트너십 부문 부사장은 “레드햇과 협력하여 라마 스택을 생성형 AI 애플리케이션을 원활하게 구축하고 배포하는 업계 표준으로 확립하는데 기여하게 되어 기쁘다”면서, “이번 협력은 개방형 혁신과 기업이 AI 기술의 잠재력을 최대한 활용할 수 있도록 지원하는 견고하고 확장 가능한 AI 설루션 개발에 대한 양사의 노력을 보여준다. 레드햇과 함께 메타는 라마 모델과 도구가 엔터프라이즈 AI의 기반이 되어 산업 전반에서 효율성과 혁신을 주도하는 미래를 위한 길을 닦고 있다”고 전했다.
작성일 : 2025-06-10
소셜 미디어 최적화 AI 영상 제작 전략
AI 크리에이터 시대 : 영상 제작의 새로운 패러다임 (3)   어떤 제품과 서비스를 알리기 위해서는 광고,마케팅이 필수이다. 예전에는 이런 부분을 신문, 잡지, TV광고를 활용하여 마케팅을 진행했다. 지금은 소셜 미디어 광고를 중요한 마케팅 방식으로 활용하고 있다. 소셜 미디어 광고 영상은 현대 마케팅 전략에서 핵심 역할을 한다. 짧고 강렬한 영상은 사용자의 관심을 끌기 쉽고, 빠르게 확산될 수 있어 브랜드 인지도 향상에 효과적이다. 또한, 영상은 시청자에게 감정적으로 영향을 미쳐 제품이나 서비스에 대한 긍정적인 인식을 높일 수 있다. 최근에는 AI(인공지능)로 만드는 소셜 미디어 영상이 마케팅의 판도를 바꿀 수 있을 것으로 기대를 모으고 있다.   ■ 연재순서 제1회 AI 영상 제작 생태계의 현재와 미래 제2회 AI 기반 크리에이티브 워크플로 혁신 제3회 소셜 미디어 최적화 AI 영상 제작 전략 제4회 AI 특수효과 및 후반작업 마스터하기 제5회 AI 기반 몰입형 사운드 디자인   ■ 최석영 AI프로덕션 감성놀이터의 대표이며, 국제고양이AI필름페스티벌 총감독이다. AI 칼럼니스트로도 활동하고 있다.    그림 1. 소셜 미디어에 활용할 제품 마케팅 AI 영상 제작(휴테크)   소셜 미디어의 이해와 마케팅 소셜 미디어 플랫폼은 알고리즘을 통해 적합한 타깃층에게 콘텐츠를 노출시키며, 참여율을 높이는 데 기여한다. 따라서 소셜 미디어 영상을 활용한 마케팅은 브랜드 성장과 매출 증가에 중요한 영향을 준다.   그림 2. 대표적인 소셜 미디어   소셜 미디어는 사용자가 콘텐츠를 공유하고 소통하는 디지털 플랫폼으로 페이스북(Facebook), 인스타그램(Instagram), X(구 트위터), 유튜브(YouTube), 틱톡(TikTok) 등이 대표적이다. 전 세계 수십 억 명이 사용하는 소셜 미디어는 브랜드 인지도 향상과 고객과의 관계 형성에 중요한 역할을 한다. 기업은 이를 통해 실시간 피드백을 받고, 효율적인 타깃 마케팅을 실행할 수 있다. 소셜 미디어 마케팅은 맞춤형 콘텐츠 제작, 유료 광고, 데이터 분석을 기반으로 전략을 최적화한다. AI와 같은 기술을 활용하면 소셜 미디어 콘텐츠의 개인화와 확산력을 더욱 강화할 수 있다. 앞으로 소셜 미디어는 공간 컴퓨팅, 인플루언서 마케팅 등과 결합되어 기업의 핵심 채널로 진화할 것이다.   소셜 미디어의 개요 소셜 미디어는 사용자들이 콘텐츠를 공유하고, 소통하며, 의견을 나누는 디지털 플랫폼을 의미한다.   소셜 미디어의 중요성 소셜 미디어는 브랜드 인지도 향상, 고객과의 관계 구축, 실시간 피드백을 받을 수 있는 기회를 제공하는 현대 마케팅 전략의 핵심 요소이다. 전 세계적으로 수십억 명이 사용하고 있어, 기업에게 글로벌 시장 접근성을 높여주는 중요한 채널로 작용한다.   소셜 미디어 활용 목적 브랜드 홍보 : 제품 및 서비스를 홍보하고, 기업의 이미지를 강화하는 데 사용된다. 고객과의 소통 : 실시간으로 고객과 소통하고 피드백을 받아 기업의 방향을 조정할 수 있다. 타깃 마케팅 : 소셜 미디어 플랫폼은 사용자의 취향과 관심사에 기반해 광고를 타기팅할 수 있어, 효율적인 마케팅이 가능하다.   소셜 미디어 마케팅 전략 콘텐츠 계획 및 생성 : 타깃층에 맞는 맞춤형 콘텐츠를 계획하고 제작한다. 광고 및 프로모션 : 유료 광고를 통해 더 넓은 청중에게 도달하고, 브랜드 인지도를 높인다. 데이터 분석 및 최적화 : 소셜 미디어 분석 도구를 사용해 콘텐츠의 성과를 측정하고, 이를 바탕으로 전략을 개선한다.   AI를 활용한 소셜 미디어 영상 제작 AI를 활용한 마케팅 기획, 디자인, 소셜 미디어 영상 제작은 편집, 자막, 썸네일 등을 자동화해 제작 시간을 단축시킨다. 챗GPT(ChatGPT)를 활용한 기본적인 기획이 가능하게 되었다. 또한, 좀 더 분석적이고 한글에 최적화가 되어 있는 클로드(Claude)를 시놉시스, 시나리오 제작에 활용할 수 있다. 이렇게 생성형 AI의 LLM(대규모 언어 모델)을 활용하여 빠르게 기획하고, 데이터 기반으로 각 소셜 미디어에 특성과 성향에 맞게 만들 수 있다. 트렌드 분석과 개인화 기능을 통해 더 효과적인 마케팅 콘텐츠를 제작할 수 있으며, 실시간 데이터 분석으로 콘텐츠 성과를 빠르게 파악하고 최적화할 수 있다.   ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-06-04
인공지능 AI 에이전트 표준 프로토콜 MCP의 사용, 분석 및 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   MCP(Model Context Protocol)는 클로드(Claude)의 개발사인 앤트로픽(Anthropic)의 인공지능 AI 에이전트 표준 프로토콜이다. 이번 호에서는 최근 많은 이슈가 되고 있는 MCP의 사용 방법을 간략히 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. MCP의 개념   MCP는 애플리케이션이 LLM(대규모 언어 모델)에 컨텍스트를 제공하는 방식을 표준화한 개방형 프로토콜이다. USB-C 포트처럼, 다양한 도구와 데이터를 LLM에 연결하는 통합된 인터페이스 역할을 한다. LLM 기반 에이전트와 워크플로 구축을 지원하며 유연한 통합, 데이터 보호, 공급업체 간 전환성을 제공한다. MCP를 이용하면 AI 에이전트가 다양한 도구를 이용해 기존 LLM보다 훨씬 많은 일을 할 수 있다. 예를 들어, LLM에서 실시간 웹 자료를 이용해 여행 일정을 짜고, 마케팅 보고서를 만들며, 레빗(Revit)과 같은 3D 모델 콘텐츠를 프롬프트 엔지니어링으로 개발할 수 있다.   그림 2. AI 에이전트 기반 3D 모델링(United Top Tech 유튜브)   그림 3. MCP 도구 서버(https://mcp.so)   MCP의 개념 아키텍처 구조 MCP는 호스트-클라이언트-서버 구조로 구성되며, 로컬 및 원격 데이터를 안전하게 연결할 수 있는 아키텍처를 따른다. 호스트는 서버에서 제공해 주는 파일 관리, 웹 서칭, 계산 등의 도구를 연결해 LLM을 통해 추론, CoT, 도구 호출, 생성 등의 역할을 담당한다.   그림 4. MCP의 구조   각 구성요소의 역할은 다음과 같다. MCP 호스트는 MCP 프로토콜을 통해 서비스에 액세스할 수 있는 애플리케이션이다. 클로드 데스크톱 앱, AI 에이전트/CLI, 커서 IDE 등이 이에 해당하며, LLM(로컬 또는 원격)을 활용하여 다양한 작업을 수행한다. MCP 클라이언트는 MCP 서버와 연결하기 위해 호스트 애플리케이션과 통합된 클라이언트이다. MCP 서버는 MCP 프로토콜을 통해 특정 기능을 노출하는 응용 프로그램 또는 프로그램이다. 서버는 도커(Docker) 컨테이너, JVM, Node.js(UV/UVX) 프로세스에서 실행될 수 있으며, MCP 커뮤니티에서 제공하는 사전 구축된 서버를 활용할 수도 있다. 로컬 데이터 소스는 로컬 시스템에 존재하는 데이터베이스 또는 파일 시스템이다. 원격 서비스는 웹 API를 통해 액세스할 수 있는 깃허브(GitHub), 브레이브 서치(Brave Search)와 같은 외부 리소스이다. MCP를 이용하면 서버, 클라이언트, 로컬에 있는 파일, 폴더, 앱에 접근해 이를 LLM으로 컨트롤할 수 있다. MCP 구조를 구성하는 호스트와 서버는 다음과 같은 도구를 통해 구성해 활용한다. 호스트 : 클로드, 커서(Cursor), 챗GPT(ChatGPT), 깃허브 코파일럿(Github Copilot) 등 서버 : Model Context Protocol Servers(https://github. com/modelcontextprotocol/servers) MCP는 전형적인 호스트-서버 프로토콜(TCP/IP와 유사)을 따른다. 서버의 실행 모드는 SSE(server sent event)와 stdio(표준입출력) 모드가 있다. SSE는 네트워크로 연결해 도구를 호출할 수 있도록 한다. stdio는 로컬 자체에서 도구를 호출할 수 있도록 한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-06-04
[피플&컴퍼니] 아비바 그레그 파다 엔지니어링 총괄 부사장
데이터 중심의 효율적인 협업 및 산업 디지털 전환 이끈다   아비바는 데이터 중심의 ‘유니파이드 엔지니어링’ 전략을 앞세워 엔지니어링 워크플로의 효율을 높이고 산업 현장의 애자일한 협업을 지원하는 데에 힘을 기울이고 있다. 아비바의 그레그 파다(Greg Pada) 엔지니어링 총괄 부사장은 산업 프로젝트의 납기/예산 문제를 해소하고, AI 기술 접목 및 사용자 경험 개선을 통해 산업 분야의 디지털 전환을 이끌고 시장을 넓힌다는 전략을 소개했다. ■ 정수진 편집장     엔지니어링 소프트웨어 기업으로서 아비바의 강점은 무엇인지 아비바는 처음부터 지금까지 데이터에 초점을 맞추고 있다. 데이터 중심 철학은 아비바의 시작인 3D CAD 시스템부터 P&ID(배관 및 계측 다이어그램), 스키매틱 드로잉, 3D 등에 이르기까지 모든 분야에서 유지된다. 이러한 접근 방식 덕분에 아비바는 엔지니어링 워크플로를 분석하고 경쟁사와 차별화된 방식으로 엔지니어들이 협업할 수 있도록 돕는다. 협업을 지원하는 과정에서 이런 아비바의 장점이 더욱 돋보인다. 아비바는 데이터를 한곳에 모아 모든 관계자가 쉽게 접근할 수 있도록 함으로써 협업을 가능하게 한다. 같은 회사에 속하지 않은 프로젝트 파트너나 오너, 외주사 등도 데이터를 투명하게 공유할 수 있게 된다. 많은 기업 프로젝트는 글로벌 전문가가 참여해 복잡성을 갖는데, 아비바는 이 과정에서 협업을 효과적으로 지원할 수 있다고 본다.   아비바가 내세우는 ‘유니파이드 엔지니어링’은 무엇이며, 이를 구상하게 된 배경을 소개한다면 ‘유니파이드 엔지니어링(Unified Engineering)’은 모든 엔지니어링 도구와 역량을 통합하여 가장 효율적인 방식으로 협업할 수 있도록 하는 개념이다. 개인적으로는 아비바 합류 전 캐나다에서 엔지니어링 사업을 운영하면서 다양한 규모의 프로젝트를 경험했는데, 이 과정에서 사일로(silo)화된 팀과 다양한 엔지니어링 툴의 사용으로 인한 엔지니어링 툴의 비효율을 체감했다. 예를 들어, P&ID에 정보를 추가해도 다음 단계에는 PDF 파일로 전달돼 정보의 가치가 손실되고, 워크플로의 진행이나 변경 관리가 어려워지는 경우도 있었다. 이런 문제는 협업의 범위가 넓어지면 상당히 복잡해진다. 유니파이드 엔지니어링은 회사원이라면 누구나 사용하는 마이크로소프트 오피스처럼 쉬운 협업 툴을 만들자는 데에서 출발했다. 유니파이드 엔지니어링은 데이터를 쉽게 변경하고 애플리케이션 간에 이동할 수 있는 방식을 엔지니어링 분야에 적용하고자 했다. 유니파이드 엔지니어링에서는 프로세스 엔지니어가 만든 P&ID 심벌을 3D 뷰로 변환해 파이프 설계자가 사용하거나 다른 분야에서도 활용할 수 있다. 또한, 관련 데이터를 유지하면서 3D나 메커니컬 등의 정보를 추가할 수도 있다. 결과적으로 유니파이드 엔지니어링은 프로세스 엔지니어, 기계 엔지니어, 전기 엔지니어, 계측 엔지니어 등 서로 다른 역할을 하는 팀원들이 거의 동시에 협업을 할 수 있도록 한다. PDF 문서로 변환해서 주고받는 대신 동일한 데이터를 보면서 각자 필요한 작업을 수행하며, 시스템이 누가 어떤 데이터를 변경할 수 있는지 제어함으로써 통제력을 유지한다. 이를 통해 워크플로가 애자일(agile)하게 움직일 수 있다. 유니파이드 엔지니어링은 기존의 툴을 연결하는 방식과 공통된 데이터 저장소 및 협업 플랫폼을 제공하는 방식을 모두 포함한다. 파이핑/기계/구조 설계자는 3D 디자인 툴을 사용하는데, 여기에 전기, 계측, P&ID 등을 위한 엔지니어링 모듈이 제공돼 동일한 데이터를 기반으로 각기 다른 용도로 사용하는 것도 가능하다. 유니파이드 엔지니어링의 목표는 프로젝트를 더 잘 수행하고, 예측 가능성을 높이며, 납기 기간을 줄이고, 궁극적으로 전반적인 경쟁력을 높이는 것이다. 전 세계에서 대규모로 진행되는 프로젝트 가운데 적지 않은 수가 납기 지연과 예산 초과 문제를 겪고 있는데, 유니파이드 엔지니어링은 이런 프로젝트를 효율적으로 수행하는 데에 역할을 할 것으로 본다.   ▲ 유니파이드 엔지니어링은 통합된 엔지니어링 환경에서 데이터 기반의 협업을 지원하는 아비바의 전략이다.   아비바는 조선/해양, 플랜트 산업을 중심으로 많이 알려져 있는데, 다양한 산업 분야로 확장하기 위한 전략은 무엇인지 아비바는 에너지 및 석유/가스 산업의 비즈니스 비중이 가장 높고 이어서 조선, 화학 산업에서 시장을 확보하고 있다. 기존의 주력 분야 외에도 발전, 제약, 반도체, 폐수 처리 등 다양한 산업으로 확장을 추진하고 있는 상황이다. 아비바의 소프트웨어는 여러 산업에서 큰 이점을 제공할 수 있다고 본다. 아비바는 유니파이드 엔지니어링 전략의 일환으로 가치 실현 기간을 단축한다는 이니셔티브를 제시하고 있으며, 소프트웨어를 더욱 단순하게 만들어 기업들이 아비바의 소프트웨어를 빠르게 테스트하고 가치를 체감할 수 있도록 돕고자 한다. 또한, 웹 브라우저를 통해 소프트웨어에 접근할 수 있도록 하여, IT 인력이나 데이터 모델링 리소스가 부족한 기업도 쉽게 배포하고 사용할 수 있게 한다. 아비바는 각 산업 분야별로 별도의 소프트웨어를 제공하기보다는, 하나의 소프트웨어를 다양한 산업의 작업 방식에 맞게 구성(configuration)하여 제공하는 방식을 지향한다. 예를 들어, 제약 산업의 펌프나 석유 및 가스 산업의 펌프는 산업마다 워크플로에 약간의 변화가 필요할 수 있지만, 기능이나 산출물 측면에서는 거의 동일하다.   산업 분야에서 디지털 전환이 꾸준한 관심사인 것 같다. 산업 디지털 전환에 관한 아비바의 비전과 전략을 소개한다면 많은 기업이 디지털 전환(DX)을 통해 효율을 높이고, 업무를 더 빠르게 처리하며, 리소스의 활용을 효율화하고자 한다. 그러나 이러한 목표를 달성하는 데 있어 조직의 업무 방식이나 조직 자체를 바꾸는 데 어려움을 겪는다. 디지털 전환은 기업이 과거의 방식을 바꿀 수 있는 기회이며, 아비바와 같은 기업이 제공하는 기술은 이를 가능하게 하는 수단(enabler)이다. 실제로 기술을 도입하더라도 일하는 방식과 기존 체계를 바꾸는 것은 기업이 해결해야 할 과제이다. 모든 조직에는 정보 공유를 꺼리는 사일로 문제가 존재하며, 이는 엔지니어링 분야에서도 마찬가지다. 아비바의 비전은 기술을 강요하는 것이 아니라, 기업 조직의 변화와 업무를 더 쉽게 만드는 도구가 되어야 한다는 것이다. 구글 지도가 보편화되면서 사람들이 종이 지도를 쓰지 않는 것처럼, 산업용 소프트웨어도 직관적이고 저항감 없이 쉽게 사용할 수 있어야 한다. 유니파이드 엔지니어링의 개발 과정에서도 이런 비전이 영향을 주었고, 지금도 꾸준히 개선하고 있다. 산업 디지털 전환을 위한 전략 및 기술 개발 방향은 단일 기술 플랫폼을 통해 AI와 같은 기술을 쉽게 도입할 수 있도록 하는 것이 핵심이다. 엔지니어링 및 운영 등 모든 데이터를 한곳에 통합하고 이를 쉽게 공유 및 사용할 때, 단절된 데이터로는 할 수 없었던 일을 수행하도록 하고 혜택을 제공하겠다는 것이다. 예를 들어, 온도나 재료 등 파이프와 관련된 모든 공정 정보가 엔지니어링 데이터베이스에 있으면, 3D 모델링 시 AI가 온도 변화에 따른 수축 및 팽창을 고려하여 파이프 레이아웃을 하거나 설계자가 더 빠르고 정확하게 설계할 수 있도록 도울 수 있다. 그리고 LLM(대규모 언어 모델)을 활용하여 툴의 사용법을 실시간으로 알려주고, 사용자가 작업을 수행하는 방법을 학습하도록 도울 수도 있다. 기술과 툴의 사용을 최대한 쉽게 만드는 것은 디지털 전환을 가속하고, 아비바가 시장을 넓히는 데에도 도움이 될 것이라고 본다.   엔지니어링 소프트웨어 기술 강화를 위해 최근 아비바가 진행한 파트너십 사례를 소개한다면 아비바의 가장 큰 전략적 파트너십 중 하나는 PLM 공급사인 아라스(Aras)와의 협력이다. 아비바는 주요 산업 시장에서 PLM의 개념을 활용하기 위해 아라스와 협력하여 ‘자산 수명 주기 관리(ALM)’ 개념을 구축하고 있다. 아라스의 데이터 중심 PLM 접근 방식은 아비바의 엔지니어링 데이터에 대한 데이터 중심 접근 방식과 잘 맞는다고 보고 있으며, 이를 통해 조선산업 및 중공업 등의 변경 관리, 리비전 제어, 산출물 제어, 구성 관리 등에서 기존 PLM 공급사보다 더욱 효과적인 설루션을 제공할 수 있을 것으로 기대한다. 또한 아비바는 프로젝트 실행 측면에서 워크팩스(WorkPacks)와 전략적 파트너십을 맺고 프로젝트 워크 패키지(project work package) 개념을 한국의 엔지니어링 및 오너/운영사에 소개하고 있다. 소프트웨어 기업 외에 고객사와 파트너십을 맺고 소프트웨어 개발 및 개선을 진행한 사례도 있는데, 그 중 한 가지가 대규모 티어 원 EPC 기업인 사이펨(Saipem)과의 협력이다. 사이펨은 아비바의 AI 구현 방식을 활용하여 프로세스를 개선하고자 하며, 아비바는 사이펨과 AI 설루션 개발을 위해 협력하고 있다.   한국 시장에 대한 평가 및 향후 한국 시장 전략에 대해서 소개한다면 개인적으로 한국을 매우 좋아하며, 특히 컨슈머 기술 영역에서는 발전이 빠르고 얼리 어답터 성향이 강하다고 생각한다. 반면, 산업 분야에서는 때때로 신중한 접근 방식을 보이는 것 같다. 한국 고객들은 소프트웨어가 제공하는 가장 고도화된 산업 역량을 요구하지만, 클라우드나 IT 보안 등 최신 기술을 도입하는 과정에서 제약이 있기도 하다. 아비바는 한국 시장의 특징을 고려해, 아비바 기술의 사용을 강요하기보다는 고객의 니즈를 효과적으로 충족시킬 수 있는 절충점을 찾기 위해 노력하고 있다. HD현대중공업, 삼성중공업, 한화오션 등 한국의 주요 조선사와 오랜 기간 협력해 왔으며, 엔지니어링 분야에서도 삼성전자, GS건설, LG 등 다양한 기업과 협력하고 있다. 한국 산업이 직면한 인력 부족 등의 문제를 해결하는 데 아비바의 설루션이 큰 기회가 될 것으로 보고 있으며, 한국 시장에서 성장하고 입지를 넓힐 기회가 많다고 판단한다. 더 적은 인력으로도 효율적으로 더 많은 일을 할 수 있도록 지원하는 아비바의 설루션은 한국 기업들이 원하는 방향과 잘 맞는다고 보고 있으며, 한국 시장에서 성공적인 실행과 긴밀한 협력을 통해 성장을 이룰 기회가 충분하다고 생각한다.   같이 보기 : [포커스] 아비바코리아, 산업 지능 기반 디지털 트윈 전략과 미래 제시     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-06-04
로지텍, 무선 마우스·키보드 사용자 위한 ‘로지 볼트’ USB-C 리시버 출시
로지텍이 무선 마우스 및 키보드 사용자에게 한층 강화된 보안성과 연결성으로 유연한 업무 환경을 지원하는 ‘로지 볼트(Logi Bolt)’ USB-C 리시버를 정식 출시한다고 밝혔다. 로지 볼트는 무선 기기 사용 증가로 복잡해진 무선 환경과 보안 위협 문제를 해결하기 위해 개발된 로지텍의 차세대 무선 기술이다. 일반 무선 프로토콜 대비 높은 보안성과 안정적인 연결성을 갖추었다는 점을 특징으로 내세운다. 이번에 출시한 로지 볼트 USB-C 리시버는 기존 USB-A 리시버에 이어 새롭게 선보이는 모델로, USB-C로 표준화되는 최신 업무 환경에 보다 적합한 사용자 편의성 및 장치 호환성을 제공한다. 사용자들은 자신의 디바이스 환경에 맞춰 USB-A와 USB-C 타입 중 자유롭게 선택해 활용할 수 있다.     신형 로지 볼트 USB-C 리시버는 혼잡한 무선 환경에서도 최대 10m 거리까지 끊김 없이 안정적인 연결을 제공하며, 윈도우, 맥 등 주요 운영체제 전반에서 폭넓은 호환성을 자랑한다. 가장 큰 특징은 하나의 수신기로 최대 6개의 로지텍 무선 마우스 및 키보드를 동시에 연결할 수 있다는 점이다. 이를 통해 복수의 USB 수신기를 사용하는 번거로움을 줄여주고, 보다 효율적인 작업 환경을 만든다. 또한 로지텍의 전용 소프트웨어인 Logi Options+를 활용하면 기기 간 페어링과 전환도 간편하게 설정할 수 있어, 사무실과 자택 등 다양한 작업 공간에서 노트북 하나만으로도 동일한 업무 환경을 손쉽게 구현할 수 있다. 휴대성을 고려한 초소형 디자인으로, 노트북과 함께 이동 시에도 편리하다. 로지 볼트는 미국 연방 정보 처리 표준(FIPS)을 준수하는 블루투스 보안 모드 1, 레벨 4를 기반으로 설계돼, 무선 연결 시 발생할 수 있는 보안 위협을 효과적으로 차단한다. ECDH(Elliptic Curve Diffie-HeLLMan) 키 교환 및 AES-CCM 암호화를 통해 리시버와 장치 간 통신을 안전하게 보호하며, 장치 연결 시에는 패스키 인증 절차를 통해 외부 침입을 원천 차단한다. 보안 업데이트는 자동 적용되며, 롤백이 불가능하도록 설계돼 원격 및 보안이 중요한 기업 환경에서도 높은 수준의 보안성을 유지할 수 있다. 이 제품은 현재 로지텍 네이버 브랜드 스토어에서 단품으로 구매하거나, 로지 볼트 지원 제품과 함께 옵션으로 구성해 구매 가능하다. 로지텍은 이번 로지 볼트 USB-C 리시버를 통해 오늘날의 다양한 연결 환경에 최적화된 설루션을 제시하며, 사용자들이 기기의 제약 없이 완성도 높은 업무 환경을 누릴 수 있도록 지속적으로 기술 혁신을 이어간다는 계획이다.
작성일 : 2025-06-02
레드햇-구글클라우드, 엔터프라이즈용 개방형 AI 및 에이전틱 AI 추진 위한 협력 확대
레드햇과 구글클라우드는 레드햇의 오픈소스 기술과 구글클라우드의 맞춤형 인프라 및 구글의 개방형 모델 제품군인 젬마(Gemma)를 결합해 엔터프라이즈 애플리케이션용 AI를 향상하기 위한 협력을 확대한다고 발표했다. 양사는 AI 확장을 위한 엔터프라이즈급 사용 사례 개선을 위해 여러 분야에서 협력을 진행할 예정이다. 주요한 협력 내용으로는 ▲구글이 창립 기여자로 참여하는 오픈소스 프로젝트 ‘LLM-d’ 론칭 ▲구글 클라우드 TPU(Cloud TPU) 및 GPU 기반 가상머신(VM)에서 vLLM 지원 통해 AI 추론 성능 강화 ▲젬마 3 모델 배포판에서 vLLM에 대한 0일차 지원 제공 ▲구글 클라우드 상에서 레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server) 지원 ▲레드햇이 구글 A2A(Agent2Agent) 프로토콜의 커뮤니티 기여자로서 참여해 에이전틱 AI 활성화 등 있다.   젬마 3를 시작으로, 레드햇은 구글의 개방형 모델 제품군인 젬마의 초기 테스터로 참여해 vLLM에 대한 즉각적인 지원을 제공한다. vLLM은 생성형 AI 애플리케이션의 출력 속도를 높이는 오픈소스 추론 서버다. 레드햇은 vLLM의 상용 기여자로서 생성형 AI 애플리케이션을 위한 보다 비용 효율적이고 반응성(responsive)이 높은 플랫폼을 제공할 계획이다. 또한 구글 AI 포트폴리오를 지원하는 고성능 AI 가속기인 구글 클라우드 TPU를 이제 vLLM에서 완전히 사용할 수 있다. 이 통합을 통해 개발자는 빠르고 정확한 추론에 필수인 성능과 효율을 달성하면서 리소스를 최대화할 수 있다. AI가 연구에서 실제 배포로 전환됨에 따라, 조직은 다양한 AI 생태계의 복잡성과 분산 컴퓨팅 전략으로 전환해야 할 필요성에 직면해 있다. 이를 해결하기 위해 레드햇은 구글이 창립 기여자로 참여한 LLM-d 오픈소스 프로젝트를 출시했다. 이 프로젝트는 vLLM 커뮤니티 성과를 기반으로 생성형 AI 추론의 새로운 시대를 선도하며, 이기종 리소스 전반에서 확장성을 높이고 비용을 최적화하며 워크로드 효율성을 향상하는 동시에 지속적인 혁신을 촉진하는 것을 목표로 한다. 이제 구글 클라우드에서 레드햇 AI 인퍼런스 서버 사용이 가능하며 최신 업스트림 커뮤니티의 개선 사항을 기업에 제공한다. 레드햇의 엔터프라이즈용 vLLM 배포판인 레드햇 AI 인퍼런스 서버는 기업이 하이브리드 클라우드 환경 전반에서 모델 추론을 최적화할 수 있도록 지원한다. 기업은 견고하고 신뢰할 수 있는 구글 클라우드의 인프라를 활용하여 반응성이 뛰어나고 비용 효율적인 프로덕션 단계의 생성형 AI 모델을 대규모로 배포할 수 있다. 또한 레드햇은 개방형 AI에 대한 공동의 노력의 일환으로 구글의 A2A 프로토콜에도 기여하고 있다. 이는 다양한 플랫폼과 클라우드 환경에서 최종사용자 또는 에이전트 간의 원활한 커뮤니케이션을 위한 애플리케이션 레벨 프로토콜이다. 레드햇은 A2A 생태계에 적극적으로 참여함으로써 빠른 혁신을 위한 새로운 길을 열어 사용자가 에이전틱 AI를 통해 AI 워크플로를 역동적이고 효과적으로 유지할 수 있도록 지원한다.
작성일 : 2025-05-29
IBM, AI 및 보안 기술 제공하는 차세대 리눅스 플랫폼 ‘IBM 리눅스원 5’ 공개
IBM이 차세대 리눅스 컴퓨팅 플랫폼인 IBM 리눅스원 5(IBM LinuxONE 5)를 공개했다. 이 플랫폼은 데이터, 애플리케이션, 그리고 인공지능(AI)을 위한 고성능 리눅스 환경을 제공하며, AI 가속 기능이 내장된 IBM 텔럼 II 프로세서(IBM Telum)로 구동된다. IBM은 이번 신제품이 기업의 보안 강화, 비용 효율성 개선, AI의 엔터프라이즈 시스템 통합에 대한 해법을 제시할 것으로 기대하고 있다. IBM 리눅스원 5는 IBM의 사이버보안과 개인정보 보호 접근 방식을 전반적으로 확장해, 제로 트러스트(Zero Trust) 원칙을 한층 강화했다. 이를 통해 고객이 복잡한 규정을 준수하는 과정을 간소화할 수 있도록 지원한다. 기밀 컴퓨팅, 고성능 암호화 대역폭, 미국 국립표준기술연구소(NIST)의 양자내성 암호 알고리즘, 그리고 최첨단 하드웨어 보안 모듈을 통해 워크로드와 데이터를 종합적으로 보호하는 데 중점을 두고 있다. IBM은 이러한 보안 기능이 AI 모델과 민감한 데이터를 보호하는 데 중요한 역할을 할 것으로 기대하고 있다. 특히 레드햇 오픈시프트(Red Hat OpenShift) 컨테이너 플랫폼을 활용한 기밀 컨테이너는 AI를 포함한 다양한 데이터 활용 시나리오에서 데이터를 안전하게 보호하는 데 기여한다. IBM 볼트 셀프 매니지드(IBM Vault Self-Managed)와의 통합을 통해 하이브리드 환경 전반에서 강력한 보안 설루션을 제공하며, 비밀 관리 기능을 강화하도록 설계됐다.     비용 절감 측면에서 IBM 리눅스원 5는 여러 서버에 분산된 워크로드를 단일 고용량 시스템으로 통합함으로써, 운영 복잡성을 줄이고 IT 인프라를 최적화할 수 있다. 클라우드 네이티브 및 컨테이너화된 워크로드를 x86 기반 설루션에서 IBM 리눅스원 5로 이전하면 5년 동안 총 소유 비용을 최대 44%까지 절감할 수 있다는 분석도 있다. 이는 데이터센터 운영 효율을 높이는 데 기여한다. 가용성 측면에서는 99.999999%의 안정성을 발휘하도록 설계되어 비즈니스 연속성을 지원하고 운영 위험을 줄일 수 있다. “데이터 집약적이고 AI를 활용하는 비즈니스의 증가하는 워크로드 수요를 충족하는 데도 적합한 기술”이라는 것이 IBM의 설명이다. 이번 플랫폼의 핵심 기술은 IBM 텔럼 II 프로세서다. 2세대 온칩 AI 가속기를 포함한 텔럼 II는 실시간 대량 거래 처리에서 예측 AI와 대규모 언어 모델(LLM)을 더 높은 정밀도와 정확도로 확장할 수 있도록 설계됐다. 여기에 IBM 스파이어 가속기(IBM Spyre Accelerator)가 2025년 4분기부터 지원될 예정으로, 생성형 AI 기능을 추가해 텔럼 II 프로세서를 보완할 예정이다. 이러한 기술은 사기 탐지, 이미지 처리, 리테일 자동화 등 다양한 산업 사례에서 활용될 수 있도록 설계됐다. IBM 리눅스원은 탄탄한 생태계를 기반으로 하고 있다. 독립 소프트웨어 벤더(ISV)는 리눅스원의 AI와 암호화 기능을 활용해 맞춤형 설루션을 제공하며, 오픈소스 커뮤니티는 유연하고 확장 가능한 도구를 통해 통합을 지원한다. IBM 리눅스원은 우분투(Ubuntu), 수세(SUSE) 등과 협력해 다양한 리눅스 배포판을 지원하고 있다.
작성일 : 2025-05-29
레드햇, “모델/AI 가속기/클라우드 전반에 걸쳐 엔터프라이즈 AI 배포 가속화 지원”
레드햇은 레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server), 레드햇 AI 서드파티 검증 모델 및 라마 스택(Llama Stack)과 모델 컨텍스트 프로토콜(Model Context Protocol, 이하 MCP) API의 통합 그리고 엔터프라이즈 AI 포트폴리오 전반에 걸친 주요 업데이트를 통해 엔터프라이즈 AI에서 고객 선택권을 지속적으로 확대한다고 발표했다. 이러한 개발을 통해 레드햇은 조직이 AI 도입을 가속화하는 데 필요한 역량을 더욱 강화하는 동시에 하이브리드 클라우드 환경 전반에서 생성형 AI 제품 배포에 있어 고객에게 더 많은 선택과 신뢰를 제공한다. 포레스터(Forrester)에 따르면 오픈소스 소프트웨어는 기업 AI 활동을 가속화하는 촉매제가 될 것이다. AI 환경이 점점 더 복잡하고 역동적으로 성장함에 따라 레드햇 AI 인퍼런스 서버 및 서드파티 검증 모델은 효율적인 모델 추론과 레드햇 AI 플랫폼의 성능에 최적화된 검증 AI 모델 컬렉션을 제공한다. 레드햇은 라마 스택 및 MCP를 비롯한 생성형 AI 에이전트 개발을 위한 신규 API 통합을 더해 배포 복잡성을 해결하고 높은 제어력과 효율성으로 AI 이니셔티브를 가속화할 수 있도록 지원한다. 레드햇은 AI 포트폴리오에 새로운 레드햇 AI 인퍼런스 서버가 포함되면서, 하이브리드 클라우드 환경 전반에서 더 빠르고 일관되며 비용 효율적인 추론을 대규모로 제공할 것으로 보고 있다. 이 핵심 기능은 레드햇 오픈시프트 AI(Red Hat OpenShift AI) 및 레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI, 이하 RHEL AI)의 최신 출시에 통합되었으며, 독립형 설루션으로도 제공되어 지능형 애플리케이션을 더 효율적이고 유연하며 높은 성능으로 배포할 수 있다. 허깅페이스(Hugging Face)에서 제공되는 레드햇 AI 서드파티 검증 모델은 기업이 특정 요구사항에 적합한 모델을 쉽게 찾을 수 있도록 지원한다. 레드햇 AI는 검증된 모델 컬렉션과 배포 가이드를 제공해 모델 성능 및 결과 재현성(reproducibility)에 대한 고객 신뢰를 높인다. 레드햇으로 최적화된 일부 모델은 모델 압축 기술을 활용해 크기를 줄이고 추론 속도를 높여 자원 소비와 운영 비용을 최소화한다.  레드햇 AI는 메타(Meta)가 처음 개발한 라마 스택과 앤트로픽(Anthropic)의 MCP를 통합해 사용자에게 AI 애플리케이션 및 에이전트 구축과 배포를 위한 표준화된 API를 제공한다. 현재 레드햇 AI에서 개발자 프리뷰로 제공되는 라마 스택은 모든 생성형 AI 모델 전반에서 vLLM 추론, 검색 증강 생성(RAG), 모델 평가, 가드레일 및 에이전트 기능에 액세스할 수 있는 통합 API를 제공한다. MCP는 API, 플러그인, 데이터 소스를 연결하는 표준 인터페이스를 제공함으로써 에이전트 워크플로에서 외부 도구와의 통합을 지원한다. 레드햇 오픈시프트 AI(v2.20)의 최신 버전은 ▲최적화된 모델 카탈로그 ▲쿠브플로우 트레이닝 오퍼레이터(KubeFlow Training Operator) 기반의 분산 학습 ▲기능 저장소(Feature store) 등 생성형 AI 및 예측형 AI 모델을 대규모로 구축, 학습, 배포, 모니터링할 수 있는 추가 기능을 포함한다.  또한, RHEL AI 1.5는 레드햇의 기본 모델 플랫폼에 새로운 업데이트를 제공함으로써 대규모 언어 모델(LLM)의 개발, 테스트 및 실행을 지원한다. RHEL AI 1.5의 주요 기능은 ▲구글 클라우드 마켓플레이스(Google Cloud Marketplace) 가용성 제공 ▲스페인어, 독일어, 프랑스어 및 이탈리아어를 위한 향상된 다국어 기능 제공 등이다.   래드햇 AI 인스트럭트랩 온 IBM 클라우드(Red Hat AI InstructLab on IBM Cloud)서비스도 출시됐다. 이 신규 클라우드 서비스는 모델 맞춤화 과정을 더욱 간소화하여 확장성과 사용자 경험을 개선하며 기업이 고유한 데이터를 더 쉽고 높은 수준의 제어하에 활용할 수 있도록 지원한다.
작성일 : 2025-05-26
엔비디아, 마이크로소프트와 함께 RTX AI PC 생태계 확장 추진
엔비디아가 마이크로소프트와 협력해 RTX AI PC를 위한 다양한 기능과 개발자 도구를 통해 AI 생태계 전반을 확장하고 있다고 밝혔다. RTX AI PC용으로 새롭게 설계된 엔비디아 텐서RT(NVIDIA TensorRT)는 윈도우 ML(Windows ML)을 통해 제공되며, 고성능 AI 실행 환경을 지원한다. 생성형 AI는 디지털 휴먼부터 글쓰기 도우미, 지능형 에이전트, 크리에이티브 도구에 이르기까지 PC 소프트웨어를 획기적인 경험으로 변화시키고 있다. 엔비디아 RTX AI PC는 생성형 AI 실험을 더 쉽게 시작하고, 윈도우 11에서 더 뛰어난 성능을 발휘할 수 있도록 지원하는 기술이다. 엔비디아 텐서RT가 RTX AI PC를 위해 새롭게 설계됐다. 높은 수준의 텐서RT 성능과 함께 적시 온디바이스 엔진 구축과 기존 대비 8배 더 작은 패키지 크기를 통해 1억 대 이상의 RTX AI PC에 AI를 원활하게 배포할 수 있도록 돕는다. ‘마이크로소프트 빌드(Microsoft Bulid)’ 행사에서 발표된 RTX용 텐서RT는 앱 개발자에게 광범위한 하드웨어 호환성과 최첨단 성능을 모두 제공하는 새로운 추론 스택인 윈도우 ML에서 기본적으로 지원된다. 엔비디아는 AI 기능을 통합하려는 개발자를 위해 엔비디아 DLSS부터 엔비디아 RTX 비디오(RTX Video)와 같은 멀티미디어 향상 기능까지 다양한 소프트웨어 개발 키트(software development kits, SDKs) 옵션을 제공한다. 5월 중으로 오토데스크를 비롯해 빌리빌리(Bilibili), 카오스(Chaos), LM 스튜디오(LM Studio), 토파즈 랩스(Topaz Labs)의 인기 소프트웨어 애플리케이션에서 RTX AI 기능과 가속화를 위한 업데이트를 출시할 예정이다.     AI 애호가와 개발자는 엔비디아 NIM을 사용해 AI를 쉽게 시작할 수 있다. 이는 애니띵LLM(AnythingLLM), 마이크로소프트 VS 코드(VS Code), 컴피UI(ComfyUI)와 같은 인기 앱에서 실행 가능한 사전 패키징, 최적화된 AI 모델이다. 곧 출시되는 플럭스.1-쉬넬(FLUX.1-schnell) 이미지 생성 모델은 NIM 마이크로서비스로 제공되며, 인기 있는 플럭스.1-데브(dev) NIM 마이크로서비스는 더 많은 RTX GPU를 지원하도록 업데이트됐다. 엔비디아 앱 내 RTX PC AI 어시스턴트인 프로젝트 G-어시스트(Project G-Assist)는 코딩 없이 간단한 AI 개발을 시작하고자 하는 사용자들을 지원한다. 이를 통해 자연어 기반 AI로 PC 앱과 주변기기를 제어하는 플러그인을 직접 구축할 수 있다. 아울러 구글 제미나이(Google Gemini) 웹 검색, 스포티파이(Spotify), 트위치(Twitch), IFTTT, 시그널RGB(SignalRGB)등 새로운 커뮤니티 플러그인도 현재 제공되고 있다. 윈도우 ML은 ONNX 런타임(ONNX Runtime) 기반으로 구동되며, 각 하드웨어 제조업체에서 제공하고 유지 관리하는 최적화된 AI 실행 레이어에 원활하게 연결된다. 지포스(GeForce) RTX GPU의 경우, 윈도우 ML은 높은 성능과 빠른 배포를 위해 RTX용 텐서RT 추론 라이브러리를 자동으로 사용한다. 다이렉트ML(DirectML)과 비교했을 때, 텐서RT는 PC에서 AI 워크로드를 처리하는 데 50% 이상 빠른 성능을 제공한다. 또한 윈도우 ML은 개발자의 QoL(Quality of Life) 측면에서도 다양한 이점을 제공한다. 각 AI 기능을 실행하는 데 가장 적합한 하드웨어(GPU, CPU, NPU)를 자동으로 선택하고, 해당 하드웨어에 맞는 실행 공급자를 다운로드해 해당 파일을 앱에서 패키징할 필요가 없게 한다. 이로써 최신 텐서RT 성능 최적화가 준비되는 즉시 사용자에게 제공될 수 있다.  텐서RT는 원래 데이터센터용으로 구축된 라이브러리였지만, RTX AI PC를 위해 새롭게 설계됐다. RTX용 텐서RT는 텐서RT 엔진을 사전 생성해 앱과 함께 패키징하는 대신, 적시에 온디바이스 엔진을 구축해 사용자의 특정 RTX GPU에 최적화된 AI 모델 실행을 수 초 내에 처리할 수 있다. 또한 라이브러리 패키징 방식이 간소화돼 파일 크기가 기존 대비 8배까지 줄었다. RTX용 텐서RT는 현재 윈도우 ML 프리뷰를 통해 제공되고 있으며, 6월부터는 엔비디아 개발자(NVIDIA Developer) 포털에서 독립형 SDK로 제공될 예정이다. 한편, AI 기능을 추가하거나 앱 성능을 향상시키려는 개발자는 광범위한 엔비디아 SDK를 활용할 수 있다. 여기에는 GPU 가속화를 위한 엔비디아 쿠다(CUDA)와 텐서RT, 3D 그래픽을 위한 엔비디아 DLSS와 옵틱스(Optix), 멀티미디어를 위한 엔비디아 RTX 비디오와 맥신(Maxine), 생성형 AI를 위한 엔비디아 리바(Riva)와 ACE가 포함된다. 엔비디아는 윈도우 ML과 텐서RT 통합을 통해 마이크로소프트와 주요 AI 앱 개발자들과의 협력을 지속하며 RTX 기반 시스템에서 AI 기능을 가속화하도록 지원할 예정이다.
작성일 : 2025-05-21