• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "프레임워크"에 대한 통합 검색 내용이 505개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, 한국 AI 인프라·생태계 구축 협력… “GPU 26만 개 이상 추가 도입”
엔비디아가 대한민국 정부 및 기업들과 협력해 클라우드와 AI 팩토리를 중심으로 25만 개 이상의 GPU를 포함하는 전국 규모의 AI 인프라 확장 계획을 발표했다. 이번 인프라는 공공과 민간 부문이 함께 구축하며, 자동차, 제조, 통신 등 한국 주요 산업 전반의 AI 기반 혁신과 경제 성장을 견인할 핵심 토대가 될 예정이다. 이번 계획은 세계 각국 정상이 APEC 정상회의 참석을 위해 한국에 모인 가운데 발표됐다.  과학기술정보통신부는 기업과 산업 전반의 독자 AI 개발을 가속화하기 위해 최신 엔비디아 GPU 5만 개 도입을 추진 중이라고 밝혔다. AI 인프라 구축은 엔비디아 클라우드 파트너인 네이버 클라우드와 NHN클라우드, 카카오가 국가 독자 클라우드 내 컴퓨팅 인프라를 확장하기 위해 엔비디아 블랙웰(Blackwell) 등 GPU 1만 3000 개를 초기 도입하는 것을 시작으로, 향후 국가 AI컴퓨팅센터 구축 등을 통해 수년간 점진적으로 확대될 예정이다. 이 AI 인프라는 연구기관, 스타트업, AI 기업이 모델과 애플리케이션을 개발할 수 있도록 개방되며, 이는 대한민국의 AI 역량 강화와 인프라 확충을 위한 국가 전략을 뒷받침하게 된다. 또한, 엔비디아는 한국의 산업계, 학계, 연구기관과 AI-RAN과 6G 인프라 개발에도 함께하고 있다. 엔비디아는 최근 삼성(Samsung), SK텔레콤(SK Telecom), 한국전자통신연구원(ETRI), KT, LG유플러스(LG U+), 연세대학교와 협력해 지능형·저전력 AI-RAN 네트워크 기술을 공동 개발 중이다. 이 기술은 GPU 연산 작업을 디바이스에서 네트워크 기지국으로 오프로딩함으로써 컴퓨팅 비용을 절감하고 배터리 수명을 연장할 수 있도록 설계됐다.     한국의 자동차, 제조, 통신 분야 선도 기업들은 엔터프라이즈와 피지컬 AI 개발을 가속화하기 위해 대규모 AI 인프라 투자와 확장을 추진하고 있다. 삼성은 GPU 5만 개 이상을 탑재한 엔비디아 AI 팩토리를 구축해 지능형 제조를 발전시키고 제품과 서비스 전반에 AI를 적용한다. 삼성은 엔비디아 네모트론(Nemotron) 사후 훈련 데이터세트, 엔비디아 쿠다-X(CUDA-X), 엔비디아 cu리소(cuLitho) 라이브러리, 엔비디아 옴니버스(Omniverse) 등 엔비디아 기술을 활용해 정교한 반도체 제조 공정의 속도와 수율을 개선하는 디지털 트윈을 구축한다. 또한 엔비디아 코스모스(Cosmos), 엔비디아 아이작 심(Isaac Sim), 엔비디아 아이작 랩(Isaac Lab)을 활용해해 가정용 로봇 개발 포트폴리오를 강화하고 있다. SK그룹은 반도체 연구·개발·생산을 고도화하고, 디지털 트윈과 AI 에이전트 개발을 지원하는 클라우드 인프라 구축을 위해 5만 개 이상의 GPU를 탑재할 수 있는 AI 팩토리를 설계하고 있다. SK텔레콤은 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 기반으로 한 소버린 인프라를 제공해, 국내 제조 기업들이 엔비디아 옴니버스를 활용할 수 있도록 지원할 계획이다. SK 텔레콤은 스타트업, 기업, 정부 기관을 대상으로 디지털 트윈과 로보틱스 프로젝트 가속화를 위한 산업용 클라우드 인프라를 제공할 예정이다. 현대자동차그룹과 엔비디아는 한층 심화된 협력 단계로 나아가며, 모빌리티, 스마트 공장, 온디바이스 반도체 전반에 걸쳐 AI 역량을 공동 개발할 예정이다. 양사는 AI 모델 훈련과 배포를 위해 5만 개의 블랙웰 GPU를 기반으로 협력을 추진한다. 또한 한국 정부의 국가 피지컬 AI 클러스터 구축 이니셔티브를 지원하기 위해, 현대자동차그룹과 엔비디아는 정부 관계자들과 긴밀히 협력해 생태계 조성을 가속화할 계획이다. 이를 통해 약 30억 달러 규모의 투자가 이루어져 한국의 피지컬 AI 산업 발전을 한층 앞당길 전망이다. 주요 이니셔티브로는 엔비디아 AI 기술 센터, 현대자동차그룹 피지컬 AI 애플리케이션 센터, 지역 AI 데이터센터 설립 등이 포함된다. 네이버 클라우드는 소버린 AI와 피지컬 AI용 인프라를 구축하기 위해 엔비디아 AI 인프라를 확장하고 있다. 이에 따라 엔비디아 RTX PRO 6000 블랙웰과 기타 엔비디아 블랙웰 GPU를 포함해 최대 6만 개의 GPU를 도입할 예정이다. 네이버 클라우드는 엔비디아 AI 인프라에서 구동되는 엔비디아 네모트론 오픈 모델을 기반으로 차세대 소버린 AI 개발의 다음 단계를 준비 중이다. 또한 네이버 클라우드는 조선, 보안 등 산업 특화 AI 모델을 개발하고, 대한민국 국민 모두를 위한 포용적 AI 구현에 주력할 계획이다. 과학기술정보통신부는 엔비디아와의 협력을 기반으로 주권 언어 모델 개발을 위한 독자 AI 파운데이션 모델(Sovereign AI Foundation Models) 프로젝트를 추진한다. 본 프로젝트는 엔비디아 네모와 오픈 엔비디아 네모트론 데이터세트를 활용해 로컬 데이터를 기반으로 추론(reasoning) 모델을 개발하고 디스틸(distilling)할 예정이다. 또한 LG AI연구원, 네이버 클라우드, NC AI, SK텔레콤, 업스테이지가 독자 모델 개발을 지원하는 프로젝트에 협력한다. 기업, 연구진, 스타트업은 이 모델 개발에 기여하고 이를 활용해 음성, 추론 등 다양한 기능을 갖춘 AI 에이전트를 개발할 수 있다. LG는 피지컬 AI 기술 개발을 촉진하고, 피지컬 AI 생태계를 지원하기 위해 엔비디아와 협력하고 있다. 양사는 LG 엑사원(EXAONE) 모델을 활용해 스타트업과 학계를 지원한다. 일례로, 암 진단을 지원하는 모나이(MONAI) 프레임워크 기반의 엑사원 패스(EXAONE Path) 의료 모델이 있다. 한국과학기술정보연구원(KISTI)은 엔비디아와 협력해 한국의 슈퍼컴퓨터 6호기 ‘한강’을 활용한 연구 협력을 촉진하기 위한 공동연구센터 설립을 추진 중이다. KISTI는 또한 양자 프로세서와 GPU 슈퍼컴퓨팅을 연결하는 엔비디아의 새로운 개방형 아키텍처 NVQ링크(NVQLink) 지원을 발표했다. 엔비디아 쿠다-Q(CUDA-Q) 플랫폼과 연동되는 NVQ링크는 KISTI가 양자 오류 정정과 하이브리드 애플리케이션 개발 등 분야의 연구를 심화해 차세대 양자-GPU 슈퍼컴퓨터 개발을 가속화할 수 있도록 지원한다. KISTI는 또한 과학 연구 개발을 위한 파운데이션 모델을 구축하고, 오픈소스 엔비디아 피직스네모(PhysicsNeMo) 프레임워크를 활용한 물리 기반 AI 모델 개발을 연구자들에게 지원할 예정이다. 엔비디아와 파트너들은 한국의 경제 발전과 기회 창출을 위해 엔비디아 인셉션(NVIDIA Inception) 프로그램으로 스타트업을 육성하는 얼라이언스를 설립한다. 얼라이언스 회원사는 SK텔레콤을 포함한 엔비디아 클라우드 파트너가 제공하는 가속 컴퓨팅 인프라를 활용할 수 있다. 또한, IMM인베스트먼트, 한국투자파트너스, SBVA 등 벤처캐피털 얼라이언스와 엔비디아 인셉션의 지원을 받게 된다. 아울러 스타트업은 엔비디아의 소프트웨어와 전문 기술 역량도 활용할 수 있게 돼, 차세대 기업들의 성장을 더욱 신속하게 추진할 수 있게 된다. 엔비디아는 스타트업을 위한 엔비디아 인셉션 프로그램의 성과를 바탕으로, 차세대 기업 지원을 위해 한국 정부와도 협력할 계획이다. 또한 중소기업벤처부에서 운영하는 ‘엔업(N-Up)’ AI 스타트업 육성 프로그램에도 참여할 예정이다. 엔비디아의 젠슨 황 CEO는 “대한민국은 기술과 제조 분야에서 선도적 입지를 갖추고 있으며, 이는 대한민국이 AI 산업 혁명의 중심에 서 있음을 보여준다. 이 산업혁명에서 가속 컴퓨팅 인프라는 전력망과 광대역만큼 중요한 기반이 되고 있다. 한국의 물리적 공장이 정교한 선박, 자동차, 반도체, 전자제품으로 세계에 영감을 주었듯, 이제는 인텔리전스라는 새로운 수출품을 생산하며 글로벌 변화를 이끌 수 있다”고 말했다. 배경훈 부총리 겸 과학기술정보통신부 장관은 “AI가 단순히 혁신을 넘어 미래 산업의 기반이 된 지금, 대한민국은 변혁의 문턱에 서 있다. 엔비디아와 함께 국가 AI 인프라를 확충하고 기술을 개발하는 것은 제조업 역량 등 한국이 보유한 강점을 더욱 강화할 수 있는 투자이며, 이는 글로벌 AI 3대 강국을 향한 대한민국의 번영을 뒷받침할 것”이라고 말했다.
작성일 : 2025-10-31
에이수스, 엔비디아 GB10 기반 AI 슈퍼컴퓨터 ‘어센트 GX10’ 국내 출시
에이수스 코리아는 엔비디아 GB10 그레이스 블랙웰(Grace Blackwell) 기반의 개인용 AI 슈퍼컴퓨터 ‘Ascent GX10(어센트 GX10)’을 국내 공식 출시한다고 밝혔다. 에이수스 어센트 GX10은 높은 AI 성능과 공간 효율을 제공한다. 손바닥 정도의 사이즈임에도 최대 1000TOPs의 AI 성능을 구현하여 AI 연구원, 데이터 과학자뿐만 아니라 AI 기반 개발 및 연구를 필요로 하는 개인 및 기업 프로젝트에도 최적의 성능을 제공한다.     어센트 GX10은 내장된 GB10 그레이스 블랙웰 슈퍼칩을 통해 FP4 정밀도 기준 최대 1페타플롭의 AI 성능을 지원한다. 이를 위해 최신 세대 CUDA(쿠다) 코어와 5세대 텐서(Tensor) 코어를 탑재하였으며, NVLink C2C 인터커넥트를 통해 연결된 20개의 Arm 아키텍처 기반 고효율 코어를 포함하고 있다. 또한 128GB의 통합 시스템 메모리를 통해 최대 2000억개의 매개변수를 처리할 수 있으며, 엔비디아 커넥트X(NVIDIA ConnectX) 네트워크 인터페이스 카드를 활용해 GX10 시스템 두 대를 연결하여 라마 3.1(Llama 3.1)과 같이 더 많은 매개변수를 가진 대형 AI 모델도 효율적으로 학습하고 처리할 수 있다. 에이수스는 어센트 GX10이 가진 성능을 최대한 발휘할 수 있는 간편한 AI 모델 개발을 위한 쉬운 개발 환경을 제공한다. 개발자는 엔비디아 AI 소프트웨어 라이브러리를 사용할 수 있으며, 엔비디아 NGC 카탈로그와 엔비디아 개발자 포털에서 제공되는 소프트웨어 개발 키트(SDK), 오케스트레이션 도구, 프레임워크, 모델 등 다양한 리소스를 지원받을 수 있다. 여기에 더해 에이전트 AI 애플리케이션 구축을 위한 엔비디아 블루프린트(NVIDIA Blueprints)와 NIM 마이크로 서비스도 지원하여 다양한 연구 및 개발, 테스트가 가능하다. 에이수스는 국내 공식 대리점인 코잇, 크로스젠, 유니퀘스트, 대원CTS를 통해 어센트 GX10의 구매 및 상담이 가능하다고 전했다.
작성일 : 2025-10-31
한국BIM학회, 지능형 건설을 주제로 국제 심포지엄 개최
한국BIM학회(KIBIM)가 오는 11월 14일 한국과학기술회관에서 ‘KIBIM 2025 국제 심포지엄’을 개최한다. ‘스마트를 넘어 : 지능형 건설의 부상(Beyond Smart : The Rise of Intelligent Construction)’을 주제로 열리는 이번 심포지엄은 AI, 빅데이터, 디지털 트윈, 로보틱스 등 첨단 기술이 건축·건설 산업에 접목되는 현시점에서 지능형 건설의 현재와 미래 방향을 탐구하기 위해 마련됐다. 한국BIM학회의 추승연 회장은 “지속가능성, 안전, 생산성 문제를 해결하기 위한 통찰과 전략을 공유하는 뜻깊은 자리가 될 것”이라고 전했다. 심포지엄에서는 글로벌 전문가의 기조연설이 진행된다. ▲타이거 그룹(Tiger Group)의 수하일 알 라이에스(Suhail Al Rayes) 전무이사가 ‘두바이 메가 프로젝트를 위한 지능형 시스템’을 소개하고 ▲구글의 버나드 크레스(Bernard Kress) XR 엔지니어링 디렉터는 ‘스마트 건설을 위한 스마트 안경 및 증강 현실 헤드셋’ 활용 방안을 공유한다. ▲오토데스크코리아의 오찬주 대표는 ‘AECO(설계·엔지니어링·건설·운영) 산업을 위한 연결된 미래’라는 제목으로 AI와 클라우드 기반의 ‘성과 기반 BIM’을 소개한다. 오후 행사는 ▲국토교통부, 한국공항공사, 국가철도공단 등이 공공 발주기관의 BIM 적용 전략과 성과를 발표하는 ‘공공 부문의 BIM 리더십’ 특별 세션 ▲한양대학교, 인하대학교, 연세대학교, 성균관대학교에서 AI 기반 시뮬레이션과 생성형 AI를 활용한 구조계산 자동화 기술 등을 소개하는 ‘스마트 건설의 기반’ 세션 ▲네이버랩스, BLUA, 대우건설, COWI에서 데이터와 파이썬, AI를 활용한 BIM 데이터 검증 프레임워크 등을 소개하는 ‘건축 환경을 위한 AI 및 자동화’ 세션 ▲옵티콘, 현대건설, 수성엔지니어링 등에서 효율적인 BIM 파이프라인 구축 사례 및 디지털 전환 시대 건설 산업의 역할에 대해 공유하는 ‘건설 분야 디지털 전환’ 세션 등 네 개의 세션으로 나뉘어 진행된다.  
작성일 : 2025-10-27
Arm, 향상된 AI 경험 제공 위해 메타와 전략적 파트너십 강화
Arm은 메타(Meta)와 AI 소프트웨어부터 데이터센터 인프라에 이르는 컴퓨팅의 전 영역에서 AI 효율성을 확장하기 위해 전략적 파트너십을 강화했다고 밝혔다. 양사는 이번 협력을 통해 전 세계 수십억 명의 사용자에게 한층 향상된 AI 경험을 제공할 계획이다. 온디바이스 인텔리전스를 지원하는 밀리와트급 저전력 디바이스부터 최첨단 AI 모델 학습을 담당하는 메가와트급 대규모 시스템까지, 메타의 글로벌 플랫폼을 구동하는 전 영역의 컴퓨팅 환경에서 AI 성능을 최적화하겠다는 것이다. 이번 전략적 파트너십 강화는 양사가 다년간 지속해온 하드웨어 및 소프트웨어 공동 설계 협력을 기반으로 한다. Arm의 전력 효율적 AI 컴퓨팅 기술력과 메타의 AI 제품, 인프라, 오픈소스 기술 혁신을 결합해 성능과 효율성을 대폭 향상시키는 것을 목표로 한다. 페이스북과 인스타그램 등 메타 앱 제품군 전반의 검색 및 개인화를 지원하는 메타의 AI 기반 순위 및 추천 시스템은 x86 시스템 대비 고성능, 저전력 소비를 제공하기 위해 Arm 네오버스(Neoverse) 기반 데이터센터 플랫폼을 활용할 예정이다. 네오버스는 메타가 인프라 전반에 걸쳐 전력 대비 성능 효율을 달성할 수 있도록 지원하며, 하이퍼스케일 환경에서 Arm 컴퓨팅의 효율과 확장성을 강화한다. 양사는 컴파일러와 라이브러리부터 주요 AI 프레임워크에 이르기까지 메타의 AI 인프라 소프트웨어 스택을 Arm 아키텍처에 최적화하기 위해 긴밀히 협력했다. 여기에는 Facebook GENeral Matrix Multiplication(FBGEMM) 및 파이토치(PyTorch)와 같은 오픈소스 구성 요소의 공통 튜닝을 포함되며, Arm의 벡터 확장 기능과 성능 라이브러리를 활용해 추론 효율과 처리량에서 측정 가능한 향상을 이뤘다. 이러한 최적화는 오픈 소스 커뮤니티에 제공되어 글로벌 AI 에코시스템 전반에 영향력을 확대하고 있다. 이번 파트너십은 파이토치 머신러닝 프레임워크, ExecuTorch 엣지 추론 런타임 엔진, vLLM 데이터센터 추론 엔진 전반에 걸쳐 AI 소프트웨어 최적화를 한층 강화한다. 특히 Arm KlediAi로 최적화된 ExecuTorch 기반을 고도화해 수십억 대의 기기에서 효율성을 높이고, 모델 배포를 더욱 간소화함으로써 에지에서 클라우드까지 AI 애플리케이션 성능을 가속화할 예정이다. 이러한 오픈소스 기술 프로젝트는 메타 AI 전략의 핵심으로, 추천 시스템부터 대화형 인텔리전스에 이르기까지 다양한 AI 개발과 배포를 가능하게 한다. 양사는 앞으로도 오픈소스 프로젝트에 대한 최적화를 지속 확장해 전 세계 수백만명의 개발자가 Arm 기반 환경에서 더욱 효율적인 AI를 구축하고 배포할 수 있도록 지원할 계획이다. 메타의 산토시 야나르단(Santosh Janardhan) 인프라 부문 대표는 “플랫폼 경험부터 우리가 만드는 디바이스에 이르기까지, AI는 사람들이 연결하고 창조하는 방식을 변화시키고 있다”면서, “Arm과의 파트너십을 통해 메타 애플리케이션 및 기술을 사용하는 30억 명이 넘는 사용자에게 혁신을 효율적으로 제공할 수 있게 됐다”고 밝혔다. Arm의 르네 하스(Rene Haas) CEO는 “차세대 AI 시대는 대규모 효율성을 실현하는 것이 핵심이 될 것”이라며, “메타와의 협력을 통해 Arm의 전력대비 성능 우위와 메타의 AI 혁신 역량을 결합해 밀리와트급부터 메가와트급까지 모든 영역에서 더욱 스마트하고 효율적인 인텔리전스를 구현할 것”이라고 말했다.
작성일 : 2025-10-17
빌딩스마트협회 ‘빌드스마트 콘퍼런스 2025’ 개최
빌딩스마트협회는 10월 28일 건설회관에서 BIM 및 스마트건설 콘퍼런스인 ‘빌드스마트 콘퍼런스 2025(buildSMART CONFERENCE 2025)’를 개최한다고 밝혔다. 이번 콘퍼런스는 ‘AI를 품은 미래건축과 건설 : 로봇과 모빌리티’를 주제로 빌딩스마트협회와 한국스마트건설융합학회, 희림건축이 공동 주최한다. 기조강연에서는 싱가포르 기술디자인대학교의 모한 라제쉬 엘라라(Mohan Rajesh Elara) 교수가 ‘도시와 로봇의 만남 : 도시 로봇공학의 기반 구축’을, 그림쇼(Grimshaw)의 정윤희 수석이 ‘적응형 도시 구축 : 재생 인프라를 위한 프레임워크’를, 경희대학교 황경은 교수가 ‘로봇 친화형 건축물 설계 시공 및 운영 관리 핵심기술 개발’을 주제로 발표한다.  주제발표에는 AI(인공지능), 디지털 트윈, 로봇, UAM(도심 항공 모빌리티) 등 다양한 분야에서의 업계, 학계 전문가가 발표를 진행한다. 엑스와이지 황성재 대표, 희림건축 최현철 수석, 와이앤스페이드 이종걸 대표, 무브먼츠 윤대훈 대표, 연우에이치티 최준혁 대표, 인천대학교 이슬비 교수, 한국건설기술연구원 이상윤 연구위원, 조우아건축사사무소 김원준 소장이 다양한 주제로 발표할 예정이다. 또한, 이번 콘퍼런스에서는 지난 10월 2일 발표한 ‘BIM 어워즈 2025(BIM AWARDS 2025)’ 수상작에 대한 시상식을 진행하며, 수상 작품에 대한 전시도 함께 진행한다. 자세한 내용은 빌드스마트 콘퍼런스 2025 행사 페이지에서 확인할 수 있다.  
작성일 : 2025-10-16
요구사항 기반 바이브 코딩의 사용 방법
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 더욱 현실적인 앱 개발을 위해, 요구사항을 먼저 상세히 정의한 후 이를 바탕으로 바이브 코딩(vibe coding)을 하는 방법을 살펴본다. 소프트웨어 공학에서 요구사항 문서를 PRD(Product Requirement Document)라고 한다. PRD 작성은 제미나이 프로(Gemini Pro), 바이브 코딩 도구는 깃허브 코파일럿(Github Copilot), 이때 사용되는 대규모언어 모델(LLM)은 클로드 소넷(Claude Sonet)을 사용하도록 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   바이브 코딩 준비하기 바이브 코딩을 하는 방법은 다음과 같이 다양하다. 챗GPT(ChatGPT)에 코딩 요청을 해서 생성된 파이썬(Python) 같은 코드를 복사&붙여넣기해 프로그램을 완성해 나가는 방법 제미나이 CLI(Gemini CLI), 클로드 코드 CLI(Claude Code CLI), 코덱스 CLI(Codex CLI) 도구를 사용해 프로젝트 파일 및 소스코드를 생성하는 방법 VS 코드(Visual Studio Code)같은 개발 IDE와 연동되는 깃허브 코파일럿, 커서(Cursor), 윈드서프(Windsurf)와 같은 도구를 사용해 바이브 코딩하는 방법 버블(Bubble.io)이나 캔바(Canva)와 같은 바이브 코딩 웹 서비스에서 직접 요구사항을 입력하여 제공 클라우드에 앱을 생성・빌드・실행하는 방법   깃허브 코파일럿 바이브 도구 설치 및 기능 깃허브 코파일럿은 오픈AI(OpenAI)와 협력하여 개발된 AI 페어 프로그래머(AI Pair Programmer)이다. 그 기반은 오픈AI의 코덱스(Codex) 모델에서 발전한 최신 대규모 언어 모델(LLM)이며, 수십억 줄의 공개 소스 코드를 학습하여 코드 생성 및 이해 능력을 갖추었다. 개발자가 코드를 작성할 때 실시간으로 문맥을 분석하여 다음에 올 코드를 추천하거나, 특정 기능에 대한 전체 코드 블록을 생성해 준다. 이는 단순한 자동 완성을 넘어, 개발자가 문제 해결이라는 본질에 더욱 집중하도록 돕는 지능형 코딩 보조 도구이다. 이번 호에서는 로컬 PC에서 프로젝트 소스 파일을 생성하고 직접 수정할 수 있도록 VS 코드에서 바이브 코딩할 수 있는 방법을 취한다. 이를 위해 다음 환경을 미리 준비한다. Gemini Pro(https://gemini.google.com/app?hl=ko) 가입 ■ 파이썬(https://www.python.org/downloads/), node.js(https://nodejs.org/ko/download) 설치 ■ Github(https://github.com/features/copilot) 가입 ■ Github Copilot(https://github.com/features/copilot) 서비스 가입 ■ VS Code(https://code.visualstudio.com/) 설치 및 코딩 언어 관련 확장(Extension) 애드인 설치(https://code.visualstudio. com/docs/configure/extensions/extension-marketplace)   그림 2. 깃허브 코파일럿 가입 모습   주요 기능 깃허브 코파일럿은 생산성 향상을 위한 다양한 기능을 통합적으로 제공한다.   인라인 코드 제안(Code Suggestions) 깃허브 코파일럿의 가장 핵심적인 기능으로, 사용자가 편집기에서 코드를 입력하는 동시에 다음 코드를 회색 텍스트(ghost text) 형태로 제안하는 것이다. 문맥 기반 제안 : 현재 파일의 내용, 열려 있는 다른 탭의 코드, 프로젝트 구조 등을 종합적으로 분석하여 현재 작성 중인 코드의 의도에 가장 적합한 제안을 생성한다. 다양한 제안 범위 : 변수명이나 단일 라인 완성부터 시작해 알고리즘, 클래스, 유닛 테스트 케이스, 설정 파일 등 복잡하고 긴 코드 블록 전체를 생성할 수 있다. 주석을 코드로 변환 : ‘# Read file and parse JSON’과 같이 자연어 주석을 작성하면, 코파일럿이 해당 작업을 수행하는 실제 코드를 생성해준다. 이는 복잡한 라이브러리나 프레임워크 사용법을 숙지하지 않아도 빠르게 기능을 구현하는 것을 가능하게 한다.   코파일럿 챗(Copilot Chat) IDE 환경을 벗어나지 않고 코파일럿과 대화하며 개발 관련 문제를 해결할 수 있는 강력한 채팅 인터페이스이다. 코드 분석 및 설명 : explain 명령어를 사용해 선택한 코드 블록의 작동 방식, 복잡한 정규 표현식의 의미, 특정 알고리즘의 목적 등에 대한 상세한 설명을 한국어로 받을 수 있다. 디버깅 지원 : 코드의 버그를 찾거나, 발생한 오류 메시지를 붙여넣고 해결책을 질문하는 데 활용된다. 잠재적인 오류를 수정하는 fix 명령어도 지원한다. 테스트 생성 : tests 명령어를 통해 특정 함수나 로직에 대한 단위 테스트 코드를 자동으로 생성하여 코드의 안정성을 높이는 데 기여한다. 코드 리뷰 : 작성된 코드를 분석하여 잠재적인 문제점, 성능 개선 방안, 가독성을 높이기 위한 리팩토링 아이디어 등을 제안받을 수 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-10-01
HP Z2 미니 G1a 리뷰 : 초소형 워크스테이션의 AI·3D 실전 성능
워크스테이션은 콤팩트한 외형 속에 데스크톱급 성능을 담아낸 전문가용 시스템이다. 단순한 소형 PC와 달리, 3D·영상·AI·엔지니어링 등 고성능이 필요한 크리에이터와 전문 작업자를 위해 설계된 것이 특징이다. 이번 리뷰에서는 실제 소프트웨어 워크플로와 AI·LLM 테스트까지 다양한 관점에서 심층 평가를 진행했다.   ▲ HP Z2 미니 G1a   하드웨어 및 설치 환경 HP Z2 미니 G1a(HP Z2 Mini G1a)의 가장 큰 강점 중 하나는 강력한 하드웨어 스펙이다. AMD 라이젠 AI 맥스+ 프로 395(AMD Ryzen AI Max+ PRO 395) 프로세서(16코어 32스레드, 3.00GHz), 최대 128GB LPDDR5X 메모리, 8TB NVMe SSD, 그리고 16GB VRAM을 탑재한 라데온 8060S(Radeon 8060S) 통합 그래픽 등, 동급 소형 워크스테이션에서는 보기 힘든 구성을 갖췄다. 특히 메모리는 최대 128GB까지 확장 가능하며, 이 중 최대 96GB를 그래픽 자원에 독점 할당할 수 있다. 듀얼 NVMe 및 RAID 지원으로 대용량 데이터 처리와 안정성을 확보했으며, 50TOPS에 달하는 NPU 성능 덕분에 AI 추론 등 최신 워크로드도 소화할 수 있다. 테스트는 윈도우 11 프로 기반, 64GB RAM과 16GB 라데온 8060S, 듀얼 NVMe SSD가 장착된 구성으로 진행됐다.   ▲ HP Z2 미니 G1a의 하드웨어 스펙   전문 소프트웨어 워크플로 직접 HP Z2 미니 G1a를 사용해 본 첫 인상은 “미니 사이즈에서 이 정도 성능이라니?”였다. 크기는 작지만, 성능은 결코 작지 않았다. 시네마 4D(Cinema 4D)로 복잡한 3D 신을 제작하고, 지브러시(ZBrush)에서 대형 폴리곤 모델링과 서브툴 멀티 작업을 해 보니 작업 흐름이 부드럽고, 장시간 동작에도 다운이나 랙 없이 꾸준한 성능으로 작업할 수 있었다. 시네벤치(Cinebench), 시네마 4D, 지브러시, 애프터 이펙트(After Effects), AI 생성형 이미지·영상, LLM 실행 등 전 영역에서 성능 저하를 체가하기 어려웠다. 시네마 4D에서는 수십만~수백만 폴리곤에 달하는 대형 3D 신 파일을 불러오고, 뷰포트 내 실시간 조작이나 배치 렌더링, 애니메이션 키프레임 작업에서 CPU 기반 멀티스레드 성능이 큰 장점을 발휘했다. 시네벤치 2024 멀티코어 점수는 1832점으로, 애플의 M1 울트라보다 높은 수치를 달성해 전문 사용자에게 매력적인 대안이 될 것으로 보인다.   ▲ 시네마 4D에서 테스트   애프터 이펙트 환경에서는 GPU 가속 지원이 부족한 점에도 불구하고, 강력한 CPU 성능 덕분에 고해상도(4K) 다중 레이어 영상 합성, 이펙트, 복수 트랙 편집에서도 랙이나 끊김 없이 작업을 이어갈 수 있었다. 시네마 4D, 지브러시, 콤피UI(ComfyUI) 등과의 멀티태스킹 환경에서도 리소스 병목 없이 쾌적하게 여러 프로그램을 병행 실행하는 것이 가능했다.   ▲ 애프터 이펙트에서 테스트   아이언캐드 대형 어셈블리 테스트 엔지니어링 현장에서 요구되는 대형 어셈블리 작업을 검증하기 위해 동료와 함께 아이언캐드(IronCAD)로 2만여 개(2만 1800개)에 달하는 파트가 포함된 820MB 대용량 CAD 파일을 로딩해 테스트를 진행했다. 이 워크플로는 최근 산업·기계 설계 현장에서 자주 마주치는 극한 환경을 그대로 반영한 조건이었다. 테스트 결과, HP Z2 마니 G1a의 평균 FPS는 약 19로 측정됐다. 이는 노트북용 RTX2060 GPU가 내는 실제 CAD 작업 성능과 동등한 수준에 해당한다. 고용량 모델의 빠른 불러오기, 실시간 3D 뷰 조작, 개별 파트 속성 편집 작업에서 큰 병목이나 지연 없이 효율적인 사용 경험을 확인했다. 대형 파일임에도 불구하고 시스템 자원 부족이나 다운 없이 멀티태스킹 환경에서도 안정적으로 작업이 이어지는 점이 인상적이었다.   ▲ 아이언캐드에서 테스트   AI 및 LLM 활용 AI 작업이나 LLM 실행에서도 강점이 명확했다. 콤피UI에서 Wan2.2, Video-wan2_2_14B_t2v 같은 고사양 텍스트-비디오 생성 모델도 무리 없이 돌릴 수 있었고, LM 스튜디오(LM Studio)와 올라마(Ollama) 기반의 대형 LLM 역시 빠른 추론 속도를 보여줬다. NPU(50TOPS)의 연산 가속과 64GB RAM의 넉넉함 덕분에, AI 모델 로컬 실행/추론에서 항상 안정적인 환경이 보장된다는 느낌이다. 오픈소스 AI 이미지 생성이나 텍스트-비디오 워크플로도 CPU-메모리 조합만으로 병목 없이 부드럽게 동작했다. 쿠다(CUDA)를 지원하지 않는 환경의 한계로 일부 오픈소스 AI 툴은 실행에 제약이 있었으나, CPU와 NPU 조합만으로도 로컬 기반 AI 이미지 생성 및 텍스트-비디오 워크플로에서 동급 대비 빠르고 매끄러운 결과를 보였다.    ▲ 콤피UI에서 테스트   LLM 분야에서는 LM 스튜디오와 올라마를 이용해 7B~33B 규모의 다양한 대형 언어 모델을 구동했다. 64GB RAM과 50TOPS NPU의 지원 덕분에 GPT-3.5, 라마 2(Llama 2) 등 대용량 파라미터 기반의 모델도 실제 업무에서 실시간 질문-응답, 코드 자동완성, 문서 요약 등에 무리 없이 활용 가능했다.   ▲ LLM 테스트   통합 메모리 아키텍처 효과 Z2 미니 G1a의 최고 강점은 UMA(통합 메모리 아키텍처)에 있다. 이 기술은 시스템 메모리(RAM)의 상당 부분을 GPU 연산에 직접 할당해, 기존 분리형 GPU VRAM 성능의 한계를 극복한다. 실제로 탑재된 메모리(64GB~128GB 중 구매 옵션에 따라 선택)를 GPU에 최대 96GB까지 독점적으로 할당할 수 있으며, 복잡한 3D·그래픽 집약적 프로젝트 처리와 생성형 AI·LLM 등의 작업에서 병목 없이 고효율 워크플로를 경험할 수 있었다.   실사용·테스트를 위한 리뷰 환경 제품 리뷰 당시 64GB RAM 탑재 모델을 기준으로, 기본 설정에서는 16~32GB를 GPU에 할당해 일반 CAD·3D·AI 작업을 진행했다. 또한 고해상도 3D 렌더나 생성형 AI 영상 작업에서는 BIOS/소프트웨어에서 48~50GB까지 VRAM 할당을 수동 조정해 본 결과, 대형 프로젝트 파일에서 뷰포트 프레임 저하나 메모리 부족 경고 없이 안정적인 작업 환경을 제공했다. 반대로 GPU에 할당하는 메모리를 늘리면 고용량 데이터 병목이 해결되고, 3D 뷰포트 FPS나 AI 추론 속도 및 이미지 품질·정확도가 확실히 향상되는 것이 일관되게 확인되었다. 실제 기업 환경에서는 128GB 모델을 쓰면 최대 96GB까지 VRAM 할당이 가능하므로 GPU 메모리 병목이 무의미해지고, 기존 미니PC와는 비교할 수 없는 확장성과 작업 안전성을 확보할 수 있다.   아쉬운 점 첫째, 테스트용으로 받았던 장비에서는 HDMI 단자의 부재로 미니 DP로 모니터를 연결해야 했는데, 이는 테스트했던 데모 제품의 기본 옵션에 해당한다. 하지만 HP Z2 미니 G1a는 기업용/구매 시 고객 요구에 따라 HDMI 포트를 포함한 맞춤형 Flex I/O 슬롯 옵션 구성이 가능하다고 한다. 실제로 HP 공식 문서 및 판매 페이지에 따르면, 썬더볼트4(Thunderbolt4), USB-C, 미니 DP 외에도 HDMI를 Flex IO 슬롯에 추가할 수 있으므로, 다수의 모니터·TV·AV 장비로 연결해 사용하는 환경에서도 문제없이 세팅할 수 있다. 둘째, GPU가 AMD 라데온 기반이기 때문에 엔비디아 CUDA를 필요로 하는 GPU 가속 작업(예 : Redshift GPU 렌더러, 딥러닝 프레임워크)은 아예 테스트 자체가 불가능하다. AI, 3D, 영상 워크플로에서 CUDA 생태계를 사용하는 환경에서는 제품 선택 전 미리 확인이 필요하다. 셋째, 고부하 작업 시 팬 소음이 다소 발생할 수 있으므로 조용한 사무실 환경이라면 쿼이엇 모드 설정이 필요하다.   결론 및 추천 HP Z2 미니 G1a 워크스테이션은 한정된 공간에서 고성능이 필요한 크리에이티브 및 AI 전문가, 엔지니어, 디지털 아티스트에게 탁월한 선택지가 될 수 있다. 실제로 써보면, 공간 제약이 있는 환경에서도 3D 모델링, 영상 편집, 생성형 AI, LLM 추론 등 고사양 멀티태스킹을 안정적으로 병행할 수 있었고, 기업용 보안, ISV 인증, 최신 네트워크까지 갖췄다. 다양한 작업을 동시에 손쉽게 처리할 수 있다는 점에서 미니 데스크톱 중에서도 실전 현장에 ‘매우 쓸 만한’ 최상위 선택지라고 생각이 든다. 비록 CUDA 미지원 및 HDMI 포트 부재라는 한계가 있지만, CPU·메모리 중심의 워크플로에선 동급 최고 수준의 안정성과 성능을 보여준다. 최신 AI 및 LLM, 3D·영상·컴포지팅 등 멀티태스킹이 잦은 전문 분야라면 이 제품이 오랜 기간 든든한 실전 파트너가 될 것이다. 견적 상담 문의하기 >> https://www.hp.com/kr-ko/shop/hp-workstation-amd-app   ■ 배현수 부장 마루인터내셔널(맥슨 한국총판) 기술지원팀, AI 크리에이터, 모션그래픽 디자이너     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
엔비디아, “새로운 오픈 모델과 시뮬레이션 라이브러리로 로보틱스 연구개발 가속화”
엔비디아가 오픈소스 뉴턴 물리 엔진(Newton Physics Engine)을 엔비디아 아이작 랩(NVIDIA Isaac Lab)에서 이용 가능하며, 로봇 기술을 위한 엔비디아 아이작 GR00T N1.6 추론 비전 언어 행동(vision language action : VLA) 모델과 새로운 AI 인프라를 함께 제공한다고 발표했다. 이들 기술은 개발자와 연구자에게 개방형 가속 로보틱스 플랫폼을 제공해 반복 작업을 가속화하고, 테스트를 표준화하며, 로봇의 추론과 훈련 통합을 지원한다. 아울러 로봇이 시뮬레이션에서 실제 환경으로 안전하고 안정적으로 기술을 이전할 수 있도록 돕는다. 로봇은 시뮬레이션 환경에서 더 빠르고 안전하게 학습할 수 있지만, 복잡한 관절, 균형, 움직임을 가진 휴머노이드 로봇은 오늘날 기존 물리 엔진의 한계를 시험한다. 전 세계 25만 명 이상의 로보틱스 개발자들은 정확한 물리 엔진을 필요로 하며, 이는 로봇이 시뮬레이션에서 학습한 기술을 현실 세계에서 안전하고 안정적으로 수행하기 위해 필수이다. 엔비디아는 리눅스 재단이 관리하는 GPU 가속 오픈소스 물리 엔진 뉴턴의 베타 버전을 공개했다. 이는 엔비디아 워프(Warp)와 오픈USD(OpenUSD) 프레임워크 기반으로, 엔비디아와 구글 딥마인드, 디즈니 리서치가 공동 개발했다. 뉴턴은 유연한 설계 및 다양한 물리 솔버와의 호환성을 갖췄다. 이를 통해 개발자가 눈이나 자갈 위를 걷거나, 컵과 과일을 다루는 등 매우 복잡한 로봇 동작을 시뮬레이션하고 이를 현실 세계에 성공적으로 적용할 수 있도록 지원한다.     휴머노이드가 물리적 환경에서 인간과 유사한 작업을 수행하기 위해서는 모호한 지시를 이해하고 이전에 경험하지 못한 상황에 대처할 수 있어야 한다. 곧 허깅 페이스에서 공개될 오픈소스 아이작 GR00T N1.6 로봇 파운데이션 모델의 최신 버전에는 피지컬 AI를 위해 개발된 오픈 맞춤형 추론 비전 언어 모델(VLM)인 엔비디아 코스모스 리즌(Cosmos Reason)이 통합될 예정이다. 코스모스 리즌은 로봇이 심층 사고를 하는 두뇌 역할을 담당하며 기존의 지식, 상식, 물리학을 활용해 모호한 지시를 단계별 계획으로 전환하고, 새로운 상황을 처리하며, 다양한 작업에 걸쳐 일반화할 수 있도록 한다. 코스모스 리즌은 현재 피지컬 리즈닝 리더보드(Physical Reasoning Leaderboard) 1위를 차지하고 있으며, 100만 회 이상 다운로드를 기록했다. 또한, 모델 훈련을 위한 대규모 실제 데이터, 합성 데이터를 선별하고 주석을 달 수 있다. 코스모스 리즌 1은 NIM에서 제공되며, 사용하기 쉬운 마이크로서비스 형태로 AI 모델 배포를 지원한다.  아이작 GR00T N1.6은 휴머노이드가 물체를 동시에 이동하고 조작할 수 있도록 해 상체와 팔의 자유도를 넓히고, 무거운 문을 여는 것과 같은 까다로운 작업을 수행할 수 있도록 한다. 개발자는 허깅 페이스의 오픈소스 엔비디아 피지컬 AI 데이터세트(Physical AI Dataset)를 사용해 아이작 GR00T N 모델을 사후 훈련할 수 있다. 이 데이터세트는 480만 회 이상 다운로드됐으며, 현재 수천 개의 합성 궤적과 실제 궤적 데이터를 포함한다. 또한, 엔비디아는 오픈소스 코스모스 월드 파운데이션 모델(WFM)의 신규 업데이트를 발표했다. 300만 회 이상 다운로드된 이 모델은 개발자가 텍스트, 이미지, 영상 프롬프트를 활용해 대규모로 피지컬AI 모델 훈련을 가속화할 수 있는 다양한 데이터 생성을 지원한다. 코스모스 프리딕트(Cosmos Predict) 2.5는 곧 출시될 예정이며, 세 가지 코스모스 WFM의 성능을 하나의 강력한 모델로 통합해 복잡성을 줄이고, 시간을 절약하며, 효율을 높인다. 또한 최대 30초의 긴 동영상 생성, 다중 뷰 카메라 출력을 지원해 더욱 풍부한 세계 시뮬레이션을 구현한다. 코스모스 트랜스퍼(Cosmos Transfer) 2.5는 곧 출시될 예정이며, 기존 모델 대비 3.5배 작으면서도 더 빠르고 높은 품질의 결과를 제공한다. 이제 사실적인 합성 데이터를 생성할 수 있으며, 그라운드 트루스(ground-truth) 3D 시뮬레이션 장면, 깊이, 세분화, 에지, 고해상도 지도와 같은 공간 제어 입력값을 활용할 수 있다.   로봇에게 물체를 잡는 법을 학습시키는 것은 로보틱스에서 가장 어려운 과제 중 하나다. 파지는 단순히 팔을 움직이는 것이 아니라 생각을 정밀한 동작으로 전환하는 것으로, 로봇이 시행착오를 통해 학습해야 하는 기술이다. 엔비디아 옴니버스(Omniverse) 플랫폼 기반의 아이작 랩 2.3 개발자 프리뷰의 새로운 정밀 파지(dexterous grasping) 워크플로는 다관절 손과 팔을 가진 로봇을 가상 환경에서 자동화된 커리큘럼으로 훈련시킨다. 이 과정은 간단한 작업부터 시작해 점차 복잡성을 높여간다. 해당 워크플로는 중력, 마찰, 물체의 무게 등 요소를 변경해 로봇이 예측 불가능한 환경에서도 기술을 습득하도록 훈련시킨다. 컵을 집거나 방을 가로질러 걷는 것과 같이 새로운 기술을 로봇에게 숙달시키는 것은 매우 어렵다. 또한, 이러한 기술을 실제 로봇에서 테스트하는 과정은 시간과 비용이 많이 요구된다. 이러한 어려움을 해결할 수 있는 방법은 시뮬레이션이다. 시뮬레이션은 로봇이 학습한 기술을 무수한 시나리오, 작업, 환경에서 테스트할 수 있는 방법을 제공한다. 그러나 개발자들은 시뮬레이션 환경에서도 현실 세계를 반영하지 못하고 단편적이고 단순화된 테스트를 구축하는 경우가 많다. 완벽하고 단순한 시뮬레이션 환경에서 학습한 로봇은 현실 세계의 복잡성에 직면하는 순간 실패할 가능성이 크다. 엔비디아와 라이트휠은 개발자가 시스템을 처음부터 구축하지 않고도 시뮬레이션 환경에서 복잡한 대규모 평가를 실행할 수 있는 오픈소스 정책 평가 프레임워크인 아이작 랩-아레나(Arena) 공동 개발 중이다. 이 프레임워크는 확장 가능한 실험과 표준화된 테스트를 지원하며 곧 공개될 예정이다. 엔비디아는 개발자들이 이러한 첨단 기술과 소프트웨어 라이브러리를 최대한 활용할 수 있도록, 까다로운 워크로드를 위해 설계된 AI 인프라를 발표했다. 엔비디아 GB200 NVL72는 엔비디아 그레이스(Grace) CPU 36개와 엔비디아 블랙웰(Blackwell) GPU 72개를 통합한 랙 규모 시스템으로, 주요 클라우드 공급업체들이 채택해 복잡한 추론과 피지컬 AI 작업을 포함한 AI 훈련과 추론을 가속화하고 있다. 엔비디아 RTX 프로 서버(RTX PRO Servers)는 훈련, 합성 데이터 생성, 로봇 학습, 시뮬레이션 전반의 모든 로봇 개발 워크로드를 위한 단일 아키텍처를 제공하며, RAI 연구소(RAI Institute)에서 도입 중이다. 블랙웰 GPU로 구동되는 엔비디아 젯슨 토르(Jetson Thor)는 로봇이 실시간 지능형 상호작용을 위한 다중 AI 워크플로 실행을 지원한다. 또한 실시간 로봇 추론으로 휴머노이드 로보틱스 전반에서 고성능 피지컬 AI 워크로드와 애플리케이션의 돌파구를 마련한다. 젯슨 토르는 피규어 AI, 갤봇(Galbot), 구글 딥마인드, 멘티 로보틱스, 메타(Meta), 스킬드 AI, 유니트리(Unitree) 등 파트너사에 도입 중이다. 엔비디아의 레브 레바레디언(Rev Lebaredian) 옴니버스, 시뮬레이션 기술 부문 부사장은 “휴머노이드는 피지컬 AI의 차세대 영역으로, 예측 불가능한 세상에서 추론하고, 적응하며, 안전하게 행동하는 능력이 필요하다. 이번 업데이트로 개발자들은 로봇을 연구 단계에서 일상 생활로 가져오기 위한 세 가지 컴퓨터를 갖게 됐다. 아이작 GR00T가 로봇의 두뇌 역할을 하고, 뉴턴이 신체를 시뮬레이션하며, 엔비디아 옴니버스가 훈련장이 된다”고 말했다.
작성일 : 2025-09-30
몽고DB, AI 기반 애플리케이션 현대화 플랫폼 출시
몽고DB는 기업이 레거시 애플리케이션을 현대적이고 확장 가능한 서비스로 신속하게 전환할 수 있도록 돕는 AI 기반 애플리케이션 현대화 플랫폼인 ‘몽고DB AMP(MongoDB AMP)’를 출시했다고 밝혔다. 몽고DB AMP는 도구, 기술, 인재가 결합된 설루션으로, AI 기반 소프트웨어 플랫폼과 입증된 딜리버리 프레임워크, 그리고 구현 과정을 관리하고 이끄는 경험 많은 AMP 전문 엔지니어와 함께 고객의 현대화를 지원한다. 몽고DB AMP는 몽고DB의 유연한 도큐먼트 모델과 지속적인 변화를 염두에 두고 설계된 아키텍처를 기반으로 한다. 몽고DB는 “반복 가능한 프레임워크와 AMP 도구를 결합함으로써, 코드 변환과 같은 작업은 최대 10배 이상, 전체 현대화 프로젝트의 속도는 2~3배까지 향상시킬 수 있다”고 밝혔다.     산업 전반의 기업들은 핵심 운영에 중요한 역할을 하면서도, 유지 비용이 크고 생성형 AI와 같은 최신 활용 사례에 유연하게 대응하기 어려운 레거시 애플리케이션으로 인해 상당한 부담을 겪고 있다. 이러한 복잡한 레거시 애플리케이션은 경직된 데이터 기반과 노후화된 기술 스택 위에 구축되어 있어, 혁신을 저해할 뿐만 아니라 보안 및 컴플라이언스 측면에서도 리스크를 초래할 수 있다. 정보 및 소프트웨어 품질 컨소시엄은 미국 내 기술 부채로 인한 경제적 비용이 ‘낮은 소프트웨어 품질’, 소프트웨어 장애, 개발자 생산성 손실, 시스템 유지관리 등의 요소를 기준으로 볼 때 총 4조 달러에 육박하는 것으로 추산하고 있다. 기존의 애플리케이션 현대화 방식은 수작업이 많고 리소스 소모가 크고 수년간 진행되는 고비용 컨설팅 프로젝트에 의존하는 경우가 많다. 실제 성과를 내기 전에 중단되는 경우도 있어 시장 출시 속도에 차질을 빚기도 한다. 더 나아가 일부 현대화 시도는 유연하고 현대적인 데이터베이스 설루션으로 전환하기보다는, 레거시 애플리케이션을 단순히 다른 관계형 데이터베이스로 옮기는, 이른바 ‘리프트 앤 시프트(lift and shift)’ 방식에 그치는 경우도 있다. 몽고DB AMP는 몽고DB가 주요 고객들과 함께 2년 넘게 협업하며 완성한 접근 방식을 제품화했다. 특히 규제가 까다롭고 복잡한 요구사항이 많은 산업 분야에서도 AMP를 통해 현대화 성과를 만들어냈다고 소개했다. 호주의 벤디고 은행은 핵심 뱅킹 애플리케이션을 기존 레거시 관계형 데이터베이스에서 몽고DB 아틀라스(MongoDB Atlas)로 이전하는 데 걸리던 개발 시간을 90%까지 줄였고, AI 도구를 활용해 애플리케이션 테스트 케이스를 작성하고 실행하는 시간을 기존 80시간 이상에서 단 5분으로 획기적으로 단축했다. 롬바디 오디에는 핵심 애플리케이션을 SQL 데이터베이스에서 몽고DB로 성공적으로 이전했다. 이 과정에서 코드 마이그레이션 속도는 최대 60배 빨라졌으며 회귀 테스트 시간도 3일에서 3시간으로 단축돼 개발자들이 혁신에 더 집중할 수 있게 됐다. 엔터프라이즈 핀테크 기업인 인텔렉트AI 또한 최근 몽고DB와 협력해 자사의 웰스 매니지먼트(Wealth Management) 플랫폼 핵심 요소를 현대화했다. 이번 프로젝트를 통해 인텔렉트AI는 성능을 개선하고 개발 주기를 단축할 수 있었으며, 그 결과 신규 고객 온보딩이 더욱 원활해지고, 고객 인사이트를 보다 심층적으로 제공할 수 있게 됐으며, 기업 전반에서 생성형 AI 활용 사례를 실현할 수 있는 기반을 마련했다. 몽고DB의 비노드 바갈(Vinod Bagal) 현대화 및 전환 부문 수석 부사장(SVP)은 “연구에 따르면 많은 조직들이 단지 시스템 유지를 위해 가치 대비 노력과 비용이 큰 작업에 과도한 시간과 예산을 투입하고 있으며, 이로 인해 경쟁사에 뒤처지게 되는 경우가 많다”고 말했다. 이어 그는 “몽고DB AMP는 기업들에게 더 나은 현대화 접근 방식을 제공한다”면서, “기존의 방식에서 벗어나 빠르고 높은 품질로 전환을 이뤄낼 수 있도록 지원하고, 혁신과 비용 절감을 동시에 실현할 수 있도록 한다”고 설명했다.
작성일 : 2025-09-17
티맥스소프트, 소버린 AI 프레임워크로 '글로벌 AI 기업' 도약 선언
  티맥스소프트가 소버린 AI(Sovereign AI)를 위한 프레임워크를 개발하고, 이를 통해 글로벌 경쟁력을 갖춘 AI 기업으로 도약하겠다고 밝혔다. 소버린 AI는 국가와 기업의 AI 및 데이터 주권을 실현하는 것을 목표로 한다. 국산 AI 프레임워크로 국내 AI 생태계 주도 티맥스소프트는 AI 패권 경쟁 시대에 맞춰 소버린 AI 풀스택 완성을 위한 프레임워크 개발에 착수했다. 현재 비즈니스 애플리케이션에 AI 기능을 접목할 수 있는 국산 상용 AI 개발 플랫폼이 부족한 상황에서, 티맥스소프트는 경쟁력 있는 AI 프레임워크를 선보여 국내 AI 생태계에 적극적으로 참여할 방침이다. 개발 중인 '소버린 AI 프레임워크'는 공공기관, 금융, 일반 기업이 비즈니스 애플리케이션에 다양한 AI 기능을 효율적으로 접목하도록 돕는 AI 비즈니스 개발 플랫폼 소프트웨어다. 기존 오픈소스 기반 프레임워크의 복잡성과 특정 인프라에 종속되는 록인(Lock-in) 문제를 해결하는 데 중점을 뒀다. 티맥스소프트는 20년 이상 금융, 통신, 제조, 공공 사업에서 검증된 개발 솔루션 기술력을 바탕으로 AI에 최적화된 개발 환경을 제공할 계획이다. 통합된 AI 개발 환경 제공과 글로벌 진출 확대 이 프레임워크는 통합된 AI 개발 환경을 제공하는 것이 가장 큰 특징이다. 단순한 AI 기능 제공을 넘어, 기업의 개발 방법론과 기술 스택을 표준화하여 상호 운용성과 재사용성을 높여준다. 이를 통해 기업은 복잡한 AI 기술 도입의 어려움을 해소할 수 있다. 또한, 지속적인 업그레이드와 기술 지원이 필요한 AI 개발 플랫폼을 선택할 수 있는 이점도 제공한다. 티맥스소프트는 향후 여러 파일럿 프로젝트를 통해 기능을 검증하고 품질을 향상시킬 예정이다. 이후 AI 전환(AX)이 필요한 공공, 금융 기업 시장을 공략하여 국내 상용 AI 프레임워크 분야를 선도하고, 동시에 글로벌 시장으로의 진출도 확대할 방침이다. 특히, 티맥스소프트는 정부의 'AI 3대 강국' 정책에 발맞춰 'AI 프레임워크 선도기업'으로서 소버린 AI 풀스택 완성과 글로벌 경쟁력 확보에 중요한 역할을 한다는 목표를 세웠다. 이를 위해 올해 연말까지 국내 유수의 하드웨어 및 IT 서비스 기업들과 협력 관계를 구축해 국내 AI 생태계 활성화에 본격적으로 참여할 계획이다. 기존 제품과의 시너지로 미래 경쟁력 강화 티맥스소프트는 핵심 제품인 애플리케이션 서버, 인터페이스 플랫폼, 비즈니스 프레임워크, 메인프레임 현대화 솔루션 등도 AI·클라우드 시대에 맞춰 진화시키고 있다. 자사 제품을 AI 기술과 서비스에 최적화하여 미래 경쟁력을 강화하고 있다. 일례로, 생성형 AI 기술을 활용한 AI옵스(AIOps) 기능을 탑재한 'TEM(Tmaxsoft Enterprise Manager)' 개발을 진행 중이다. 이 솔루션은 장애 대응, 모니터링 데이터 분석, 이상 징후 감지, 구성 자동화 등이 가능하다. 이형용 티맥스소프트 대표이사는 "국내 애플리케이션 서버 시장 1위 기업으로서 다양한 기업의 혁신을 촉진할 프레임워크를 제공하고 국내 AI 생태계 강화에 이바지하겠다"고 말했다.
작성일 : 2025-09-13