• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "학습"에 대한 통합 검색 내용이 2,597개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
이에이트, “물리 시뮬레이션에 AI 입혔다”… 산업 현장 맞춤형 플랫폼으로 활용 확대
이에이트가 물리 해석 시뮬레이션 기술을 고도화하고 인공지능(AI) 기반 시뮬레이션의 산업 활용 범위를 넓히고 있다고 밝혔다. 물리 해석 시뮬레이션은 열, 유체, 구조, 전자기 등 여러 분야에서 제품 설계와 성능 검증의 핵심 도구로 쓰여 왔다. 하지만 전문가 의존도가 높고 반복 작업에 많은 시간이 걸리는 한계가 있었다. 이에 따라 산업 현장에서는 더 빠르고 유연하게 활용할 수 있는 AI 기반 자동화 기술에 대한 수요가 늘고 있다. 최근 주목받는 기술은 ‘AI 대리 모델(AI surrogate)’이다. 이 기술은 반복적인 물리 시뮬레이션 결과를 학습해 근사치를 빠르게 도출하는 방식이다. 비용이 많이 들고 시간이 오래 걸리는 시뮬레이션을 보완하면서 다양한 조건을 현실적으로 비교하고 검토할 수 있어 산업계의 관심이 높다. 이에이트의 ‘NFLOW Ai(엔플로우 Ai)’는 웹 환경에서 물리 시뮬레이션을 실행하고 GNN U-Net 기반의 AI 대리 모델을 활용해 해석 주기를 단축하는 서비스형 소프트웨어(SaaS) 플랫폼이다. 별도의 장비 설치 없이 웹 브라우저에서 시뮬레이션을 수행할 수 있어 현장 활용성이 좋다. 이에이트는 NFLOW Ai를 데이터 지능 플랫폼 ‘NAXiS(넥시스)’, 운영 의사결정 시스템 ‘NAX Ops(넥스옵스)’와 연계하고 있다. 시뮬레이션 결과가 실제 운영 판단과 의사결정으로 이어지는 통합 구조를 구축하겠다는 취지다. 이에이트는 시뮬레이션이 전문가 중심의 영역에서 실무 도구로 역할이 변화하고 있다고 설명했다. 이어 NFLOW Ai를 통해 많은 현장에서 시뮬레이션을 쉽게 활용하는 환경을 만들고, AI 기술과의 결합을 통해 실질적인 가치를 만드는 개발을 이어가겠다고 밝혔다. 또한 제조, 에너지, 인프라 등 주요 산업에서 AI 기반 시뮬레이션의 활용이 시나리오 검토와 의사결정 지원으로 확대되는 추세에 따라, 기술 고도화와 제품 연계를 통해 시장 입지를 넓힌다는 계획이다.  
작성일 : 2026-04-17
신약 설계부터 검증까지 한 번에... AWS, 아마존 바이오 디스커버리 출시
아마존웹서비스(AWS)는 과학자들이 신약을 더 빠르고 체계적으로 설계하고 검증할 수 있도록 돕는 인공지능(AI) 기반 애플리케이션인 ‘아마존 바이오 디스커버리(Amazon Bio Discovery)’를 출시했다. 아마존 바이오 디스커버리는 방대한 생물학 데이터를 학습한 전문 AI 모델인 생물학 파운데이션 모델 카탈로그에 과학자들이 직접 접근할 수 있도록 지원한다. 이들 모델은 신약 후보 물질을 생성하고 평가하며, 신약 발굴 초기 단계에서 항체 치료제 연구를 앞당기는 역할을 한다. 과학자들은 아마존 바이오 디스커버리의 AI 에이전트를 통해 일상적인 언어로 연구 목표에 맞는 모델을 선택하고 입력 변수를 최적화할 수 있다. 기존 실험 데이터를 활용해 모델을 추가로 학습시켜 예측의 정확도를 높이는 것도 가능하다. 선정된 후보 물질은 실제 실험실로 보내져 합성하고 테스트하는 과정을 거치며, 그 결과는 다시 애플리케이션으로 전달된다. AWS는 이러한 방식을 통해 실험실과 연계한 지속적인 반복 실험 구조를 구현했다.     그동안 신약 발굴 분야에 AI를 도입하는 데는 어려움이 많았다. 생성형 AI의 발전으로 머신러닝 모델이 늘어났지만, 이를 다루려면 코딩 능력과 복잡한 인프라 관리 기술이 필요했기 때문이다. 수십 개의 모델 성능을 직접 비교하는 것도 쉽지 않았고, 이를 지원할 전산 생물학자도 부족한 실정이었다. 물리적 실험을 위해 데이터를 주고받는 과정 역시 여러 시스템에 흩어져 있어 관리가 까다로웠다. 아마존 바이오 디스커버리는 AI 모델과 분석 패키지를 비교 평가하는 벤치마크 라이브러리와 실험 설계를 돕는 AI 에이전트, 통합 실험실 파트너 네트워크를 제공해 이런 문제를 해결하고자 했다. 이를 통해 얻은 피드백은 다음 설계 단계를 개선하는 밑거름이 된다. 이 서비스는 제약사와 바이오테크, 학계 연구기관이 필요로 하는 데이터 보호와 보안 환경을 갖추고 있다. 데이터는 완전히 격리되어 보호되며, 고객은 모든 지식재산과 데이터에 대한 소유권을 가진다. 아마존 바이오 디스커버리는 아페리스와 볼츠 등 파트너사의 오픈소스 및 상업용 모델을 포함해 폭넓은 생물학 특화 AI 모델 카탈로그를 제공한다. 앞으로 바이오허브와 프로플루언트의 모델도 추가될 예정이다. 과학자들은 코딩 대신 자연어를 사용해 단계별 실험 과정을 구성할 수 있으며, 제조 용이성이나 온도 안정성 같은 항체 후보 물질의 특성을 평가하는 데이터셋을 활용해 최적의 모델을 고를 수 있다. 실제로 메모리얼 슬론 케터링 암센터(MSK)는 아마존 바이오 디스커버리의 AI 에이전트를 활용해 약 30만 개의 새로운 항체 분자를 설계했다. 이 가운데 유망한 후보 물질을 테스트하는 데까지 걸린 시간은 몇 주에 불과했다. 기존 방식으로 1년 가까이 걸리던 작업을 대폭 단축한 것이다. 현재 MSK를 비롯해 바이엘, 브로드 인스티튜트, 프레드허치 암센터 등이 이 서비스를 초기 도입해 활용하고 있다. AWS의 라지브 초프라 헬스케어 AI 및 생명과학 부문 부사장은 “AI 에이전트는 컴퓨터 전문 지식이 없는 연구자들도 고도화된 과학 역량을 활용할 수 있게 한다”면서, “첨단 AI와 보안 인프라의 결합은 이전에는 불가능했던 방식으로 항체 발굴을 가속화할 것”이라고 설명했다.
작성일 : 2026-04-16
미니멀 디자인에 성능 더한 올인원 PC, 레노버 AIO A105a 국내 출시
한국레노버가 일상적인 컴퓨팅 환경에 맞춘 올인원 PC 신제품인 ‘AIO A105a’를 선보였다. 이번 신제품은 모니터와 본체, 스피커, 카메라를 하나로 합친 일체형 구조를 채택해 설치 공간을 줄인 것이 특징이다. AIO A105a는 클라우드 그레이 색상의 미니멀한 디자인을 적용했다. 거실이나 서재 등 가정 내 다양한 공간에 어울리도록 설계했으며 재택근무와 온라인 수업, 엔터테인먼트 등 여러 용도로 활용할 수 있다. 성능 면에서는 AMD 라이젠 10 시리즈 프로세서를 탑재했다. 이를 통해 문서 작업과 영상 시청, 화상 회의 등 여러 작업을 동시에 수행하는 멀티태스킹 환경을 지원한다. 메모리는 최대 16GB, 저장 장치는 최대 1TB SSD까지 구성할 수 있어 빠른 부팅과 데이터 처리가 가능하다.     디스플레이는 23.8형 FHD IPS 패널을 장착했다. 3면 슬림 베젤 디자인으로 시각적 몰입감을 높였으며 99% sRGB 색 재현율과 250 니트 밝기로 선명한 화질을 구현한다. 100Hz 주사율을 지원해 화면 전환이 부드럽고 2개의 2W 스피커와 돌비 디지털 플러스 디코더를 갖춰 풍부한 소리를 들려준다. 주변 기기와의 연결성도 고려했다. USB-A와 USB-C, HDMI 등 다양한 입출력 포트를 갖췄으며, 와이파이 6와 블루투스 5.2로 안정적인 무선 연결을 지원한다. 최대 5MP 카메라와 듀얼 마이크를 내장해 별도 장비 없이 화상 회의나 수업에 참여할 수 있다. 제품에는 무선 키보드와 마우스가 기본으로 포함되어 전원선 하나만 연결하면 바로 사용할 수 있는 환경을 제공한다. 사후 관리 서비스도 제공한다. 한국레노버는 1년 무상 온사이트 서비스를 지원하며 전문 엔지니어가 방문해 수리를 진행한다. 현장 수리가 어려우면 서비스 센터 입고부터 수리 후 배송까지 관리한다. 한국레노버 신규식 대표는 “집이 휴식 공간을 넘어 업무와 학습, 엔터테인먼트가 공존하는 다기능 공간으로 바뀌면서 공간과 조화를 이루는 ‘데스크테리어’ PC에 대한 관심이 높다”면서, “미니멀한 디자인과 일상에 최적화된 성능을 갖춘 AIO A105a를 통해 쾌적한 홈 컴퓨팅 환경을 경험하길 바란다”고 말했다.
작성일 : 2026-04-15
인텔–구글, 차세대 AI 및 클라우드 인프라 협력 확대
인텔과 구글은 차세대 AI와 클라우드 인프라 발전을 위해 다년간 협력하기로 했다. 양사는 이번 협력을 통해 최신 이기종 AI 시스템을 대규모로 구현하는 과정에서 중앙처리장치(CPU)와 주문형 인프라 처리 장치(IPU)의 역할을 강화한다는 계획이다. 최근 인공지능 도입이 빨라지면서 인프라는 더욱 복잡한 이기종 구조로 변하고 있다. 이에 따라 데이터 처리와 시스템 성능을 관리하기 위한 CPU 의존도가 높아지는 추세다. 인텔과 구글은 인텔 제온 프로세서의 여러 세대에 걸쳐 협력하며 구글의 글로벌 인프라 전반에서 성능과 에너지 효율, 총 소유 비용을 개선할 예정이다. 구글 클라우드는 최신 인텔 제온 6 프로세서를 탑재한 C4와 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스에 인텔 제온 프로세서를 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론과 범용 컴퓨팅까지 넓은 범위의 워크로드를 지원한다. 동시에 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU의 공동 개발을 확대하고 있다. 프로그래밍이 가능한 이 가속기는 호스트 CPU가 맡던 네트워킹, 스토리지, 보안 기능을 분담한다. 이를 통해 자원 활용도를 높이고 효율성을 개선하며 하이퍼스케일 AI 환경에서 더욱 예측 가능한 성능을 구현할 수 있다. IPU는 최신 데이터 센터 아키텍처의 핵심 요소로 꼽힌다. 기존 CPU가 담당하던 인프라 작업을 처리해 효율적인 컴퓨팅 성능을 제공하기 때문이다. 클라우드 서비스 제공업체는 이를 활용해 시스템 복잡성을 높이지 않고도 인프라를 확장할 수 있다. 제온 CPU와 IPU는 긴밀하게 통합된 플랫폼을 구성해 범용 컴퓨팅과 특정 목적에 특화된 가속 기능을 균형 있게 제공한다. 이번 협력 확대는 AI 시대에 필요한 개방적이고 확장 가능한 인프라를 발전시키려는 양사의 노력을 담고 있다. 인텔과 구글은 범용 컴퓨팅과 AI 시스템 설계에 특화된 가속 기능을 결합해 복잡성을 줄이고 효율적인 확장이 가능한 AI 시스템 설계 방식을 구현해 나갈 계획이다. 인텔의 립 부 탄 CEO는 “AI는 인프라 구축과 확장 방식을 재편하고 있다”면서, “AI 확장을 위해서는 가속기 이상의 균형 잡힌 시스템이 필수이며 CPU와 IPU는 최신 AI 워크로드가 요구하는 성능과 유연성을 제공하는 핵심 역할을 한다”고 설명했다. 구글 AI 인프라 부문의 아민 바흐다트 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습부터 배포까지 AI 시스템의 핵심 요소로 남아 있다”면서, “인텔은 20년 가까이 신뢰해 온 파트너로 인텔의 제온 로드맵을 통해 워크로드의 성능과 효율 요구 사항을 지속적으로 충족할 수 있을 것으로 확신한다”고 전했다.
작성일 : 2026-04-10
뉴타닉스, 기업용 에이전틱 AI 서비스 강화하는 신규 기능 공개
뉴타닉스가 2026년 하반기 중에 뉴타닉스 에이전틱 AI(Nutanix Agentic AI) 설루션에 새로운 기능을 추가한다고 밝혔다. 이번 업데이트는 차세대 AI 클라우드 서비스 제공업체인 네오클라우드가 AI 엔지니어와 개발자에게 안전하고 확장 가능한 서비스를 제공할 수 있도록 돕는 데 초점을 맞췄다. AI 기술이 발전하면서 필요한 시점에 유연하게 GPU를 사용할 수 있는 네오클라우드 서비스가 주목받고 있다. 그동안 AI 수요는 대기업 중심의 학습 워크로드에 머물러 있었으나, 앞으로는 추론 성능을 확장하고 실제 운영 환경에서 에이전틱 AI 애플리케이션을 실행하는 방향으로 변화할 전망이다. 이에 따라 기업들은 보안과 성능을 갖추면서도 비용 효율적인 AI 플랫폼을 요구하고 있다. 뉴타닉스는 네오클라우드가 서비스형 GPU와 쿠버네티스를 넘어 에이전틱 AI 기반의 기업용 플랫폼 서비스까지 제공할 수 있도록 지원한다. 뉴타닉스 에이전틱 AI 설루션은 인프라의 복잡성을 줄이고 보안을 강화하며 토큰당 비용을 낮추도록 설계된 소프트웨어 스택이다. 여기에 새롭게 추가되는 멀티테넌트와 AI 관리 포털을 이용하면 서비스 업체는 자사 인프라를 바탕으로 고부가가치 AI 서비스를 제공할 수 있다. 사용자는 데이터와 인프라 운영에 대한 통제력을 높이면서 소버린 AI를 배포하는 것도 가능해진다. 이번 업데이트에는 뉴타닉스 서비스 프로바이더 센트럴을 통한 차세대 멀티테넌시 프레임워크가 포함된다. 이 프레임워크는 공유 AI 인프라를 대규모로 안전하게 운영하도록 돕는다. 물리적인 GPU 인프라 하나에서 여러 기업을 동시에 수용하면서도 데이터 격리와 보안을 보장하는 것이 특징이다. 서비스 구축자는 이를 통해 고객별로 리소스를 동적으로 할당하고 맞춤형 보안 정책을 적용할 수 있다. 뉴타닉스 클라우드 매니저의 기능도 개선된다. AI 인프라 모니터링 기능과 함께 사용량 기반 계량 기능을 추가하여 GPU 사용량이나 API 호출 횟수에 따라 고객에게 비용을 청구할 수 있게 된다. 서비스 업체는 단일 관리 인터페이스에서 인프라를 운영하며 수익을 창출할 수 있다. 뉴타닉스 에이전틱 AI의 신규 기능은 현재 일부 파트너를 대상으로 미리 제공되고 있으며 2026년 하반기에 정식 출시될 예정이다. 뉴타닉스의 토마스 코넬리 수석 부사장은 “데이터 통제권을 유지하며 AI를 활용하려는 기업이 늘면서 특화형 AI 클라우드 수요가 증가하고 있다”면서, “뉴타닉스 에이전틱 AI는 안전한 멀티테넌트 환경을 통해 서비스 업체가 공공 기관이나 기업에 첨단 AI 서비스를 신속하게 제공하도록 돕는다”고 설명했다.
작성일 : 2026-04-09
세일즈포스, 비즈니스 맥락 이해하는 AI 에이전트 ‘슬랙봇’ 국내 공개
세일즈포스가 맞춤형 AI 에이전트인 슬랙봇(Slackbot)을 국내에서 처음으로 선보였다. 또한, 세일즈포스는 슬랙을 중심으로 인간과 AI 에이전트가 유기적으로 협업하는 ‘에이전틱 엔터프라이즈(Agentic Enterprise)’ 비전과 혁신 전략을 발표했다. 4월 8일 진행된 기자간담회에서 세일즈포스 코리아 박세진 대표는 슬랙을 사람과 AI 에이전트, 데이터가 연결되는 ‘에이전틱 업무 운영체제(Agentic Work OS)’로 정의했다. 세일즈포스는 이번 슬랙봇 출시를 기점으로 비즈니스 맥락을 이해하는 AI 에이전트 역량을 강화해 기업의 에이전틱 엔터프라이즈 전환을 지원할 계획이다. 세일즈포스의 설명에 따르면, 슬랙봇은 데이터 파운데이션을 기반으로 슬랙에 축적된 모든 비즈니스 데이터를 활용한다. 이를 통해 사용자의 조직 내 역할과 특성에 맞춘 비서이자 동료 역할을 수행한다. 슬랙봇은 회의 내용을 자동으로 기록하고 요약하는 미팅 인텔리전스 기능을 제공한다. 이 기능은 세일즈포스 CRM과 연계해 고객 맞춤형 후속 과제를 연결한다. 또한 AI 스킬 기능을 통해 반복 업무를 표준화하고 직무별 워크플로를 효율적으로 운영하도록 돕는다. 데스크톱 어시스턴트는 여러 업무용 애플리케이션에서 필요한 작업을 단일 워크플로 내에서 처리할 수 있게 지원한다. 슬랙봇은 모든 업무를 하나의 대화형 인터페이스로 통합한다. 사용자는 슬랙 내에서 데이터 마이그레이션 없이 영업 기회 업데이트, 연락처 관리, 고객 서비스 담당자 배정 등의 업무를 즉시 처리할 수 있다. 사용자의 업무 방식을 학습하는 메모리 기능과 음성 입력 기능도 더해졌다. 조직 내 모든 에이전트와 앱을 통합하는 MCP 클라이언트 기능도 함께 공개됐다. 사용자는 권한에 따라 세일즈포스의 에이전트포스와 서드파티 에이전트를 포함한 기업 내 모든 앱에 접근할 수 있다. 슬랙 마켓플레이스에 있는 2600개 이상의 앱과 세일즈포스 앱익스체인지의 6000개 이상 앱을 연동해 활용하는 것도 가능하다.     기자간담회에서는 당근마켓과 우아한형제들의 슬랙 활용 사례도 소개됐다. 당근마켓은 배포 알림과 장애 감지 등 모든 비즈니스 맥락을 슬랙에서 관리하고 있다. 특히 사내 AI 에이전트 카비를 슬랙에 도입해 리포트 작성과 메시지 데이터 분석에 활용 중이다. 당근마켓 이예찬 엔지니어는 “슬랙은 단순한 소통 창구를 넘어 조직의 살아있는 기억”이라고 말했다. 우아한형제들은 슬랙 엔터프라이즈 그리드를 통해 글로벌 조직과 협업하며 슬랙 커넥트로 외부 파트너와 사람, 데이터를 연결하고 있다. 우아한형제들 이청규 담당은 “슬랙봇 도입으로 신규 입사자의 적응을 돕고 불필요한 커뮤니케이션에 소모되는 비용이 줄어들 것으로 기대한다”고 밝혔다. 박세진 대표는 기업이 이제 AI 도입을 넘어 실질적인 비즈니스 가치를 창출하는 에이전틱 엔터프라이즈로 전환해야 한다고 강조했다. 그는 “강력한 에이전트의 지능은 신뢰할 수 있는 데이터 위에서 완성된다”고 설명하며, “보안 가드레일인 트러스트 레이어와 강화된 데이터 파운데이션을 기반으로 한국 기업의 혁신을 지원하겠다”고 덧붙였다.
작성일 : 2026-04-08
HPE, 엔비디아와 손잡고 차세대 AI 팩토리 및 슈퍼컴퓨팅 혁신 가속화
HPE가 대규모 AI 팩토리와 슈퍼컴퓨터를 위한 'HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오'의 주요 혁신 사항을 발표했다. 이번 발표는 고객이 AI를 더 효율적으로 확장하고 배포하며, 데이터에서 인사이트를 도출하는 시간을 단축하는 데 중점이다. HPE는 엔비디아와 협력해 구축한 이번 풀스택 AI 설루션이 컴퓨팅, GPU, 네트워킹, 액체 냉각, 소프트웨어 및 서비스를 긴밀하게 통합해 대규모 환경과 국가별 소버린 환경에 최적화했다고 밝혔다. 현재 아르곤 국립 연구소, 독일 슈투트가르트 고성능 컴퓨팅 센터, 허드슨 리버 트레이딩, 한국과학기술정보연구원 등 세계적인 연구 기관과 AI 기업들이 HPE의 인프라를 채택해 혁신을 가속하고 있다. HPE는 자사의 슈퍼컴퓨팅 플랫폼인 ‘HPE 크레이 슈퍼컴퓨팅 GX5000’에 엔비디아의 최신 설루션을 적용한다. 먼저 액체 냉각 방식의 ‘엔비디아 베라 CPU 컴퓨트 블레이드’를 도입한다. 각 ‘HPE 크레이 슈퍼컴퓨팅 GX240 컴퓨트 블레이드’는 최대 16개의 엔비디아 베라 CPU를 탑재해 까다로운 AI 워크로드를 지원한다. 이는 랙 하나 당 최대 40개의 블레이드와 640개의 CPU, 5만 6320개의 엔비디아 올림푸스 코어를 확장할 수 있다. 또한 엔비디아 퀀텀-X800 인피니밴드를 통해 초고속 네트워킹 환경을 제공한다. 이 스위치는 포트당 800Gb/s의 연결성을 지원하며 높은 전력 효율을 갖춘 것이 특징이다.     대규모 및 소버린 환경을 위한 ‘HPE AI 팩토리’ 포트폴리오도 강화한다. HPE는 1조 개 이상의 매개변수를 가진 거대 모델을 위해 설계된 차세대 시스템 ‘HPE 기반 엔비디아 베라 루빈 NVL72’ 랙 스케일 시스템을 선보인다. 이 시스템은 36개의 CPU와 72개의 루빈 GPU, 6세대 NV링크 네트워킹 등을 탑재해 대규모 환경에서 높은 효율을 낸다. 이와 함께 새로운 AI 서버인 ‘HPE 컴퓨트 XD700’도 출시한다. 엔비디아 HGX 루빈 NVL8을 기반으로 한 이 서버는 랙당 최대 128개의 루빈 GPU를 지원하며, 이전 세대보다 두 배 향상된 GPU 집적도를 통해 전력과 냉각 비용을 절감한다. 이외에도 모든 HPE AI 팩토리 포트폴리오에서 ‘엔비디아 RTX PRO 6000 블랙웰 서버 에디션’ GPU를 사용할 수 있게 된다. 소프트웨어와 서비스 측면에서는 엔비디아 클라우드 파트너 프로그램 인증을 획득해 클라우드 서비스 제공사의 검증 프로세스를 간소화한다. 수세 가상화 및 랜처 프라임 스위트를 통한 멀티 테넌시 옵션도 확장해 가상머신용 GPU 패스스루 등을 지원한다. 레드햇 엔터프라이즈 리눅스 및 오픈시프트와의 통합은 물론, AI 팩토리의 운영과 확장을 돕는 ‘엔비디아 미션 컨트롤’ 소프트웨어도 제공할 예정이다. HPE의 트리시 담크로거 수석부사장은 “세계 최고 성능의 엑사스케일 슈퍼컴퓨터 3대를 구축한 HPE는 최첨단 AI 워크로드와 고성능컴퓨팅을 결합해 과학적 혁신을 주도하고 있다”면서, “엔비디아와 협력해 의학, 생명과학, 제조 등 다양한 분야에서 한계를 뛰어넘는 데 필요한 성능을 제공하겠다”고 밝혔다. 엔비디아의 크리스 매리어트 부사장은 “기업과 국가가 AI의 잠재력을 실현하려면 대규모 모델 학습과 고성능컴퓨팅 워크로드를 처리할 인프라가 필수”라면서, “양사가 공동 개발한 인프라는 가속 컴퓨팅과 액체 냉각 기술을 결합해 인사이트 도출 시간을 단축한다”고 설명했다.
작성일 : 2026-04-06
[탐방] 유비씨, 디지털트윈에서 피지컬 AI까지 자율제조 지원
전주기 AX 통합 플랫폼 ‘OCTOPUS’로 산업 AI 혁신 앞당긴다   AI는 이제 로봇의 몸을 빌려 물리적 제조 현장에서 움직이기 시작했다. 글로벌 제조업은 산업현장이 자동화되는 인더스트리 4.0을 넘어 인간과 기술이 공존하는 인더스트리 5.0 시대로 진입하고 있다. 특히 올해 글로벌 빅테크 기업들이 앞다퉈 제시한 ‘피지컬 AI’는 AI가 물리적 세계를 직접 제어하는 시대의 도래를 알렸다. 제조업 디지털화의 중심도 변하고 있다. 과거 스마트 팩토리가 ‘연결’과 ‘자동화’를 중심으로 했다면, 현재의 자율제조는 ‘지능화’와 ‘자율 판단’으로 무게중심이 이동하고 있다. 유비씨(UVC, www.uvc.co.kr)는 전주기 AX(AI Transformation) 통합 플랫폼 ‘OCTOPUS’(옥토퍼스)를 통해 이러한 변화를 이끌고 있다.   유비씨 조규종 대표 8개 개별 솔루션을 하나로 통합한 전주기 AX 플랫폼 ‘OCTOPUS’ 유비씨는 2010년 설립 당시 기계와 로봇 간 데이터 통신 기술에 집중했다. 이후 3D 렌더링 엔진 기술을 결합하며 스마트 팩토리와 디지털트윈 솔루션으로 사업영역을 확장했다. 최근에는 이러한 역량에 AI 기술을 융합하며 제조 현장의 디지털 전환(DX)을 넘어 AI 전환(AX)까지 아우르는 전주기 통합 솔루션 OCTOPUS를 완성했다. OCTOPUS는 엣지(Edge), 데이터 허브(Data Hub), 트윈(Twin), 시뮬레이터(Simulator), AI 허브(AI Hub), 에이전틱 AI(Agentic AI), 피지컬 AI(Physical AI), 로봇 허브(Robot Hub) 등 8개 솔루션으로 구성된다. 8개의 개별 솔루션을 하나의 전주기 AX 플랫폼에 통합한 OCTOPUS는 이름 그대로 문어의 특징을 닮았다. 글월 문(文)자를 쓰는 문어는 예부터 ‘바다의 선비’로 불리던 똑똑한 생명체다. 문어의 지능적 두뇌는 스스로 학습하는 AI를, ▲ 유비씨 조규종 대표 예리한 눈은 정밀 모니터링을, 독립적으로 움직이는 8개의 팔은 분산지능을, 민감한 피부는 이상 감지를 상징한다. OCTOPUS는 8개 솔루션이 유기적으로 연결되어 데이터 수집-통합-시각화-검증–학습–예측–제어의 전 과정을 수행한다. 나아가 이를 다시 생산 계획에 반영하는 완벽한 순환 구조를 구현했다. 작동 방식은 다음과 같다. 현장의 엣지가 이기종 설비에서 데이터를 수집하면, 데이터 허브가 이를 AI가 학습할 수 있는 형태로 정제한다. 트윈은 실시간 3D로 현장을 시각화하고, 시뮬레이터는 반복 실험을 통해 최적의 조건을 탐색한다. AI 허브는 공정을 학습하고, 학습된 데이터를 바탕으로 에이전틱 AI가 24시간 자율 의사결정을 수행한다. 피지컬 AI는 로봇과 설비를 정밀 제어하고, 로봇 허브가 다수의 로봇을 통합 관제한다. 기존의 제조 IT·시뮬레이션·AI 솔루션은 전문 인력이 아니면 접근 자체가 어려울 정도로 진입 장벽이 높았다. OCTOPUS는 이 문제를 플랫폼 설계 단계부터 완전히 다르게 접근했다. 데이터 수집, 시뮬레이션, AI 분석, 디지털 트윈, 로봇 제어 등 각기 다른 카테고리로 분리되어 있던 기능들을 하나의 흐름과 하나의 화면, 하나의 언어로 통합한 것이다. 특히 LLM 기반 자연어 인터페이스를 적용해 “생산 라인을 한 대 더 늘리면 어떻게 될까?”, “이 공정에서 병목이 생기는 이유가 뭐지?” 등의 질문만으로 시뮬레이션과 AI 분석, 가상 검증 결과를 제시한다. AI 예측을 실제 설비제어까지 연결하는 M.AX 시대 많은 AI 솔루션이 데이터를 분석하고 예측 결과를 보여주는데 그친다. 그러나 진정한 제조 A I전환, 즉 ‘M.AX(Manufacturing AX)’를 실현하려면 AI의 판단이 실제 설비나 로봇의 동작으로 직접 이어져야 한다. 문제는 현장에서 AI가 내린 결정을 설비 제어에 바로 적용하는 것을 극도로 꺼린다는 점이다. 안전 문제, 예상치 못한 오작동에 대한 우려, 그리고 책임 소재에 대한 불안감 때문이다. 유비씨는 디지털 트윈과 피지컬 AI를 결합한 독자적인 아키텍처로 문제 해결에 나섰다. 가상 환경에서 AI 모델을 충분히 학습시키고, 수천 번의 시뮬레이션을 통해 안전성과 효과를 검증한 후에만 실제 현장에 적용하도록 설계한 것이다. 이를 통해 환경 변화와 예외 상황에도 흔들리지 않는 안정적이고 신뢰할 수 있는 자율 운영을 실현해 나간다. 유비씨 조규종 대표는 “AI가 브레인이라면 DT는 AI의 명령을 실질적으로 수행하는 중추 신경계다. 유비씨는 디지털 트윈 기반의 피지컬 AI 기업을 향해 나아가고 있다”고 설명한다. 이어 “제조업에서 AI 기반 디지털 트윈이 지금 가장 큰 가치를 만드는 분야는 제조·생산·물류 현장의 ‘협업’을 지능화하는 영역이다. 로봇이 혼자 똑똑해지는 것보다 더 어려운 건 로봇이 제조 설비와 함께 상황을 이해하고, 여러 로봇이 스스로 역할을 나누며, 필요하면 작업자와도 안전하게 함께 일하도록 만드는 일이다”라고 덧붙였다. 유비씨가 정의하는 피지컬 AI는 인지-계획-실행으로 이어지는 구조를 기반으로 한다. 물리적 환경과 설비 상태를 실시간으로 인지하고, 운영 목표와 제약 조건을 반영해 행동을 계획한 뒤, 이를 실제 로봇과 설비의 동작으로 실행하는 전 과정을 설계하고 있다. 이 과정에서 디지털 트윈은 피지컬 AI가 학습할 수 있는 합성 데이터(Synthetic Data)를 제공하는 핵심 환경 역할을 담당한다. 나아가 OCTOPUS 피지컬 AI 솔루션을 중심으로 자율제조 영역에서 사업을 확장하는 모습이다. 조 대표는 “국내 탑티어 로봇 제조사 두 곳과 협업을 통해 실제 제조 현장 적용이 가능한 피지컬 AI 기술의 실증과 고도화를 진행하고 있다”면서, “이를 통해 제조 AX 분야의 선도 기업으로 입지를 공고히 해 나갈 것”이라고 밝혔다.   ■ 캐드앤그래픽스 최경화 국장 kwchoi@cadgraphics.co.kr
작성일 : 2026-04-05
최적 검색 가속화를 위한 AI 프레딕터
심센터 HEEDS 더 깊게 살펴 보기 (4)   이번 호에서는 심센터 HEEDS(Simcenter HEEDS)의 핵심 최적화 엔진인 SHERPA의 성능을 비약적으로 가속화시키는 AI 시뮬레이션 프레딕터(AI Simulation Predictor) 기술에 대해 자세히 살펴본다. 지난 호에서 다룬 SHERPA의 지능형 탐색 방식에 AI의 예측 통찰력을 결합하여, 어떻게 해석 시간의 병목을 해결하고 검색 효율을 극대화하는지 조명할 예정이다. 이를 통해 고비용 해석 모델에서도 실질적인 리드타임을 단축하고 더 우수한 설계안을 도출해 내는 원리를 알아보고자 한다.   ■ 연재순서 제1회 심센터 HEEDS 커넥트와 MBSE 방법론 제2회 심센터 X MDO의 새로운 HEEDS 제3회 심센터 HEEDS SHERPA의 최적 검색 원리 제4회 최적 검색 가속화를 위한 AI 프레딕터 제5회 심센터 HEEDS 2604 업데이트 제6회 모두를 위한 제너럴 포털과 맞춤 설정 제7회 특별한 워크플로 구성 및 자동화 제8회 다양한 매개변수를 위한 태깅 모드 제9회 복잡한 설정을 한번에, 오토메이션 스크립트 제10회 파이썬 스케줄러와 HEEDS 연동 제11회 심센터 HEEDS 2610 업데이트 제12회 데이터 분석을 위한 HEEDSPy API   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 HEEDS를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR 링크드인 | www.linkedin.com/in/jonghaklee-odumokgol   최적화의 병목, 해석 시간과 비용의 문제 고충실도(High-Fidelity) 해석의 딜레마 현대 엔지니어링 설계의 정점은 전산유체역학(CFD)이나 비선형 구조해석과 같은 고성능 계산 과정을 필수로 한다. 이러한 고충실도 해석은 제품 성능을 가상 공간에서 정밀하게 모사할 수 있게 해 주지만, 치명적인 약점이 있다. 복잡한 모델의 경우 1회 해석에 수 시간에서 수 일이 소요되기도 하며, 수백 번의 반복 계산이 필요한 최적화 과정에서 이는 극복하기 어려운 시간적 병목(bottleneck)이 된다.   MDAO 과정에서 직면하는 실제 문제들 연재의 배경이 되는 다분야 설계 분석 및 최적화(MDAO : Multidisciplinary Design Analysis and Optimization) 환경에서는 다음과 같은 네 가지 핵심 문제에 직면한다. 시뮬레이션 시간 & 계산 비용 : 장기간의 CAE 실행은 컴퓨터 자원의 점유와 라이선스 비용 부담을 가중시킨다. 신뢰성 : 시간 제약으로 인해 충분한 설계안을 검토하지 못하면 결과의 신뢰성이 떨어진다. 지식의 재사용 : 이전 프로젝트의 방대한 시뮬레이션 데이터를 현재 최적화에 제대로 자산화하지 못하는 한계가 있다. 시프트 레프트(shift left) : 제품 개발 초기 단계에서 오류를 발견하지 못하면 이후 단계에서 대규모 수정 비용이 발생한다.   기존 대안 : 전통적 최적화 프로세스와 근사 모델의 한계 해석 시간을 줄이기 위해 전통적인 설계 공간 탐색(design space exploration) 과정에서는 반응표면법(RSM)이나 크리깅(kriging)과 같은 근사 모델(surrogate model)이 널리 사용되어 왔다. 하지만 이러한 전통적인 방식은 프로세스 측면에서의 번거로움과 기술적 모델 구축 측면에서의 한계를 동시에 안고 있다.   그림 1   첫째, 전문가 중심의 복잡한 다단계 프로세스로 인한 고충(pain points)이 크다. 목적 정의부터 모델 단순화, 알고리즘 선택 및 튜닝, 탐색 수행, 결과 해석으로 이어지는 과정은 매우 정교한 전문 지식을 요구하며 다음과 같은 문제를 일으킨다. 모델 단순화의 오류 가능성 : 변수 선별이나 응답면 모델을 수동으로 생성하는 과정은 오류가 개입되기 매우 쉽다.(too error-prone) 알고리즘 선택 및 튜닝의 고비용 구조 : 적절한 검색 알고리즘을 결정하기 위해 수많은 반복 시도가 필요하며, 파플레이션 크기나 변이율 등 세부 매개변수 설정에 고도의 전문성이 요구되어 시간과 비용이 많이 든다.(too costly & too difficult) 제한적인 혁신 : 이러한 난이도 탓에 최적화 기술이 일부 전문가에 의해 매우 한정적인 문제에만 적용되어, 결과적으로 설계 혁신의 폭이 좁아지는 결과를 초래한다. 둘째, 기술적으로 구축된 근사 모델 자체가 가진 결정적인 한계가 존재한다. 초기 데이터 확보의 높은 비용 : 신뢰할 수 있는 모델을 구축하기 위해서는 설계 공간 전체에 걸쳐 상당수의 초기 샘플 해석이 선행되어야 하며, 고성능 CAE 환경에서는 이 초기 샘플링 과정 자체가 막대한 병목이 된다. 정적 구조의 경직성 : 한 번 구축된 모델은 최적화가 진행되는 동안 설계 공간의 특성 변화나 새로운 유망 영역의 발견을 실시간으로 반영하여 스스로 업데이트되지 않는다. 전역적 경향성과 국부적 정밀도의 딜레마 : 전체적인 경향성은 파악하지만 최적해 주변의 미세한 비선형적 거동을 포착하는 데 한계가 있어, 최종 설계안이 실제 해석 결과와 괴리를 보이는 경우가 빈번하다.   그림 2   반면, 심센터 HEEDS는 이러한 복잡한 중간 단계를 ‘Automated Search’ 하나로 통합하여 엔지니어가 본연의 설계 업무인 목적 정의와 결과 분석에만 집중할 수 있는 환경을 제공한다. 이번 호에서 다룰 AI 프레딕터(AI Predictor)는 이 혁신적인 자동 탐색 과정을 한 단계 더 가속하여 기술적 한계를 극복하고 진정한 설계 디스커버리(discovery)를 실현하는 핵심 기술이다.   기술 혁신 : Boosting SHERPA의 정의와 전략적 가치 AI 시뮬레이션 프레딕터란 무엇인가? 심센터 HEEDS의 AI 시뮬레이션 프레딕터는 최적화 검색 과정을 가속시키는 퍼포먼스 부스터(Performance Booster)이다. 단순히 정해진 데이터를 학습하는 것을 넘어, SHERPA 검색 프레임워크 상단에서 작동하는 AI 오버레이(AI Overlay) 기술을 통해 실시간으로 데이터를 학습(on-the-fly)하여 해석이 필요한 위치(DOE)를 지능적으로 선별한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02