• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 고성능 컴퓨팅"에 대한 통합 검색 내용이 5,239개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
미니멀 디자인에 성능 더한 올인원 PC, 레노버 AIO A105a 국내 출시
한국레노버가 일상적인 컴퓨팅 환경에 맞춘 올인원 PC 신제품인 ‘AIO A105a’를 선보였다. 이번 신제품은 모니터와 본체, 스피커, 카메라를 하나로 합친 일체형 구조를 채택해 설치 공간을 줄인 것이 특징이다. AIO A105a는 클라우드 그레이 색상의 미니멀한 디자인을 적용했다. 거실이나 서재 등 가정 내 다양한 공간에 어울리도록 설계했으며 재택근무와 온라인 수업, 엔터테인먼트 등 여러 용도로 활용할 수 있다. 성능 면에서는 AMD 라이젠 10 시리즈 프로세서를 탑재했다. 이를 통해 문서 작업과 영상 시청, 화상 회의 등 여러 작업을 동시에 수행하는 멀티태스킹 환경을 지원한다. 메모리는 최대 16GB, 저장 장치는 최대 1TB SSD까지 구성할 수 있어 빠른 부팅과 데이터 처리가 가능하다.     디스플레이는 23.8형 FHD IPS 패널을 장착했다. 3면 슬림 베젤 디자인으로 시각적 몰입감을 높였으며 99% sRGB 색 재현율과 250 니트 밝기로 선명한 화질을 구현한다. 100Hz 주사율을 지원해 화면 전환이 부드럽고 2개의 2W 스피커와 돌비 디지털 플러스 디코더를 갖춰 풍부한 소리를 들려준다. 주변 기기와의 연결성도 고려했다. USB-A와 USB-C, HDMI 등 다양한 입출력 포트를 갖췄으며, 와이파이 6와 블루투스 5.2로 안정적인 무선 연결을 지원한다. 최대 5MP 카메라와 듀얼 마이크를 내장해 별도 장비 없이 화상 회의나 수업에 참여할 수 있다. 제품에는 무선 키보드와 마우스가 기본으로 포함되어 전원선 하나만 연결하면 바로 사용할 수 있는 환경을 제공한다. 사후 관리 서비스도 제공한다. 한국레노버는 1년 무상 온사이트 서비스를 지원하며 전문 엔지니어가 방문해 수리를 진행한다. 현장 수리가 어려우면 서비스 센터 입고부터 수리 후 배송까지 관리한다. 한국레노버 신규식 대표는 “집이 휴식 공간을 넘어 업무와 학습, 엔터테인먼트가 공존하는 다기능 공간으로 바뀌면서 공간과 조화를 이루는 ‘데스크테리어’ PC에 대한 관심이 높다”면서, “미니멀한 디자인과 일상에 최적화된 성능을 갖춘 AIO A105a를 통해 쾌적한 홈 컴퓨팅 환경을 경험하길 바란다”고 말했다.
작성일 : 2026-04-15
오라클 AI 데이터베이스, 미션 크리티컬 환경의 가용성과 보안 기준 강화
오라클이 ‘오라클 AI 데이터베이스(Oracle AI Database)’의 기능을 대폭 강화하는 업데이트를 발표했다. 이번 업데이트는 모든 데이터베이스 애플리케이션의 가용성과 보안을 높이는 데 중점을 두었다. 특히 핵심 업무인 미션 크리티컬 워크로드에 대해 별도의 애플리케이션 변경이나 전문 인력 없이도 증권거래소 수준의 상시 가동 환경을 구현할 수 있도록 지원한다. 오라클에 따르면, 엑사데이터(Exadata)에서 실행되는 오라클 AI 데이터베이스 26ai는 이제 재해 발생 시 복구 시간이 통상 30초 미만으로 이뤄지는 수준의 플래티넘 등급 가용성을 제공한다. 기존 오라클 데이터베이스 19c와 비교하면 최대 4배 빠른 속도이며, 초고처리량 멀티노드 클러스터 환경에서도 성능 저하 없이 적용된다. 높은 수준의 안정성을 요구하는 애플리케이션을 위해서는 다이아몬드 등급 가용성이 새롭게 도입되었다. 오라클 분산형 AI 데이터베이스와 오라클 골든게이트(Oracle GoldenGate)를 통해 구현되는 이 등급은 재해 복구 시간을 3초 미만으로 단축한다. 오라클의 후안 로이자 기술 부문 총괄 부사장은 “양자 컴퓨팅과 AI 기반 데이터 침해 등 새로운 보안 위협에 대응하기 위한 기능도 함께 도입했다”고 밝혔다. 현재 전 세계 주요 기업과 정부 기관에서 널리 쓰이는 골드 등급 가용성도 플래티넘 등급으로 자동 업그레이드된다. 이를 통해 고객은 추가 비용 없이 리전 간 장애 복구 시 30초 미만의 복구 시간을 보장받을 수 있다. 플래티넘 등급은 무중단 소프트웨어 업데이트를 지원하고, 암호화 데이터의 원격 전송 속도를 기존 대비 최대 9배까지 높였다. 또한 오라클 트루 캐시(Oracle True Cache)를 활용해 쿼리 응답 속도를 최대 10배, 읽기 성능을 2배 향상할 수 있다. 다이아몬드 등급은 실시간 카드 결제 처리처럼 고도의 가용성이 필요한 환경에 최적화되었다. 데이터센터나 리전 간의 논리적 복제를 활용해 장애를 신속하게 감지하며, 액티브–액티브 분산 클러스터 구조를 통해 사용자 인지 수준에서 서비스 중단 없는 운영을 지원한다. 보안 측면에서는 에이전틱 AI 도입에 따른 데이터 노출 위험을 줄이는 딥 데이터 보안 기능이 추가되었다. 사용자 아이디와 역할에 따라 데이터베이스 내에서 세분화된 접근 권한을 제어하며, AI 에이전트가 타인의 데이터를 볼 수 없도록 차단한다. 또한 미래의 양자 컴퓨팅 위협에 대비해 포스트 양자 암호 기술을 적용했다. 이는 양자 내성 하이브리드 키 교환과 256비트 데이터 암호화를 통해 미래에 발생할 수 있는 데이터 해독 위험을 선제적으로 방어한다. 랜섬웨어 대응을 위한 데이터 무손실 복구 기능도 강화되었다. 실시간 트랜잭션 보호를 통해 데이터 손실을 사실상 없앴으며, 기존 제품보다 최대 5배 빠른 복구 성능을 제공한다. 가상 에어갭 기능과 불변 백업 정책을 통해 데이터 보안의 안정성을 한층 높였다.
작성일 : 2026-04-14
매스웍스, ‘에지 AI 파운데이션’ 합류로 임베디드 AI 기술 혁신 가속화
매스웍스가 에지 디바이스용 에너지 효율적 AI 기술 발전에 주력하는 비영리 단체인 ‘엣지 AI 파운데이션(EDGE AI FOUNDATION)’에 합류했다고 밝혔다. 매스웍스는 파운데이션의 글로벌 지원 네트워크와 협력해 엔지니어들이 자사 소프트웨어 플랫폼인 매트랩과 시뮬링크를 활용해 AI 모델을 훈련하고 통합할 수 있도록 지원할 계획이다. 이를 통해 임베디드 디바이스 배포는 물론 시스템 수준의 시뮬레이션으로 성능을 검증하는 환경을 제공한다. 매트랩과 시뮬링크는 엔지니어가 AI 모델을 효율적으로 개발하고 배포할 수 있는 임베디드 AI 엔드 투 엔드 워크플로를 갖추고 있다. 주요 기능으로는 배포 전 동작을 검증하는 시스템 수준 시뮬레이션과 동일한 시뮬링크 모델에서 최적화된 C/C++, CUDA, HDL 코드를 다양한 환경에 배포하는 기능이 꼽힌다. 또한 리소스가 제한된 디바이스를 위한 압축 기술을 제공하며 안전 및 임무 필수 시스템을 위한 검증과 확인 과정을 지원한다. 매트랩 외에도 파이토치, 텐서플로, ONNX, XGBoost 등 다양한 AI 프레임워크와의 통합이 가능하며 전문 지식 없이도 AI 모델을 훈련할 수 있는 로우코드 기반 앱도 지원한다는 것이 매스웍스의 설명이다. 매스웍스 소프트웨어는 현재 다양한 산업 분야에서 임베디드 AI 애플리케이션의 설계와 테스트에 활용되고 있다. 자동차 분야에서는 매트랩과 시뮬링크로 배터리 충전 상태나 모터 온도를 추정하는 가상 센서를 생성해 마이크로컨트롤러에 배포함으로써 실시간 성능을 구현한다. 항공우주 분야에서는 비행 안전 필수 시스템의 엄격한 지연 시간과 안전 요구사항을 충족하기 위해 FPGA에 배포 가능한 이상 감지 및 예측 유지보수 알고리즘을 개발하는 데 쓰인다. 산업 자동화 분야에서는 시각적 검사용 결함 감지 알고리즘을 개발하고 이를 임베디드 GPU에 배포해 고속·고정밀 품질 관리를 실현하고 있다. 엣지 AI 파운데이션의 피트 버나드 전무이사는 “매스웍스의 합류는 에지 AI를 보다 쉽게 접근할 수 있도록 하려는 우리의 공통된 사명을 강화해 준다”면서, “엔지니어드 시스템을 위한 임베디드 AI 분야의 선도 기업인 매스웍스가 보유한 AI 모델 통합과 시스템 수준 시뮬레이션 역량은 커뮤니티에 소중한 자산이 될 것”이라고 밝혔다. 매스웍스의 루카스 가르시아 AI 부문 제품 매니저는 “이번 합류는 엔지니어와 과학자들이 AI와 머신러닝, 에지 컴퓨팅 분야에서 혁신을 이룰 수 있도록 지원하려는 의지를 확장하는 행보”라고 설명했다. 이어 “개발팀이 매트랩과 파이토치로 개발한 AI 모델을 전체 시스템 수준에서 검증하고 제한된 연산 및 메모리 제약 조건에 맞게 최적화해 다양한 하드웨어에 배포할 수 있다”고 전했다. 매스웍스는 파운데이션 및 회원사들과 함께 실제 문제를 해결하는 신뢰할 수 있는 AI 설루션 확산을 가속화할 것으로 기대하고 있다.
작성일 : 2026-04-13
인텔–구글, 차세대 AI 및 클라우드 인프라 협력 확대
인텔과 구글은 차세대 AI와 클라우드 인프라 발전을 위해 다년간 협력하기로 했다. 양사는 이번 협력을 통해 최신 이기종 AI 시스템을 대규모로 구현하는 과정에서 중앙처리장치(CPU)와 주문형 인프라 처리 장치(IPU)의 역할을 강화한다는 계획이다. 최근 인공지능 도입이 빨라지면서 인프라는 더욱 복잡한 이기종 구조로 변하고 있다. 이에 따라 데이터 처리와 시스템 성능을 관리하기 위한 CPU 의존도가 높아지는 추세다. 인텔과 구글은 인텔 제온 프로세서의 여러 세대에 걸쳐 협력하며 구글의 글로벌 인프라 전반에서 성능과 에너지 효율, 총 소유 비용을 개선할 예정이다. 구글 클라우드는 최신 인텔 제온 6 프로세서를 탑재한 C4와 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스에 인텔 제온 프로세서를 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론과 범용 컴퓨팅까지 넓은 범위의 워크로드를 지원한다. 동시에 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU의 공동 개발을 확대하고 있다. 프로그래밍이 가능한 이 가속기는 호스트 CPU가 맡던 네트워킹, 스토리지, 보안 기능을 분담한다. 이를 통해 자원 활용도를 높이고 효율성을 개선하며 하이퍼스케일 AI 환경에서 더욱 예측 가능한 성능을 구현할 수 있다. IPU는 최신 데이터 센터 아키텍처의 핵심 요소로 꼽힌다. 기존 CPU가 담당하던 인프라 작업을 처리해 효율적인 컴퓨팅 성능을 제공하기 때문이다. 클라우드 서비스 제공업체는 이를 활용해 시스템 복잡성을 높이지 않고도 인프라를 확장할 수 있다. 제온 CPU와 IPU는 긴밀하게 통합된 플랫폼을 구성해 범용 컴퓨팅과 특정 목적에 특화된 가속 기능을 균형 있게 제공한다. 이번 협력 확대는 AI 시대에 필요한 개방적이고 확장 가능한 인프라를 발전시키려는 양사의 노력을 담고 있다. 인텔과 구글은 범용 컴퓨팅과 AI 시스템 설계에 특화된 가속 기능을 결합해 복잡성을 줄이고 효율적인 확장이 가능한 AI 시스템 설계 방식을 구현해 나갈 계획이다. 인텔의 립 부 탄 CEO는 “AI는 인프라 구축과 확장 방식을 재편하고 있다”면서, “AI 확장을 위해서는 가속기 이상의 균형 잡힌 시스템이 필수이며 CPU와 IPU는 최신 AI 워크로드가 요구하는 성능과 유연성을 제공하는 핵심 역할을 한다”고 설명했다. 구글 AI 인프라 부문의 아민 바흐다트 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습부터 배포까지 AI 시스템의 핵심 요소로 남아 있다”면서, “인텔은 20년 가까이 신뢰해 온 파트너로 인텔의 제온 로드맵을 통해 워크로드의 성능과 효율 요구 사항을 지속적으로 충족할 수 있을 것으로 확신한다”고 전했다.
작성일 : 2026-04-10
HPE, 엔비디아와 손잡고 차세대 AI 팩토리 및 슈퍼컴퓨팅 혁신 가속화
HPE가 대규모 AI 팩토리와 슈퍼컴퓨터를 위한 'HPE 기반 엔비디아 AI 컴퓨팅 포트폴리오'의 주요 혁신 사항을 발표했다. 이번 발표는 고객이 AI를 더 효율적으로 확장하고 배포하며, 데이터에서 인사이트를 도출하는 시간을 단축하는 데 중점이다. HPE는 엔비디아와 협력해 구축한 이번 풀스택 AI 설루션이 컴퓨팅, GPU, 네트워킹, 액체 냉각, 소프트웨어 및 서비스를 긴밀하게 통합해 대규모 환경과 국가별 소버린 환경에 최적화했다고 밝혔다. 현재 아르곤 국립 연구소, 독일 슈투트가르트 고성능 컴퓨팅 센터, 허드슨 리버 트레이딩, 한국과학기술정보연구원 등 세계적인 연구 기관과 AI 기업들이 HPE의 인프라를 채택해 혁신을 가속하고 있다. HPE는 자사의 슈퍼컴퓨팅 플랫폼인 ‘HPE 크레이 슈퍼컴퓨팅 GX5000’에 엔비디아의 최신 설루션을 적용한다. 먼저 액체 냉각 방식의 ‘엔비디아 베라 CPU 컴퓨트 블레이드’를 도입한다. 각 ‘HPE 크레이 슈퍼컴퓨팅 GX240 컴퓨트 블레이드’는 최대 16개의 엔비디아 베라 CPU를 탑재해 까다로운 AI 워크로드를 지원한다. 이는 랙 하나 당 최대 40개의 블레이드와 640개의 CPU, 5만 6320개의 엔비디아 올림푸스 코어를 확장할 수 있다. 또한 엔비디아 퀀텀-X800 인피니밴드를 통해 초고속 네트워킹 환경을 제공한다. 이 스위치는 포트당 800Gb/s의 연결성을 지원하며 높은 전력 효율을 갖춘 것이 특징이다.     대규모 및 소버린 환경을 위한 ‘HPE AI 팩토리’ 포트폴리오도 강화한다. HPE는 1조 개 이상의 매개변수를 가진 거대 모델을 위해 설계된 차세대 시스템 ‘HPE 기반 엔비디아 베라 루빈 NVL72’ 랙 스케일 시스템을 선보인다. 이 시스템은 36개의 CPU와 72개의 루빈 GPU, 6세대 NV링크 네트워킹 등을 탑재해 대규모 환경에서 높은 효율을 낸다. 이와 함께 새로운 AI 서버인 ‘HPE 컴퓨트 XD700’도 출시한다. 엔비디아 HGX 루빈 NVL8을 기반으로 한 이 서버는 랙당 최대 128개의 루빈 GPU를 지원하며, 이전 세대보다 두 배 향상된 GPU 집적도를 통해 전력과 냉각 비용을 절감한다. 이외에도 모든 HPE AI 팩토리 포트폴리오에서 ‘엔비디아 RTX PRO 6000 블랙웰 서버 에디션’ GPU를 사용할 수 있게 된다. 소프트웨어와 서비스 측면에서는 엔비디아 클라우드 파트너 프로그램 인증을 획득해 클라우드 서비스 제공사의 검증 프로세스를 간소화한다. 수세 가상화 및 랜처 프라임 스위트를 통한 멀티 테넌시 옵션도 확장해 가상머신용 GPU 패스스루 등을 지원한다. 레드햇 엔터프라이즈 리눅스 및 오픈시프트와의 통합은 물론, AI 팩토리의 운영과 확장을 돕는 ‘엔비디아 미션 컨트롤’ 소프트웨어도 제공할 예정이다. HPE의 트리시 담크로거 수석부사장은 “세계 최고 성능의 엑사스케일 슈퍼컴퓨터 3대를 구축한 HPE는 최첨단 AI 워크로드와 고성능컴퓨팅을 결합해 과학적 혁신을 주도하고 있다”면서, “엔비디아와 협력해 의학, 생명과학, 제조 등 다양한 분야에서 한계를 뛰어넘는 데 필요한 성능을 제공하겠다”고 밝혔다. 엔비디아의 크리스 매리어트 부사장은 “기업과 국가가 AI의 잠재력을 실현하려면 대규모 모델 학습과 고성능컴퓨팅 워크로드를 처리할 인프라가 필수”라면서, “양사가 공동 개발한 인프라는 가속 컴퓨팅과 액체 냉각 기술을 결합해 인사이트 도출 시간을 단축한다”고 설명했다.
작성일 : 2026-04-06
지멘스–엔비디아, “수조 단위 AI 칩 검증 며칠 만에 끝낸다”
지멘스 디지털 인더스트리 소프트웨어는 엔비디아와 협력하여 반도체 설계 효율을 높이는 검증 기술을 제공한다고 밝혔다. 양사는 지멘스의 하드웨어 가속 검증 시스템인 벨로체(Veloce) proFPGA CS와 엔비디아의 성능 최적화 칩 아키텍처를 결합했다. 이를 통해 반도체 설계자와 시스템 아키텍트는 실제 칩을 양산하기 전 단계에서 수조 단위의 검증 사이클을 며칠 만에 실행하고 결과를 확인할 수 있다. 이번 협력은 인공지능과 머신러닝 시스템온칩 개발의 신뢰성을 높이고 속도를 앞당기기 위해 진행했다. 엔비디아 팀은 실제 실리콘 테이프아웃 이전에 대규모 워크로드를 실행하며 설계를 최적화할 수 있게 되었다. 지멘스는 벨로체 proFPGA CS가 유연한 하드웨어 구조와 직관적인 소프트웨어 흐름을 갖추고 있어 단일 IP 검증부터 수십억 게이트 규모의 칩렛 설계까지 폭넓게 지원한다고 설명했다. FPGA 기반 프로토타입 시스템은 시뮬레이션이나 에뮬레이션 방식보다 빠른 처리 속도를 제공하는 것이 특징이다. 최근 인공지능 설계는 칩과 소프트웨어의 복잡성이 커지면서 더 높은 성능의 검증 역량을 요구하고 있다. 기존 검증 도구는 현실적인 시간 내에 수백만에서 수십억 사이클을 처리하는 데 그쳤으나, 지멘스와 엔비디아의 기술을 활용하면 단시간에 수조 개의 설계 사이클을 실행할 수 있어 시장 출시 일정을 맞추기가 수월해진다. 지멘스에 따르면 벨로체 시스템은 고객이 설계 규모에 상관없이 최적의 설루션을 활용하도록 돕는다. 지멘스 디지털 인더스트리 소프트웨어의 장 마리 브루네 수석 부사장은 “고도로 복잡한 인공지능 및 머신러닝 칩이 요구하는 검증 요건에 대응하기 위해 하드웨어 가속 검증과 프로토타이핑 기술 발전에 주력하고 있다”고 말했다.  엔비디아의 나렌드라 콘다 부사장은 “컴퓨팅 아키텍처가 복잡해지면서 대규모 워크로드 검증과 빠른 시장 출시를 위한 고성능 설루션이 중요해졌다”고 밝혔다. 또한 엔비디아와 지멘스의 기술 통합으로 설계자가 차세대 인공지능의 신뢰성을 확보하는 데 필요한 확장성을 갖추게 되었다고 덧붙였다.
작성일 : 2026-04-06
[엔지니어링 소프트웨어 업계 신년 인터뷰] PTC코리아 김도균 대표
제조 AI와 소프트웨어 파워에 관심높아… AI 투자로 초격차 이끌 것   지난해 국내 제조 산업은 하드웨어 중심에서 소프트웨어 중심(SDx)으로의 급격한 체질 개선과 AI 도입이라는 거대한 파도와 마주했다. 지난해 4월 PTC코리아에 합류한 김도균 대표에게 PTC가 그리는 ‘인텔리전트 제품 라이프사이클’의 비전과 2026년 사업 전략에 대해 들어보았다. ■ 최경화 국장     클라우드 및 보안 전문가로서 제조 IT 기업인 PTC에 합류하게 된 배경과 지난해의 소회가 궁금하다. 지난해 4월 PTC코리아 대표로 부임했으니 곧 1년이 되어간다. PTC코리아 합류 이전에는 클라우드플레어, 아카마이 등에서 클라우드와 보안, AI 인프라 사업을 주로 이끌었다. 당시 에지 서버나 AI 추론 영역을 다루며 AI 시대에는 결국 제조 현장이 가장 크게 변할 것이라는 확신을 갖게 되었다. PTC는 제조 엔지니어링 분야의 전통 강자이면서도, 최근 제조 AI와 소프트웨어 역량 강화에 적극적인 기업이다. 지난해는 PTC코리아 조직을 재정비하고, 하드웨어 제조 중심이었던 국내 고객들에게 소프트웨어와 하드웨어의 융합 필요성을 설파하며 새로운 성장의 발판을 마련한 해였다.   지난해 PTC 비즈니스에서 가장 두드러진 변화나 성과는? 가장 큰 변화는 ALM(애플리케이션 수명주기 관리) 설루션인 코드비머(Codebeamer)의 약진이다. 과거 제조 시장이 하드웨어 설계에 집중했다면, 지난해에는 자동차 산업을 필두로 소프트웨어 정의 차량(SDV) 트렌드가 확산되면서 하드웨어와 소프트웨어를 통합 관리해야 하는 수요가 빠르게 확대됐다. 소프트웨어 요구사항 정의부터 코딩, 테스트, 배포까지 관리하는 ALM은 이제 선택이 아닌 필수가 되었다. 특히 대기업을 중심으로 복잡한 요구사항을 중복 없이 관리하고 개발 비용을 절감하기 위해 코드비머를 도입하는 사례가 크게 늘었다. 이를 통해 PTC는 제조 소프트웨어 영역에서의 혁신 파트너로 존재감을 확대했다.   PTC의 전통적인 주력 분야인 CAD와 PLM, 기타 관련 비즈니스는 어떤지? 매출 비중으로 보면 여전히 CAD(크레오)와 PLM(윈칠)이 가장 큰 축을 담당하며 견고하게 성장하고 있다. 특히 PLM은 단순히 설계 데이터를 저장하는 PDM(제품 데이터 관리) 수준을 넘어, 전사적 데이터 관리의 핵심으로 진화했다. 반면 IoT(사물인터넷) 사업은 전략적인 변화가 있었다. 최근 자산운용사 TPG에 IoT 사업 부문을 매각하고 파트너십 형태로 전환하는 절차를 밟고 있다. 이는 PTC가 IoT 사업을 포기하는 것이 아니라, 핵심 역량인 CAD, PLM, ALM, SLM(서비스 수명주기 관리) 등 4대 핵심 설루션에 투자를 집중하고, IoT는 전문 파트너사를 통해 더 고도화된 지원을 제공하기 위함이다. ‘선택과 집중’ 전략을 통해 핵심 설루션을 강화해 나간다는 계획이다.   클라우드 네이티브 CAD인 온쉐이프와 기존 주력 제품인 크레오의 포지셔닝은 어떻게 가져갈 계획인지? 두 제품의 역할은 명확히 구분된다. 크레오(Creo)는 자동차 엔진이나 복잡한 설비처럼 고도의 정밀함과 대용량 데이터 처리가 필요한 작업에 최적화되어 있다. 물론 크레오도 ‘크레오 플러스(Creo+)’라는 클라우드 버전을 통해 협업 기능을 강화하고 있다. 반면, 온쉐이프(Onshape)는 SaaS PLM이라고 할 수 있는 아레나(Arena)와 함께 100% 클라우드 네이티브(SaaS) 제품이다. 설치 없이 웹 브라우저에서 바로 구동되기 때문에, 스타트업이나 로봇 개발처럼 빠른 속도와 협업이 중요한 제품 개발 분야에서 각광받고 있다. 실제로 지난 CES 2026에서 로봇을 출품한 기업들이 온쉐이프로 설계를 했다고 해서 놀라기도 했다. 제조 현장에서 클라우드 SaaS 환경에 대한 거부감이 생각보다 많이 사라졌음을 체감하고 있다.   엔지니어링 분야에서도 AI 도입이 화두다. PTC의 AI 전략은 타사와 무엇이 다른가? 많은 기업이 AI를 표방하지만 단순히 챗봇 형태의 요약 기능에 그치는 경우가 많다. PTC가 추구하는 AI는 ‘실질적인 엔지니어링 AI’다. 예를 들어, PLM 내에서 AI가 수만 가지 부품을 분석해 중복 부품을 찾아내고, 대체 가능한 표준 부품을 제안해 원가를 절감해준다. 또한, AI 에이전트(agent) 기술을 통해 서로 다른 시스템 간에 데이터를 주고받으며 자율적으로 업무를 수행하는 단계까지 로드맵을 가지고 있다. 설계자가 자연어로 명령하면 최적의 형상을 모델링해주는 생성형 설계(generative design)나, ALM에서 요구사항의 오류를 AI가 자동으로 검증하는 기능 등은 이미 제품에 탑재되어 현장에서 쓰이고 있다.   최근 새롭게 인수한 회사 및 이 인수가 PTC 비즈니스에 가져오는 변화를 소개한다면? 가장 핵심적인 인수는 제품 및 소프트웨어 변형(variant) 관리 설루션 기업인 퓨어시스템즈(Pure-systems)다. 이 회사의 주력 설루션인 퓨어 베리언츠(Pure Variants)는 복잡한 제조 환경에서 필수적인 PLE(Product Line Engineering : 제품 라인 엔지니어링) 기능을 제공한다. 쉽게 설명하자면, 자동차나 가전제품을 만들 때 수만 가지의 파생 모델이 존재한다. 과거에는 모델마다 설계를 따로 관리했다면, 이제는 공통된 소프트웨어와 하드웨어 자산을 플랫폼화하고, 각기 다른 고객의 요구사항이나 옵션에 맞춰 변형된 부분만 효율적으로 관리해야 한다. 퓨어시스템즈 인수를 통해 PTC는 급성장하는 ALM 설루션 코드비머에 강력한 변형 관리 기능을 통합하게 되었다. 이를 통해 SDV 전환이 시급한 자동차 산업이나 규제가 까다로운 의료기기, 항공우주 분야에서 제품의 소프트웨어 구성부터 테스트, 검증까지 전 과정을 하나의 시스템으로 추적하고 관리할 수 있게 되었다. 이는 PTC가 단순히 설계 툴을 파는 회사가 아니라, 제조 소프트웨어의 복잡성을 해결해 주는 파트너로 차별화된 경쟁력을 확보하는데 기여할 것으로 기대하고 있다.   최근 엔비디아와의 파트너십 강화가 눈에 띈다. 어떤 시너지를 기대하는지? 엔비디아와의 협력은 옴니버스(Omniverse) 기술 통합이 핵심이다. PTC의 설계 데이터(CAD/PLM)를 별도의 변환 없이 실시간으로 시뮬레이션하고 시각화할 수 있는 환경을 구축했다. 이는 디지털 트윈을 넘어선 개념으로, 엔비디아 역시 자체 공장과 제품 설계에 PTC 설루션을 사용하고 있을 만큼 양사의 관계는 끈끈하다. 이 협력을 통해 고객들은 고성능 AI 인프라나 복잡한 제품을 설계할 때 향상된 속도와 정확성을 경험하게 될 것이다.   제조업계는 보안 이슈로 인해 클라우드 도입에 보수적인 것으로 알려져 있다. 최근의 분위기는 어떤지? 확실히 분위기가 달라졌다. 결국 AI는 ‘데이터 싸움’이다. 데이터를 한곳에 모으고 잘 저장해둬야 AI를 제대로 활용할 수 있는데, 이를 위한 가장 효율적인 기반이 바로 클라우드이기 때문이다. 과거에는 클라우드 전환을 꺼리던 대형 제조사들도 이제는 AI 도입을 전제로 클라우드 마이그레이션을 굉장히 활발하게 검토하고 있다. 물론 모든 시스템을 한 번에 클라우드로 옮길 수는 없다. 그래서 PTC는 고객 상황에 맞춰 하이브리드 접근을 제안하거나, 단계적인 클라우드 설루션을 제공하고 있다.   올해 PTC코리아가 주목하고 있는 시장이나 기술 이슈는 무엇인가? 올해는 방산과 의료기기 분야를 집중 공략할 계획이다. 글로벌 시장에서는 이미 록히드 마틴 같은 거대 방산 기업이 PTC 설루션을 표준으로 사용하고 있다. 최근 ‘K-방산’의 위상이 높아진 만큼, 국내 방산 기업들의 디지털 혁신을 적극 지원하고자 한다. 헬스케어 분야 역시 웨어러블 기기나 정밀 의료기기 설계 수요가 늘어나며 큰 기회가 되고 있다. 또한, 지역적으로는 부산, 경남 지역 등을 지원하기 위한 영남 지사 개소를 준비 중이다. 경남권의 거대 제조 벨트를 밀착 지원하기 위해 다시 영남권 거점을 마련하여 고객 접근성을 높일 예정이다.   올해 PTC코리아의 비즈니스 목표와 포부에 대해 소개한다면? 최근 5년간 매년 두 자릿수 성장을 이어왔는데, 올해도 높은 성장을 기대하고 있다. AI 기능이 탑재된 신제품에 대한 시장 반응 또한 긍정적으로, 지난 12월 진행한 행사에서도 예상을 뛰어넘는 고객들이 몰렸다. 2026년에는 이러한 성과를 바탕으로 클라우드 및 구독형 엔지니어링 소프트웨어 전환을 본격 가속화할 계획이다. 내부적으로는 영업, 기술, 마케팅 인력을 확충하고 파트너 생태계를 강화하여 고객들이 PTC의 기술을 더 쉽고 깊이 있게 활용할 수 있도록 지원할 것이다. 단순한 설루션 공급사를 넘어 대한민국 제조업의 지능형 혁신을 이끄는 동반자가 되겠다.     ■ '2025 국내 엔지니어링 소프트웨어 시장조사'에서 더 많은 내용이 제공됩니다.
작성일 : 2026-04-06
레노버, 산업 현장 AI 혁신 돕는 차세대 씽크엣지 설루션 2종 출시
한국레노버가 국내 산업 환경에 맞춘 인공지능(AI) 기반 컴퓨팅 설루션 ‘씽크엣지(ThinkEdge)’ 2종을 새로 내놓았다. 최근 기업들이 운영 효율을 높이고 데이터 지연 시간을 줄이기 위해 현장에서 직접 인텔리전스를 활용함에 따라 에지 컴퓨팅은 장치와 인프라, 클라우드를 잇는 핵심 기술로 주목받고 있다. 특히 기존 PC나 서버를 설치하기 힘든 열악한 환경에서도 안정적으로 작동하는 산업용 에지 시스템에 대한 수요가 늘고 있다. 이번에 출시한 제품은 씽크엣지 SE30n 2세대와 씽크엣지 SE60n 2세대다. 두 제품은 냉각 팬이 없는 팬리스 구조로 설계했으며, 작동 온도 범위가 넓어 산업 현장에서도 안정적으로 사용할 수 있다. 클라우드 의존도를 낮춘 온디바이스 AI를 적용해 데이터 처리 속도를 높였으며 분산형 아키텍처를 통해 다양한 환경에 유연하게 대응한다. 씽크엣지 SE30n 2세대는 인텔 코어 프로세서를 탑재한 0.8리터 크기의 초소형 에지 설루션이다. 초당 최대 26조 번 연산이 가능한 26 TOPS의 AI 가속 성능을 갖췄으며 데이터가 발생하는 현장에서 즉각적인 분석과 처리를 수행한다. 48GB DDR5 메모리와 이중 저장 구조를 채택해 연산 능력과 저장 효율을 높인 것이 특징이다. 0도에서 50도 사이 온도에서 작동하며 먼지 방수 등급인 IP50을 획득했다. 다양한 장착 방식을 지원해 공간이 좁은 곳에도 설치가 가능하며 4G와 5G 등 무선 네트워크 연결 기능도 제공한다.   ▲ 씽크엣지 SE30n 2세대   고성능 모델인 씽크엣지 SE60n 2세대는 다중 카메라 비전과 자동화 공정 등 복잡한 작업을 처리하는 데 적합하다. 인텔 코어 울트라 프로세서와 전용 신경망처리장치(NPU)를 통해 최대 97 TOPS의 AI 연산 성능을 구현한다. 이를 통해 제품 결함 감지나 자율 로봇 운영과 같은 고난도 업무를 지원한다. 영하 20도부터 영상 60도까지 견디는 내구성을 갖췄으며 네트워크 장애 발생 시 자동으로 연결을 전환하는 기능을 넣어 운영 중단 시간을 최소화했다. 두 제품은 보안 칩인 TPM 2.0과 시스템 상태를 감시하는 워치독 타이머를 탑재해 안정성을 강화했다. 또한 전용 관리 서비스를 통해 소프트웨어와 펌웨어 업데이트를 중앙에서 통합 관리할 수 있다. 한국레노버 신규식 대표는 “산업 전반에 AI가 확산되면서 현장에서 실시간으로 정보를 분석하고 의사결정을 내리는 에지 컴퓨팅의 역할이 중요해졌다”고 설명했다. 이어 “이번 신제품은 제조와 물류 등 다양한 분야에서 운영 효율을 혁신할 수 있는 도구가 될 것”이라며, “앞으로도 기업이 데이터를 실시간 통찰력으로 전환할 수 있도록 지원할 계획”이라고 밝혔다.
작성일 : 2026-04-06
구글, 용량 대비 성능 높인 오픈 AI 모델 ‘젬마 4’ 공개
구글이 지능적인 오픈 AI 모델인 ‘젬마 4(Gemma 4)’를 선보인다. 젬마 4는 고급 추론과 에이전트 기반 워크플로를 위해 특수 설계되었으며, 파라미터당 높은 수준의 지능을 제공하는 것이 특징이다. 구글은 첫 번째 버전을 출시한 이후 개발자들이 젬마를 4억 회 이상 다운로드했으며, 10만 개 이상의 변형 모델로 구성된 젬마버스 생태계를 구축해 왔다고 밝혔다. 젬마 4는 이러한 개발자들의 요구를 반영해 AI의 가능성을 확장하는 방향으로 개발되었다. 구글은 개발자 생태계를 지원하기 위해 젬마 4를 상업적 활용이 가능한 아파치 2.0 라이선스로 제공한다고 밝혔다.  이 모델은 제미나이 3와 동일한 연구 및 기술을 기반으로 한다. 이용자의 하드웨어에서 직접 실행할 수 있는 강력한 성능을 갖췄으며, 개방형 모델과 폐쇄형 툴을 아우르는 조합을 제공한다. 구글은 젬마 4를 네 가지 크기로 제공한다. 효율성을 강조한 E2B(Effective 2B)와 E4B(Effective 4B), 그리고 대형 모델인 26B MoE와 31B Dense로 구성된다. 구글에 따르면 31B 모델은 업계 표준인 아레나 AI 텍스트 리더보드에서 오픈 모델 기준 3위를 기록했으며, 26B 모델은 6위에 올랐다. 젬마 4는 20배 큰 모델보다 우수한 성능을 보이기도 한다. 이러한 성능 향상을 통해 개발자는 적은 하드웨어 자원으로도 높은 수준의 AI 기능을 구현할 수 있다. 특히 에지 컴퓨팅 환경에서는 E2B와 E4B 모델이 온디바이스 활용성을 확장하며 멀티모달 기능과 낮은 지연 시간을 지원한다.   ▲ 4월 1일 기준 Arena.ai 챗 아레나에서 오픈 모델 성능 대비 크기 비교(출처 : 구글)   젬마 4는 안드로이드 기기부터 노트북 GPU, 개발자 워크스테이션까지 다양한 하드웨어에서 효율적으로 실행되고 미세 조정될 수 있도록 설계되었다. 주요 특징으로는 다단계 계획 수립이 가능한 고급 추론 기능과 함수 호출 및 구조화된 JSON 출력을 지원하는 에이전트 기반 워크플로가 꼽힌다. 또한 고성능 오프라인 코드 생성 역량을 갖춰 개인 워크스테이션을 AI 코드 어시스턴트로 활용할 수 있다. 모든 모델은 비디오와 이미지를 기본 처리하며 140개 이상의 언어를 지원한다. 컨텍스트 윈도는 모델 크기에 따라 128K에서 최대 256K까지 제공한다. 하드웨어 환경에 따른 최적화도 이루어졌다. 26B 및 31B 모델은 개인용 컴퓨터에서 오프라인 기반의 높은 지능을 구현한다. 단일 80GB 엔비디아 H100 GPU나 일반 소비자용 GPU에서도 구동이 가능하다. 모바일과 IoT 기기를 위한 E2B 및 E4B 모델은 메모리 사용량과 배터리 소모를 최소화하도록 설계되었다. 픽셀 팀과 퀄컴, 미디어텍 등 하드웨어 파트너와의 협업을 통해 스마트폰과 라즈베리 파이 등에서도 지연 시간 없이 오프라인으로 실행된다. 신뢰성과 안전성 측면에서도 구글의 독점 모델과 동일한 보안 프로토콜이 적용된다. 개발자는 구글 AI 스튜디오나 구글 AI 에지 갤러리에서 젬마 4를 직접 탐색할 수 있으며, 허깅 페이스, 캐글, 올라마 등을 통해 모델 가중치를 다운로드할 수 있다. 구글 클라우드의 버텍스 AI와 클라우드 런 등을 통한 서비스 확장도 가능하며, 엔비디아와 AMD GPU 등 다양한 하드웨어 플랫폼에서 최적화된 성능을 제공한다.
작성일 : 2026-04-03
최적 검색 가속화를 위한 AI 프레딕터
심센터 HEEDS 더 깊게 살펴 보기 (4)   이번 호에서는 심센터 HEEDS(Simcenter HEEDS)의 핵심 최적화 엔진인 SHERPA의 성능을 비약적으로 가속화시키는 AI 시뮬레이션 프레딕터(AI Simulation Predictor) 기술에 대해 자세히 살펴본다. 지난 호에서 다룬 SHERPA의 지능형 탐색 방식에 AI의 예측 통찰력을 결합하여, 어떻게 해석 시간의 병목을 해결하고 검색 효율을 극대화하는지 조명할 예정이다. 이를 통해 고비용 해석 모델에서도 실질적인 리드타임을 단축하고 더 우수한 설계안을 도출해 내는 원리를 알아보고자 한다.   ■ 연재순서 제1회 심센터 HEEDS 커넥트와 MBSE 방법론 제2회 심센터 X MDO의 새로운 HEEDS 제3회 심센터 HEEDS SHERPA의 최적 검색 원리 제4회 최적 검색 가속화를 위한 AI 프레딕터 제5회 심센터 HEEDS 2604 업데이트 제6회 모두를 위한 제너럴 포털과 맞춤 설정 제7회 특별한 워크플로 구성 및 자동화 제8회 다양한 매개변수를 위한 태깅 모드 제9회 복잡한 설정을 한번에, 오토메이션 스크립트 제10회 파이썬 스케줄러와 HEEDS 연동 제11회 심센터 HEEDS 2610 업데이트 제12회 데이터 분석을 위한 HEEDSPy API   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 HEEDS를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR 링크드인 | www.linkedin.com/in/jonghaklee-odumokgol   최적화의 병목, 해석 시간과 비용의 문제 고충실도(High-Fidelity) 해석의 딜레마 현대 엔지니어링 설계의 정점은 전산유체역학(CFD)이나 비선형 구조해석과 같은 고성능 계산 과정을 필수로 한다. 이러한 고충실도 해석은 제품 성능을 가상 공간에서 정밀하게 모사할 수 있게 해 주지만, 치명적인 약점이 있다. 복잡한 모델의 경우 1회 해석에 수 시간에서 수 일이 소요되기도 하며, 수백 번의 반복 계산이 필요한 최적화 과정에서 이는 극복하기 어려운 시간적 병목(bottleneck)이 된다.   MDAO 과정에서 직면하는 실제 문제들 연재의 배경이 되는 다분야 설계 분석 및 최적화(MDAO : Multidisciplinary Design Analysis and Optimization) 환경에서는 다음과 같은 네 가지 핵심 문제에 직면한다. 시뮬레이션 시간 & 계산 비용 : 장기간의 CAE 실행은 컴퓨터 자원의 점유와 라이선스 비용 부담을 가중시킨다. 신뢰성 : 시간 제약으로 인해 충분한 설계안을 검토하지 못하면 결과의 신뢰성이 떨어진다. 지식의 재사용 : 이전 프로젝트의 방대한 시뮬레이션 데이터를 현재 최적화에 제대로 자산화하지 못하는 한계가 있다. 시프트 레프트(shift left) : 제품 개발 초기 단계에서 오류를 발견하지 못하면 이후 단계에서 대규모 수정 비용이 발생한다.   기존 대안 : 전통적 최적화 프로세스와 근사 모델의 한계 해석 시간을 줄이기 위해 전통적인 설계 공간 탐색(design space exploration) 과정에서는 반응표면법(RSM)이나 크리깅(kriging)과 같은 근사 모델(surrogate model)이 널리 사용되어 왔다. 하지만 이러한 전통적인 방식은 프로세스 측면에서의 번거로움과 기술적 모델 구축 측면에서의 한계를 동시에 안고 있다.   그림 1   첫째, 전문가 중심의 복잡한 다단계 프로세스로 인한 고충(pain points)이 크다. 목적 정의부터 모델 단순화, 알고리즘 선택 및 튜닝, 탐색 수행, 결과 해석으로 이어지는 과정은 매우 정교한 전문 지식을 요구하며 다음과 같은 문제를 일으킨다. 모델 단순화의 오류 가능성 : 변수 선별이나 응답면 모델을 수동으로 생성하는 과정은 오류가 개입되기 매우 쉽다.(too error-prone) 알고리즘 선택 및 튜닝의 고비용 구조 : 적절한 검색 알고리즘을 결정하기 위해 수많은 반복 시도가 필요하며, 파플레이션 크기나 변이율 등 세부 매개변수 설정에 고도의 전문성이 요구되어 시간과 비용이 많이 든다.(too costly & too difficult) 제한적인 혁신 : 이러한 난이도 탓에 최적화 기술이 일부 전문가에 의해 매우 한정적인 문제에만 적용되어, 결과적으로 설계 혁신의 폭이 좁아지는 결과를 초래한다. 둘째, 기술적으로 구축된 근사 모델 자체가 가진 결정적인 한계가 존재한다. 초기 데이터 확보의 높은 비용 : 신뢰할 수 있는 모델을 구축하기 위해서는 설계 공간 전체에 걸쳐 상당수의 초기 샘플 해석이 선행되어야 하며, 고성능 CAE 환경에서는 이 초기 샘플링 과정 자체가 막대한 병목이 된다. 정적 구조의 경직성 : 한 번 구축된 모델은 최적화가 진행되는 동안 설계 공간의 특성 변화나 새로운 유망 영역의 발견을 실시간으로 반영하여 스스로 업데이트되지 않는다. 전역적 경향성과 국부적 정밀도의 딜레마 : 전체적인 경향성은 파악하지만 최적해 주변의 미세한 비선형적 거동을 포착하는 데 한계가 있어, 최종 설계안이 실제 해석 결과와 괴리를 보이는 경우가 빈번하다.   그림 2   반면, 심센터 HEEDS는 이러한 복잡한 중간 단계를 ‘Automated Search’ 하나로 통합하여 엔지니어가 본연의 설계 업무인 목적 정의와 결과 분석에만 집중할 수 있는 환경을 제공한다. 이번 호에서 다룰 AI 프레딕터(AI Predictor)는 이 혁신적인 자동 탐색 과정을 한 단계 더 가속하여 기술적 한계를 극복하고 진정한 설계 디스커버리(discovery)를 실현하는 핵심 기술이다.   기술 혁신 : Boosting SHERPA의 정의와 전략적 가치 AI 시뮬레이션 프레딕터란 무엇인가? 심센터 HEEDS의 AI 시뮬레이션 프레딕터는 최적화 검색 과정을 가속시키는 퍼포먼스 부스터(Performance Booster)이다. 단순히 정해진 데이터를 학습하는 것을 넘어, SHERPA 검색 프레임워크 상단에서 작동하는 AI 오버레이(AI Overlay) 기술을 통해 실시간으로 데이터를 학습(on-the-fly)하여 해석이 필요한 위치(DOE)를 지능적으로 선별한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02