• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 에지 컴퓨팅"에 대한 통합 검색 내용이 3,469개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
심센터 HEEDS 2604 업데이트
심센터 HEEDS 더 깊게 살펴 보기 (5)   심센터 HEEDS(Simcenter HEEDS) 2604 릴리스는 설계 파라미터와 시뮬레이션 워크플로를 유기적으로 연결하여 최적의 설계안을 자동으로 도출하는 역할을 더욱 공고히 하기 위해 계산 리소스의 효율적 관리, AI를 활용한 워크플로 가속화, 그리고 다목적 트레이드오프 스터디의 실시간 가시성 확보라는 세 가지 핵심 방향으로 혁신적인 기능을 담았다.이번 릴리스를 통해 복잡성 모델링(model the complexity), 가능성 탐색(explore the possibilities), 속도 향상(go faster), 통합 유지(stay integrated)라는 네 가지 기둥 아래 엔지니어링 시뮬레이션의 새로운 기준을 제시한다.   ■ 연재순서 제1회 심센터 HEEDS 커넥트와 MBSE 방법론 제2회 심센터 X MDO의 새로운 HEEDS 제3회 심센터 HEEDS SHERPA의 최적 검색 원리 제4회 최적 검색 가속화를 위한 AI 프레딕터 제5회 심센터 HEEDS 2604 업데이트 제6회 모두를 위한 제너럴 포털과 맞춤 설정 제7회 특별한 워크플로 구성 및 자동화 제8회 다양한 매개변수를 위한 태깅 모드 제9회 복잡한 설정을 한번에, 오토메이션 스크립트 제10회 파이썬 스케줄러와 HEEDS 연동 제11회 심센터 HEEDS 2610 업데이트 제12회 데이터 분석을 위한 HEEDSPy API   ■ 이종학 지멘스 디지털 인더스트리 소프트웨어에서 심센터 HEEDS를 비롯하여 통합 설루션을 활용한 프로세스 자동화와 데이터 분석, 최적화에 대한 설루션을 담당하고 있다. 근사최적화 기법 연구를 전공하고 다양한 산업군에서 15년간 유한요소해석과 최적화 분야의 기술지원과 컨설팅을 수행하였다. 홈페이지 | www.sw.siemens.com/ko-KR 링크드인 | www.linkedin.com/in/jonghaklee-odumokgol   전산 자원 관리의 재구상 : 새로운 리소스 카탈로그 기존 방식의 한계 엔지니어링 최적화 스터디는 단 한 번의 시뮬레이션으로 끝나는 작업이 아니다. 수십 번에서 수천 번의 반복 해석을 수행해야 하며, 이를 위해서는 로컬 워크스테이션, 사내 HPC 클러스터, 클라우드 컴퓨팅 플랫폼 등 다양한 전산 자원을 조합하여 활용해야 한다. 기존의 HEEDS(히즈)는 이러한 원격 실행 환경을 프로젝트별로 설정해야 했기 때문에, 팀 내의 여러 엔지니어가 동일한 클러스터를 사용하더라도 각자 동일한 설정 과정을 반복해야 하는 비효율이 존재했다. 특히 HPC 클러스터의 경로, 인증 정보, 작업 스케줄러 파라미터를 매번 수동으로 입력해야 하는 번거로움은 첫 번째 설계 최적화를 시작하기도 전에 엔지니어의 시간을 낭비하게 만들었다.   리소스 카탈로그의 등장 심센터 HEEDS 2604는 원격 실행 기능을 새로운 ‘리소스 카탈로그(Resource Catalog)’로 전면 개편하여 이 문제를 근본적으로 해결했다. 리소스 카탈로그는 전산 자원 정보를 프로젝트에 종속된 설정이 아닌, 전사적으로 공유 가능한 독립적 자산으로 관리하는 방식이다. 이제 로컬 머신, 원격 클러스터, 리스케일(Rescale)과 같은 HPC 클라우드 플랫폼, 또는 작업 스케줄러를 사용하는지의 여부와 관계 없이 프로젝트 전체에서 리소스 구성을 더 쉽게 설정하고 재사용할 수 있다.   그림 1. 리소스 카탈로그 설정 환경   그림 2. 작업 수행을 위해 미리 설정된 리소스 선택   주요 기능 및 이점 원클릭 리소스 생성 : 사용자가 리소스 유형을 선택하면, 해당 유형에 적합한 모든 설정 항목이 기본값으로 미리 채워진 상태로 나타난다. 처음 사용하는 엔지니어도 복잡한 설정 파라미터를 일일이 파악할 필요 없이 빠르게 시작할 수 있다. 관리형 카탈로그(Managed Catalogs) : 조직의 IT 관리자 또는 HEEDS 전문가가 심센터 HEEDS 커넥트(Simcenter HEEDS Connect)를 통해 표준 리소스 프로필을 미리 구성하면, 팀의 다른 구성원이 이를 즉시 다운로드하여 사용하거나 로컬 카탈로그로 복사하여 필요에 맞게 조정할 수 있다. 이는 조직 전체가 동일한 리소스 표준을 따르도록 하는 ‘단일 정보 소스(single source of truth)’ 역할을 수행하여 설정 오류와 불일치를 원천적으로 방지한다. 다중 제출 항목(Multiple Submission Items) : 하나의 물리적 서버에서도 PBS, LSF, SLURM, MSHPC, 또는 다이렉트 서브미션(Direct submission) 등 다양한 방식의 작업 스케줄러를 위한 복수의 제출 항목을 생성할 수 있다. 예를 들어, 빠른 소규모 해석을 위한 인터랙티브 대기열과 대규모 최적화를 위한 배치 대기열을 동일한 클러스터에서 각각 별도의 리소스 프로필로 관리할 수 있다. 리소스 구성 확인 기능 : 복잡한 네트워크 환경에서 원격 리소스가 실제로 접근 가능한지, 또는 올바르게 설정되었는지 확인하는 것은 종종 어려운 문제였다. 새로운 ‘Run test now’ 기능을 통해 사용자는 설정 완료 즉시 리소스의 접근 가능성과 동작 상태를 확인할 수 있다. 테스트 결과는 Not tested(미실행), Passed(성공), Error(오류)의 세 가지 상태로 직관적으로 표시되어 문제 발생 시 신속한 보정이 가능하다. 지속적 구성 : 매핑된 로컬 및 원격 드라이브 설정이 모든 프로젝트에 걸쳐 유지되므로, 프로젝트를 새로 만들 때마다 리소스를 재구성할 필요가 없다. 한 번 설정한 리소스 카탈로그는 이후 모든 프로젝트에서 즉시 재사용 가능하다.   비최적화 스터디를 위한 효율적 데이터 및 리소스 운용 디스크 공간의 숨겨진 병목 실험계획법(Design of Experiments : DOE), 강건성(robustness) 분석, 신뢰성(reliability) 분석, 또는 단순히 특정 설계 후보를 일괄 평가하는 ‘Evaluation Only’ 스터디는 최적화 알고리즘이 동반되지 않는 빠른 유형의 설계 탐색이다. 이러한 스터디는 개별 해석이 비교적 짧게 완료되기 때문에, HEEDS는 실행 스택을 가득 채워 최대한 많은 병렬 해석을 동시에 구동하려 한다.   그림 3. 프로세스의 병렬 해석 진행 상황 예시   그런데 여기서 예상치 못한 문제가 발생한다. 해석이 매우 빠르게 완료되기 때문에 각 해석의 임시 작업 디렉토리와 결과 파일이 시스템에 쌓이는 속도도 매우 빠르다. 짧은 시간 안에 수백 개의 해석 폴더가 생성되어 디스크 공간을 순식간에 소진할 수 있으며, 이는 특히 로컬 워크스테이션이나 디스크 할당량이 제한된 HPC 환경에서 심각한 장애 요인이 될 수 있다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-05-06
마이크로소프트, 대규모 소버린 프라이빗 클라우드 인프라 지원 강화
마이크로소프트는 애저 로컬(Azure Local)의 확장성을 강화해 단일 소버린 환경 안에서 서버를 최대 수천 대까지 배포할 수 있는 대규모 클라우드 인프라 환경을 공개했다. 전 세계적으로 디지털 주권과 보안 규제가 강화되면서 데이터 통제권을 유지하면서도 규모를 확장할 수 있는 클라우드 인프라 전략이 중요해지는 추세이다. 이에 따라 주권 환경에서 운영 통제권을 유지하며 대규모 업무를 수용할 수 있는 확장형 인프라의 필요성이 커지고 있다. 마이크로소프트 소버린 프라이빗 클라우드의 기반이 되는 애저 로컬은 조직이 소유한 하드웨어에서 클라우드와 일관성 있는 인프라 환경을 구현한다. 특히 인터넷 연결이 분리된 환경에서도 유연하게 배포할 수 있으며, 보안과 컴플라이언스 설정을 로컬에서 직접 관리하는 운영 제어권을 제공한다. 마이크로소프트는 이를 통해 조직이 데이터 통제권을 유지하는 동시에 산업 현장의 대규모 업무를 로컬 환경에서 실행할 수 있다고 설명했다. 국가 기간 시설이나 규제 산업에서 사용하는 소버린 프라이빗 클라우드(sovereign private cloud)는 대규모 업무를 수용할 수 있는 확장성이 필수이다. 애저 로컬은 별도의 구조 재설계 없이도 단일 소버린 경계 안에서 서버 규모를 수백 대에서 수천 대까지 유연하게 확장하도록 지원한다. 인프라 확장에 따른 운영 연속성을 위해 복원력도 높였다. 애저 로컬은 확장된 장애 도메인과 인프라 풀을 통해 하드웨어 장애가 서비스 중단으로 이어지는 것을 방지한다. 이를 통해 클라우드 연결 환경과 관계없이 핵심 서비스의 안정적인 운영을 돕는다. 데이터가 많이 발생하는 AI(인공지능) 추론과 분석 업무도 자체 인프라에서 수행한다. 고성능 GPU 인프라를 바탕으로 민감한 AI 모델과 데이터를 조직의 직접 통제 아래 보호한다. 접근 관리와 감사 및 컴플라이언스 제어 역시 소버린 경계 안에서 유지된다. 배포 규모가 커지면서 워크로드 배치 옵션도 다양해졌다. 애저 로컬은 대규모 소버린 프라이빗 클라우드 구축부터 분산형 AI 업무까지 지원 범위를 넓혔다. 이를 통해 데이터 집약적이거나 응답 속도가 중요한 애플리케이션을 소버린 경계 내에서 실행할 수 있다. 글로벌 기업과 공공기관의 도입도 이어지고 있다. 미국 통신사 AT&T는 핵심 인프라의 완전한 운영 제어권을 얻기 위해 애저 로컬을 도입했다. 네덜란드 토지 등기소는 국가의 민감한 공공 데이터에 대한 주권 통제 목적으로 이를 활용한다. 이탈리아의 파이버콥 또한 전국 단위의 소버린 클라우드와 AI 서비스를 제공하기 위해 에지 로케이션 전반에 애저 로컬을 구축하고 있다.     애저 로컬은 현재 데이터온, 델 테크놀로지스, 에버퓨어, 히타치 반타라, HPE, 레노버, 넷앱 등 주요 글로벌 파트너사의 컴퓨팅과 엔터프라이즈 스토리지 플랫폼을 통해 이용할 수 있다. 조직은 이를 통해 기존 스토리지 영역 네트워크 투자를 보호하고 소버린 환경에서 컴퓨팅과 스토리지 자원을 독립적으로 확장할 수 있다. 플랫폼 컴퓨팅 기반은 인텔 제온 6 프로세서가 제공한다. 제온 6는 최신 기업 워크로드의 집적도와 성능 요구사항을 충족하도록 설계됐다. 특히 인텔 AMX 기반의 AI 가속 기능은 별도의 특화 인프라 없이 소버린 환경에서 AI 업무를 실행하도록 지원한다. 한편 애저 로컬은 엄격한 데이터 레지던시와 인터넷 연결이 분리된 환경, 규제 대상 업무, 현장에서의 AI 실행 등 다양한 요구사항을 충족하도록 설계됐다. 에지 환경의 단일 노드부터 대규모 데이터센터까지 유연하게 확장할 수 있으며 애저를 통해 일관된 수명 주기 관리를 제공한다. 마이크로소프트의 더글라스 필립스 스페셜라이즈드 클라우드 사장 겸 최고기술책임자는 “애저 로컬과 검증된 컴퓨팅 및 스토리지 플랫폼, 가속 컴퓨팅 플랫폼, 칩셋의 결합은 소버린 인프라 배포를 지원하는 데이터센터 규모의 스택을 제공한다”면서, “이를 통해 데이터와 모델, 실행 과정이 조직의 통제 환경 안에 안전하게 유지될 수 있다”고 밝혔다.
작성일 : 2026-04-30
메타, AWS 그래비톤 대규모 도입으로 에이전트 AI 인프라 강화
아마존웹서비스(AWS)는 메타가 AI 인프라 확장을 위해 AWS의 자체 설계 프로세서인 ‘그래비톤(AWS Graviton)’을 대규모로 도입한다고 밝혔다. 이번 계약을 통해 메타는 수천만 개의 그래비톤 코어를 우선 도입하며, 향후 AI 역량 성장 속도에 맞춰 규모를 유연하게 확대할 예정이다. 양사의 이번 협력은 AI 인프라 구축 방식의 변화를 보여준다. 대규모 모델 학습에는 GPU가 필수이지만 실시간 추론과 코드 생성, 다단계 작업 오케스트레이션 등 CPU 집약적인 워크로드의 수요가 급증하고 있기 때문이다. 메타는 이러한 에이전트 AI 워크로드를 효율적으로 처리하기 위해 그래비톤5를 선택했다. 그래비톤5는 192개의 코어를 탑재했으며 이전 세대보다 5배 넓은 캐시를 갖췄다. 이를 통해 코어 간 통신 지연을 최대 33% 단축하고 데이터 처리 속도를 높였다. 이는 스스로 계획을 세우고 복잡한 과제를 수행하는 자율 시스템인 에이전트 AI 시스템의 핵심 요건을 충족하는 성능이다. 또한 그래비톤은 전용 하드웨어 및 소프트웨어 기반의 AWS 니트로 시스템(AWS Nitro System) 위에 구축됐다. 니트로 시스템은 하드웨어에 직접 접근할 수 있는 베어메탈 인스턴스를 지원하면서도 메타가 성능 손실 없이 자체 가상 머신을 운영할 수 있는 환경을 제공한다. 인스턴스 간 저지연 통신을 지원하는 EFA 기술도 적용되어 대규모 작업을 다수의 프로세서에 분산 처리하는 데 유리하다. 에너지 효율 측면에서도 강점이 있다. 그래비톤5는 3나노미터 공정 기술로 제작되어 이전 세대보다 성능은 최대 25% 향상됐으면서도 높은 에너지 효율을 유지한다. AWS는 칩 설계부터 서버 아키텍처까지 전 과정을 자체적으로 관리하기 때문에 범용 프로세서보다 최적화된 성능을 제공할 수 있다고 강조했다. 아마존의 나페아 브샤라 부사장은 “이번 계약은 단순히 칩에 관한 것이 아니라 전 세계 사용자에게 상황을 이해하고 예측하며 효율적으로 확장되는 AI를 구축할 수 있는 인프라 기반을 제공하는 것”이라고 설명했다. 메타의 산토시 자나단 인프라 책임자는 “컴퓨팅 소스의 다변화는 전략적으로 필수적인 과제”라면서, “그래비톤 확장을 통해 에이전트 AI를 뒷받침하는 워크로드를 성능과 효율 면에서 우리 규모에 걸맞게 실행할 수 있게 됐다”고 말했다.
작성일 : 2026-04-28
“에이전틱 AI가 여는 미래 비전”, AWS 서밋 서울 2026 개최
아마존웹서비스(AWS)는 오는 5월 20일~21일 서울 코엑스에서 AI·클라우드 콘퍼런스인 ‘AWS 서밋 서울 2026’을 개최한다. 올해로 12회를 맞이하는 이번 행사는 정부 부처와 산업계 리더, IT 전문가들이 한자리에 모여 에이전틱 AI를 포함한 최신 클라우드 기술 트렌드와 산업별 실전 사례를 공유할 계획이다. 올해는 AWS가 2006년 아마존 S3를 출시하며 클라우드 시대를 연 지 20주년이 되는 해다. 동시에 2016년 서울 리전을 개소하며 국내에 클라우드 인프라를 직접 제공한 지 10주년이 되는 시점이기도 하다. 인터넷만 연결되어 있다면 누구나 세계 최고 수준의 기술로 혁신할 수 있다는 신념을 바탕으로, AWS는 국내 스타트업과 대기업, 공공 부문의 디지털 전환을 지원하며 한국의 디지털 혁신을 가속화해 왔다. 이번 서밋은 지난 20년의 성과를 돌아보고 에이전틱 AI가 이끌 미래 20년의 비전을 제시하는 자리가 될 전망이다.     이번 행사는 에이전틱 AI가 기업의 실제 업무 현장을 변화시키는 혁신의 구심점이라는 점에 주목한다. 기조연설과 세션, 엑스포를 통해 참가자들에게 실질적인 정보를 제공하며 18개 트랙과 120개 이상의 세션이 마련된다. 60개 이상의 파트너사도 함께 참여한다. 특히 AWS 20주년 기념 특별 부스와 AI 중심의 ‘AWS 포 인더스트리’, ‘피지컬 AI 라운지’ 등을 통해 산업 현장에서 활용되는 AI 설루션을 직접 체험할 수 있다. 행사 첫날인 인더스트리 데이에는 AWS 코리아 함기호 대표가 에이전틱 AI 시대의 고객 혁신 지원 전략을 발표한다. 이어 AWS의 제이슨 베넷 글로벌 스타트업 부문 부사장이 AI 혁신의 미래 전망을 공유한다. 김성훈 업스테이지 대표와 김환 CJ 올리브영 CTO는 무대에 올라 AWS를 활용한 비즈니스 혁신 사례와 성장 통찰력을 나눈다. 오후에는 금융, 리테일, 제조, 헬스케어, 미디어 등 9개 산업별 트랙에서 48개 이상의 세부 세션이 이어진다. 둘째 날인 AI 데이에는 AWS 기술 리더들이 차세대 AI 개발자 경험과 클라우드 설루션을 설명한다. 버너 보겔스 아마존 부사장 겸 CTO를 비롯해 우스만 칼리드 AWS 서버리스 컴퓨팅 디렉터, 안종훈 아모레퍼시픽 전무 등이 기조연설자로 나선다. 신재현 우아한형제들 AWS 히어로와 김민태 AWS 커뮤니티 빌더, 윤석찬 AWS 코리아 수석 테크 에반젤리스트도 참여해 전문적인 견해를 전달하며 오후에는 50개 이상의 기술 세션이 열린다. 엑스포 현장에서는 다양한 에이전틱 AI 기반 설루션을 직접 경험할 수 있다. AWS 포 인더스트리 존에서는 아모레퍼시픽의 ‘뷰티 컨시어지’를 통해 아마존 베드록과 아마존 세이지메이커 기반의 맞춤형 서비스를 선보인다. KBS+A LIVE 부스에서는 AI 영상 편집 및 콘텐츠 분석 설루션을 소개하며, NCAI 부스에서는 사진 한 장으로 에이전틱 AI가 커머스 설루션을 완성하는 과정을 체험할 수 있다. 피지컬 AI 라운지에서는 로아이, 컨피그, 뉴빌리티, 로보티즈가 참여해 에이전틱 AI와 물리 세계의 융합 사례를 보여준다. 디벨로퍼 라운지에서는 차세대 AI 개발 도구인 ‘키로’ 데모를 확인할 수 있으며, AWS 빌리지에서는 5대 핵심 기술 영역의 데모가 운영된다. 스타트업 존에는 인포플라, 프렌들리AI, 모빌린트, 플렉스 등 8개 기업이 참여해 AI 추론 클라우드와 이상 탐지, AI 보안 진단 등 혁신 기술을 시연한다.
작성일 : 2026-04-27
가트너, 2026년 전 세계 IT 지출 전망치 높여… AI 데이터센터가 성장 견인
가트너는 2026년 전 세계 IT 지출 규모가 전년 대비 13.5% 증가한 6조 3165억 달러(약 9343조 원)에 이를 것이라는 전망을 발표했다. 이는 지난 2월에 발표한 전망치를 상향 조정한 것으로, 인공지능(AI) 인프라와 첨단 메모리 수요가 시장의 성장 모멘텀을 가속하고 있는 것으로 분석된다. 특히 AI 워크로드 확대에 따른 데이터센터 투자가 급증하면서 고성능 컴퓨팅 수요가 크게 늘고 있는 것으로 보인다. 가트너의 전망에 따르면 2026년 가장 가파른 성장을 기록할 분야는 데이터센터 시스템이다. 이 부문의 지출은 2025년 약 5056억 달러에서 2026년 약 7880억 달러로 무려 55.8% 급증할 것으로 보인다. 이는 하이퍼스케일러의 서버 투자 확대와 생성형 AI 모델 개발 부문의 성장이 맞물린 결과다. 지출 규모 면에서는 애플리케이션 및 인프라 관리 설루션 등을 포함한 IT 서비스 부문이 1조 8700억 달러를 돌파하며 전체 시장에서 가장 큰 비중을 차지할 전망이다. 가트너의 존 데이비드 러브록 수석 VP 애널리스트는 “강한 수요와 공급 제약으로 인해 고대역폭 메모리(HBM) 가격이 최고 수준으로 상승하고 있다”고 짚었다. 이러한 상황은 반도체 제조업체에 높은 수익성을 제공하는 한편, IT 시장 내의 성장 격차를 벌리는 요소로 작용하고 있다. 실제로 AI 인프라와 소프트웨어 분야는 큰 폭의 상향 조정을 기록했으나, 디바이스 시장은 메모리 가격 상승에 따른 평균 판매 가격 인상으로 인해 교체 수요가 제약받으며 8.2% 성장에 그칠 것으로 예측된다. 소프트웨어 분야 역시 생성형 AI의 영향으로 15.1%의 탄탄한 성장세를 기록하며 1조 4436억 달러 규모에 이를 것으로 보인다. 가트너는 하이퍼스케일 클라우드 수요와 AI 중심의 소프트웨어 부문이 전통적인 카테고리보다 훨씬 빠르게 성장하면서 IT 시장의 다중 속도 구조가 더욱 강화될 것이라고 내다봤다.
작성일 : 2026-04-23
“국내 기업 69%는 PC 구매 시 AI 기능 우선 고려”… 델 보고서 발표
국내 기업들이 AI 도입 실험 단계를 지나 본격적인 실행 단계에 접어들었다는 분석이 나왔다. 델 테크놀로지스는 인텔 및 IDC와 공동 발간한 보고서를 통해 아시아태평양 지역의 AI PC와 워크스테이션 도입 현황을 발표했다. 이번 조사는 2025년 10월 아태 지역 IT 및 비즈니스 의사결정자들을 대상으로 진행했다. 보고서에 따르면 국내 응답 기업의 69%는 PC를 구매할 때 AI 기능을 가장 중요하거나 필수적인 기준으로 꼽았다. 이는 아태 지역 평균인 56%를 웃도는 수치로 아태 지역에서 가장 높은 수준이다. 현재 국내 기업의 AI PC 실제 도입률은 37%로 아태 지역 평균인 48%보다 낮지만, 향후 도입 의지는 강력한 것으로 나타났다. 국내 기업들은 AI PC 도입이 늦어질 경우 발생할 부작용을 경계하고 있다. 응답자의 33%는 도입 지연으로 인해 핵심 인재가 경쟁사로 유출될 수 있다고 우려했다. 운영 비효율 증가와 비용 상승, 시장 주도권 상실에 대한 우려도 아태 지역 평균보다 높게 나타났다. AI PC 파트너를 선정할 때는 보안과 생태계 및 ISV 인증, 총 소유 비용 등을 주요 요소로 고려한다고 밝혔다.     AI PC는 IT 운영과 연구 개발, 고객 서비스 혁신에 기여할 것으로 기대를 받고 있다. 특히 국내 기업은 고객 서비스 분야에서 AI PC의 영향력을 아태 지역 평균보다 11.9%포인트 높은 32%로 예상했다. 이미 AI PC를 도입한 아태 지역 기업들은 일반 PC 사용 시보다 생산성이 30% 향상됐으며, 직원 1명당 하루 평균 2.17시간의 업무 시간을 줄이는 효과를 거둔 것으로 조사됐다. 한편, 워크스테이션은 고성능 AI 작업을 위한 핵심 인프라로 자리 잡고 있다. 아태 지역 응답자의 97%는 AI 및 머신러닝 모델 활용에 필요한 고성능 설루션으로 워크스테이션을 꼽았다. 국내 기업 응답자의 72%는 향후 5년간 워크스테이션 보유 대수가 늘어날 것으로 내다봤다. 현재 국내 기업 절반 이상은 데이터 준비와 모델 미세 조정 등 고난도 작업에 워크스테이션을 활용하고 있다. 델은 AI PC와 워크스테이션이 일상 업무부터 전문 워크로드까지 처리하는 ‘AI 컴퓨팅 연속체’의 중심축 역할을 한다고 진단했다. 한국 델 테크놀로지스의 김경진 총괄사장은 “AI PC와 워크스테이션은 엔터프라이즈 AI의 다음 단계를 열어가는 핵심 플랫폼”이라면서, “업무 현장에 밀착된 AI PC와 고성능 연산을 담당하는 워크스테이션의 상호 보완적인 결합을 통해 기업은 보안을 강화하는 동시에 실질적인 비즈니스 성과를 창출할 수 있을 것”이라고 말했다.
작성일 : 2026-04-23
미니멀 디자인에 성능 더한 올인원 PC, 레노버 AIO A105a 국내 출시
한국레노버가 일상적인 컴퓨팅 환경에 맞춘 올인원 PC 신제품인 ‘AIO A105a’를 선보였다. 이번 신제품은 모니터와 본체, 스피커, 카메라를 하나로 합친 일체형 구조를 채택해 설치 공간을 줄인 것이 특징이다. AIO A105a는 클라우드 그레이 색상의 미니멀한 디자인을 적용했다. 거실이나 서재 등 가정 내 다양한 공간에 어울리도록 설계했으며 재택근무와 온라인 수업, 엔터테인먼트 등 여러 용도로 활용할 수 있다. 성능 면에서는 AMD 라이젠 10 시리즈 프로세서를 탑재했다. 이를 통해 문서 작업과 영상 시청, 화상 회의 등 여러 작업을 동시에 수행하는 멀티태스킹 환경을 지원한다. 메모리는 최대 16GB, 저장 장치는 최대 1TB SSD까지 구성할 수 있어 빠른 부팅과 데이터 처리가 가능하다.     디스플레이는 23.8형 FHD IPS 패널을 장착했다. 3면 슬림 베젤 디자인으로 시각적 몰입감을 높였으며 99% sRGB 색 재현율과 250 니트 밝기로 선명한 화질을 구현한다. 100Hz 주사율을 지원해 화면 전환이 부드럽고 2개의 2W 스피커와 돌비 디지털 플러스 디코더를 갖춰 풍부한 소리를 들려준다. 주변 기기와의 연결성도 고려했다. USB-A와 USB-C, HDMI 등 다양한 입출력 포트를 갖췄으며, 와이파이 6와 블루투스 5.2로 안정적인 무선 연결을 지원한다. 최대 5MP 카메라와 듀얼 마이크를 내장해 별도 장비 없이 화상 회의나 수업에 참여할 수 있다. 제품에는 무선 키보드와 마우스가 기본으로 포함되어 전원선 하나만 연결하면 바로 사용할 수 있는 환경을 제공한다. 사후 관리 서비스도 제공한다. 한국레노버는 1년 무상 온사이트 서비스를 지원하며 전문 엔지니어가 방문해 수리를 진행한다. 현장 수리가 어려우면 서비스 센터 입고부터 수리 후 배송까지 관리한다. 한국레노버 신규식 대표는 “집이 휴식 공간을 넘어 업무와 학습, 엔터테인먼트가 공존하는 다기능 공간으로 바뀌면서 공간과 조화를 이루는 ‘데스크테리어’ PC에 대한 관심이 높다”면서, “미니멀한 디자인과 일상에 최적화된 성능을 갖춘 AIO A105a를 통해 쾌적한 홈 컴퓨팅 환경을 경험하길 바란다”고 말했다.
작성일 : 2026-04-15
오라클 AI 데이터베이스, 미션 크리티컬 환경의 가용성과 보안 기준 강화
오라클이 ‘오라클 AI 데이터베이스(Oracle AI Database)’의 기능을 대폭 강화하는 업데이트를 발표했다. 이번 업데이트는 모든 데이터베이스 애플리케이션의 가용성과 보안을 높이는 데 중점을 두었다. 특히 핵심 업무인 미션 크리티컬 워크로드에 대해 별도의 애플리케이션 변경이나 전문 인력 없이도 증권거래소 수준의 상시 가동 환경을 구현할 수 있도록 지원한다. 오라클에 따르면, 엑사데이터(Exadata)에서 실행되는 오라클 AI 데이터베이스 26ai는 이제 재해 발생 시 복구 시간이 통상 30초 미만으로 이뤄지는 수준의 플래티넘 등급 가용성을 제공한다. 기존 오라클 데이터베이스 19c와 비교하면 최대 4배 빠른 속도이며, 초고처리량 멀티노드 클러스터 환경에서도 성능 저하 없이 적용된다. 높은 수준의 안정성을 요구하는 애플리케이션을 위해서는 다이아몬드 등급 가용성이 새롭게 도입되었다. 오라클 분산형 AI 데이터베이스와 오라클 골든게이트(Oracle GoldenGate)를 통해 구현되는 이 등급은 재해 복구 시간을 3초 미만으로 단축한다. 오라클의 후안 로이자 기술 부문 총괄 부사장은 “양자 컴퓨팅과 AI 기반 데이터 침해 등 새로운 보안 위협에 대응하기 위한 기능도 함께 도입했다”고 밝혔다. 현재 전 세계 주요 기업과 정부 기관에서 널리 쓰이는 골드 등급 가용성도 플래티넘 등급으로 자동 업그레이드된다. 이를 통해 고객은 추가 비용 없이 리전 간 장애 복구 시 30초 미만의 복구 시간을 보장받을 수 있다. 플래티넘 등급은 무중단 소프트웨어 업데이트를 지원하고, 암호화 데이터의 원격 전송 속도를 기존 대비 최대 9배까지 높였다. 또한 오라클 트루 캐시(Oracle True Cache)를 활용해 쿼리 응답 속도를 최대 10배, 읽기 성능을 2배 향상할 수 있다. 다이아몬드 등급은 실시간 카드 결제 처리처럼 고도의 가용성이 필요한 환경에 최적화되었다. 데이터센터나 리전 간의 논리적 복제를 활용해 장애를 신속하게 감지하며, 액티브–액티브 분산 클러스터 구조를 통해 사용자 인지 수준에서 서비스 중단 없는 운영을 지원한다. 보안 측면에서는 에이전틱 AI 도입에 따른 데이터 노출 위험을 줄이는 딥 데이터 보안 기능이 추가되었다. 사용자 아이디와 역할에 따라 데이터베이스 내에서 세분화된 접근 권한을 제어하며, AI 에이전트가 타인의 데이터를 볼 수 없도록 차단한다. 또한 미래의 양자 컴퓨팅 위협에 대비해 포스트 양자 암호 기술을 적용했다. 이는 양자 내성 하이브리드 키 교환과 256비트 데이터 암호화를 통해 미래에 발생할 수 있는 데이터 해독 위험을 선제적으로 방어한다. 랜섬웨어 대응을 위한 데이터 무손실 복구 기능도 강화되었다. 실시간 트랜잭션 보호를 통해 데이터 손실을 사실상 없앴으며, 기존 제품보다 최대 5배 빠른 복구 성능을 제공한다. 가상 에어갭 기능과 불변 백업 정책을 통해 데이터 보안의 안정성을 한층 높였다.
작성일 : 2026-04-14
매스웍스, ‘에지 AI 파운데이션’ 합류로 임베디드 AI 기술 혁신 가속화
매스웍스가 에지 디바이스용 에너지 효율적 AI 기술 발전에 주력하는 비영리 단체인 ‘엣지 AI 파운데이션(EDGE AI FOUNDATION)’에 합류했다고 밝혔다. 매스웍스는 파운데이션의 글로벌 지원 네트워크와 협력해 엔지니어들이 자사 소프트웨어 플랫폼인 매트랩과 시뮬링크를 활용해 AI 모델을 훈련하고 통합할 수 있도록 지원할 계획이다. 이를 통해 임베디드 디바이스 배포는 물론 시스템 수준의 시뮬레이션으로 성능을 검증하는 환경을 제공한다. 매트랩과 시뮬링크는 엔지니어가 AI 모델을 효율적으로 개발하고 배포할 수 있는 임베디드 AI 엔드 투 엔드 워크플로를 갖추고 있다. 주요 기능으로는 배포 전 동작을 검증하는 시스템 수준 시뮬레이션과 동일한 시뮬링크 모델에서 최적화된 C/C++, CUDA, HDL 코드를 다양한 환경에 배포하는 기능이 꼽힌다. 또한 리소스가 제한된 디바이스를 위한 압축 기술을 제공하며 안전 및 임무 필수 시스템을 위한 검증과 확인 과정을 지원한다. 매트랩 외에도 파이토치, 텐서플로, ONNX, XGBoost 등 다양한 AI 프레임워크와의 통합이 가능하며 전문 지식 없이도 AI 모델을 훈련할 수 있는 로우코드 기반 앱도 지원한다는 것이 매스웍스의 설명이다. 매스웍스 소프트웨어는 현재 다양한 산업 분야에서 임베디드 AI 애플리케이션의 설계와 테스트에 활용되고 있다. 자동차 분야에서는 매트랩과 시뮬링크로 배터리 충전 상태나 모터 온도를 추정하는 가상 센서를 생성해 마이크로컨트롤러에 배포함으로써 실시간 성능을 구현한다. 항공우주 분야에서는 비행 안전 필수 시스템의 엄격한 지연 시간과 안전 요구사항을 충족하기 위해 FPGA에 배포 가능한 이상 감지 및 예측 유지보수 알고리즘을 개발하는 데 쓰인다. 산업 자동화 분야에서는 시각적 검사용 결함 감지 알고리즘을 개발하고 이를 임베디드 GPU에 배포해 고속·고정밀 품질 관리를 실현하고 있다. 엣지 AI 파운데이션의 피트 버나드 전무이사는 “매스웍스의 합류는 에지 AI를 보다 쉽게 접근할 수 있도록 하려는 우리의 공통된 사명을 강화해 준다”면서, “엔지니어드 시스템을 위한 임베디드 AI 분야의 선도 기업인 매스웍스가 보유한 AI 모델 통합과 시스템 수준 시뮬레이션 역량은 커뮤니티에 소중한 자산이 될 것”이라고 밝혔다. 매스웍스의 루카스 가르시아 AI 부문 제품 매니저는 “이번 합류는 엔지니어와 과학자들이 AI와 머신러닝, 에지 컴퓨팅 분야에서 혁신을 이룰 수 있도록 지원하려는 의지를 확장하는 행보”라고 설명했다. 이어 “개발팀이 매트랩과 파이토치로 개발한 AI 모델을 전체 시스템 수준에서 검증하고 제한된 연산 및 메모리 제약 조건에 맞게 최적화해 다양한 하드웨어에 배포할 수 있다”고 전했다. 매스웍스는 파운데이션 및 회원사들과 함께 실제 문제를 해결하는 신뢰할 수 있는 AI 설루션 확산을 가속화할 것으로 기대하고 있다.
작성일 : 2026-04-13
인텔–구글, 차세대 AI 및 클라우드 인프라 협력 확대
인텔과 구글은 차세대 AI와 클라우드 인프라 발전을 위해 다년간 협력하기로 했다. 양사는 이번 협력을 통해 최신 이기종 AI 시스템을 대규모로 구현하는 과정에서 중앙처리장치(CPU)와 주문형 인프라 처리 장치(IPU)의 역할을 강화한다는 계획이다. 최근 인공지능 도입이 빨라지면서 인프라는 더욱 복잡한 이기종 구조로 변하고 있다. 이에 따라 데이터 처리와 시스템 성능을 관리하기 위한 CPU 의존도가 높아지는 추세다. 인텔과 구글은 인텔 제온 프로세서의 여러 세대에 걸쳐 협력하며 구글의 글로벌 인프라 전반에서 성능과 에너지 효율, 총 소유 비용을 개선할 예정이다. 구글 클라우드는 최신 인텔 제온 6 프로세서를 탑재한 C4와 N4 인스턴스를 포함해 워크로드에 최적화된 인스턴스에 인텔 제온 프로세서를 도입해 왔다. 이러한 플랫폼은 대규모 AI 학습 조정부터 지연 시간에 민감한 추론과 범용 컴퓨팅까지 넓은 범위의 워크로드를 지원한다. 동시에 인텔과 구글은 주문형 반도체(ASIC) 기반 IPU의 공동 개발을 확대하고 있다. 프로그래밍이 가능한 이 가속기는 호스트 CPU가 맡던 네트워킹, 스토리지, 보안 기능을 분담한다. 이를 통해 자원 활용도를 높이고 효율성을 개선하며 하이퍼스케일 AI 환경에서 더욱 예측 가능한 성능을 구현할 수 있다. IPU는 최신 데이터 센터 아키텍처의 핵심 요소로 꼽힌다. 기존 CPU가 담당하던 인프라 작업을 처리해 효율적인 컴퓨팅 성능을 제공하기 때문이다. 클라우드 서비스 제공업체는 이를 활용해 시스템 복잡성을 높이지 않고도 인프라를 확장할 수 있다. 제온 CPU와 IPU는 긴밀하게 통합된 플랫폼을 구성해 범용 컴퓨팅과 특정 목적에 특화된 가속 기능을 균형 있게 제공한다. 이번 협력 확대는 AI 시대에 필요한 개방적이고 확장 가능한 인프라를 발전시키려는 양사의 노력을 담고 있다. 인텔과 구글은 범용 컴퓨팅과 AI 시스템 설계에 특화된 가속 기능을 결합해 복잡성을 줄이고 효율적인 확장이 가능한 AI 시스템 설계 방식을 구현해 나갈 계획이다. 인텔의 립 부 탄 CEO는 “AI는 인프라 구축과 확장 방식을 재편하고 있다”면서, “AI 확장을 위해서는 가속기 이상의 균형 잡힌 시스템이 필수이며 CPU와 IPU는 최신 AI 워크로드가 요구하는 성능과 유연성을 제공하는 핵심 역할을 한다”고 설명했다. 구글 AI 인프라 부문의 아민 바흐다트 수석 부사장 겸 최고 기술 책임자는 “CPU와 인프라 가속은 학습부터 배포까지 AI 시스템의 핵심 요소로 남아 있다”면서, “인텔은 20년 가까이 신뢰해 온 파트너로 인텔의 제온 로드맵을 통해 워크로드의 성능과 효율 요구 사항을 지속적으로 충족할 수 있을 것으로 확신한다”고 전했다.
작성일 : 2026-04-10