• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "컨테이너"에 대한 통합 검색 내용이 196개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 아크 프로 B-시리즈 GPU 및 제온 6 프로세서의 AI 추론 벤치마크 결과 소개
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.1 벤치마크에서 P코어를 탑재한 인텔 제온(Intel Xeon) 및 인텔 아크 프로 B60(Intel Arc Pro B60) 그래픽으로 구성된 인텔 GPU 시스템(코드명 프로젝트 배틀매트릭스)의 추론용 워크스테이션이 달성한 결과를 공개했다. 6가지 주요 벤치마크 테스트 결과, 라마(Llama)4 80B 모델 추론 처리량에서 인텔 아크 프로 B60은 엔비디아 RTX 프로 6000 및 L40S에 비해 각각 최대 1.25배 및 최대 4배의 가격 대비 성능 우위를 보였다. 인텔은 “이는 하이엔드 워크스테이션 및 에지 애플리케이션 전반에 걸쳐 새로운 AI 추론 워크로드를 처리하는 인텔 기반 플랫폼의 성능과 접근 우수성을 보여주는 결과”라고 평가했다. 인텔의 리사 피어스(Lisa Pearce) 소프트웨어, GPU 및 NPU IP 그룹 총괄은 “MLPerf v5.1 벤치마크 결과는 인텔의 GPU 및 AI 전략을 강력히 입증하고 있다. 새로운 추론 최적화 소프트웨어 스택을 탑재한 아크 프로 B-시리즈 GPU는 기업과 개발자가 강력하면서도 설정하기 쉽고, 합리적인 가격에 확장 가능한 추론 워크스테이션으로 AI 분야에서 경쟁력을 높여준다”고 밝혔다.     이전까지는 높은 추론 성능을 제공하면서 데이터 프라이버시 침해에서 자유로운 플랫폼을 우선시하는 전문가들이 독점적인 AI 모델에 의한 과도한 구독 비용 부담 없이 LLM(대형 언어 모델)을 배포하기에 필요한 역량을 갖추기 위한 선택지가 제한적이었다. 새로운 인텔 GPU 시스템은 최신 AI 추론 요구사항을 충족하도록 설계되었으며, 풀스택 하드웨어와 소프트웨어를 결합한 올인원(all-in-one) 추론 플랫폼을 제공한다. 인텔 GPU 시스템은 리눅스 환경을 위한 새로운 컨테이너 기반 설루션을 통해 간소화된 도입과 사용 편의성을 목표로 한다. 또한 멀티 GPU 스케일링 및 PCle P2P 데이터 전송으로 높은 추론 성능을 발휘하도록 최적화되었으며, ECC, SRIOV, 텔레메트리(telemetry) 및 원격 펌웨어 업데이트 등과 같은 엔터프라이즈급 안전성 및 관리 용이성을 갖추고 있다. CPU는 AI 시스템에서 계속해서 중요한 역할을 수행하고 있다. 오케스트레이션 허브로서 CPU는 데이터 전처리, 전송 및 전반적인 시스템 조율을 담당한다. 지난 4년간 인텔은 CPU 기반 AI 성능을 지속적으로 향상시켜왔다. P 코어를 탑재한 인텔 제온 6는 MLPerf 추론 v5.1에서 이전 세대 대비 1.9배의 성능 향상을 달성했다.
작성일 : 2025-09-10
[온에어] 창의적 디자인의 미래, AI와 3D 프린팅에서 찾는다
캐드앤그래픽스 지식방송 CNG TV 지상 중계   CNG TV는 7월 7일 ‘창의적 디자인, AI와 3D 프린팅으로 만드는 미래’를 주제로 웨비나를 개최했다. 이번 웨비나에서는 홍익대학교 최성권 교수가 사회를 맡고 후스디자인 이광후 대표가 발표자로 참여해, 창의적 디자인이 AI(인공지능)와 3D 프린팅을 통해 어떻게 미래를 만들어가는지 집중 조명했다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲ 3D 프린팅을 통한 아이디어의 실현에 대해 소개한 후스디자인 이광후 대표   디자이너와 창작자가 창의성과 지속 가능성을 동시에 추구하는 시대가 도래했다. 후스디자인 이광후 대표는 AI와 3D 프린팅 기술의 융합을 통해 미래 디자인의 방향을 제시했다. 이광후 대표는 “디자인은 단지 사물을 만드는 일이 아니라, 삶의 방식을 제시하는 문화적 행위”라면서 ▲3D 프린팅을 통한 아이디어 실현, ▲디자인과 사회적 지속 가능성, ▲생성형 AI와 디자이너의 미래라는 세 가지 축을 중심으로 디자인이 나아갈 길을 조망했다.   3D 프린팅으로 구현한 창의적 아이디어 이 대표는 성당 양식의 다이닝 컨테이너, 레고처럼 조합 가능한 가구 시스템, 패놉티콘 개념을 형상화한 조형물 등 다양한 3D 프린팅 기반 프로젝트를 소개했다. 특히 SLS 방식의 프린팅 기술을 활용해 높은 완성도와 구조적 강도를 확보했으며, 프로토타입 제작부터 실제 제품화까지 폭넓은 가능성을 제시했다. 그는 “3D 프린팅은 자유로운 형상 구현과 실험적 시도를 가능하게 해주는 도구”라고 강조했다.   재활용 플라스틱과 지속 가능한 디자인 이 대표는 친환경 소재의 활용도 강조했다. 병뚜껑을 압착해 제작한 재활용 플라스틱 상판은 단순한 기능을 넘어 환경 메시지를 담은 오브제로 구현되었고, 서울시립대 학생들과 함께 진행한 샴푸 브러시 디자인 프로젝트는 다양한 사용자 상황을 반영한 실용적이면서도 유쾌한 제품을 선보였다. 그는 “디자인은 사회와 세대를 연결하는 매개체다. 지속 가능성은 이제 선택이 아닌 필수”라고 말했다.   ▲ 3D 프린팅을 통한 아이디어의 실현에 대해 소개   생성형 AI는 디자이너의 새로운 도구디자인 산업에서 생성형 AI의 등장은 위기이자 기회다. 이 대표는 AI가 반복 작업과 시각 자료 생성에서 유용한 도구가 될 수 있으며, 궁극적으로는 디자이너의 시각적 안목과 감성적 판단을 더욱 강조하게 될 것이라고 설명했다. AI와 3D 프린팅의 결합은 산업디자인의 새로운 가능성을 여는 열쇠로 떠오르고 있다. 이 대표는 데미안 허스트나 제프 쿤스 같은 현대 아티스트의 예를 들며, 디자인과 예술이 완성품보다 ‘과정’과 ‘스토리’에 가치를 두는 방향으로 진화하고 있다고 강조했다. 또한 디자인의 무형 가치는 아카이빙과 퍼포먼스를 통해 확장될 수 있으며, 이는 브랜드와 창작자의 정체성을 더욱 공고히 하는 전략이 될 수 있다고 덧붙였다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
실시간 데이터 수집 및 분석, 2D/3D 가상화 솔루션, OCTOPUS Hub
주요 디지털 트윈 소프트웨어   실시간 데이터 수집 및 분석, 2D/3D 가상화 솔루션, OCTOPUS Hub(옥토퍼스 허브)   개발 및 자료 제공 : UVC, 031-346-3366, www.uvc.co.kr   유비씨는 고객의 디지털 전환을 위해 데이터 수집부터 분석, 가상화까지 스마트 팩토리에 필요한 전 주기 솔루션을 개발하는 디지털 트윈 전문기업이다. 국제 산업 표준(OPC UA) 인증으로 이기종의 기계/설비/센서 등을 한 번에 연결하고 노코딩(No-coding) 방식으로 사용자가 쉽게 데이터를 관리 및 활용할 수 있으며, 다수의 공장을 중앙에서 관리하고 협업함으로써 즉각적인 장애 대처, 현장 작업자 교육, 유지보수, 비용 절감을 가능하게 한다.   1. 주요 특징  유비씨의 주력 솔루션인 OCTOPUS Hub는 OPC UA 기반으로 설계되어 공장 내 다양한 설비와 기계를 유연하게 연결하고, 실시간 데이터 수집 및 분석, 2D/3D 가상화를 통해 공장의 운영 효율성을 높인다. 2. 주요 기능 (1) 물리적 시스템과 디지털 시스템의 통합 • 데이터 수집: 센서, PLC, IoT 디바이스 등 물리적 시스템으로부터 데이터를 실시간으로 수집 • 상호 연결성: 물리적 시스템과 디지털 시스템 간 상호운용성 보장 • 디지털 트윈 지원: 물리적 시스템의 디지털 표현을 생성하여 시뮬레이션, 예측 분석, 설계 검증에 활용 (2) OPC UA 모델러 • 사용자들이 공장 내 모든 데이터 포인트 및 인스턴스를 OPC UA로 모델링 할 수 있도록 하는 드롭 앤 드랍 방식의 툴 (3) 스마트 커넥터 • 엣지 컴퓨팅 환경에서 동작하며, 다양한 산업용 디바이스(PLC, 센서)로부터 데이터를 실시간으로 수집·제어하는 동시에, PC의 상태 정보까지 제공하는 전문 프로그램 (4) 캡캐처 • 다양한 설비 프로토콜을 내장해 폭넓은 설비를 지원하며, 실시간 메모리 변화 감지·리포팅, 특정 데이터 검색, 그리고 메모리 녹화를 통한 분석 기능을 제공함으로써 쉽고 효율적인 메모리 스캔을 가능케 하는 전문 툴 (5) 엣지 컴퓨팅 역할 엣지는 실시간 데이터 처리와 물리적 시스템과의 직접 연동을 담당한다. 1) 엣지 컴퓨팅 주요 기능 • 스마트 커넥터 Shop Floor 설비의 Plug & Play  • 데이터 수집 및 전처리 Shop Floor 설비, 센서, PLC와 직접 연결해 데이터를 수집 및 전처리 이기종 프로토콜 변환 및 OPC UA 서버 내장으로 데이터 표준화 • 실시간 처리 및 제어 클라우드로 전송 전 데이터 분석 및 로컬 제어 수행. 낮은 대기 시간을 요구하는 애플리케이션 지원(예: 로봇 제어, 제조 장비 운영). • 컨테이너 기반 서비스 관리 컨테이너 기술(Docker, Kubernetes)을 활용한 서비스 배포 및 업데이트 용이 시스템 확장성 강화 및 장애 시 복구 지원 • 클러스터링 및 안정성 장애 발생 시 단일 실패 지점 방지 및 부하 분산 수행 클러스터 기반 인프라를 통해 안정적 운영 가능 2) 엣지와 CPS 서버 간 협력 • 엣지에서 처리된 데이터를 CPS 서버로 전달하여 고급 분석 및 집계 수행. • CPS 서버는 엣지에서 발생한 데이터를 통합 관리하며, 공장 내 설비와 CPS 간 실시간 연결 유지 (6) 데이터 처리 및 분석 • 분산 데이터 처리 엣지, Fog, Cloud 간 데이터 처리 분담으로 효율성 향상 • 고급 분석 및 의사결정 AI/ML 기반의 데이터 분석 및 예측 기술을 활용해 효율성 극대화 이상 감지 및 사전 예방적 유지보수 수행 (7) 제어 및 피드백 • 실시간 피드백 루프 물리적 시스템 상태를 모니터링하고 분석 결과를 실시간으로 제어에 반영 • 로컬 제어 및 중앙 집중 제어 엣지에서 로컬 제어를 수행하고 CPS 서버에서 중앙 집중적 관리 수행      (8) 네트워크 통신 및 표준 준수 • 산업용 IoT 표준 준수 OPC UA, MQTT 등 국제 표준 프로토콜 기반으로 상호운용성 보장 • 데이터 통신 최적화 엣지에서 데이터를 필터링하고 필수 데이터만 클라우드로 전송하여 네트워크 부하 감소 (9) 시스템 확장성 및 안정성 • 분산 인프라 엣지와 CPS 서버 간 분산 구조를 통해 시스템 확장성과 안정성 확보 클러스터 기반 아키텍처로 확장성 지원 • 단일 실패 지점 방지 장애 복구 및 자동 재구성을 통해 시스템 신뢰성 강화 (10) 보안 및 신뢰성 • 데이터 암호화 및 인증 센서에서 CPS 서버에 이르기까지 모든 데이터의 안전한 통신 보장 • 공격 탐지 및 복구 보안 위협 탐지 및 복구 메커니즘 내장 (11) 사용성과 인터페이스 • 사용자 대시보드 실시간 데이터 모니터링, 경고 및 알림 제공 • 직관적인 인터페이스 AR/VR 및 시각화 기술을 활용한 직관적 운영   3. 도입 효과 (1) 생산성 향상 실시간 데이터 분석과 자동 제어를 통해 생산 공정의 속도와 효율성을 극대화 (2) 운영 효율성 증가 실시간 모니터링과 분석을 통해 공정 병목현상을 제거하고, 자원 활용을 최적화 (3) 데이터 기반 의사결정 실시간 데이터와 분석 결과를 기반으로 신속하고 정확한 경영 및 운영 의사결정 지원 (4) 작업자 안전 강화 위험 요소를 실시간으로 감지하고 경고하여 작업자 안전을 확보 (5) 스마트 공장 구현 디지털 트윈과 엣지 컴퓨팅 기술을 활용하여 공장의 디지털화 및 자동화 추진 (6) 생산 라인의 신속한 전환 가능 데이터 중심의 유연한 제어 및 소프트웨어 중심의 설정 변경 (7) 지속 가능성 증대 생산 공정에서의 에너지 사용과 자원 소모를 실시간으로 모니터링하고 최적화함으로써 환경 영향을 최소화 (8) 데이터 기반 생산 공정 최적화 생산의 전 과정에서 제품, 공정, 설비, 공장 등 모든 개체를 연결, 감시하고 모아진 제조 빅데이터를 관리, 정제, 분석하여 자율, 능동적으로 설계, 운영 최적화를 달성 4. 주요 고객 사이트 현대, 기아, 현대모비스, 현대오토에버, 삼성SDI, 삼성바이오로직스, HL만도, SGC 에너지, 국방기술품질원, 콤텍시스템, 이안, 효성 ITX, LG U+, 유진 로봇(Yujin ROBOT)     상세 내용은 <디지털 트윈 가이드>에서 확인할 수 있습니다. 상세 내용 보러가기
작성일 : 2025-06-29
인공지능 AI 에이전트 표준 프로토콜 MCP의 사용, 분석 및 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   MCP(Model Context Protocol)는 클로드(Claude)의 개발사인 앤트로픽(Anthropic)의 인공지능 AI 에이전트 표준 프로토콜이다. 이번 호에서는 최근 많은 이슈가 되고 있는 MCP의 사용 방법을 간략히 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. MCP의 개념   MCP는 애플리케이션이 LLM(대규모 언어 모델)에 컨텍스트를 제공하는 방식을 표준화한 개방형 프로토콜이다. USB-C 포트처럼, 다양한 도구와 데이터를 LLM에 연결하는 통합된 인터페이스 역할을 한다. LLM 기반 에이전트와 워크플로 구축을 지원하며 유연한 통합, 데이터 보호, 공급업체 간 전환성을 제공한다. MCP를 이용하면 AI 에이전트가 다양한 도구를 이용해 기존 LLM보다 훨씬 많은 일을 할 수 있다. 예를 들어, LLM에서 실시간 웹 자료를 이용해 여행 일정을 짜고, 마케팅 보고서를 만들며, 레빗(Revit)과 같은 3D 모델 콘텐츠를 프롬프트 엔지니어링으로 개발할 수 있다.   그림 2. AI 에이전트 기반 3D 모델링(United Top Tech 유튜브)   그림 3. MCP 도구 서버(https://mcp.so)   MCP의 개념 아키텍처 구조 MCP는 호스트-클라이언트-서버 구조로 구성되며, 로컬 및 원격 데이터를 안전하게 연결할 수 있는 아키텍처를 따른다. 호스트는 서버에서 제공해 주는 파일 관리, 웹 서칭, 계산 등의 도구를 연결해 LLM을 통해 추론, CoT, 도구 호출, 생성 등의 역할을 담당한다.   그림 4. MCP의 구조   각 구성요소의 역할은 다음과 같다. MCP 호스트는 MCP 프로토콜을 통해 서비스에 액세스할 수 있는 애플리케이션이다. 클로드 데스크톱 앱, AI 에이전트/CLI, 커서 IDE 등이 이에 해당하며, LLM(로컬 또는 원격)을 활용하여 다양한 작업을 수행한다. MCP 클라이언트는 MCP 서버와 연결하기 위해 호스트 애플리케이션과 통합된 클라이언트이다. MCP 서버는 MCP 프로토콜을 통해 특정 기능을 노출하는 응용 프로그램 또는 프로그램이다. 서버는 도커(Docker) 컨테이너, JVM, Node.js(UV/UVX) 프로세스에서 실행될 수 있으며, MCP 커뮤니티에서 제공하는 사전 구축된 서버를 활용할 수도 있다. 로컬 데이터 소스는 로컬 시스템에 존재하는 데이터베이스 또는 파일 시스템이다. 원격 서비스는 웹 API를 통해 액세스할 수 있는 깃허브(GitHub), 브레이브 서치(Brave Search)와 같은 외부 리소스이다. MCP를 이용하면 서버, 클라이언트, 로컬에 있는 파일, 폴더, 앱에 접근해 이를 LLM으로 컨트롤할 수 있다. MCP 구조를 구성하는 호스트와 서버는 다음과 같은 도구를 통해 구성해 활용한다. 호스트 : 클로드, 커서(Cursor), 챗GPT(ChatGPT), 깃허브 코파일럿(Github Copilot) 등 서버 : Model Context Protocol Servers(https://github. com/modelcontextprotocol/servers) MCP는 전형적인 호스트-서버 프로토콜(TCP/IP와 유사)을 따른다. 서버의 실행 모드는 SSE(server sent event)와 stdio(표준입출력) 모드가 있다. SSE는 네트워크로 연결해 도구를 호출할 수 있도록 한다. stdio는 로컬 자체에서 도구를 호출할 수 있도록 한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-06-04
[포커스] AWS 서밋 서울 2025, “생성형 AI와 클라우드 혁신으로 산업 디지털 전환 가속화”
아마존웹서비스(AWS)가 5월 14일~15일 서울 코엑스에서 ‘AWS 서밋 서울 2025’를 진행했다. 4만여 명이 사전 등록한 이번 서밋에는 생성형 AI를 중심으로 다양한 산업 분야와 기술 주제에 대해 130개 이상의 강연이 진행됐고, 60개 이상의 고객사가 AWS 도입 경험과 성공 사례를 소개했다. 또한 현실에 적용 가능한 도구로서 생성형 AI 활용 사례를 체험할 수 있는 엑스포 등 다양한 프로그램이 진행됐다. ■ 정수진 편집장   생성형 AI와 클라우드 전환 중심의 시장 전략 AWS 코리아의 함기호 대표이사는 생성형 AI가 일상을 빠르게 변화시키고 있다고 짚었다. 연구 결과에 따르면 한국 기업의 54%가 2025년 IT 예산에서 생성형 AI를 최우선 투자 항목으로 꼽았다. 그리고 63%의 조직이 최고 AI 책임자(CAIO)를 임명하는 등, AI는 기업의 조직 구조에도 변화를 가져왔다. 생성형 AI의 도입 속도는 매우 빨라서 94%의 기업이 이미 도입했고, 85%는 활발한 실험을 진행 중이다. 하지만 이러한 실험이 실제 활용으로 이어지는 비율은 아직 절반 이하에 머물고 있는 것으로 나타났다.   ▲ AWS코리아 함기호 대표   AWS는 고객들이 클라우드 전환을 지속적인 혁신의 여정으로 인식하고 있다는 점에 주목하고 있다. 과거에는 클라우드가 단순히 비용 절감 수단 또는 일회성 프로젝트로 여겨졌지만, 이제는 비즈니스 민첩성과 경쟁력 확보를 위해 클라우드 네이티브 환경으로의 전환을 더욱 중요하게 생각하고 있다는 것이다. 함기호 대표이사는 “AWS는 이러한 변화와 함께 고객의 디지털 전환을 지속적으로 지원하고 있다”면서, 작년에 이어 올해도 생성형 AI와 IT 현대화를 주요 사업 전략으로 진행하고 있다고 소개했다. 그는 또한 한국 시장에 대한 지원과 성과에 대해서도 소개했다. 올해에는 AWS 마켓플레이스(AWS Marketplace)가 한국에 정식으로 출시되었다. 지난 3월에는 한국인터넷진흥원의 클라우드 보안 인증(CSAP) 3등급을 획득하여, 공공기관에 클라우드 서비스를 제공할 수 있게 되었다. 개발자를 위한 생성형 AI 서비스인 아마존 Q 디벨로퍼(Amazon Q Developer)가 4월부터 한국어 지원을 시작했다. 이외에도 AWS는 한국 기업이 파운데이션 모델(FM)을 개발하고 해외로 빠르게 진출할 수 있도록 지원을 이어갈 예정이다.   컴퓨팅/스토리지/보안 등 주요 클라우드 기술 요소 소개 AWS는 이번 서밋이 기술 중심에서 기술 경험 중심으로 초점을 옮겨, 생성형 AI를 포함한 자사의 기술이 실제 문제 해결에 어떻게 기여하는지 보여주는 데 초점을 맞추었다고 설명했다. 서밋의 첫째 날인 5월 14일 기조연설에서 AWS의 야세르 알사이에드(Yasser Alsaied) IoT 부문 부사장은 “AWS가 불가능해 보이는 것을 상상하고 만들 수 있도록 돕는 기술을 제공한다”고 소개했다. 그가 소개한 주요 기술은 보안, 확장성, 컴퓨팅, 스토리지 등이다. AWS는 칩부터 클라우드까지 모든 수준에서 보안을 구축하고 고객 데이터에 접근할 수 없도록 했다. 또한, 전 세계의 인프라 리전(region)과 가용 영역(availability zone)을 연결하는 600만 킬로미터 이상의 광케이블을 보유하고 있으며, 2024년에는 네트워크 백본 용량을 80% 늘렸다. AWS는 클라우드 기반으로 필요한 만큼 컴퓨팅 리소스를 사용할 수 있도록 지원하며 가상 서버, 컨테이너 등 다양한 옵션을 제공한다. 특히 생성형 AI와 같은 복잡한 워크로드를 위해서는 엔비디아와 협력하여 GPU 인스턴스를 출시했다. 알사이에드 부사장은 세계에서 가장 빠른 슈퍼컴퓨터를 개발하기 위한 프로젝트 세이바(Project Ceiba) 및 고수요의 GPU 컴퓨팅에 즉시 예측 가능하게 액세스할 수 있는 아마존 EC2 캐퍼시티 블록을 소개했으며, “자체 개발한 프로세서인 AWS 그래비톤4(AWS Graviton4)는 이전 세대 대비 45% 빠르고 에너지 소비를 60% 줄였다. AWS는 지난 2년간 데이터센터 CPU의 50% 이상을 그래비톤으로 교체했다”고 설명했다.   ▲ AWS 야세르 알사이에드 IoT 부문 부사장   스토리지 서비스인 아마존 S3(Amazon S3)에는 현재 400조 개 이상의 오브젝트가 저장되어 있다. 한편, AWS는 대규모 분석 데이터셋을 위한 툴인 아파치 아이스버그(Apache Iceberg)를 오픈소스로 공개했고, 오브젝트 크기, 스토리지 클래스, 통계 등의 시스템 메타데이터를 자동으로 생성해 대규모 데이터셋 관리의 오버헤드를 줄이는 S3 메타데이터 등 스토리지 관련 서비스를 제공한다. 알사이에드 부사장은 이러한 스토리지 기술이 대규모 데이터를 효율적으로 관리하고 활용하는 데 있어 중요하며, 이를 통해 혁신적인 설루션을 구축할 수 있다고 강조했다.   앱 현대화 및 비즈니스 혁신을 위한 AI 기술 알사이에드 부사장은 비즈니스 혁신을 돕는 AWS의 생성형 AI 및 관련 서비스에 대해서도 소개했다. 아마존 베드락(Amazon Bedrock)은 고객에게 폭넓은 파운데이션 모델(FM) 선택권을 제공해, 아마존 및 다양한 회사의 모델 가운데 개발하는 애플리케이션에 가장 적합한 모델을 선택할 수 있도록 돕는다. 베드락은 검색 증강 생성(RAG)을 지원해 더욱 관련성 높고 정확한 응답을 제공하며, 가드레일 포 아마존 베드락(Guardrails for Amazon Bedrock)을 통해 유해한 콘텐츠를 차단할 수 있다. 알사이에드 부사장은 AI 응답의 불확실성을 줄이는 데에 도움을 주는 자동화 추론 및 프롬프트에 적합한 모델을 선택할 수 있는 지능형 프롬프트 라우팅 등의 기능도 소개했다. 또한 알사이에드 부사장은 AI 및 에이전트 기술을 활용한 애플리케이션의 현대화 사례를 소개하면서, “AWS는 고객들이 마이그레이션 과제를 극복하도록 꾸준히 지원해왔으며, 마이그레이션을 자동화하는 서비스를 제공한다”고 전했다. “닷넷 코드 변환 서비스는 애플리케이션의 현대화 시간 및 윈도우 라이선스 비용을 줄일 수 있게 돕고, VM웨어 워크로드 변환 서비스는 네트워크 설정 변환 속도를 80배 높일 수 있다. 복잡한 메인프레임 애플리케이션의 변환도 에이전트의 도움으로 몇 달 만에 완료할 수 있다”는 것이 알사이에드 부사장의 설명이다.   ▲ AWS는 생성형 AI가 제조 산업의 복잡한 업무에 도움을 줄 수 있다고 소개했다.   제조 산업 디지털 전환을 위한 데이터 통합 및 AI 활용 이번 서밋은 이틀에 걸쳐 ‘인더스트리 데이(5월 14일)’와 ‘코어 서비스 데이(5월 15일)’로 진행됐다. 5월 14일에는 현대카드와 트웰브랩스가 기조연설에서 생성형 AI 관련 인사이트를 소개했고 기술 트렌드, 생성형 AI, 산업별 트랙 등 다양한 주제의 강연이 진행되었다. 15일에는 아마존의 워너 보겔스(Werner Vogels) CTO와 디팍 싱(Deepak Singh) 데이터베이스 및 AI 부사장, 삼성전자 서치영 상무, 티맵모빌리티 김재순 CTO가 기조연설을 진행했으며, 9개 트랙에서 50여 개의 세부 강연을 통해 생성형 AI, 머신러닝, 데이터 분석, 클라우드, 데이터베이스, 보안 및 거버넌스 등 서비스별 업데이트와 활용 사례가 소개되었다. 이 가운데 14일 진행된 제조 및 하이테크 트랙에서는 디지털 전환과 인공지능을 통한 제조산업의 혁신 전략을 짚고, 국내 기업들의 사례가 소개됐다. AWS 코리아의 박천구 솔루션즈 아키텍트 매니저는 변화하는 시장 환경에서 제조 기업이 직면한 문제로 “엔지니어링 디자인, 제조, 공급망, 운영 등 각 부서의 시스템이 사일로화되어 필요한 데이터를 제때 얻기 어렵다”는 점을 꼽았다. 그러면서 “이런 문제를 해결하기 위한 디지털 전환은 전통적인 제조에서 첨단 제조로 완전히 전환하는 것을 뜻하며, 긴 여정을 통해 비즈니스 가치를 실현할 수 있어야 한다”고 전했다. 특히 제조산업 디지털 전환의 핵심 요소로 AWS가 주목한 것은 데이터의 통합이다. 박천구 매니저는 “공장에는 많은 데이터가 있고 산업 데이터는 2년마다 두 배씩 늘어나는데, 특히 OT 데이터가 대다수를 차지한다. 디지털 전환의 성공은 OT에 중점을 두고 OT-IT 데이터를 효과적으로 통합하는 데에 달려 있다”면서, “이렇게 통합된 데이터를 잘 관리하고 빅데이터・AI 등과 결합해 활용할 수 있는 구조를 갖춤으로써 각 제조 단위 및 전체 공정의 최적화가 가능하다. 특히 올해는 생성형 AI를 통한 비즈니스 전환에 대한 고민이 본격화될 것으로 보이는데, 탄탄한 데이터 기반을 구축하는 것은 생성형 AI의 효과를 실현하는 필수 조건”이라고 짚었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-06-04
IBM, AI 및 보안 기술 제공하는 차세대 리눅스 플랫폼 ‘IBM 리눅스원 5’ 공개
IBM이 차세대 리눅스 컴퓨팅 플랫폼인 IBM 리눅스원 5(IBM LinuxONE 5)를 공개했다. 이 플랫폼은 데이터, 애플리케이션, 그리고 인공지능(AI)을 위한 고성능 리눅스 환경을 제공하며, AI 가속 기능이 내장된 IBM 텔럼 II 프로세서(IBM Telum)로 구동된다. IBM은 이번 신제품이 기업의 보안 강화, 비용 효율성 개선, AI의 엔터프라이즈 시스템 통합에 대한 해법을 제시할 것으로 기대하고 있다. IBM 리눅스원 5는 IBM의 사이버보안과 개인정보 보호 접근 방식을 전반적으로 확장해, 제로 트러스트(Zero Trust) 원칙을 한층 강화했다. 이를 통해 고객이 복잡한 규정을 준수하는 과정을 간소화할 수 있도록 지원한다. 기밀 컴퓨팅, 고성능 암호화 대역폭, 미국 국립표준기술연구소(NIST)의 양자내성 암호 알고리즘, 그리고 최첨단 하드웨어 보안 모듈을 통해 워크로드와 데이터를 종합적으로 보호하는 데 중점을 두고 있다. IBM은 이러한 보안 기능이 AI 모델과 민감한 데이터를 보호하는 데 중요한 역할을 할 것으로 기대하고 있다. 특히 레드햇 오픈시프트(Red Hat OpenShift) 컨테이너 플랫폼을 활용한 기밀 컨테이너는 AI를 포함한 다양한 데이터 활용 시나리오에서 데이터를 안전하게 보호하는 데 기여한다. IBM 볼트 셀프 매니지드(IBM Vault Self-Managed)와의 통합을 통해 하이브리드 환경 전반에서 강력한 보안 설루션을 제공하며, 비밀 관리 기능을 강화하도록 설계됐다.     비용 절감 측면에서 IBM 리눅스원 5는 여러 서버에 분산된 워크로드를 단일 고용량 시스템으로 통합함으로써, 운영 복잡성을 줄이고 IT 인프라를 최적화할 수 있다. 클라우드 네이티브 및 컨테이너화된 워크로드를 x86 기반 설루션에서 IBM 리눅스원 5로 이전하면 5년 동안 총 소유 비용을 최대 44%까지 절감할 수 있다는 분석도 있다. 이는 데이터센터 운영 효율을 높이는 데 기여한다. 가용성 측면에서는 99.999999%의 안정성을 발휘하도록 설계되어 비즈니스 연속성을 지원하고 운영 위험을 줄일 수 있다. “데이터 집약적이고 AI를 활용하는 비즈니스의 증가하는 워크로드 수요를 충족하는 데도 적합한 기술”이라는 것이 IBM의 설명이다. 이번 플랫폼의 핵심 기술은 IBM 텔럼 II 프로세서다. 2세대 온칩 AI 가속기를 포함한 텔럼 II는 실시간 대량 거래 처리에서 예측 AI와 대규모 언어 모델(LLM)을 더 높은 정밀도와 정확도로 확장할 수 있도록 설계됐다. 여기에 IBM 스파이어 가속기(IBM Spyre Accelerator)가 2025년 4분기부터 지원될 예정으로, 생성형 AI 기능을 추가해 텔럼 II 프로세서를 보완할 예정이다. 이러한 기술은 사기 탐지, 이미지 처리, 리테일 자동화 등 다양한 산업 사례에서 활용될 수 있도록 설계됐다. IBM 리눅스원은 탄탄한 생태계를 기반으로 하고 있다. 독립 소프트웨어 벤더(ISV)는 리눅스원의 AI와 암호화 기능을 활용해 맞춤형 설루션을 제공하며, 오픈소스 커뮤니티는 유연하고 확장 가능한 도구를 통해 통합을 지원한다. IBM 리눅스원은 우분투(Ubuntu), 수세(SUSE) 등과 협력해 다양한 리눅스 배포판을 지원하고 있다.
작성일 : 2025-05-29
인텔, 컴퓨텍스에서 AI·워크스테이션용 최신 GPU 공개
인텔은 전문가와 개발자를 위한 신규 그래픽 처리 장치(GPU) 및 AI 가속기 제품군을 컴퓨텍스 2025에서 공개했다. 이번에 발표된 신제품은 ▲AI 추론 및 전문가용 워크스테이션에 최적화된 구성으로 설계된 인텔 아크 프로 B60(Intel Arc Pro B60) 및 인텔 아크 프로 B50(Intel Arc Pro B50) GPU ▲기업 및 클라우드 환경의 AI 추론을 위한 확장 가능하고 개방형 설루션을 제공하는 인텔 가우디 3 AI 가속기(Intel Gaudi 3 AI accelerators) ▲인텔 플랫폼에 최적화된 로컬 기반 목적 특화형 AI 에이전트를 개발자가 직접 생성할 수 있도록 지원하는 인텔 AI 어시스턴트 빌더(Intel AI Assistant Builder) 등이다.   ▲ 인텔 아크 프로 B60 및 B50 GPU   Xe2 아키텍처 기반의 인텔 아크 프로 B60 및 B50 GPU는 Xe 매트릭스 확장(XMX) AI 코어와 고급 레이 트레이싱 유닛을 탑재해 크리에이터, 개발자, 엔지니어를 위한 고성능 컴퓨팅 기능을 제공한다. 인텔은 이 두 GPU를 통해 전문가용 GPU 라인업을 확대하며, 고부하 AI 추론 작업과 워크스테이션 애플리케이션에 적합한 설계를 적용했다. AI 지원 기능, 24GB/16GB 메모리, 멀티 GPU 확장성을 갖춘 아크 프로 B 시리즈는 크리에이터, AI 개발자, 전문가에게 유연하고 강력한 설루션을 제공한다. 이들 GPU는 AEC(건축, 엔지니어링, 건설) 및 AI 추론용 워크스테이션에 최적화되어 있으며, 다양한 ISV 인증과 최적화된 소프트웨어를 통해 높은 안정성과 성능을 제공한다는 것이 인텔의 설명이다. 인텔 아크 프로 B 시리즈의 GPU들은 윈도우에서 일반 및 전문가용 드라이버와 호환되며, 리눅스에서는 AI 배포를 간소화하기 위한 컨테이너 기반 소프트웨어 스택을 지원한다. 향후 기능 추가 및 성능 최적화도 순차적으로 적용될 예정이다.  고용량 메모리와 주요 소프트웨어 호환성을 갖춘 인텔 아크 프로 B 시리즈는 크리에이터와 AI 개발자에게 확장가능하면서도 비용 효율적인 설루션을 제공한다. 인텔은 AI 개발 과정에서 발생하는 여러 마찰 지점을 최소화하도록 설계된 워크스테이션급 인텔 제온(Intel Xeon) 기반 플랫폼(코드명 ‘Project Battlematix)도 공개했다. 이 플랫폼은 최대 8개의 인텔 아크 프로 B60 24GB GPU를 지원해, 최대 1500억 개 매개변수의 중형 AI 모델을 고정밀도로 구동할 수 있으며, 최대 192GB의 비디오 전용 메모리를 제공한다. 인텔 아크 프로 B60 GPU는 2025년 6월부터 애즈락(ASRock), 니르(Gunnir), 래너(Lanner), 맥선(Maxsun), 오닉스(Onix), 세나오(Senao), 스파클(Sparkle) 등 다양한 애드인 보드 파트너사를 통해 샘플링이 시작되며, 아크 프로 B50 GPU는 2025년 7월부터 리테이너 채널을 통해 구매할 수 있다.   ▲ 인텔 가우디 3 PCIe 카드   인텔 가우디 3 PCIe 카드는 기존 데이터센터 서버 환경에서 확장형 AI 추론을 지원한다. 라마(LLaMA)와 같은 AI 모델을 사용할 경우, 소규모 기업부터 대기업까지 다양한 고객이 확장 가능한 구성 덕분에 LLaMA 3.1 8B부터 LLaMA 4 스카우트(Scout), 매버릭(Maverick) 모델까지 유연하게 실행할 수 있다. 인텔 가우디 3 PCIe 카드는 2025년 하반기부터 제공될 예정이다. 인텔 가우디 3 랙 스케일 시스템의 레퍼런스 디자인은 유연성과 확장성을 염두하고 설계되어, 랙당 최대 64개의 가속기를 지원하며 8.2TB의 고대역폭 메모리를 지원한다. 개방형 및 모듈형 구조로 특정 벤더 종속을 방지하고, ‘케이블드 백플레인(cabled backplane)’과 ‘블라인드-메이트 2D 풀-랙’ 배선 방식 덕분에 설치와 유지보수가 한층 간편하며, 액체 냉각을 적용해 뛰어난 성능을 유지하면서도 총소유비용(TCO)을 효과적으로 관리할 수 있다.  가우디 랙 스케일 아키텍처는 대규모 AI 모델 실행에 최적화되어 있으며, 낮은 지연 시간의 실시간 추론 작업에서 뛰어난 성능을 발휘한다. 이러한 구성은 개방적이고 유연하며 안전한 AI 인프라 구축에 대한 인텔의 의지를 보여주며, 클라우드 서비스 제공업체(CSP)를 위한 맞춤형 설계와 OCP(Open Compute Project) 표준 설계를 모두 지원한다. CES 2025에서 처음 공개된 인텔 AI 어시스턴트 빌더는 인텔 기반 AI PC에서 맞춤형 AI 에이전트를 로컬 환경에서 구축하고 실행할 수 있도록 설계된 경량형 오픈 소프트웨어 프레임워크로, 현재 깃허브(GitHub)에서 제공되는 베타 버전을 통해 누구나 사용할 수 있다. AI 어시스턴트 빌더는 개발자와 파트너가 자사 조직 및 고객을 위한 AI 에이전트를 빠르게 구축하고 배포할 수 있도록 지원한다.
작성일 : 2025-05-20
뉴타닉스, ‘클라우드 네이티브 AOS’ 통해 데이터 플랫폼을 쿠버네티스 환경 전반으로 확장
뉴타닉스는 하이퍼바이저 없이도 뉴타닉스 엔터프라이즈 스토리지 및 고급 데이터 서비스를 하이퍼스케일러 쿠버네티스 서비스와 클라우드 네이티브 베어메탈 환경으로 확장하는 클라우드 네이티브 AOS(Cloud Native AOS) 설루션을 발표했다. 데이터가 더욱 분산됨에 따라 사용자들은 데이터센터, 베어메탈 엣지 위치 및 클라우드 네이티브 하이퍼스케일러의 쿠버네티스 인프라 전반에서 데이터를 보호, 복제 및 복원할 수 있는 일관된 방법을 찾고 있다. 그동안은 베어메탈, 가상화 및 컨테이너화된 인프라에서 실행할 수 있는 공통 데이터 플랫폼이 부재했다. 클라우드 네이티브 AOS는 클라우드 또는 베어메탈 어디서나 클라우드 네이티브 인프라에서 직접 실행할 수 있는 스토리지 및 데이터 서비스를 통해 이 문제를 해결한다. 해당 설루션은 하이퍼바이저가 필요 없어 사용자가 분산된 하이브리드 클라우드 전반에서 스토리지 관리를 통합할 수 있도록 지원한다. 신규 설루션은 쿠버네티스 애플리케이션과 해당 데이터에 대한 2일 차 지능형 운영을 어디서나 간소화한다. 또한, 데이터, 서비스형 플랫폼 및 AI를 위한 플랫폼의 백본(backbone)인 뉴타닉스의 AOS 소프트웨어를 클라우드와 베어메탈 환경의 상태 유지(stateful) 네이티브 쿠버네티스 클러스터로 확장한다. 클라우드 네이티브 AOS는 가용 영역, 클라우드 및 온프레미스 간의 통합 재해 복구를 통해 컨테이너화된 애플리케이션과 해당 데이터를 보호함으로써 쿠버네티스 인프라에 복원력을 제공한다. 고객은 애플리케이션을 온프레미스 컨테이너 환경으로 다시 이동하는 기능을 포함해 여러 사이트에 걸쳐 애플리케이션과 데이터를 최적으로 마이그레이션함으로써 클라우드 네이티브 애플리케이션을 구축 및 배포할 수 있다. 또한, 뉴타닉스의 설루션은 개발자가 쿠버네티스 API를 사용해 애플리케이션 데이터 관리의 모든 측면을 자동화하고 셀프서비스 제어를 제공할 수 있도록 지원한다. 뉴타닉스의 토마스 코넬리(Thomas Cornely) 제품 관리 부문 수석 부사장은 “뉴타닉스는 가상화된 데이터 센터의 고급 데이터 서비스를 통해 엔터프라이즈급 인프라를 위한 완전한 플랫폼을 구축했다”면서, “이제 뉴타닉스는 퍼블릭 클라우드 및 베어메탈의 쿠버네티스 서비스에서 클라우드 네이티브 인프라 사용자에게까지 플랫폼의 범위를 확장해 엔터프라이즈 복원력, 2일 차 운영 및 보안을 제공한다”고 말했다.  클라우드 네이티브 AOS는 현재 아마존 EKS(Amazon EKS)에서 얼리 액세스가 가능하며 올 여름에 정식 출시될 예정이다. 베어메탈 서버의 온프레미스 컨테이너화된 환경에 대한 얼리 액세스는 올해 말에 제공될 예정이다.
작성일 : 2025-05-12
퓨어스토리지 포트웍스, 엔터프라이즈급 현대적 가상화 설루션 공개
퓨어스토리지가 자사의 대표 컨테이너 데이터 관리 플랫폼인 포트웍스 엔터프라이즈(Portworx Enterprise)의 최신 업데이트를 발표했다. 이번 업데이트는 기업이 엔터프라이즈 규모에서 현대적 가상화를 실현할 수 있도록 지원하며, 데이터 스토리지 관련 의사결정권자가 각자의 속도에 맞춰 현대화 여정을 이어갈 수 있도록 돕는다. 브로드컴의 VM웨어 인수 이후 많은 기업들이 비용 상승 없이 가상화 전략을 추진할 수 있는 현대적 설루션을 모색하고 있다. 이에 따라 컨테이너와 가상머신을 동시에 지원할 수 있는 쿠버네티스를 대안으로 채택하거나 도입을 검토 중인 기업들이 늘고 있다. 쿠버네티스를 활용하면 하나의 플랫폼에서 클라우드 네이티브 애플리케이션 개발과 인프라 현대화를 함께 추진할 수 있다. 2024년 쿠버네티스 전문가 대상 설문조사에 따르면, 응답자의 81%가 가상머신을 쿠버네티스로 이전하거나 현대화할 계획이며, 이 중 3분의 2가량은 2년 이내 이를 완료할 계획이다. 하지만 가상머신을 쿠버네티스로 이전하면서 새로운 과제도 등장하고 있다. 이번에 출시된 포트웍스 엔터프라이즈 3.3(Portworx Enterprise 3.3)은 컨테이너 데이터 관리 플랫폼을 엔터프라이즈급 가상머신 워크로드까지 확장 지원한다. 포트웍스는 미션 크리티컬 워크로드를 위한 고성능, 데이터 복원력, 데이터 보호를 제공하면서도, 대규모 프로덕션 환경에서 요구되는 단순함, 유연성, 신뢰성을 함께 제공한다. 쿠버네티스를 기반으로 한 포트웍스의 사용을 통해 기존 설루션 대비 30%에서 최대 50%까지 비용을 절감할 수 있으며, 기업은 이를 통해 더 큰 비용 효율을 기대할 수 있다. 별도의 리소스 투자 없이도 기존 가상머신을 쿠버네티스 상에 계속 유지할 수 있으며, 필요에 따라 클라우드 네이티브 애플리케이션으로 전환하거나 신규 개발할 수 있다. 포트웍스 3.3은 쿠베버트(KubeVirt) 가상머신을 위한 RWX 블록(RWX Block) 기능을 제공하며, 이는 퓨어스토리지의 플래시어레이(FlashArray)는 물론 다양한 스토리지 벤더 환경에서도 작동한다. 이를 통해 쿠버네티스 상에서 실행되는 가상머신에 강력한 읽기/쓰기 성능을 제공할 수 있다. 이제 하나의 관리 환경에서 쿠버네티스 상의 가상머신 데이터를 통합 관리할 수 있으며, 데이터 손실 없는 동기화 재해복구(zero RPO)를 지원한다. 또한, 리눅스 기반 가상머신에 대한 파일 단위 백업 및 복원이 가능해져 더욱 세분화된 데이터 보호가 가능하다. 또한 수세(SUSE), 스펙트로클라우드(Spectro Cloud), 쿠버매틱(Kubermatic) 등 주요 쿠버베트 플랫폼과의 파트너십 및 레퍼런스 아키텍처를 제공하며, 기존 레드햇과의 협업도 지속된다. 퓨어스토리지의 벤캇 라마크리슈난(Venkat Ramakrishnan) 포트웍스 부문 부사장 겸 총괄 매니저는 “포트웍스는 쿠버네티스를 기반으로 구축되어 클라우드 네이티브 애플리케이션의 유연성과 자동화, 셀프 서비스 기능을 모두 갖췄다. 이번 포트웍스 3.3은 하나의 통합 플랫폼과 다양한 통합 기능을 통해 기업이 자신만의 속도로 인프라 현대화를 추진할 수 있도록 돕는다”고 전했다. 
작성일 : 2025-04-23
씨이랩, 한국정보공학과 AI 솔루션 총판 계약 체결… 국내 AI 인프라 효율화 주도
씨이랩은 한국정보공학과 AI 솔루션 총판 계약을 체결했다. 이번 계약을 통해 씨이랩의 GPU 최적화 솔루션 ‘AstraGo (아스트라고)’를 한국정보공학이 보유한 풍부한 AI 인프라 유통망을 통해 국내 기업 및 공공 기관에 공급해 국내 AI 시장에서 양사의 경쟁력이 한층 더 강화될 것으로 기대된다. 씨이랩은 엔비디아의 공식 파트너사로, GPU 활용률을 극대화하는 솔루션 AstraGo로 국내 AI GPU 시장에서 독보적 SW 개발 역량을 구축해왔다. AstraGo는 쿠버네티스(Kubernetes) 기반의 컨테이너 기술을 활용해 AI 프로젝트의 배포 및 관리를 자동화해 복잡한 AI 인프라 운영 부담을 줄인다. 기업은 이를 통해 운영 비용 절감과 AI 모델 학습 및 추론 작업의 생산성 향상이라는 두 가지 효과를 동시에 누릴 수 있다. 한국정보공학은 이커머스 데이터 분석 및 IT기기 유통 전문기업으로, HPE, LENOVO 등 다양한 글로벌 IT사의 총판으로서 폭넓은 산업 분야로 사업을 전개하고 있다. 특히 대규모 서버 공급과 AI 인프라 사업의 확대로 가파른 성장세를 보이고 있다. 2021년부터는 AI 기반 빅데이터 분석 서비스를 출시하며 데이터 플랫폼으로 사업 영역을 확대하고 있다. 양사는 이번 협력을 통해 다양한 산업군의 고객사를 대상으로 AI 인프라 활용 효율성을 극대화하는 최적의 솔루션을 제공한다는 계획이다. 씨이랩이 보유한 GPU 최적화 기술 역량과 한국정보공학이 보유한 AI 인프라 구축·유통 노하우가 시너지를 발휘해 AI 연구 및 운영을 지원하고 시장을 확대할 전망이다. 씨이랩 채정환 대표는 “국내 AI 인프라 유통 분야에서 업계를 선도하는 한국정보공학과의 총판 계약을 통해 산업 전반에 걸친 AI 학습·추론 인프라 효율화를 신속히 지원할 수 있게 됐다”며 “지속적인 기술 협력과 맞춤형 컨설팅을 통해 고객 가치를 높이고, 더 나아가 국내 AI 생태계를 활성화하는 데 기여하겠다”고 밝혔다. 채정환 대표는 이어 “AI 산업이 활성화되면서 자사의 GPU 최적화 솔루션 수요가 급증해 실적 성장이 기대된다”고 덧붙였다.   
작성일 : 2025-04-11