• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "컨테이너"에 대한 통합 검색 내용이 201개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오라클, 기업 데이터 보안과 효율 높이는 에이전틱 AI 혁신 발표
오라클은 보안이 강화된 에이전틱 AI(agentic AI) 애플리케이션을 빠르게 구축하고 배포할 수 있는 오라클 AI 데이터베이스(Oracle AI Database)의 새로운 혁신 기능을 발표했다. 이번 발표는 기업의 전체 운영 환경 워크로드에 맞춘 것으로, 운영 데이터베이스와 분석 레이크하우스 전반에 걸쳐 에이전틱 AI와 데이터를 통합적으로 설계한 것이 특징이다. 이를 통해 AI 에이전트는 기업 데이터가 저장된 위치에 상관없이 안전하게 실시간으로 접근할 수 있다. 또한 퍼블릭 데이터로 훈련된 대규모 언어 모델(LLM)과 기업 내부 데이터를 결합해 정확한 인사이트를 제공한다. 오라클 엑사데이터를 사용하는 고객은 ‘엑사데이터 기반 AI 검색’ 기능을 통해 대규모 다단계 에이전틱 워크로드의 쿼리 성능을 가속화할 수 있다. 오라클 AI 데이터베이스는 데이터 이동 파이프라인 구축에 따른 복잡성과 보안 위험을 줄이기 위해 다양한 기능을 도입했다. 오라클 자율운영 AI 벡터 데이터베이스(Oracle Autonomous AI Vector Database)는 직관적인 API와 웹 인터페이스를 통해 개발자가 벡터 기반 애플리케이션을 쉽게 만들 수 있게 지원한다. 오라클 클라우드 무료 티어 등에서 이용 가능하며 클릭 한 번으로 모든 기능을 업그레이드할 수 있다. 오라클 AI 데이터베이스 프라이빗 에이전트 팩토리(Oracle AI Database Private Agent Factory)는 비즈니스 분석가가 데이터 기반 에이전트와 워크플로를 노코드 방식으로 구축하도록 돕는다. 제3자와 데이터를 공유하지 않고 AI 에이전트를 관리할 수 있어 보안성이 높다. 오라클 유니파이드 메모리 코어(Oracle Unified Memory Core)는 벡터, JSON, 그래프 등 다양한 데이터를 하나의 통합 엔진에서 처리해 저지연 추론을 가능하게 한다. 보안 측면에서는 오라클 딥 데이터 시큐리티(Oracle Deep Data Security)가 도입되어 사용자별 데이터 접근 규칙을 세밀하게 관리한다. AI 에이전트는 사용자가 권한을 가진 데이터만 확인할 수 있어 프롬프트 인젝션 같은 새로운 위협으로부터 데이터를 보호한다. 오라클 프라이빗 AI 서비스 컨테이너(Oracle Private AI Services Container)는 모델을 자체 환경에서 실행해 외부 유출을 방지하며, 오라클 트러스티드 답변 검색은 LLM의 환각 현상을 줄여 검증된 답변을 제공한다. 이외에도 오라클은 아파치 아이스버그 테이블의 벡터 데이터를 지원하는 ‘오라클 벡터 온 아이스(Oracle Vectors on Ice)’와 외부 AI 에이전트의 안전한 접근을 돕는 ‘오라클 자율운영 AI 데이터베이스 MCP 서버(Oracle Autonomous AI Database MCP Server)’ 등을 통해 개방형 표준을 강화했다. 이를 통해 기업은 특정 모델에 종속되지 않고 유연하게 에이전틱 AI 환경을 구축할 수 있다. 오라클의 후안 로이자 데이터베이스 기술 부문 총괄 부사장은 “오라클 AI 데이터베이스를 활용하면 기업은 데이터를 단순히 저장하는 단계를 넘어 AI를 위해 데이터를 활성화할 수 있다”면서, “주요 클라우드와 온프레미스 환경에서 실시간 기업 데이터를 안전하게 조회하고 실행하는 자율적 AI 애플리케이션을 신속하게 관리하도록 돕는다”고 밝혔다.
작성일 : 2026-03-25
팔코DB와 LLM을 활용한 그래프 모델 BIM 기반 AI 에이전트 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 건설 인프라 분야에서 정보 교환 시 사용되는 BIM(건설 정보 모델링) 산업 표준인 IFC(Industry Foundation Classes) 기반 AI 에이전트 개발 과정을 설명한다. IFC 포맷의 BIM 데이터를 팔코DB(FalkorDB) 그래프 데이터베이스로 변환하고, 로컬 LLM인 Ollama(올라마)를 연동하여 자연어 질의가 가능한 AI 에이전트를 구축하는 전체 과정을 기술한다. 또한, 도커(Docker) 기반의 데이터베이스 서버 구성부터 파이썬(Python) 의존성 설치, 데이터 적재 및 애플리케이션 실행 방법을 단계별로 정리한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   개발 환경 및 전제 조건 이번 호에서 만들어 볼 시스템은 온프레미스 환경에서의 실행을 가정하며, 다음의 컴포넌트를 필요로 한다. 도커 : 그래프 데이터베이스(팔코DB) 실행을 위해 필요(설치 : https://www.docker.com/get-started) 파이썬 3.11+ : 데이터 변환 및 에이전트 로직 수행 올라마 : 로컬 LLM 추론 서버 하드웨어 : LLM 구동을 위한 적정 수준의 GPU 또는 메모리(RAM 16GB 이상 권장) 지면 한계 상 모든 개발 코드를 설명하기는 어려우므로, 주요 부분만 개발 방법을 설명할 것이다. 다음의 깃허브 링크를 참고해 다운로드한다. ■ https://github.com/mac999/infra_ai_agent_tutorials/tree/main/08_AI_Agent/5_infra_graph_rag 다운로드한 폴더의 구조는 <그림 2>와 같을 것이다.   그림 2   이제 이 깃허브 프로젝트의 각 핵심 모듈을 설명하도록 하겠다.   데이터베이스 서버 구축(팔코DB) 팔코DB는 레디스(Redis) API 호환 고성능 그래프 데이터베이스다. 오픈소스이며 무료이다. 그래프 구조 데이터 저장 및 검색을 지원한다.   그림 3. Graph Database uses GraphBLAS under the hood for its sparse adjacency matrix graph representation(GraphRAG) (https://github.com/FalkorDB/FalkorDB)   실행을 위해, 다음과 같이 명령창 터미널에서 도커 명령을 실행해 본다. 그러면 팔코DB 서버가 로컬에 다운로드된 후 자동 실행될 것이다. docker run -p 6379:6379 -p 3000:3000 -it --rm -v ./data:/ var/lib/falkordb/data falkordb/falkordb 상세 옵션은 다음과 같다. -p 6379:6379 : 팔코DB(레디스 프로토콜) 접속 포트 바인딩. 파이썬 클라이언트가 이 포트로 통신한다. -p 3000:3000 : (옵션) 팔코DB 시각화 도구 등을 위한 포트 바인딩 -it --rm : 대화형 모드로 실행하며, 컨테이너 종료 시 자동 삭제 -v ./data:/var/lib/falkordb/data : 호스트의 ./data 디렉터리를 컨테이너 내 데이터 저장소로 마운트하여 데이터 영속성(persistence)을 보장한다.   패키지 및 모델 설치 이제 IFC 파싱, 그래프 DB 연결, LLM 체인 구성을 위한 라이브러리를 pip로 터미널에서 설치한다. Plaintext falkordb langchain langchain-ollama langchain-core ifcopenshell python-dotenv streamlit 이제 자연어를 그래프 구조 데이터베이스를 검색할 때 사용하는 사이퍼 쿼리로 변환(Text-to-Cypher)하는 방법이 필요하다. 이 경우, 코드 생성 능력이 뛰어난 모델이 필요하다. 이번 호에서는 qwen2.5-coder:7b 모델을 사용한다. 올라마 설치(다운로드 : https://ollama.com/download/ windows) 후 다음의 명령어를 실행한다. ollama pull qwen2.5-coder:7b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-02-04
오라클, “국내 스타트업 4개사에 클라우드 인프라 제공해 AI 기반 서비스 혁신 지원”
한국오라클이 뉴로플로우, 스포잇, 윤회, 코넥시오에이치 등 국내 4개 스타트업에 오라클 클라우드 인프라스트럭처(OCI)를 제공했다고 밝혔다. 4개사는 OCI를 활용해 AI 기반 기술 역량을 한층 더 강화하고, 오라클의 글로벌 인프라를 기반으로 해외 시장 진출을 위한 토대를 마련했다. 오라클은 OCI가 다양한 규모의 AI 학습 및 추론 프로젝트를 지원하면서, “생성형 AI 구축을 위한 주요 인프라로 부상하고 있다”고 전했다. RAG 기반 지능형 업무지원 플랫폼 ‘뉴로보드’를 운영하는 뉴로플로우는 교육기관과 산업체 등으로 고객사를 확대하면서 데이터 처리량이 급증하고 더 높은 수준의 추론 성능이 필요했다. 특히 RAG 기반 검색과 LLM을 결합해 신뢰할 수 있는 출처 기반의 정확한 응답을 제공하는 AI 설루션 특성상, 확장성과 안정성을 갖춘 클라우드 기반 AI/ML 플랫폼이 필수였다. 뉴로플로우는 OCI를 도입해 이러한 과제를 해결했으며, OCI의 고가용성 인프라로 장애 없는 안정적인 서비스 운영이 가능해졌다. 실제 사용량 기반 오토스케일링을 통해 챗봇 응답 품질 향상과 함께 인프라 비용도 절감할 수 있었다. 스포잇은 데이터 기반 전력 분석 및 자동 클립 생성 등 스포츠 AI 영상 서비스를 제공한다.  고객 수요가 빠르게 증가함에 따라, 서비스 확장을 위한 대규모 연산 자원 확보와 AI 실험 비용 절감 및 MLOps 기반 개발 효율화가 주요 과제로 떠올랐다. 이에 회사는 대규모 추론 연산을 효율적으로 지원하는 OCI 베어메탈 인스턴스(OCI Bare Metal Instances)를 도입했다. 이후 OCI의 저지연 네트워크와 높은 처리 성능을 활용하여 모델 학습 시간을 단축하고, 영상 처리 속도를 개선했으며 MLOps 환경도 성공적으로 구축했다. 그 결과 AI 기반 콘텐츠 생산성은 최대 6배, 분석 효율은 약 70% 개선했다. AI 기반 순환패션 플랫폼 케어아이디(CARE ID)를 운영하는 윤회는 글로벌 진출을 앞두고 플랫폼의 응답성, 확장성, 가용성을 전반적으로 강화할 필요성이 있었다. 이에 회사는 OCI로 전환하면서 OCI 컨테이너 레지스트리(OCIR : OCI Container Registry)와 OCI 쿠버네티스 엔진(OKE : OCI Kubernetes Engine)을 도입해 안정적이고 효율적인 AI 인프라를 구축했다. 그 결과, 서비스 운영 안정성을 혁신하는 동시에 기존 클라우드 대비 60%의 운영 비용을 절감할 수 있었다. 핀테크 서비스 기업 코넥시오에이치는 이커머스 데이터베이스와 AI를 활용해 소상공인의 사업 성과를 시각화하고, 이를 기반으로 금융 접근성을 높이는 서비스를 제공하고 있다. 회사는 클라우드 기반의 LLM 서비스 고도화 및 대규모 전자상거래 데이터 분석을 통해 맞춤형 인사이트를 제공하고자 했다. 이를 위해 확장성과 비용 효율성을 갖춘 고성능 플랫폼을 필요로 했다. 이에 회사는 OCI 베어메탈 인스턴스와 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database)를 도입했다. 그 결과, 인프라 운영 비용을 약 40% 절감하는 동시에, 서비스 전반을 안정적으로 확장할 수 있는 기반을 마련할 수 있었다. 이들 네 개 회사는 중소벤처기업부, 창업진흥원(KISED) 및 서울과학기술대학교와 공동으로 진행한 글로벌 기업 협업 프로그램 ‘미라클’에 선정된 스타트업으로, 정부와 글로벌 기업의 지원을 바탕으로 기술력을 고도화하고 해외 시장 진출의 기회를 확보하는 데에 성공했다. 창업진흥원의 유종필 원장은 “이번 미라클 프로그램을 통한 오라클과의 협력으로 국내 유망 스타트업들이 세계적 기술 경쟁력을 확보하고, 글로벌 투자 및 사업 기회를 넓힐 수 있게 되어 기쁘게 생각한다”면서, “창업진흥원은 앞으로도 역량 있는 창업기업들이 글로벌 기술 선도 기업과 협력해 글로벌 혁신을 이끌고 해외시장에 진출할 수 있도록 지원을 아끼지 않을 것”이라고 말했다. 한국오라클의 김성하 사장은 “빅데이터와 AI 기반 시장 환경이 빠르게 변화하는 가운데, 이번 미라클 프로그램에 참여한 스타트업들이 OCI를 활용해 가시적인 성과를 낸 것은 오라클이 국내 기업의 기술 경쟁력 강화에 핵심적인 역할을 하고 있음을 보여준다”면서, “앞으로도 고성능 클라우드 인프라와 차별화된 기술력을 바탕으로, 유망 AI 스타트업과 함께 혁신 생태계를 확장해 나갈 것”이라고 말했다.
작성일 : 2026-01-21
팔란티어 온톨로지 플랫폼 아키텍처 기술 해부 및구현 방법
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 세계적으로 주목받고 있는 팔란티어(Palantir)의 온톨로지 플랫폼 아키텍처를 소프트웨어 공학 관점에서 분석하고, 오픈소스 기술을 활용한 구현 방법을 정리한다. 팔란티어의 핵심은 기존 시스템을 대체하는 것이 아니라, 통합하고 확장하는 개방성에 있다. 이번 호에서는 국방이나 제조 분야에서 팔란티어가 어떻게 검증된 오픈소스 기술 기반 위에 독자적인 온톨로지(ontology)라는 의미론적 추상화 계층을 구축했는지, 그리고 그 구조를 파헤쳐 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   팔란티어 아키텍처 팔란티어 아키텍처의 근간에는 ‘대체가 아닌 통합’이라는 철학이 있다. 이는 기업이 이미 막대한 투자를 한 데이터레이크, ERP, CRM과 같은 기존 IT 환경을 교체하는 대신, 이들을 하나로 묶고 그 가치를 증대시키는 플랫폼 역할을 하는 것이다. 이러한 철학은 아키텍처의 명확한 관심사 분리로 이어진다. 배포, 오케스트레이션, 데이터 처리와 같은 하위 계층은 의도적으로 쿠버네티스(Kubernetes), 스파크(Spark), 플링크(Flink) 등 보편적인 오픈소스 표준 위에 구축된다. 이를 통해 고객의 기존 기술 스택 및 엔지니어링 역량과 마찰 없이 통합된다. 반면, 온톨로지, AI 플랫폼(AIP)과 같은 상위 계층에는 팔란티어의 독자적인 지적 재산이 집중된다. 이 구조는 고객이 새로운 데이터베이스나 컴퓨팅 엔진이 아닌, 기존 자산과 상호 작용하는 새로운 패러다임을 구매하게 만들어 비즈니스 가치를 제안한다. 플랫폼의 안정성과 확장성은 두 가지 핵심 기술, 즉 자율 배포 시스템인 아폴로(Apollo)와 쿠버네티스 기반의 컨테이너 오케스트레이션 기판인 루빅스(Rubix)에 의해 뒷받침된다. 이 기반 위에서 데이터 통합 및 분석 플랫폼인 파운드리(Foundry), 국방 및 정보 분석에 특화된 고담(Gotham), 그리고 AI 모델을 온톨로지와 연결하는 AIP(Artificial Intelligence Platform)가 운영된다.   그림 1. 팔란티어 아키텍처 구조 개념도   그림 2. 국방 분야 서비스인 팔란티어 고담 플랫폼   그림 3. 서비스의 지속적인 자율 통합/배포(CI/CD)를 위한 팔란티어 아폴로   데이터 처리 워크플로 팔란티어의 워크플로는 이기종의 파편화된 데이터 소스를 연결하고, 이를 구조화된 지식으로 변환하여 온톨로지 모델로 변환한다.   데이터 수집 및 파싱 PDF, 문서, 이미지와 같은 비정형 데이터는 먼저 ‘미디어 셋(media sets)’이라는 파일 모음으로 수집된다. 데이터를 파싱하는 과정은 블랙박스가 아니다. 개발자는 파이썬(Python)이나 자바(Java) 변환과 저수준 파일 시스템 API를 사용하여 직접 파이프라인을 구축한다. 이는 결정론적이고, 테스트 가능하며, 버전 관리가 가능한 파이프라인을 통해 신뢰성과 거버넌스를 확보하는 엔지니어링 중심의 접근 방식이다. 더 나아가 AIP는 AI 기반 파싱 기능을 제공한다. 이는 사전 훈련되거나 맞춤화된 AI 모델(예 : NLP 모델)을 파이프라인 내에 통합하여 개체명 인식, 요약과 같은 정교한 작업을 수행하는 방식이다. 이 구조는 엔지니어가 견고한 데이터 파이프라인을 구축하고, AI 엔지니어가 그 안에 두뇌 역할을 하는 모델을 배포하는 효율적인 이중 계층 시스템을 만든다.   기반 처리 기술 이러한 데이터 변환 및 통합 로직은 독점 엔진에 종속되지 않는다. 모든 데이터는 아파치 파케이(Apache Parquet), 아브로(Avro)와 같은 표준 형식으로 저장되며, 대규모 배치 처리를 위한 아파치 스파크, 실시간 스트림 처리를 위한 아파치 플링크와 같은 오픈소스 런타임을 사용한다.   온톨로지 메타모델 온톨로지는 팔란티어의 핵심 차별화 요소로, 기업의 모든 데이터, 모델, 프로세스를 현실 세계의 대응물(공장, 고객, 제품 등)과 연결하는 의미론적, 동역학적 계층이다. 이는 기업의 ‘디지털 트윈(digital twin)’ 역할을 한다. 온톨로지의 개념은 객체 지향 프로그래밍(OOP)과 매우 유사하다. 객체(object)는 클래스(class)에 해당한다. 온톨로지의 ‘항공기’ 객체 유형은 OOP의 Aircraft 클래스와 같다. 속성(property)은 속성(attribute)에 해당한다. ‘항공기’ 객체의 ‘꼬리 번호’ 속성은 Aircraft 클래스의 tailNumber 속성과 같다. 연결(link)은 객체 간의 관계(association)에 해당한다. ‘조종사’가 ‘항공기’에 탑승한다는 연결은 Pilot 객체와 Aircraft 객체 간의 관계를 정의한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-12-02
윈드리버, 블랙박스와 지능형 에지 및 클라우드 혁신 위한 파트너십 체결
지능형 에지 소프트웨어를 제공하는 글로벌 기업인 윈드리버가 디지털 인프라 전문 기업 블랙박스(Black Box)와 전략적 파트너십을 체결하고 산업·제조·소매·금융·자동차·통신 등 다양한 시장에 차세대 지능형 에지 및 프라이빗 클라우드 설루션을 제공한다고 밝혔다. 이번 협업을 통해 윈드리버는 마이그레이션 기능을 탑재한 ‘윈드리버 클라우드 플랫폼(Wind River Cloud Platform)’ 및 엔터프라이즈 리눅스인 ‘eLxr Pro’를 블랙박스의 글로벌 통합 역량 및 고객 중심 접근 방식을 결합함으로써, 디지털 인프라 전환을 가속하고 운영을 현대화하고자 하는 엔터프라이즈 고객들을 폭넓게 지원한다는 계획이다. 윈드리버 클라우드 플랫폼은 가상화 및 컨테이너화된 애플리케이션을 위한 실제 운영 수준의(production-grade) 분산형 쿠버네티스 설루션으로, 오케스트레이션, 자동화 및 분석 툴을 통해 시간을 절감할 수 있도록 돕는다. 미션 크리티컬한 환경에서 복잡한 클라우드 아키텍처를 배포하고 관리할 수 있게끔 설계된 점이 특징이다. 오픈 소스이며 엔터프라이즈급 데비안(Debian)의 파생 프로젝트인 eLxr 프로젝트를 기반으로 하는 ‘eLxr Pro’는 커뮤니티 배포판에 커머셜 엔터프라이즈 지원 및 유지 보수를 추가함으로써, 기업에서는 확장 가능하고 안전하며 신뢰성이 높은 리눅스 설루션을 채택하고, 클라우드 투 에지 배포의 복잡한 과제를 해결하도록 지원한다. 양사의 이번 전략적 파트너십은 ▲통합된 인텔리전트 에지, 강력한 디지털 및 클라우드 네이티브 인프라 ▲안전하고 확장 가능한 프라이빗 클라우드 구축 ▲수명주기 자동화 및 중앙 집중식 오케스트레이션 ▲가상 머신 및 마이그레이션, 컨테이너, AI 워크로드 지원 ▲장기적인 지원 및 보안을 제공하는 엔터프라이즈급 리눅스 등과 같은 영역에 집중되어 있다. 이번 협력의 일환으로, 블랙박스는 윈드리버와 별도의 계약을 체결해 여러 지역에서 최종 고객과의 계약을 직접 수행할 예정이다. 윈드리버와 블랙박스는 기업 고객이 가진 고유한 운영 및 규제 요구 사항에 맞춰 탄력적인 고성능 디지털 인프라를 구축할 수 있도록 지원할 계획이다. 윈드리버의 대럴 조던 스미스(Darrell Jordan-Smith) 최고 매출 책임자는 “윈드리버 클라우드 플랫폼과 eLxr Pro는 오늘날 기업들이 요구하는 확장 가능하고 안전하며 효율적인 인프라를 제공하며, 블랙박스와의 협력을 통해 이러한 기능을 대규모로 구현할 수 있게 됐다”면서, “이번 파트너십을 통해 고객은 신뢰할 수 있는 시스템 통합, 운영 지원, 배포 범위가 뒷받침되는 검증된 고성능 에지 및 클라우드 아키텍처를 더 빠르게 구현할 수 있다. 이를 통해 혁신을 가속화하고, 위험을 줄이며, 클라우드에서 에지를 잇는 전체 환경을 더 스마트하게 운영할 수 있다”고 말했다. 블랙박스의 산지브 베르마(Sanjeev Verma) 사장 겸 CEO는 “인텔리전트 에지를 위한 혁신적인 기술을 제공하는 윈드리버와 함께 통합 전문성을 결합하여 효율성을 높이고, 혁신을 앞당기며, 새로운 수익원을 창출하는데 유리한 입지를 확보하게 됐다. 블랙박스는 이번 파트너십을 통해 하이퍼컨버지드 및 에지 컴퓨팅에 진출함으로써 디지털 인프라 혁신의 선두에서 장기적인 가치를 창출하고자 한다”고 덧붙였다.
작성일 : 2025-10-20
인텔, 아크 프로 B-시리즈 GPU 및 제온 6 프로세서의 AI 추론 벤치마크 결과 소개
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.1 벤치마크에서 P코어를 탑재한 인텔 제온(Intel Xeon) 및 인텔 아크 프로 B60(Intel Arc Pro B60) 그래픽으로 구성된 인텔 GPU 시스템(코드명 프로젝트 배틀매트릭스)의 추론용 워크스테이션이 달성한 결과를 공개했다. 6가지 주요 벤치마크 테스트 결과, 라마(Llama)4 80B 모델 추론 처리량에서 인텔 아크 프로 B60은 엔비디아 RTX 프로 6000 및 L40S에 비해 각각 최대 1.25배 및 최대 4배의 가격 대비 성능 우위를 보였다. 인텔은 “이는 하이엔드 워크스테이션 및 에지 애플리케이션 전반에 걸쳐 새로운 AI 추론 워크로드를 처리하는 인텔 기반 플랫폼의 성능과 접근 우수성을 보여주는 결과”라고 평가했다. 인텔의 리사 피어스(Lisa Pearce) 소프트웨어, GPU 및 NPU IP 그룹 총괄은 “MLPerf v5.1 벤치마크 결과는 인텔의 GPU 및 AI 전략을 강력히 입증하고 있다. 새로운 추론 최적화 소프트웨어 스택을 탑재한 아크 프로 B-시리즈 GPU는 기업과 개발자가 강력하면서도 설정하기 쉽고, 합리적인 가격에 확장 가능한 추론 워크스테이션으로 AI 분야에서 경쟁력을 높여준다”고 밝혔다.     이전까지는 높은 추론 성능을 제공하면서 데이터 프라이버시 침해에서 자유로운 플랫폼을 우선시하는 전문가들이 독점적인 AI 모델에 의한 과도한 구독 비용 부담 없이 LLM(대형 언어 모델)을 배포하기에 필요한 역량을 갖추기 위한 선택지가 제한적이었다. 새로운 인텔 GPU 시스템은 최신 AI 추론 요구사항을 충족하도록 설계되었으며, 풀스택 하드웨어와 소프트웨어를 결합한 올인원(all-in-one) 추론 플랫폼을 제공한다. 인텔 GPU 시스템은 리눅스 환경을 위한 새로운 컨테이너 기반 설루션을 통해 간소화된 도입과 사용 편의성을 목표로 한다. 또한 멀티 GPU 스케일링 및 PCle P2P 데이터 전송으로 높은 추론 성능을 발휘하도록 최적화되었으며, ECC, SRIOV, 텔레메트리(telemetry) 및 원격 펌웨어 업데이트 등과 같은 엔터프라이즈급 안전성 및 관리 용이성을 갖추고 있다. CPU는 AI 시스템에서 계속해서 중요한 역할을 수행하고 있다. 오케스트레이션 허브로서 CPU는 데이터 전처리, 전송 및 전반적인 시스템 조율을 담당한다. 지난 4년간 인텔은 CPU 기반 AI 성능을 지속적으로 향상시켜왔다. P 코어를 탑재한 인텔 제온 6는 MLPerf 추론 v5.1에서 이전 세대 대비 1.9배의 성능 향상을 달성했다.
작성일 : 2025-09-10
[온에어] 창의적 디자인의 미래, AI와 3D 프린팅에서 찾는다
캐드앤그래픽스 지식방송 CNG TV 지상 중계   CNG TV는 7월 7일 ‘창의적 디자인, AI와 3D 프린팅으로 만드는 미래’를 주제로 웨비나를 개최했다. 이번 웨비나에서는 홍익대학교 최성권 교수가 사회를 맡고 후스디자인 이광후 대표가 발표자로 참여해, 창의적 디자인이 AI(인공지능)와 3D 프린팅을 통해 어떻게 미래를 만들어가는지 집중 조명했다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자   ▲ 3D 프린팅을 통한 아이디어의 실현에 대해 소개한 후스디자인 이광후 대표   디자이너와 창작자가 창의성과 지속 가능성을 동시에 추구하는 시대가 도래했다. 후스디자인 이광후 대표는 AI와 3D 프린팅 기술의 융합을 통해 미래 디자인의 방향을 제시했다. 이광후 대표는 “디자인은 단지 사물을 만드는 일이 아니라, 삶의 방식을 제시하는 문화적 행위”라면서 ▲3D 프린팅을 통한 아이디어 실현, ▲디자인과 사회적 지속 가능성, ▲생성형 AI와 디자이너의 미래라는 세 가지 축을 중심으로 디자인이 나아갈 길을 조망했다.   3D 프린팅으로 구현한 창의적 아이디어 이 대표는 성당 양식의 다이닝 컨테이너, 레고처럼 조합 가능한 가구 시스템, 패놉티콘 개념을 형상화한 조형물 등 다양한 3D 프린팅 기반 프로젝트를 소개했다. 특히 SLS 방식의 프린팅 기술을 활용해 높은 완성도와 구조적 강도를 확보했으며, 프로토타입 제작부터 실제 제품화까지 폭넓은 가능성을 제시했다. 그는 “3D 프린팅은 자유로운 형상 구현과 실험적 시도를 가능하게 해주는 도구”라고 강조했다.   재활용 플라스틱과 지속 가능한 디자인 이 대표는 친환경 소재의 활용도 강조했다. 병뚜껑을 압착해 제작한 재활용 플라스틱 상판은 단순한 기능을 넘어 환경 메시지를 담은 오브제로 구현되었고, 서울시립대 학생들과 함께 진행한 샴푸 브러시 디자인 프로젝트는 다양한 사용자 상황을 반영한 실용적이면서도 유쾌한 제품을 선보였다. 그는 “디자인은 사회와 세대를 연결하는 매개체다. 지속 가능성은 이제 선택이 아닌 필수”라고 말했다.   ▲ 3D 프린팅을 통한 아이디어의 실현에 대해 소개   생성형 AI는 디자이너의 새로운 도구디자인 산업에서 생성형 AI의 등장은 위기이자 기회다. 이 대표는 AI가 반복 작업과 시각 자료 생성에서 유용한 도구가 될 수 있으며, 궁극적으로는 디자이너의 시각적 안목과 감성적 판단을 더욱 강조하게 될 것이라고 설명했다. AI와 3D 프린팅의 결합은 산업디자인의 새로운 가능성을 여는 열쇠로 떠오르고 있다. 이 대표는 데미안 허스트나 제프 쿤스 같은 현대 아티스트의 예를 들며, 디자인과 예술이 완성품보다 ‘과정’과 ‘스토리’에 가치를 두는 방향으로 진화하고 있다고 강조했다. 또한 디자인의 무형 가치는 아카이빙과 퍼포먼스를 통해 확장될 수 있으며, 이는 브랜드와 창작자의 정체성을 더욱 공고히 하는 전략이 될 수 있다고 덧붙였다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
실시간 데이터 수집 및 분석, 2D/3D 가상화 솔루션, OCTOPUS Hub
주요 디지털 트윈 소프트웨어   실시간 데이터 수집 및 분석, 2D/3D 가상화 솔루션, OCTOPUS Hub(옥토퍼스 허브)   개발 및 자료 제공 : UVC, 031-346-3366, www.uvc.co.kr   유비씨는 고객의 디지털 전환을 위해 데이터 수집부터 분석, 가상화까지 스마트 팩토리에 필요한 전 주기 솔루션을 개발하는 디지털 트윈 전문기업이다. 국제 산업 표준(OPC UA) 인증으로 이기종의 기계/설비/센서 등을 한 번에 연결하고 노코딩(No-coding) 방식으로 사용자가 쉽게 데이터를 관리 및 활용할 수 있으며, 다수의 공장을 중앙에서 관리하고 협업함으로써 즉각적인 장애 대처, 현장 작업자 교육, 유지보수, 비용 절감을 가능하게 한다.   1. 주요 특징  유비씨의 주력 솔루션인 OCTOPUS Hub는 OPC UA 기반으로 설계되어 공장 내 다양한 설비와 기계를 유연하게 연결하고, 실시간 데이터 수집 및 분석, 2D/3D 가상화를 통해 공장의 운영 효율성을 높인다. 2. 주요 기능 (1) 물리적 시스템과 디지털 시스템의 통합 • 데이터 수집: 센서, PLC, IoT 디바이스 등 물리적 시스템으로부터 데이터를 실시간으로 수집 • 상호 연결성: 물리적 시스템과 디지털 시스템 간 상호운용성 보장 • 디지털 트윈 지원: 물리적 시스템의 디지털 표현을 생성하여 시뮬레이션, 예측 분석, 설계 검증에 활용 (2) OPC UA 모델러 • 사용자들이 공장 내 모든 데이터 포인트 및 인스턴스를 OPC UA로 모델링 할 수 있도록 하는 드롭 앤 드랍 방식의 툴 (3) 스마트 커넥터 • 엣지 컴퓨팅 환경에서 동작하며, 다양한 산업용 디바이스(PLC, 센서)로부터 데이터를 실시간으로 수집·제어하는 동시에, PC의 상태 정보까지 제공하는 전문 프로그램 (4) 캡캐처 • 다양한 설비 프로토콜을 내장해 폭넓은 설비를 지원하며, 실시간 메모리 변화 감지·리포팅, 특정 데이터 검색, 그리고 메모리 녹화를 통한 분석 기능을 제공함으로써 쉽고 효율적인 메모리 스캔을 가능케 하는 전문 툴 (5) 엣지 컴퓨팅 역할 엣지는 실시간 데이터 처리와 물리적 시스템과의 직접 연동을 담당한다. 1) 엣지 컴퓨팅 주요 기능 • 스마트 커넥터 Shop Floor 설비의 Plug & Play  • 데이터 수집 및 전처리 Shop Floor 설비, 센서, PLC와 직접 연결해 데이터를 수집 및 전처리 이기종 프로토콜 변환 및 OPC UA 서버 내장으로 데이터 표준화 • 실시간 처리 및 제어 클라우드로 전송 전 데이터 분석 및 로컬 제어 수행. 낮은 대기 시간을 요구하는 애플리케이션 지원(예: 로봇 제어, 제조 장비 운영). • 컨테이너 기반 서비스 관리 컨테이너 기술(Docker, Kubernetes)을 활용한 서비스 배포 및 업데이트 용이 시스템 확장성 강화 및 장애 시 복구 지원 • 클러스터링 및 안정성 장애 발생 시 단일 실패 지점 방지 및 부하 분산 수행 클러스터 기반 인프라를 통해 안정적 운영 가능 2) 엣지와 CPS 서버 간 협력 • 엣지에서 처리된 데이터를 CPS 서버로 전달하여 고급 분석 및 집계 수행. • CPS 서버는 엣지에서 발생한 데이터를 통합 관리하며, 공장 내 설비와 CPS 간 실시간 연결 유지 (6) 데이터 처리 및 분석 • 분산 데이터 처리 엣지, Fog, Cloud 간 데이터 처리 분담으로 효율성 향상 • 고급 분석 및 의사결정 AI/ML 기반의 데이터 분석 및 예측 기술을 활용해 효율성 극대화 이상 감지 및 사전 예방적 유지보수 수행 (7) 제어 및 피드백 • 실시간 피드백 루프 물리적 시스템 상태를 모니터링하고 분석 결과를 실시간으로 제어에 반영 • 로컬 제어 및 중앙 집중 제어 엣지에서 로컬 제어를 수행하고 CPS 서버에서 중앙 집중적 관리 수행      (8) 네트워크 통신 및 표준 준수 • 산업용 IoT 표준 준수 OPC UA, MQTT 등 국제 표준 프로토콜 기반으로 상호운용성 보장 • 데이터 통신 최적화 엣지에서 데이터를 필터링하고 필수 데이터만 클라우드로 전송하여 네트워크 부하 감소 (9) 시스템 확장성 및 안정성 • 분산 인프라 엣지와 CPS 서버 간 분산 구조를 통해 시스템 확장성과 안정성 확보 클러스터 기반 아키텍처로 확장성 지원 • 단일 실패 지점 방지 장애 복구 및 자동 재구성을 통해 시스템 신뢰성 강화 (10) 보안 및 신뢰성 • 데이터 암호화 및 인증 센서에서 CPS 서버에 이르기까지 모든 데이터의 안전한 통신 보장 • 공격 탐지 및 복구 보안 위협 탐지 및 복구 메커니즘 내장 (11) 사용성과 인터페이스 • 사용자 대시보드 실시간 데이터 모니터링, 경고 및 알림 제공 • 직관적인 인터페이스 AR/VR 및 시각화 기술을 활용한 직관적 운영   3. 도입 효과 (1) 생산성 향상 실시간 데이터 분석과 자동 제어를 통해 생산 공정의 속도와 효율성을 극대화 (2) 운영 효율성 증가 실시간 모니터링과 분석을 통해 공정 병목현상을 제거하고, 자원 활용을 최적화 (3) 데이터 기반 의사결정 실시간 데이터와 분석 결과를 기반으로 신속하고 정확한 경영 및 운영 의사결정 지원 (4) 작업자 안전 강화 위험 요소를 실시간으로 감지하고 경고하여 작업자 안전을 확보 (5) 스마트 공장 구현 디지털 트윈과 엣지 컴퓨팅 기술을 활용하여 공장의 디지털화 및 자동화 추진 (6) 생산 라인의 신속한 전환 가능 데이터 중심의 유연한 제어 및 소프트웨어 중심의 설정 변경 (7) 지속 가능성 증대 생산 공정에서의 에너지 사용과 자원 소모를 실시간으로 모니터링하고 최적화함으로써 환경 영향을 최소화 (8) 데이터 기반 생산 공정 최적화 생산의 전 과정에서 제품, 공정, 설비, 공장 등 모든 개체를 연결, 감시하고 모아진 제조 빅데이터를 관리, 정제, 분석하여 자율, 능동적으로 설계, 운영 최적화를 달성 4. 주요 고객 사이트 현대, 기아, 현대모비스, 현대오토에버, 삼성SDI, 삼성바이오로직스, HL만도, SGC 에너지, 국방기술품질원, 콤텍시스템, 이안, 효성 ITX, LG U+, 유진 로봇(Yujin ROBOT)     상세 내용은 <디지털 트윈 가이드>에서 확인할 수 있습니다. 상세 내용 보러가기
작성일 : 2025-06-29
인공지능 AI 에이전트 표준 프로토콜 MCP의 사용, 분석 및 개발
BIM 칼럼니스트 강태욱의 이슈 & 토크   MCP(Model Context Protocol)는 클로드(Claude)의 개발사인 앤트로픽(Anthropic)의 인공지능 AI 에이전트 표준 프로토콜이다. 이번 호에서는 최근 많은 이슈가 되고 있는 MCP의 사용 방법을 간략히 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. MCP의 개념   MCP는 애플리케이션이 LLM(대규모 언어 모델)에 컨텍스트를 제공하는 방식을 표준화한 개방형 프로토콜이다. USB-C 포트처럼, 다양한 도구와 데이터를 LLM에 연결하는 통합된 인터페이스 역할을 한다. LLM 기반 에이전트와 워크플로 구축을 지원하며 유연한 통합, 데이터 보호, 공급업체 간 전환성을 제공한다. MCP를 이용하면 AI 에이전트가 다양한 도구를 이용해 기존 LLM보다 훨씬 많은 일을 할 수 있다. 예를 들어, LLM에서 실시간 웹 자료를 이용해 여행 일정을 짜고, 마케팅 보고서를 만들며, 레빗(Revit)과 같은 3D 모델 콘텐츠를 프롬프트 엔지니어링으로 개발할 수 있다.   그림 2. AI 에이전트 기반 3D 모델링(United Top Tech 유튜브)   그림 3. MCP 도구 서버(https://mcp.so)   MCP의 개념 아키텍처 구조 MCP는 호스트-클라이언트-서버 구조로 구성되며, 로컬 및 원격 데이터를 안전하게 연결할 수 있는 아키텍처를 따른다. 호스트는 서버에서 제공해 주는 파일 관리, 웹 서칭, 계산 등의 도구를 연결해 LLM을 통해 추론, CoT, 도구 호출, 생성 등의 역할을 담당한다.   그림 4. MCP의 구조   각 구성요소의 역할은 다음과 같다. MCP 호스트는 MCP 프로토콜을 통해 서비스에 액세스할 수 있는 애플리케이션이다. 클로드 데스크톱 앱, AI 에이전트/CLI, 커서 IDE 등이 이에 해당하며, LLM(로컬 또는 원격)을 활용하여 다양한 작업을 수행한다. MCP 클라이언트는 MCP 서버와 연결하기 위해 호스트 애플리케이션과 통합된 클라이언트이다. MCP 서버는 MCP 프로토콜을 통해 특정 기능을 노출하는 응용 프로그램 또는 프로그램이다. 서버는 도커(Docker) 컨테이너, JVM, Node.js(UV/UVX) 프로세스에서 실행될 수 있으며, MCP 커뮤니티에서 제공하는 사전 구축된 서버를 활용할 수도 있다. 로컬 데이터 소스는 로컬 시스템에 존재하는 데이터베이스 또는 파일 시스템이다. 원격 서비스는 웹 API를 통해 액세스할 수 있는 깃허브(GitHub), 브레이브 서치(Brave Search)와 같은 외부 리소스이다. MCP를 이용하면 서버, 클라이언트, 로컬에 있는 파일, 폴더, 앱에 접근해 이를 LLM으로 컨트롤할 수 있다. MCP 구조를 구성하는 호스트와 서버는 다음과 같은 도구를 통해 구성해 활용한다. 호스트 : 클로드, 커서(Cursor), 챗GPT(ChatGPT), 깃허브 코파일럿(Github Copilot) 등 서버 : Model Context Protocol Servers(https://github. com/modelcontextprotocol/servers) MCP는 전형적인 호스트-서버 프로토콜(TCP/IP와 유사)을 따른다. 서버의 실행 모드는 SSE(server sent event)와 stdio(표준입출력) 모드가 있다. SSE는 네트워크로 연결해 도구를 호출할 수 있도록 한다. stdio는 로컬 자체에서 도구를 호출할 수 있도록 한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-06-04
[포커스] AWS 서밋 서울 2025, “생성형 AI와 클라우드 혁신으로 산업 디지털 전환 가속화”
아마존웹서비스(AWS)가 5월 14일~15일 서울 코엑스에서 ‘AWS 서밋 서울 2025’를 진행했다. 4만여 명이 사전 등록한 이번 서밋에는 생성형 AI를 중심으로 다양한 산업 분야와 기술 주제에 대해 130개 이상의 강연이 진행됐고, 60개 이상의 고객사가 AWS 도입 경험과 성공 사례를 소개했다. 또한 현실에 적용 가능한 도구로서 생성형 AI 활용 사례를 체험할 수 있는 엑스포 등 다양한 프로그램이 진행됐다. ■ 정수진 편집장   생성형 AI와 클라우드 전환 중심의 시장 전략 AWS 코리아의 함기호 대표이사는 생성형 AI가 일상을 빠르게 변화시키고 있다고 짚었다. 연구 결과에 따르면 한국 기업의 54%가 2025년 IT 예산에서 생성형 AI를 최우선 투자 항목으로 꼽았다. 그리고 63%의 조직이 최고 AI 책임자(CAIO)를 임명하는 등, AI는 기업의 조직 구조에도 변화를 가져왔다. 생성형 AI의 도입 속도는 매우 빨라서 94%의 기업이 이미 도입했고, 85%는 활발한 실험을 진행 중이다. 하지만 이러한 실험이 실제 활용으로 이어지는 비율은 아직 절반 이하에 머물고 있는 것으로 나타났다.   ▲ AWS코리아 함기호 대표   AWS는 고객들이 클라우드 전환을 지속적인 혁신의 여정으로 인식하고 있다는 점에 주목하고 있다. 과거에는 클라우드가 단순히 비용 절감 수단 또는 일회성 프로젝트로 여겨졌지만, 이제는 비즈니스 민첩성과 경쟁력 확보를 위해 클라우드 네이티브 환경으로의 전환을 더욱 중요하게 생각하고 있다는 것이다. 함기호 대표이사는 “AWS는 이러한 변화와 함께 고객의 디지털 전환을 지속적으로 지원하고 있다”면서, 작년에 이어 올해도 생성형 AI와 IT 현대화를 주요 사업 전략으로 진행하고 있다고 소개했다. 그는 또한 한국 시장에 대한 지원과 성과에 대해서도 소개했다. 올해에는 AWS 마켓플레이스(AWS Marketplace)가 한국에 정식으로 출시되었다. 지난 3월에는 한국인터넷진흥원의 클라우드 보안 인증(CSAP) 3등급을 획득하여, 공공기관에 클라우드 서비스를 제공할 수 있게 되었다. 개발자를 위한 생성형 AI 서비스인 아마존 Q 디벨로퍼(Amazon Q Developer)가 4월부터 한국어 지원을 시작했다. 이외에도 AWS는 한국 기업이 파운데이션 모델(FM)을 개발하고 해외로 빠르게 진출할 수 있도록 지원을 이어갈 예정이다.   컴퓨팅/스토리지/보안 등 주요 클라우드 기술 요소 소개 AWS는 이번 서밋이 기술 중심에서 기술 경험 중심으로 초점을 옮겨, 생성형 AI를 포함한 자사의 기술이 실제 문제 해결에 어떻게 기여하는지 보여주는 데 초점을 맞추었다고 설명했다. 서밋의 첫째 날인 5월 14일 기조연설에서 AWS의 야세르 알사이에드(Yasser Alsaied) IoT 부문 부사장은 “AWS가 불가능해 보이는 것을 상상하고 만들 수 있도록 돕는 기술을 제공한다”고 소개했다. 그가 소개한 주요 기술은 보안, 확장성, 컴퓨팅, 스토리지 등이다. AWS는 칩부터 클라우드까지 모든 수준에서 보안을 구축하고 고객 데이터에 접근할 수 없도록 했다. 또한, 전 세계의 인프라 리전(region)과 가용 영역(availability zone)을 연결하는 600만 킬로미터 이상의 광케이블을 보유하고 있으며, 2024년에는 네트워크 백본 용량을 80% 늘렸다. AWS는 클라우드 기반으로 필요한 만큼 컴퓨팅 리소스를 사용할 수 있도록 지원하며 가상 서버, 컨테이너 등 다양한 옵션을 제공한다. 특히 생성형 AI와 같은 복잡한 워크로드를 위해서는 엔비디아와 협력하여 GPU 인스턴스를 출시했다. 알사이에드 부사장은 세계에서 가장 빠른 슈퍼컴퓨터를 개발하기 위한 프로젝트 세이바(Project Ceiba) 및 고수요의 GPU 컴퓨팅에 즉시 예측 가능하게 액세스할 수 있는 아마존 EC2 캐퍼시티 블록을 소개했으며, “자체 개발한 프로세서인 AWS 그래비톤4(AWS Graviton4)는 이전 세대 대비 45% 빠르고 에너지 소비를 60% 줄였다. AWS는 지난 2년간 데이터센터 CPU의 50% 이상을 그래비톤으로 교체했다”고 설명했다.   ▲ AWS 야세르 알사이에드 IoT 부문 부사장   스토리지 서비스인 아마존 S3(Amazon S3)에는 현재 400조 개 이상의 오브젝트가 저장되어 있다. 한편, AWS는 대규모 분석 데이터셋을 위한 툴인 아파치 아이스버그(Apache Iceberg)를 오픈소스로 공개했고, 오브젝트 크기, 스토리지 클래스, 통계 등의 시스템 메타데이터를 자동으로 생성해 대규모 데이터셋 관리의 오버헤드를 줄이는 S3 메타데이터 등 스토리지 관련 서비스를 제공한다. 알사이에드 부사장은 이러한 스토리지 기술이 대규모 데이터를 효율적으로 관리하고 활용하는 데 있어 중요하며, 이를 통해 혁신적인 설루션을 구축할 수 있다고 강조했다.   앱 현대화 및 비즈니스 혁신을 위한 AI 기술 알사이에드 부사장은 비즈니스 혁신을 돕는 AWS의 생성형 AI 및 관련 서비스에 대해서도 소개했다. 아마존 베드락(Amazon Bedrock)은 고객에게 폭넓은 파운데이션 모델(FM) 선택권을 제공해, 아마존 및 다양한 회사의 모델 가운데 개발하는 애플리케이션에 가장 적합한 모델을 선택할 수 있도록 돕는다. 베드락은 검색 증강 생성(RAG)을 지원해 더욱 관련성 높고 정확한 응답을 제공하며, 가드레일 포 아마존 베드락(Guardrails for Amazon Bedrock)을 통해 유해한 콘텐츠를 차단할 수 있다. 알사이에드 부사장은 AI 응답의 불확실성을 줄이는 데에 도움을 주는 자동화 추론 및 프롬프트에 적합한 모델을 선택할 수 있는 지능형 프롬프트 라우팅 등의 기능도 소개했다. 또한 알사이에드 부사장은 AI 및 에이전트 기술을 활용한 애플리케이션의 현대화 사례를 소개하면서, “AWS는 고객들이 마이그레이션 과제를 극복하도록 꾸준히 지원해왔으며, 마이그레이션을 자동화하는 서비스를 제공한다”고 전했다. “닷넷 코드 변환 서비스는 애플리케이션의 현대화 시간 및 윈도우 라이선스 비용을 줄일 수 있게 돕고, VM웨어 워크로드 변환 서비스는 네트워크 설정 변환 속도를 80배 높일 수 있다. 복잡한 메인프레임 애플리케이션의 변환도 에이전트의 도움으로 몇 달 만에 완료할 수 있다”는 것이 알사이에드 부사장의 설명이다.   ▲ AWS는 생성형 AI가 제조 산업의 복잡한 업무에 도움을 줄 수 있다고 소개했다.   제조 산업 디지털 전환을 위한 데이터 통합 및 AI 활용 이번 서밋은 이틀에 걸쳐 ‘인더스트리 데이(5월 14일)’와 ‘코어 서비스 데이(5월 15일)’로 진행됐다. 5월 14일에는 현대카드와 트웰브랩스가 기조연설에서 생성형 AI 관련 인사이트를 소개했고 기술 트렌드, 생성형 AI, 산업별 트랙 등 다양한 주제의 강연이 진행되었다. 15일에는 아마존의 워너 보겔스(Werner Vogels) CTO와 디팍 싱(Deepak Singh) 데이터베이스 및 AI 부사장, 삼성전자 서치영 상무, 티맵모빌리티 김재순 CTO가 기조연설을 진행했으며, 9개 트랙에서 50여 개의 세부 강연을 통해 생성형 AI, 머신러닝, 데이터 분석, 클라우드, 데이터베이스, 보안 및 거버넌스 등 서비스별 업데이트와 활용 사례가 소개되었다. 이 가운데 14일 진행된 제조 및 하이테크 트랙에서는 디지털 전환과 인공지능을 통한 제조산업의 혁신 전략을 짚고, 국내 기업들의 사례가 소개됐다. AWS 코리아의 박천구 솔루션즈 아키텍트 매니저는 변화하는 시장 환경에서 제조 기업이 직면한 문제로 “엔지니어링 디자인, 제조, 공급망, 운영 등 각 부서의 시스템이 사일로화되어 필요한 데이터를 제때 얻기 어렵다”는 점을 꼽았다. 그러면서 “이런 문제를 해결하기 위한 디지털 전환은 전통적인 제조에서 첨단 제조로 완전히 전환하는 것을 뜻하며, 긴 여정을 통해 비즈니스 가치를 실현할 수 있어야 한다”고 전했다. 특히 제조산업 디지털 전환의 핵심 요소로 AWS가 주목한 것은 데이터의 통합이다. 박천구 매니저는 “공장에는 많은 데이터가 있고 산업 데이터는 2년마다 두 배씩 늘어나는데, 특히 OT 데이터가 대다수를 차지한다. 디지털 전환의 성공은 OT에 중점을 두고 OT-IT 데이터를 효과적으로 통합하는 데에 달려 있다”면서, “이렇게 통합된 데이터를 잘 관리하고 빅데이터・AI 등과 결합해 활용할 수 있는 구조를 갖춤으로써 각 제조 단위 및 전체 공정의 최적화가 가능하다. 특히 올해는 생성형 AI를 통한 비즈니스 전환에 대한 고민이 본격화될 것으로 보이는데, 탄탄한 데이터 기반을 구축하는 것은 생성형 AI의 효과를 실현하는 필수 조건”이라고 짚었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-06-04