• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "RAG"에 대한 통합 검색 내용이 1,402개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔 가우디 3 AI 가속기, IBM 클라우드 통해 첫 상용 클라우드 서비스 제공
인텔은 IBM 클라우드가 클라우드 서비스 제공사로는 처음으로 인텔 가우디 3(Intel Gaudi 3) AI 가속기 기반 상용 서비스를 제공한다고 밝혔다. 인텔은 이로써 클라우드 서비스 고객이 고성능 인공지능 역량을 보다 쉽게 활용할 수 있도록 지원하고, AI 특화 하드웨어의 높은 비용 장벽을 낮출 수 있을 것이라고 밝혔다. 이번 IBM 클라우드 상용화는 가우디 3의 첫 대규모 상업 배포이다. 양사는 IBM 클라우드에서 인텔 가우디 3를 활용해 고객이 합리적인 비용으로 생성형 AI를 테스트·혁신·배포하도록 돕는 것을 목표로 하고 있다. 가트너의 최근 조사에 따르면 2025년 전 세계 생성형 AI 관련 지출은 2024년 대비 76.4% 증가한 6440억 달러에 이를 전망이다. 가트너는 “생성형 AI가 IT 지출 전 영역에 변혁적 영향을 미치고 있으며, 이에 따라 AI 기술이 기업 운영과 소비재에 필수 요소로 자리 잡을 것”이라고 분석했다. 많은 기업이 생성형 AI와 같은 도구가 자동화·워크플로 개선·혁신 촉진 등에 분명한 이점이 있다는 것을 알고 있으나, AI 애플리케이션 구축에는 막대한 연산 능력이 필요하고 대개의 경우 고가의 특화된 프로세서를 요구하기 때문에 많은 기업들은 AI 혜택을 누리지 못하고 있다.     인텔 가우디 3 AI 가속기는 개방형 개발 프레임워크를 지원하면서 생성형 AI·대규모 모델 추론·파인튜닝 등에 대한 폭발적인 수요를 충족하도록 설계됐으며, 멀티모달 LLM(대규모 언어 모델)과 RAG(검색 증강 생성) 워크로드에 최적화되어 있다. IBM 클라우드는 다양한 기업 고객, 특히 금융 서비스, 의료 및 생명 과학, 공공 부문 등 규제 산업에 종사하는 고객에게 서비스를 제공한다. 현재 가우디 3는 독일 프랑크푸르트, 미국 워싱턴 D.C., 택사스 댈러스의 IBM 클라우드 리전에 적용되어 사용할 수 있다. 가우디 3은 IBM의 광범위한 AI 인프라스트럭처 제품에도 통합되고 있다. 고객들은 현재 IBM VPC(가상 프라이빗 클라우드)의 IBM 클라우드 가상 서버를 통해 가우디 3를 사용할 수 있으며, 2025년 하반기부터 다양한 아키텍처에 배포할 수 있다. 레드햇 오픈시프트(Red Hat OpenShift)와 IBM 왓슨엑스 AI 플랫폼(IBM’s watsonx AI platform)에 대한 지원은 이번 분기 내 가능해질 예정이다. 인텔의 사우라브 쿨카니(Saurabh Kulkarni) 데이터센터 AI 전략 담당은 “인텔 가우디 3 AI 가속기가 IBM 클라우드에 도입되며 기업 고객에게 추론 및 파인 튜닝을 위해 최적화된 성능으로 생성형 AI 워크로드를 확장할 수 있도록 지원하게 되었다”면서, “이번 협력은 전 세계 기업이 AI를 더 쉽게, 비용효율적으로 구현할 수 있도록 지원하려는 양사의 공동 노력의 일환”이라고 밝혔다. IBM의 사틴더 세티(Satinder Sethi) 클라우드 인프라스트럭처 서비스 총괄은 “더 많은 데이터 처리 능력과 더 높은 성능 구현은 전 세계 고객의 AI 도입을 촉진할 것”이라며 “인텔 가우디 3는 고객에게 AI의 하드웨어에 대한 더 많은 선택권과 더 많은 자유, 더 비용 효율적인 플랫폼을 제공해준다”고 밝혔다.
작성일 : 2025-05-08
클라우드플레어, “주요 테크 기업과 협력해 클로드 기반의 차세대 AI 에이전트 경험 제공”
클라우드플레어는 아사나, 아틀라시안, 블록, 페이팔, 센트리, 스트라이프 등의 글로벌 테크 기업이 앤트로픽(Anthropic)의 AI 어시스턴트인 클로드(Claude)를 활용해 차세대 AI 사용자 경험을 구축하기 위해 클라우드플레어와 협업 중이라고 발표했다. 이들 기업은 클라우드플레어 워커스(Workers) 기반의 안전한 연결을 통해 클로드 및 기타 AI 어시스턴트가 자사의 서비스를 사용자 대신 활용할 수 있도록 지원하고 있으며, 이를 통해 사용자는 개별 애플리케이션에 직접 접속하지 않고도 클로드와의 자연스러운 대화를 통해 업무를 처리할 수 있게 되었다. AI는 이미 이메일 작성, 코드 생성, 데이터 분석 등 다양한 업무에서 활용되고 있다. 그러나 여전히 사용자는 여러 애플리케이션과 탭을 전환하며 작업을 이어가야 하는 번거로움이 있다. 보다 자율적이고 효율적인 AI 에이전트 경험을 구현하기 위해서는, AI가 사용자를 대신해 다양한 비즈니스 도구와 직접 연동되어 실행할 수 있어야 한다. 클라우드플레어는 이러한 연동을 가능하게 하는 MCP(Model Context Protocol) 서버를 통해 AI 플랫폼이 기업에서 사용하는 다양한 업무 도구와 직접 연결될 수 있도록 지원한다. 이를 통해 사용자는 AI 어시스턴트를 벗어나지 않고도 이메일을 발송하거나, 마케팅 캠페인 관련 질의에 응답하고, 송장 발행 등의 작업을 처리할 수 있다. 그러나 외부 시스템과 데이터를 안정적이면서도 보안성 있게 연결하는 것은 특히 글로벌 환경에서는 기술적으로 매우 도전적인 과제다. 클라우드플레어는 앤트로픽이 개발한 오픈소스 표준 MCP 기반의 원격 MCP 서버를 신속하고 간편하게 구축할 수 있는 툴킷을 제공한다. 이를 통해 개발 팀은 복잡한 인프라 문제로부터 자유로워져, 사용자 중심의 강력한 AI 경험을 설계하는 데 집중할 수 있다. 클라우드플레어는 복잡한 인증 및 권한 관리 과정을 단순화하고, 에이전트 권한 제어 및 접근 로그 추적 기능을 제공함으로써 보안성을 확보한 MCP 서버 구축을 가능하게 한다. 특히 클라우드플레어 글로벌 네트워크를 기반으로 원격 MCP 서버를 수주가 아닌 수일 내에 구축 및 배포할 수 있어, 전 세계 사용자에게 빠르고 신뢰성 있는 AI 경험을 제공할 수 있다. 또한 클라우드플레어는 자사 MCP 서버를 공개하고, 사용자가 클로드와의 대화를 통해 웹 사이트를 더 빠르게 만들고, 애플리케이션을 구축하며, 네트워크와 사이트를 안전하게 운영할 수 있도록 지원한다고 발표했다. 예를 들어, 개발자는 더 이상 복잡한 문서를 읽거나 관찰 도구를 직접 탐색하지 않아도 클로드에게 대화로 요청해 로그를 분석하고 오류 추적 및 디버깅을 손쉽게 수행할 수 있다. 클라우드플레어의 매튜 프린스(Matthew Prince) CEO 겸 공동 창업자는 “클라우드플레어는 AI가 세상과 연결되는 방식을 구현하고 있다. 브라우저, 앱, 혹은 클로드와 같은 AI 어시스턴트를 통해 AI가 사용자와 상호작용할 수 있도록 만드는 핵심 인프라 역할을 하고 있다. 앞으로 에이전트 기반 AI가 새로운 인터페이스로 자리 잡게 되면서, 기업은 AI 전략을 구축하고 확장하기 위해 클라우드플레어를 필수적인 인프라로 활용하게 될 것”이라고 말했다. 앤트로픽의 마헤시 무라그(Mahesh MuRAG) 프로덕트 매니저는 “AI 애플리케이션이 높은 가치를 제공하기 위해서는 다양한 데이터 및 도구와의 연동이 필수이지만, 이를 안정적으로 구축하는 것은 쉽지 않은 일이다. 클라우드플레어는 MCP를 통해 누구나 간편하고 안전하게 클로드와 자사 앱을 연결할 수 있도록 지원하고 있으며, MCP의 도입을 가속화하고 원격 서버 기반 생태계를 확대하는 데 중요한 역할을 하고 있다”고 말했다.
작성일 : 2025-05-07
[특별기고] 디지털 트윈 발전 전망
디지털 트윈과 산업용 메타버스 트렌드   데이터 기반 서비스 관점에서의 디지털 트윈의 역할은 실 체계에서 수집한 실제 데이터와 디지털 트윈 시뮬레이션으로 얻어진 가상 데이터의 융합을 통하여 실제 시스템 관련 문제 해결에 유용한 빅 데이터 생성이라 할 수 있다.  디지털 트윈 활용은 안정성에 부담이 적고 신속/가시적 성공사례 확보가 가능한 스마트시티, 스마트 팩토리, 스마트SOC(도로, 철도, 항만, 공항, 등) 등이 대상이지만 기술성숙도가 높아지고 안정성이 보장됨에 따라 자율주행, 의료/인공장기, 식물공장 등으로 확대될 전망이다.   ▲ 철도 네트워크의 디지털 트윈 구축하는 독일 디지털 철도(이미지 출처 : 엔비디아)   1. 디지털 전환과 디지털 트윈 디지털 전환(Digital Transformation: DX)은 비즈니스 전 과정에 ICT 기술을 도입하여 전사적 업무, 생산 기술, 제품 등을 디지털화 한 후 이를 기반으로 가상 실험이 가능한 디지털 환경을 구축하는 것이다.  디지털 전환의 궁극적 목적은 기업 이윤 극대화에 필요한 업부/생산 효율성 및 제품 부가 가치 증대를 위한 다양한 창의적 대안들을 가상 실험을 통해 평가한 후 그 결과를 비즈니스 전 과정에 활용하는 것이다. 예를 들어, 스마트 팩토리의 디지털 전환은 조달 시스템, 생산 시스템, 물류 시스템 등 스마트 팩토리 구성요소들의 자원 할당 및 운용에 대한 다양한 대안들을 가상 실험을 통해 평가할 수 있는 환경을 구축하여야 한다. 그렇다면, 비즈니스 전 과정을 가상 실험하기 위해서는 무엇이 필요할까?  가상 실험을 하기 위해서는 먼저 가상 실험 대상(예: 제조 공장)을 선정하고, 다음으로, 가상 실험 시나리오(예:새로운 제조 장비 도입)가 필요하며 시나리오를 수행할 모델(예: 제조 공정 시뮬레이션 모델)이 필요하다. 이러한 가상 실험을 위한 모델이 디지털 트윈이며 이런 이유로 많은 사람들이 디지털 트윈을 DX의 Key(Richard Marchall, 2017), DX의 Enablers(Reterto Saracco, 2019), DX의 Central(Vijay RAGjumathan, 2019), DX의 Steppingstone(Harry Forbes, 2020), DX의 Pillar(Fransesco Belloni, 2020)라고 지적하였다.   2. 디지털 트윈의 정의 디지털 트윈은 물리적 자산, 프로세스 및 시스템에 대한 복제본으로 정의[Wiki 사전]되며, 복제본이란 대상 체계의 운용 데이터, 지형/공간/형상 정보 및 동작/운용 법(규)칙을 컴퓨터 속에 디지털화 해 놓은 것을 의미한다. 예를 들면, 제조 공장의 디지털 트윈은 제조 공장의 운용 데이터, 제조 공장의 공간/형상 정보, 그리고 제조 장비 동작 및 공정 모델이 컴퓨터 속에 복제된 것이 될 것이다. 디지털 트윈과 대상 체계가 쌍둥이기 때문에 쌍둥이 중 누가 먼저 태어났느냐에 따라 디지털 트윈의 이름을 다르게 붙이기도 한다. 대상 체계가 존재하기 전에 만들어진 디지털 트윈을 디지털 트윈 프로토타입(Prototype) 그리고 대상 체계가 만들어진 후 복제된 디지털 트윈을 디지털 트윈 인스턴스(Instance)라고 부른다. 디지털 트윈 프로토타입은 대상 체계 설계 단계에서 활용되며 디지털 트윈 인스턴스는 대상 체계의 운용 분석에 활용되는 것이 일반적이다. 디지털 트윈 인스턴스(실 체계의 복제본)와 디지털 트윈 프로토타입(실 체계의 설계 모델)이 모두 존재할 수도 있지만 디지털 트윈 프로토타입 없이 디지털 트윈 인스턴스만 존재할 수도 있다. 디지털 트윈 프로토타입과 인스턴스가 모두 존재한다면 인스턴스는 프로토타입에 실 체계 운용 정보가 반영되어 진화(성장)된 트윈으로 볼 수 있다. 3. 디지털 트윈 구축 목적 디지털 트윈의 구축 목적은 대상 실 체계와 디지털 트윈을 연동 운용함으로써 실 체계 관련 이해 당사자에게 지혜 수준의 혁신적 서비스를 제공할 수 있는 핵심 도구/수단으로 활용하기 위함이다. 데이터 기반 서비스 관점에서의 디지털 트윈의 역할은 실 체계에서 수집한 실제 데이터와 디지털 트윈 시뮬레이션으로 얻어진 가상 데이터의 융합을 통하여 실제 시스템 관련 문제 해결에 유용한 빅 데이터 생성이라 할 수 있다. 융합 빅 데이터는 AI-통계/공학 분석도구들을 이용하여 실 세계의 구성요소인 자산, 사람, 운용 프로세스들의 다양한 결합에 대한 분석/예측 및 체계 운용 최적 대안(최적화)을 찾는데 활용될 수 있다. 아울러, 융합 빅 데이터는 실 세계를 가상 환경에서 현실감 있게 표출할 수 있는 다양한 장비/장치와 VR/AR/XR/메타버스 관련 ICT 기술과의 융합 인터페이스를 통해 오락, 관광, 교육 훈련, 체험 등에 활용될 수 있다.     디지털 트윈의 복제 대상은 실 체계의 운용 데이터, 공간/형상 정보 및 실 체계에 포함된 객체들의 행위 모델 등 3가지이다. 운용 데이터는 실 체계에 설치된 IoT 장비로부터 획득이 가능하다. 공간/형상 정보는 서비스 목적에 따라 GIS, BIM 혹은 3D CAD 중 한 가지 이상을 결합하여 사용한다. 객체 행위 모델은 다양한 시나리오를 가상 실험하기 위한 시뮬레이션 모델을 사용하지만 서비스 목적에 따라서는 운용 데이터를 학습한 데이터 모델을 사용할 수도 있다. 구성요소 중 일부만을 사용한 디지털 트윈은 나머지 구성요소를 사용하지 않음으로 인한 한계점에 봉착하게 된다. 예를 들면, 실 체계 운용 데이터 복제만으로 구성된 IoT 기반 디지털 트윈은 수집된 데이터를 분석할 수는 있지만, 실 체계를 시각화한 지형/공간 상에 데이터를 표출할 수 없을 뿐만 아니라 실 체계와는 다른 가상 데이터를 입력한 시뮬레이션을 수행할 수 없다. 마찬가지로, 지형/공간 정보 만으로 구성된 디지털 트윈은 실 체계에서 일어나는 지형/공간 정보의 변화를 실 시간으로 반영할 수 없으며 시뮬레이션을 통한 실 체계의 현상 분석 및 미래 예측이 불가능 하다.      디지털 트윈의 효율적인 활용을 위해서는 위의 세 가지 구성요소 모두를 개발 및 운용할 수 있는 통합 플랫폼이 바람직하지만 국내외적으로 표준화된 디지털 트윈 플랫폼은 존재하지 않는다. 디지털 트윈의 특성 상 3가지의 디지털 트윈 구성요소 각각을 개발하는 독립적인 플랫폼을 사용하여 구성요소를 개발한 후 이들을 연동하여 운용하는 것이 효율적이다.  구체적으로는, 먼저, 디지털 트윈 개발 목적에 맞게 운용 데이터를 수집하는 IoT 플랫폼, 지형/공간 정보를 구축하는 지형/공간정보 플랫폼 및 모델링 시뮬레이션 플랫폼들을 이용하여 각 구성요소를 개발한다. 다음으로, 개발된 세 가지 구성요소를 실행하는 플랫폼들을 연동 운용하는 PoP(Platform of Platforms) 구조를 사용할 수 있다. PoP 구조는 디지털트윈의 목적에 부합되는 모든 디지털트윈을 개발/운용할 수 있는 플랫폼으로써 신뢰성 및 경제성(개발 기간 및 비용) 면에서 효율적인 구조이다. PoP 구조를 사용할 경우 플랫폼들 사이의 연동을 위한 데이터 모델과 API의 국제적인 표준화가 요구되며 데이터 모델의 표준은 대상 시스템에 따라 달라질 수 있다.  디지털 트윈을 실제 시스템에 대한 문제 해결 목적으로 사용하기 위해서는 대상 시스템에 대한 다양한 질문의 답을 디지털 트윈을 통해서 얻을 수 있는 서비스가 제공되어야 한다. OR 이론의 창시자 중 한 명으로 경영 과학 이론가인 R.L.Ackoff 교수는 사람이 생각하는 내용을 데이터, 정보. 지식, 지혜 등 4가지로 분류하였다. 데이터는 단순한 심벌(숫자나 문자)을 말하지만 정보는 ‘who’, ‘what’, ‘where’, ‘when’을 답할 수 있고, 지식은 ‘how’를 답할 수 있고, 지혜는 ‘why’를 답할 수 있어야 한다고 정의하였다. 디지털 트윈의 서비스 수준을 Ackhoff 교수의 분류법에 매핑 시킨다면 정보 수준 서비스는 시스템 분석(현상, 기능 등), 지식 수준 서비스는 시스템 예측(행위, 성능 등) 그리고 지혜 수준 서비스는 시스템 최적화(운용 최적화 등) 및 진단(수명 진단 등)에 해당한다. 예를 들어, 교통 시스템에 대한 다양한 질문을 답하기 위해 교통 디지털 트윈을 만들었다고 하자. 정보 서비스의 예는 현재 교통 시스템의 현상을 분석하는 것으로 어느 위치의 현재 시간대에 단위 시간당 교차로 통과 차량 대수가 얼마인지에 대한 답을 하는 서비스이다. 지식 서비스의 예는 현재 출발지에서 목적지까지의 소요 시간이 얼마가 되는지를 예측하는 질문에 대한 답을 하는 서비스이다. 지혜 서비스의 예는 현재 출발지에서 목적지까지의 소요 시간이 최소가 되는 최적화된 경로가 어떤 것인지의 질문에 대한 답을 하는 서비스이다.    4. 디지털 트윈의 구성요소 디지털 트윈의 3 가지 구성요소 중 행위 모델은 목적에 따라 데이터 모델과 시뮬레이션 모델로 대별된다. 데이터 모델은 실 체계에서 수집된 데이터들 사이의 상관관계를 기계학습하여 얻어진 모델(예: 인공신경망)로서 지식 서비스를 위한 시스템 행위 예측에 한계점을 가지고 있다. 구체적으로, 데이터 모델은 학습된 데이터 영역에서는 미래 예측이 가능하지만 학습된 영역 밖의 데이터에 대한 예측은 불가능 하다. 뿐만 아니라 학습 시와 예측 시의 시스템 운용 조건이 달라질 경우에도 예측이 불가능하다. 앞서 예시한 교통 디지털 트윈으로 데이터 모델을 사용할 경우 학습 시 도로 상황(운행 시간, 사고 발생 유무 등)이 예측 시 도로 상황과 동일하지 않으면 소요 시간 예측의 정확도가 보장되지 않는다. 더욱이, 시스템 변수 사이의 상관 관계로 표현된 데이터 모델은 변수 사이의 인과 관계가 필요한 시스템의 최적화 및 고장 진단 등에는 활용할 수 없다. 이러한 데이터 모델의 서비스 한계를 극복하기 위해서는 시뮬레이션 모델을 사용할 수 있다. 시뮬레이션 모델은 구축은 대상 시스템에 대한 도메인 지식과 이를 표현하는 지배 법칙에 대한 수학적/논리적 표현 방법을 이해해야 하므로 데이터 모델에 비해 고 비용이 요구된다. 따라서, 디지털 트윈의 행위 모델은 대상 시스템의 서비스 목적과 수준에 따라 다르게 선택될 수 있다.    5. 디지털 트윈의 발전 전망  디지털 트윈의 향후 발전 전망은 문제 해결과 가상 체험 및 빅 데이터 분야로 대별할 수 있다. 문제 해결 분야에서 디지털 트윈의 대상은 분석, 예측, 최적화/진단 대상이 되는 모든 시스템 분야로서 산업(제조, 생산, 물류, 식물공장 등), 공공(교통, 환경, 금융 등), 의료(진단, 인공장기, 가상수술 등), 재난안전(안전점검, 피해분석, 대피훈련 등), 국방(군사훈련, 국방분석, 무기체계 획득 등)등을 포함한다.  현재 디지털 트윈 활용은 안정성에 부담이 적고 신속/가시적 성공사례 확보가 가능한 스마트시티, 스마트 팩토리, 스마트SOC(도로, 철도, 항만, 공항, 등) 등이 대상이지만 기술성숙도가 높아지고 안정성이 보장됨에 따라 자율주행, 의료/인공장기, 식물공장 등으로 확대될 전망이다.  가상 체험 분야는 디지털 트윈이 실 세계 혹은 가상 세계를 움직이는 다양한 시나리오를 정형화한 지배 법칙(모델)을 실행(시뮬레이션)하는 수단으로 활용될 전망이다. 이러한 지배법칙 실행은 실제 세계와 가상 세계의 구별 없는 가상 체험을 목표로 하는 메타버스의 서비스 콘텐츠를 제공한다. 따라서, 메타버스 발전을 위해서 메타버스의 서비스 컨텐츠를 제공하는 디지털 트윈 발전이 필수적으로 향후 메타버스와 디지털 트윈은 동시에 발전할 전망이다.  빅 데이터 분야에서는 디지털 트윈의 가상 실험을 통해 실 체계에서는 물리적/경제적 이유로 수집 불가능한 다양한 빅 데이터를 생성하는데 활용될 전망이다. 유의미한 빅 데이터 생성을 위해서는 실 체계에서 수집 가능한 데이터를 사용하여 디지털 트윈 모델의 검증이 선행된 후 실 체계에서 수집 불가능한 데이터 생성을 위한 가상 실험이 설계되어야 한다. 디지털 트윈을 사용한 빅 데이터 생성은 시스템 기능 검증, 예지 진단 및 기계학습 등과 같은 부가가치가 높은 데이터 생성에 집중되어 미래 데이터 구독 시장 활성화에 기여할 전망이다.   김탁곤 명예교수  KAIST 전기전자공학부  
작성일 : 2025-05-05
터보 기계 시뮬레이션을 위한 엔지니어 가이드 Ⅳ
성공적인 유동 해석을 위한 케이던스의 CFD 기술 (21)   이번 호에서는 다양한 유형의 난류 모델과 사용 시기, 그리고 복잡한 형상을 위한 고충실도 난류 모델링에 있어 케이던스 밀레니엄 M1(Cadence Millennium M1) CFD 슈퍼컴퓨터가 어떻게 혁신을 가져오는지에 대해 설명한다.   ■ 자료 제공 : 나인플러스IT, www.vifs.co.kr   자동차 산업은 거의 매일 새로운 혁신과 개발이 등장하며 끊임없이 발전하고 있다. 자동차 업계는 전기 구동 차량과 대량 생산이 증가하는 추세에 발맞춰 보다 지속 가능한 미래를 만들기 위해 노력하고 있다. 자동차 생산량은 꾸준히 늘고 있지만, 업계는 여러 디자인 또는 새로운 헤드라이트, 스플리터, 사이드 스커트 추가와 같은 아주 작은 디자인 변경에 대해서도 풍동 테스트 또는 프로토타입 테스트를 수용하면서 연비 기준을 충족해야 하는 과제에 직면해 있다. 그 결과, 항력 계수 등 관심 있는 유동장 정보와 성능 관련 수치를 예측하여 필요한 실험 횟수를 크게 줄일 수 있는 시뮬레이션 기반 접근 방식이 점점 더 인기를 얻고 있다.   그림 1   유체 흐름의 난류를 이해하고 전산 유체 역학(CFD) 시뮬레이션을 통해 동일한 난류를 재현하려면 다양한 난류 모델을 사용해야 한다. 자동차 애플리케이션과 리소스 가용성에 따라 적합한 난류 모델을 선택하면 설계 주기를 단축하는 데 도움이 될 수 있다.    난류의 모델링 기법 ‘난류’는 압력과 속도의 혼란스러운 변화를 특징으로 하는 불규칙한 흐름을 일컫는 용어이다. 우리는 일상 생활에서 난류를 경험하며 공기 역학, 연소, 혼합, 열 전달 등과 같은 다양한 엔지니어링 응용 분야에서 중요한 역할을 한다. 하지만 유체 역학을 지배하는 나비에-스토크스 방정식은 매우 비선형적인 편미분 방정식이며 난류에 대한 이론적 해법은 존재하지 않는다. 난류는 광범위한 공간적, 시간적 규모를 포함하기 때문에 모델링과 시뮬레이션이 어려울 수 있다. 일반적으로 큰 와류는 난기류에 의해 생성된 에너지의 대부분을 전달하고 작은 와류는 이 에너지를 열로 발산한다. 이 현상을 ‘에너지 캐스케이드’라고 한다. 몇 년에 걸쳐 다양한 난기류 모델링 접근법이 개발되었으며, 가장 일반적인 세 가지 접근법을 간략히 설명한다. Direct Numerical Simulation(DNS) : DNS에서는 모델이나 근사치 없이 미세한 그리드와 매우 작은 시간 단계를 사용하여 모든 규모에서 난기류를 해결한다. DNS의 계산 비용은 엄청나게 높지만 결과는 가장 정확하다. DNS 시뮬레이션은 난류장에 대한 포괄적인 정보를 제공하기 위한 ‘수치 실험’으로 사용된다. Large-Eddy Simulation(LES) : 이름에서 알 수 있듯이 이 난류 모델링 기법은 큰 소용돌이를 해결하고 보편적인 특성을 가진 작은 소용돌이를 모델링한다. LES 시뮬레이션은 최소 길이 스케일을 건너뛰어 계산 비용을 줄이면서도 시간에 따라 변화하는 난기류의 변동 요소를 자세히 보여준다. Reynolds-AveRAGed Navier-Stokes Model(RANS) : RANS 방정식은 나비에-스토크스 방정식의 시간 평균을 취하여 도출되었다. 난기류 효과는 미지의 레이놀즈 응력 항을 추가로 모델링하여 시뮬레이션한다. RANS 시뮬레이션은 평균 흐름을 해결하고 난류 변동을 평균화하므로 다른 두 가지 접근 방식보다 훨씬 비용 효율적이다.   올바른 선택 : DNS, LES 또는 RANS 올바른 난류 모델을 선택하는 것은 모든 시뮬레이션의 중요한 측면이며, 이는 주로 시뮬레이션의 목적, 흐름의 레이놀즈 수, 기하학적 구조 및 사용 가능한 계산 리소스에 따라 달라진다. 학술 연구의 경우 DNS 시뮬레이션은 난류의 근본적인 메커니즘과 구조를 이해하는 데 가장 적합한 결과를 제공한다. DNS는 레이놀즈 수가 낮은 경우에 적합하지만, 막대한 시간과 리소스가 필요하기 때문에 대부분의 산업 분야에서는 실용적인 선택이 아니다. 반면에 LES는 일반적으로 레이놀즈 수가 높은 복잡한 형상을 포함하는 산업용 사례를 처리하는 데 적합한 옵션이다. LES가 생성하는 고충실도 결과물은 경쟁이 치열한 자동차 시장에서 중요한 한 차원 높은 성능 개선이 가능한 설계를 가능하게 한다.   그림 2    RANS 시뮬레이션은 LES에 비해 근사치의 범위가 넓기 때문에 정확도가 떨어진다. 그러나 정확도와 계산 비용 간의 균형으로 인해 RANS는 계산 리소스와 시뮬레이션 시간이 제한된 업계 사용자에게 일반적인 설루션이다. 이 방법은 또한 짧은 시간 내에 여러 사례를 분석해야 할 때 널리 사용된다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-05-02
HS효성인포메이션시스템, 차세대 스토리지 플랫폼의 새로운 기능 공개
AI∙데이터 인프라 설루션 전문 기업 HS효성인포메이션시스템이 차세대 스토리지 플랫폼인 ‘VSP(Virtual StoRAGe Platform) One’의 새로운 기능을 공개했다. 이번 업데이트는 복잡해지는 기업 환경 속에서 요구되는 보안 강화, 에너지 효율 제고, 지속가능한 IT 운영까지, 폭넓은 과제를 해결하도록 설계됐다. 최근 IT 인프라 관리와 운영이 복잡해지면서 많은 기업이 보안 위협, ESG(환경∙사회∙지배구조) 경영 등 다양한 과제에 직면해 있다. 특히 랜섬웨어 공격, 데이터 유출 등 보안 문제에 대응하는 사이버 복원력 확보가 IT 운영의 핵심 요소로 떠올랐다. 스플렁크와 영국 경제 분석기관 옥스퍼드 이코노믹스가 공동 발표한 글로벌 보고서 ‘다운타임의 숨겨진 비용(The Hidden Costs of Downtime)’에 따르면, 글로벌 2000대 기업은 사이버 사고로 인한 다운타임으로 연간 수익의 약 9%에 해당하는 비용을 지출하는 것으로 나타났다. 이에 따라 에너지 소비 최적화, 탄소 발자국 추적 및 비용 절감을 위한 지속가능한 IT 설루션 수요가 증가하고 있다.     VSP One의 새로운 기능은 보안성, 운영 효율, 지속가능성을 동시에 충족한다. 사이버 복원력과 지속가능성 측면 모두 서비스수준협약(SLA)을 보장하며, 기업이 IT 운영을 간소화하고 사이버 위협에 빠르게 대응하며 에너지 효율까지 높일 수 있도록 지원한다. 특히 VSP One Block 스토리지는 랜섬웨어를 비롯한 사이버 공격이 원천적으로 차단된 변경 불가 스냅샷을 이용해 공격 발생 전 백업된 스냅샷 데이터를 통한 즉각적인 데이터 복구를 보증한다. 이를 통해 데이터 손실과 시스템 다운타임을 획기적으로 줄여 비즈니스 연속성을 확보할 수 있다. 또한, 에너지 효율적인 아키텍처와 정밀한 보고 기능을 기반으로 전력 사용량과 탄소 배출량을 최대 40%까지 줄이고, 전력 효율 SLA를 통해 지속가능성과 비용 절감이라는 두 가지 목표를 동시에 달성할 수 있다. 이외에도 ▲중단 없는 데이터 접근을 보장하는 100% 데이터 가용성 보증 ▲4:1 비율의 데이터 절감 보증으로 저장 효율성 향상 ▲무중단 업그레이드가 가능한 최신 스토리지 환경 등의 기능이 함께 제공된다. 특히 단일하고 직관적인 통합 플랫폼 기반 설계로 데이터 관리의 복잡성을 최소화하고 운영 부담을 줄일 수 있다. HS효성인포메이션시스템의 양정규 대표는 “VSP One의 새로운 기능은 사이버 복원력과 지속가능성 확보라는 두 과제를 함께 해결하도록 설계됐다”며 “앞으로도 혁신적인 엔터프라이즈 설루션을 제공해 고객이 안정적이고 유연한 인프라 위에 비즈니스를 효율적으로 운영할 수 있도록 도울 것”이라고 밝혔다.
작성일 : 2025-04-28
퓨어스토리지 포트웍스, 엔터프라이즈급 현대적 가상화 설루션 공개
퓨어스토리지가 자사의 대표 컨테이너 데이터 관리 플랫폼인 포트웍스 엔터프라이즈(Portworx Enterprise)의 최신 업데이트를 발표했다. 이번 업데이트는 기업이 엔터프라이즈 규모에서 현대적 가상화를 실현할 수 있도록 지원하며, 데이터 스토리지 관련 의사결정권자가 각자의 속도에 맞춰 현대화 여정을 이어갈 수 있도록 돕는다. 브로드컴의 VM웨어 인수 이후 많은 기업들이 비용 상승 없이 가상화 전략을 추진할 수 있는 현대적 설루션을 모색하고 있다. 이에 따라 컨테이너와 가상머신을 동시에 지원할 수 있는 쿠버네티스를 대안으로 채택하거나 도입을 검토 중인 기업들이 늘고 있다. 쿠버네티스를 활용하면 하나의 플랫폼에서 클라우드 네이티브 애플리케이션 개발과 인프라 현대화를 함께 추진할 수 있다. 2024년 쿠버네티스 전문가 대상 설문조사에 따르면, 응답자의 81%가 가상머신을 쿠버네티스로 이전하거나 현대화할 계획이며, 이 중 3분의 2가량은 2년 이내 이를 완료할 계획이다. 하지만 가상머신을 쿠버네티스로 이전하면서 새로운 과제도 등장하고 있다. 이번에 출시된 포트웍스 엔터프라이즈 3.3(Portworx Enterprise 3.3)은 컨테이너 데이터 관리 플랫폼을 엔터프라이즈급 가상머신 워크로드까지 확장 지원한다. 포트웍스는 미션 크리티컬 워크로드를 위한 고성능, 데이터 복원력, 데이터 보호를 제공하면서도, 대규모 프로덕션 환경에서 요구되는 단순함, 유연성, 신뢰성을 함께 제공한다. 쿠버네티스를 기반으로 한 포트웍스의 사용을 통해 기존 설루션 대비 30%에서 최대 50%까지 비용을 절감할 수 있으며, 기업은 이를 통해 더 큰 비용 효율을 기대할 수 있다. 별도의 리소스 투자 없이도 기존 가상머신을 쿠버네티스 상에 계속 유지할 수 있으며, 필요에 따라 클라우드 네이티브 애플리케이션으로 전환하거나 신규 개발할 수 있다. 포트웍스 3.3은 쿠베버트(KubeVirt) 가상머신을 위한 RWX 블록(RWX Block) 기능을 제공하며, 이는 퓨어스토리지의 플래시어레이(FlashArray)는 물론 다양한 스토리지 벤더 환경에서도 작동한다. 이를 통해 쿠버네티스 상에서 실행되는 가상머신에 강력한 읽기/쓰기 성능을 제공할 수 있다. 이제 하나의 관리 환경에서 쿠버네티스 상의 가상머신 데이터를 통합 관리할 수 있으며, 데이터 손실 없는 동기화 재해복구(zero RPO)를 지원한다. 또한, 리눅스 기반 가상머신에 대한 파일 단위 백업 및 복원이 가능해져 더욱 세분화된 데이터 보호가 가능하다. 또한 수세(SUSE), 스펙트로클라우드(Spectro Cloud), 쿠버매틱(Kubermatic) 등 주요 쿠버베트 플랫폼과의 파트너십 및 레퍼런스 아키텍처를 제공하며, 기존 레드햇과의 협업도 지속된다. 퓨어스토리지의 벤캇 라마크리슈난(Venkat Ramakrishnan) 포트웍스 부문 부사장 겸 총괄 매니저는 “포트웍스는 쿠버네티스를 기반으로 구축되어 클라우드 네이티브 애플리케이션의 유연성과 자동화, 셀프 서비스 기능을 모두 갖췄다. 이번 포트웍스 3.3은 하나의 통합 플랫폼과 다양한 통합 기능을 통해 기업이 자신만의 속도로 인프라 현대화를 추진할 수 있도록 돕는다”고 전했다. 
작성일 : 2025-04-23
스노우플레이크, “AI 조기 도입한 기업의 92%가 투자 대비 수익 실현”
스노우플레이크가 ‘생성형 AI의 혁신적 ROI(Radical ROI of Generative AI)’ 보고서를 발표했다. 이번 보고서는 글로벌 시장 조사 기관 ESG(Enterprise Strategy Group)와 공동으로 AI를 실제 사용 중인 9개국 1900명의 비즈니스 및 IT 리더를 대상으로 진행한 설문조사 결과를 담았다. 보고서에 따르면 AI를 도입한 기업의 92%가 이미 AI 투자를 통해 실질적 ROI(투자수익률)를 달성했고, 응답자의 98%는 올해 AI에 대한 투자를 더욱 늘릴 계획인 것으로 나타났다. 전 세계 기업의 AI 도입이 빨라지면서 데이터 기반이 성공적인 AI 구현의 핵심 요소로 떠오르고 있다. 그러나 많은 기업이 여전히 자사 데이터를 AI에 적합한 형태로 준비하는 데 어려움을 겪는 것으로 파악됐다.  전반적으로 기업들은 AI 초기 투자에서 성과를 거두고 있는 것으로 나타났다. 93%의 응답자는 자사의 AI 활용 전략이 ‘매우’ 또는 ‘대부분’ 성공적이라고 답했다. 특히 전체 응답자의 3분의 2는 생성형 AI 투자에 따른 ROI를 측정하고 있고, 1달러 투자당 평균 1.41달러의 수익을 올리며 ROI를 높이고 있는 것으로 집계됐다.  또한 국가별 AI 성숙도에 따라 기업이 AI 역량을 주력하는 분야가 달랐으며, 이는 지역별 ROI 성과와 밀접한 연관이 있는 것으로 드러났다. 미국은 AI 투자 ROI가 43%로 AI 운영 최적화 측면에서 가장 앞서 있었다. 뿐만 아니라 자사의 AI를 실제 비즈니스 목표 달성에 ‘매우 성공적’으로 활용하고 있다고 답한 비율이 52%로 전체 응답국 중 가장 높았다. 한국의 경우 AI 투자 ROI는 41%로 나타났다. 보고서에 따르면 한국 기업은 AI 성숙도가 높은 편으로 오픈소스 모델 활용, RAG(검색증강생성) 방식을 활용해 모델을 훈련 및 보강하는 비율이 각각 79%, 82%로 글로벌 평균인 65%, 71%를 웃돌았다.  특히 한국 기업들은 기술 및 데이터 활용에 있어 높은 실행 의지를 보이고 있는 것으로 나타났다. 오픈소스 모델 활용(79%), RAG 방식의 모델 훈련 및 보강(82%), 파인튜닝 모델 내재화(81%), 텍스트 투 SQL(Text to SQL, 자연어로 작성한 질문을 SQL 쿼리로 자동 변환하는 기술) 서비스 활용(74%) 등 고급 AI 기술을 활용한다고 답변한 비율이 글로벌 평균을 크게 웃돌았다. 이러한 데이터 활용 역량은 비정형 데이터 관리 전문성(35%)과 AI 최적화 데이터 보유 비율(20%)에서도 확인된다. 이런 성과에 비해 아직도 전략적 의사결정에 AI 활용하는 데에는 어려움을 겪고 있는 모습도 나타났다. 조사 결과에 따르면 응답자의 71%는 ‘제한된 자원에 대비해 추진할 수 있는 AI 활용 분야가 매우 다양하고, 잘못된 의사결정이 시장 경쟁력에 부정적 영향을 미칠 수 있다’고 답했다. 또한 응답자의 54%는 ‘비용, 사업 효과, 실행 가능성 등 객관적 기준에 따라 최적의 도입 분야를 결정하는 데 어려움을 겪고 있다’고 밝혔다. 59%는 ‘잘못된 선택이 개인의 직무 안정성까지 위협할 수 있다’고 우려했다. 한국 기업의 경우, 기술적 복잡성(39%), 활용 사례 부족(26%), 조직 내 협업 문제(31%) 등의 어려움을 겪고 있다고 답하며 아직 다양한 비즈니스 영역으로의 AI 확대는 더딘 것으로 나타났다. 그럼에도 향후 12개월 내 ‘다수의 대규모 언어 모델(LLM)을 적극적으로 도입’하고 ‘대규모 데이터를 활용할 계획’이라고 답한 기업은 각각 32%와 30%로, AI 도입 확대에 관한 강한 의지를 드러냈다. 설문에 응답한 전체 기업의 80%는 ‘자체 데이터를 활용한 모델 파인튜닝을 진행 중’이고 71%는 ‘효과적인 모델 학습을 위해 수 테라바이트의 대규모 데이터가 필요하다’고 답하며, AI의 효과를 극대화하기 위해 자사 데이터를 적극 활용하고 있는 것으로 나타났다. 그러나 여전히 많은 기업들이 데이터를 AI에 적합한 형태로 준비하는 과정에서 어려움을 겪기도 했다. 데이터 준비 과정에서 겪는 주요 과제로 ▲데이터 사일로 해소(64%) ▲데이터 거버넌스 적용(59%) ▲데이터 품질 관리(59%) ▲데이터 준비 작업 통합(58%) ▲스토리지 및 컴퓨팅 자원의 효율적 확장(54%) 등을 꼽았다. 스노우플레이크의 바리스 굴테킨(Baris Gultekin) AI 총괄은 “AI가 기업들에게 실질적인 가치를 보여주기 시작했다”면서, “평균 일주일에 4000개 이상의 고객이 스노우플레이크 플랫폼에서 AI 및 머신러닝을 활용하고 있고 이를 통해 조직 전반의 효율성과 생산성을 높이고 있다”고 강조했다.  스노우플레이크의 아르틴 아바네스(Artin Avanes) 코어 데이터 플랫폼 총괄은 “AI의 발전과 함께 조직 내 데이터 통합 관리의 필요성이 더욱 커지고 있다”면서, “스노우플레이크처럼 사용이 쉽고 상호 운용 가능하며 신뢰할 수 있는 단일 데이터 플랫폼은 단순히 빠른 ROI 달성을 돕는 것을 넘어, 사용자가 전문적인 기술 없이도 안전하고 규정을 준수하며 AI 애플리케이션을 쉽게 확장할 수 있도록 견고한 기반을 마련해 준다”고 말했다. 
작성일 : 2025-04-16
HS효성인포메이션시스템, “국내 하이엔드 스토리지 시장에서 히타치 스토리지가 11년 연속 1위”
히타치 밴타라의 국내 비즈니스를 담당하는 HS효성인포메이션시스템은 IT 시장분석 및 컨설팅 기관 IDC의 분기별 외장형 스토리지 시스템 시장조사 자료를 인용해, 히타치 스토리지가 매출액 기준 2024년 국내 하이엔드 스토리지 시장점유율 41.2%로 1위를 차지했다고 밝혔다. HS효성인포메이션시스템은 “히타치 스토리지는 11년 연속 국내 하이엔드 스토리지 시장 1위 자리를 지키며 업계 내 입지를 다시 한 번 입증했다”고 밝혔다. 가속화되는 AI 시대에 데이터는 기업 경쟁력을 뒷받침하는 핵심 자산이다. 이에 따라 데이터의 안정성과 가용성을 보장하는 신뢰도 높은 스토리지 인프라의 중요성도 갈 수록 커지고 있다. HS효성인포메이션시스템은 ‘VSP(Virtual StoRAGe Platform)’ 스토리지 포트폴리오를 기반으로 변화하는 비즈니스 환경에 민첩하게 대응하며 안정성, 고성능, 확장성 측면에서 기술력을 제공해왔다. 특히 VSP 5000 시리즈는 높은 수준의 고성능과 확장성을 갖춘 하이엔드 스토리지로 AI, 빅데이터, 전사적자원관리(ERP) 같은 데이터 집약적 워크로드에 최적화되어 있다. VSP 5000 시리즈는 초고속 응답성과 처리 속도를 지원하는 엔드 투 엔드 NVMe, 100% 데이터 가용성 보장, 액티브-액티브(Active-Active) 데이터센터 구현을 위한 미러링, 무중단 이기종 마이그레이션이 가능한 가상화 기술을 지원하며, 다양한 상황에서 안정성을 제공한다. HS효성인포메이션시스템은 다양한 데이터 플랫폼을 하나의 데이터 플레인으로 통합 관리하는 ‘VSP One’ 전략을 통해 하이브리드 클라우드 및 AI 데이터 환경에 최적화된 미래형 스토리지 아키텍처를 제시한다. VSP One은 ▲강력한 데이터 보호 ▲혁신적인 로드맵 ▲복제, 자동 계층화, 소프트웨어 정의 스토리지 등 포괄적인 하이브리드 클라우드 기능을 인정받아 시장 분석기관 기가옴(GigaOm)의 ‘2024년 주요 스토리지 보고서’에서 리더 및 아웃퍼포머로 선정되기도 했다. VSP One Block 스토리지 컨트롤러는 All-QLC(쿼드 레벨 셀) 플래시 기술 적용으로 높은 확장성과 비용 효율성을 바탕으로 AI 시대에 최적화된 데이터 경쟁력을 제공한다. VSP One Block 스토리지는 2024년 미국 ‘에너지스타(ENERGY STAR)’ 인증을 획득하며 친환경 데이터센터 구축과 지속가능한 IT 인프라 실현을 위한 기술력을 인정받았다. HS효성인포메이션시스템의 양정규 대표는 “AI 시대에 데이터는 기업의 경쟁력과 직결되는 만큼 HS효성인포메이션시스템은 차별화된 기술력과 검증된 안정성을 바탕으로 고객의 데이터 인프라 고도화를 지원해왔다”며, “앞으로도 VSP 포트폴리오를 통해 하이브리드 클라우드 및 AI 환경에 최적화된 스토리지 전략을 제시하고 고객의 디지털 혁신을 이끌 것”이라고 밝혔다.
작성일 : 2025-04-16
씨이랩, 한국정보공학과 AI 솔루션 총판 계약 체결… 국내 AI 인프라 효율화 주도
씨이랩은 한국정보공학과 AI 솔루션 총판 계약을 체결했다. 이번 계약을 통해 씨이랩의 GPU 최적화 솔루션 ‘AstRAGo (아스트라고)’를 한국정보공학이 보유한 풍부한 AI 인프라 유통망을 통해 국내 기업 및 공공 기관에 공급해 국내 AI 시장에서 양사의 경쟁력이 한층 더 강화될 것으로 기대된다. 씨이랩은 엔비디아의 공식 파트너사로, GPU 활용률을 극대화하는 솔루션 AstRAGo로 국내 AI GPU 시장에서 독보적 SW 개발 역량을 구축해왔다. AstRAGo는 쿠버네티스(Kubernetes) 기반의 컨테이너 기술을 활용해 AI 프로젝트의 배포 및 관리를 자동화해 복잡한 AI 인프라 운영 부담을 줄인다. 기업은 이를 통해 운영 비용 절감과 AI 모델 학습 및 추론 작업의 생산성 향상이라는 두 가지 효과를 동시에 누릴 수 있다. 한국정보공학은 이커머스 데이터 분석 및 IT기기 유통 전문기업으로, HPE, LENOVO 등 다양한 글로벌 IT사의 총판으로서 폭넓은 산업 분야로 사업을 전개하고 있다. 특히 대규모 서버 공급과 AI 인프라 사업의 확대로 가파른 성장세를 보이고 있다. 2021년부터는 AI 기반 빅데이터 분석 서비스를 출시하며 데이터 플랫폼으로 사업 영역을 확대하고 있다. 양사는 이번 협력을 통해 다양한 산업군의 고객사를 대상으로 AI 인프라 활용 효율성을 극대화하는 최적의 솔루션을 제공한다는 계획이다. 씨이랩이 보유한 GPU 최적화 기술 역량과 한국정보공학이 보유한 AI 인프라 구축·유통 노하우가 시너지를 발휘해 AI 연구 및 운영을 지원하고 시장을 확대할 전망이다. 씨이랩 채정환 대표는 “국내 AI 인프라 유통 분야에서 업계를 선도하는 한국정보공학과의 총판 계약을 통해 산업 전반에 걸친 AI 학습·추론 인프라 효율화를 신속히 지원할 수 있게 됐다”며 “지속적인 기술 협력과 맞춤형 컨설팅을 통해 고객 가치를 높이고, 더 나아가 국내 AI 생태계를 활성화하는 데 기여하겠다”고 밝혔다. 채정환 대표는 이어 “AI 산업이 활성화되면서 자사의 GPU 최적화 솔루션 수요가 급증해 실적 성장이 기대된다”고 덧붙였다.   
작성일 : 2025-04-11
가트너, “SLM 사용량 LLM의 3배 넘으면서 활용 본격화될 것”
가트너는 기업이 2027년까지 특정 작업에 맞춰 성능을 극대화한 소규모 언어 모델(SLM)을 도입하고, 전체 사용량이 범용 대규모 언어 모델(LLM) 사용량보다 최소 3배 이상 많을 것으로 전망했다. 가트너는 범용 LLM이 강력한 언어 처리 능력을 제공하지만, 특정 비즈니스 분야의 전문성이 요구되는 작업에서는 응답 정확도가 떨어진다고 분석했다. 가트너의 수밋 아가왈(Sumit Agarwal) VP 애널리스트는 “비즈니스 업무 흐름 내 다양한 작업과 더 높은 정확도에 대한 요구로 인해 특정 기능 또는 도메인 데이터에 맞춰 미세조정한 특화 모델로의 전환이 가속화되고 있다”면서, “SLM은 응답 속도가 빠르고 컴퓨팅 자원을 적게 소모해 운영 및 유지 관리 비용을 절감할 수 있다”고 설명했다. 기업은 검색 증강 생성(RAG) 또는 미세조정 기술을 활용해 LLM을 특정 작업에 특화된 모델로 커스터마이징할 수 있다. 이 과정에서 기업 데이터는 핵심적인 차별화 요소로 작용하며, 미세조정 요구사항을 충족하도록 관련 데이터를 구성하기 위해서는 데이터 준비, 품질 관리, 버전 관리, 전반적인 관리가 필수이다. 가트너는 기업이 자사의 고유 모델을 상용화함으로써 새로운 수익원을 창출하는 동시에 상호 연결된 생태계를 구축할 수 있다고 전했으며, 소규모 AI 모델 도입을 추진하는 기업을 위한 권장 사항을 제시했다. 가트너는 ▲비즈니스 맥락이 중요한 분야나 LLM 응답 품질, 속도가 기대에 미치지 못하는 영역에 컨텍스트 기반 SLM을 시범 도입하는 것이 효과적이며 ▲단일 모델만으로는 한계가 있는 사용 사례를 파악하고, 여러 모델과 워크플로 단계를 결합한 복합적 접근 방식을 도입하는 것이 효과적이라고 전했다. 또한 ▲언어 모델 미세조정에 필요한 데이터를 수집, 선별, 구조화하는 데이터 준비 역량에 우선순위를 두는 것이 효과적이라고 덧붙였다. ▲AI 이니셔티브를 추진하기 위해 AI 및 데이터 설계자, 데이터 과학자, AI 및 데이터 엔지니어, 리스크 및 규정 준수 팀, 구매 팀, 비즈니스 전문가 등 다양한 기술, 기능 인력의 역량 강화에 투자하는 것도 효과적이라는 설명도 추가했다. 아가왈 VP 애널리스트는 “기업은 자사의 고유한 데이터와 전문화된 업무 프로세스에서 도출된 인사이트의 가치를 점차 인식하게 되면서, 이를 수익화하고 고객과 경쟁사를 포함한 더 광범위한 대상과 공유하는 방향으로 나아갈 가능성이 높다”면서, “이는 데이터와 지식에 대한 보호 중심적 접근 방식에서 보다 개방적이고 협력적인 활용 방식으로의 전환을 의미한다”고 전했다.
작성일 : 2025-04-10