• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " RAG"에 대한 통합 검색 내용이 77개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
한국오라클, ‘오라클 AI 서밋 2026 서울’ 개최
한국오라클이 연례 콘퍼런스인 ‘오라클 AI 서밋(Oracle AI Summit) 2026’을 2월 3일 그랜드 인터콘티넨탈 서울 파르나스에서 개최됐다. 오라클 AI 서밋은 엔터프라이즈 AI 시대를 맞아 AI와 데이터를 중심으로 확장된 오라클의 기술 전략과 국내외 기업들의 성공 사례를 공유하는 대표 행사로, 올해 4회를 맞이했다. ‘모든 것을 변화시키는 AI(AI Changes Everything)’라는 주제로 진행된 이번 행사에는 1000명 이상의 기업 IT 경영자와 관리자, 개발자, 협력사 관계자들이 참석했다. 행사는 한국오라클 김성하 사장의 환영사로 시작됐으며, 오라클의 한 청(Han Chung) 아태지역 시스템 부문 수석 부사장이 ‘오라클 AI : 비즈니스 속도로 구현하는 AI’를 주제로 첫 번째 기조연설을 진행했다. 이어 오라클 티르탄카르 라히리(Tirthankar Lahiri) 미션 크리티컬 데이터 및 AI 엔진 부문 수석 부사장은 ‘데이터를 위한 AI 혁명’을 주제로 두 번째 기조연설을 진행하며 오라클의 통합 데이터 플랫폼을 기반으로 한 엔터프라이즈 AI의 새로운 가능성을 제시했다. 기조연설 이후에는 ‘AI 전략부터 성과까지, 오라클 AI의 가치를 선택한 고객 성공 스토리’ 세션이 이어졌으며, 국내 최대 해운사 HMM이 오라클 클라우드를 통해 창출한 비즈니스 성과와 향후 경쟁력 강화 전략을 대담 형식으로 공유했다. 오후에는 총 3개 트랙, 18개의 상세 세션이 운영되며, 오라클 OCI AI 인프라를 중심으로 AI 시대에 기업이 사업 연속성을 확보하는 방안이 심도 있게 다뤄졌다. 특히 벡터 검색(Vector Search), 셀렉트 AI(Select AI), AI 레이크하우스(AI Lakehouse) 등 오라클 AI 데이터베이스 26ai(Oracle AI Database 26ai)의 주요 기능이 기업의 실제 비즈니스 과제를 해결하는 데 어떻게 기여할 수 있는지가 구체적으로 제시됐다. 오후 트랙에는 엔비디아, 사이오닉 AI를 비롯하여 유클릭, 에티버스, 솔트웨어, 굿어스데이터 등 다양한 후원사 및 파트너사가 함께했다.     한편, 오전에 진행된 언론 대상 간담회에서는 한국오라클 김성하 사장이 한국오라클의 사업 성과와 오라클의 최신 AI 전략을 소개하고, 티르탄카르 라히리 수석 부사장이 데이터를 중심으로 한 AI시대 기업의 생존과 경쟁전략을 발표했다. 한국오라클은 2026 회계연도 상반기 기준으로 리전 개소 이후 6년 이상 두 자릿수 성장을 지속하며 클라우드 매출 성장세를 기록했다. OCI의 성능, 안정성, 비용 효율에 대한 고객들의 신뢰를 바탕으로 클라우드 소비는 전년 대비 두 배 이상 증가했으며, 크립토랩, 멋쟁이사자처럼, 투디지트 등 OCI를 활용한 국내 AI 혁신 고객 사례도 빠르게 확대되고 있다. 오라클은 ‘기업을 위한 AI’ 전략에 집중하며, xAI, 구글, 메타, 코히어, 오픈AI 등 글로벌 선도 AI모델 기업들과의 협업을 통해 강력한 AI 모델과 오라클의 특화된 AI 에이전트 전략을 결합해 기업의 성공을 지원하고 있다. 특히 거버넌스, 프라이버시, 보안을 핵심으로 고려한 오라클의 AI 접근 방식은 엔터프라이즈 환경에 최적화된 서비스를 제공한다. 또한 오라클 클라우드는 AI 생태계 전반에 걸친 폭넓은 선택지를 제공하여 기업들이 필요에 따른 AI를 유연하게 도입하고, 실질적인 가치 창출까지의 시간을 단축할 수 있도록 지원한다. 라히리 수석 부사장은 “AI는 기업 데이터 관리의 패러다임을 빠르게 재편하며, 선택이 아닌 전략적 필수 요소로 자리잡고 있다”면서, “기업이 AI 시대를 선도하기 위해서는 데이터 활용 전반의 혁신, AI를 통한 인사이트 도출, 혁신 가속, 생산성 향상이 실현되어야 한다”고 짚었다. 오라클의 ‘데이터 혁신을 위한 AI(AI for Data)’ 전략은 이러한 요구에 대응해 AI를 데이터 플랫폼의 핵심에 내재화하는 데 초점을 맞춘다. 오라클의 융합형 아키텍처(converged architecture)와 오픈 스탠다드(open standards) 전략은 분산된 기술을 연계 활용할 때 발생하는 복잡성과 비용을 제거한다. 기업은 데이터가 있는 곳에 AI를 통합함으로써 운영을 단순화하고, AI 기능의 신뢰도를 높이며, 트랜잭션과 분석을 아우르는 모든 데이터 유형과 워크로드 전반에서 일관된 AI 인사이트를 확보할 수 있다. 이런 전략의 중심으로 오라클이 내세운 것은 ‘오라클 AI 데이터베이스 26ai’ 버전이다. 오라클 데이터베이스의 최신 릴리스인 오라클 AI 데이터베이스 26ai는 LLM과 AI 벡터를 핵심 기능으로 통합한 AI 네이티브 데이터베이스다. 오라클 AI 데이터베이스 26ai는 문서, 이미지, 동영상, 구조화 데이터 등 다양한 데이터를 처리할 수 있는 AI 벡터를 기반으로, 주요 데이터 유형에 대한 밀리초 단위의 통합 AI 벡터 검색을 제공해 기업의 효율적인 데이터 탐색을 지원한다. 또한 오라클 AI 데이터베이스는 검색증강생성(RAG)을 지원해, AI 벡터 검색을 통한 기업의 내부 데이터 검색 결과를 LLM과 결합함으로써 보다 정확하고 맥락에 맞는 답변을 생성할 수 있도록 한다. RAG 파이프라인은 데이터베이스 API는 물론 단일 SQL문으로도 실행할 수 있으며, 나아가 AI 에이전트를 데이터베이스에 직접 통합 설계해 기업이 쉽고 안전하게 AI 에이전트를 구축, 배포, 관리할 수 있도록 지원한다.
작성일 : 2026-02-03
오라클, “국내 스타트업 4개사에 클라우드 인프라 제공해 AI 기반 서비스 혁신 지원”
한국오라클이 뉴로플로우, 스포잇, 윤회, 코넥시오에이치 등 국내 4개 스타트업에 오라클 클라우드 인프라스트럭처(OCI)를 제공했다고 밝혔다. 4개사는 OCI를 활용해 AI 기반 기술 역량을 한층 더 강화하고, 오라클의 글로벌 인프라를 기반으로 해외 시장 진출을 위한 토대를 마련했다. 오라클은 OCI가 다양한 규모의 AI 학습 및 추론 프로젝트를 지원하면서, “생성형 AI 구축을 위한 주요 인프라로 부상하고 있다”고 전했다. RAG 기반 지능형 업무지원 플랫폼 ‘뉴로보드’를 운영하는 뉴로플로우는 교육기관과 산업체 등으로 고객사를 확대하면서 데이터 처리량이 급증하고 더 높은 수준의 추론 성능이 필요했다. 특히 RAG 기반 검색과 LLM을 결합해 신뢰할 수 있는 출처 기반의 정확한 응답을 제공하는 AI 설루션 특성상, 확장성과 안정성을 갖춘 클라우드 기반 AI/ML 플랫폼이 필수였다. 뉴로플로우는 OCI를 도입해 이러한 과제를 해결했으며, OCI의 고가용성 인프라로 장애 없는 안정적인 서비스 운영이 가능해졌다. 실제 사용량 기반 오토스케일링을 통해 챗봇 응답 품질 향상과 함께 인프라 비용도 절감할 수 있었다. 스포잇은 데이터 기반 전력 분석 및 자동 클립 생성 등 스포츠 AI 영상 서비스를 제공한다.  고객 수요가 빠르게 증가함에 따라, 서비스 확장을 위한 대규모 연산 자원 확보와 AI 실험 비용 절감 및 MLOps 기반 개발 효율화가 주요 과제로 떠올랐다. 이에 회사는 대규모 추론 연산을 효율적으로 지원하는 OCI 베어메탈 인스턴스(OCI Bare Metal Instances)를 도입했다. 이후 OCI의 저지연 네트워크와 높은 처리 성능을 활용하여 모델 학습 시간을 단축하고, 영상 처리 속도를 개선했으며 MLOps 환경도 성공적으로 구축했다. 그 결과 AI 기반 콘텐츠 생산성은 최대 6배, 분석 효율은 약 70% 개선했다. AI 기반 순환패션 플랫폼 케어아이디(CARE ID)를 운영하는 윤회는 글로벌 진출을 앞두고 플랫폼의 응답성, 확장성, 가용성을 전반적으로 강화할 필요성이 있었다. 이에 회사는 OCI로 전환하면서 OCI 컨테이너 레지스트리(OCIR : OCI Container Registry)와 OCI 쿠버네티스 엔진(OKE : OCI Kubernetes Engine)을 도입해 안정적이고 효율적인 AI 인프라를 구축했다. 그 결과, 서비스 운영 안정성을 혁신하는 동시에 기존 클라우드 대비 60%의 운영 비용을 절감할 수 있었다. 핀테크 서비스 기업 코넥시오에이치는 이커머스 데이터베이스와 AI를 활용해 소상공인의 사업 성과를 시각화하고, 이를 기반으로 금융 접근성을 높이는 서비스를 제공하고 있다. 회사는 클라우드 기반의 LLM 서비스 고도화 및 대규모 전자상거래 데이터 분석을 통해 맞춤형 인사이트를 제공하고자 했다. 이를 위해 확장성과 비용 효율성을 갖춘 고성능 플랫폼을 필요로 했다. 이에 회사는 OCI 베어메탈 인스턴스와 오라클 자율운영 AI 데이터베이스(Oracle Autonomous AI Database)를 도입했다. 그 결과, 인프라 운영 비용을 약 40% 절감하는 동시에, 서비스 전반을 안정적으로 확장할 수 있는 기반을 마련할 수 있었다. 이들 네 개 회사는 중소벤처기업부, 창업진흥원(KISED) 및 서울과학기술대학교와 공동으로 진행한 글로벌 기업 협업 프로그램 ‘미라클’에 선정된 스타트업으로, 정부와 글로벌 기업의 지원을 바탕으로 기술력을 고도화하고 해외 시장 진출의 기회를 확보하는 데에 성공했다. 창업진흥원의 유종필 원장은 “이번 미라클 프로그램을 통한 오라클과의 협력으로 국내 유망 스타트업들이 세계적 기술 경쟁력을 확보하고, 글로벌 투자 및 사업 기회를 넓힐 수 있게 되어 기쁘게 생각한다”면서, “창업진흥원은 앞으로도 역량 있는 창업기업들이 글로벌 기술 선도 기업과 협력해 글로벌 혁신을 이끌고 해외시장에 진출할 수 있도록 지원을 아끼지 않을 것”이라고 말했다. 한국오라클의 김성하 사장은 “빅데이터와 AI 기반 시장 환경이 빠르게 변화하는 가운데, 이번 미라클 프로그램에 참여한 스타트업들이 OCI를 활용해 가시적인 성과를 낸 것은 오라클이 국내 기업의 기술 경쟁력 강화에 핵심적인 역할을 하고 있음을 보여준다”면서, “앞으로도 고성능 클라우드 인프라와 차별화된 기술력을 바탕으로, 유망 AI 스타트업과 함께 혁신 생태계를 확장해 나갈 것”이라고 말했다.
작성일 : 2026-01-21
코딩 없는 LLM 기반 에이전트 개발 도구, 디파이
BIM 칼럼니스트 강태욱의 이슈 & 토크   디파이(Dify)는 대규모 언어 모델(LLM)을 활용한 에이전트 서비스를 전문적인 코딩 지식 없이 개발하고 효율적으로 운영할 수 있도록 지원하는 LLMOps(대규모 언어 모델 운영) 플랫폼 및 도구이다. 이 도구는 LLM과 같은 개발에 필요한 도구를 팔래트에서 가져와 캔버스에 배치하고, 이들의 작업 흐름을 연결함으로써 손쉽게 AI 에이전트 서비스를 개발할 수 있다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 디파이로 개발된 챗봇 에이전트 예시   디파이는 사용자가 아이디어를 실제 AI 서비스로 신속하게 전환할 수 있도록 설계된 통합 개발 환경을 제공한다. 가장 큰 특징은 복잡한 백엔드(backend) 인프라나 API 연동 과정을 추상화하여, 사용자가 시각적인 인터페이스를 통해 애플리케이션의 핵심 로직과 기능 구현에만 집중할 수 있도록 한 것이다.   기능 소개 디파이의 주요 기능은 다음과 같다. 시각적 프롬프트 오케스트레이션 : 사용자는 텍스트 입력, LLM 호출, 조건 분기, 외부 도구(API) 사용 등의 과정을 블록처럼 연결하여 정교한 워크플로를 설계할 수 있다. 이를 통해 단순한 질의응답을 넘어 복잡한 추론과 작업 수행이 가능한 AI 에이전트를 구축하는 것이 가능하다. RAG(검색 증강 생성) 엔진 : 자체 데이터(PDF, TXT, 마크다운 등)를 업로드하여 AI 모델이 해당 정보를 기반으로 답변하도록 만드는 RAG 기술을 손쉽게 구현할 수 있다. 디파이는 문서 자동 전처리, 벡터화, 청킹(chunking) 등 복잡한 과정을 내부적으로 처리하여 사용자의 부담을 최소화한다. 모델 호환성 및 관리 : 오픈AI(OpenAI)의 GPT 시리즈, 앤트로픽(Anthropic)의 클로드(Claude), 구글의 제미나이(Gemini) 등 20개 이상의 상용 및 오픈소스 LLM을 지원한다. 사용자는 여러 모델을 프로젝트에 등록해두고 특정 작업에 가장 적합한 모델을 선택하거나, A/B 테스트를 통해 성능을 비교 분석할 수 있다. 배포 및 운영 : 개발이 완료된 애플리케이션은 즉시 사용 가능한 웹 API 엔드포인트(endpoint)나 독립적인 웹 사이트 형태(웹앱)로 배포된다. 또한 사용자 피드백 수집, 모델 성능 모니터링, 프롬프트 개선 등 지속적인 운영 및 관리를 위한 대시보드를 제공하여 서비스 품질을 유지하고 발전시키는 데 도움을 준다. 더 자세한 정보는 디파이 공식 웹사이트(https://dify.ai)에서 확인할 수 있다.   개발 배경 디파이는 2023년 5월에 설립된 랭지니어스(LangGenius, Inc.)에 의해 개발되었으며, 생성형 AI 기술의 급격한 발전 속에서 LLM을 실제 비즈니스에 적용하려는 수요와 기술적 장벽 사이의 간극을 메우기 위해 탄생했다. 초기 LLM 애플리케이션 개발은 파이썬(Python) 라이브러리인 랭체인(LangChain)이나 라마인덱스(LlamaIndex) 등을 활용하는 개발자 중심의 영역이었다. 하지만 이는 프롬프트 엔지니어링, 벡터 데이터베이스 관리, API 연동 등 상당한 전문 지식을 요구했다. 랭지니어스 팀은 이러한 기술적 복잡성이 AI 기술의 대중화와 비즈니스 혁신을 저해하는 주요 요인이라고 판단했다. 이에 따라 기획자, 디자이너, 마케터 등 비개발 직군도 직접 AI 서비스를 만들고 테스트할 수 있는 직관적인 플랫폼을 목표로 디파이를 개발했다. 특히, 모든 소스코드를 공개하는 오픈소스 전략을 채택하여 개발자 커뮤니티의 참여를 유도하고, 데이터 보안에 민감한 기업이 자체 서버에 직접 설치(self-hosting)하여 사용할 수 있도록 유연성을 제공했다. 디파이의 소스코드는 깃허브 저장소(https://github.com/langgenius/dify)에서 확인할 수 있다.   유사 도구 디파이와 유사한 기능을 제공하는 AI 개발 플랫폼은 다수 존재하며, 각각의 도구는 고유한 특징과 목표 시장을 가지고 있다. 플로와이즈AI(FlowiseAI) : 디파이와 마찬가지로 노드를 연결하여 LLM 기반 워크플로를 구축하는 오픈소스 플랫폼이다. UI/UX 측면에서 더 개발자 친화적인 경향이 있으며, LangChain.js를 기반으로 하여 자바스크립트(JavaScript) 생태계와의 통합이 용이하다는 장점이 있다.(https://flowiseai.com) 보이스플로(Voiceflow) : 주로 대화형 AI, 특히 음성 기반 챗봇 및 어시스턴트 제작에 특화된 로코드 플랫폼이다. 시각적인 대화 흐름 설계 도구가 강력하며, 프로토타이핑부터 실제 배포까지 전 과정을 지원하여 고객 서비스 자동화 분야에서 많이 사용된다.(https://www. voiceflow.com) 버블(Bubble) : 웹 애플리케이션 개발을 위한 대표적인 노코드 플랫폼이다. AI 기능이 내장된 것은 아니지만, 높은 유연성과 확장성을 바탕으로 디파이나 오픈AI에서 제공하는 API를 연동하여 복잡한 웹 서비스 내에 AI 기능을 통합하는 방식으로 활용될 수 있다.(https://bubble. io) n8n : 워크플로 자동화에 중점을 둔 오픈소스 도구이다. AI 기능보다는 수백 개의 다양한 서드파티 애플리케이션(예 : 구글 시트, 슬랙, 노션)을 연결하여 데이터 동기화 및 업무 자동화를 구현하는 데 강점을 보인다.(https://n8n.io)     ■ 기사의 상세 내용은 PDF로 제공됩니다.
작성일 : 2026-01-07
두잇플래닛, 중기부 팁스 선정으로 제조업 DX 가속화
제조업 DX 전문 기업 두잇플래닛이 중소벤처기업부의 기술창업 투자 프로그램인 팁스(TIPS)에 최종 선정되었다. 두잇플래닛은 비정형 데이터를 지식 자산화하는 AI 문서 통합 관리 시스템 flocs.AI를 통해 제조 현장의 업무 혁신과 워크플로 자동화를 주도할 계획이다.   제조업 디지털 전환(DX) 솔루션 전문 기업 두잇플래닛이 중소벤처기업부의 기술창업 투자 프로그램인 팁스(TIPS)에 최종 선정되어 협약을 체결했다. 이번 선정은 팁스 운영사인 킹고스프링의 추천을 통해 이루어졌으며, 두잇플래닛은 향후 2년간 최대 5억원의 연구개발 자금과 사업화 및 해외 마케팅을 위한 추가 지원금을 확보하게 되었다. 팁스는 세계 시장을 선도할 기술력을 보유한 유망 스타트업을 민간 투자사가 발굴하여 육성하는 프로그램이다. 두잇플래닛은 이번 R&D 지원을 바탕으로 자사의 AI 기반 문서 지능화 및 워크플로 자동화 솔루션인 flocs.AI 고도화에 박차를 가할 예정이다.   비정형 데이터의 지능형 자산화와 업무 자동화 구현 두잇플래닛이 개발 중인 flocs.AI는 제조 현장에서 발생하는 도면, 시방서, 계약서 등 다양한 포맷의 비정형 데이터를 디지털 지식 자산으로 전환하는 시스템이다. 광학문자판독(OCR), 거대언어모델(LLM), 검색증강생성(RAG) 등 최신 AI 기술을 활용하여 종이 문서나 PDF 파일을 분석하고, 이를 바탕으로 백오피스 업무를 자동화하는 것이 핵심이다. 일반적으로 제조업은 숙련된 인력의 경험에 의존하는 경향이 크고 AI 도입률이 낮아, 인력 이탈 시 핵심 지식이 손실될 위험이 높다. 두잇플래닛은 이러한 문제를 해결하기 위해 기업 내부의 지식 데이터베이스를 구축하고, 맥락을 이해하는 AI 챗봇 플록시(Floxy)와 업무 자동화 에이전트를 통해 단순 반복 업무를 획기적으로 개선하는 솔루션을 제시했다. 글로벌 시장 진출 및 2032년 매출 684억원 목표 두잇플래닛은 이번 팁스 과제를 통해 비정형 데이터의 지능형 분석 기술 고도화, AI 추론 기반의 워크플로 자동화 모듈 개발, 그리고 ERP 및 MES 등 고객사의 기존 레거시 시스템과의 연동 API 개발에 집중할 방침이다. 유병기 대표는 대기업에서 13년 이상 DX 프로젝트를 수행한 전문가로, 문서 전자화 센터 운영을 통해 실데이터 처리 노하우를 쌓아왔다. 두잇플래닛은 이미 셀트리온제약, SK에코플랜트 등 130여 개 기업 및 기관과 협업하고 있으며, CES 2025 유레카파크 참가를 통해 글로벌 시장에서의 가능성도 확인했다. 유병기 대표는 이번 팁스 선정을 계기로 기술 개발을 가속화하여 중소 제조기업들이 합리적인 비용으로 AI 도입 효과를 누릴 수 있도록 돕겠다고 밝혔다. 또한 수기 문서 처리가 많은 동남아 시장 진출을 본격화하여 2032년 매출 684억원을 달성하고 글로벌 리딩 기업으로 도약하겠다는 포부를 덧붙였다.
작성일 : 2025-12-19
엔비디아, 에이전틱 AI 메모리 지원 확대한 RTX 프로 5000 72GB 블랙웰 GPU 출시 
엔비디아가 RTX 프로(RTX PRO) 5000 72GB 블랙웰(Blackwell) GPU를 정식 출시하고, 메모리 옵션을 확대해 데스크톱 에이전틱 AI를 지원한다고 밝혔다. 엔비디아는 이번 신제품을 통해 블랙웰 아키텍처 기반의 에이전틱, 생성형 AI 기능을 전 세계 더 많은 데스크톱과 전문가에게 제공하겠다는 계획이다. 새롭게 공개된 GPU 구성은 AI 개발자, 데이터 과학자, 크리에이티브 전문가들이 최신 대용량 메모리 기반 워크플로를 수행하는 데 필요한 하드웨어를 제공한다. AI 개발자는 기존의 엔비디아 RTX 프로 5000 48GB 모델과 이번 72GB 모델 중 선택할 수 있는 유연성을 통해, 다양한 예산과 프로젝트 요구사항에 맞춰 시스템을 최적화할 수 있다.     생성형 AI가 점차 복잡한 멀티모달 에이전틱 AI로 진화하면서, 이러한 기술을 개발하고 배포하기 위한 하드웨어 요구사항도 높아지고 있다. 그 중 하나가 메모리 용량이다. 특히 대규모 언어 모델(LLM)과 AI 에이전트를 포함한 최첨단 AI 워크플로를 실행할 때 GPU 메모리에 부담이 가해진다. 이는 모델, 컨텍스트, 윈도우, 멀티모달 파이프라인의 규모와 복잡성이 증가함에 따라 더욱 심화된다. 에이전틱 AI 시스템은 툴 체인, 검색 증강 생성(RAG), 멀티모달 이해 기능을 포함한다. 이러한 시스템은 종종 여러 AI 모델, 데이터 소스, 다양한 코드 형식을 GPU 메모리 내에서 동시에 활성화 상태로 유지해야 한다. RTX 프로 5000 72GB는 2142 TOPS의 AI 성능을 제공해 이러한 병목 현상을 해결한다. 엔비디아 블랙웰 기반으로 설계된 이 모델은 멀티 워크로드 스케줄링과 다양한 아키텍처 혁신을 통해 AI, 뉴럴 렌더링, 시뮬레이션에 높은 처리량을 제공한다. 또한 72GB의 초고속 GDDR7 메모리를 탑재해 기존 48GB 모델 대비 50% 향상된 메모리 용량을 제공함으로써, 개발자는 더 큰 규모의 모델을 로컬 환경에서 훈련, 파인튜닝(fine-tune), 프로토타이핑할 수 있다. 이를 통해 사용자는 데이터 프라이버시를 유지하면서 낮은 지연 시간과 비용 효율을 확보할 수 있다. 또한 AI 작업을 데이터센터급 인프라에 의존하지 않고, 워크스테이션에서 직접 모델을 활용할 수 있다. 엔비디아는 RTX 프로 5000 72GB가 “업계 표준 생성형 AI 벤치마크 기준으로 이미지 생성 기능이 이전 세대 엔비디아 하드웨어 대비 3.5배, 텍스트 생성 성능은 2배 향상됐다”고 소개했다.  또한 “아놀드(Arnold), 카오스 V-레이(Chaos V-Ray), 블렌더(Blender)와 같은 패스 트레이싱 엔진부터 D5 렌더(D5 Render), 레드시프트(Redshift) 등 실시간 GPU 렌더러 전반에서 렌더링 시간을 최대 4.7배 단축한다. 컴퓨터 지원 엔지니어링과 제품 설계 분야에서는 2배 이상의 그래픽 성능을 제공한다”고 전했다.
작성일 : 2025-12-19
델, 엔터프라이즈 AI 혁신을 위한 하드웨어 및 서비스 포트폴리오 업데이트
델 테크놀로지스가 엔터프라이즈 AI 여정을 간소화하고 가속하도록 돕는 ‘델 AI 팩토리(Dell AI Factory)’의 제품 라인업을 강화했다. 델은 확장된 포트폴리오를 통해 AI 워크로드의 병목 현상을 제거해 성능 및 자동화 기능을 강화하는 한편, 기업이나 기관이 보다 탄력적이고 통합된 환경의 온프레미스 인프라를 갖추고 강력한 제어 권한을 가질 수 있게끔 돕는다는 계획이다. 이에 따라 ‘델 오토메이션 플랫폼(Dell Automation Platform)’이 ‘델 AI 팩토리’로 지원을 확장하여, 보안 프레임워크를 통해 검증되고 최적화된 설루션을 배포함으로써 보다 스마트하고 자동화된 경험을 제공한다. ‘델 오토메이션 플랫폼’의 업데이트를 통해 탭나인(Tabnine)의 AI 코드 어시스턴트 및 코히어 노스(Cohere North)의 에이전틱 AI 플랫폼 등의 소프트웨어 기반 도구가 자동화되었다. 이는 AI 워크로드를 더 빠르게 운영 환경에 적용하고 운영을 간소화하며 확장성을 강화한다. 델 프로페셔널 서비스(Dell Professional Services)는 실제 고객 데이터를 활용한 턴키 방식의 대화형 AI 사용 사례 파일럿을 제공하여, 본격적인 프로젝트 착수에 앞서 비즈니스 가치를 검증한다. 전문가 주도의 파일럿으로서 명확한 KPI(핵심 성과 지표)가 제공되는 핸즈온 프리뷰를 통해 실질적인 ROI(투자 대비 수익)를 실현하게끔 방향을 제시한다. 데이터 관리를 강화하는 ‘델 AI 데이터 플랫폼(Dell AI Data Platform)’의 스토리지 엔진인 델 파워스케일(Dell PowerScale)과 델 오브젝트스케일(Dell ObjectScale)은 성능, 확장성 및 데이터 탐색 기능이 향상됐다. 델 파워스케일은 델 파워엣지 R7725xd와 같이 관련 요건이 갖춰진 델 서버 상에서 설치할 수 있는 소프트웨어 라이선스로 형태로 제공될 예정이다. 이러한 새로운 구성은 클라우드 서비스 제공업체가 인프라 요구를 충족하기 위해 최신 서버 및 네트워킹 기술을 유연하게 채택해 더 뛰어난 AI 성능을 실현하도록 확장성과 선택의 폭을 넓혔다. 그리고, 델 파워스케일 병렬 NFS(pNFS) 지원과 플렉서블 파일 레이아웃(Flexible File Layout)을 통해 메타데이터 서버와 클라이언트 간 양방향 통신이 가능해져 파워스케일 클러스터 내 여러 노드에 걸쳐 데이터를 더 효율적으로 병렬 분배할 수 있다. 이번 업데이트는 병렬 처리 능력을 강화하여 까다로운 AI 워크플로에 맞춤화된 대규모 확장성과 처리량을 제공하도록 고안됐다. 델은 오브젝트스케일 AI 맞춤형 검색(Dell ObjectScale AI-Optimized Search) 기능으로 두 가지 상호 보완적인 AI 최적화 검색 기능인 S3 테이블(S3 Tables)과 S3 벡터(S3 Vector)를 제공한다. 이 두 가지 특수 API는 오브젝트스케일에 직접 저장된 복잡한 데이터에 대한 고속 액세스를 제공하여 분석 및 추론, 검색 강화 생성(RAG)과 같은 주요 AI 워크로드를 지원한다. 대규모 데이터 세트를 보다 용이하게 저장, 검색하고, 더 빠르게 의사 결정할 수 있다.     델 파워엣지(Dell PowerEdge) 서버는 엔터프라이즈 AI의 초석으로서 더 빠른 훈련, 분산 추론을 실현하는 한편 다양한 프로세서와 냉각 방식을 제공한다. AI를 위한 파워엣지 서버 포트폴리오에 추가된 모델은 XE9785, XE9785L, R770AP 등이다. 10U 폼팩터의 공랭식 델 파워엣지 XE9785 서버와 3OU 폼팩터의 DLC(다이렉트 리퀴드 쿨링) 방식 델 파워엣지 XE9785L 서버는 듀얼 소켓 AMD 에픽(EPYC) 프로세서와 노드당 8개의 AMD 인스팅트(Instinct) MI355X GPU가 탑재된다. AMD 펜산도 폴라라(Pensando Pollara) 400 AI NIC(네트워크 인터페이스 카드) 및 델 파워스위치(Dell PowerSwitch) AI 패브릭과 결합하여 확장 가능한 컴퓨팅 성능과 운영 비용 절감을 실현할 수 있다.  새롭게 공개된 델 파워엣지 R770AP는 향상된 병렬 처리, 메모리 지연 시간 단축 및 풍부한 PCIe 레인을 제공하여 가속화된 트레이딩 알고리즘, 확장 가능한 메모리 구성 및 개선된 네트워크 성능을 제공한다. 공랭식의 이 모델은 인텔 제온(Intel Xeon) 6 P-코어 6900 시리즈 프로세서를 탑재해, 높은 CPU 코어 개수와 대용량 캐시 및 CXL 메모리 확장 지원을 특징으로 한다.  AI를 위한 네트워킹 고도화를 위해 델은 오픈 네트워킹을 발전시키고, AI 패브릭 구축을 가속화하여 급증하는 네트워킹 수요에 맞춘 확장성을 지원한다. 델 파워스위치(Dell PowerSwitch) Z9964F-ON 및 Z9964FL-ON은 브로드컴 토마호크6(Broadcom Tomahawk-6) 기반으로, 여러가지 전송 속도 설정이 가능하며 초당 102.4테라바이트의 스위칭 용량을 제공한다. AI 워크로드와 HPC 데이터센터를 가속화하며, 10만 개 이상의 가속기 칩을 지원하는 공랭식 및 다이렉트 리퀴드 쿨링(DLC) 방식의 대규모 구축이 가능하다. 델 테크놀로지스가 지원하는 엔터프라이즈 소닉 배포판(Enterprise SONiC Distribution by Dell Technologies)과 소닉을 위한 스마트패브릭 매니저(SmartFabric Manager for SONiC)를 결합하면 획기적인 네트워킹 기능을 보다 쉽게 구현하고, 대규모 AI 패브릭을 가속화하는 동시에 구축, 라이프사이클 관리 및 모니터링을 간소화하고 자동화할 수 있다. ‘델 AI 팩토리’에 통합된 스마트패브릭 매니저는 자동화된 블루프린트를 통해 AI 인프라 구축을 간소화하고 더 빠르고 오류 없는 설정을 가능하게 한다, 델 파워스케일 스토리지 설루션에 대한 새로운 자동 적용을 포함하여 최소한의 수동 개입으로 구축 시간을 단축한다. 또한 오픈매니지 엔터프라즈(OpenManage Enterprise)와의 랙 스케일 통합을 통해 GPU 인프라 전반에 걸친 포괄적인 종단 간 가시성을 제공함으로써 보다 빠르게 문제를 해결할 수 있도록 돕는다. 한편, 델은 AI PC를 위한 에코시스템을 확장한다고 소개했다. AMD 라이젠(Ryzen) AI 프로세서를 포함해 실리콘 지원을 넓혔다. 간소화된 워크플로 및 성능 최적화와 더불어 호환성을 향상시킴으로써 온디바이스 AI 애플리케이션을 보다 효율적으로 생성할 수 있도록 지원한다. 탄력적인 통합 인프라를 위한 제어 측면 또한 강화됐다. 델의 ‘통합 랙 스케일러블 시스템(Dell Integrated Rack Scalable Systems, IRSS)’ 프로그램에 새롭게 추가된 기능과 설루션은 다음과 같다. ‘오픈매니지 엔터프라이즈(OpenManage Enterprise : OME)’로 개별 서버 및 랙 규모 환경을 통합 관리할 수 있다. OME는 컴퓨팅, 전력 및 냉각 관리를 단일 콘솔로 통합하여 최대 2만 5000대의 디바이스를 자동화하며, 내장된 누수 모니터링 및 자동 대응 기능을 통해 가동 시간을 극대화한다. 통합 랙 컨트롤러(Integrated Rack Controller : IRC)는 하드웨어와 소프트웨어가 결합된 설루션으로 OME 및 iDRAC(델 통합 원격 액세스 컨트롤러)와 원활하게 연동된다. 랙 내부의 누수가 생길 경우, 신속하고 자동적으로 누수 감지 및 대응이 가능해져 가동 중단 시간과 위험을 최소화한다. 델 파워쿨 랙 장착형 냉각수 분배 장치(PowerCool Rack-mount Coolant Distribution Unit. 이하 RCDU)는 고성능의 컴팩트한 4U 액체 냉각 설루션으로, 에너지 효율적인 AI 구축을 위해 최대 150kW의 랙 밀도를 지원한다. 19인치 델 IR5000 랙 및 OCP 표준 기반 21인치 델 IR7000 랙과 호환되며, 중앙 집중식 냉각 생태계 관리를 위해 OME에 연결된다. 델 프로서포트(Dell ProSupport)를 통해 예방적 유지보수를 제공하고 최상의 성능과 안정적인 시스템 지원을 보장한다. 델은 ‘엔비디아 기반 델 AI 팩토리(Dell AI Factory with NVIDIA)’ 포트폴리오를 강화함으로써 기업이 더 빠르게 성과를 창출하고 복잡성을 줄이는 한편 투자 수익을 극대화하도록 지원에 나선다고 전했다.  델 AI 데이터 플랫폼의 비정형 데이터용 스토리지 엔진인 델 파워스케일 및 오브젝트스케일이 엔비디아 다이나모(NVIDIA Dynamo)의 일부인 엔비디아 NIXL 라이브러리와 통합된다. 이를 통해 확장 가능한 KV 캐시 오프로딩이 가능해져, 131K 토큰의 전체 컨텍스트 윈도우에서 1초의 첫 토큰 처리 시간(TTFT)을 달성한다. 이는 표준 vLLM보다 19배 빠른 속도이며, 인프라 비용을 절감하고 GPU 메모리 용량 병목 현상을 해소한다. ‘엔비디아 기반 델 AI 팩토리’ 포트폴리오에 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU 및 엔비디아 호퍼(Hopper) GPU를 탑재한 델 파워엣지 XE7740 및 XE7745 모델이 추가됐다. 대규모 멀티 모달 모델부터 새로운 에이전틱 AI 애플리케이션과 더불어 엔터프라이즈급 추론부터 훈련 워크로드에 이르기까지 다양한 사용 사례를 실행할 수 있다. 데이터센터 설루션 외에도 AI PC 생태계 지원을 확대해 폭넓은 실리콘 옵션을 제공한다. 엔비디아 RTX 블랙웰 GPU(NVIDIA RTX Blackwell GPU)와 엔비디아 RTX 에이다 GPU(NVIDIA RTX Ada GPU)를 지원해 델 제품과의 호환성을 넓혔다. 델과 엔비디아는 AI 에코시스템을 확대하기 위해 ‘엔비디아 기반 델 AI 팩토리’를 위한 레드햇 오프시프트(Red Hat OpenShift) 검증 제품을 추가했다. 델 파워엣지 R760xa에 더해 엔비디아 H100 및 H200 텐서 코어 GPU를 탑재한 델 파워엣지 XE9680에 대한 지원이 추가되어, 대규모 AI 도입 가속화를 필요로 하는 기업 및 기관에 폭넓은 선택지를 제공한다.
작성일 : 2025-11-18
엔비디아, RTX PC에서 넥사 AI의 로컬 에이전트 가속 지원
엔비디아가 넥사 AI(NEXA AI)와 협력해, 로컬 AI 에이전트인 ‘하이퍼링크(Hyperlink)’를 엔비디아 RTX AI PC에서 공식 지원한다고 밝혔다. 대규모 언어 모델(LLM) 기반의 AI 어시스턴트는 강력한 생산성 도구다. 그러나 적절한 맥락과 정보가 없으면 적절하고 관련성 있는 답변을 제공하는 데 어려움을 겪을 수 있다. 대부분의 LLM 기반 채팅 애플리케이션은 사용자가 일부 파일을 제공해 맥락을 보충할 수 있도록 하지만, 사용자 PC에 저장된 슬라이드, 노트, PDF, 사진 등 다양한 정보에는 접근하지 못한다. 넥사 AI의 하이퍼링크는 이러한 문제를 해결하기 위한 로컬 AI 에이전트다. 하이퍼링크는 수천 개의 파일을 빠르게 인덱싱하고, 사용자의 질문 의도를 이해하며, 맥락에 맞는 맞춤형 인사이트를 제공한다. 새롭게 공개된 버전에는 엔비디아 RTX AI PC를 위한 가속 기능을 포함하며, 검색 증강 생성(RAG) 인덱싱 속도가 3배 향상됐다. 예를 들어, 이전에 인덱싱에만 약 15분이 걸리던 1GB 용량의 폴더를 이제는 불과 4~5분 만에 검색 준비를 마칠 수 있다. 또한 LLM 추론 속도도 2배 빨라져 사용자 쿼리에 대한 응답 시간이 더욱 단축됐다.     엔비디아 RTX AI PC의 하이퍼링크는 최대 인덱싱 속도 3배, LLM 추론 속도 2배 향상을 제공한다. 테스트 데이터세트를 기반으로 RTX 5090에서 벤치마크한 결과이며, 인덱싱은 전체 인덱싱 시간 기준, 추론 속도는 토큰 처리량 기준으로 측정됐다. 하이퍼링크는 생성형 AI를 활용해 수천 개의 파일 속에서 정확한 정보를 검색하며, 단순한 키워드 매칭이 아닌 사용자 쿼리의 의도와 맥락을 이해한다. 이를 위해 작은 폴더부터 컴퓨터 내 모든 파일까지 사용자가 지정한 모든 로컬 파일에 검색 가능한 인덱스로 변환한다. 사용자는 자연어로 원하는 내용을 설명하기만 하면 문서, 슬라이드, PDF, 이미지 등 다양한 파일에서 관련 정보를 찾을 수 있다. 예를 들어, 사용자가 ‘두 공상과학 소설의 주제를 비교하는 독후감 작성’에 필요한 정보를 요청하면, 하이퍼링크는 파일명이 단순히 ‘문학_과제_최종본.docx(Lit_Homework_Final.docx)’으로 되어있더라도 해당 주제와 관련된 정보를 찾아낼 수 있다. 검색 기능과 RTX 가속 LLM의 추론 능력을 결합한 하이퍼링크는 사용자의 파일에서 얻은 인사이트를 바탕으로 질문에 답변한다. 다양한 출처의 아이디어를 연결하고 문서 간 관계를 식별해 명확한 출처 표기와 함께 논리적인 답변을 생성한다. 모든 사용자 데이터는 기기 내에만 저장되며 비공개로 유지된다. 즉, 개인 파일이 컴퓨터 외부로 전송되지 않아 민감한 정보가 클라우드로 유출될 걱정을 하지 않아도 된다. 이를 통해 사용자는 통제권과 안정감을 유지하면서도 강력한 AI의 혜택을 누릴 수 있다.
작성일 : 2025-11-13
퓨어스토리지-시스코, 엔비디아와 함께 엔터프라이즈 위한 AI 팩토리 선보여
퓨어스토리지가 시스코와 함께 ‘플래시스택 시스코 인증 디자인(FlashStack Cisco Validated Design)’을 새롭게 발표했다. 이번 신제품은 엔비디아와 시스코가 공동 개발한 ‘시스코 시큐어 AI 팩토리(Cisco Secure AI Factory)’의 핵심 모듈인 AI 파드(AI PODs) 컬렉션에 추가되는 구성이다. 이번 협력은 컴퓨트, 스토리지, 네트워킹, 소프트웨어를 하나의 통합된 프로덕션급 플랫폼으로 결합함으로써, 기업이 AI 파일럿 프로젝트에서 대규모 운영 환경으로 안정적으로 전환할 수 있도록 지원한다.   퓨어스토리지는 이번 협력의 핵심 목표에 대해, 실험 단계를 넘어 안정적이고 확장 가능한 AI 구현으로 그 전환을 단순화하는 것이라고 설명했다. AI 팩토리는 ▲엔터프라이즈급 대규모 데이터 관리 설루션인 퓨어스토리지 플래시블레이드//S ▲엔비디아 RTX PRO 6000 GPU 기반 가속형 컴퓨트를 위한 시스코 UCS C845a(Cisco UCS C845a) 서버 ▲대규모 AI 구축 및 배포를 지원하는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise) 소프트웨어 등 기술을 통합했다. 이 통합 기술은 RAG, 에이전틱 AI, 시맨틱 검색, 비디오 분석, 코드 생성 등 다양한 AI 활용 사례 전반에서 데이터를 인사이트로 전환하는 엔터프라이즈 AI 팩토리의 청사진을 제시한다. 엔터프라이즈 AI는 더 이상 실험 단계가 아니다. 많은 조직이 수개월 동안 파일럿 프로젝트와 개념 증명(PoC)을 진행하며, 대규모 언어 모델(LLM), 검색 증강 생성(RAG) 기반 어시스턴트, 그리고 도메인 특화 AI 애플리케이션을 테스트해왔다. 하지만 많은 기업이 모델은 준비됐지만 데이터가 준비되지 않은 공통적인 문제에 부딪히고 있다. 기업들이 개념 증명과 파일럿 단계를 넘어 본격적인 AI 도입에 나서면서, AI 성공이 모델 설계뿐 아니라 데이터 준비 상태에 달려 있다는 점이 명확해졌다. 단편화된 아키텍처와 제한된 가시성, 복잡한 운영 환경은 고도화된 AI 프로젝트조차 운영 단계로 나아가는 데 걸림돌이 되고 있다. 시스코와 퓨어스토리지의 설루션은 이러한 문제를 해결하기 위해 정형·비정형 데이터를 AI 워크플로에서 즉시 활용할 수 있도록 지원한다. 또한 퓨어스토리지의 엔터프라이즈 데이터 클라우드(Enterprise Data Cloud) 아키텍처를 기반으로 한 플래시블레이드//S(FlashBlade//S)를 통해 고성능 데이터 접근성, 동시성, 에너지 효율을 제공한다. 퓨어스토리지 포트웍스(Portworx by Pure Storage)는 쿠버네티스 기반 AI 환경에서 지속적이고 이동 가능하며 보호된 데이터 관리를 가능하게 한다. 이를 통해 AI 팀은 복잡한 인프라 관리 부담 없이 혁신에 집중할 수 있다. 퓨어스토리지의 마치에이 크란츠(Maciej Kranz) 엔터프라이즈 총괄 매니저는 “많은 기업이 GPU나 컴퓨팅 성능에 집중하지만, 신뢰할 수 있는 데이터 없이는 모델이 잠재력을 온전히 발휘할 수 없다”면서, “시스코 및 엔비디아와의 협업은 이러한 데이터 장벽을 제거하여, 고객이 AI를 운영화하는 데 필요한 성능, 단순성, 효율을 제공한다”고 말했다. 시스코의 제레미 포스터(Jeremy Foster) 수석 부사장 겸 총괄 매니저는 “이번에 선보인 새로운 플래시스택 CVD는 단순히 하드웨어를 검증하는 것을 넘어, RAG의 모든 요소를 AI에 적합한 인프라로 조율함으로써 복잡성을 제거하고 위험을 줄인다”면서, “이를 통해 고객은 데이터를 전략적 성과로 이어지는 인사이트로 전환하는 데 집중할 수 있다”고 말했다.
작성일 : 2025-11-05
[핫윈도] 말하면 설계하는 시대를 향해 – AI로 그리는 설계의 미래
최근 정부가 국가 차원에서 AI 생태계 지원과 정책적 비전을 강화하고 있는 것은 매우 고무적이다. 그러나 정책만으로는 한계가 있을 것이므로, 산업 현장에서 AI를 실제로 적용해 경쟁력을 강화하려는 기업의 노력이 병행되어야만 진정한 변화가 일어날 것으로 생각된다.캐디안은 미래의 건축 설계와 시공 방식을 근본적으로 변화시키려는 비전을 가지고 있는 AI 기반의 CAD와 BIM 프로그램을 개발하는 토종 소프트웨어 전문기업이다. 국내 유일의 CAD 프로그램 수출기업인 캐디안은 2020년부터 AI를 접목한 AAD(AIAided Design) 개념을 도입하여 세계적인 CAD 기업들과 어깨를 나란히 하고 있다. 지난 9월 11~12일 진행된 ‘코리아 그래픽스 2025’에서 캐디안은 자사의 AAD 기술에 대해 발표했다. 이 글에서는 발표 내용을 중심으로 AI 기술이 어떻게 설계 산업에 혁신적인 변화를 가져올 수 있는지에 대하여 소개하고자 한다.   대한민국 전통 목조건축 디지털 복원·신축 설계의 새로운 이정표 캐디안은 2021년부터 전통 목조건축의 복원과 신축 설계를 위한 전문 CAD를 개발하기 시작했다. 그 결실로 2025년 11월, ‘캐디안 TWArch Pro(CADian TWArch Pro)’를 선보일 예정이다.  ‘TWArch Pro’는 ‘Traditional Wooden Architecture’의 약자로, 전통 목조건축에 특화된 3D CAD 시스템으로 국내는 물론 세계적으로도 유일무이한 제품이라고 자부한다. 이 제품은 단순한 설계 도구를 넘어, AI 기반의 전통 건축 설계 자동화 플랫폼으로 새로운 시장을 개척하고 있다. 사용자가 입력한 다양한 도면 정보를 AI가 인식해 객체를 식별하고, 룰 기반 구조 추론을 통해 정확한 스케일과 축에 맞춰 정렬하며, 부재 간의 연관성과 정합성을 분석하여 3D 목구조 설계를 자동으로 완성한다. 캐디안은 전통과 첨단이 공존할 수 있음을 기술로 입증하며, ‘디지털 헤리티지(digital heritage)’를 선도하는 기업으로서의 입지를 확고히 다지고 있다. 앞으로는 단순한 CAD 소프트웨어를 넘어, 대한민국의 건축 유산 가치를 세계에 알리고 보존하는 역할까지 이어질 것이다.   그림 1. AI 이미지 인지 기반 캐디안 TWArch Pro의 설계 방식 및 수정 방안 개요   전통 건축에서 축적한 도면 인지 기술을 현대 건축으로 확장 캐디안은 전통 목조건축 복원과 신축 설계를 자동화하면서 얻은 기술을 바탕으로, 2025년 12월 신제품 ‘캐디안 AI-CE(AI CostEstimation)’를 선보일 계획이다. AI-CE는 도면 이미지 기반 객체 인식, 공간 구조 분석, 문자 정보 해석을 통해 건축 도면을 자동으로 해석하고 물량 산출(BOM : Bill of Materials)까지 수행하는 AI 플랫폼이다. AI-CE는 벽체, 창호, 출입문, 가구 등 다양한 객체를 정확하게 인식하고 분류하며, 공간 구조와 동선을 파악해 설계를 재구성할 수 있다. 또한 도면에 포함된 실명, 치수, 마감재 등의 문자 정보를 OCR(광학 문자 인식)로 식별하여 자동으로 BOM 테이블을 생성한다. 이로써 설계부터 시공, 적산에 이르는 전 과정을 실질적으로 지원하는 차세대 CAD 인식 설루션으로 평가받고 있다. 특히 AI-CE는 클라우드 기반의 SaaS(Software as a Service)로 서비스될 예정이므로, 별도의 프로그램 설치 없이 다양한 산업군에서 쉽게 접근하고 활용할 수 있다. 이미 여러 건설사와 가구 및 인테리어 기업들이 AI-CE의 도입을 검토하거나 시범 운영 중이기도 하다. 이들은 AI-CE가 인건비를 줄이면서도 더 정확한 설계 준비와 예산 산정을 가능하게 한다고 적극적인 관심을 보이고 있다.   그림 2. 캐디안 AI-CE의 작동 순서(AI 인지 → 도면 재생성 → BOM 산출)   캐디안 프로, 캐디안 BIM – AI로 재탄생하다 2025년, 캐디안은 자사의 주력 제품군에 AI 기술을 본격적으로 접목하여 CAD 설계 소프트웨어의 패러다임 전환을 선언했다. 기존의 CAD를 넘어, AI를 기반으로 설계 자동화, 데이터 정규화, 실시간 조언까지 가능한 지능형 설계 플랫폼으로 진화하고 있는 것이다. AI 고도화가 적용되는 대상은 기존 캐디안 프로(CADian Pro, 오토캐드 *.dwg 호환 범용 CAD) 제품군과 새로 개발 중인 캐디안 BIM 프로(CADian BIM Pro, 레빗 *.rvt 호환 범용 BIM)이다. 두 제품은 각기 다른 사용자층을 겨냥하고 있지만, 공통적으로 설계 생산성을 혁신적으로 높이기 위한 AI 기능을 탑재하고 있다.   캐디안 프로 : 설계자의 손과 눈이 되어주는 AI 도우미 캐디안의 대표 제품인 캐디안 프로 2025 버전은 AI 기술이 깊숙이 내장되어 기능성과 사용성을 한 단계 끌어올릴 예정이다. 스마트 블록 기능 : AI가 도면 상 반복적으로 등장하는 도형이나 객체를 자동으로 식별하고, 이를 사용자 정의 블록으로 등록하여 반복 작업을 자동화하고 도면 일관성을 유지한다. 도면 레이어 표준화 및 블록 네이밍 표준화 : 동일한 객체를 다양한 레이어에 그려 넣는 오류를 방지하기 위해, AI가 객체 유형을 인식하여 자동으로 레이어를 통합 정리해준다. 이는 대형 프로젝트에서의 협업 도면 정리에 도움이 된다. 또한 동일 레이어 내 동일 형상을 동일한 블록 이름으로 통일함으로써 데이터 정규화 및 객체 관리 효율을 향상시킨다. 캐디안 디자인 어시스턴트 : AI 에이전트 기반 RAG(Retrieval–Augmented Generation : 검색 증강 생성) 시스템을 활용한 ‘캐디안 디자인 어시스턴트(CADian Design Assistant)’를 탑재했다. 이 기능은 설계자가 명령어를 입력하거나 음성으로 질문하면 설계 관련 정보, 명령어 및 명령 진행 방법, 설계 지침 등을 분석해 실시간으로 설계 설루션을 제시한다.   그림 3. 캐디안 디자인 어시스턴트의 실제 사용 모습   캐디안 BIM 프로 : 대화하고 판단하는 BIM 설계 AI 캐디안이 개발 중인 차세대 제품 캐디안 BIM 프로 역시 AI 기능을 중심으로 개발되고 있다.   대화형 캐디안 BIM 어시스턴트 탑재 설계자는 대화형 인터페이스를 통해 설계 중 발생하는 법적/기술적 문의를 AI에게 바로 질의할 수 있다. ‘캐디안 BIM 어시스턴트(CADian BIM Assistant)’는 사용자의 질문에 AI가 현행 법령과 판례, 기준에 따라 답변을 제공한다. 그리고 해당 법이나 규정을 위반하는 객체를 AI가 스스로 탐지하고 수정안까지 제시하는 ‘자동 검사 기능’으로 발전할 예정이다.   그림 4. 캐디안 BIM 프로의 AI화 사례 : 법규 탐지 및 수정   2Dto3DBIM 기능 탑재 2D 평면도 이미지를 입력하면 AI가 공간 구조와 객체 정보를 인식하여 단일 층의 3D BIM 모델을 자동으로 생성하는 ‘2Dto3DBIM’ 기능이 포함된다. 이 기술은 추후 다층 평면도와 단면도 정보를 종합 분석하여, 여러 층에 걸친 BIM 모델을 자동 생성하는 방향으로 진화할 예정이다.   그림 5. 캐디안 BIM 프로의 AI화 사례 : 2D 도면을 3D BIM으로   ‘말하면 설계해주는 세상’을 꿈꾸다 설계의 언어가 이제 키보드와 마우스를 넘어 ‘말’로 옮겨가는 시대가 다가오고 있다. 캐디안은 AI-CAD 전문 소프트웨어 개발사로서, 그동안 축적한 기술력과 최근 AI 융합을 통해 AI 기반 음성 설계 자동화 시스템을 완성하기 위한 대형 프로젝트에 착수했다.   그림 6. 캐디안이 생각하는 ‘말로 설계하는 AI-CAD’ 개발 콘셉트   ‘말하면 설계하는 AI-CAD’는 단순한 기술 과제가 아닌, 세계적인 CAD 기업들도 아직 해답을 내지 못한 문제이다. 하지만 캐디안은 이 도전에 성공적으로 대응하고 있으며, 설계라는 복잡한 작업을 AI가 이해하고 실행하는 기술 로드맵을 구체화하고 있다. 캐디안은 AI 기술을 바탕으로 CAD 및 이미지 인식 기술에 특화된 기업으로, AI의 고차원 기술을 국내 최고의 AI 전문 기관과 협력하여 공동 개발할 계획이다. 이를 통해, 2025년부터 본격 개발을 시작하여 2027년까지 음성 기반 AI-CAD 시스템을 실용화할 목표를 세우고 있다.   ■ 한명기 캐디안 기술연구소의 상무이사로, AI-CAD 설루션 개발 총괄을 맡고 있다. (홈페이지)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-11-04
[신간] 돈 되는 AI 어디서부터 무엇을 어떻게 해야 할까
장동인 지음 / 2만 5000원 / 리코멘드 AI 도입, CEO의 기술 이해가 성공을 좌우한다 - 오라클·딜로이트 출신 전문가의 실전 AI 도입 전략서 출간 “기업의 AI 수준은 CEO의 AI 이해 수준을 넘을 수 없다.” ChatGPT부터 AI 에이전트까지 인공지능(AI)이 기업 경영의 핵심으로 부상했다. 기업들은 앞다투어 AI 도입에 나서고 있지만, 실질적인 성과를 내지 못하고 프로젝트가 좌초되는 사례가 속출하고 있다. 이는 시스템 구축에만 집중하고 현장과의 연동에 실패했거나, 경영진의 기술 이해 부족으로 전략을 세우지 못했기 때문이다. 국내 최고의 AI·빅데이터 전문가로 꼽히는 장동인 AIBB LAB 대표가 AI 도입의 성공 전략을 담은 책을 펴냈다. 오라클 본사, 딜로이트, 언스트앤영 등에서 30년간 글로벌 기업 컨설팅을 담당해 온 저자는 『돈 되는 AI, 어디서부터 무엇을 어떻게 해야 할까』를 통해 AI 도입을 고민하는 모든 기업인에게 실전 가이드라인을 제시한다. AI 프로젝트, 첫 문제 정의부터 실패한다 저자는 AI 프로젝트의 90%가 '첫 문제 정의 단계'에서부터 실패한다고 단언했다. 많은 기업이 AI를 도입하면 자동으로 성과가 나올 것이라 착각하지만, 명확한 문제 정의와 전략 없이는 실패를 피할 수 없다는 것이다. 이 책은 이론이 아닌 실전에 초점을 맞춰, 기업 현장에 바로 적용 가능한 구체적인 방법론을 제공한다. 특히 '돈 되는 AI' 문제 정의를 위한 4단계 필터링(문제 정의의 예리성, 데이터 연관성, AI 해결 가능 유형, ROI 산출)을 제시하고, ABCD 방법론(Analysis, Blueprint, Create, Develop)을 통해 AI 도입의 전 과정을 체계화했다. 경영진의 기술 이해가 기업의 생존을 결정한다 엔지니어 출신인 저자는 KAIST AI대학원 CAIO 과정 책임교수이자 6년간 <CEO를 위한 AI 코딩 강의>를 진행하며 경영진의 기술 이해를 강조해 왔다. 이 책에서도 경영진의 기술 이해가 AI 도입 성패를 좌우한다고 거듭 강조했다. 실무자를 위해서는 RAG(검색 증강 생성) 기술을 활용한 사내 지식 관리, AI 에이전트를 통한 업무 자동화, 기존 시스템과의 통합 방법 등 구체적인 실전 사례를 제시했다. 또한 보안이 중요한 기업 환경에 최적화된 오픈 소스 LLM, 클로즈드 소스 LLM, 하이브리드 등 다양한 AI 아키텍처를 비교 분석했다. 랭체인, 코파일럿 스튜디오 등 최신 AI 에이전트 개발 도구까지 실무 관점에서 총정리했다. 이 외에도 젠슨 황의 엔비디아 성공 비결, 딥시크(DeepSeek), 테스트 타임 스케일링, MCP(Model Context Protocol) 등 2025년 최신 AI 트렌드를 총망라해 AI 시대 비즈니스 방향을 고민하는 CEO, 임원, 기획자, 실무자 모두에게 필독서가 될 것으로 기대된다.
작성일 : 2025-10-23