• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "추론"에 대한 통합 검색 내용이 351개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔 가우디 3 AI 가속기, IBM 클라우드 통해 첫 상용 클라우드 서비스 제공
인텔은 IBM 클라우드가 클라우드 서비스 제공사로는 처음으로 인텔 가우디 3(Intel Gaudi 3) AI 가속기 기반 상용 서비스를 제공한다고 밝혔다. 인텔은 이로써 클라우드 서비스 고객이 고성능 인공지능 역량을 보다 쉽게 활용할 수 있도록 지원하고, AI 특화 하드웨어의 높은 비용 장벽을 낮출 수 있을 것이라고 밝혔다. 이번 IBM 클라우드 상용화는 가우디 3의 첫 대규모 상업 배포이다. 양사는 IBM 클라우드에서 인텔 가우디 3를 활용해 고객이 합리적인 비용으로 생성형 AI를 테스트·혁신·배포하도록 돕는 것을 목표로 하고 있다. 가트너의 최근 조사에 따르면 2025년 전 세계 생성형 AI 관련 지출은 2024년 대비 76.4% 증가한 6440억 달러에 이를 전망이다. 가트너는 “생성형 AI가 IT 지출 전 영역에 변혁적 영향을 미치고 있으며, 이에 따라 AI 기술이 기업 운영과 소비재에 필수 요소로 자리 잡을 것”이라고 분석했다. 많은 기업이 생성형 AI와 같은 도구가 자동화·워크플로 개선·혁신 촉진 등에 분명한 이점이 있다는 것을 알고 있으나, AI 애플리케이션 구축에는 막대한 연산 능력이 필요하고 대개의 경우 고가의 특화된 프로세서를 요구하기 때문에 많은 기업들은 AI 혜택을 누리지 못하고 있다.     인텔 가우디 3 AI 가속기는 개방형 개발 프레임워크를 지원하면서 생성형 AI·대규모 모델 추론·파인튜닝 등에 대한 폭발적인 수요를 충족하도록 설계됐으며, 멀티모달 LLM(대규모 언어 모델)과 RAG(검색 증강 생성) 워크로드에 최적화되어 있다. IBM 클라우드는 다양한 기업 고객, 특히 금융 서비스, 의료 및 생명 과학, 공공 부문 등 규제 산업에 종사하는 고객에게 서비스를 제공한다. 현재 가우디 3는 독일 프랑크푸르트, 미국 워싱턴 D.C., 택사스 댈러스의 IBM 클라우드 리전에 적용되어 사용할 수 있다. 가우디 3은 IBM의 광범위한 AI 인프라스트럭처 제품에도 통합되고 있다. 고객들은 현재 IBM VPC(가상 프라이빗 클라우드)의 IBM 클라우드 가상 서버를 통해 가우디 3를 사용할 수 있으며, 2025년 하반기부터 다양한 아키텍처에 배포할 수 있다. 레드햇 오픈시프트(Red Hat OpenShift)와 IBM 왓슨엑스 AI 플랫폼(IBM’s watsonx AI platform)에 대한 지원은 이번 분기 내 가능해질 예정이다. 인텔의 사우라브 쿨카니(Saurabh Kulkarni) 데이터센터 AI 전략 담당은 “인텔 가우디 3 AI 가속기가 IBM 클라우드에 도입되며 기업 고객에게 추론 및 파인 튜닝을 위해 최적화된 성능으로 생성형 AI 워크로드를 확장할 수 있도록 지원하게 되었다”면서, “이번 협력은 전 세계 기업이 AI를 더 쉽게, 비용효율적으로 구현할 수 있도록 지원하려는 양사의 공동 노력의 일환”이라고 밝혔다. IBM의 사틴더 세티(Satinder Sethi) 클라우드 인프라스트럭처 서비스 총괄은 “더 많은 데이터 처리 능력과 더 높은 성능 구현은 전 세계 고객의 AI 도입을 촉진할 것”이라며 “인텔 가우디 3는 고객에게 AI의 하드웨어에 대한 더 많은 선택권과 더 많은 자유, 더 비용 효율적인 플랫폼을 제공해준다”고 밝혔다.
작성일 : 2025-05-08
오픈마누스 AI 에이전트의 설치, 사용 및 구조 분석
BIM 칼럼니스트 강태욱의 이슈 & 토크   생성형 AI 에이전트는 목표 달성을 위해 세상을 관찰하고 스스로 행동하는 자율적인 애플리케이션으로, 행동과 의사결정을 위한 인지 아키텍처를 갖추고 있다. 이번 호에서는 오픈소스 AI 에이전트인 오픈마누스(OpenManus)를 통해 AI 에이전트의 동작 메커니즘이 어떻게 구현되는지 분석해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   최근 AI 에이전트 기술이 크게 발전하고 있다. 구글의 에이전트 백서를 보면, 생성형 AI 에이전트는 목표 달성을 위해 세상을 관찰하고 스스로 행동하는 자율적인 애플리케이션으로 설명한다. 명시적인 지시가 없어도 스스로 판단하고 능동적으로 목표에 접근할 수 있다. 이러한 에이전트는 행동과 의사결정을 위한 인지 아키텍처를 갖추며, 핵심 구성 요소는 <그림 1>과 같이 사용자 입력에 대한 추론 역할을 하는 모델(보통은 GPT와 같은 LLM), 입력에 대해 필요한 기능을 제공하는 도구(tools), 그리고 어떤 도구를 호출할지 조율하는 오케스트레이션의 세 가지로 이루어진다.   그림 1. AI 에이전트의 구성 요소(Agents, Google, 2024)   이번 호에서는 AI 에이전트의 동작 메커니즘을 분석하기 위한 재료로, 딥시크(DeekSeek)와 더불어 관심이 높은 마누스(Manus.im)에서 영감을 받아 개발된 오픈마누스(OpenManus) 오픈소스 AI 에이전트를 활용하겠다. 오픈마누스는 메타GPT(MetaGPT)라는 이름으로 활동 중인 중국인 개발자가 공개한 AI 에이전트이다. 개발자는 오픈마누스가 연결된 다양한 도구를 LLM으로 조율하고 실행할 수 있다고 주장하고 있다. 깃허브(GitHub) 등에 설명된 오픈마누스는 다음과 같은 기능을 지원한다. 로컬에서 AI 에이전트 실행 여러 도구 및 API 통합 : 외부 API, 로컬 모델 및 자동화 도구를 연결, 호출 워크플로 사용자 지정 : AI가 복잡한 다단계 상호 작용을 효율적으로 처리 여러 LLM 지원 : 라마(LLaMA), 미스트랄(Mistral) 및 믹스트랄(Mixtral)과 같은 인기 있는 개방형 모델과 호환 자동화 향상 : 내장 메모리 및 계획 기능을 통해 코딩, 문서 처리, 연구 등을 지원   <그림 2>는 이 에이전트가 지원하는 기능 중 일부이다. 프롬프트 : “Create a basic Three.js endless runner game with a cube as the player and procedurally generated obstacles. Make sure to run it only in browser. If possible also launch it in the browser automatically after creating the game.”   그림 2   오픈마누스는 이전에 중국에서 개발된 마누스에 대한 관심을 오픈소소로 옮기는 데 성공했다. 오픈마누스는 현재 깃허브에서 4만 2000여 개의 별을 받을 정도로 관심을 받고 있다.    그림 3. 오픈마누스(2025년 4월 기준 42.8k stars)   필자는 오픈마누스에 대한 관심이 높았던 것은 구현된 기술보다는 에이전트 분야에서 크게 알려진 마누스에 대한 관심, 오픈소스 버전의 AI 에이전트 코드 공개가 더 크게 작용했다고 생각한다. 이제 설치 및 사용해 보고, 성능 품질을 확인해 보자. 그리고 코드 실행 메커니즘을 분석해 본다.    오픈마누스 설치 개발 환경은 이미 컴퓨터에 엔비디아 쿠다(NVIDIA CUDA), 파이토치(PyTorch) 등이 설치되어 있다고 가정한다. 이제, 다음 명령을 터미널에서 실행해 설치한다.   conda create -n open_manus python=3.12 conda activate open_manus git clone https://github.com/mannaandpoem/OpenManus.git cd OpenManus pip install -r requirements.txt playwright install   오픈마누스가 설치하는 패키지를 보면, 많은 경우, 기존에 잘 만들어진 LLM, AI Agent 라이브러리를 사용하는 것을 알 수 있다. 여기서 사용하는 주요 라이브러리는 다음과 같다.  pydantic, openai, fastapi, tiktoken, html2text, unicorn, googlesearch-python, playwright, docker     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-05-02
[칼럼] 실용형 AI, 제조의 미래를 바꾸다
트렌드에서 얻은 것 No. 23   “AI는 모든 산업에 새로운 가능성을 열어 준다. 중요한 것은 기술이 아니라, 그것을 어떻게 활용하느냐이다.” – 사티아 나델라(Satya Nadella), 마이크로소프트 CEO 마이크로소프트는 생성형 AI를 다양한 산업에 통합하며, 기술의 활용 방식에 중점을 두고 있고,  나델라의 말은 기술 도입보다 전략적 활용이 중요하다는 점을 강조한다.   생성형 AI와 함께 설계하고, 시뮬레이션하고, 개선하라 지금 이 이야기를 한국의 제조기업에 가서 한다면, 이상한 사람 취급을 받을 수 있다. 당장, 어떻게 할 수 있는지 이야기할 수 있느냐? 우리도 그렇게 하고 싶은데, 어떻게 할 수 있는지 제대로 나온 것도 없고, 사례가 있는지 등의 얘기가 자연스럽게 나온다. 맞는 말이다. 하지만, 지금은 레이스의 출발선에서 모두 같은 상황일 것이다. 다만, 전체를 제어하고 미래를 설계하는 혜안이 있는 사람이나 조직 유무에 따라 회사들의 달리기 속도는 분명 차이가 날 것이다.  우리는 그런 시대를 살아가고 또 지나가고 있다. 뉴스에서 다른 회사의 소식을 들으면서 탄식을 하고 있을 것인가, 아니면 고통스럽더라도 뭔가 해 보는 것이 낫지 않느냐의 갈림길에 있다. “그럼에도 불구하고, 우리는 설계할 수 있다.” 그렇다. ‘생성형 AI로 설계하고, 시뮬레이션하고, 개선하라’는 말은 지금의 제조 현장에선 거대한 간극처럼 느껴진다. 공장의 열기와 노하우 속에서 살아온 실무자에게는 뜬구름 잡는 이야기처럼 들릴 수 있다. “AI가 좋다는데, 어디까지 해봤나?”, “누가 이걸 설계에 실제로 썼대?” 이런 질문은 당연한 것이고, 오히려 현실을 잘 아는 사람일 수록 더 조심스러운 반응을 보인다. 그러나 지금, 우리는 모두 레이스의 출발선에 서 있다. 완성된 길도, 검증된 답도 아직 없다. 그러니 이 때 필요한 건 기술보다 먼저 혜안을 가진 사람, 구조를 설계할 수 있는 리더다. 단 한 줄의 프로토타입이라도 그려보려는 엔지니어, 익숙한 보고서보다 새로운 질문을 고민하는 팀장, 시행착오를 감수하고 방향을 잡으려는 임원이 지금 이 시대의 속도를 결정짓는다. 그리고 그 ‘혜안’은 거창한 청사진이 아닐 수도 있다. 단 하나의 설계 데이터를 기반으로 AI에게 첫 도면을 그리게 해보는 실험, 실시간 현장 일지에서 이상 징후를 요약하게 해 보는 시도, 현장의 사진 데이터로 품질 검사 자동화를 위한 검출 모델을 훈련해 보는 도전 등이 현 시점에서 예상해 볼 수 있는 가까운 미래 모습일 것 같다. “우리는 예상치 못한 상황을 목격하고, 예상된 상황을 보고하며, 결국 승리할 것입니다.” – 알렉스 카프, 팔란티어 CEO 카프는 AI를 활용한 제조업의 혁신이 불확실성을 극복하고 성공으로 이끄는 열쇠라고 보고 있으며, 이는 생성형 AI를 통한 제조업의 미래를 긍정적으로 전망한다.    그림 1. 실용형 AI 맵 ‘제조 미래를 바꾸다’(Map by 류용효) (클릭하면 큰 이미지로 볼 수 있습니다.)   제조, AI를 다시 만나다 “설계는 끝났지만, 고객은 원하지 않는다.”  “시뮬레이션은 끝났지만, 현장은 여전히 오류를 반복한다.”  “보고서는 쌓이지만, 문제는 여전히 현재진행형이다.” 이 문장들은 지금도 수많은 제조 현장에서 반복되고 있다. 전통적인 제조 프로세스는 분업과 효율을 중심으로 설계되었지만, 급변하는 고객의 요구와 복잡해진 제품 환경은 기존 체계의 민첩성과 창의성에 한계를 드러낸다. 이제 제조기업은 하나의 질문 앞에 서 있다. “우리는 더 빠르고 똑똑한 공장을 가질 준비가 되었는가?” 생성형 AI는 단순한 자동화 기술이 아니다. 설계자의 의도를 읽고 CAD 모델을 생성하며, 수십 개의 시뮬레이션으로 프로세스 병목을 알려주고, 품질 이상을 예측할 뿐 아니라 원인을 유추해주는 ‘설계적 사고를 하는 AI’가 등장하고 있다. 이는 기술의 도입이 아니라 제조기업의 ‘운영 철학’ 자체가 전환되는 순간이다. 제조기업이 생성형 AI와 함께 앞으로 어떻게 설계하고, 시뮬레이션하고, 개선할 수 있을지를 구체적으로 조망한다. “AI는 인류가 만든 가장 중요한 기술이다. 우리는 그것을 책임감 있게 개발하고 활용해야 한다.” – 순다르 피차이(Sundar Pichai), 구글 CEO 구글은 AI 개발에 있어 윤리적 책임과 사회적 영향을 고려하고 있으며, 피차이의 말은 기술 발전과 함께 그에 따른 책임도 중요하다는 점을 상기시켜 준다.   디자인의 재정의 - AI는 창의적인 엔지니어인가? 전통적인 제조 설계 과정은 복잡한 조건 설정, 반복적인 수정, 협업 간의 커뮤니케이션 비용 등으로 인해 수많은 시간과 리소스를 요구해왔다. 하지만 이제, 생성형 AI는 텍스트 한 줄로 설계를 시작하게 한다. “3개의 모듈로 구성된 소형 드론 프레임을 설계해 줘. 탄소 섬유 기반으로 무게는 150g 이하로.” 이 한 문장으로 AI는 초기 설계안을 생성하고, 다양한 대안 모델을 제공하며, 사용자 요구조건에 따라 자동 최적화를 제안한다. AI는 도면을 '그리는 도구'가 아니라, '제안하고 비교하는 동료 엔지니어'로 진화하고 있다. 예를 들어, 오토데스크의 퓨전 360(Fusion 360), 엔톱(nTop), 다쏘시스템의 3D익스피리언스 웍스(3DEXPERIENCE Works)는 이미 생성형 디자인 기능을 내장하고 있다.  디자이너는 아이디어를 제공하고, AI는 그에 기반한 설계 패턴을 도출한다. 이는 ‘무에서 유를 만드는’ 것이 아니라, 수많은 설계 데이터를 학습한 AI가 새로운 패턴과 조합을 도출해내는 방식이다. 결과적으로 설계자는 더 이상 반복적인 CAD 작업자가 아니다. 이제 디자이너는 ‘기획자’이자 ‘비평가’, 그리고 ‘AI와 협력하는 설계 전략가’가 된다. 또한, 이러한 생성형 설계는 대량 맞춤형 생산(mass customization)과의 결합으로 그 진가를 발휘한다. 기존에는 옵션이 제한된 범용 제품만이 경제성이 있었지만, 생성형 AI는 고객의 요구사항을 빠르게 읽고 즉시 설계에 반영할 수 있다. 이는 ‘고객이 참여하는 설계’, 즉 코디자인(co-design) 시대의 도래를 가능하게 한다. 기업은 더 빠르게 시장에 대응하고, 고객은 더 높은 만족도를 경험한다. 이처럼 생성형 AI는 설계를 단순히 ‘빠르게’ 만드는 기술이 아니라, 설계의 개념 자체를 ‘재정의’하는 도구이자 기업의 창의성과 기민함을 확장하는 전략 자산이 되고 있다. “퍼플렉시티(Perplexity)는 단순한 답변 엔진에서 행동 엔진으로 전환하고 있다. 이제는 단순히 질문에 답하는 것을 넘어, 사용자에게 행동을 제안하고 실행하는 단계로 나아가고 있다.” – 아라빈드 스리니바스(Aravind Srinivas), 퍼플렉시티 AI CEO 아라빈드의 말은 AI 기술이 단순한 정보 제공을 넘어, 사용자와의 상호작용을 통해 실제 행동을 유도하고 실행하는 방향으로 발전하고 있음을 의미한다.   시뮬레이션의 혁신 - 빠른 판단과 적은 비용 과거의 시뮬레이션은 전문 소프트웨어와 고성능 컴퓨팅 자원, 그리고 숙련된 엔지니어의 직관과 경험에 크게 의존해 왔다. CAE는 분명 설계 검증과 최적화의 핵심이었지만, 조건 설정 → 모델링 → 결과 해석 → 반복이라는 고비용 순환은 여전히 제품 개발의 병목으로 작용해왔다. 그러나 생성형 AI는 이 병목을 타파하는 새로운 접근을 제시한다. 자연어로 “강풍 조건에서 뒤틀림이 가장 적은 하우징 구조를 찾아줘”라고 지시하면, AI는 자동으로 물리 조건을 추론하고, 유사 데이터 기반의 시뮬레이션 템플릿을 구성하며, 수십 개의 대안 시나리오를 병렬 생성해 ‘예측 – 설명 – 추천’이라는 삼중 루프를 빠르게 수행한다. 이러한 기술은 시뮬레이션의 대중화(simulation democratization)를 이끈다. 기술 전공자가 아니어도, 제품 매니저나 품질 담당자가 AI의 도움으로 설계안의 응력 분포나 유동 조건에 대해 인사이트를 얻을 수 있다. 이는 실무자가 더 빠르게 결정을 내릴 수 있도록 돕고, 의사결정의 지연 대신, 다중 시나리오 기반의 ‘실험적 사고’를 가능하게 만든다. 대표적인 사례로는 알테어의 AI 기반 인스파이어 플랫폼(AI-driven Inspire Platform), 앤시스의 AI 기반 시뮬레이션 자동화, 그리고 다쏘시스템의 솔리드웍스 생성형 시뮬레이션(Generative Simulation for SOLIDWORKS)이 있다. 이들은 기존 FEM/CFD 분석의 시간과 비용을 줄이는 동시에, 경험 기반 의사결정에서 데이터 기반 최적화로의 전환을 이끌고 있다. 궁극적으로 생성형 AI는 단순히 ‘더 빠른 계산’을 넘어서, “어떤 시나리오를 먼저 고려해야 하는가?”, “이 조건에서 실패할 가능성은 무엇인가?”라는 전략적 질문에 답하는 보조 엔진이 되어 준다. 이는 시뮬레이션을 단지 제품 검증의 도구가 아니라, 경영 의사결정과 R&D 전략 수립의 인공지능 파트너로 진화시키는 변화의 시작점이다.  “AI는 우리가 상상하는 것보다 훨씬 더 빠르게 발전하고 있다. 자율주행차는 그저 시작일 뿐이다.” – 일론 머스크(Elon Musk), 테슬라 CEO 테슬라는 자율주행 기술 개발에 AGI 수준의 AI를 활용하고 있으며, 이는 단순한 기능 향상을 넘어 차량 설계와 운행 방식 전반을 재정의하는 접근이다.   업무 분석과 프로세스 개선 - 데이터는 말하고 AI는 듣는다 제조 현장의 데이터는 언제나 풍부했다. 작업자 일지, 설비 로그, 유지보수 메모, 품질검사 리포트, 현장 사진과 동영상, 고객 클레임 이메일… 하지만 이들 대부분은 정형화되지 않은 ‘텍스트’와 ‘문서’ 형태로 존재하며, 기존 시스템은 이를 ‘기록’하는 데에만 집중했고, 의미를 해석하고 연결하는 능력은 인간의 몫이었다. 이제 생성형 AI는 이 방대한 비정형 데이터의 숲에서 맥락을 이해하는 나무를 찾는다. 작업자가 남긴 “라인 3에서 어제도 제품 정렬이 안 맞았고, 자동 이젝터가 두 번 멈췄다”는 기록은, AI에겐 단순한 텍스트가 아니라 ‘패턴’과 ‘이상’의 시그널이다. LLM은 이런 문장을 분석해 작업 단계별 이벤트를 분해하고, 관련된 설비 로그와 품질 데이터를 연결하여 문제 지점을 도출한다. 이제 업무는 ‘기록하고 보고하는 일’이 아니라, ‘데이터가 스스로 분석하고 말하는 환경’으로 바뀌고 있다. 대표적인 활용 사례는 다음과 같다. 업무 요약 자동화 : 업무 일지를 요약해 경영진에게 핵심 이슈를 전달 프로세스 병목 식별 : 여러 부서의 텍스트 기반 보고서에서 공통 키워드와 불만 분석 문서 자동 생성 : SOP(표준작업지침서), 회의록, 개선안 보고서 등의 자동 초안 작성 협업 인텔리전스 : 여러 팀 간의 커뮤니케이션 데이터를 분석해 협업 지연 포인트 도출 실제로 지멘스는 AI 기반 자연어 처리 기술(Natural Language Processing : NLP)을 통해 디지털 작업지시서와 실시간 현장 대응 리포트를 자동 생성하는 기능을 도입했고, 보쉬는 AI를 통해 품질 클레임 문서에서 반복 출현하는 원인 유형을 추출하여 품질 개선의 단초로 활용하고 있다. 핵심은 이것이다. 현장의 수많은 대화와 기록이 AI에게 ‘말을 거는 데이터’가 되었고, AI는 그 말을 듣고, 요약하고, 통찰을 제시하며, 업무 개선을 스스로 제안하는 존재가 되었다는 점이다. 이제 우리는 묻지 않을 수 없다. 우리는 AI에게 말 걸 준비가 되어 있는가? 그리고 그 대답을 조직이 들을 준비는 되었는가? “가장 큰 위험은 아무런 위험도 감수하지 않는 것이다. 모든 것이 급변하는 시대에서 위험을 회피하는 전략은 반드시 실패로 이어진다.” — 마크 저커버그, 메타 CEO 저커버그는 변화와 혁신의 시대에 기존의 방식을 고수하며 위험을 회피하려는 태도가 오히려 더 큰 실패를 초래할 수 있음을 경고한다.   품질 관리의 진화 - AI는 예지적 감각을 가질 수 있는가 품질 관리는 제조업의 마지막 방어선이자, 가장 정교한 신경망이다. 그러나 지금까지의 품질 관리는 주로 사후 대응(postdefect 대응)에 집중되어 있었다. 불량이 발생한 후 원인을 찾고, 재발 방지책을 수립하고, 문서를 정리하는 ‘후행적 품질 관리’가 일반적이었다. 이제 생성형 AI는 이 전통적 프레임을 근본부터 흔들고 있다. AI는 ‘불량을 감지’하는 것이 아니라, ‘불량을 설명하고 예측’하려 한다. 예를 들어, 제품 표면의 이미지를 기반으로 한 비전 검사 시스템은 단순히 OK/NG를 판단하는 데서 그치지 않고, “이 영역의 텍스처 패턴은 온도 편차에 의한 수축 변형일 가능성이 높습니다”라고 말할 수 있는 설명형 모델로 진화하고 있다. 나아가, 생성형 AI는 텍스트, 이미지, 센서 데이터를 통합적으로 분석해 복합적인 이상 징후를 감지하고, 불량의 '가능성'과 '잠재 원인'을 추론해낸다. 예를 들어 다음과 같은 조합이 가능해진다. 작업자 일지 : “이틀 전부터 용접기압이 다소 약한 것 같다.” 센서 로그 : 오전 9~11시에 기압 편차 발생 불량 이미지 : 비드 형성 불균형 AI는 이를 연결해 “용접 조건의 경미한 변화가 반복 불량의 근본 원인일 수 있다”고 보고한다. 이는 단순한 예측모델이 아니다. ‘설명 가능한 품질 관리(Explainable Quality)’, 즉 AI가 품질 이슈에 대해 왜 그런 판단을 했는지를 근거와 함께 제시함으로써, 품질팀은 더 이상 직감이나 경험에만 의존하지 않고 데이터 기반의 합리적 개선 프로세스를 수립할 수 있다. 이미 보쉬, 토요타, GE 항공 등은 ▲AI 기반 비전 검사 시스템에서 ‘불량 예측 + 원인 설명’을 제공하는 모델을 구축 중이고 ▲ISO 9001과 연동되는 AI 품질 리포트 자동화 시스템을 테스트하고 있다. 이는 곧 ‘AI가 품질 시스템의 일원으로 공식 포함되는 시대’가 오고 있음을 뜻한다. 품질의 정의는 바뀌고 있다. 과거의 품질은 발견과 수정의 문제였지만, 앞으로의 품질은 예지와 설득의 문제다. AI는 이제 불량을 찾아내는 것이 아니라, 불량이 만들어지지 않도록 ‘생산 과정 그 자체를 개선하자’고 제안하는 동료가 되어가고 있다. “AI는 전기를 발견한 것과 같은 혁신이다. 모든 산업에 스며들 것이며, 그 영향을 무시할 수 없다.” – 앤드류 응(Andrew Ng), AI 전문가 앤드류 응은 AI의 보편성과 산업 전반에 미치는 영향을 강조하고 있다. 그의 말은 제조업에서도 AI의 통합이 필수임을 시사한다.   경고와 제언 - 생성형 AI는 도입이 아니라 전환이다 많은 제조기업이 생성형 AI에 주목하고 있다. 설계 자동화, 시뮬레이션 최적화, 업무 요약, 품질 예측… 도입 사례는 늘고 있지만, 도입이 곧 성공을 의미하진 않는다. 생성형 AI는 단순한 툴이 아니라, 운영 철학의 변화를 요구한다. 기존의 프로세스는 ‘정해진 절차와 역할’ 속에서 최적화를 추구해왔지만, 생성형 AI는 ‘질문을 던지고 시나리오를 비교하며 판단을 내리는 유연한 사고방식’을 요구한다. 즉, 기술만 바꾸는 것이 아니라 조직의 사고 체계와 역할 구조 자체를 재설계해야 하는 것이다. 예를 들어 <표 1>과 같은 전환이 필요하다.   표 1   하지만 문제는 기술이 아니다. 가장 큰 장벽은 조직이 AI를 받아들일 준비가 되어 있느냐는 것이다. 임원은 AI를 단순히 ‘자동화 툴’로 간주하는 경향이 많고, 현장은 여전히 ‘내 일을 뺏는 존재’로 AI를 경계한다. 이 간극을 메우지 않으면, AI는 시연 단계에서 멈추고, 조직은 변화의 본질을 놓친다. 따라서 다음과 같은 전환 전략이 필요하다. 파일럿이 아닌 전환 설계 특정 부서에서 테스트하는 것이 아니라, 조직 전체의 프로세스 전환 시나리오를 기획해야 한다. ‘도입 교육’이 아닌 ‘공감 설계’ 기술 사용법이 아니라, 왜 이 기술이 필요한지에 대한 비즈니스 관점에서의 스토리텔링이 필요하다. AI Co-Worker 관점 전환 AI는 도구가 아니라, 함께 판단하고 실험하는 동료로 봐야 한다. 이를 위해 직무 정의서(JD)도 다시 써야 한다. 성과 기준의 재정립 AI 도입 이후에는 ‘정확도’보다 ‘학습 속도’와 ‘적응력’이 핵심 성과 지표가 된다. 결국, 생성형 AI는 ‘도입해야 할 기술’이 아니라 ‘다르게 일하고, 다르게 생각하고, 다르게 운영하는 기업’으로 전환하기 위한 촉매제다. 이제 경영진에게 남은 질문은 단 하나다. “우리는 기술을 도입할 준비가 되었는가?”가 아니라, “우리는 조직을 전환할 용기를 가졌는가?”이다. “지금은 스타트업의 시대… 세상은 여전히 변화의 가능성에 잠들어 있다.” – 샘 올트먼, 오픈에이아이 CEO 올트먼은 기술 혁신의 시기에 기존 기업들이 변화에 둔감해질 수 있음을 경고하며, 새로운 도전과 변화를 추구하는 조직만이 미래를 선도할 수 있다는 메시지를 담고 있다.   맺음말 : 생성형 AI 시대의 제조 기업, 당신은 어떤 그림을 그리고 있는가 미래의 공장은 단지 더 정교하고, 더 빠르며, 더 자동화된 곳이 아니다. 그곳은 데이터를 읽고, 상황을 이해하고, 사람과 함께 결정하는 공장이다. 문제를 발견하기 전에 감지하고, 작업자를 지원하며, 스스로 최적의 방식을 제안하는 공장이다. 그리고 그 공장의 핵심 파트너는 인간의 상상력을 확장하는 생성형 AI다. 이제 중요한 질문은 이것이다. “우리는 어떤 그림을 그리고 있는가?” 기술은 빠르게 진화한다. 생성형 AI는 설계와 시뮬레이션, 업무 분석과 품질 관리까지 제조의 전 과정을 유기적으로 연결하며 ‘스마트’를 넘어 ‘지능적’으로 만들고 있다. 하지만 진정한 경쟁력은 기술의 채택이 아닌, 기술과 함께 일하는 방식의 변화에서 비롯된다. 아직 많은 제조기업은 ‘가능성 탐색’ 단계에 머물러 있다. 하지만 머뭇거릴 시간이 없다. AI는 이미 조직 구조, 업무 정의, 리더십의 방식까지 영향을 미치기 시작했다. 이제는 기술을 배우는 것이 아니라, 기술과 함께 일할 조직을 설계해야 할 때다. 생성형 AI 시대의 제조 기업은 세 가지 질문에 답할 수 있어야 한다. 우리는 상상할 수 있는가? 생성형 AI는 ‘주어진 문제를 해결’하는 것이 아니라 ‘가능성을 확장’한다. 제조기업의 조직은 아직도 문제만 찾고 있는가, 아니면 새로운 기회를 그리고 있는가? 우리는 받아들일 수 있는가? AI는 사람의 영역을 침범하지 않는다. 다만 그 옆에 선다. 우리는 전환할 수 있는가? 우리는 그것을 파트너로 받아들일 준비가 되어 있는가? AI 도입은 기술의 문제가 아니라, 사고방식과 리더십의 전환이다. 과연 지금의 조직은 그 전환을 감당할 수 있는가? 미래의 공장은 말하고 있다. “나는 설계하고, 시뮬레이션하고, 개선할 준비가 되어 있다. 너는 나와 함께 걸을 준비가 되어 있는가?”   ■ 류용효 디원의 상무이며 페이스북 그룹 ‘컨셉맵연구소’의 리더로 활동하고 있다. 현업의 관점으로 컨설팅, 디자인 싱킹으로 기업 프로세스를 정리하는데 도움을 주며, 1장의 빅 사이즈로 콘셉트 맵을 만드는데 관심이 많다.(블로그)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-05-02
엔비디아, 오라클 클라우드 인프라에 블랙웰 GPU 지원
엔비디아가 오라클에 엔비디아 블랙웰(NVIDIA Blackwell) GPU를 지원해 에이전틱 AI와 추론 모델의 혁신을 가속화하고 있다고 밝혔다. 오라클은 자사 데이터센터에 수랭식 엔비디아 GB200 NVL72 랙을 최초로 도입하고 최적화했다. 현재 수천 개의 엔비디아 블랙웰 GPU가 엔비디아 DGX 클라우드(DGX Cloud)와 오라클 클라우드 인프라스트럭처(Oracle Cloud Infrastructure : OCI)를 통해 고객이 사용할 수 있도록 배치되고 있다. 이는 차세대 추론 모델과 AI 에이전트 개발과 실행을 지원한다. 오라클이 도입한 GB200에는 고속 엔비디아 퀀텀-2 인피니밴드(Quantum-2 InfiniBand)와 엔비디아 스펙트럼-X 이더넷(Spectrum-X Ethernet) 네트워킹이 포함된다. 이를 통해 확장 가능하고 저지연 성능을 구현하며, 엔비디아와 OCI 소프트웨어와 데이터베이스 통합의 풀스택을 지원한다. OCI는 엔비디아 GB200 NVL72 시스템을 최초로 도입한 기업 중 하나이다. OCI는 세계 최대 규모의 블랙웰 클러스터를 구축하려는 계획을 갖고 있다. OCI 슈퍼클러스터(Supercluster)는 10만 개 이상의 엔비디아 블랙웰 GPU로 확장해 전 세계적으로 급증하는 추론 토큰과 가속 컴퓨팅 수요를 충족할 예정이다. 지난 몇 주 사이 오픈AI(OpenAI)를 비롯한 여러 기업에서 새로운 추론 모델을 출시하면서 AI 혁신은 빠른 속도로 계속되고 있다.     엔비디아는 “OCI의 사례는 엔비디아 그레이스(Grace) 블랙웰 시스템이 전 세계적으로 본격 가동되기 시작한 최신 사례이다. 이는 클라우드 데이터센터를 대규모 인텔리전스를 제조하는 AI 팩토리로 탈바꿈시키고 있다”고 설명했다. 이러한 새로운 AI 팩토리는 36개의 엔비디아 그레이스 CPU와 72개의 엔비디아 블랙웰 GPU를 결합한 랙 스케일 시스템인 엔비디아 GB200 NVL72 플랫폼을 활용한다. 이를 통해 고급 AI 추론 모델 기반의 에이전틱 AI를 위한 고성능과 에너지 효율을 제공한다. OCI는 모든 규모의 고객에게 블랙웰을 제공할 수 있는 유연한 배포 옵션을 지원한다. 여기에는 공공, 정부, 소버린 클라우드는 물론 OCI 전용 리전(Dedicated Region)과 OCI 알로이(Alloy)를 통한 고객 소유의 데이터센터까지 포함된다. 한편 새로운 GB200 NVL72 랙은 엔비디아 DGX 클라우드에서 사용할 수 있는 첫 번째 시스템이다. 엔비디아 DGX 클라우드는 OCI와 같은 주요 클라우드에서 AI 워크로드를 개발하고 배포하기 위해 소프트웨어, 서비스, 기술 지원을 제공하는 최적화된 플랫폼이다. 엔비디아는 추론 모델 훈련, 자율주행차 개발, 칩 설계와 제조 가속화, AI 도구 개발 등 다양한 프로젝트에 이 랙을 사용할 예정이다. GB200 NVL72 랙은 현재 DGX 클라우드와 OCI에서 사용할 수 있다.
작성일 : 2025-04-30
마이크로소프트, ‘2025 업무동향지표’ 통해 AI-인간 협업 시대 예고
마이크로소프트가 연례 보고서인 ‘2025 Work Trend Index(업무동향지표)’를 발표하면서, AI가 재편하는 업무 환경과 프론티어 기업의 등장을 조명하는 한편 AI 시대의 변화에 대응할 로드맵을 제시했다. AI는 단순한 기술을 넘어 사고하고 추론하며 복잡한 문제를 해결하는 동반자로 진화하고 있다. 이에 마이크로소프트는 ‘2025 업무동향지표’를 통해 AI가 조직 경영과 비즈니스에 미치는 영향에 대한 주요 트렌드를 공개했다. 이번 보고서는 한국을 포함한 31개국 3만 1000 명의 근로자 대상 설문조사 결과와 함께, 마이크로소프트 365에서 수집된 수 조 건의 생산성 신호, 링크드인의 노동·채용 트렌드, 그리고 AI 스타트업, 학계 전문가, 경제학자 등과의 협업을 통해 도출됐다.     이번 보고서는 ‘프론티어 기업(Frontier Firm)’이라는 새로운 기업 유형이 등장하고 있으며, 향후 2-5년 안에 대부분의 조직이 이 방향으로 전환을 시작할 것으로 전망했다. 프론티어 기업은 인간과 AI 에이전트가 함께 일하는 하이브리드 팀을 중심으로 유연하게 운영되며, 빠르게 성장하고 성과를 만들어내는 것이 특징이다. 기업 리더의 81%는 향후 12~18개월 내 자사 AI 전략에 AI 에이전트가 광범위하게 통합될 것으로 기대하고 있으며, 실제로 AI 도입 속도도 빠르게 가속화되고 있다. 전체 리더 중 24%는 자사에 이미 전사 차원의 AI 도입이 이뤄졌다고 응답했으며, 시험 운영(pilot) 단계에 머무르고 있다고 답한 리더는 12%에 불과했다. 프론티어 기업은 인간과 AI의 협업 수준에 따라 세 단계로 진화한다. 1단계에서는 AI가 반복적인 업무를 보조해 인간의 효율을 높인다. 2단계에서는 에이전트가 팀의 디지털 동료로 합류해, 사람의 지시에 따라 구체적인 업무를 수행한다. 마지막 3단계에서는 인간이 방향을 제시하면, 에이전트가 전체 업무 흐름을 주도해 업무를 실행하고 인간은 필요할 때만 개입한다. 또한, 보고서는 AI의 급속한 발전으로, 인간의 시간·에너지·비용에 의존하던 지능이 이제는 언제든지 사용할 수 있는 ‘언제든지 사용할 수 있는 지능(Intelligence on tap)’으로 변화하고 있다고 분석했다. 합리적 사고, 계획, 행동이 가능한 AI와 에이전트의 등장으로 인해 이제 기업은 필요에 따라 팀과 개인의 역량을 확장할 수 있다. 실제로 글로벌 리더의 82%(한국 77%)는 2025년을 전략과 운영상의 주요 사항들을 재고해야 할 전환점으로 보고 있으며, 82%의 리더(한국 77%)는 향후 12~18개월 내에 디지털 노동력을 활용해 인력의 역량을 확대할 수 있을 것으로 기대하고 있다. 이 같은 변화의 배경에는 비즈니스 수요와 인간의 역량 간의 간극, 즉 역량 격차(Capacity Gap)가 있다. 리더의 53%(한국 65%)는 지금보다 더 높은 생산성이 필요하다고 답했지만, 리더를 포함한 근로자 80%(한국 81%)는 업무에 집중할 시간이나 에너지가 부족하다고 느꼈다. 마이크로소프트 365 사용자 행동 데이터에 따르면, 직원들은 회의, 이메일, 알림 등으로 하루 평균 275번 업무 방해를 받고 있으며, 10건의 회의 중 6건은 별다른 예고 없이 갑작스럽게 열리는 것으로 나타났다. 이 가운데, 일부 기업은 AI를 기반으로 조직 경영 전략을 새롭게 설계하고 있으며, 마이크로소프트는 이들을 ‘프론티어 기업’으로 정의했다. 31개국 3만 1000명 가운데 프론티어 기업에 근무하는 844명의 직원 71%는 자사가 빠르게 성장하고 있다고 답했으며, 이는 글로벌 평균(37%)의 약 두 배에 해당한다. 또 이들 중 55%(글로벌 20%)는 더 많은 업무를 감당할 여력이 있다고 응답했으며, 93%(글로벌 77%)는 향후 커리어 전망에 자신감을 보였다.     산업과 직무의 진화에 따른 다면적인 변화도 예고됐다. 리더의 45%(한국 44%)는 향후 12~18개월 안에 디지털 노동력을 통해 팀 역량을 확대하는 것을 최우선 과제로 꼽았다. 한편 링크드인에 따르면 유망 스타트업의 고용 증가율은 전년 대비 20.6%로, 빅테크(10.6%)의 약 두 배에 육박했다. 이어서, 보고서는 전통적인 조직 구조를 보완할 새로운 모델로 워크 차트(Work Chart)를 제시했다. 기존 조직이 재무, 마케팅, 엔지니어링 등 기능 중심으로 팀을 구성해왔다면, 워크 차트는 부서가 아닌 달성해야 할 목표를 기준으로 팀을 유연하게 구성하는 방식이다. 이 과정에서 AI 에이전트는 팀원으로서 분석, 지원, 제안 등 다양한 역할을 수행하며 인간의 역량을 확장한다. AI 에이전트의 역할이 모든 업무 영역에서 동일한 속도로 발전하지는 않을 것으로 예상됐다. 향후 일부 업무는 에이전트가 대부분을 수행하고, 인간은 고위험·고정밀 업무를 감독하는 방식으로 역할이 조정될 것으로 내다봤다. 판단, 공감, 사고력이 요구되는 업무는 인간의 개입이 필요하다는 분석이다. 인간과 에이전트 간 역할 분담을 측정할 수 있는 운영 지표인 인간-에이전트 비율(Human-agent ratio)의 필요성도 제시했다. 하이브리드 팀의 생산성을 극대화하기 위해서는 에이전트의 수뿐만 아니라, 이들을 효과적으로 조율하고 관리할 수 있는 인간의 수 역시 함께 고려해야 한다는 설명이다.  실제로 리더의 46%(한국 48%)는 자사에서 에이전트를 활용해 업무 절차나 프로세스를 완전히 자동화하고 있다고 답했다. AI 투자와 관련해서는, 향후 12~18개월 내 고객 서비스, 마케팅, 제품 개발 분야에서 확대가 빠르게 이뤄질 것으로 예상하는 리더가 많았다. AI에 대한 인식 차이도 주목된다. 직원의 52%(한국 52%)는 AI를 명령형 도구로 여기고 단순 지시 수행에 활용하고 있었고, 46%(한국 45%)는 조력자로 받아들여 아이디어를 구상하거나 창의적 사고를 확장하는 데 사용하는 것으로 나타났다. 이에 따라, 마이크로소프트는 조직이 향후 디지털 노동력 관리를 전담하는 지능 자원(intelligence resources) 부서나, 인간과 디지털 노동력의 균형을 조율하는 자원 최고 책임자(Chief Resources Officer)와 같은 새로운 리더십 역할 도입도 검토할 수 있다고 제언했다. 이러한 흐름 속에서, AI는 인간을 대체하기보다 협업을 통해 가치를 높이는 도구로 인식되고 있다. AI를 활용한 개인의 성과는 AI 없이 팀을 구성한 경우보다 높게 나타났으며, 직원들이 AI를 선호하는 이유로 ▲24시간 이용 가능성(42%)(한국 27%) ▲일정한 속도와 품질(30%)(한국 33%) ▲무제한 아이디어 제공(28%)(한국 25%)이 꼽혔다. 보고서는 AI 에이전트의 활용이 본격화되며, 에이전트 보스(Agent Boss) 시대가 도래할 것으로 전망했다. 이는 모든 근로자가 에이전트를 만들고 위임하고 관리하며, 에이전트 기반 스타트업의 CEO와 같은 사고방식을 갖춰야 한다는 의미다. 28%의 관리자는 인간과 AI로 구성된 하이브리드 팀을 이끌 담당자를 채용할 계획이며, 32%는 에이전트 설계·개발·최적화를 위해 12~18개월 내 AI 에이전트 전문가를 채용할 의향이 있다고 밝혔다. AI 전략 수립과 실행에서 리더의 역할도 더욱 강조되고 있다. 에이전트에 대한 친숙도, 사용 빈도, 신뢰 수준, 시간 절감 효과, 관리 역할, 사고 파트너로서 활용, 경력 기여 가능성 등 7가지 항목으로 에이전트 보스 마인드셋을 조사한 결과, 모든 지표에서 리더가 직원보다 높은 수치를 기록했다. 특히 리더들은 향후 5년 이내에 팀의 업무 범위에 ▲ AI를 활용한 비즈니스 프로세스 재설계(38%)(한국 35%) ▲복잡한 업무 자동화를 위한 멀티 에이전트 시스템 구축(42%)(한국 39%) ▲에이전트 훈련(41%)(한국 34%) ▲에이전트 관리(36%)(한국 38%) 등이 포함될 것으로 내다봤다. 에이전트에 익숙하다고 답한 리더는 67%(한국 70%)였지만 직원은 40%(한국 32%)에 그쳤고, 리더의 약 3분의 1이 AI를 통해 하루 1시간 이상을 절약한다고 응답했으나, 직원은 이보다 낮았다. AI가 커리어에 도움이 될 것이라고 본 비율도 리더는 79%, 직원은 67%로 조사됐다. 또한 51%의 관리자(한국 39%)는 향후 5년 안에, 직원의 AI 교육과 역량 강화가 자신의 업무 범위에 포함될 것으로 내다봤다. AI의 확산과 함께 조직 전반의 직무 변화가 가속화될 것으로도 전망했다. 실제로 현재 링크드인을 통해 채용된 직원 중 10% 이상은 2000년에는 존재하지 않았던 직무를 맡고 있으며, 링크드인은 2030년까지 대부분의 직무에서 요구되는 기술의 70%가 바뀔 것으로 예상했다. 한편, 83%의 리더는 AI가 신입 직원들이 더 빠르게 전략적이고 복잡한 업무에 적응하도록 도와줄 것이라고 내다봤다. 보고서는 직원들이 AI 기술을 학습하고 실무 경험을 쌓을 기회를 확보해야 하며, 기업은 이를 위한 교육과 도구를 적극 제공해야 한다고 제언했다. 직원의 52%, 리더의 57%는 자신이 속한 산업의 직업 안정성이 보장되지 않는다고 여기고 있으며, 81%의 직원이 지난 1년간 이직하지 않은 것으로 나타났다. 링크드인은 2025년 가장 주목받는 역량으로 AI 리터러시를 꼽았으며, AI 역량과 더불어 갈등 해결, 적응력, 프로세스 자동화, 혁신적 사고 등 기계가 대체할 수 없는 인간의 강점 또한 더욱 중요해질 것으로 전망했다. 마이크로소프트는 AI 시대에 유연하게 대응하기 위해 지금이 기업의 결정적 행동 시점이라고 강조하며 세 가지 실행 로드맵을 제시했다. 마이크로소프트는 ▲AI 에이전트를 디지털 직원으로 채용해 명확한 역할을 정의하고, 온보딩·책임 배분·성과 측정 등 실제 팀원처럼 관리할 것을 권고했으며 ▲고객 응대나 고위험 판단 등 인간의 개입이 필요한 영역과 자동화가 가능한 업무를 구분해, 인간과 AI의 협업 구조를 정립해야 한다고 제안하면서 ▲AI 도입을 기술 과제가 아닌 조직 혁신 과제로 보고, 시범 운영에 그치지 않고 전사적으로 빠르게 확산할 필요가 있다고 강조했다. 마이크로소프트의 자레드 스파타로(Jared Spataro) AI 기업 부문 부사장은 “AI는 조직의 경영 전략은 물론, 우리가 인식하는 지식 노동의 개념을 바꾸고 있다”며, “2025년은 프론티어 기업이 탄생한 해로, 앞으로 몇 년 안에는 AI를 통해 대부분의 산업과 조직에서 직원의 역할 경계가 새롭게 정의될 것”이라고 말했다.
작성일 : 2025-04-28
엔비디아, 기업 생산성 강화하는 ‘네모 마이크로서비스’ 정식 출시
엔비디아가 에이전트 기반 AI 플랫폼 개발을 가속화하고 기업의 생산성을 높이는 ‘엔비디아 네모 마이크로서비스(NVIDIA NeMo microservices)’를 정식 출시했다고 밝혔다. 이번에 정식 출시된 엔비디아 네모 마이크로서비스는 기업 IT 부서가 데이터 플라이휠(flywheel)을 활용해 직원 생산성을 높일 수 있는 AI 팀원을 빠르게 구축하도록 지원한다. 이 마이크로서비스는 엔드 투 엔드 개발자 플랫폼을 제공한다. 이 플랫폼은 최첨단 에이전틱 AI(Agentic AI) 시스템의 개발을 가능하게 하고, 추론 결과, 비즈니스 데이터, 사용자 선호도에 기반한 데이터 플라이휠을 통해 지속적인 최적화를 지원한다. 데이터 플라이휠을 통해 기업 IT 부서는 AI 에이전트를 디지털 팀원으로 온보딩할 수 있다. 이러한 에이전트는 사용자 상호작용과 AI 추론 과정에서 생성된 데이터를 활용해 모델 성능을 지속적으로 개선할 수 있다. 이를 통해 ‘사용’을 ‘인사이트’로, ‘인사이트’를 ‘실행’으로 전환할 수 있다.     데이터베이스, 사용자 상호작용, 현실 세계의 신호 등의 고품질 입력이 지속적으로 제공되지 않으면 에이전트의 이해력은 약화된다. 그 결과, 응답의 신뢰성은 떨어지고 에이전트의 생산성도 저하될 수 있다. 운영 환경에서 AI 에이전트를 구동하는 모델을 유지하고 개선하기 위해서는 세 가지 유형의 데이터가 필요하다. 인사이트를 수집하고 변화하는 데이터 패턴에 적응하기 위한 추론 데이터, 인텔리전스를 제공하기 위한 최신 비즈니스 데이터, 모델과 애플리케이션이 예상대로 작동하는지를 판단하기 위한 사용자 피드백 데이터가 그것이다. 네모 마이크로서비스는 개발자가 이 세 가지 유형의 데이터를 효율적으로 활용할 수 있도록 지원한다. 또한, 네모 마이크로서비스는 에이전트를 구동하는 모델을 선별하고, 맞춤화하며, 평가하고, 안전장치를 적용하는 데 필요한 엔드 투 엔드 툴을 제공함으로써 AI 에이전트 개발 속도를 높인다. 엔비디아 네모 마이크로서비스는 ▲대규모 언어 모델(LLM) 미세 조정을 가속화해 최대 1.8배 높은 훈련 처리량을 제공하는 네모 커스터마이저(Customizer) ▲개인과 산업 벤치마크에서 AI 모델과 워크플로의 평가를 단 5번의 API 호출로 간소화하는 네모 이밸류에이터(Evaluator) ▲ 0.5초의 추가 지연 시간만으로 규정 준수 보호 기능을 최대 1.4배까지 향상시키는 네모 가드레일(Guardrails)을 포함한다. 이는 네모 리트리버(Retreiver), 네모 큐레이터(Curator)와 함께 사용돼, 맞춤형 엔터프라이즈 데이터 플라이휠을 통해 AI 에이전트를 구축하고, 최적화하며, 확장하는 과정을 기업이 보다 수월하게 수행할 수 있도록 지원한다. 개발자는 네모 마이크로서비스를 통해 AI 에이전트의 정확성과 효율성을 높이는 데이터 플라이휠을 구축할 수 있다. 엔비디아 AI 엔터프라이즈(Enterprise) 소프트웨어 플랫폼을 통해 배포되는 네모 마이크로서비스는 온프레미스 또는 클라우드의 모든 가속 컴퓨팅 인프라에서 엔터프라이즈급 보안, 안정성, 지원과 함께 손쉽게 운영할 수 있다. 이 마이크로서비스는 기업들이 수백 개의 전문화된 에이전트를 협업시키는 대규모 멀티 에이전트 시스템을 구축하고 있는 현재 정식 출시됐다. 각 에이전트는 고유의 목표와 워크플로를 가지고 있으며, 디지털 팀원으로서 복잡한 업무를 함께 해결하며 직원들의 업무를 보조하고, 강화하며, 가속화한다. 엔비디아 네모 마이크로서비스로 구축된 데이터 플라이휠은 사람의 개입을 최소화하고 자율성을 극대화하면서 데이터를 지속적으로 선별하고, 모델을 재훈련하며, 성능을 평가한다. 네모 마이크로서비스는 라마(Llama), 마이크로소프트 파이(Microsoft Phi) 소형 언어 모델 제품군, 구글 젬마(Google Gemma), 미스트랄 등 폭넓은 인기 오픈 모델을 지원한다. 또한, 기업은 엔비디아 가속 인프라, 네트워킹, 그리고 시스코, 델, HPE, 레노버(Lenovo) 등 주요 시스템 제공업체의 소프트웨어를 기반으로 AI 에이전트를 실행할 수 있다. 액센츄어(Accenture), 딜로이트(Deloitte), EY를 비롯한 거대 컨설팅 기업들 역시 네모 마이크로서비스를 기반으로 기업용 AI 에이전트 플랫폼을 구축하고 있다.
작성일 : 2025-04-25
캐디안, ‘도쿄 춘계 IT 전시회’에서 AI 기반 CAD 소개
캐디안이 4월 23일~25일 일본 도쿄에서 열리는 ‘2025 일본 도쿄 춘계 IT 전시회(Japan IT Week Spring)’에 참가해 자사의 주요 CAD 설루션을 선보인다고 밝혔다. 캐디안은 이번 전시회에서 ▲전통 목조 건축 전용 설계 툴 ‘TW-Arch’ ▲DWG 기반 범용 설계 CAD ‘캐디안(CADian)’ ▲AI 기반 물량산출 솔루션 ‘AI-CE’ 등 자사의 대표 제품을 출품한다. 특히 캐디안은 국가유산청의 지원을 받아 ETRI(한국전자통신연구원), 고려대학교 건축문화유산연구실, 울산과학기술원(UNIST), 한국플랫폼서비스기술과 공동으로 개발한 ‘TWArch Pro(Traditional Wooden Architecture)’를 일본 시장에 본격적으로 소개할 계획이다.     TWArch Pro는 AAD(AI Aided Design) 기반 전통 목조 건축 설계 도구로, 설계가 까다로운 공포계(지붕 하중 지지 구조)를 포함한 전통 목조 건축물 전체를 빠르고 정확하게 설계할 수 있도록 지원한다. 손으로 그린 전통 목조 건축 도면 이미지를 AI가 자동 분석해 부재를 탐지하고, 위치와 관계를 추론하여 부재 목록을 생성하며, 2차원 도면을 2D·3D 디지털 모델로 자동 변환할 수 있는 것이 특징이다. 또한 TWArch는 CADian 위에서 구동되므로 오토캐드(AutoCAD) 사용자에게 익숙한 DWG 도면 파일의 열람과 편집은 물론 동일한 명령어와 단축키, 인터페이스를 지원해 별도의 학습 없이도 바로 사용 가능한 게 특징이다. 한글, 영어, 일본어, 중국어(간체/번체), 헝가리어 등 다양한 언어도 지원한다. 캐디안의 한명기 상무는 “이번 전시회를 통해 AI 기반 CAD 기술의 새로운 가능성을 일본 시장에 적극적으로 알릴 계획”이라며, “특히 전통 건축 분야에서의 TWArch는 일본 내 목조 건축 설계 시장에서도 높은 관심을 끌 것으로 기대한다.”고 밝혔다.
작성일 : 2025-04-22
엔비디아, “차세대 AI 성장 위한 인텔리전스 구축 나선다”
엔비디아가 AI 팩토리에서 인텔리전스를 생산하는 기반을 구축해 미국을 포함한 전 세계의 차세대 성장을 이끌겠다는 포부를 밝혔다. 모든 기업과 국가는 성장과 경제적 기회 창출을 원하지만, 이를 위해서는 사실상 무한한 인텔리전스가 필요하다. 엔비디아는 이러한 상황에서 에코시스템 파트너와 협력해 추론 기술, AI 모델, 컴퓨팅 인프라를 발전시켜 AI 팩토리를 통해 인텔리전스를 생산하겠다고 전했다. 엔비디아는 미국 내에서 AI 슈퍼컴퓨터를 제조할 것이라고 발표했는데, 향후 4년 내에 파트너들과 협력해 미국에서 최대 5000억 달러 규모의 AI 인프라를 생산할 계획이다. 엔비디아는 미국 AI 팩토리를 위한 AI 슈퍼컴퓨터 구축이 수십만 명에게 기회를 제공하고, 향후 수십 년 동안 수조 달러의 성장을 견인할 것으로 기대하고 있다. 이러한 AI 슈퍼컴퓨터의 핵심인 엔비디아 블랙웰(Blackwell) 컴퓨팅 엔진 중 일부는 이미 미국 애리조나에 있는 TSMC 공장에서 생산되고 있다.     또한 엔비디아는 차세대 AI 모델 훈련과 대규모 애플리케이션 실행을 위한 엔비디아 블랙웰 GB200 NVL72 랙 스케일 시스템이 코어위브(CoreWeave)를 통해 제공된다고 발표했다. 코어위브는 현재 수천 개의 엔비디아 그레이스(Grace) 블랙웰 프로세서를 통해 차세대 AI를 훈련하고 배포할 수 있다. 한편, 엔비디아는 보다 효율적이고 지능적인 모델을 만들기 위해 하드웨어 혁신을 넘어 AI 소프트웨어 분야도 강화한다는 전략을 소개했다. 이러한 발전의 최신 사례는 엔비디아 라마 네모트론 울트라(Llama Nemotron Ultra) 모델이다. 이 모델은 최근 아티피셜 애널리시스(Artificial Analysis)에서 과학적이고 복잡한 코딩 작업을 위한 정확한 오픈소스 추론 모델로 인정받았다. 또한 이는 현재 세계 최고 수준의 추론 모델 중 하나로 평가받고 있다.
작성일 : 2025-04-17
씨이랩, 한국정보공학과 AI 솔루션 총판 계약 체결… 국내 AI 인프라 효율화 주도
씨이랩은 한국정보공학과 AI 솔루션 총판 계약을 체결했다. 이번 계약을 통해 씨이랩의 GPU 최적화 솔루션 ‘AstraGo (아스트라고)’를 한국정보공학이 보유한 풍부한 AI 인프라 유통망을 통해 국내 기업 및 공공 기관에 공급해 국내 AI 시장에서 양사의 경쟁력이 한층 더 강화될 것으로 기대된다. 씨이랩은 엔비디아의 공식 파트너사로, GPU 활용률을 극대화하는 솔루션 AstraGo로 국내 AI GPU 시장에서 독보적 SW 개발 역량을 구축해왔다. AstraGo는 쿠버네티스(Kubernetes) 기반의 컨테이너 기술을 활용해 AI 프로젝트의 배포 및 관리를 자동화해 복잡한 AI 인프라 운영 부담을 줄인다. 기업은 이를 통해 운영 비용 절감과 AI 모델 학습 및 추론 작업의 생산성 향상이라는 두 가지 효과를 동시에 누릴 수 있다. 한국정보공학은 이커머스 데이터 분석 및 IT기기 유통 전문기업으로, HPE, LENOVO 등 다양한 글로벌 IT사의 총판으로서 폭넓은 산업 분야로 사업을 전개하고 있다. 특히 대규모 서버 공급과 AI 인프라 사업의 확대로 가파른 성장세를 보이고 있다. 2021년부터는 AI 기반 빅데이터 분석 서비스를 출시하며 데이터 플랫폼으로 사업 영역을 확대하고 있다. 양사는 이번 협력을 통해 다양한 산업군의 고객사를 대상으로 AI 인프라 활용 효율성을 극대화하는 최적의 솔루션을 제공한다는 계획이다. 씨이랩이 보유한 GPU 최적화 기술 역량과 한국정보공학이 보유한 AI 인프라 구축·유통 노하우가 시너지를 발휘해 AI 연구 및 운영을 지원하고 시장을 확대할 전망이다. 씨이랩 채정환 대표는 “국내 AI 인프라 유통 분야에서 업계를 선도하는 한국정보공학과의 총판 계약을 통해 산업 전반에 걸친 AI 학습·추론 인프라 효율화를 신속히 지원할 수 있게 됐다”며 “지속적인 기술 협력과 맞춤형 컨설팅을 통해 고객 가치를 높이고, 더 나아가 국내 AI 생태계를 활성화하는 데 기여하겠다”고 밝혔다. 채정환 대표는 이어 “AI 산업이 활성화되면서 자사의 GPU 최적화 솔루션 수요가 급증해 실적 성장이 기대된다”고 덧붙였다.   
작성일 : 2025-04-11
AMD, “구글 클라우드의 신규 가상 머신에 5세대 에픽 프로세서 탑재”
AMD 는 구글 클라우드의 신규 C4D 및 H4D 가상 머신(VM)에 자사의 5세대 AMD 에픽(AMD EPYC) 프로세서가 탑재됐다고 발표했다. 구글 클라우드의 범용 및 고성능 컴퓨팅(HPC) 최적화 VM 제품군에 새롭게 추가된 이번 인스턴스는 데이터 분석, 웹 서비스부터 고성능 컴퓨팅과 AI에 이르기까지 다양한 클라우드 워크로드에 높은 성능과 확장성 및 효율성을 제공하는 데에 초점을 맞추고 있다. 구글 클라우드 C4D 인스턴스는 범용 컴퓨팅 워크로드 및 AI 추론 작업에 최적화된 성능, 효율성, 일관성을 제공한다. 구글 클라우드의 테스트 결과에 따르면, AMD의 최신 젠 5(Zen 5) 아키텍처를 기반으로 한 C4D 인스턴스는 이전 세대 대비 vCPU당 최대 80% 높은 처리량을 제공한다. HPC에 최적화된 H4D 인스턴스는 에픽 프로세서와 클라우드 RDMA(Cloud RDMA) 기술을 기반으로 수만 개의 코어까지 효율적으로 확장할 수 있도록 설계됐다.     AMD 서버 사업부의 댄 맥나마라(Dan McNamara) 수석 부사장 겸 총괄 매니저는 “5세대 에픽 설루션은 출시 이후 다양한 OEM 파트너와 엔터프라이즈 고객에게 빠르게 채택됐으며, 이제 클라우드 영역에서도 활용될 수 있게 되어 매우 기쁘다”며, “구글 클라우드와 긴밀한 기술 협력을 통해 최신 에픽 프로세서를 빠르게 도입하고, 까다로운 워크로드를 위한 고성능∙고효율 인스턴스를 제공할 수 있게 됐다”고 말했다. 구글 클라우드의 마크 로마이어(Mark Lohmeyer) 컴퓨트 및 머신러닝 인프라 부문 부사장이자 총괄 매니저는 “구글 클라우드는 고객에게 고성능, 보안성, 확장성을 갖춘 컴퓨팅 설루션을 제공하기 위해 지속적으로 노력하고 있다”며, “이번에 도입된 에픽 기반 C4D 및 H4D 인스턴스를 통해 고객은 클라우드 네이티브 및 엔터프라이즈 애플리케이션에 최적화된 최첨단 성능과 효율성을 누릴 수 있을 것”이라고 전했다.
작성일 : 2025-04-10