• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "오픈소스"에 대한 통합 검색 내용이 782개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
루비 온 레일즈 기반 빌딩 모니터링 서비스 개발 방법
BIM 칼럼니스트 강태욱의 이슈 & 토크   루비 온 레일즈(Ruby on Rails)는 루비(Ruby) 프로그래밍 언어로 작성된 서버 측 웹 애플리케이션 프레임워크이다. 일반적으로 ‘레일즈(Rails)’로 줄여 부르며, 2004년 데이비드 하이네마이어 한손(David Heinemeier Hansson)에 의해 처음 공개되었다. 이번 호에서는 루비 온 레일즈의 설치 및 개발 방법을 정리하고, 이를 기반으로 개발된 빌딩 모니터링 구현 결과를 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | https://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1   루비는 베이스캠프(Basecamp)란 곳을 시작으로, 세계 최대의 코드 호스팅 플랫폼 깃허브(GitHub), 글로벌 이커머스 설루션 쇼피파이(Shopify), 숙박 공유 서비스 에어비앤비(Airbnb), 그리고 트위치(Twitch) 등이 레일즈를 기반으로 탄생하고 성장했다. 국내에서도 빠른 서비스 출시와 성장이 핵심인 스타트업 신을 중심으로 널리 사용되었다. 대표적으로 지역 기반 커뮤니티 당근, 온라인 동영상 서비스(OTT) 왓챠 등이 초기부터 레일즈를 활용해 서비스를 구축하고 확장해온 대표 사례로 꼽힌다. 레일즈의 핵심 개발 철학은 ‘설정보다 관례(Convention over Configuration : CoC)’와 ‘반복하지 마라(Don’t Repeat Yourself : DRY)’이다. 이는 개발자가 반복적인 설정 작업에서 벗어나 비즈니스 로직에 집중하게 함으로써, 웹 개발의 생산성을 획기적으로 향상시키는 것을 목표로 한다.   배경 및 핵심 개념 레일즈는 MVC(Model – View – Controller) 아키텍처 패턴을 근간으로 설계되었다. 이는 애플리케이션의 구성 요소를 세 가지 역할로 명확히 분리하여 코드의 구조를 체계적으로 관리하는 방식이다. 모델(Model) : 애플리케이션의 데이터와 비즈니스 로직을 담당한다. 데이터베이스 테이블에 직접 대응되며, 데이터의 유효성 검사, 처리, 저장 등의 역할을 수행한다. 뷰(View) : 사용자에게 보여지는 UI(사용자 인터페이스)를 생성하는 할을 한다. HTML, CSS, 자바스크립트(JavaScript) 코드를 동적으로 생성하여 웹 브라우저에 표시할 최종 결과물을 만든다. 컨트롤러(Controller) : 모델과 뷰 사이의 중재자 역할을 한다. 사용자의 요청(HTTP request)을 받아 분석하고, 필요한 모델을 호출하여 데이터를 처리한 뒤, 그 결과를 다시 뷰에 전달하여 사용자에게 응답(HTTP response)을 보낸다. 이러한 구조 덕분에 개발자는 데이터, 로직, 화면 표시 코드를 분리하여 유지보수가 용이하고 확장성 높은 애플리케이션을 구축할 수 있다.   장점 및 단점 레일즈의 장점은 다음과 같다. 높은 생산성과 개발 속도 : CoC 철학과 스캐폴딩(scaffolding) 같은 강력한 코드 자동 생성 기능은 CRUD(생성, 읽기, 갱신, 삭제) 기반의 기능을 매우 빠르게 구현하게 해준다. 거대하고 활발한 생태계 : ‘젬(Gem)’이라고 불리는 수많은 오픈소스 라이브러리가 존재하여 인증, 결제, 파일 업로드 등 다양한 기능을 몇 줄의 코드로 손쉽게 추가할 수 있다. 가독성 및 유지보수성 : 루비 언어 자체의 간결하고 우아한 문법과 레일즈의 잘 정립된 관례는 코드의 가독성을 높여 팀 단위 협업과 장기적인 유지보수를 용이하게 한다. 한편, 단점은 다음과 같다. 상대적으로 느린 실행 속도 : 인터프리터 언어인 루비의 특성상, Go나 Java와 같은 컴파일 언어 기반의 프레임워크에 비해 요청 처리 속도가 느릴 수 있다. 초기 학습 곡선 : 레일즈의 많은 부분이 ‘마법’처럼 자동으로 동작하기 때문에, 내부 동작 원리를 깊이 이해하기 전까지는 문제 발생 시 원인을 파악하고 디버깅하는 데 어려움을 겪을 수 있다. 제한적인 유연성 : 레일즈가 제시하는 강력한 관례는 대부분의 웹 애플리케이션 개발에 최적화되어 있지만, 매우 특수하거나 비표준적인 구조를 가진 시스템을 개발할 때는 오히려 제약이 될 수 있다. 젬은 현재 인공지능 기술 스택을 고려해 발전 중이다. 루비 생태계의 중심에는 ‘루비젬스(RubyGems)’라는 강력한 패키지 관리 시스템이 자리 잡고 있다. 이는 전 세계의 루비 개발자들이 만든 수많은 라이브러리를 젬이라는 표준화된 패키지 형태로 공유하고 재사용할 수 있도록 하는 핵심 기반이다. 개발자는 젬을 통해 인증, 데이터베이스 연동, 웹 서버 구동과 같은 복잡한 기능을 직접 구현할 필요 없이, 이미 검증된 코드를 자신의 프로젝트에 손쉽게 통합하여 개발 생산성을 극대화할 수 있다. 이러한 의존성을 체계적으로 관리하는 도구가 바로 ‘번들러(Bundler)’이다. 프로젝트의 Gemfile에 필요한 젬의 이름과 버전을 명시하면, 번들러는 해당 젬뿐만 아니라 그 젬이 의존하는 다른 모든 젬까지 정확한 버전으로 설치하여 개발 환경의 일관성을 보장한다. 이는 여러 개발자가 협업하는 환경에서 발생할 수 있는 잠재적인 충돌을 방지하고 안정적인 애플리케이션 운영을 가능하게 하는 필수 과정이다. 최근 인공지능, 특히 거대 언어 모델(LLM)이 기술의 새로운 패러다임으로 부상하면서 루비 커뮤니티 역시 이러한 변화에 발 빠르게 대응하고 있다. 루비의 강점인 뛰어난 가독성과 개발 편의성을 바탕으로, 복잡한 AI 기능을 애플리케이션에 통합하기 위한 다양한 젬들이 활발하게 개발되는 중이다. 가장 대표적인 것은 ruby-openai 젬으로, 오픈AI (OpenAI)가 제공하는 GPT, 달리(DALL-E)와 같은 강력한 모델의 API를 루비 코드 내에서 직관적으로 호출할 수 있게 해준다. 이를 통해 개발자는 손쉽게 챗봇, 콘텐츠 생성, 이미지 생성과 같은 최신 AI 기능을 자신의 서비스에 접목할 수 있다. 여기서 한 걸음 더 나아가, langchainrb는 LLM을 활용한 고수준의 애플리케이션을 구축하기 위한 프레임워크를 제공한다. 이는 단순히 API를 한 번 호출하는 것을 넘어, 여러 단계의 프롬프트를 연결하는 ‘체인’이나 LLM이 특정 도구를 사용하도록 만드는 ‘에이전트’와 같은 복잡한 로직을 구조적으로 설계할 수 있도록 돕는다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-05-06
엔비디아 AI 훈련을 위한 한국형 합성 데이터셋 공개
엔비디아가 한국 사회와 문화적 특성을 반영한 합성 데이터셋인 ‘네모트론-페르소나-코리아’를 공개했다. 이 데이터셋은 글로벌 AI 개발 플랫폼인 허깅페이스에서 데이터셋 부문 1위를 기록하며 글로벌 커뮤니티의 높은 관심을 받고 있다. 엔비디아는 “한국어 특화 데이터셋이 기술적 완성도와 실용성을 인정받으며 국내 AI 생태계의 경쟁력을 입증한 사례”라고 평가했다. 네모트론-페르소나-코리아는 대한민국의 인구통계학적, 지리적, 문화적 특성을 투영한 600만 건 규모의 합성 데이터셋이다. 국가통계포털, 대법원, 국민건강보험공단, 한국농촌경제연구원, 네이버 클라우드 등 신뢰도가 높은 공공 및 민간 데이터를 기반으로 구축해 한국 사회의 실제 통계적 분포를 반영했다.     데이터의 현실성을 높이기 위해 이름과 성별, 연령, 혼인 상태, 교육 수준, 직업, 거주 지역 등 주요 속성을 실제 통계 수치에 맞췄다. 한국어 특유의 존댓말 체계와 지역별 직업 패턴 같은 문화적 맥락도 고려했다. 기존 데이터셋에서 상대적으로 비중이 낮았던 고령층과 농촌 지역, 다양한 직업군을 포괄해 개발자가 한국 문화를 깊이 이해하는 정교한 AI 시스템을 구축하도록 돕는다. 개인정보 보호와 규제 준수에도 중점을 뒀다. 이 데이터셋은 개인정보를 포함하지 않는 완전한 합성 데이터로 구성해 국내 개인정보보호법을 준수하도록 설계했다. 엔비디아는 이를 통해 데이터 활용성과 규제 준수 사이의 균형을 확보하고 AI 개발 환경에 필요한 신뢰성과 확장성을 동시에 충족한다고 설명했다. 현재 네모트론-페르소나-코리아는 오픈소스 라이선스로 공개되어 국내외 개발자가 자유롭게 활용할 수 있다. 엔비디아는 이번 데이터셋이 한국형 소버린 AI 발전을 위한 핵심 자산으로서, 데이터 다양성을 넓히고 모델의 편향성을 완화하며 응답 품질을 높이는 데 기여할 것으로 기대하고 있다.
작성일 : 2026-04-28
엔비디아, 네모트론 디벨로퍼 데이즈 진행하며 한국 AI 생태계 확장 추진
엔비디아가 4월 21일~22일 서울 디캠프 마포에서 ‘엔비디아 네모트론 디벨로퍼 데이즈 서울 2026’을 개최했다. 이번 행사는 엔비디아의 최신 오픈 모델인 네모트론(Nemotron)을 중심으로 한국 AI 산업 성장을 지원하고 글로벌 소버린 AI 생태계를 구축하기 위해 마련했다. 현장에는 국내 AI 개발자와 연구자 등 약 500명이 참석해 기술 트렌드와 인사이트를 공유했다. 행사 첫날 기조연설을 맡은 엔비디아의 브라이언 카탄자로 응용 딥러닝 연구 부문 부사장은 AI가 단순한 대화형 시스템을 넘어 스스로 사고하고 행동하는 자율형 에이전트로 진화하고 있다고 설명했다. 카탄자로 부사장은 이러한 변화 속에서 개인이 AI 에이전트를 활용해 복잡한 문제를 해결하는 시대가 오고 있다고 강조했다. 또한 한국을 높은 AI 성장 잠재력을 가진 국가로 평가하며 엔비디아 최신 오픈 모델인 네모트론 3를 중심으로 생태계 협력을 이어가겠다는 의지를 밝혔다. 엔비디아는 한국 개발자를 위한 ‘네모트론-페르소나-코리아’를 공개했다. 이는 국가통계포털과 대법원, 국민건강보험공단, 한국농촌경제연구원, 네이버 클라우드 등 다양한 출처의 공식 데이터를 기반으로 만든 600만 건 규모의 합성 데이터셋이다. 엔비디아는 이 데이터셋이 한국의 인구통계학적 특성과 문화적 다양성을 반영하고 있어 개발자들이 지역적 맥락을 이해하는 AI 시스템을 구축하는 데 도움을 줄 것으로 보고 있다. 이어진 기술 세션에서는 AI 훈련 데이터 합성 전략과 네모트론 파운데이션 모델 사전 훈련 기법 등 실무적인 논의를 진행했다. 과학기술정보통신부와 정보통신산업진흥원 지원으로 마련한 패널 세션에서는 한국형 AI 생태계가 나아갈 방향에 대해 의견을 나눴다. 1층 라운지에서는 지티씨(GTC) 2026에서 화제를 모은 AI 에이전트 체험 프로그램 ‘빌드 어 클로’ 팝업 세션을 세계 최초로 한국에서 선보였다. 참가자들은 오픈소스 프로젝트인 오픈클로를 활용해 AI 에이전트를 직접 구축해보는 실습 기회를 가졌다.     행사 둘째 날 카탄자로 부사장은 서울대학교를 방문해 400여 명의 공학도와 엔지니어를 대상으로 특별 강연을 했다. 그는 에너지와 칩, 인프라, 모델, 애플리케이션으로 이어지는 AI 산업 전 계층을 설명하는 ‘AI 5단 케이크’ 개념을 소개했다. 카탄자로 부사장은 오픈 모델과 고성능 인프라의 결합이 AI 연구 속도를 가속화하고 있다고 강조하며 연구자들이 기술 자산을 전략적으로 활용할 수 있는 환경이 중요하다고 언급했다. 이번 행사에서는 ‘네모트론 해커톤’도 함께 열렸다. 참가자들은 지능형 에이전트 구축과 산업 특화 모델 강화학습 등 고도화된 기술 과제를 수행했다. 최종 쇼케이스 결과 독창적인 설루션을 제시한 노타 AI 팀이 우승을 차지했다. 심사위원단은 우승팀의 결과물이 실무 현장에서 즉시 배포할 수 있을 만큼 높은 완성도를 갖췄다고 평가했다. 엔비디아는 이번 행사를 통해 한국이 칩부터 애플리케이션까지 AI 전 분야를 자국 내에서 구현할 수 있는 역량을 갖췄음을 확인했다고 밝혔다. 엔비디아는 앞으로도 국내 파트너와 개발자들이 산업별로 최적화된 독자적인 AI 생태계를 만들 수 있도록 기술 지원과 협력을 지속한다는 계획이다.
작성일 : 2026-04-23
신약 설계부터 검증까지 한 번에... AWS, 아마존 바이오 디스커버리 출시
아마존웹서비스(AWS)는 과학자들이 신약을 더 빠르고 체계적으로 설계하고 검증할 수 있도록 돕는 인공지능(AI) 기반 애플리케이션인 ‘아마존 바이오 디스커버리(Amazon Bio Discovery)’를 출시했다. 아마존 바이오 디스커버리는 방대한 생물학 데이터를 학습한 전문 AI 모델인 생물학 파운데이션 모델 카탈로그에 과학자들이 직접 접근할 수 있도록 지원한다. 이들 모델은 신약 후보 물질을 생성하고 평가하며, 신약 발굴 초기 단계에서 항체 치료제 연구를 앞당기는 역할을 한다. 과학자들은 아마존 바이오 디스커버리의 AI 에이전트를 통해 일상적인 언어로 연구 목표에 맞는 모델을 선택하고 입력 변수를 최적화할 수 있다. 기존 실험 데이터를 활용해 모델을 추가로 학습시켜 예측의 정확도를 높이는 것도 가능하다. 선정된 후보 물질은 실제 실험실로 보내져 합성하고 테스트하는 과정을 거치며, 그 결과는 다시 애플리케이션으로 전달된다. AWS는 이러한 방식을 통해 실험실과 연계한 지속적인 반복 실험 구조를 구현했다.     그동안 신약 발굴 분야에 AI를 도입하는 데는 어려움이 많았다. 생성형 AI의 발전으로 머신러닝 모델이 늘어났지만, 이를 다루려면 코딩 능력과 복잡한 인프라 관리 기술이 필요했기 때문이다. 수십 개의 모델 성능을 직접 비교하는 것도 쉽지 않았고, 이를 지원할 전산 생물학자도 부족한 실정이었다. 물리적 실험을 위해 데이터를 주고받는 과정 역시 여러 시스템에 흩어져 있어 관리가 까다로웠다. 아마존 바이오 디스커버리는 AI 모델과 분석 패키지를 비교 평가하는 벤치마크 라이브러리와 실험 설계를 돕는 AI 에이전트, 통합 실험실 파트너 네트워크를 제공해 이런 문제를 해결하고자 했다. 이를 통해 얻은 피드백은 다음 설계 단계를 개선하는 밑거름이 된다. 이 서비스는 제약사와 바이오테크, 학계 연구기관이 필요로 하는 데이터 보호와 보안 환경을 갖추고 있다. 데이터는 완전히 격리되어 보호되며, 고객은 모든 지식재산과 데이터에 대한 소유권을 가진다. 아마존 바이오 디스커버리는 아페리스와 볼츠 등 파트너사의 오픈소스 및 상업용 모델을 포함해 폭넓은 생물학 특화 AI 모델 카탈로그를 제공한다. 앞으로 바이오허브와 프로플루언트의 모델도 추가될 예정이다. 과학자들은 코딩 대신 자연어를 사용해 단계별 실험 과정을 구성할 수 있으며, 제조 용이성이나 온도 안정성 같은 항체 후보 물질의 특성을 평가하는 데이터셋을 활용해 최적의 모델을 고를 수 있다. 실제로 메모리얼 슬론 케터링 암센터(MSK)는 아마존 바이오 디스커버리의 AI 에이전트를 활용해 약 30만 개의 새로운 항체 분자를 설계했다. 이 가운데 유망한 후보 물질을 테스트하는 데까지 걸린 시간은 몇 주에 불과했다. 기존 방식으로 1년 가까이 걸리던 작업을 대폭 단축한 것이다. 현재 MSK를 비롯해 바이엘, 브로드 인스티튜트, 프레드허치 암센터 등이 이 서비스를 초기 도입해 활용하고 있다. AWS의 라지브 초프라 헬스케어 AI 및 생명과학 부문 부사장은 “AI 에이전트는 컴퓨터 전문 지식이 없는 연구자들도 고도화된 과학 역량을 활용할 수 있게 한다”면서, “첨단 AI와 보안 인프라의 결합은 이전에는 불가능했던 방식으로 항체 발굴을 가속화할 것”이라고 설명했다.
작성일 : 2026-04-16
차량 공력 성능 예측 고도화를 위한 CFD 전략
산업을 위한 AI와 버추얼 트윈 기술 (2)   이번 호에서는 다쏘시스템의 LBM 기반 CFD 설루션인 파워플로(PowerFLOW)를 활용하여, 하중 및 회전에 의해 변형되는 트레드 타이어를 반영한 정밀 유동 예측 워크플로를 제시한다. 드라이브에어(DrivAer) 모델 적용을 통해 접지면과 사이드월 돌출부 형상 변화가 차량 항력 및 후류 구조에 미치는 영향을 분석하고, 실제 주행 조건을 고려한 차세대 공력 최적화 설계 프로세스의 방향성을 제안한다.   ■ 고석원 다쏘시스템의 유동해석 컨설턴트로, 국내 완성차 업체의 공력 및 공력소음 분야 CFD 프로젝트 수행 및 기술 지원을 담당하고 있다. 홈페이지 | www.3ds.com/ko   EV(전기자동차) 시대에 접어들면서 공력 성능은 단순한 항력 계수(Cd : Drag Coefficient) 저감의 문제가 아니라, 에너지 효율과 주행거리 경쟁력을 결정하는 핵심 설계 변수로 자리잡았다. 특히 고속 주행 영역에서는 타이어 주변에서 형성되는 복잡한 와류 구조가 전체 항력에 상당한 영향을 미친다. 그러나 현재까지 많은 외부 유동해석은 계산 효율과 모델 단순화를 이유로 강체 타이어 형상을 가정해왔다. 실제 주행 조건에서는 차량 하중과 회전에 의해 타이어 접지면이 평탄화되고, 트레드 패턴이 국부적으로 변형된다. 이러한 기하학적 변화는 경계층 발달과 박리 위치, 그리고 후류 구조에 직접적인 영향을 미친다. 그럼에도 불구하고 설계 단계에서 이러한 변형 효과는 충분히 반영되지 못하는 경우가 많다. 이 간극은 단순한 수치 오차를 넘어, 설계 의사 결정의 신뢰성 문제로 이어질 수 있다. 기존의 전산유체역학(CFD : Computational Fluid Dynamics) 접근에서는 회전 조건을 MRF(Moving Reference Frame) 혹은 LRF(Local Reference Frame) 기법을 구현하고, 접지부는 이상적인 평면 조건으로 단순화한다. 이 방식은 빠른 비교 분석에는 적합하지만, 접지부 인근의 비대칭 유동 구조와 시간에 따라 변화하는 와류 변동을 충분히 재현하기 어렵다. 특히 하중에 의해 형성되는 접지부 형상 변화는 타이어 하부 압력 분포를 바꾸고, 이는 차체 하부 유동과 상호작용하며 항력 특성에 영향을 미친다. 고속 주행 시에는 원심력에 의한 외경 변화까지 더해져 형상 변형이 복합적으로 발생한다. 따라서 현실 기반 공력 예측을 위해서는 타이어 변형을 포함한 해석 전략이 요구된다.   파워플로 기반 정밀 유동 예측 방법론 이번 호에서는 LBM(Lattice Boltzmann Method) 기반 CFD 설루션인 파워플로를 활용하여 하중 및 회전 변형을 반영한 해석 환경을 구축하였다. 차량 모델은 <그림 1>과 같이, 오픈소스 표준 차체 형상인 드라이브에어 모델을 적용하였다. 타이어 형상은 단순 강체 모델과 실제 하중 조건을 반영한 변형 트레드 타이어 모델을 사용하였다. 변형 형상은 파워플로의 전처리 모듈인 파워델타(PowerDELTA)를 통해 구현되었으며, <그림 2>와 같이 정적 하중에 의해 형성되는 접지면(contact patch)과 사이드월 돌출부(bulge)를 기하학적으로 재현하였다. 수치해석 방법에는 회전하는 타이어에 IBM(Immersed Boundary Method)을 적용하여 타이어 인근에서 시간에 따라 변화하는 유동 구조와 후류 거동을 정밀하게 분석하였다.   그림 1. 드라이브에어 차량 형상   그림 2. 접촉면과 돌출부의 형상(왼쪽 : 접촉면, 오른쪽 : 돌출부)   해석 케이스 구성 해석 케이스는 변형 타이어의 적용 유무와 <그림 3>에 나타낸 바와 같이, 타이어 변형 효과를 체계적으로 비교하기 위해 다음 세 가지 인자를 독립적으로 변화시켰다. 사이드월 돌출부(bulge, B) 횡방향 삽입각(slip angle, α) 접지면 폭(contact patch width, W)   그림 3. 변형 타이어 인자 변화 조건   각 변수 변화에 따른 항력 특성 및 후류 구조 변화를 비교함으로써, 설계 관점에서 지배적인 인자를 도출하고자 하였다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
월드랩과 오토데스크의 협업, 그리고 공간 AI 모델 패러다임 전환
BIM 칼럼니스트 강태욱의 이슈 & 토크   최근 인공지능 분야의 주요 화두는 단연 ‘공간 지능(spatial intelligence)’의 구현이다. 단순 2D 이미지나 단일 3D 객체(object) 생성에 머물렀던 기존의 기술적 한계를 넘어, 물리적 환경의 기하학적 구조와 상호작용을 포괄적으로 이해하는 거대 월드 모델(LWM : Large World Models)이 새로운 대안으로 부상하고 있다. 특히, 페이페이 리(Fei-Fei Li) 교수가 이끄는 월드랩스(World Labs)의 ‘마블(Marble)’ 출시는 이러한 패러다임 전환을 알리는 핵심 마일스톤이다. 이번 호에서는 최근 오토데스크와 월드랩스의 대규모 전략적 파트너십을 중심으로, 마블의 기술적 아키텍처와 통합 파이프라인, 그리고 이에 대응하는 오픈소스 3D 생성 모델의 발전 동향을 기술적 관점에서 분석하고자 한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. 월드랩스가 개발한 오토데스크의 마블 서비스   그림 2. 월드랩스가 개발한 오토데스크의 마블 서비스   오토데스크 마블의 기술적 배경 마블은 오토데스크가 직접 개발한 제품이 아니다. 이 모델은 ‘AI의 대모’라 불리는 페이페이 리 교수가 설립한 AI 스타트업 월드랩스가 개발한 핵심 생성형 3D 월드 모델이다. 오토데스크는 2026년 2월 월드랩스에 대규모 전략적 투자를 단행하며, 자사 소프트웨어와의 통합 파트너십을 발표했다.   그림 3. 페이페이 리 교수의 월드랩 연구실 멤버들(출처 : techfundingnews)   마블의 구체적인 첫 코드 작성일이 공식적으로 공개되지는 않았으나, 회사의 설립과 주요 제품 마일스톤을 통해 개발 타임라인을 추론할 수 있다. 초기 R&D 및 시작(2024년 1월) : 페이페이 리 교수를 비롯한 최고 수준의 AI 연구진이 3D 환경 생성과 실시간 시뮬레이션을 목표로 2024년 1월에 월드랩스를 공동 창립했다. 마블의 근간이 되는 ‘공간 지능’ 연구와 코어 모델 개발은 이때 본격적으로 시작되었을 것으로 분석된다.을 거쳐, 마블의 첫 번째 제한적 베타 버전이 공개되었다. 프로토타입 및 베타(2025년 9월) : 약 1년 8개월의 딥테크 연구 기간 정식 출시(2025년 11월 12일) : 텍스트, 이미지, 비디오 등을 입력받아 상호작용 가능한 3D 환경을 즉석에서 구축하는 마블 프론티어 모델이 일반 대중에게 정식 론칭되었다.   마블의 핵심 기술 스택 마블은 단순히 2D 이미지를 이어 붙이는 비디오 생성 AI가 아니라, 물리적 공간의 3차원 구조를 완벽히 이해하는 거대 월드 모델(LWM) 아키텍처를 채택하고 있다. 3D 표현 포맷(3D Gaussian Splatting) : 시점이 변하면 형태가 무너지는 기존 생성 모델의 한계를 극복하고, 변형 없이 영구적으로 보존되는 3D 환경을 생성한다. 결과물은 3D 가우시안 스플랫이나 메시(mesh) 형태로 다운로드하여 언리얼, 유니티 등 다른 게임 엔진으로 내보낼 수 있다. 실시간 프레임 모델(RTFM : Real-Time Frame Model) : 2025년 10월에 도입된 핵심 렌더링 기술이다. 단일 GPU 환경에서도 실시간으로 월드를 생성하고 상호작용할 수 있도록, 기존 프레임들을 일종의    ‘공간 메모리’로 활용해 높은 디테일을 유지한다. 웹 렌더링 엔진(SparkJS.dev) : 별도의 무거운 클라이언트 없이 웹 브라우저 환경에서 매끄러운 3D 렌더링을 구현하기 위해 Three.js를 기반으로 한 독자 렌더러 ‘SparkJS.dev’를 사용한다. 이는 가우시안 스플랫과 전통적인 WebGL 애셋(glTF 모델 등)을 자연스럽게 혼합한다. 공간 편집 도구(Chisel) : 사용자가 직접 상자나 평면 같은 단순한 원시 도형(primitive)으로 3D 뼈대를 잡으면, AI가 맥락을 파악해 시각적 디테일과 텍스처를 입히는 하이브리드 3D 편집을 지원한다.   오토데스크 생태계와의 결합 전략 기존 스테이블 디퓨전 기반 3D 생성이 단일 객체를 깎아내는 데 집중했다면, 마블은 단일 이미지나 텍스트에서 거대한 3D 가상 세계 전체를 생성한다. 이를 오토데스크의 생태계와 결합하는 것이 이번 협업의 핵심이다. 백본 모델(backbone models) : 단순 2D 픽셀 패턴 모방을 넘어 3D 공간의 기하학(geometry), 재질, 빛의 반사, 물리 법칙을 추론하는 거대 세계 모델(LWM)을 백본으로 사용한다. 월드랩스의 핵심 개발진(NeRF 창시자 등)의 배경을 고려할 때, NeRF 및 차세대 뉴럴 렌더링 기술이 결합되어 시점 변화에 완벽히 대응하는 일관된 3D 신(scene)을 연산한다. 학습 데이터 종류(training data) : 일반적인 2D 이미지 쌍을 넘어 3D 레이아웃, 공간 깊이(depth) 데이터, 카메라 트래킹(pose)이 포함된 다중 시점 영상, 그리고 오토데스크가 강점을 가진 기하학적/물리적 CAD 시뮬레이션 데이터 등 복합적인 고차원 데이터로 학습된다. 오토데스크와의 통합 파이프라인(integration workflow) 편집 가능한 3D 신 : 비디오 영상(예 : 오픈AI 소라)이 아닌, 구조화되고 상호작용 가능한 3D 환경 자체를 출력한다. 라스트 마일 편집(last-mile editing) 생태계 : 마블이 프롬프트로 전체 공간의 초안을 생성하면, 이를 오토데스크의 마야, 3ds 맥스, 레빗 같은 전통적인 소프트웨어로 넘긴다. 이후 아티스트나 엔지니어가 직접 폴리곤 토폴로지, 리깅, 정밀한 재질 수정을 거쳐 최종 결과물을 완성한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2026-04-02
케이던스-엔비디아, “에이전틱 AI로 반도체 설계 패러다임 바꾼다”
케이던스가 에이전틱 AI(agentic AI) 반도체 및 시스템 설계를 가속화하기 위해 엔비디아와의 협력을 확대한다고 밝혔다. 양사는 설계 의도를 자동화된 흐름으로 변환하고 오류를 디버깅하며 복잡한 엔드 투 엔드 워크플로를 관리하는 자율형 설계 설루션을 선보인다. 케이던스의 반도체 및 시스템 설계 포트폴리오를 엔비디아의 가속 컴퓨팅 스택과 통합함으로써 에이전틱 AI 분야의 리더십을 강화한다는 전략이다. 케이던스는 엔비디아 그레이스(Grace) CPU 및 블랙웰(Blackwell) GPU 가속 설루션을 확장했다. 이를 밀레니엄 M2000(Cadence Millennium M2000) 슈퍼컴퓨터에 턴키 방식으로 배포하면 기존 대비 최대 80배의 처리량 향상과 20배의 전력 소비 절감 효과를 얻을 수 있다는 것이 케이던스의 주장이다. 특히 엔비디아 쿠다-X(CUDA-X)로 최적화된 ‘케이던스 클래러티 3D 솔버(Cadence Clarity 3D Solver)’는 복잡한 대규모 설계 추출 시 CPU 기반 설루션보다 최대 5배 빠른 성능을 제공한다. 2026년부터 제공될 가속 설루션에는 다양한 전자 설계 자동화(EDA) 및 시스템 설계 자동화(SDA) 도구가 포함된다. ▲칩 배치 및 배선을 위한 이노버스 임플리멘테이션 시스템(Innovus Implementation System) ▲열 분석 및 전력 무결성을 위한 셀시우스(Celsius) 및 볼터스(Voltus) ▲고급 메모리 분석을 위한 EMX 및 리버레이트 MX(Liberate MX) ▲회로 분석용 스펙터 X(Spectre X) 및 퀀터스(Quantus) 등이다. 또한 시스템 수준의 다중 물리 분석을 위한 피델리티(Fidelity) CFD 소프트웨어와 바이오 분야의 가상 스크리닝 설루션인 ROCS X, Target X 등도 가속화된 성능으로 제공된다. 케이던스는 “업계 리더들이 차세대 AI 인프라 설계를 위해 케이던스의 에이전틱 설루션을 적극 활용하고 있다”고 전했다. ‘케이던스 리얼리티 디지털 트윈(Cadence Reality Digital Twin)’ 플랫폼은 물리 모델과 AI를 활용해 AI 공장을 설계하고 운영함으로써 데이터 센터 배포 기간을 단축한다. 또한 케이던스는 ‘칩스택 AI 슈퍼 에이전트(ChipStack AI Super Agent)’를 비롯해 엔지니어의 고품질 설계를 돕는 에이전틱 AI 기술을 고도화하고 있다. 양사는 커스텀 및 아날로그 설계 분야에서도 협력을 이어가며, 엔비디아의 오픈소스 스택인 ‘네모클로(NeMoClaw)’와 ‘오픈쉘(OpenShell)’ 런타임 환경을 통해 자율 에이전트를 더 안전하고 간편하게 실행할 수 있는 연구를 진행 중이다. 케이던스의 애니루드 데브간 CEO는 “에이전틱 AI와 물리 기반 설계의 융합이 첨단 칩 엔지니어링 방식을 변화시키고 있다”고 강조했다. 그는 “엔비디아와의 협력을 통해 케이던스의 물리 기반 최적화 기술과 엔비디아의 가속 컴퓨팅을 결합함으로써, 차세대 컴퓨팅 인프라를 구축할 더 지능적이고 효율적인 실리콘 설계를 지원할 것”이라고 밝혔다. 엔비디아의 젠슨 황 CEO 역시 “AI가 역사상 최대 규모의 인프라 구축을 견인하고 있다”면서, “양사가 공동 개발한 케이던스 밀레니엄 M2000이 차세대 인프라 설계의 복잡성을 해결할 혁신적인 AI 슈퍼컴퓨터가 될 것”이라고 전했다.
작성일 : 2026-03-30
스노우플레이크, 비개발자 참여 가능한 AI 데이터 해커톤 개최
스노우플레이크가 실제 데이터를 활용해 아이디어를 직접 구현해보는 ‘스노우플레이크 해커톤 2026’을 개최한다. 이번 행사는 지난해 열린 첫 대회에 이어 두 번째로 마련됐으며 이전보다 프로그램 구성과 운영 규모를 확대했다. 이번 해커톤은 개발 중심의 테크 트랙과 아이디어 중심의 비즈니스 트랙으로 나누어 운영한다. 테크 트랙에서는 실제 데이터를 이용해 애플리케이션을 개발하며, 비즈니스 트랙에서는 데이터 기반의 문제 해결 방안과 사업 모델을 제시하는 과제를 수행한다. 데이터 사이언티스트나 개발자뿐만 아니라 AI를 활용한 비즈니스 아이디어를 가진 일반인도 참여할 수 있다.     참가자들은 스노우플레이크의 AI 데이터 클라우드 플랫폼 위에서 데이터 애플리케이션을 자유롭게 설계한다. 이번 대회에는 아정당, SPH, 리치고, 넥스트레이드 등 여러 파트너사가 제공하는 데이터 세트가 활용된다. 다양한 외부 데이터가 공유되는 스노우플레이크 마켓플레이스를 써서 새로운 비즈니스 가치를 만드는 설루션을 구현하는 것이 핵심이다. 필요한 경우 스노우플레이크 라이브러리나 오픈소스 도구도 함께 사용할 수 있다. 스노우플레이크는 참가자들이 플랫폼을 원활하게 쓸 수 있도록 행사 전에 총 세 차례의 밋업과 웨비나를 진행한다. 참가자들은 실습 프로그램을 통해 최신 AI 기능과 활용 전략을 배우고 전문가들의 개발 노하우를 전달받는다. 특히 4월 1일 열리는 웨비나에서는 전년도 수상팀과 심사위원들이 결선 진출을 위한 가이드를 설명할 예정이다. 과제 평가는 트랙별로 기준이 다르다. 테크 트랙은 창의성과 AI 전문성, 현실성, 스토리텔링 등을 살피고 비즈니스 트랙은 시장성과 실행 가능성 등을 중점적으로 평가한다. 스노우플레이크 플랫폼과 마켓플레이스 데이터를 얼마나 효과적으로 활용했는지가 공통적인 주요 심사 요소다. 최종 선정된 6개 팀은 4월 29일 결선 무대에서 발표를 진행한다. 심사위원으로는 최기영 스노우플레이크 코리아 지사장을 포함해 LG유플러스, 네이버웹툰, 리치고, SPH, 아정당의 데이터 및 AI 전문가들이 참여해 수상팀을 결정한다. 스노우플레이크 코리아의 최기영 지사장은 “올해로 두 번째 열리는 이번 해커톤은 데이터와 AI 기반의 혁신을 실제로 구현하고 공유하는 자리”라면서, “개발자와 전문가뿐만 아니라 AI에 관심 있는 누구나 참여해 새로운 가능성을 발견하기를 기대한다”고 말했다.
작성일 : 2026-03-24
AWS-NTT 도코모, 네트워크 배포 시간 및 장애 대응 시간 줄인 상용 5G 코어 네트워크 출시
아마존웹서비스(AWS)가 일본 이동통신사 NTT 도코모와 협력해 하이브리드 클라우드 환경의 상용 5G 코어 네트워크 서비스를 출시했다. 이번 서비스는 AWS 클라우드와 도코모의 온프레미스 네트워크 기능 가상화(NFV) 인프라를 결합한 형태다. AWS는 2022년부터 도코모 및 NEC 코퍼레이션과 함께 고복원성과 민첩성을 갖춘 이동통신사급 인프라 구축을 위한 개념 검증을 지원해 왔다. 도코모는 AWS의 에이전틱 AI 역량을 활용해 5G 코어 설계와 배포를 자동화했으며, 이를 통해 배포 시간을 약 80% 단축했다. 양사는 이번 협력을 통해 안정적인 서비스 토대를 마련하고 고객 경험을 개선할 방침이다. 도코모는 9100만 명의 가입자를 지원하기 위해 5G 서비스를 AWS 기반 하이브리드 환경으로 순차 전환한다. 네트워크 복원력을 높이기 위해 에너지 효율이 높은 AWS 자체 설계 프로세서 그래비톤을 적용해 환경 부담도 줄였다. “이번 상용 배포는 클라우드 인프라와 AI 기술을 결합해 네트워크의 유연성을 강화한 사례”라는 것이 AWS의 설명이다. 운영 효율을 높이기 위해 도코모는 AWS의 오픈소스 AI 에이전트 SDK인 스트랜드 에이전트 프레임워크와 아마존 베드록 에이전트코어를 도입했다. 이 시스템은 모델 컨텍스트 프로토콜(MCP)과 깃옵스를 통해 배포 과정을 자동화한다. 도코모는 이 기술을 NFV 인프라에도 확대 적용해 전체 네트워크 구축 속도를 높일 계획이다. 또한 도코모는 기지국부터 코어 네트워크까지 전 구간을 관리하는 에이전틱 AI 시스템도 함께 출시했다. 이 시스템은 100만 개 이상의 장치에서 발생하는 데이터를 아마존 넵튠 등 AWS 관리형 그래프 데이터베이스로 실시간 분석한다. 이상 감지부터 복구 계획 수립까지 자동화함으로써 복잡한 네트워크 장애 대응 시간을 약 50% 단축했다. NTT 도코모의 히라구치 노부코 코어 네트워크 설계 부문 본부장은 “AWS의 확장형 클라우드와 NEC의 고신뢰성 5G 코어를 통합해 첨단 기술을 유연하게 수용할 기반을 갖췄다”면서, “AI 자동화로 구축 기간을 단축하고 유지보수 효율을 높여 고객에게 더 빠른 서비스를 제공하겠다”고 밝혔다. NEC 코퍼레이션의 사토 다카시 전무는 “이번 상용 출시는 일본의 통신 기술과 AWS가 만나 세계 최고 수준의 인프라를 실현한 성과”라고 평가했다. AWS 재팬의 쓰네마쓰 미키히코 이사는 “AI와 클라우드를 접목하면 통신사가 고객 요구에 더 유연하게 대응할 새로운 가능성이 열린다”며 향후 협업을 지속할 의지를 전했다.
작성일 : 2026-03-11