• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "오픈소스"에 대한 통합 검색 내용이 740개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
텐센트, 산업 효율 가속화 위한 시나리오 기반 AI 기능 발표
텐센트는 기업의 산업 효율 향상 및 국제 성장 가속화를 지원하는 새로운 시나리오 기반 AI 기능을 글로벌 출시한다고 밝혔다. 텐센트는 중국 선전시에서 열린 ‘2025 텐센트 글로벌 디지털 에코시스템 서밋(GDES)’에서 지능형 에이전트 애플리케이션, ‘SaaS + AI’ 설루션, 대규모 모델 기술 업그레이드 등을 공개했다. 텐센트는 기업이 고객 서비스, 마케팅, 재고 관리, 리서치 등 다양한 시나리오에 지능형 자율 AI 에이전트를 생성 및 통합할 수 있게 하는 ‘에이전트 개발 플랫폼 3.0(Agent Development Platform : ADP)’의 글로벌 출시를 발표했다. 이는 대규모 언어 모델(LLM) + 검색 증강 생성(RAG), 워크플로, 멀티 에이전트 등 다양한 지능형 에이전트 개발 프레임워크를 지속적으로 고도화해, 기업들이 자사 데이터를 활용하여 안정적이고 안전하며 비즈니스에 부합하는 에이전트를 효율적으로 구축할 수 있도록 지원한다. 또한, 에이전트의 구축·배포·운영을 위한 견고한 인프라 기반을 제공하는 AI 인프라 ‘에이전트 런 타임’도 함께 선보였다. 업무 협업을 강화하는 업그레이드된 SaaS+AI 툴킷도 공개됐다. 텐센트에 따르면, 텐센트 미팅(Tencent Meetings)의 AI 미닛(AI Minutes)은 지난 1년간 전년 대비 150% 성장률을 기록했으며, 텐센트 런쉐어(Tencent LearnShare)도 92% 응답 정확도로 30만 개 이상의 기업에서 활용되고 있다. 개발자용 AI 코딩 도구 ‘코드버디(CodeBuddy)’도 코딩 시간을 40% 단축하고 R&D 효율을 16% 향상시켰다. 텐센트의 독자적인 대규모 언어 모델 훈위안(Hunyuan) 기반의 신규 모델도 발표됐다. 훈위안 3D 3.0, 훈위안 3D AI, 훈위안 3D 스튜디오는 미디어·게임 산업 등에 종사하는 창작자와 개발자를 위한 첨단 3D 생성 기능을 제공한다. 훈위안 3D 시리즈는 허깅페이스(Hugging Face)에서 260만 회 이상 다운로드되며 인기 있는 오픈소스 3D 모델로 자리매김했다. 한편, 훈위안 라지 모델은 지난 1년간 30개 이상의 신규 모델을 공개하고 오픈소스 개발을 전면 수용해 왔다. 하이브리드 훈위안-A13B와 30개 이상 언어를 지원하는 번역 모델, 그리고 이미지·비디오·3D 콘텐츠를 위한 포괄적 멀티모달 생성 기능 및 툴 등을 오픈소스로 지속 제공했다. 한편, 텐센트는 글로벌 확장 이정표를 강조하며 자사의 해외 고객 기반이 전년 대비 2배로 증가했다고 밝혔다. 텐센트 클라우드 인터내셔널은 최근 3년간 아시아(홍콩, 동남아, 일본 등)를 포함한 글로벌 전역에서 두 자릿수의 연간 성장률을 달성했다. 현재 중국 선도 인터넷 기업의 90% 이상, 중국 선도 게임 기업의 95%가 글로벌 확장을 지원하기 위해 텐센트 클라우드를 활용하고 있다. 특히, 텐센트 클라우드 인터내셔널 서밋에서는 컨버지 ICT 솔루션즈, 다나, 이앤 UAE, 홍콩 경마협회, 퓨전뱅크, 고투 그룹, 인도삿 우레두 허치슨, 미니클립, MUFC 은행 중국 법인, 프로서스, 트루 IDC 등 글로벌 파트너들이 참여해, 차세대 성장과 국제화 목표 달성을 위한 첨단 클라우드와 AI 설루션 도입의 필요성에 대해 논의했다. 한편, 이번 서밋에서는 아시아 태평양 지역의 데이타컴, IOH, 가르디 매니지먼트, 고투 그룹, 마하카X, MUFG 은행 중국 법인, 라이드 테크놀로지스, 스톤링크, 트루 IDC, 99 그룹, 중동의 쿠프 뱅크 오로미아, 네이티벡스, 유럽의 이마그, 북미의 인클라우드 등 글로벌 기업과의 파트너십 협약 체결도 이뤄졌다. 앞으로 텐센트는 ▲인프라 ▲기술 제품 ▲서비스 역량 세 영역에서 국제화 전략을 고도화하여, 다양한 산업의 더 많은 기업의 디지털 전환 달성을 지원할 계획이다. 현재 ‘슈퍼앱-애즈-어-서비스(Superapp-as-a-Service)’과 ‘팜AI(PalmAI)’ 등 텐센트 클라우드 제품은 아시아 태평양, 중동, 미주 지역의 해외 기업들에 채택되고 있다. 또한, 텐센트 클라우드 에이전트 개발 플랫폼(TCADP), 코드버디, 클라우드 몰(Cloud Mall) 등의 글로벌 버전을 도입해 각 지역 요구에 부합하고 전 세계 대규모 동시 접속 환경에서 안정적으로 운영될 수 있도록 지원하고 있다. 텐센트 클라우드는 현재 21개 시장 및 지역에서 55개 데이터센터를 운영 중이다. 향후 사우디아라비아에 중동 첫 데이터센터 구축을 위해 1억 5000만 달러를 투자할 계획이며, 일본 오사카에도 세 번째 데이터센터와 신규 오피스를 설립할 예정이다. 또한, 자카르타, 마닐라, 쿠알라룸푸르, 싱가포르, 방콕, 도쿄, 서울, 팔로알토, 프랑크푸르트에 9개의 글로벌 기술지원센터를 운영하고 있다. 텐센트의 다우슨 통(Dowson Tong) 수석부사장 및 클라우드·스마트산업 그룹 CEO는 “AI가 실질적 효용을 발휘할 때 산업은 효율성을 얻음과 동시에, 국제화는 기업의 새로운 성장 동력이 된다”면서, “이번에 선보인 신규 및 업그레이드 설루션을 통해 기업의 디지털 고도화 및 글로벌 확장을 지원해 지속가능한 성장을 지원하겠다”고 전했다. 
작성일 : 2025-09-17
티맥스소프트, 소버린 AI 프레임워크로 '글로벌 AI 기업' 도약 선언
  티맥스소프트가 소버린 AI(Sovereign AI)를 위한 프레임워크를 개발하고, 이를 통해 글로벌 경쟁력을 갖춘 AI 기업으로 도약하겠다고 밝혔다. 소버린 AI는 국가와 기업의 AI 및 데이터 주권을 실현하는 것을 목표로 한다. 국산 AI 프레임워크로 국내 AI 생태계 주도 티맥스소프트는 AI 패권 경쟁 시대에 맞춰 소버린 AI 풀스택 완성을 위한 프레임워크 개발에 착수했다. 현재 비즈니스 애플리케이션에 AI 기능을 접목할 수 있는 국산 상용 AI 개발 플랫폼이 부족한 상황에서, 티맥스소프트는 경쟁력 있는 AI 프레임워크를 선보여 국내 AI 생태계에 적극적으로 참여할 방침이다. 개발 중인 '소버린 AI 프레임워크'는 공공기관, 금융, 일반 기업이 비즈니스 애플리케이션에 다양한 AI 기능을 효율적으로 접목하도록 돕는 AI 비즈니스 개발 플랫폼 소프트웨어다. 기존 오픈소스 기반 프레임워크의 복잡성과 특정 인프라에 종속되는 록인(Lock-in) 문제를 해결하는 데 중점을 뒀다. 티맥스소프트는 20년 이상 금융, 통신, 제조, 공공 사업에서 검증된 개발 솔루션 기술력을 바탕으로 AI에 최적화된 개발 환경을 제공할 계획이다. 통합된 AI 개발 환경 제공과 글로벌 진출 확대 이 프레임워크는 통합된 AI 개발 환경을 제공하는 것이 가장 큰 특징이다. 단순한 AI 기능 제공을 넘어, 기업의 개발 방법론과 기술 스택을 표준화하여 상호 운용성과 재사용성을 높여준다. 이를 통해 기업은 복잡한 AI 기술 도입의 어려움을 해소할 수 있다. 또한, 지속적인 업그레이드와 기술 지원이 필요한 AI 개발 플랫폼을 선택할 수 있는 이점도 제공한다. 티맥스소프트는 향후 여러 파일럿 프로젝트를 통해 기능을 검증하고 품질을 향상시킬 예정이다. 이후 AI 전환(AX)이 필요한 공공, 금융 기업 시장을 공략하여 국내 상용 AI 프레임워크 분야를 선도하고, 동시에 글로벌 시장으로의 진출도 확대할 방침이다. 특히, 티맥스소프트는 정부의 'AI 3대 강국' 정책에 발맞춰 'AI 프레임워크 선도기업'으로서 소버린 AI 풀스택 완성과 글로벌 경쟁력 확보에 중요한 역할을 한다는 목표를 세웠다. 이를 위해 올해 연말까지 국내 유수의 하드웨어 및 IT 서비스 기업들과 협력 관계를 구축해 국내 AI 생태계 활성화에 본격적으로 참여할 계획이다. 기존 제품과의 시너지로 미래 경쟁력 강화 티맥스소프트는 핵심 제품인 애플리케이션 서버, 인터페이스 플랫폼, 비즈니스 프레임워크, 메인프레임 현대화 솔루션 등도 AI·클라우드 시대에 맞춰 진화시키고 있다. 자사 제품을 AI 기술과 서비스에 최적화하여 미래 경쟁력을 강화하고 있다. 일례로, 생성형 AI 기술을 활용한 AI옵스(AIOps) 기능을 탑재한 'TEM(Tmaxsoft Enterprise Manager)' 개발을 진행 중이다. 이 솔루션은 장애 대응, 모니터링 데이터 분석, 이상 징후 감지, 구성 자동화 등이 가능하다. 이형용 티맥스소프트 대표이사는 "국내 애플리케이션 서버 시장 1위 기업으로서 다양한 기업의 혁신을 촉진할 프레임워크를 제공하고 국내 AI 생태계 강화에 이바지하겠다"고 말했다.
작성일 : 2025-09-13
데이터 분석 로코드 설루션을 배워보자 Ⅰ
로코드를 활용하여 엔지니어링 데이터 분석 극대화하기 (2)   지난 호에서는 로코드 분석 설루션이 필요한 이유에 대해 알아보았다. 또한 데이터 분석이 일반적으로 거치는 과정에 대해서도 살펴 보았는데, 이러한 과정에 파이썬(Python)과 같은 프로그래밍 언어가 활용되는 상황 또한 정리해 보았다. 이번 호에서는 로코드 분석 설루션인 KNIME(나임)에 대해 알아보고, 전력 판매량 예측에 대한 분석 과제를 따라하기 과정을 통해 완성해 보도록 하겠다.   ■ 연재순서 제1회 데이터 분석에 로코드 설루션이 필요한 이유 제2회 데이터 분석 로코드 설루션을 배워보자 Ⅰ 제3회 데이터 분석 로코드 설루션을 배워보자 Ⅱ 제4회 로코드를 활용하여 시뮬레이션 데이터 분석을 따라해 보자 제5회 데이터 분석 로코드 설루션을 클라우드로 확장해 보자   ■ 윤경렬 현대자동차 연구개발본부 책임연구원   ■ 김도희 잘레시아 DX 프로   지난 호에서 살펴본 일반적인 데이터 분석 과정은 다음과 같다.   요청 접수 → 데이터 확보 → 데이터 검토(칼럼/누락/이상치 확인) → 분석 전략 수립 → 데이터 정제 및 가공 → 분석 수행 및 시각화 → 결과 공유   이전에 강조한 바와 같이, 아무리 쉬운 코딩 언어라고 할지라도 데이터 분석을 요청받은 데이터 과학자(data scientist)가 이를 실제 업무에 적용하여 원하는 결과를 빠르고 정확하게 구현해내는 것은 어려운 일이다. 또한 코딩에 능숙한 데이터 과학자라고 해도 깃허브(Github) 및 인터넷 상에 공유된 소스코드를 다운받아 재활용 및 가공하여 사용하는 경우가 많은데, 이때 악성 코드 등에 대한 보안 이슈도 문제가 될 소지가 있다. 사실 데이터 과학자는 수학 및 통계적 지식을 활용하여 빠르게 정확하게 데이터 분석을 하고 싶은 것이고, 이를 위해 효율적인 툴을 사용하고자 한다. 우리는 이러한 현상을 극복해 나가고자 로코드 분석 설루션(low code analytics solution)을 대안으로 검토하였고, 이를 활용하여 데이터 분석을 수행해 나가는 과정을 따라가 보고자 한다. 지난 호에서 유관부서로부터 전력 판매량(electric power sales) 예측에 대한 분석 과제를 요청 받은 상태이고, 언제나처럼 기한은 촉박한 상황의 시민 데이터 과학자(citizen data scientist)로 가정하여 주어진 과제 목표를 달성하였다. 우리에게 주어진 데이터는 발전소 데이터, 기상 정보 데이터, 날짜 및 요일 데이터 등 세 가지로 이를 처리하기 위해 파이썬으로 코드를 작성한 사례를 공유하였고, 동일한 내용을 로코드 분석 설루션인 KNIME을 활용하여 처리한 사례도 공유하였다.   그림 1   이번 호에서는 KNIME에 대해 알아보고 전력 판매량 예측에 대한 분석과제를 따라하기 과정을 통해 완성해 보도록 하겠다. 우선 구글 제미나이(Google Gemini)에게 KNIME에 대한 역사와 특징에 대해 알려 달라고 해보자.(그림 2~4)   그림 2   그림 3   그림 4   가트너(Gatner)의 피어 인사이트(Peer insight) 리뷰를 확인해 보았는데, 평점(rating)이 상당히 높은 편이고 사용자의 반응도 높다는 것을 확인하였다. 또한 오픈소스 기반 소프트웨어로서 기업에서도 무료로 자유롭게 설치하여 사용할 수 있다는 측면에서(KNIME Analytics Platform) 로코드 분석 설루션으로 선택하기에 부족함이 없다는 것을 확인하였다.   그림 5   현재 KNIME은 데이터 사이언스를 위한 최적의 설루션을 위해 세 가지 서비스를 제공하고 있다. 이번 호에서는 KNIME Analytics Platform을 활용하여 전력 판매량 예측에 대한 분석 과제를 따라해보고자 한다.   그림 6     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-09-03
바이브 코딩 지원 멀티 에이전트 코덱스의 사용법
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 바이브 코딩(vibe coding)이 열풍이다. 이번 호에서는 오픈AI(OpenAI)가 개발한 바이브 코딩을 지원하는 멀티 에이전트 코덱스(Codex)의 사용법을 간략히 소개한다. 얼마 전 챗GPT(ChatGPT) 프로 버전에 무료로 오픈된 코덱스와 오픈소스 코덱스 버전(CLI)의 사용법을 모두 설명한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   그림 1. Codex | OpenAI   2025년 4월 중순에 OpenAI o3, o4, Codex가 공개되었다. 멀티 AI 에이전트 기능을 충실히 구현한 영상 데모가 업로드되었고, 특히 자동화 코딩을 지원하는 코덱스가 로컬 컴퓨터에서 실행 가능한 형태로 공개된 점이 인상적이었다.   그림 2. 오픈AI o3, o4, 코덱스 공개 영상   코덱스는 단순한 코드 생성에 그치지 않고 버그 수정, 테스트 실행, 코드 리뷰 제안 등 복잡한 개발 업무를 자동화한다. 각 작업은 사용자의 코드 저장소가 사전 로드된 격리된 클라우드 샌드박스 환경에서 독립적으로 실행되며, 작업의 복잡도에 따라 1분에서 30분 이내에 결과를 제공한다. 또한, 코덱스는 작업 수행 과정에서 생성된 터미널 로그와 테스트 출력 등의 증거를 제공하여, 사용자가 변경 사항을 추적하고 검토할 수 있도록 지원한다.코덱스 코드 및 도구는 깃허브(GitHub)에 공개되었다. Codex Lightweight coding agent that runs : https://github.com/openai/codex 6월 초에는 챗GPT 프로 사용자에게 코덱스 기능이 공개되었다. 코덱스는 챗GPT의 사이드바를 통해 접근할 수 있으며, 사용자는 자연어로 코딩 작업을 지시하거나 기존 코드에 대한 질문을 할 수 있다. 또한 코덱스는 사용자의 개발 환경과 유사하게 구성할 수 있어, 실제 개발 환경과의 통합이 용이하다. 보안 측면에서도 코덱스는 격리된 환경에서 실행되며, 인터넷 접근은 기본적으로 비활성화되어 있다. 필요한 경우 특정 도메인에 대한 접근을 허용할 수 있으며, 이를 통해 외부 리소스를 사용하는 테스트나 패키지 설치 등이 가능하다. 코덱스는 현재 챗GPT 프로/팀/엔터프라이즈 사용자에게 제공되며, 플러스 및 에듀 사용자에게도 점차 확대되고 있다. 또한, 코덱스 CLI(Codex CLI)를 통해 터미널 환경에서도 코덱스의 기능을 활용할 수 있어, 다양한 개발 환경에서의 활용이 가능하다.(openai.com)   챗GPT에서 코덱스 사용법 코덱스를 활용한 전체 사용 과정은 단순한 코드 자동 생성 수준을 넘어, 실제 소프트웨어 개발의 전 과정을 자연어 기반으로 자동화하는 방식으로 개발되어 있다. 코덱스는 현재 깃허브를 기본 연결해 사용하도록 되어 있어, 다음과 같이 필자의 깃허브 프로젝트를 연결해 실습을 진행했음을 밝힌다. https://github.com/mac999/AI_agent_simple_function_ call.git 참고로, 필자는 필자의 깃허브 저장소를 이용하였지만, 독자는 각자 깃허브에 로그인한 후 본인의 프로젝트 개발을 진행할 저장소를 선택해야 한다. 아울러, 바이브 코딩 결과물이 제대로 동작하려면 반드시 챗GPT 등을 이용해 미리 PRD(Product Requirement Document)에 요구사항을 명확히 작성한 후, 이를 바이브 코딩 도구에 입력해 프로젝트와 코드를 생성하도록 하는 것이 좋다.   그림 3. 식사 레스토랑 평가용 앱 개발을 위한 PRD 문서 예시(How to vibe code : 11 vibe coding best practices, https://zapier.com)   프로젝트 시작 : 코드 저장소 구성 및 환경 연결 챗GPT 프로의 왼쪽 메뉴에서 <그림 4>와 같이 코덱스를 실행하면, 연결할 깃허브 계정 및 저장소를 요청한다. 코덱스에서 <그림 4>와 같이 본인의 깃허브 계정을 연결한다.   그림 4     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-09-03
IBM-AMD, 양자·AI·HPC 융합한 차세대 컴퓨팅 개발 협력
IBM과 AMD는 양자 컴퓨터와 HPC(고성능 컴퓨팅)를 결합한 차세대 컴퓨팅 아키텍처인 양자 중심 슈퍼컴퓨팅(quantum-centric supercomputing) 개발 계획을 발표했다. IBM은 고성능의 양자 컴퓨터 및 소프트웨어 개발에서의 리더십을, AMD는 HPC 및 AI 가속기 분야의 리더십을 바탕으로 확장 가능하고 오픈소스 기반의 플랫폼을 공동 개발해 컴퓨팅의 미래를 재정의하고자 한다. 양자 컴퓨팅은 정보를 표현하고 처리하는 방식에서 기존 컴퓨터와 완전히 다르다. 기존 컴퓨터는 0과 1의 비트로 정보를 처리하지만, 양자 컴퓨터는 양자역학의 법칙에 따라 정보를 표현하는 큐비트(qubit)를 사용한다. 이러한 특성은 신약 개발, 소재 탐색, 최적화, 물류 등 기존 컴퓨팅으로는 해결이 어려운 복잡한 문제에 대한 해결책을 탐색할 수 있는 연산 능력을 제공한다. 양자 중심 슈퍼컴퓨팅 아키텍처에서는 양자 컴퓨터가 CPU, GPU, 기타 컴퓨팅 엔진으로 구성된 HPC 및 AI 인프라와 함께 작동한다. 이 하이브리드 접근 방식에서는 문제의 각 요소를 가장 적합한 컴퓨팅 방식으로 해결한다. 예를 들어, 미래에는 양자 컴퓨터가 원자와 분자의 행동을 시뮬레이션하고, AI 기반의 슈퍼컴퓨터가 방대한 데이터 분석을 수행할 수도 있다. 이런 기술이 결합되면 현실 세계의 문제를 더욱 빠른 속도와 큰 규모로 해결할 수 있을 것으로 기대된다. IBM과 AMD는 AMD의 CPU, GPU, FPGA(프로그래밍이 가능한 반도체)를 IBM의 양자 컴퓨터와 통합해 기존 컴퓨팅 방식으로는 해결할 수 없는 새로운 알고리즘을 효율적으로 가속화하는 방안을 모색하고 있다. 이는 IBM이 2030년까지 실현하고자 하는 오류 내성 양자 컴퓨터(fault-tolerant quantum computing) 로드맵에도 기여할 수 있다. AMD의 기술은 오류 내성 양자 컴퓨팅의 핵심 요소인 실시간 오류 수정 기능을 제공할 수 있는 가능성을 지니고 있다. 양사는 올해 말 IBM의 양자 컴퓨터와 AMD 기술이 함께 작동하는 하이브리드 양자-클래식 연계 프로젝트 시연을 계획하고 있으며, IBM 키스킷(Qiskit)과 같은 오픈소스 생태계를 활용해 새로운 알고리즘 개발과 채택을 촉진하는 방안도 함께 검토 중이다. IBM의 아빈드 크리슈나(Arvind Krishna) 회장 겸 CEO는 “양자 컴퓨팅은 자연 세계를 시뮬레이션하고 정보를 완전히 새로운 방식으로 표현할 수 있다. IBM의 양자 컴퓨터와 AMD의 고성능 컴퓨팅 기술을 결합함으로써 기존 컴퓨팅의 한계를 뛰어넘는 강력한 하이브리드 모델을 구축할 수 있을 것”이라고 말했다. AMD의 리사 수(Lisa Su) CEO는 “HPC는 세계의 주요 과제를 해결하는 기반이 된다. IBM과의 협력을 통해 고성능 컴퓨팅과 양자 기술의 융합을 모색함으로써, 우리는 혁신과 발견을 가속화할 수 있는 엄청난 기회를 마주하고 있다”고 밝혔다.
작성일 : 2025-08-27
인텔, “AI 설루션으로 LG이노텍의 생산 공정 효율 향상”
인텔은 LG이노텍이 자사의 기술을 활용해 인공지능(AI) 기반의 자동화 시스템을 구축하고 있다고 소개했다. 소재·부품 전문 기업인 LG이노텍은 휴대폰, 자동차 디스플레이, 스마트 기기 등에 들어가는 수십만 개의 초소형 부품을 완벽한 정확도와 무결점으로 복제하는 것을 목표로 삼고 있으며, 혁신 기술을 통해 이러한 목표를 달성하고자 한다.  LG이노텍의 구미 공장에서는 인텔 코어(Intel Core) 프로세서, 인텔 제온(Intel Xeon) 프로세서 및 인텔 아크(Intel Arc) 내장형 그래픽처리장치(GPU)가 조화를 이루며 작동한다. 이들 기술은 오픈비노(OpenVINO) 소프트웨어 툴킷으로 통합된다. LG이노텍은 생산 라인의 특정 단말기에서 규칙 기반 검사 및 딥러닝 기반 시스템을 사용해 제품 품질을 높여왔다. 여기서 나아가, LG이노텍은 제조 공정 전반에 걸쳐 AI를 광범위하게 적용하여 성능 저하 없이 완전 자동화된 시스템을 구축하고자 했다. 인텔은 지난 2024년 인텔 코어 및 제온 프로세서와 아크 외장형 GPU를 기반으로 하는 AI 기반 검사 시스템에 대한 구축 지원을 위해 LG이노텍과 논의를 시작했다. 핵심은 생산 공정에서 발생하는 데이터가 인텔 코어 CPU를 탑재한 PC로 스트리밍되며, 내장 GPU는 결함 데이터를 분석하는 데 비용 효율을 제공하는 것이다. 고해상도 이미지에서 다중 알고리즘을 실행하는 등 부하가 큰 워크로드는 인텔 아크 외장 GPU가 처리하게끔 했다. 시간이 지남에 따라 축적된 데이터셋은 인텔 제온 기반의 사전 학습 서버로 전송된다.      양사는 향후 협업을 통해 인텔 가우디 AI 가속기가 탑재된 서버를 활용한 사전 학습 워크로드 관리를 검토하고 있다. 이처럼 CPU를 기반으로 내장 및 외장 GPU로 가속화된 인텔 기반 기술 조합을 활용하여 AI 검사 시스템 구축 비용을 절감할 수 있었다는 것이 인텔의 설명이다. 인텔은 “아크 기반 외장 GPU를 도입하면서, 동급 성능의 타사 하드웨어 대비 성능에 비해 높은 비용 효율성을 달성했다. 이러한 비용 절감 효과는 규모의 경제를 더욱 극대화할 수 있는 기반이 되고 있다”고 전했다.  LG이노텍은 2024년 모바일 카메라 모듈 생산 라인에 인텔의 AI 비전 검사 설루션을 처음 적용했으며, 올해는 FC-BGA(flip-chip ball grid array)를 생산하는 구미4공장 등 국내 주요 생산 거점과 해외 생산라인에 단계적으로 확대 적용할 계획이다.  시스템 도입 당시에는 기존 딥러닝 환경이 특정 외장 그래픽 카드를 기반으로 구축되어 있어, 처음에는 통합 GPU 도입에 대한 우려가 있었다. 특히, 신규 GPU에 맞춰 기존 코드를 재작성하고 다시 매핑하는 것이 매우 어려울 것이라는 걱정이 있었만, 오픈비노(OpenVINO) 소프트웨어 툴킷을 활용해 우려를 해소할 수 있었다. 2018년 오픈비노 출시 이후, 인텔은 전 세계 개발자가 AI 기반 개발을 가속화할 수 있도록 지원해왔다. 오픈비노는 개발자가 한 번의 코드 작성으로 다양한 환경에 AI 모델을 배포할 수 있도록 돕는 오픈소스 AI 툴킷이다. LG 이노텍의 엔지니어들은 대량 생산 과정에서 공정이 변경되거나 원자재가 바뀔 때, 딥러닝 모델을 재학습하기 위해 AI 기반 워크로드에 최적화된 AI 가속기가 탑재된 인텔 제온 CPU 활용도 고려하고 있다. 제온 CPU는 병렬 연산 속도를 높이고, 인텔 AMX(Intel Advanced Matrix Extensions)라는 특수 내장 가속기를 지원해 제온 CPU에서 딥러닝 학습 및 추론 성능을 향상시킨다. 인텔은 제온 CPU와 별도 서드파티 GPU를 함께 사용하는 기존 방식에 비해 AI 기반 파인튜닝(Fine Tuning) 작업을 CPU로 처리함으로써 시스템 비용을 줄일 수 있을 것으로 기대하고 있다.
작성일 : 2025-08-26
엔비디아, "AI와 디지털 트윈으로 물리적 프로토타입 없는 제조 혁신 이끈다"
엔비디아는 글로벌 컴퓨터 그래픽 콘퍼런스인 ‘시그라프(SIGGRAPH) 2025’에서, 아마존 디바이스 앤 서비스(Amazon Devices & Services)가 엔비디아 디지털 트윈 기술을 활용해 제조 분야의 혁신을 이끌고 있다고 밝혔다. 아마존 디바이스 생산 시설에 이달 도입된 이 설루션은 시뮬레이션 우선 접근 방식을 적용한 ‘제로 터치(zero-touch)’ 제조 방식을 구현했다. 제로 터치의 핵심은 로봇 팔이 다양한 장비의 제품 품질을 자율적으로 검사하고, 새로운 제품을 생산 라인에 통합하도록 훈련하는 과정 전체를 하드웨어 변경 없이 합성 데이터를 기반으로 수행하는 것이다. 이를 위해 아마존 디바이스가 자체 개발한 조립 라인 공정 시뮬레이션 소프트웨어와 엔비디아 기술 기반의 디지털 트윈을 결합했다. 모듈형 AI 기반 워크플로를 통해 기존보다 더 빠르고 효율적인 검사를 진행하며, 제조업체의 워크플로를 간소화해 신제품을 소비자에게 전달하는 시간을 줄일 수 있다는 것이 엔비디아의 설명이다.     또한, 이 설루션은 공장 작업대와 장비의 사실적인 물리 기반 표현에 기반한 합성 데이터를 생성해 로봇 운영을 위한 ‘제로샷(zero-shot)’ 제조를 가능하게 한다. 공장에 특화된 데이터는 시뮬레이션과 실제 작업 환경에서 AI 모델의 성능을 높이는 데에 쓰이며, 시뮬레이션과 실제 작업 환경에서의 AI 모델 성능 격차를 최소화할 수 있다. 엔비디아는 “제로샷 제조를 통해 물리적 프로토타입 없이도 다양한 제품과 생산 공정을 유연하게 처리할 수 있는 범용 제조 시대를 향한 중요한 도약을 이뤄냈다”고 평가했다. 아마존 디바이스 앤 서비스는 디지털 트윈 환경에서 로봇을 훈련시켜 새로운 장비를 인식하고 다루도록 한다. 이를 통해 소프트웨어 변경만으로 한 제품의 감사 작업에서 다른 제품으로 손쉽게 전환할 수 있으며, 더 빠르고 제어가 용이한 모듈화 제조 파이프라인을 구축했다. 이를 위해 엔비디아의 아이작(Isaac) 기술 제품군을 활용한다. 아마존은 신규 장치가 도입되면 CAD 모델을 엔비디아 옴니버스(Omniverse) 플랫폼 기반의 오픈소스 로보틱스 시뮬레이션 애플리케이션인 엔비디아 아이작 심(Sim)에 적용한다. 아이작 심은 각 장치의 CAD 모델을 통해 물체 및 결함 탐지 모델 훈련에 필수인 5만 개 이상의 합성 이미지를 생성한다. 이후 엔비디아 아이작 ROS를 활용해 제품 취급을 위한 로봇 팔 궤적을 생성하고 조립부터 테스트, 포장, 검사까지 모든 과정을 구성한다. 로봇이 작업 환경을 이해하고 충돌 없는 궤적을 생성하는 데에는 엔비디아 젯슨 AGX 오린(Jetson AGX Orin) 모듈에서 실행되는 쿠다(CUDA) 가속 동작 계획 라이브러리 엔비디아 cu모션(cuMotion)이 사용된다. 또한, 500만 개의 합성 이미지로 훈련된 엔비디아의 파운데이션 모델 파운데이션포즈(FoundationPose)는 로봇이 장비의 정확한 위치와 방향을 파악하도록 돕는다. 파운데이션포즈는 사전 노출 없이도 새로운 물체에 맞춰 일반화할 수 있어, 모델 재훈련 없이 다양한 제품 간의 원활한 전환을 가능하게 한다. 한편, 이 기술을 더욱 빠르게 개발하기 위해 아마존 디바이스 앤 서비스는 AWS 배치(Batch)와 아마존 EC2 G6 인스턴스를 통해 분산 AI 모델 훈련을 수행했으며, 생성형 AI 서비스인 아마존 베드록(Bedrock)으로 제품 사양 문서를 분석해 공장 내 고수준 작업과 특정 검사 테스트 사례를 계획했다. 아마존 베드록 에이전트코어(Bedrock AgentCore)는 생산 라인 내 다중 공장 작업대를 위한 자율 워크플로 계획에 사용되며, 3D 설계와 표면 특성 등 멀티모달 제품 사양 입력을 처리할 수 있다.
작성일 : 2025-08-18
오픈소스 LLM 모델 젬마 3 기반 AI 에이전트 개발해 보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 최근 이슈인 AI 에이전트(agent) 개발 시 필수적인 함수 호출(function call) 방법을 오픈소스를 이용해 구현해 본다. 이를 위해 구글에서 공개한 젬마 3(Gemma 3) LLM(대규모 언어 모델)과 역시 오픈소스인 LLM 관리도구 올라마(Ollama)를 활용하여 간단한 AI 에이전트를 로컬 PC에서 개발해본다. 아울러, 이런 함수 호출 방식의 한계점을 개선하기 위한 설루션을 나눔한다.   ■  강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/ GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 페이스북 | www.facebook.com/laputa999 블로그 | http://daddynkidsmakers.blogspot.com 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | www.facebook.com/groups/digestpodcast   이번 호의 글은 다음 내용을 포함한다. AI 에이전트 구현을 위한 사용자 도구 함수 호출 방법 올라마를 통한 젬마 3 사용법 채팅 형식의 프롬프트 및 메모리 사용법 그라디오(Gradio) 기반 웹 앱 개발   그림 1. AI 에이전트 내부의 함수 호출 메커니즘(Akriti, 2025)   이 글의 구현 코드는 다음 링크에서 확인할 수 있다. AI_agent_simple_function_call   젬마 3 모델의 특징 젬마 3는 구글이 개발해 2025년 3월 10일에 출시한 LLM이다. 차세대 경량 오픈 멀티모달 AI 모델로, 텍스트와 이미지를 동시에 처리할 수 있는 기능을 갖추고 있다. 이 모델은 다양한 크기와 사양으로 제공되어 단일 GPU 또는 TPU 환경에서도 실행 가능하다. 젬마 3는 1B, 4B, 12B, 27B의 네 가지 모델 크기로 제공되며, 각각 10억, 40억, 120억, 270억 개의 파라미터를 갖추고 있다. 1B 모델은 텍스트 전용으로 32K 토큰의 입력 컨텍스트를 지원하고, 4B/12B/27B 모델은 멀티모달 기능을 지원하며 128K 토큰의 입력 컨텍스트를 처리할 수 있다. 이는 이전 젬마 모델보다 16배 확장된 크기로, 훨씬 더 많은 양의 정보를 한 번에 처리할 수 있게 해 준다. 이 모델은 텍스트와 이미지 데이터를 동시에 처리하고 이해하는 멀티모달 기능을 제공한다. 이미지 해석, 객체 인식, 시각적 질의응답 등 다양한 작업을 수행할 수 있으며, 텍스트 기반 작업에 시각적 정보를 효과적으로 활용할 수 있도록 지원한다.   그림 2. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   그림 3. 출처 : ‘Welcome Gemma 3 : Google's all new multimodal, multilingual, long context open LLM(Hugging Face)’   젬마 3는 140개 이상의 언어를 지원하여 전 세계 다양한 언어 사용자를 대상으로 하는 AI 애플리케이션 개발에 매우 유리하다. 사용자는 자신의 모국어로 젬마 3와 상호작용할 수 있으며, 다국어 기반의 텍스트 분석 및 생성 작업도 효율적으로 수행할 수 있다. 이 모델은 다양한 작업 수행 능력을 갖추고 있다. 질문–답변, 텍스트 요약, 논리적 추론, 창의적인 텍스트 형식 생성(시, 스크립트, 코드, 마케팅 문구, 이메일 초안 등), 이미지 데이터 분석 및 추출 등 광범위한 자연어 처리 및 컴퓨터 비전 관련 작업을 수행할 수 있다. 또한, 함수 호출 및 구조화된 출력을 지원하여 개발자가 특정 작업을 자동화하고 에이전트 기반의 경험을 구축하는 데 도움을 준다. 젬마 3는 다양한 도구 및 프레임워크와 원활하게 통합된다. Hugging Face Transformers, Ollama, JAX, Keras, PyTorch, Google AI Edge, UnSloth, vLLM, Gemma. cpp 등 다양한 개발 도구 및 프레임워크와 호환되어 개발자들이 자신이 익숙한 환경에서 젬마 3를 쉽게 활용하고 실험할 수 있다. 이 모델은 다양한 벤치마크 테스트에서 동급 모델 대비 최첨단 성능을 입증했다. 특히, Chatbot Arena Elo Score에서 1338점을 기록하며, 여러 오픈 소스 및 상용 모델보다 높은 성능을 보였다.  젬마 3는 오픈 모델로, 개방형 가중치를 제공하여 사용자가 자유롭게 조정하고 배포할 수 있다. 캐글(Kaggle)과 허깅 페이스(Hugging Face)에서 다운로드 가능하며, Creative Commons 및 Apache 2.0 라이선스를 따름으로써 개발자와 연구자에게 VLM 기술에 대한 접근성을 높여준다.   개발 환경 개발 환경은 다음과 같다. 미리 설치 및 가입한다. 오픈 LLM 관리 도구 올라마 : https://ollama.com/download/ windows LLM 모델 젬마 3 : https://ollama.com/search dashboard 웹 검색 도구 Serper 서비스 가입 : https://serper.dev/ 설치되어 있다면 다음 명령을 터미널(윈도우에서는 도스 명령창)에서 실행한다. ollama pull gemma3:4b     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-08-04
[포커스] AWS, “다양한 기술로 국내 기업의 생성형 AI 활용 고도화 돕는다”
아마존웹서비스(AWS)는 최근 진행한 설문조사를 통해 국내 기업들의 AI 활용 현황과 과제를 짚었다. 또한, 신뢰할 수 있는 고성능의 인공지능 에이전트(AI agent)를 구축하고 배포할 수 있는 환경을 제공하면서 한국 시장에 지원을 강화하고 있다고 밝혔다. AWS는 AI의 도입과 활용 과정에서 기업이 겪는 기술적 어려움을 줄이고, 더 많은 기업이 쉽고 안전하게 생성형 AI를 도입하여 비즈니스 가치를 창출할 수 있도록 돕는 데 집중하고 있다. ■ 정수진 편집장    기업의 AI 도입률 높지만…고도화 위한 과제는?  AWS와 스트랜드 파트너스(Strand Partners)는 2025년 4월 한국 기업 1000곳과 일반인 1000명을 대상으로 AI에 대한 행동과 인식에 대한 설문조사를 진행하고, 그 결과를 바탕으로 한국 기업의 AI 활용 현황을 평가했다. 이 조사는 유럽에서는 3년째 진행되어 왔는데, 이번에 글로벌로 확장해 동일한 방법론을 적용했다. 스트랜드 파트너스의 닉 본스토우(Nick Bonstow) 디렉터는 설문조사 보고서의 내용을 소개하면서, 한국 기업의 AI 도입 현황과 주요 과제를 분석했다. 조사에서는 한국 기업의 48%가 AI를 도입 및 활용하고 있는 것으로 나타났는데, 이는 전년 대비 40% 성장한 수치이다. 유럽 기업의 평균 AI 도입률인 42%보다 높았는데, 특히 지난해에만 약 49만 9000 개의 한국 기업이 AI를 처음 도입한 것으로 추정된다. 본스토우 디렉터는 “AI를 도입한 기업들은 실질적인 이점을 경험하고 있다. 56%가 생산성 및 효율성 향상으로 매출 증가를 경험했고, 79%는 업무 생산성 향상 효과를 확인했다. 그리고 AI 도입에 따라 주당 평균 13시간의 업무 시간을 절감했다”고 소개했다. AI 도입률은 높지만, 국내 기업의 70%는 여전히 챗봇이나 간단한 반복 업무 자동화와 같은 기초적인 수준의 AI 활용에 머무르고 있는 상황이다. AI를 다양한 업무 영역에 통합하는 중간 단계는 7%, 여러 AI 도구나 모델을 결합하여 복잡한 업무를 수행하거나 비즈니스 모델을 혁신하는 변혁적 단계는 11%에 불과했다. 본스토우 디렉터는 “기업들이 AI의 잠재력을 완전히 활용하기 위해 더 높은 단계로 나아가야 할 필요가 있다”고 짚었다. 본스토우 디렉터는 국내 기업의 AI 도입이 양극화되고, AI 혁신의 편차를 키울 수 있다고 전했다. 한국 스타트업의 70%가 AI를 확대하고 있는데 이는 유럽의 58%보다 높은 수치로, 국내 스타트업 생태계는 AI 도입에서 뚜렷한 강점을 보였다. 스타트업의 33%는 AI를 비즈니스 전략 및 운영의 핵심 요소로 두고 있으며, 32%는 가장 고도화된 방식으로 AI를 활용하고 있다. 또한, 21%는 AI 기반의 새로운 제품 및 서비스를 개발 중이다. 반면, 국내 대기업의 69%는 여전히 AI를 효율 개선, 업무 간소화 등 기초적인 수준에서만 활용하고 있는 것으로 나타났다. 대기업의 10%만이 AI 기반 신제품 또는 서비스 개발 단계에 진입했는데, 이는 스타트업의 절반 수준이다. 이번 조사에서는 AI 도입의 주요 장애 요인으로 기술 및 디지털 인재의 부족, 자금 접근성, 규제 환경 등이 꼽혔다. 조사 응답 기업의 43%가 디지털 인재를 확보하지 못해 AI 도입 또는 확산에 어려움을 겪고 있다고 응답했고, 지난 1년간 디지털 역량 교육에 참여한 직원은 약 34%였다. 67%의 기업은 정부의 지원 정책이 AI 도입 결정에 중요하다고 응답했으며, 45%의 스타트업은 벤처 자본 56 · 접근성이 성장을 위한 핵심 요소라고 평가했다. 그리고 국내 기업들은 기술 예산 가운데 평균 23%를 규제 준수 비용에 투입하고 있으며, 34%는 AI 기본법 등 관련 입법으로 인해 이 비용이 증가할 것으로 예상했다. 본스토우 디렉터는 “한국이 AI 부문에서 세계를 선도할 수 있는 인프라와 스타트업 생태계 그리고 강한 열정을 가지고 있음을 확인했다. 하지만 AI 활용의 깊이를 더해주는 변혁적인 활용으로 나아가지 못하고 있는 점과 인재 부족, 규제 불확실성 등의 장애 요인을 해결해야 AI를 미래의 성장 동력과 경쟁력의 원천으로 삼을 수 있을 것”이라고 평가했다. 그리고, 이를 위해 한국 정부가 ▲기술 인재에 대한 투자 ▲혁신 친화적이고 명확한 규제 환경 조성 ▲공공 부문의 기술 현대화 및 디지털 전환 추진 등에 관심을 기울일 것을 제안했다.   ▲ AWS 김선수 AI/ML 사업 개발 수석 스페셜리스트   기업의 생성형 AI 활용 문턱 낮춘다 AWS의 김선수 AI/ML 사업 개발 수석 스페셜리스트는 국내 기업들이 AI를 잘 활용할 수 있도록 돕는 AWS의 생성형 AI 기술 스택과 주요 서비스를 소개했다. 그는 “2023년이 생성형 AI 개념 검증(PoC)의 해였다면 2024년은 생산 적용, 2025년은 비즈니스 가치 실현의 해가 될 것”이라고 짚었다. 또한 복잡한 작업을 자율적으로 수행하는 에이전트 AI에 대한 관심이 커지고 있다면서, 가트너(Gartner)의 전망을 인용해 “2026년까지 기업의 80% 이상이 생성형 AI API(애플리케이션 프로그래밍 인터페이스)를 사용하거나 관련 기능이 탑재된 애플리케이션을 배포할 것”이라고 전망했다. AWS는 생성형 AI를 위한 기술 스택을 세 가지 계층으로 제공한다. 가장 아래쪽에는 GPU, AI 프로세서 등을 포함해 모델 훈련과 추론에 필요한 인프라 레이어가 있고, 중간에는 AI 모델에 연결하여 각 기업에 최적화된 생성형 AI 애플리케이션을 구현하도록 돕는 모델/도구 레이어, 가장 위쪽에는 복잡한 개발 없이 쉽고 빠르게 활용할 수 있는 생성형 AI 애플리케이션 레이어가 있다. 이 기술 스택의 핵심으로 AWS가 내세운 것이 아마존 베드록(Amazon Bedrock)이다. 베드록은 생성형 AI 애플리케이션을 쉽게 구축하고 확장할 수 있도록 지원하는 완전 관리형 서비스이다. 앤트로픽, 메타, 미스트랄 AI 등 12개가 넘는 AI 기업의 파운데이션 모델(FM)을 선택해 활용할 수 있다는 점이 특징이다. 아마존 베드록은 비용, 지연 시간, 정확도를 최적화할 뿐만 아니라 기업의 필요에 맞게 모델을 맞춤 설정하거나 유해 콘텐츠/프롬프트 공격 등을 필터링해 안전한 AI 활용 환경을 갖출 수 있도록 돕는다. 김선수 수석 스페셜리스트는 “베드록은 프롬프트 엔지니어링, 검색 증강 생성(RAG), 미세조정(파인 튜닝) 등 다양한 방식으로 모델을 활용할 수 있도록 지원한다. 특히 RAG 구현을 위한 지식 베이스 및 벡터 검색 기능을 기본으로 제공해, 기업의 내부 데이터를 안전하게 연결하고 관련성 높은 답변을 생성할 수 있다”고 전했다. 최근 생성형 AI는 어시스턴트(assistant)를 넘어 워크플로를 자동화하는 에이전트(agent)로 진화하고 있으며, 궁극적으로는 사람의 개입 없이 AI끼리 자율적으로 협업하는 에이전틱 AI(agentic AI) 시스템으로 나아갈 것으로 보인다. AWS는 생성형 AI 에이전트 구축을 위해 ▲아마존 Q 디벨로퍼(Amazon Q Developer)와 같이 사전 구축된 에이전트 제품 ▲아마존 베드록 에이전트(Amazon Bedrock Agents)와 같이 내장된 오케스트레이션을 제공하는 완전 관리형 설루션 ▲스트랜드 에이전트(Strands Agents)와 같은 경량 오픈소스 SDK(소프트웨어 개발 키트)를 활용해 직접 에이전트를 구축할 수 있는 제품 등을 선보이고 있다.    ▲ AWS는 AI 에이전트의 구축과 배포를 위해 다양한 기술을 제공한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04