• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "프로그래밍"에 대한 통합 검색 내용이 1,401개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
가트너, 2026년부터 주목해야 할 10대 AI 전망 발표
가트너가 2026년부터 주목해야 할 최우선 AI 전략 전망 10가지를 발표했다. 이 전망은 ▲AI 시대의 인재 ▲AI 주권 ▲인시디어스 AI(Insidious AI) 등 세 가지 핵심 트렌드로 분류된다. 가트너는 2027년까지 생성형 AI와 AI 에이전트의 사용이 지난 30년간 생산성 도구 시장에 발생한 가장 큰 도전 과제가 될 것이며, 580억 달러 규모의 시장 재편을 촉발할 것이라고 전망했다. 생성형 AI의 발전에 따라 기업은 업무 효율을 높이기 위해 생성형 AI 혁신을 우선순위에 둘 것으로 보인다. 과거의 형식과 호환성은 중요성이 낮아져, 진입 장벽은 낮아지고 다양한 공급업체 간의 새로운 경쟁이 촉발될 것으로 전망된다. 일상적 생성형 AI의 비용 구조와 패키징은 시간이 지나면서 변화할 것으로 보인다. 업체들은 유료 기능을 무료로 전환하고, 무료 제품을 더 넓은 사용자층에 적합하도록 만들 것이다. 2027년까지 기업 채용 과정의 75%가 모집 단계에서 업무용 AI 역량 인증 및 테스트를 포함하게 될 것으로 예상된다. 기업은 표준화된 프레임워크와 맞춤형 설문조사를 통해 지원자의 AI 활용 능력을 진단하고, 인력 내 기술 격차를 해소할 수 있을 것이다. 이러한 추세는 정보 수집, 보존, 종합이 핵심인 직종에서 특히 두드러질 것이다. 생성형 AI 역량이 급여와 점점 더 밀접하게 연계됨에 따라, 지원자들은 AI 역량 개발에 더 큰 가치를 두게 될 것이다. 이에 따라 문제 해결, 생산성 향상, 합리적 의사결정 능력을 입증하는 것이 필수 요건으로 부상할 것으로 예상된다. 한편, 가트너는 2026년까지 생성형 AI 사용으로 인한 비판적 사고력 저하로 전 세계 기업의 50%가 채용 과정에서 ‘AI 프리(AI Free)’ 능력 평가를 요구할 것으로 보았다. 기업이 생성형 AI 활용을 확대함에 따라, 채용 절차는 독립적 사고 능력을 갖춘 지원자와 AI가 생성한 결과물에 지나치게 의존하는 지원자를 구분하는 방향으로 변화할 것으로 보인다. 모집 과정에서는 AI 도움 없이 문제 해결, 증거 평가 및 판단 능력을 입증하는 역량이 점점 더 중요한 평가 기준이 될 것이다. 인간의 추론 능력을 별도로 평가하기 위한 전문 테스트 방법과 플랫폼이 등장하면서, AI 프리 평가 도구 및 서비스에 대한 2차 시장이 형성될 가능성도 높다. 2027년까지 전 세계 국가의 35%가 고유한 컨텍스트 데이터를 활용하는 지역 특화 AI 플랫폼에 고착될 전망이다. 기술적, 지정학적 요인으로 인해, 기업들은 엄격한 규제, 언어적 다양성, 문화적 적합성에 대응하기 위해 AI 설루션을 특성화할 수밖에 없으며, 그 결과 AI 환경은 파편화될 것으로 보인다. 지역 간 차이가 증가됨에 따라 범용 AI 설루션은 점차 사라질 것으로 예상된다. 다국적 기업은 글로벌 시장에 통합형 AI를 배포함에 있어 복잡한 과제에 직면하게 될 것이며, 고유한 규제 준수와 데이터 거버넌스 요구 조건을 가진 다양한 플랫폼 파트너십을 관리해야 할 것이다. 가트너는 2028년까지 고객 대면 비즈니스 프로세스의 80%에 다중 에이전트 AI를 활용하는 기업이 시장을 장악할 것으로 보았다. 고객관계관리(CRM) AI가 일상적인 업무를 처리하고, 인간은 복잡하고 감정적 요소가 중요한 상호작용에 집중하는 하이브리드 AI 모델이 업계 표준으로 자리 잡을 것이다. 고객은 계속해서 거래 실행이나 제품 정보 확인에는 AI 지원 완전 셀프서비스를 선호하는 반면, 복잡한 문제 해결이나 청구 분쟁 등에서는 인간을 선호할 것이다. 최소한의 노력과 신속한 서비스에 대한 고객의 기대가 일반화되면서, CRM 프로세스에 다중 에이전트 AI를 도입하지 못한 기업은 경쟁 우위를 상실할 위험이 있다. 한편, 2028년에는 B2B 구매의 90%가 AI 에이전트를 통해 이루어지며, AI 에이전트 거래로 15조 달러 이상의 B2B 지출이 발생할 것으로 보인다. 새로운 생태계에서 검증 가능한 운영 데이터는 화폐처럼 작용하며, 디지털 신뢰 프레임워크와 검증 가능성을 필수 전제로 하는 데이터 기반 경제를 촉진할 것이다. 컴포저블 마이크로서비스, API 우선, 클라우드 네이티브, 헤드리스 아키텍처로 설계된 제품은 상당한 경쟁 우위를 확보할 것이다. AI 위험 예방책 부족으로 인한 ‘AI발 사고’ 관련 소송은 2026년까지 1000건을 돌파할 전망이다. AI 관련 안전 관리 실패로 인한 사고와 피해 사례가 증가함에 따라 규제 기관의 감시 및 통제 강화, 리콜, 법 집행 기관의 개입, 소송 비용 증가가 예상된다. 규제 감독이 강화되면서 조직은 법적 의무 준수를 넘어, AI 위험 예방책을 활용해 비즈니스 시스템의 안전성과 투명성을 최우선 과제로 삼아야 하는 압박에 직면하게 될 것이다. AI 사용과 의사결정 거버넌스 실패의 영향은 지역별 법적·규제 체계의 차이에 따라 달라지며, 이는 조직이 다양한 위험과 책임에 노출될 수 있음을 의미한다. 또한, 2030년에는 금전거래의 22%가 이용 약관을 내장한 형태로 프로그래밍할 수 있게 되어 AI 에이전트에게 경제적 주체성을 부여할 것으로 보인다. 프로그래머블 머니는 M2M(Machine-To-Machine) 협상, 자동화된 상거래, 시장 탐색, 데이터 자산 수익화를 가능하게 함으로써 새로운 비즈니스 모델을 창출하고, 공급망 관리와 금융 서비스와 같은 산업을 근본적으로 재편하고 있다. 실시간으로 프로그래밍 가능한 거래는 마찰 감소, 유동성 향상, 운영 비용 절감을 통해 효율성을 높이고, 궁극적으로 자율 비즈니스 운영의 부상을 뒷받침할 것이다. 그러나 프로그래머블 머니 플랫폼과 블록체인 인프라 간의 파편화된 기준과 상호운용성 부족은 시장의 성장을 저해하고, AI 에이전트와 기계 고객이 완전한 경제 주체로 기능하는 것을 제한할 것이다. 2027년까지 프로세스 중심 서비스 계약의 비용 대비 가치 격차는 에이전트 AI 재설계를 통해 적어도 50% 감소할 것으로 전망됐다. AI 에이전트는 숨겨진 지식을 발견하도록 진화하며, 이러한 지식과의 상호작용 자체가 프로세스의 핵심이 될 것이다. AI 에이전트가 활용하는 숨겨진 지식은 새로운 가치 자산으로 이어질 것으로 예상된다. 한편, 표준화된 워크플로가 문맥적 오케스트레이션으로 대체됨에 따라 지속적인 혁신 기반 가격 책정은 인건비에 의해 제한되지 않을 것이다. 가트너는 2027년까지 파편화된 AI 규제가 전 세계 경제의 50%로 확산하며, 50억 달러 규모의 규정 준수 투자를 일으키게 될 것으로 보았다. 2024년에만 1000건 이상의 AI 관련 법률이 제안됐지만, 어떤 법률도 AI를 일관되게 정의하지 못하고 있다. AI 거버넌스는 혁신을 촉진하는 동시에 장벽으로 작용할 수 있다. 기술의 잠재력을 터뜨리는 것은 AI 사용 능력이다. 안전한 미래를 위해 기업들은 기술 담당 리더들에게 항구적인 ‘법률 및 규제’ 마인드맵 구축을 요구하게 될 것이다. 한편 보안과는 별개로, 새로운 형태로 등장하고 진화하는 AI의 위험을 관리하기 위해 전담 인력과 전문 소프트웨어를 갖춘 AI 거버넌스 프로그램이 표준으로 자리잡게 될 것이다. 가트너의 다릴 플러머(Daryl Plummer) 수석 VP 애널리스트는 “급격한 기술 변화가 가져오는 위험과 기회는 인간의 행동과 선택에 점점 더 큰 영향을 미치고 있다”면서, “기업의 CIO와 경영진은 미래에 대비하기 위해 기술 변화뿐만 아니라 행동 양식 변화 또한 최우선 과제로 삼아야 한다”고 말했다.
작성일 : 2025-10-23
단군소프트, 포스트맨과 공식 파트너십 및 글로벌 파트너 선정
단군소프트는 글로벌 API 플랫폼 기업인 포스트맨(Postman)과 공식 파트너십을 체결하고, 한국 내 포스트맨 글로벌 설루션 파트너로 선정됐다고 밝혔다. 단군소프트는 “포스트맨은 전 세계에서 4000만 명 이상의 개발자가 사용하는 API(애플리케이션 프로그래밍 인터페이스) 플랫폼으로, 포천(Fortune) 500 기업의 98%가 활용 중인 대표적인 API 개발 플랫폼이다. API의 설계부터 테스트, 문서화, 배포, 협업까지 API 수명주기의 전 과정을 지원하며, 글로벌 표준 도구로 자리잡고 있다”고 소개했다. 이번 파트너십을 통해 단군소프트는 포스트맨의 한국 시장 진출을 본격화하며, 국내 기업과 개발자들에게 글로벌 수준의 API 개발 환경을 제공한다는 계획이다. 특히 한국의 API 생태계가 빠르게 확장되는 가운데, 단군소프트는 세계적 기술 도구의 도입이 국내 개발자의 글로벌 경쟁력 강화와 생산성 향상에 기여할 것으로 기대하고 있다. 포스트맨 파트너 프로그램은 애플리케이션 현대화와 개발 전 과정을 지원하는 전문화된 모델로 운영된다. 단군소프트는 이 중 최고 등급인 ‘익스퍼트(Expert)’ 티어로 선정되며, 포스트맨과의 전략적 협업을 통해 기술 서비스와 교육 프로그램을 확대할 방침이다. 단군소프트의 이승현 대표는 “단군소프트는 한국의 API 개발 수준을 글로벌 표준으로 끌어올리는 것을 목표로 하고 있다. 앞으로도 포스트맨 웨비나, 교육 과정, 전문 기술 지원 등을 통해 국내 개발자의 API 역량 강화를 적극 지원하겠다”고 전했다.
작성일 : 2025-10-22
오라클-AMD, 차세대 AI 확장성 지원 위한 파트너십 확대
오라클과 AMD는 고객이 AI 역량과 이니셔티브를 대규모로 확장할 수 있도록 지원하기 위한 양사의 오랜 다세대 협력 관계를 확대한다고 발표했다. 수년간의 공동 기술 혁신을 바탕으로, 오라클 클라우드 인프라스트럭처(OCI)는 AMD 인스팅트(AMD Instinct) MI450 시리즈 GPU 기반의 최초 공개형 AI 슈퍼클러스터의 출시 파트너가 될 예정이다. 초기 배포는 2026년 3분기부터 5만 개의 GPU로 시작되며, 2027년 이후까지 더욱 규모가 확대될 계획이다. 이번 발표는 2024년 AMD 인스팅트 MI300X 기반 셰이프(shape) 출시를 시작으로 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트(OCI Compute)의 정식 출시까지 이어지는 오라클과 AMD의 전략적 협업의 연장선상에 있다.  양사는 최종 고객에게 OCI 상의 AMD 인스팅트 GPU 플랫폼을 제공하기 위해 꾸준히 협업해 왔다. 이 플랫폼은 제타스케일 OCI 슈퍼클러스터(zettascale OCI Supercluster)에서 제공될 예정이다. 대규모 AI 컴퓨팅 수요가 급격히 증가함에 따라, 차세대 AI 모델은 기존 AI 클러스터의 한계를 뛰어넘고 있다. 이러한 워크로드의 훈련 및 운영을 위해서는 극한의 확장성과 효율성을 갖춘 유연하고 개방적인 컴퓨팅 설루션이 필요하다. OCI가 새롭게 선보일 AI 슈퍼클러스터는 AMD ‘헬리오스(Helios)’ 랙 설계를 기반으로 하며, 여기에는 ▲AMD 인스팅트 MI450 시리즈 GPU ▲차세대 AMD 에픽 CPU(코드명 베니스) ▲차세대 AMD 펜산도(Pensando) 고급 네트워킹 기능(코드명 불카노)가 포함된다. 수직적으로 최적화된 이 랙 스케일 아키텍처는 대규모 AI 모델의 훈련 및 추론을 위한 최대 성능, 탁월한 확장성, 우수한 에너지 효율성을 제공하도록 설계됐다. 마헤쉬 티아가라얀 OCI 총괄 부사장은 “오라클의 고객들은 전 세계에서 가장 혁신적인 AI 애플리케이션을 구축하고 있으며, 이를 위해서는 강력하고 확장 가능한 고성능의 인프라가 필수적이다. 최신 AMD 프로세서 기술, OCI의 안전하고 유연한 플랫폼, 오라클 액셀러론(Oracle Acceleron) 기반 고급 네트워킹의 결합으로 고객은 확신을 갖고 혁신 영역을 넓혀갈 수 있다. 에픽부터 AMD 인스팅트 가속기까지, 10년 이상 이어진 AMD와의 협력을 바탕으로 오라클은 탁월한 가격 대비 성능, 개방적이고 안전하며 확장가능한 클라우드 기반을 지속적으로 제공하여 차세대 AI 시대의 요구에 부응하고 있다”고 말했다. AMD의 포레스트 노로드(Forrest Norrod) 데이터센터 설루션 비즈니스 그룹 총괄 부사장 겸 총괄 매니저는 “AMD와 오라클은 계속해서 클라우드 분야의 AI 혁신에 앞장서고 있다. AMD 인스팅트 GPU, 에픽 CPU, 그리고 첨단 AMD 펜산도 네트워킹 기술을 통해 오라클 고객들은 차세대 AI 훈련, 미세 조정 및 배포를 위한 강력한 역량을 확보할 수 있다. AMD와 오라클은 대규모 AI 데이터센터 환경에 최적화된 개방적이고 안전한 시스템으로 AI 발전을 가속화하고 있다”고 말했다. AMD 인스팅트 MI450 시리즈 GPU 기반 셰이프는 고성능의 유연한 클라우드 배포 옵션과 광범위한 오픈소스 지원을 제공하도록 설계되었다. 이는 최신 언어 모델, 생성형 AI 및 고성능 컴퓨팅 워크로드를 실행하는 고객에게 맞춤형 기반을 제공한다. OCI상의 AMD 인스팅트 MI450 시리즈 GPU는 AI 훈련 모델을 위한 메모리 대역폭을 확장해 고객이 더욱 신속하게 결과를 달성하고, 복잡한 워크로드를 처리하며, 모델 분할 필요성을 줄일 수 있도록 지원한다. AMD 인스팅트 MI450 시리즈 GPU는 개당 최대 432GB의 HBM4 메모리와 20TB/s의 메모리 대역폭을 제공하여, 이전 세대 대비 50% 더 큰 규모 모델의 훈련 및 추론을 인메모리에서 수행할 수 있다. AMD의 최적화된 헬리오스 랙 설계는 고밀도 액체 냉각 방식의 72-GPU 랙을 통해 성능 밀도, 비용 및 에너지 효율이 최적화된 대규모 운영을 가능하게 한다. 헬리오스는 UALoE(Universal Accelerator Link over Ethernet) 스케일업 연결성과 이더넷 기반의 UEC(Ultra Ethernet Consortium) 표준에 부합하는 스케일아웃 네트워킹을 통합하여 포드 및 랙 간 지연을 최소화하고 처리량을 극대화한다. 차세대 AMD 에픽 CPU로 구성된 아키텍처는 작업 오케스트레이션 및 데이터 처리를 가속화하여 고객이 클러스터 활용도를 극대화하고 대규모 워크플로를 간소화할 수 있도록 지원한다. 또한, 에픽 CPU는 기밀 컴퓨팅 기능과 내장형 보안 기능을 제공하여 민감한 AI 워크로드의 종단간 보안을 개선한다. 또한, DPU 가속 융합 네트워킹은 대규모 AI 및 클라우드 인프라의 성능 향상과 보안 태세 강화를 위해 라인레이트(Line-Rate) 데이터 수집을 지원한다. 프로그래밍 가능한 AMD 펜산도 DPU 기술을 기반으로 구축된 DPU 가속 융합 네트워킹은 데이터센터에서 차세대 AI 훈련, 추론 및 클라우드 워크로드를 실행하는 데 필요한 보안성과 성능을 제공한다. AI를 위한 스케일아웃 네트워킹은 미래 지향적 개방형 네트워킹 패브릭을 통해 고객이 초고속 분산 훈련(distributed training)과 최적화된 집합 통신(collective communication)을 활용할 수 있도록 지원한다. 각 GPU에는 최대 3개의 800Gbps AMD 펜산도 ‘불카노’ AI-NIC를 장착할 수 있어, 손실 없는 고속의 프로그래밍 가능한 연결성을 제공하고, RoCE 및 UEC 표준을 지원한다. 혁신적인 UALink 및 UALoE 패브릭은 고객이 워크로드를 효율적으로 확장하고, 메모리 병목 현상을 줄이며, 수 조 파라미터 단위의 대규모 모델을 통합 관리할 수 있도록 지원한다. 확장 가능한 아키텍처는 CPU를 경유하지 않고 홉(hop)과 지연시간을 최소화하며, UALoE 패브릭을 통해 전송되는 UALink 프로토콜을 통해 랙 내 GPU 간 직접적이고 하드웨어 일관성 있는 네트워킹 및 메모리 공유를 가능하게 한다. UALink는 AI 가속기를 위해 특별히 설계된 개방형 고속 상호연결 표준으로 광범위한 산업 생태계의 지원을 받는다. 이를 통해 고객은 개방형 표준 기반 인프라에서 까다로운 AI 워크로드를 실행하는 데 필요한 유연성, 확장성 및 안정성을 확보할 수 있다. 한편, OCI는 대규모 AI 구축, 훈련 및 추론을 수행하는 고객에게 더 많은 선택권을 제공하기 위해 AMD 인스팅트 MI355X GPU를 탑재한 OCI 컴퓨트의 정식 출시를 발표했다. 이 제품은 최대 13만 1072개의 GPU로 확장 가능한 제타스케일 OCI 슈퍼클러스터에서 이용 가능하다. AMD 인스팅트 MI355X 기반 셰이프는 탁월한 가치, 클라우드 유연성 및 오픈소스 호환성을 위해 설계되었다.
작성일 : 2025-10-17
에퀴닉스, 차세대 AI 혁신 가속화 위한 분산형 AI 인프라 출시
디지털 인프라 기업인 에퀴닉스(Equinix)가 ‘AI 서밋(AI Summit)’을 개최하고, 에이전틱 AI를 포함한 차세대 AI 혁신을 뒷받침하는 새로운 접근 방법인 분산형 AI 인프라(Distributed AI Infrastructure)를 공개했다. 이번 발표에는 ▲분산형 AI 구축을 지원하는 AI 사용 가능한 새로운 백본 ▲신규 설루션을 검증할 수 있는 글로벌 AI 설루션 랩(AI Solutions Lab) ▲차세대 워크로드를 지원하는 패브릭 인텔리전스(Fabric Intelligence)가 포함됐다. 기업이 AI 에이전트와 같은 차세대 AI 툴을 구축하고자 할 때, 기존 IT 아키텍처에 대한 재고가 필요하다. 에퀴닉스의 분산형 AI는 정적 모델에서 독립적으로 추론, 행동 및 학습이 가능한 자율적 에이전틱 AI로의 진화를 비롯해 현대 지능형 시스템의 규모와 속도, 복잡성을 지원하도록 설계됐다. 기존 애플리케이션과 달리 AI는 분산되어 있으며, 학습, 추론, 데이터 독립성에 대해 상이한 인프라를 요구한다. 이러한 요구를 충족하기 위해 전세계적으로 분산되고 상호연결되며 대규모 워크로드에서도 뛰어난 성능을 보일 수 있도록 구축된 새로운 유형의 인프라가 필요하다. 에퀴닉스는 “77개의 시장에서 270개가 넘는 데이터센터를 연결하는, 프로그래밍 가능하고 AI에 최적화된 네트워크를 보유함으로써 지리적 경계를 넘어 이 같은 환경을 통합할 수 있다”면서, “이를 통해 지능형 시스템이 필요한 모든 곳에서 신뢰도 높고 안전하게 운영될 수 있도록 지원한다”고 전했다.     이번 AI 서밋에서 에퀴닉스가 발표한 패브릭 인텔리전스는 AI 및 멀티클라우드 워크로드를 위한 실시간 인식과 자동화를 통해 온디맨드 글로벌 상호연결 서비스인 에퀴닉스 패브릭(Equinix Fabric)을 강화하는 소프트웨어 계층이다. 2026년 1분기 출시 예정인 패브릭 인텔리전스는 AI 오케스트레이션 툴과 통합되어 연결성 결정을 자동화하고, 실시간 텔레메트리를 활용해 심층적인 가시성을 확보하며, 성능 최적화와 네트워크 운영 간소화를 위해 라우팅과 세그먼테이션을 동적으로 조정한다. 패브릭 인텔리전스는 워크로드 수요에 맞춰 네트워크가 즉각 대응하도록 함으로써 기업이 수작업을 줄이고 배포를 가속화하며 AI의 규모와 속도에 맞출 수 있도록 지원한다. 에퀴닉스는 10개국 20개 지역에 글로벌 AI 설루션 랩을 출시하여 기업이 업계를 주도하는 AI 기술 파트너와 협력할 수 있는 역동적인 환경을 제공한다. 기업은 AI 설루션 랩을 통해 에퀴닉스 AI 파트너 에코시스템에 연결할 수 있다. 이러한 협력은 AI 도입에 대한 위험을 줄이고 혁신적인 공동 설루션을 지원하며, 아이디어를 운영가능한 AI 구축단계까지 빠르게 실현한다.   에퀴닉스는 포괄적인 벤더 중립 AI 에코시스템 중 하나로, 전 세계 2000개 이상의 파트너를 보유하고 있다. 새로운 패브릭 인텔리전스를 통해 차세대 AI 추론 서비스를 쉽게 검색하고 활용할 수 있도록 돕는다. 또한, 에퀴닉스는 기업이 맞춤형 구축 없이 선도적인 추론 플랫폼에 직접적이고 프라이빗하게 접근할 수 있도록, 2026년 1분기 출시 예정인 그록클라우드(GroqCloud) 플랫폼을 포함한 최첨단 기술을 제공한다. 이를 통해 기업은 AI 서비스를 더 빠르게 연결하고 확장할 수 있으며, 엔터프라이즈급 성능과 보안을 확보할 수 있다.   에퀴닉스의 분산형 AI 인프라를 통해 기업은 제조 분야의 예측 유지 보수를 위한 실시간 의사결정, 다양한 리테일 최적화, 금융 서비스 분야의 신속한 사기 탐지와 같은 다양한 적용 사례를 지원할 수 있다. 에퀴닉스는 2026년 1분기부터 AI를 에지 및 리전 전반에서 구현함으로써, 조직이 어디에서나 확장 가능하고 규정을 준수하며 지연 시간이 짧은 AI 워크로드를 운영할 수 있게 한다. 에퀴닉스의 존 린(Jon Lin) 최고 비즈니스 책임자(CBO)는 “AI가 점점 더 분산되고 동적으로 진화함에 따라, 모든 것을 안전하고 효율적이며 대규모로 연결하는 것이 진정한 과제가 됐다. 에퀴닉스의 글로벌 플랫폼은 기업이 데이터를 사용자와 더 가까운 곳으로 이동하고 추론할 수 있도록 지원하고 새로운 역량을 발휘하며, 기회가 있는 곳 어디서든 혁신을 가속화할 수 있는 무한한 연결성을 제공한다”고 말했다.
작성일 : 2025-09-26
매스웍스, ETRI의 직교형 레이더 신호 개발에 FPGA 워크플로 지원
매스웍스는 한국전자통신연구원(ETRI)이 매스웍스의 매트랩(MATLAB)과 시뮬링크(Simulink)를 활용하여 직교형 레이더 신호 송수신용 실시간 신호처리 모듈을 개발했다고 발표했다. 이 모듈은 내셔널인스트루먼트(NI) FPGA(Field-Programmable Gate Array) 기반 레이더 에뮬레이션 동작을 가속화한다. ETRI 입체통신연구소의 전파연구본부는 소출력 레이더 시스템에서 동작하는 직교형 레이더 신호 송수신이라는 복잡한 신호 처리 과제를 해결하기 위해, 매트랩과 시뮬링크를 활용한 모델 기반 설계(MBD) 접근 방식을 도입했다. 이를 통해 알고리즘을 시스템 수준에서 설계하고 검증한 뒤 자동 HDL 코드 생성과 하드웨어 구현까지 가능해졌으며, FPGA 기반 실시간 처리 시스템의 개발 효율성과 구현 정확도를 동시에 향상시켰다. 실시간 신호처리 모듈을 개발하는 과정에서 ETRI 연구팀은 그래픽 프로그래밍 환경을 이용한 기존의 CPU 기반 실행 방식만으로는 정해진 시간 내에 다중 신호를 동시에 분석하고 처리해야 하는 성능 요구사항을 충족할 수 없음을 확인했다. 신호 간섭을 줄이기 위한 정합 필터 뱅크(matched filter bank)와 같은 병렬 처리 알고리즘은 실시간 실행이 필요했고, 직교 신호 수신기는 파이프라인 구조로 구현되어야 했다. 이에 연구팀은 이러한 성능 목표 달성을 위해 NI FPGA로의 전환이 필수라고 판단했다. 그러나 매트랩 알고리즘을 HDL 코드로 변환하는 과정은 비효율적이고 오류가 발생하기 쉬웠으며, 특히 알고리즘이 변경될 때마다 수동으로 코드를 업데이트해야 하는 문제가 있었다.  또한, 알고리즘과 HDL 코드 간의 구조적 불일치로 인해 디버깅 과정이 복잡해졌다.     이러한 문제를 해결하기 위해 연구팀은 알고리즘을 시뮬링크 모델로 변환한 후 HDL 코더(HDL Coder)를 통해 HDL 코드를 자동 생성하는 워크플로를 선택했다. 이러한 접근 방식을 통해 아키텍처, 고정소수점 데이터 타입, 구현 방법 등 FPGA 구현을 위한 다양한 설계 옵션을 쉽게 평가할 수 있었다. 또한 매스웍스의 HDL 베리파이어(HDL Verifier)를 활용해 생성된 HDL 코드와 원본 알고리즘의 동작을 코시뮬레이션을 통해 비교함으로써, 시스템 수준에서의 동작 검증과 성능 테스트를 효과적으로 수행했다. ETRI는 기존의 수동 코딩 워크플로 대비 HDL 코드 구현과 검증에 소요되는 시간과 노력을 약 50% 절감할 수 있었다. 더 나아가, 알고리즘 설계자와 하드웨어 엔지니어 간의 워크플로를 통합하여 반복 작업을 줄이고 인적 오류를 최소화했다. ETRI는 머신러닝 기반 알고리즘이 포함된 향후 프로젝트에서도 동일한 방식으로 HDL Coder를 활용한 자동 코드 생성을 적극 적용할 계획이다. 한국전자통신연구원 전파연구본부의 책임연구원인 김형중 박사는 “매트랩 펑션 블록(MATLAB Function blocks)을 사용하면 주요 알고리즘 코드 대부분을 별도 작업 없이 그대로 사용할 수 있어 특히 유용하다”면서, “HDL 전문 지식이 없어도 HDL 코더를 사용해 알고리즘을 HDL 코드로 쉽게 변환할 수 있었다”고 설명했다. 매스웍스코리아의 정승혁 애플리케이션 엔지니어는 “한국전자통신연구원의 직교형 레이더 신호 개발에서복잡한 신호처리 알고리즘을 FPGA 하드웨어로 효율적으로 구현하는 데 매트랩과 시뮬링크가 핵심 역할을 했다. 이번 성과는 매스웍스의 모델 기반 설계 접근법이 한국의 첨단 연구개발 프로젝트에서 실질적인 혁신을 가능하게 한다는 것을 보여준다”면서, “매스웍스는 앞으로도 한국의 선도적인 연구기관들과 지속적인 협력을 통해 차세대 기술 개발에 적극 지원할 것”이라고 말했다.
작성일 : 2025-09-25
데이터 분석 로코드 설루션을 배워보자 Ⅰ
로코드를 활용하여 엔지니어링 데이터 분석 극대화하기 (2)   지난 호에서는 로코드 분석 설루션이 필요한 이유에 대해 알아보았다. 또한 데이터 분석이 일반적으로 거치는 과정에 대해서도 살펴 보았는데, 이러한 과정에 파이썬(Python)과 같은 프로그래밍 언어가 활용되는 상황 또한 정리해 보았다. 이번 호에서는 로코드 분석 설루션인 KNIME(나임)에 대해 알아보고, 전력 판매량 예측에 대한 분석 과제를 따라하기 과정을 통해 완성해 보도록 하겠다.   ■ 연재순서 제1회 데이터 분석에 로코드 설루션이 필요한 이유 제2회 데이터 분석 로코드 설루션을 배워보자 Ⅰ 제3회 데이터 분석 로코드 설루션을 배워보자 Ⅱ 제4회 로코드를 활용하여 시뮬레이션 데이터 분석을 따라해 보자 제5회 데이터 분석 로코드 설루션을 클라우드로 확장해 보자   ■ 윤경렬 현대자동차 연구개발본부 책임연구원   ■ 김도희 잘레시아 DX 프로   지난 호에서 살펴본 일반적인 데이터 분석 과정은 다음과 같다.   요청 접수 → 데이터 확보 → 데이터 검토(칼럼/누락/이상치 확인) → 분석 전략 수립 → 데이터 정제 및 가공 → 분석 수행 및 시각화 → 결과 공유   이전에 강조한 바와 같이, 아무리 쉬운 코딩 언어라고 할지라도 데이터 분석을 요청받은 데이터 과학자(data scientist)가 이를 실제 업무에 적용하여 원하는 결과를 빠르고 정확하게 구현해내는 것은 어려운 일이다. 또한 코딩에 능숙한 데이터 과학자라고 해도 깃허브(Github) 및 인터넷 상에 공유된 소스코드를 다운받아 재활용 및 가공하여 사용하는 경우가 많은데, 이때 악성 코드 등에 대한 보안 이슈도 문제가 될 소지가 있다. 사실 데이터 과학자는 수학 및 통계적 지식을 활용하여 빠르게 정확하게 데이터 분석을 하고 싶은 것이고, 이를 위해 효율적인 툴을 사용하고자 한다. 우리는 이러한 현상을 극복해 나가고자 로코드 분석 설루션(low code analytics solution)을 대안으로 검토하였고, 이를 활용하여 데이터 분석을 수행해 나가는 과정을 따라가 보고자 한다. 지난 호에서 유관부서로부터 전력 판매량(electric power sales) 예측에 대한 분석 과제를 요청 받은 상태이고, 언제나처럼 기한은 촉박한 상황의 시민 데이터 과학자(citizen data scientist)로 가정하여 주어진 과제 목표를 달성하였다. 우리에게 주어진 데이터는 발전소 데이터, 기상 정보 데이터, 날짜 및 요일 데이터 등 세 가지로 이를 처리하기 위해 파이썬으로 코드를 작성한 사례를 공유하였고, 동일한 내용을 로코드 분석 설루션인 KNIME을 활용하여 처리한 사례도 공유하였다.   그림 1   이번 호에서는 KNIME에 대해 알아보고 전력 판매량 예측에 대한 분석과제를 따라하기 과정을 통해 완성해 보도록 하겠다. 우선 구글 제미나이(Google Gemini)에게 KNIME에 대한 역사와 특징에 대해 알려 달라고 해보자.(그림 2~4)   그림 2   그림 3   그림 4   가트너(Gatner)의 피어 인사이트(Peer insight) 리뷰를 확인해 보았는데, 평점(rating)이 상당히 높은 편이고 사용자의 반응도 높다는 것을 확인하였다. 또한 오픈소스 기반 소프트웨어로서 기업에서도 무료로 자유롭게 설치하여 사용할 수 있다는 측면에서(KNIME Analytics Platform) 로코드 분석 설루션으로 선택하기에 부족함이 없다는 것을 확인하였다.   그림 5   현재 KNIME은 데이터 사이언스를 위한 최적의 설루션을 위해 세 가지 서비스를 제공하고 있다. 이번 호에서는 KNIME Analytics Platform을 활용하여 전력 판매량 예측에 대한 분석 과제를 따라해보고자 한다.   그림 6     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-09-03
[케이스 스터디] 가상 커미셔닝으로 산업 과제를 해결하는 스피라텍
개방형 커미셔닝과 협업 혁신으로 제조업을 재정의하다   스피라텍(SpiraTec) 그룹은 디지털 전환, 엔지니어링, 로봇 공학, 자동화 및 산업 IT를 전문으로 하는 공정 산업의 산업 공학 및 설루션 분야의 글로벌 플레이어이다. 스피라텍의 가상 커미셔닝 전문성은 제조사가 프로세스를 최적화하고 비용을 절감하며 전 세계적으로 디지털화를 가속화하는 데 도움을 준다. 이번 호에서는 스피라텍이 고객이 주요 산업 과제를 해결하도록 돕는 방법과 유니티(Unity)를 기반으로 가상 커미셔닝을 위한 협업적이고 접근 가능한 설루션을 목표로 하는 오픈 소스 이니셔티브인 ‘오픈 커미셔닝’의 배경과 여정을 소개한다. ■ 자료 제공 : 유니티 코리아   ▲ 생산 라인의 디지털 트윈 : PLC 및 로봇 컨트롤러 통합으로 물질 흐름 시뮬레이션   산업이 디지털 전환을 가속화함에 따라 제조사는 제품을 더 빠르게 시장에 출시하고 비용을 줄이며 지속 가능성 목표를 달성해야 한다는 압박을 받고 있다. 이 모든 과정에서 단편화된 데이터, 구식 방법론 및 제한된 표준화로 어려움을 겪고 있다. 이러한 도전 과제는 더 스마트하고 통합된 설루션을 요구한다. 그리고 여기서 디지털 트윈과 가상 커미셔닝이 등장한다. 글로벌 디지털 트윈 시장은 수요가 급증하고 있다. 2024년에는 177억 3000만 달러로 평가되며, 2025년에는 244억 8000만 달러에서 2032년에는 2593억 2000만 달러로 성장할 것으로 예상된다. 캡제미니 리서치 인스티튜트(Capgemini Research Institute)의 디지털 트윈 리포트에 따르면, 57%의 조직이 지속 가능성을 디지털 트윈 투자에 대한 주요 동력으로 언급하며, 51%는 이러한 기술이 환경 목표 달성에 도움이 될 것으로 기대하고 있다. 디지털 트윈 기술의 주요 응용 프로그램인 가상 커미셔닝은 디지털화의 게임 체인저로, 제조사가 실제 배포 전에 프로세스를 시뮬레이션하고 최적화할 수 있게 하여 자원 소비를 줄이고 비용을 절감한다.   가상 커미셔닝 이해하기 전통적으로 자동화에서 커미셔닝은 새로운 시스템(장치, 기계, 공장 등)을 완전 작동 가능한 생산 준비 상태로 만드는 과정을 의미한다. 과거에는 대부분의 PLC(프로그래머블 로직 컨트롤러) 프로그래밍 및 시스템 테스트가 물리적 하드웨어가 제자리에 있어야 했으며, 이는 종종 비용이 많이 드는 지연과 막판 문제 해결을 초래했다. 가상 커미셔닝은 이 패러다임을 뒤집고 전체 커미셔닝 프로세스를 디지털 환경에서 복제한다. 실제 장치, 센서 및 액추에이터와 통신하는 대신, PLC는 디지털 트윈과 통신한다. 이는 실제 시스템의 동작을 정확하게 반영하는 에뮬레이션 모델이다. 중요하게도, 동일한 PLC 프로그램 코드는 가상 및 물리적 단계 모두에 사용되어, 물리적 하드웨어가 준비되면 코드 수정이나 막판 재작성 없이 원활한 인계를 보장한다.   ▲ 가상 커미셔닝 : 물리적 배포 전에 디지털 프로세스 시뮬레이션 및 최적화   가상 커미셔닝이 실제 가치를 제공하는 방법 효율성 향상 가상 커미셔닝은 현장 테스트와 물리적 프로토타입의 필요성을 줄여 시간과 비용을 절감한다. 또한 디지털 환경에서 팀이 신속하게 반복할 수 있도록 하여 개발 주기를 가속화하고 시장 출시 시간을 단축한다.   위험 감소 시뮬레이션을 통해 오류를 조기에 발견함으로써, 가상 커미셔닝은 비용이 많이 드는 실수의 위험을 줄인다. 더욱이, 팀이 위험한 작업을 디지털로 시뮬레이션할 수 있도록 하여 물리적 구현 전에 잠재적 위험을 제거함으로써 더 안전한 배포를 지원한다.   협업 및 혁신 현실적인 시뮬레이션은 교차 기능 팀 간의 더 나은 정렬을 촉진한다. 가상 공간에서 시스템을 시각화하고 상호작용함으로써 이해관계자는 더 깊은 통찰력을 얻고, 전반적인 커뮤니케이션을 향상시켜 창의성과 혁신을 촉진한다.   제약에서 능력으로 : 유니티로의 전환 스피라텍은 고객이 가상 커미셔닝을 운영에 원활하게 통합하도록 돕는 단일 목표를 추진해 왔다. 스피라텍은 제한된 확장성을 가진 폐쇄 시스템, 작은 사용자 커뮤니티 및 최소한의 응용 프로그래밍 인터페이스(API)에 직면했다. 이러한 조건은 공급업체 종속을 촉진하고 프로젝트 위험을 증가시켰다. 이러한 제한은 종종 시간 지연을 일으키고, 고객이 필요로 하는 접근 가능하고 확장 가능한 설루션의 가능성을 없앴다. 유니티는 스피라텍의 큰 장애물을 극복하는 열쇠가 된 실시간 3D 엔진이다. 유니티의 편집기의 힘을 활용함으로써 스피라텍은 최첨단 물리학 및 렌더링 기능을 얻었을 뿐만 아니라, 디지털 트윈 모델 개발에 대한 전체 접근 방식을 근본적으로 변화시켰다. 유니티의 다양한 기술 및 기능은 여러 문제를 해결하고 스피라텍의 디지털 트윈 개발 프로세스를 형성하는 데 도움이 되었다. 프리팹 시스템 : 객체 지향적 접근 방식을 통해 재사용 가능한 구성 요소 라이브러리를 활용하여 디지털 트윈을 생성할 수 있다. 이는 다양한 프로젝트에서 일관된 품질을 유지하면서 개발 속도를 크게 가속화한다. 픽시즈(Pixyz) : CAD 데이터를 원활하게 가져오고 특정 메타데이터 및 고객 기준에 따라 디지털 트윈을 생성하기 위한 규칙 기반 워크플로를 설정할 수 있다. 사용자 인터페이스(UI) 툴킷 : 편집기 및 런타임을 위한 UI 콘텐츠의 생성 및 향상을 가능하게 하여, 사용자 정의 도구 및 인터페이스에 대해 더 매끄러운 사용자 경험을 제공한다. 작업 시스템 : 복잡한 프로세스(예 : 유체 흐름, 대량 물질 이동 및 스트레스 모델링) 및 대규모 디지털 트윈 프로젝트의 효율적인 다중 스레드 시뮬레이션을 가능하게 한다. 분석기 및 저장 프로파일러 : 성능 병목 현상에 대한 자세한 통찰력을 제공하여 배포 전에 프로젝트 품질을 최적화하고 개선할 수 있게 하며, 궁극적으로 고객에게 더 신뢰할 수 있는 설루션을 제공한다.   대규모 디지털 트윈 내부 : 창고 커미셔닝의 재구상 물류 회사의 창고 시뮬레이션을 특징으로 하는 성공 사례에서 스피라텍은 12개의 가상 PLC를 완전한 디지털 환경에 통합했다. 모델은 필드버스 에뮬레이션과 드라이브, 안전 모듈 및 RFID 리더와 같은 산업 구성 요소의 시뮬레이션을 특징으로 했다. 사용성을 높이기 위해 대규모 시뮬레이션에 최적화된 경량의 강력한 독립 실행형 *.exe 애플리케이션을 제공하는 맞춤형 사용자 인터페이스가 개발되었다. 또한 시스템은 창고 관리 시스템(WMS)과 원활하게 통합되어, 안전한 가상 환경에서 실시간 제품 데이터 관리를 위한 네이티브 텔레그램 통신을 가능하게 했다. 이는 물리적 기계가 존재하기도 전에 포괄적인 소프트웨어 검증을 보장하여 품질을 크게 향상시키고 배포 위험을 줄였다. 이 이니셔티브는 커미셔닝 시간을 30% 줄였다, 프로젝트 일정을 가속화하면서 비용과 위험을 줄였다. 효율성 향상을 넘어, 이는 부서 간 협업을 강화하여 비용 효율적인 반복 개발과 더 빠른 개념 증명 검증을 가능하게 했다.   ▲ 개방형 커미셔닝으로 구축된 창고 운영 시뮬레이션   효율을 넘어 : 시뮬레이션을 통한 지속 가능성 추진 가상 커미셔닝에 대한 대화는 종종 단축된 커미셔닝 시간과 개선된 협업에 초점을 맞추지만, 이러한 이점은 지속 가능성과 관련하여 특히 실질적인 비즈니스 가치로 직접 전환된다. 스피라텍은 고객과 협력하여 후속 제품 수명주기 전반에 걸쳐 디지털 트윈의 사용을 확장하기 시작했으며, 지속 가능성과 비용 절감의 잠재력은 크다. 프로세스를 간소화하고 고충실도 시뮬레이션을 활용함으로써 기업은 다음과 같은 효과를 얻을 수 있다. 장비 수명의 연장 : 시뮬레이션 데이터로 훈련된 예측 유지보수 알고리즘을 사용하여 조직은 마모를 최소화하고 비용이 많이 드는 교체 및 수리를 연기한다. 고장 감소는 유지보수 비용을 직접 낮추고 계획되지 않은 다운타임을 줄인다. 자원 소비의 절감 : 가상 환경에서 제어 논리와 워크플로를 검증함으로써, 팀은 에너지 사용을 줄이고 자재 낭비를 최소화하는 효율성 격차를 식별할 수 있다. 이러한 개선은 환경 목표를 달성하는 데 도움이 될 뿐만 아니라 운영 비용을 줄인다. 시장 출시 시간의 가속화 : 가상 커미셔닝은 물리적 프로토타입과 긴 현장 테스트의 필요성을 최소화한다. 결과적으로 기업은 제품을 더 빠르게 출시하고, 시장 점유율을 더 빨리 확보하며, R&D 투자에 대한 더 빠른 수익을 실현할 수 있다. 현장 면적의 축소 : 더 적은 문제 해결 방문과 짧은 설치 시간은 여행 관련 배출가스와 비용을 줄인다. 이 혜택은 여러 글로벌 시설을 가진 조직에 대해 크게 확장된다.   미래를 함께 형성하기 : 커뮤니티 주도 이니셔티브 협업과 개방성이 가상 커미셔닝의 가장 큰 혁신을 이끌어낼 것이며, 이는 계속 발전할 것이다. 개방형 커미셔닝(open commissioning)을 통해 스피라텍은 단순히 도구를 공유하는 것이 아니라, 혁신적인 아이디어가 다듬어지고 테스트되며 실제 문제를 해결하는 데 적용될 수 있는 커뮤니티 주도 생태계를 구축하고 있다. 가장 흥미로운 발전은 아직 오지 않았다. 스피라텍의 다음 진화는 생성형 AI와 실시간 클라우드 시뮬레이션을 통합하고, 데이터 표준을 설정하며, 산업 연결성을 확장하는 것이다. 제조의 미래는 협업적이고, 데이터 기반이며, 친환경적으로 더 스마트하고 지속 가능한 산업 환경을 만들어 나가는 데 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-09-03
마이크로소프트, “전 세계 고객과 파트너의 AI 전략 실행 지원”
마이크로소프트가 전 세계 다양한 산업 분야에서 자사의 AI 비즈니스 설루션, 클라우드 및 AI 플랫폼 그리고 보안 기술을 활용해 가시적인 비즈니스 성과를 이룬 고객 사례를 공개했다. IDC가 발표한 ‘2025 CEO 우선순위 보고서’에 따르면, 글로벌 CEO의 66%는 생성형 AI를 통해 운영 효율성과 고객 만족도 개선 등에서 측정 가능한 성과를 경험한 것으로 나타났다. IDC는 또한, 기업이 AI에 1달러를 지출할 때, 전 세계 경제에서 평균 4.9달러의 부가가치가 발생할 것으로 전망했다. 이에 따라 마이크로소프트는 고객과 파트너가 ‘AI 퍼스트(AI-first)’ 전략을 중심으로 비즈니스 전략을 재편하고 통합할 수 있도록 지원하고 있다. 특히 ▲직원 경험 강화 ▲고객 경험 혁신 ▲비즈니스 프로세스 재설계 ▲혁신 가속화 등 네 가지 핵심 영역에서 변화가 가시화되고 있다. 마이크로소프트는 “현재 포춘 500대 기업의 85% 이상이 마이크로소프트의 AI 설루션을 도입해, 이러한 변화를 실현하고 있다”고 소개했다. 메르세데스 벤츠(Mercedes-Benz)는 마이크로소프트 365 코파일럿(Microsoft 365 Copilot), 팀즈(Teams), 인튠(Intune) 등을 차량 운영체제에 통합해 차량을 업무가 가능한 이동형 생산성 공간으로 전환하고 있다. 운전자는 음성 명령으로 이메일을 요약하고, 일정을 확인하며, 화상회의에 참여할 수 있다. 특히 기업 고객들은 사무실 수준의 보안 환경에서 업무용 계정과 앱을 안전하게 사용할 수 있어 이동 중에도 효율성과 연결성을 유지할 수 있게 됐다. 멕시코의 웰니스·뷰티 기업인 셸로 나벨(Sheló NABEL)은 다이나믹스 365(Dynamics 365)를 도입해 실시간으로 시장 인사이트를 얻고 400개 이상의 제품에 대한 수요 예측을 최적화했다. 여기에 마이크로소프트 365 코파일럿을 활용해 고객 서비스와 운영 효율성도 향상시켰다. 그 결과 매출은 17% 증가하고, 보고 프로세스 속도는 5배 향상됐다. 사우디아라비아 기술 및 통신 기업인 유니포닉(Unifonic)은 급격한 성장에 따른 대규모 하이브리드 인력 관리와 보안 및 컴플라이언스 문제를 해결하기 위해 마이크로소프트 365 E5(Microsoft 365 E5) 및 마이크로소프트 365 코파일럿을 기반으로 업무 자동화와 데이터 보호 체계를 구축했다. 그 결과 감사 소요 시간은 85% 단축됐고, 보안 관리를 하루에 2시간 절감하며, 고객 데모 설정 시간도 15% 줄었다. 이를 통해 연간 약 25만 달러의 비용 절감 효과도 거뒀다. 스웨덴의 제조기업인 허스크바나 그룹(Husqvarna Group)은 공장 네트워크와 공급망, 유통 채널 현대화를 위해 애저 아크(Azure Arc), 애저 IoT 오퍼레이션(Azure IoT Operations), 애저 오픈AI 등 애저 통합 설루션을 도입했다. 이를 통해 클라우드와 온프레미스 시스템을 통합하고 실시간 데이터 기반 의사결정 체계를 마련했다. 그 결과 데이터 배포 시간은 98% 단축되고, 인프라 이미지 구축 비용도 50% 절감됐다. 우크라이나의 에너지기업 DTEK의 YANSO는 애저 오픈AI 서비스와 애저 AI 서치(Azure AI Search) 기반 AI 어시스턴트를 도입해 하루 300건 이상의 고객 문의에 대한 평균 응답 시간을 4.5분에서 3.5분으로 단축했다. 이를 통해 모든 문의의 약 80%를 자동 처리할 수 있을 것으로 예상된다. 독일 로봇 기업 쿠카(KUKA)는 애저 AI 파운드리 모델과 애저 AI 서치를 기반으로 iiQWorks.Copilot을 개발해 자연어 기반 코드 생성과 워크플로 시뮬레이션을 구현하며 단순 작업 프로그래밍 속도를 최대 80%까지 높였다. 쿠카는 이 설루션을 통해 로보틱스 도구와 자동화에 대한 접근성을 확대해 배포 속도와 안전성을 높이고, 다양한 팀과 환경에서 산업용 로봇의 활용성을 확대했다. 마이크로소프트의 저드슨 알소프(Judson Althoff) 수석 부사장은 “AI 트랜스포메이션을 통해 비즈니스를 차별화하고 리더가 될 수 있는 기회는 바로 지금”이라며, “마이크로소프트는 고객과 파트너가 AI를 통해 개인과 조직의 잠재력을 극대화할 수 있도록 기술과 전문성을 바탕으로 지원하고 있다”고 말했다. 이어 “앞으로도 이들이 단순한 AI 도입을 넘어 혁신할 수 있도록 비즈니스 전략을 재정립하고, 프론티어 기업으로서 미래를 설계할 수 있도록 함께할 것”이라고 덧붙였다.
작성일 : 2025-08-19
데이터 분석에 로코드 설루션이 필요한 이유
로코드를 활용하여 엔지니어링 데이터 분석 극대화하기 (1)   이번 호부터 로코드(low code) 설루션을 활용하여 데이터 분석을 활용하는 방법에 대해 설명하고자 한다. 앞으로 4회에 걸쳐 데이터 분석을 위한 로코드 분석 설루션이 어떤 장점을 가지고 있으며 어떻게 활용될 수 있는지 살펴보고, 간단한 데이터 분석 예제를 따라해 보면서 활용하는 방법을 배워보도록 하겠다.   ■ 연재순서 제1회 데이터 분석에 로코드 설루션이 필요한 이유 제2회 데이터 분석 로코드 설루션을 배워보자 제3회 로코드를 활용하여 시뮬레이션 데이터 분석을 따라해 보자 제4회 데이터 분석 로코드 설루션을 클라우드로 확장해 보자   ■ 윤경렬 현대자동차 연구개발본부 책임연구원   ■ 김도희 잘레시아 DX 프로   머신러닝 및 딥러닝 기술의 급격한 발전에 힘입어 최근 몇 년사이에 데이터 분석 시장은 폭발적으로 성장해 왔다. 데이터의 분석을 통해서 패턴을 찾고 이를 통해 행동을 예측할 수 있는 사례는 많은 이들의 관심을 불러 일으켰고, 파이썬(Python) 언어와 관련 라이브러리의 사용법을 배우는 강좌도 덩달아 큰 인기를 누리게 되었다. 이는 지식의 저변 확대와 관련 산업의 활성화라는 측면에서 상당히 좋은 방향이지만, 실제 현장에서는 상대적으로 쉽다고 알려져 있는 파이썬 언어도 교육 강좌를 수강한 이후 막상 본인의 업무에 적용하려고 하면 적지 않은 어려움에 직면하게 된다. 이유는 파이썬 언어의 사용이 어려워서라기보다는 CDS(Citizen Data Scientist : 시민 데이터 과학자)에게는 익숙하지 않기 때문이다. 특히 프로그래밍 언어를 이용한 코딩은 텍스트에 기반한 정보이기 때문에 직관적이지 않고 시행착오를 반복해야 어느 정도 활용 레벨에 올라갈 수 있다. 최근 이러한 문제를 해결하기 위해 로코드 분석 설루션(low code analysis solution)이 대안으로 시도되고 있으며 유의미한 결과를 보여주고 있다.   일반적인 데이터 분석 과정 데이터 분석은 보통 요청을 접수하는 것부터 시작되며, 이 단계에서는 무엇을 분석해야 하는지, 분석의 목적은 무엇인지 명확히 파악하는 것이 중요하다. 분석 대상과 기대하는 결과가 정해지면 그에 필요한 관련 데이터를 확보하게 된다. 이 때 데이터는 내부 시스템, 데이터베이스, 외부 파일 등 다양한 경로를 통해 수집될 수 있다. 다음은 확보한 데이터를 개괄적으로 파악하는 과정인데, 이 때 주요 칼럼과 데이터의 값을 확인하고 누락된 값 또는 이상치가 있는지 등을 점검하게 된다. 데이터의 품질을 빠르게 진단하는 이 단계는 이후 분석의 방향에 큰 영향을 미치게 되기 때문에 아주 중요하다. 이렇게 데이터의 상태를 파악하고 난 뒤에는 분석 전략을 수립하게 되는데, 여기서는 어떤 방식으로 데이터를 다루는 것이 좋을지, 어떤 분석 기법을 적용하는 게 좋을지를 구체적으로 준비하게 된다. 세 번째 단계로는 그 동안 수립한 분석 계획에 따라 본격적인 데이터 정제 작업을 시작하게 된다. 구체적으로는 전처리, 필터링, 파생 변수 생성 등의 작업을 포함하여 분석에 적합한 형태로 데이터를 정돈하는 단계로 볼 수 있다. 다음은 실제 분석을 수행하고 필요한 시각화를 통해 인사이트를 도출하는 것으로 통계 분석, 머신러닝 모델링, 상관관계 파악 등 다양한 방법이 이 부분에 포함된다. 마지막으로 분석 결과는 보고서 형태로 문서화하거나 대시보드로 시각화하여 공유되며, 이는 분석 요청자 또는 조직 내 이해관계자가 쉽게 결과를 활용하여 의사결정을 수행하도록 지원할 수 있다. 요청 접수 → 데이터 확보 → 데이터 검토(칼럼/누락/이상치 확인) → 분석 전략 수립 → 데이터 정제 및 가공 → 분석 수행 및 시각화 → 결과 공유   파이썬 코딩과 로코드 기반 분석의 비교 이제부터 본격적으로 데이터 분석을 진행하기 위해, 우리는 데이터 분석에 대한 요청을 받은 CDS라고 가정을 해 보자. 우리는 유관부서로부터 전력 판매량(Electric Power Sales) 예측에 대한 분석을 요청 받은 상태이고, 언제나처럼 기한은 촉박한 상황이다. 우리에게 주어진 데이터는 발전소 데이터, 기상 정보 데이터, 날짜 및 요일 데이터 등 세 가지로 다행스럽게도 소스 데이터는 엑셀 형태로 정리되어 입수한 상태이다. 우선 ‘발전소 데이터’를 살펴 보면 일자별로 특정 발전소에서 일일 발전량이 자세하게 표시되어 있다. 결국 첫 번째 데이터는 Electricity_sales로, 발전소 명칭, 측정 일자(년, 월, 일), 시간대별 전력 판매량으로 구성되어 있는데 이는 머신러닝에서 예측하게 될 Y값(종속변수)이 포함된 핵심 데이터 영역이다.   그림 1. 발전소 데이터   다음은 ‘기상 정보 데이터’로 일자별로 특정 지역의 날씨 정보가 정리되어 있다. 발전소 위치에 따른 기상 정보로 일시, 평균기온, 강수량, 풍속, 습도, 일사량 등의 정보가 담겨 있다.    그림 2. 기상 정보 데이터   마지막으로 ‘날짜 및 요일 데이터’는 일자별로 요일을 숫자로 매핑한 데이터이다. 날짜 데이터에 매핑 가능한 공휴일 정보가 담겨 있는 데이터 영역이다.   그림 3. 날짜 및 요일 데이터   결국 요청 받은 데이터 분석을 완료하기 위해서는 입수한 데이터에 전처리를 수행하고 이를 기반으로 다중 회귀 분석을 수행하여 머신러닝 예측 모델을 구성해야 한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-08-04
[포커스] AWS, “다양한 기술로 국내 기업의 생성형 AI 활용 고도화 돕는다”
아마존웹서비스(AWS)는 최근 진행한 설문조사를 통해 국내 기업들의 AI 활용 현황과 과제를 짚었다. 또한, 신뢰할 수 있는 고성능의 인공지능 에이전트(AI agent)를 구축하고 배포할 수 있는 환경을 제공하면서 한국 시장에 지원을 강화하고 있다고 밝혔다. AWS는 AI의 도입과 활용 과정에서 기업이 겪는 기술적 어려움을 줄이고, 더 많은 기업이 쉽고 안전하게 생성형 AI를 도입하여 비즈니스 가치를 창출할 수 있도록 돕는 데 집중하고 있다. ■ 정수진 편집장    기업의 AI 도입률 높지만…고도화 위한 과제는?  AWS와 스트랜드 파트너스(Strand Partners)는 2025년 4월 한국 기업 1000곳과 일반인 1000명을 대상으로 AI에 대한 행동과 인식에 대한 설문조사를 진행하고, 그 결과를 바탕으로 한국 기업의 AI 활용 현황을 평가했다. 이 조사는 유럽에서는 3년째 진행되어 왔는데, 이번에 글로벌로 확장해 동일한 방법론을 적용했다. 스트랜드 파트너스의 닉 본스토우(Nick Bonstow) 디렉터는 설문조사 보고서의 내용을 소개하면서, 한국 기업의 AI 도입 현황과 주요 과제를 분석했다. 조사에서는 한국 기업의 48%가 AI를 도입 및 활용하고 있는 것으로 나타났는데, 이는 전년 대비 40% 성장한 수치이다. 유럽 기업의 평균 AI 도입률인 42%보다 높았는데, 특히 지난해에만 약 49만 9000 개의 한국 기업이 AI를 처음 도입한 것으로 추정된다. 본스토우 디렉터는 “AI를 도입한 기업들은 실질적인 이점을 경험하고 있다. 56%가 생산성 및 효율성 향상으로 매출 증가를 경험했고, 79%는 업무 생산성 향상 효과를 확인했다. 그리고 AI 도입에 따라 주당 평균 13시간의 업무 시간을 절감했다”고 소개했다. AI 도입률은 높지만, 국내 기업의 70%는 여전히 챗봇이나 간단한 반복 업무 자동화와 같은 기초적인 수준의 AI 활용에 머무르고 있는 상황이다. AI를 다양한 업무 영역에 통합하는 중간 단계는 7%, 여러 AI 도구나 모델을 결합하여 복잡한 업무를 수행하거나 비즈니스 모델을 혁신하는 변혁적 단계는 11%에 불과했다. 본스토우 디렉터는 “기업들이 AI의 잠재력을 완전히 활용하기 위해 더 높은 단계로 나아가야 할 필요가 있다”고 짚었다. 본스토우 디렉터는 국내 기업의 AI 도입이 양극화되고, AI 혁신의 편차를 키울 수 있다고 전했다. 한국 스타트업의 70%가 AI를 확대하고 있는데 이는 유럽의 58%보다 높은 수치로, 국내 스타트업 생태계는 AI 도입에서 뚜렷한 강점을 보였다. 스타트업의 33%는 AI를 비즈니스 전략 및 운영의 핵심 요소로 두고 있으며, 32%는 가장 고도화된 방식으로 AI를 활용하고 있다. 또한, 21%는 AI 기반의 새로운 제품 및 서비스를 개발 중이다. 반면, 국내 대기업의 69%는 여전히 AI를 효율 개선, 업무 간소화 등 기초적인 수준에서만 활용하고 있는 것으로 나타났다. 대기업의 10%만이 AI 기반 신제품 또는 서비스 개발 단계에 진입했는데, 이는 스타트업의 절반 수준이다. 이번 조사에서는 AI 도입의 주요 장애 요인으로 기술 및 디지털 인재의 부족, 자금 접근성, 규제 환경 등이 꼽혔다. 조사 응답 기업의 43%가 디지털 인재를 확보하지 못해 AI 도입 또는 확산에 어려움을 겪고 있다고 응답했고, 지난 1년간 디지털 역량 교육에 참여한 직원은 약 34%였다. 67%의 기업은 정부의 지원 정책이 AI 도입 결정에 중요하다고 응답했으며, 45%의 스타트업은 벤처 자본 56 · 접근성이 성장을 위한 핵심 요소라고 평가했다. 그리고 국내 기업들은 기술 예산 가운데 평균 23%를 규제 준수 비용에 투입하고 있으며, 34%는 AI 기본법 등 관련 입법으로 인해 이 비용이 증가할 것으로 예상했다. 본스토우 디렉터는 “한국이 AI 부문에서 세계를 선도할 수 있는 인프라와 스타트업 생태계 그리고 강한 열정을 가지고 있음을 확인했다. 하지만 AI 활용의 깊이를 더해주는 변혁적인 활용으로 나아가지 못하고 있는 점과 인재 부족, 규제 불확실성 등의 장애 요인을 해결해야 AI를 미래의 성장 동력과 경쟁력의 원천으로 삼을 수 있을 것”이라고 평가했다. 그리고, 이를 위해 한국 정부가 ▲기술 인재에 대한 투자 ▲혁신 친화적이고 명확한 규제 환경 조성 ▲공공 부문의 기술 현대화 및 디지털 전환 추진 등에 관심을 기울일 것을 제안했다.   ▲ AWS 김선수 AI/ML 사업 개발 수석 스페셜리스트   기업의 생성형 AI 활용 문턱 낮춘다 AWS의 김선수 AI/ML 사업 개발 수석 스페셜리스트는 국내 기업들이 AI를 잘 활용할 수 있도록 돕는 AWS의 생성형 AI 기술 스택과 주요 서비스를 소개했다. 그는 “2023년이 생성형 AI 개념 검증(PoC)의 해였다면 2024년은 생산 적용, 2025년은 비즈니스 가치 실현의 해가 될 것”이라고 짚었다. 또한 복잡한 작업을 자율적으로 수행하는 에이전트 AI에 대한 관심이 커지고 있다면서, 가트너(Gartner)의 전망을 인용해 “2026년까지 기업의 80% 이상이 생성형 AI API(애플리케이션 프로그래밍 인터페이스)를 사용하거나 관련 기능이 탑재된 애플리케이션을 배포할 것”이라고 전망했다. AWS는 생성형 AI를 위한 기술 스택을 세 가지 계층으로 제공한다. 가장 아래쪽에는 GPU, AI 프로세서 등을 포함해 모델 훈련과 추론에 필요한 인프라 레이어가 있고, 중간에는 AI 모델에 연결하여 각 기업에 최적화된 생성형 AI 애플리케이션을 구현하도록 돕는 모델/도구 레이어, 가장 위쪽에는 복잡한 개발 없이 쉽고 빠르게 활용할 수 있는 생성형 AI 애플리케이션 레이어가 있다. 이 기술 스택의 핵심으로 AWS가 내세운 것이 아마존 베드록(Amazon Bedrock)이다. 베드록은 생성형 AI 애플리케이션을 쉽게 구축하고 확장할 수 있도록 지원하는 완전 관리형 서비스이다. 앤트로픽, 메타, 미스트랄 AI 등 12개가 넘는 AI 기업의 파운데이션 모델(FM)을 선택해 활용할 수 있다는 점이 특징이다. 아마존 베드록은 비용, 지연 시간, 정확도를 최적화할 뿐만 아니라 기업의 필요에 맞게 모델을 맞춤 설정하거나 유해 콘텐츠/프롬프트 공격 등을 필터링해 안전한 AI 활용 환경을 갖출 수 있도록 돕는다. 김선수 수석 스페셜리스트는 “베드록은 프롬프트 엔지니어링, 검색 증강 생성(RAG), 미세조정(파인 튜닝) 등 다양한 방식으로 모델을 활용할 수 있도록 지원한다. 특히 RAG 구현을 위한 지식 베이스 및 벡터 검색 기능을 기본으로 제공해, 기업의 내부 데이터를 안전하게 연결하고 관련성 높은 답변을 생성할 수 있다”고 전했다. 최근 생성형 AI는 어시스턴트(assistant)를 넘어 워크플로를 자동화하는 에이전트(agent)로 진화하고 있으며, 궁극적으로는 사람의 개입 없이 AI끼리 자율적으로 협업하는 에이전틱 AI(agentic AI) 시스템으로 나아갈 것으로 보인다. AWS는 생성형 AI 에이전트 구축을 위해 ▲아마존 Q 디벨로퍼(Amazon Q Developer)와 같이 사전 구축된 에이전트 제품 ▲아마존 베드록 에이전트(Amazon Bedrock Agents)와 같이 내장된 오케스트레이션을 제공하는 완전 관리형 설루션 ▲스트랜드 에이전트(Strands Agents)와 같은 경량 오픈소스 SDK(소프트웨어 개발 키트)를 활용해 직접 에이전트를 구축할 수 있는 제품 등을 선보이고 있다.    ▲ AWS는 AI 에이전트의 구축과 배포를 위해 다양한 기술을 제공한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04