• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "파이프라인"에 대한 통합 검색 내용이 213개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
크레오 파라메트릭에서 파이핑 생성하기 Ⅱ
제품 개발 혁신을 가속화하는 크레오 파라메트릭 11.0 (11)   크레오 파이핑 및 케이블링 익스텐션(Creo Piping and Cabling Extension : PCX)은 다양한 종류의 산업과 유형의 파이핑 및 케이블링을 지원하여 전체 설계 프로세스를 간소화하고 가속화하는 크레오의 모듈이다. 이번 호에서는 지난 호에 이어 크레오 파이핑에 대해 알아보자.   ■ 김주현 디지테크 기술지원팀의 차장으로 크레오 전 제품의 기술지원 및 교육을 담당하고 있다. 홈페이지 | www.digiteki.com   크레오 파이핑은 라이브러리를 이용하는 사양 설계(Spec_driven)와 비 사양 설계(Non_Spec_driven)로 나눌 수 있다. 이번 호에서는 라이브러리를 이용한 사양 설계로 파이핑을 생성해보자. 사양 제어 파이핑 모듈에서는 파이핑 라이브러리를 기반으로 복잡한 파이핑 시스템을 설계를 할 수 있다. 이 파이핑 시스템을 설계하려면 먼저 사양 제어 파이핑을 설정해야 한다. 파이핑 설계에는 라이브러리 데이터베이스가 있으며, 이를 기반으로 필요 시 회사 별 사항에 맞게 추가할 수 있다. 그러면 지금부터 예제를 통해 파이핑에 대해 알아보자. 어셈블리 파일을 열어 파이핑을 연결하고자 하는 시작과 끝을 각각 확인한다. 예제에서는 그림과 같이 ‘PORT0’에서 ‘RETURN’으로 파이핑을 생성한다.     가장 먼저 메뉴의 ‘응용 프로그램’에서 ‘파이핑’을 선택한다.     파이핑 메뉴에서 ‘사양 제어’를 선택한 후 ‘파이프 생성’을 클릭한다.     ‘파이프라인 만들기’ 창에서 크기와 번호, 이름을 입력한다. 인슐레이션이 필요하다면 미리 선택한다.     ‘확인’을 누르면 방금 만든 어셈블리가 생성되며 활성화되는 것을 볼 수 있다. 먼저 시작 부분에 피팅을 삽입한 후 파이프라인을 만들어보자. 메뉴에서 파이핑 → 피팅 삽입을 클릭한다.     그림과 같이 여러 종류의 피팅을 제공하며, 필요한 피팅을 선택한다.     피팅 유형은 플랜지로 선택하고, 시작 좌표계를 그림과 같이 선택한다.     모두 설정한 후 ‘확인’ 버튼을 클릭하면 그림과 같이 플랜지가 생성된다.       ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-04-02
엔비디아, AI와 그래픽 융합 가속화하는 데이터센터 GPU ‘RTX PRO 6000 블랙웰 서버 에디션’ 발표
엔비디아가 GTC 2025에서 ‘엔비디아 RTX PRO 6000 블랙웰 서버 에디션(NVIDIA RTX PRO 6000 Blackwell Server Edition)’을 발표했다. RTX PRO 6000 블랙웰 서버 에디션은 비주얼 컴퓨팅과 엔터프라이즈 AI를 위해 구축된 첫 번째 블랙웰 기반 데이터센터 GPU이다. 이는 모든 산업에서 높은 성능을 요구하는 AI, 그래픽 애플리케이션을 신속하게 처리할 수 있도록 설계됐다. 이전 세대인 에이다 러브레이스(Ada Lovelace) 아키텍처 기반 L40S GPU에 비해 RTX PRO 6000 블랙웰 서버 에디션 GPU는 다양한 엔터프라이즈 워크로드에서 성능이 크게 향상된다. 예를 들어, 에이전틱 AI(Agentic AI) 애플리케이션을 위한 대규모 언어 모델(LLM) 추론 처리량은 최대 5배 증가되고, 유전체 염기서열 분석은 약 7배로 가속화되며, 텍스트-비디오 생성은 3.3배, 렌더링 속도는 2배 이상 빨라진다. RTX PRO 6000 블랙웰 서버 에디션은 워크스테이션과 서버 GPU로 이뤄진 엔비디아 RTX PRO 블랙웰 시리즈에 속한다. 이번 엔비디아 GTC에서 발표된 RTX PRO 라인업은 여러 산업의 AI와 창의적인 워크로드를 지원하는 데스크톱, 랩톱, 데이터센터 GPU로 구성된다. 여러 분야의 기업들은 RTX PRO 6000 블랙웰 서버 에디션을 통해 데이터 분석, 엔지니어링 시뮬레이션, 생성형 AI, 비주얼 컴퓨팅과 같은 워크로드에서 높은 성능을 구현할 수 있다. 여기에는 건축, 자동차, 클라우드 서비스, 금융 서비스, 게임 개발, 의료, 제조, 미디어, 엔터테인먼트, 소매업 등의 산업이 포함된다. 콘텐츠 제작, 반도체 제조, 유전체 분석 기업들은 이미 컴퓨팅 집약적인 AI 지원 워크플로를 가속화하기 위해 RTX PRO 6000 블랙웰 서버 에디션의 기능을 활용하고 있다.     RTX PRO 6000 블랙웰 서버 에디션은 데이터센터 환경에서 연중무휴 24시간 운영할 수 있게 설계된 수동 냉각 장치 형태로, 강력한 RTX AI와 그래픽 기능을 제공한다. 96GB의 초고속 GDDR7 메모리와 멀티 인스턴스 GPU(MIG)를 갖춘 RTX PRO 6000은 최대 4개의 완전히 격리된 인스턴스로 분할될 수 있다. 각 인스턴스는 24GB의 메모리를 사용할 수 있어, AI 워크로드와 그래픽 워크로드를 동시에 실행할 수 있다. RTX PRO 6000은 엔비디아 컨피덴셜 컴퓨팅(Confidential Computing)을 통해 안전한 AI를 구현하는 범용 GPU이다. 이는 강력한 하드웨어 기반 보안으로 AI 모델과 민감한 데이터를 무단 접근으로부터 보호한다. 이에 따라 물리적으로 격리된 신뢰할 수 있는 실행 환경을 제공해 데이터를 사용하는 동안 전체 워크로드를 보호한다. 또한, RTX PRO 6000은 엔터프라이즈급 배포에서 효과적으로 사용될 수 있도록 고밀도 가속 컴퓨팅 플랫폼으로 구성돼 분산 추론 워크로드를 수행할 수 있다. 더불어 엔비디아 vGPU 소프트웨어를 통해 가상 워크스테이션을 제공하며, AI 개발과 고도의 그래픽 애플리케이션을 구동하는 데 사용될 수 있다. RTX PRO 6000 GPU는 광범위한 AI 모델에 걸쳐 강력한 추론 성능을 제공하며, 복잡한 가상 환경의 사실적인 실시간 레이 트레이싱을 가속화한다. 여기에는 5세대 텐서 코어(Tensor Core), 4세대 RT 코어, DLSS 4, 통합된 미디어 파이프라인, FP4 정밀도를 지원하는 2세대 트랜스포머 엔진(Transformer Engine) 등 최신 블랙웰 하드웨어와 소프트웨어 혁신이 포함된다. 기업들은 RTX PRO 6000 블랙웰 서버 에디션 GPU에서 엔비디아 옴니버스(Omniverse)와 엔비디아 AI 엔터프라이즈(AI Enterprise) 플랫폼을 대규모로 실행할 수 있다. 이를 통해 이미지와 비디오 생성, LLM 추론, 추천 시스템, 컴퓨터 비전, 디지털 트윈, 로보틱스 시뮬레이션 등의 에이전틱 AI, 물리 AI 애플리케이션 개발과 배포를 더욱 원활하게 진행할 수 있다. 엔비디아는 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 플랫폼이 5월부터 전 세계 파트너를 통해 출시될 예정이라고 소개했다. 클라우드 서비스 제공업체와 GPU 클라우드 제공업체 중에서는 아마존 웹 서비스(AWS), 구글 클라우드, 마이크로소프트 애저, IBM 클라우드, 코어위브, 크루소, 람다, 네비우스, 벌처가 최초로 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 인스턴스를 제공할 계획이다. 시스코, 델 테크놀로지스, 휴렛팩커드 엔터프라이즈(HPE), 레노버, 슈퍼마이크로는 RTX PRO 6000 블랙웰 서버 에디션을 탑재한 서버를 제공할 예정이다. 이 외에도 어드밴텍, 애티나, 에이브레스, 애즈락랙, 에이수스, 컴팔, 폭스콘, 기가바이트, 인벤텍, MSI, 페가트론, 퀀타 클라우드 테크놀로지(QCT), 미텍 컴퓨팅, 네이션게이트, 위스트론, 위윈 등의 기업도 이 서버를 제공할 계획이다.
작성일 : 2025-03-21
인텔, “시스템부터 플랫폼까지 개방형 생태계 통해 에지 AI 가속화”
인텔은 새로운 인텔 AI 에지 시스템(Intel AI Edge Systems), 에지 AI 스위트(Edge AI Suites) 및 오픈 에지 플랫폼(Open Edge Platform) 이니셔티브에 대한 내용을 발표했다. 이 제품들은 기존 인프라와 통합을 단순화함으로써 소매, 제조, 스마트 시티, 미디어 및 엔터테인먼트와 같은 산업 분야에서 에지에서의 AI 사용을 간소화 및 가속화하도록 지원한다. 에지 AI는 기업 혁신의 핵심 요소로 떠오르고 있다. 가트너는 올해 말까지 기업에서 관리하는 데이터의 50%가 기존 데이터 센터나 클라우드 외부, 즉 리테일, 제조 공장, 의료 시설 등에서 처리될 것이며, 2026년까지 에지 컴퓨팅 배포의 절반 이상이 머신 러닝을 포함할 것으로 예측하고 있다.  인텔은 “에지에서 수십 년의 경험을 가지고 있을 뿐만 아니라 파트너와 함께 10만 건 이상의 실제 에지 구현을 통해 이러한 고유한 과제를 잘 이해하고 있다”고 밝혔다. 에지 AI 사용 사례는 산업별로 매우 다양하며, 각기 다른 성능 및 전력 요구 사항이 있다. 클라우드 제공 기업에 적합한 방식은 AI를 통합하면서 기존 플랫폼과 소프트웨어를 유지해야 하고, 최적의 TCO와 적절한 전력 수준을 확보해야 하는 에지용으로는 적절하지 않다. 전용 AI 인프라를 갖춘 대규모 데이터 센터와 달리 에지 AI 배포는 기존 IT 시스템에 원활하게 통합되어야 하며 종종 전력 제한, 공간 제약, 비용에 민감한 환경인 경우가 많다.     인텔 AI 에지 시스템과 에지 AI 스위트 소프트웨어 및 오픈 에지 플랫폼은 이미 에지에 널리 도입된 인텔의 기술을 기반으로 구축되어, 이러한 문제를 해결하고 생태계가 에지 AI를 더 빠르고 효율적으로 시장에 출시할 수 있도록 지원한다. 인텔은 개방형 에지 접근 방식을 통해 다양한 주요 산업 분야에서 더 나은 엔드 투 엔드 성능과 전반적인 TCO를 일관되게 제공할 수 있다는 점을 내세운다. 에지 AI 영상 분석 사용 사례의 경우, 초당 테라연산(TOPs)만으로는 실제 성능 요구 사항을 충족하기 어렵다. 인텔은 “주요 AI 경쟁 제품과 인텔 코어 울트라 프로세서를 비교하면, 경쟁 제품이 TOP에서 앞설 수 있으나 인텔이 엔드 투 엔드 파이프라인 성능에서 최대 2.3배, 달러 당 성능은 최대 5배 더 우수하다”고 주장했다. 현재 많은 에지 환경에서 기존 머신러닝과 컴퓨터 비전을 활용하여 AI를 도입하고 있는데, 인텔 AI 에지 시스템, 에지 AI 스위트, 오픈 에지 플랫폼은 고급 AI 애플리케이션의 배포를 가속화하도록 설계되었다. 인텔은 신뢰할 수 있는 파트너들로 구성된 생태계를 통해 기업이 산업 별로 다양한 과제를 해결하고, 에지 AI 배포에서 혁신을 촉진할 수 있도록 지원한다고 밝혔다. 인텔의 에지 시스템은 에지에서 AI 배포 속도를 높인다. OEM(주문자 상표 부착 생산) 및 ODM(제조자 개발 생산)를 포함한 제조업체는 에지 AI 활용 사례에 최적화된 표준화된 청사진, 벤치마크, 검증 툴을 활용할 수 있다. 이러한 리소스를 통해 고객과 설루션 제공업체는 비전 또는 생성형 AI 성능 요구사항을 충족하는 시스템을 쉽게 구성할 수 있다. 또한, 다양한 전력 수준, 크기 및 성능 옵션을 갖춘 이러한 설루션은 하드웨어와 소프트웨어의 최적의 통합을 보장한다. 에지 AI 스위트는 독립 소프트웨어 벤더(ISV), 시스템 통합업체(SI), 설루션 개발자를 위해 설계된 개방형 산업별 AI 소프트웨어 개발 키트(SDK)이다. 이 스위트는 레퍼런스 애플리케이션, 샘플 코드, 벤치마크를 제공하여 AI 애플리케이션 개발을 신속하게 시작할 수 있도록 지원하며, 다양한 산업을 위한 맞춤형 AI 설루션을 쉽게 만들 수 있도록 한다. 인텔은 현재 유통, 제조, 스마트 시티, 미디어 및 엔터테인먼트 분야에 최적화된 네 개 스위트를 제공하고 있다. 오픈 에지 플랫폼은 모듈형 오픈소스 플랫폼으로, 클라우드처럼 간편하게 에지 및 AI 애플리케이션을 대규모로 개발, 배포 및 관리할 수 있도록 지원한다. 이 플랫폼을 통해 ISV, 설루션 빌더, 운영체제 공급업체는 소프트웨어 구성 요소를 더욱 효율적으로 통합하고, 인텔의 최신 소프트웨어 최적화를 통해 성능을 극대화할 수 있다. 또한, 파트너는 현장을 방문할 필요 없이 원격 에지 디바이스에서 컨테이너화 된 워크로드를 쉽게 배포할 수 있으고, 인텔 vPro/인텔 액티브 관리 기술과 같은 툴로 배포된 시스템을 관리할 수 있으며, 소프트웨어 생태계 전반적으로 협업을 강화하고 혁신을 가속화한다. 인텔의 에지 컴퓨팅 그룹을 총괄하는 댄 로드리게즈(Dan Rodriguez) 부사장은 “고객은 TCO(총소유비용), 전력 및 성능 목표를 달성할 수 있는 방식으로 기존 인프라와 에지 워크플로에서 AI 사용을 확대하고 싶어 한다”면서, “에지 컴퓨팅 분야에서 쌓은 수십 년의 경험을 바탕으로 인텔은 인텔 AI 에지 시스템, AI 스위트 및 오픈 에지 소프트웨어를 통해 에지 AI 제품 및 지원을 한 단계 더 발전시켜, 광범위한 에코시스템이 AI 지원 설루션을 더 빠르게 제공할 수 있도록 지원하고 있다”고 밝혔다.
작성일 : 2025-03-20
퓨어스토리지, AI·HPC 위한 데이터 스토리지 플랫폼 ‘플래시블레이드//EXA’ 공개
퓨어스토리지가 AI 및 고성능 컴퓨팅(HPC)의 까다로운 요구사항을 충족하도록 설계된 고성능의 데이터 스토리지 플랫폼인 플래시블레이드//EXA(FlashBlade//EXA)를 공개했다.  2025년 여름 출시 예정인 플래시블레이드//EXA는 플래시블레이드를 기반으로 한 아키텍처를 통해 메타데이터 병목현상을 극복하며, 대규모 AI 및 HPC 워크로드에서 흔히 발생하는 높은 동시성과 방대한 메타데이터 작업을 처리할 수 있도록 설계됐다. 퓨어스토리지는 플래시블레이드//EXA의 초기 테스트 결과 단일 네임스페이스에서 초당 10테라바이트 이상의 읽기 성능을 제공할 것으로 예상했다. 플래시블레이드//EXA 아키텍처는 데이터와 메타데이터를 독립적으로 확장할 수 있으며, 상용 서드파티 데이터 노드를 활용해 높은 확장성을 제공하고 다차원적인 성능을 지원한다. 또한 표준 프로토콜과 네트워킹을 통해 배포, 관리 및 확장을 단순화하여 복잡성을 줄였다.     더 강력해진 GPU는 AI 모델 학습의 속도와 규모를 증가시켰다. 모델의 크기와 복잡성이 크게 성장함에 따라, 스토리지 설루션도 AI 및 HPC의 연산 강도, 데이터의 양과 다양성에 원활히 대응해야 하는 새로운 패러다임 전환이 요구되고 있다. 퓨어스토리지는 “대규모 AI 및 HPC 환경에서 기존 시스템은 병렬 및 동시 읽기/쓰기, 메타데이터 성능, 초저지연, 비동기 체크포인팅, 예측 가능한 고처리량 등에서 한계를 드러낸다”면서, “현대적인 스토리지 설루션은 대규모 확장성을 제공하는 대규모 병렬 분산 아키텍처를 통해 유연성을 제공해야 하며, 이를 통해 스토리지가 AI의 발전 속도를 가속화할 수 있도록 해야 한다”고 전했다. 오늘날의 AI 워크로드는 텍스트, 이미지, 비디오 등 다양한 데이터를 포함한 복잡하고 멀티 모달 형태로, 수만 개의 GPU가 이를 동시에 처리하는 환경에서 작동한다. 이러한 급격한 변화는 다양한 데이터 유형과 높은 동시성을 효율적으로 관리하기 위해 방대한 성능 확장과 함께 고도화된 메타데이터 최적화를 요구한다. 플래시블레이드//EXA는 AI 워크로드의 과제를 해결하기 위해 설계된 설루션으로, 높은 성능과 메타데이터 관리 기능을 제공하는 데에 초점을 맞추었다는 것이 퓨어스토리지의 설명이다.   AI 및 HPC 환경에 적합한 스토리지를 지향하는 플래시블레이드//EXA의 주요 기능으로는 ▲높은 확장 성능 제공 ▲관리 복잡성 감소 ▲AI 혁신 가속화 등이 있다. 퓨어스토리지의 메타데이터 기능을 활용하면 AI 파이프라인 효율을 높이고 학습 및 추론 워크플로에서 지연을 줄일 수 있다. 플래시블레이드//EXA는 메타데이터 병목현상을 제거하고 대규모 AI 데이터셋을 수동 조정이나 추가 구성 없이 처리할 수 있도록 높은 메타데이터 성능, 가용성, 복원력을 제공한다. 또한, 구성 가능하고 분산된 아키텍처를 통해 진화하는 AI 및 HPC 환경을 지원하며, 업계 표준 프로토콜을 활용해 유연성과 확장성을 높인다. 이와 함께 고속 엔비디아 커넥트X NIC, 스펙트럼 스위치, 링크X 케이블, 그리고 가속화된 통신 라이브러리를 통합하여 제공한다. 퓨어스토리지의 마크 조빈스(Mark Jobbins) 아시아 태평양 및 일본 지역 부사장 겸 CTO는 “한국은 AI 도입을 선도하는 국가이며, AI 및 HPC 분야에서 많은 흥미로운 활용 사례를 보여주고 있다. 플래시블레이드//EXA는 대규모 AI 및 HPC 프로젝트를 수행하면서 기존 스토리지 시스템의 메타데이터 및 성능 병목 현상에 직면했던 조직에게 완벽한 설루션”이라고 전했다.  퓨어스토리지의 롭 리(Rob Lee) 최고기술책임자(CTO)는 “플래시블레이드//EXA는 데이터와 메타데이터를 독립적으로 확장할 수 있는 대규모 병렬 아키텍처를 통해 세계에서 가장 크고 까다로운 데이터 환경에서도 타의 추종을 불허하는 성능, 확장성, 적응성을 고객에게 제공한다. 스토리지는 이제 대규모 HPC와 AI 진화의 속도를 가속화하는 역할을 하고 있다”고 강조했다.
작성일 : 2025-03-12
크레오 파라메트릭에서 파이핑 생성하기 Ⅰ
제품 개발 혁신을 가속화하는 크레오 파라메트릭 11.0 (10)   크레오 파이핑 및 케이블링 익스텐션(Creo Piping and Cabling Extension : PCX)은 다양한 종류의 산업과 유형의 파이핑 및 케이블링을 지원하여 전체 설계 프로세스를 간소화하고 가속화하는 크레오의 모듈이다. 이번 호에서는 크레오 파이핑에 대해 알아보자.   ■ 김주현 디지테크 기술지원팀의 차장으로 크레오 전 제품의 기술지원 및 교육을 담당하고 있다. 홈페이지 | www.digiteki.com   크레오 파이핑은 라이브러리를 이용하는 사양 설계(Spec_driven)와 비 사양 설계(Non_Spec_driven)로 나눌 수 있다. 이번 호에서는 비 사양으로 파이핑을 생성한다. 비 사양 파이핑은 직선이거나 유연한 파이프 세그먼트 세트로 정의하며, 파이핑 시스템은 일반적으로 파이프 세그먼트의 비브랜치 체인으로 구성된 여러 파이프라인을 갖는다. 필요한 파이프라인을 미리 지정한 다음 라우팅에 필요한 파이프라인을 선택하면 된다. 파이핑은 파이프라인을 어셈블리 피처로 어셈블리에 저장하며, 현재 단순화 표현의 컴포넌트를 참조하여 서브 어셈블리에 파이프라인의 경로를 설정하고 수정할 수 있다. 어셈블리 모드에서 사용 가능한 동일한 기능으로 서브 어셈블리를 생성하고 삭제할 수 있다. 파이핑 시스템을 정의하려면 라인 스톡, 파이프라인 매개 변수, 사용 가능한 배관 유형, 코너 유형 등과 같은 특징을 지정해야 한다.  라인 스톡 : 재료, 바깥 지름, 배관 유형, 코너 유형 및 기타 파이프 매개 변수를 정의한다. 라이브러리에 저장하기 위해 라인 스톡 매개 변수를 파일에 기록할 수 있다.  파이프라인 매개변수 : 라인마다 파이프 이름, 통과되는 액체나 기체 유형, 진행 방향과 압력과 같은 사용자정의 매개 변수 등을 정의할 수 있다. 배관 유형 : 파이프 세그먼트의 배관 유형은 다양하다. 직선(강체), 유연, 또는 대체 직선과 유연 세그먼트로 구성될 수 있다. 일반적으로 피팅을 그대로 두거나 격벽을 통과하는 경우와 같이 호스 경로를 설정하고 짧은 단면의 탄젠트를 제어해야 할 경우에만 대체 세그먼트를 사용하기도 한다.  코너 피팅 : 코너는 맞추거나 사접하거나 벤드할 수 있다. 그러면 지금부터 크레오 11.0에서 비사용 파이핑을 생성해보자.어셈블리 파일을 열어 파이핑을 연결하고자 하는 시작과 끝을 각각 확인한다.이번 호에서는 다음의 그림과 같이 두 부분에 시작과 끝을 정해 파이핑을 생성하고자 한다.     먼저 부품을 열어 시작과 끝지점에 좌표계 및 기준 점을 생성한다. 왼쪽 부품인 exchanger.prt를 열어 좌표계를 생성한다.  원점 탭에서 축과 평면으로 원점을 선택하고, 방향 탭으로 이동 후 X, Y, Z 축을 설정한다.     이 방법으로 아래쪽도 그림과 같이 좌표계를 모두 생성한다. 좌표의 이름도 각각 변경한다. 좌표의 이름은 추후 도면에 표시할 것이기 때문에, 알기 쉽게 이름을 지정한다.      다음 파이프라인으로 연결하고자 하는 부분에 기준점을 생성한다. 각 부품에 기준점을 만들고, 파이핑 생성 시 기준점들을 연결하여 파이프라인을 생성하게 된다. 그렇기 때문에 파이프라인을 생성하고자 하는 곳에 기준점을 생성해야 한다. 기준점은 앞에서 만든 좌표계를 기준으로 점을 생성하기 위해 오프셋 좌표계로 생성한다.      EXCHANGER_END 좌표를 참조로 설정한 후, 그림과 같이 세 개의 점을 생성한다.     작업을 모두 마친 후 아래 파이프 연결 부분인 EXCHANGER_ STRAT도 오프셋 좌표계를 통해 점을 생성한다.       ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2025-03-06
멘딕스 10.18 : 소프트웨어 개발 라이프사이클에 로코드와 AI 결합
개발 및 공급 : 멘딕스 주요 특징 : 생성형 AI 인스턴스 생성 및 AI 애플리케이션 개발을 돕는 생성형 AI 리소스 팩 도입, 디지털 혁신을 지원하는 새로운 통합 툴 제공, 스마트 개발을 위한 생성형 AI 기반 서비스 세트 업데이트 등     지멘스의 자회사인 멘딕스는 멘딕스 10.18(Mendix 10.18) 버전을 공식 출시한다고 밝혔다. 최신 릴리스는 보다 쉽게 소프트웨어 개발에 활용할 수 있는 새로운 기능과 성능 업그레이드 및 AI 기반 개선사항 등을 포함하고 있다. 멘딕스 10.18은 로코드(low-code)와 AI 성능을 결합하여 기업에 다음과 같은 기능을 제공한다. 소프트웨어 개발 라이프사이클(SDLC : Software Development Lifecycle) 전반에 걸쳐 AI 기반 지원 기능 제공 온보딩 및 소프트웨어 개발 경험을 간소화하여, 보다 빠르고 뛰어난 생산성 제공 생성형 AI(GenAI) 출력 및 환경에 대한 접근성, 가시성, 거버넌스 개선 플랫폼에 내장된 마이아(Maia : Mendix Artificial Intelligence Assistance)에 대한 추가 업데이트를 통해 보다 스마트한 개발 작업과 보다 용이한 스마트 앱의 빌드 및 배포 지원 이번 업데이트는 세 가지 주요 영역에 대한 새로운 기능과 개선사항이 추가되면서, 지속적으로 혁신 비전을 실현하고자 하는 멘딕스의 의지를 나타낸다.    아이디어를 영향력 있는 설루션으로 전환할 수 있도록 AI 혁신 역량 강화 멘딕스10.18에 새롭게 개선된 생성형 AI 기능이 도입되면서, 기업들은 스마트 앱을 위한 유연성과 속도, 거버넌스를 비롯해 더욱 다채로운 사용자 경험과 스마트 애플리케이션을 보다 용이하게 제공할 수 있게 되었다. 또한, 멘딕스는 10.18 버전에서 제한적으로 제공되는 멘딕스 클라우드 생성형 AI 리소스 팩(Mendix Cloud GenAI Resource Pack)을 도입하여, 생성형 AI 기술을 실험하거나 사용자를 위한 지능형 애플리케이션을 개발하고자 하는 기업들의 진입 장벽을 낮췄다. 이 번들에는 다음과 같은 두 가지 팩이 포함되어 있다. 멘딕스 클라우드 모델 리소스 팩 : 사용자가 플랫폼 내에서 생성형 AI 인스턴스를 신속하게 생성하고, 자체 하이퍼스케일러 환경을 설정하는데 따르는 조직적 차원의 장애물을 제거할 수 있도록 지원 멘딕스 클라우드 지식 기반 리소스 팩 : 사용자가 멘딕스 플랫폼 내에서 회사 자체 데이터에 기반한 생성형 AI 모델을 바탕으로 상황인식 기능을 개선하고, 보다 정확한 응답을 제공할 수 있도록 지원 생성형 AI 리소스 팩은 사용자가 소비한 토큰(token) 모니터링을 통해 개별 앱이나 포트폴리오 전반에 걸쳐 일일, 주간, 월간 또는 지정된 기간별로 사용량을 추적함으로써, 생성형 AI 소비 규모에 대한 가시성을 제공한다. 이외에도, 멘딕스 10.18은 멘딕스 플랫폼 내에서 데이터 과학 및 애플리케이션 개발 협업을 촉진하는 새로운 프롬프트 관리 기능을 플랫폼 내에 도입했다. 새롭게 추가된 프롬프트 관리 기능은 실험 프로세스를 간소화하고 가속화할 수 있도록 설계되었다. 사용자는 프롬프트를 손쉽게 전환하여 유효성을 테스트하고, 가장 정확하고 관련성이 높은 원하는 결과를 도출할 수 있다. 또한, 트랜잭션당 토큰 사용량을 추정할 수 있어 기업이 특정 적용 사례의 비즈니스 가치 창출 여부를 판단하는 데 도움을 준다.   지능형 AI 기반 개발 지원으로 성공 가속화 멘딕스 10.18에는 로코드에 익숙하지 않은 기업이 디지털 혁신을 보다 효과적으로 수행할 수 있도록 콤파스(Compass)라는 새로운 통합 툴을 도입했다. 이 툴은 디지털 프로세스의 다양한 측면을 가이드하고, 멘딕스의 엔터프라이즈급 로코드 개발 플랫폼에 대한 전문가 온보딩을 제공한다. 또한, 스마트 개발을 위해 구축된 생성형 AI 기반 서비스 세트인 마이아에 대한 추가 업데이트도 지원된다. 멘딕스 개발자를 위한 가이드, 지원, 생성 기능을 제공하는 마이아는 다음과 같은 확장 기능이 추가되었다.  자연어 프롬프트를 사용하여 새로운 도메인 모델을 정의하거나, 기존 도메인 모델을 확장할 수 있도록 도메인 모델 생성 지원 멘딕스를 처음 접하는 개발자를 위해 마이아 챗(Maia Chat)에서 탐색 가능한 학습 자료 제공 페이지에 위젯 추가 프로세스를 간소화하고 가속화하는 UI 추천기(UI Recommender) 제공 이외에도, 멘딕스 10.18 버전에 추가된 새로운 개발자 환경 개선사항은 다음과 같다. 언어 감지 및 응답 기능을 통해 사용자가 자신의 모국어로 마이아 챗과 소통할 수 있도록 다국어 지원 강화 기본적으로 영어로 구현된 멘딕스 통합개발환경(Mendix IDE)에 대한 독일어, 일본어, 한국어, 중국어 버전 제공 멘딕스 애플리케이션의 보안 검토 프로세스를 간소화할 수 있도록 설계된 새로운 보안 개요(Security Overview) 지원 재설계된 피드백 모듈(App Insights Feedback Module)을 통해 사용자 통찰력으로 개발 방향을 가이드할 수 있도록 지원. 맞춤형 UX 스타일링으로 피드백 경험을 브랜드와 일치하도록 조정 가능   엔터프라이즈 소프트웨어 개발 라이프사이클 전반에 걸쳐 AI 모범사례에 대한 제어 및 가시성 강화 멘딕스는 소프트웨어 개발 라이프사이클 전반에 걸쳐 거버넌스와 가시성을 개선할 수 있도록 지원하는데 주력하고 있다. 멘딕스 10.18은 생성형 AI를 보다 스마트하고 안전하며 비용 효율적으로 구축하는데 중점을 두었다. 고객들은 새로운 멘딕스 클라우드 생성형 AI 리소스 팩을 이용해 보다 손쉽게 생성형 AI를 구축할 수 있다. 사용자는 플랫폼 내에서 제공되는 지식 기반 및 통합 정보검색 기반 생성(RAG : Retrieval-Augmented Generation) 기능을 통해 자체 데이터 기반의 생성형 AI 모델을 손쉽게 구현할 수 있다. 또한, 10.18은 생성형 AI 애플리케이션을 보호하기 위한 콘텐츠 필터 기능도 도입했다. 맞춤형 필터는 문제가 되는 콘텐츠를 감지하여 일관되고, 안전하게, 책임감 있는 AI 환경을 대규모로 촉진할 수 있는 툴을 기업에게 제공함으로써, 유해한 콘텐츠를 최소화하고 편향, 혐오, 욕설 등과 같은 민감한 주제를 해결할 수 있도록 지원한다. 이러한 기능은 일부 기업이 규제 및 콘텐츠 관리 문제로 인해 생성형 AI 사용을 꺼리고 있다는 업계의 우려가 확산하는 가운데 도입된 것이다. 이외에도, 멘딕스는 배포 자동화 툴인 파이프라인(Pipelines)에 AI와 새로운 JIRA를 통합하여 멘딕스 모범 사례와 애플리케이션 모델을 비교함으로써 애플리케이션의 품질을 보장하고, 개발자의 생산성을 높일 수 있도록 지원한다. 데이터스케일HR(datascalehr)의 엔지니어링 담당 책임자인 루크 자와즈키(Luke Zawadzki)는 “멘딕스는 새로운 기능이나 동작을 신속하게 프로토타이핑할 수 있도록 지원한다. 이러한 기능을 통해 프로세스 초기에 실제로 동작 가능한 기능을 테스트하고 문제를 발견하거나, 이를 조기에 조정할 수 있다”고 말했다. 데이터스케일HR은 멘딕스와 함께 AI 기반 급여 플랫폼을 제공하는 비즈니스 서비스 조직이다. 멘딕스의 한스 드 비저(Hans de Visser) 최고제품책임자(CPO)는 “10.18 버전은 생성형 AI와 비즈니스 모범사례가 끊임없이 진화하는 중요한 시기에 출시되었다. 우리는 플랫폼 전반에 걸쳐 고객에게 유의미한 생성형 AI 서비스를 제공하는데 중점을 두고 있다”면서, “이번에 제공되는 모든 업데이트는 AI 기능에 대한 접근성을 민주화하고, 사용자들이 성공에 필요한 툴을 갖추는데 직접적인 영향을 미치게 될 것이다. 멘딕스는 지속적으로 서비스 포트폴리오를 발전시킴으로써 애플리케이션 레벨에서 플랫폼 레벨로 거버넌스를 강화할 것”이라고 밝혔다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-03-06
유니티, 글로벌 개발자 콘퍼런스 ‘유나이트 서울 2025’ 4월 개최
유니티가 오는 4월 15일 서울 코엑스 그랜드볼룸과 아셈볼룸에서 ‘유나이트 서울 2025’를 개최한다고 밝혔다. ‘유나이트’는 전 세계를 순회하며 열리는 유니티의 대표적인 글로벌 개발자 콘퍼런스이다. 올해는 ‘크리에이트 투데이, 그로우 투모로우(Create Today, Grow Tomorrow)’라는 슬로건으로 진행된다. 이번 ‘유나이트 서울 2025’는 유니티 글로벌 전문가들이 선보이는 유니티 엔진 로드맵과 최신 기능, 다양한 분야를 아우르는 30여 개의 기술 세션 등 다양한 프로그램을 선보일 예정이다.     이번 ‘유나이트 서울 2025’에서 눈 여겨 볼 점은 ‘유나이트 서울X인디 프로젝트’ 프로그램이다. 인디 게임 크리에이터가 주도적으로 참여할 수 있는 특별 프로그램으로, 유니티를 기반으로 직접 개발한 프로젝트에 대한 스피치 및 현장 쇼케이스 기회를 제공한다. 유니티는 이 프로그램을 통해 다양한 상생 모델을 선보이는 한편, 인디 게임 크리에이터가 유저, 전문가와 더 가까이 소통하고 인사이트를 나눌 수 있도록 적극 지원하겠다는 계획이다. 특히, 이 쇼케이스에서 선호도 1위를 차지한 개발자에게는 상금과 향후 ‘유니티 어워드’ 후보 지명 및 유니티 전문가가 직접 프로젝트 개발을 도와주는 특별 프로그램에 선발될 수 있는 기회를 제공한다. ‘유나이트 서울X인디 프로젝트’는 2월 27일까지 지원 가능하다. 유니티 기반으로 개발되어 주목받고 있는 프로젝트의 포스트모템과 최신 유니티 엔진을 활용한 기능 소개 세션도 진행된다. 먼저, 오디세이어 개발 팀이 소울라이크 게임 ‘벨라스터’의 개발기를 공유한다. ‘벨라스터’는 3D 횡스크롤 액션 전투 게임으로, 소규모 개발 팀이 유니티 엔진을 효과적으로 활용하여 개발을 진행한 경험과 방법을 소개한다. MOBA 로그라이크라는 독창적인 장르를 개척한 인디 게임 개발 팀 ‘리자드 스무디’의 심은섭 대표도 연사로 나선다. ‘리자드 스무디’의 대표 프로젝트인 ‘셰이프 오브 드림’의 효율적인 개발을 위해 활용한 AI, 유니티 게이밍 서비스, 멀티플레이 관련 내용 등을 소개할 예정이다. 또한 컴투스의 오민선 그래픽스 및 엔진 프로그래머, 김진홍 테크니컬 아티스트가 유니티 6의 ‘렌더 그래프(Render Graph)’를 활용한 SSAO 커스텀 사례와 ‘유니티 렌더 파이프라인 커스텀 섀도 설루션(URP Custom Shadow Solution)’ 개발 과정을 소개하며, 이를 프로젝트에 효과적으로 적용하는 방법에 대해 설명할 예정이다. 이와 더불어, 혁신적인 프로젝트 개발 및 제작 경험을 보유한 유니티 전문가들이 시각적 효과를 극대화하는 핵심 기술과 노하우를 공유하는 세션도 진행된다. 유니티의 게리 보일(Gary Boyle) 파트너 엔지니어링 매니저는 ‘유니티의 VFX : 모범 사례’라는 주제의 세션에서 유니티의 파티클 시스템인 ‘VFX 그래프’의 활용 사례와 기능 향상 가이드를 선보일 예정이다. 또한, 유니티의 다카하시 케이지로(Keijiro Takahashi) 시니어 애드버킷은 ‘성공적인 유니티 아트 프로젝트를 위한 6가지 강력한 패키지’ 세션을 통해 창의적인 프로세스를 향상시키는 데 유용한 6가지 필수 패키지와 주요 기능을 소개한다. 실제 활용 사례를 기반으로, 이러한 도구들이 프로젝트에서 더 나은 결과를 달성하는 데 어떻게 기여할 수 있는지에 대한 통찰력을 제공할 예정이다. 유니티 코리아의 송민석 대표이사는 “유니티는 크리에이터들의 자유로운 창작을 돕는 파트너이자 지식과 영감을 나눌 수 있는 커뮤니티”라면서, “유니티로 연결된 수많은 분들과 함께 발전적인 인사이트를 나눌 수 있는 자리를 통해 앞으로도 더욱 많은 게임이 성공을 거둘 수 있도록 적극 지원하겠다”고 말했다.
작성일 : 2025-02-06
스노우플레이크, 앱 성성 도구에서 딥시크-R1 프리뷰 지원
스노우플레이크가 자사의 생성형 AI 기반 애플리케이션 생성 도구인 ‘코텍스 AI(Cortex AI)’에서 ‘딥시크-R1(DeepSeek-R1)’ 모델을 지원한다고 밝혔다. 딥시크-R1은 지도학습(SFT) 없이 대규모 강화학습(RL)만으로 훈련된 오픈소스 모델로 자체검증, 스스로 답을 찾는 추론하는 사고체계(CoT), 추론 생성 등이 가능하다. 딥시크-R1은 스노우플레이크 코텍스 AI를 통해 서버리스 추론에 사용할 수 있는 비공개 프리뷰 형태로 제공된다. 배치(SQL 함수)와 대화형(파이썬 및 REST API) 모두를 통해 액세스할 수 있어 기존 데이터 파이프라인, 애플리케이션 및 통합 개발 환경(IDE)에 통합된다. 코텍스 AI는 고객이 코텍스 가드(Cortex Guard)를 활성화할 수 있도록 해 잠재적으로 유해한 콘텐츠를 필터링하고, 고객이 생성형 AI 애플리케이션을 대규모로 안전하게 배포할 수 있도록 한다. 스노우플레이크는 모델이 안전한 서비스 범위 내에서만 작동하고 고객 데이터가 모델 제공자와 공유되지 않도록 보장한다고 소개했다. 또한, 모델이 정식 출시되면 고객은 역할 기반 액세스 제어(RBAC)를 통해 딥시크-R1에 대한 접근을 설정해 거버넌스를 관리할 수 있다고 덧붙였다. 현재 미국 내 고객의 스노우플레이크 계정에서 사용할 수 있다. 스노우플레이크 코텍스 AI는 대규모 언어 모델(LLM) 추론, 파인튜닝, 검색 기반 생성(RAG) 기능을 포함한 종합 툴 세트를 제공하고 있다. 이를 통해 정형 및 비정형 데이터를 함께 분석하고 AI 기반 애플리케이션을 쉽게 구축할 수 있다. 메타, 미스트랄, 스노우플레이크를 포함한 주요 오픈소스 및 폐쇄형 LLM 모두 지원함으로써 간편하게 AI를 통합할 수 있게 한다. 스노우플레이크 AI 연구팀은 “딥시크-R1의 추론 비용을 추가로 절감해 고객에게 더 큰 비용 대비 성능 효율성을 제공할 계획”이라면서, “딥시크-R1을 통해 기업은 최첨단 AI 기술을 기반으로 한 생성형 AI 애플리케이션을 보다 빠르게 제공함으로써 생태계에서 혁신의 새로운 표준을 제시하게 될 것”이라고 말했다.
작성일 : 2025-02-05
[온에어] 2024 생성형 AI 트렌드 결산과 2025 전망
캐드앤그래픽스 CNG TV 지식방송 지상 중계   2024년 12월 23일, CNG TV는 ‘2024 생성형 AI 트렌드 결산과 2025 전망’을 주제로 줌 생방송을 진행했다. 2024년은 생성형 AI가 다양한 산업에서 혁신을 이끌어낸 해로 기억될 것이다. 이번 CNG TV에서는 생성형 AI에 대한 대중적 관심과 사회적 주목이 뜨거웠던 2024년을 정리하고, 2025년 새해에는 어떤 변화가 있을지 전망하는 시간을 가졌다. 자세한 내용은 다시보기를 통해 확인할 수 있다. ■ 박경수 기자    ▲ AI가 주도하는 기술 혁신에 대한 소개   2024년을 주도한 키워드 ‘생성형 AI’ 이날 웨비나에서 LG CNS의 안무정 박사는 “2024년은 생성형 AI가 다양한 산업에서 혁신을 주도한 해였다”고 언급하며, “텍스트, 코드, 이미지, 오디오, 비디오, 3D 모델링 등 여섯 가지 주요 기능에서 생성형 AI의 활용성이 여러 분야로 크게 확장되었다”고 설명했다. 그는 또한 “AI 기술 도입과 관련해 신뢰성, 속도, 창의성 등의 다양한 지표를 기반으로 비용을 평가해야 할 시점이 되었다”고 강조했다. 안 박사는 생성형 AI를 비즈니스 프로세스에 통합하려면 맞춤형 솔루션과 AI 파이프라인 구축이 필수라고 분석했다. 예를 들어, 텍스트 데이터는 지식 기반으로 정제하고 이미지 데이터는 시각적 자산으로 활용하여 제품 설계와 같은 과정에 도움을 줄 수 있다는 설명이다.안무정 박사는 또한, 기업에서는 데이터 보안과 지적 재산권 보호를 위해 폐쇄형 네트워크 모델의 중요성이 점점 커지고 있다고 덧붙였다. 글로벌 AI 모델 대신 도메인 특화형 모델이 기업에 더 적합하다는 평가가 제시되었고, 에지 모델과 같은 솔루션을 도입하여 실제로 의미 있는 성과를 내고 있는 LG전자의 사례도 소개되었다.   ▲ 생성형 AI는 비싼가?   2025년 AI 활용도는 더욱 높아질 전망 안무정 박사는 “비주얼 디자인, 음악, 소설과 같은 창의적 작업에서도 생성형 AI가 전문가와의 협업을 통해 혁신적인 결과물을 만들어내고 있다”며, “앞으로는 기후변화와 같은 글로벌 도전 과제 해결에도 생성형 AI가 중요한 역할을 할 가능성이 크다”고 짚었다. 그는 AI를 활용한 자동화와 생산성 증대가 산업 전반에 걸쳐 혁신적인 성과를 가져올 것이라고 전망하며, “코딩과 알고리즘의 진입 장벽이 AI로 인해 낮아지면서 더 많은 사람이 AI 기술에 쉽게 접근할 수 있을 것”이라고 설명했다. 2025년에는 AI가 멀티모달 기반으로 확장되며, 다양한 산업 분야에서 더욱 활발하게 활용될 것으로 보인다. 이는 단순히 기술 적용을 넘어, 각 산업 분야에서의 비즈니스 혁신과 글로벌 문제 해결에도 적극적이면서 강력한 도구로 자리 잡을 것으로 기대된다.    ▲ 사용자 목적에 따른 생성형 AI의 활용 방안 제안     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-02-04
몬드리안AI, 반도체 제조 혁신을 선도할 AI 자율제조 시스템 개발 착수
    몬드리안AI(몬드리안에이아이)가 산업통상자원부가 추진하는 ‘반도체 소자용 CMP 부품의 AI 자율제조 기반 생산공정 및 시스템 개발’ 사업의 착수보고회를 성공적으로 마치고 반도체 제조 혁신을 선도할 AI 자율제조 시스템 개발에 본격 착수한다고 밝혔다. 지난 1월 17일 인천 송도에 위치한 신한다이아몬드공업 송도 R&BD 센터에서 개최된 사업 착수보고회는 사업의 추진 방향성을 점검하고 연구개발(R&D)의 구체적인 계획을 논의하는 자리로, 몬드리안AI를 포함한 주요 참여 기관들이 참석해 열띤 논의를 펼쳤다. ‘반도체 소자용 CMP 부품의 AI 자율제조 기반 생산공정 및 시스템 개발’ 사업은 CMP (화학기계적 연마) 디스크의 제조 공정을 AI 자율제조 시스템으로 자동화하고 최적화하는 것을 목표로 하고 있다. 이를 통해 생산 효율성과 품질 안정성을 획기적으로 향상시켜, 반도체 제조 공정의 새로운 패러다임을 제시할 것으로 기대된다. 몬드리안AI는 이번 사업에서 MLOps (머신러닝 운영) 및 통합 시스템 구축이라는 핵심 과제를 담당하며, AI 기반 제조 혁신의 중심에서 주도적인 역할을 맡았다. 착수보고회에서 몬드리안AI는 MLOps 설계와 데이터 파이프라인 구축 계획을 발표하며 업계 관계자들의 주목을 받았다. 몬드리안AI가 수행할 주요 과업은 다음과 같다. △ 1단계 1차년도: MLOps 및 통합 시스템 설계 - AI 자율제조 모델 운영을 위한 인프라 및 MLOps 시스템 설계 - AI 모델 저장 및 관리 기능 개발 △ 1단계 2차년도: 데이터 파이프라인 구축 - 모델 운영 인프라 구축 - 컨테이너 기반 모델 관리 및 배포 시스템 개발 착수보고회에서는 참여 기관별 1단계 목표와 세부 개발 계획을 공유하며, 성공적인 연구 성과 달성을 위한 협력 방안을 심도 있게 논의했다. 특히 몬드리안AI의 기술력이 이번 프로젝트의 핵심 동력으로 자리 잡으며, 연구진들의 의지를 더욱 고취시켰다. 행사 측은 이번 사업은 반도체 제조 분야에 AI 기술을 접목한 새로운 제조 공정 솔루션을 제시하는 전환점이 될 것이라며, 이를 통해 한국 반도체 산업의 글로벌 경쟁력을 강화하고, AI 기반 제조 혁신의 선도적 모델을 구축할 수 있을 것이라고 밝혔다. 몬드리안AI는 ‘데이터 기술을 통해 인류의 도전 과제를 해결한다’는 미션 아래 이번 사업을 성공적으로 이끌며 대한민국 반도체 산업의 미래를 여는 데 앞장설 계획이다.  
작성일 : 2025-02-01