• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " GPT"에 대한 통합 검색 내용이 96개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
퓨리오사AI, OpenAI 손잡고 ‘AI 반도체 기술력’ 입증
 OpenAI 코리아 개소식 행사장에 배치된 RNGD 서버와 시연용 워크스테이션[사진=퓨리오사AI]   퓨리오사AI가 9월 12일 열린 OpenAI 코리아 개소식에서 자사의 기술력을 선보이며 AI 업계의 주목을 받았다. 이번 행사에서 퓨리오사AI는 자사 2세대 반도체 'RNGD' 2장만으로 오픈AI의 대규모 언어 모델 'gpt-oss 120B' 기반 챗봇을 실시간으로 구동하는 시연을 진행했다. 이번 시연은 퓨리오사AI가 글로벌 AI 인프라 시장에서 중요한 역할을 할 수 있는 잠재력을 증명하는 계기가 됐다. 오픈AI가 공개한 최고 수준의 오픈 소스 기반 모델인 GPT-oss 120B는 MoE(Mixture-of-Experts) 구조를 적용하여 성능과 효율성을 동시에 갖췄다고 평가받는다. 퓨리오사AI의 RNGD는 이러한 초거대 언어 모델을 기존보다 훨씬 효율적인 전력으로 구동할 수 있어, 고질적인 인공지능의 전력 및 비용 문제를 해결할 수 있다는 점에서 큰 의미를 가진다. 퓨리오사AI의 백준호 대표는 “'AGI(범용인공지능)가 인류 전체에 이롭도록 한다'는 OpenAI의 미션과 'AI를 지속 가능하고 접근 가능하게 한다'는 퓨리오사의 미션은 서로 통한다"며, "RNGD와 GPT-oss의 결합은 전 세계 오픈 소스 기반 AI 생태계를 더욱 빠르게 확산시킬 것"이라고 말했다. 이번 시연을 통해 퓨리오사AI는 초거대 AI 모델 구동에 최적화된 하드웨어 솔루션을 제공하며, AI 기술 대중화에 기여할 것으로 기대된다.    
작성일 : 2025-09-13
레노버-솔트룩스, 차세대 AI 인프라 전략 및 LLM 기반 AI 설루션 소개
레노버 글로벌 테크놀로지 코리아(ISG)는 9월 11일 AI 전문기업 솔트룩스와 함께 ‘Lenovo Tech Day - Smarter HPC for All’ 세미나를 개최했다. 이번 행사에서는 레노버의 차세대 인프라스트럭처 전략과 솔트룩스의 대규모 언어 모델(LLM) 기반 AI 설루션인 루시아 GPT(Luxia GPT)가 소개되어, 고성능 AI 인프라 설루션을 통해 첨단 AI 기술이 효율적이고 안전하게 구현될 수 있음을 보여주었다.  AI에 기반한 혁신이 가속화되는 가운데, 초거대 AI와 이를 뒷받침하는 고성능 인프라의 중요성은 더욱 커지고 있다. 혁신적인 AI 설루션의 성능을 극대화하기 위해서는 고도화된 연산 능력과 안정적인 인프라 환경이 필수이기 때문이다. 레노버는 “AI와 HPC 워크로드에 최적화된 강력한 인프라를 제공함으로써, 솔트룩스와 같은 다양한 AI 기업의 첨단 설루션이 고객 환경에서 성공적으로 구현될 수 있도록 지원하고 있다”고 전했다. 솔트룩스는 AI 서비스 기업으로 AI 에이전트, AI 검색, 생성형 AI 챗봇까지, 기업을 위한 최첨단 AI 설루션을 제공하고 있다. 솔트룩스의 루시아 GPT는 고객 데이터를 학습해 도메인 특화형 생성형 AI 서비스를 제공하고, RAG(검색 증강 생성)와 지식 그래프를 연계해 근거에 기반한 정확한 답변을 제시할 수 있다. 또한 정교한 권한 관리 기능을 통해 고객의 내부 데이터 보안을 강화함으로써 기업 환경에서 안전하고 효율적인 AI 활용을 가능하게 한다.   이날 행사에서는 솔트룩스의 이경일 대표가 AI가 투자 분야에 가져온 혁신적 변화에 대해 발표했다. 이어서 레노버 이상욱 이사가 레노버의 AI 인프라 전략을 공유했고, 솔트룩스 이승민 본부장이 실질적인 AI 도입과 지원 방안에 대해 설명했다. 레노버 글로벌 테크놀로지 코리아(ISG) 윤석준 부사장은 “AI 서비스가 점차 고도화되면서 고성능 AI 인프라에 대한 관심도 증대되는 가운데, 이에 대한 최신 인사이트와 전략을 공유하고자 이번 행사를 준비했다”면서, “레노버의 고성능 AI 인프라와 솔트룩스의 첨단 AI 서비스를 결합해, 고객의 니즈에 최적화된 AI 설루션을 제공해나갈 것”이라고 말했다. 솔트룩스 이경일 대표는 "레노버와의 파트너십을 통해 도메인 특화 LLM ‘루시아’를 기본 탑재한 하드웨어 일체형 생성형 AI 어플라이언스 루시아 온(LUXIA-ON)의 전국 단위 유통망을 확보하고, 이를 바탕으로 지역별 고객사와 다양한 산업군으로 루시아 온의 시장 확산을 가속할 것”이라고 말했다.
작성일 : 2025-09-12
앤시스 2025 R2 : AI·스마트 자동화 기반의 차세대 디지털 엔지니어링 설루션
개발 및 공급 : 앤시스코리아 주요 특징 : 원클릭으로 전문 지식에 접근 가능한 AI 기반 어시스턴트 지원, AI+ 기능이 탑재된 7종 제품을 통한 시뮬레이션 효율 및 접근성 향상, 데이터 관리 및 워크플로 자동화 강화를 통한 AI 통합 효과 향상 등   앤시스는 자사 전 제품에 AI 기반 시뮬레이션 기능을 확대 적용한 최신 릴리스 ‘앤시스 2025 R2(Ansys 2025 R2)’를 발표했다. 앤시스 2025 R2는 시뮬레이션 속도와 접근성을 크게 향상시키는 동시에 강화된 솔버, 간소화된 워크플로, 파이썬(Python) 호환성 확대, 온디맨드 클라우드 컴퓨팅 지원 등을 통해 설계 유연성과 생산성을 높인다. 특히, 초기 설계 단계에서의 스마트한 의사결정을 가능하게 하여, 차세대 위성부터 데이터센터 설계에 이르기까지 다양한 산업 분야에서 실질적인 가치를 제공한다. 앤시스의 셰인 엠스윌러(Shane Emswiler) 제품 총괄 수석 부사장은 “앤시스의 시뮬레이션은 물리 기반 설계의 기준점이자 이론과 실험을 연결하는 가교 역할을 해왔다. 50년 이상의 고급 물리 해석 경험을 바탕으로, 앤시스 2025 R2는 더욱 스마트하고 빠르며 복잡한 시뮬레이션을 구현할 수 있도록 지원한다”면서, “모델·메타데이터·추적성·표준 기반의 데이터 활용을 통해 미래의 혁신적인 제품 개발을 위한 엔지니어링 역량을 강화할 것”이라고 강조했다. 앤시스 2025 R2는 AI 기반 다양한 도구와 기능을 통해 시뮬레이션 도입 장벽을 낮추고, 팀 간 협업을 촉진하며, 전사적인 생산성을 향상시켜 더 나은 결과를 창출할 수 있도록 지원한다.   ▲ 앤시스 2025 R2는 시뮬레이션 워크플로 전반의 생산성, 정확성, 인사이트를 향상시키는 AI 기반 기술을 새롭게 선보인다.   물리 기반 AI로 직관적인 시뮬레이션 앤시스 2025 R2는 AI 기반 가상 어시스턴트인 ‘앤시스 엔지니어링 코파일럿(Ansys Engineering Copilot)’을 포함한 다양한 신기능을 통해 시뮬레이션의 접근성과 설계 효율, 정확도를 높인다. 앤시스 엔지니어링 코파일럿은 앤시스 GPT(Ansys GPT), 앤시스 웹사이트, 수천 개의 기술 문서, 800개 이상의 이노베이션 강의, 글로벌 포럼, 지원 케이스 생성/추적 기능에 바로 접근할 수 있다. 마이크로소프트 애저(Microsoft Azure)의 니디 체펠(Nidhi Chappell) AI 인프라 부문 부사장은 “마이크로소프트 애저 AI 파운드리와 앤시스 GPT의 통합을 통해 엔지니어들은 핵심 정보에 신속하게 접근하고, 앤시스의 깊이 있는 엔지니어링 전문성을 활용함으로써 생산성을 높이고 혁신을 가속화할 수 있다”고 전했다. 2025 R2는 앤시스 포트폴리오 전반에 AI 기능을 추가했다. 이를 통해 충실도가 높은 시뮬레이션을 자동으로 생성, 검증 및 최적화하여 모델 생성 속도를 높이고, 수동 작업을 줄이며 인적 오류를 줄일 수 있다. 앤시스 엔지니어링 코파일럿은 앤시스 메카니컬(Ansys Mechanical), 앤시스 디스커버리(Ansys Discovery), 앤시스 플루언트(Ansys Fluent), 앤시스 HFSS(Ansys HFSS), 앤시스 일렉트로닉 데스크톱(AEDT), 앤시스 스케이드 원(Ansys Scade One), 앤시스 스피오스(Speos), 앤시스 맥스웰(Maxwell), 앤시스 옵티스랭(optiSLang), 앤시스 루메리컬(Ansys Lumerical) 등 주요 설루션에 통합되어 있으며, 클릭 한 번으로 축적된 엔지니어링 전문 지식에 대한 즉각적 접근 가능 HFSS 기반 방사 패턴 시뮬레이션의 연산 속도는 17배 향상, 위상 배열 안테나의 빔 조향 정확도 개선으로 5G/6G, 레이더 센서, 위성통신 등 고주파 애플리케이션 최적화 이러한 기능을 향상된 데이터 처리 및 자동화와 결합함으로써, 기업은 새로운 효율을 확보하고 보다 간소화되고 확장 가능한 워크플로를 구축할 수 있다.   데이터 처리 및 자동화를 통한 AI 활용 극대화 앤시스 2025 R2는 복잡한 데이터 처리 및 관리 작업을 간소화함으로써 디지털 엔지니어링의 생산성과 협업 수준을 높인다. 견고한 데이터 관리 체계를 기반으로 제품 수명주기 전반에 걸쳐 데이터를 최대한 활용하고, AI 모델 학습 및 신뢰성 높은 합성 데이터 생성을 지원한다. 또한, 모델 기반 시스템 엔지니어링(MBSE)의 기능이 한층 강화되어 팀 간 신뢰 기반 협업은 물론, 디지털 연속성과 조직 간 통합된 워크플로 체계를 안정적으로 유지할 수 있다. 파이썬 호환성 확장을 통해 워크플로 자동화와 데이터 관리 유연성이 강화되었으며, 반복 가능한 프로젝트 운영과 품질 향상에 기여하고 있다. 40개 이상의 파이썬(Python) 라이브러리를 포함한 파이앤시스(PyAnsys) 컬렉션은 신규 도구인 파이에스티케이(PySTK) 및 파이켐킨(PyChemkin)을 통해 앤시스 설루션과의 자동화 연동을 강화 및 다양한 산업 애플리케이션 내 생산성·효율성 강화 웹 기반 협업 플랫폼인 앤시스 메디니 사이버 보안(Ansys medini Cybersecurity) SE는 위협 분석 및 취약점 관리 자동화 통해 사이버 보안 리스크 최소화 SysML v2 기반 웹 플랫폼 앤시스 시스템 아키텍처 모델러(Ansys System Architecture Modeler : SAM)를 통한 소프트웨어·안전·시뮬레이션 통합, 포괄적 MBSE 구현 지원 스마트 자동화와 고도화된 데이터 관리 기술은, 조직 내 다양한 팀들 간의 유기적이고 효율적인 협업 환경을 구축하고, 고성능 연산 기반으로 도출된 인사이트는 실행 가능한 결과로 제안되어, 정확하고 신속한 의사결정을 지원한다. 대표 사례로, 에너지 효율형 모터 제어 설루션 분야의 글로벌 선도 기업인 댄포스 드라이브(Danfoss Drives)는 앤시스의 시뮬레이션을 활용해 복잡한 시스템 설계를 검증하고, 성능 최적화, 에너지 절감, 운영 신뢰성 향상 등 산업 전반의 지속 가능한 혁신적인 드라이브 기술을 구현하고 있다. 댄포스 드라이브의 가상 설계·테스트·최적화 총괄 책임자인 마이클 라우르센(Michael Laursen)은 “파이앤시스는 사용자 맞춤형 자동화, 시스템 통합, 확장성을 구현하는 핵심 도구이다. 개방형 생태계를 기반으로 다양한 툴을 유기적으로 연결하고 AI 기능을 접목함으로써 설계부터 최적화까지의 워크플로를 가속화할 수 있다”고 밝혔다. 또한 “앤시스 기술은 디지털 설계 프로세스를 고도화하는 동시에 빠르게 변화하는 산업 환경에 유연하게 대응할 수 있는 기반을 마련해줄 뿐만 아니라, 비용 절감과 제품 개발 기간 단축에도 실질적으로 기여하고 있다”고 전했다.   현실을 모사하는 고성능 물리 시뮬레이션 정교한 물리 모델과 시뮬레이션 기술은 복잡한 설계 과제를 해결하는 데 필수이다. 앤시스는 핵심 엔지니어링 역량을 지속적으로 고도화하며, 사용자가 보다 신속하게 시뮬레이션 결과를 도출하고 혁신 기회를 창출할 수 있도록 지원한다. 앤시스 메카니컬(Ansys Mechanical)의 신규 혼합 솔버는 대형 과도 모델의 연산 속도 향상 및 시간에 따른 열 변화 분석 지원 복잡한 적층형 전자 시스템 메싱 작업의 자동화 및 속도·정확도·사용성 향상, 신규 메싱 플로 기능을 통한 수작업 간소화 앤시스 록키(Ansys Rocky) 및 프리플로우(Ansys FreeFlow)를 통한 고급 다물리(multiphysics) 연성 해석 기능 제공, 열·유체-구조·전자기 결합을 포함한 상세 시뮬레이션 및 성능 최적화 지원 앤시스 파워X(Ansys PowerX) 디버깅 툴을 통한 반도체 전력 소자의 설계 시간 단축, 기생 성분 이슈의 신속한 식별, 설정 간소화 및 효율적인 2D 메싱 작업 지원 RF 전력 분야의 기업인 앰플리온은 앤시스의 고급 시뮬레이션 기술을 활용해 4G LTE 및 5G NR 인프라는 물론 산업, 과학, 의료, 방송, 항법, 안전 무선통신용으로 사용되는 고신뢰·고성능 GaN 및 LDMOS 설루션을 설계하고 있다. 앰플리온의 모델링 및 특성화 그룹 팀장인 비토리오 쿠오코(Vittorio Cuoco, Ampleon) 박사는 “전자기, 열, 기계 간의 복잡한 상호작용을 효과적으로 제어하며 RF 전력 제품을 설계하는 일은 매우 까다로운 과제”라며, “앤시스의 설루션은 이러한 복잡성을 정면으로 해결할 수 있는 정밀한 시뮬레이션을 제공해 설계 리스크를 줄이고 제품 신뢰성을 높이는 데 도움이 되며, 그 결과는 성능 향상, 에너지 절감, 그리고 더 높은 효율성이라는 측면에서 크다”라고 전했다. 이러한 가속화는 클라우드 기반 시뮬레이션의 유연성을 통해 한층 강화된다. 온디맨드 방식의 기술을 적극 활용함으로써, 기업은 디지털 전환을 보다 수월하게 실현할 수 있다.   클라우드 기반 시뮬레이션 통한 디지털 전환 가속 앤시스 2025 R2는 클라우드 기술, 고성능 컴퓨팅(HPC), GPU 최적화 인프라를 적극 활용하여 연산 효율과 시뮬레이션 확장성을 극대화한다. 이를 통해 고객은 더 많은 설계 가능성을 더 짧은 시간 안에 탐색할 수 있으며, 웹 기반 및 온디맨드 기능 확장을 통해 엔지니어는 필요한 툴에 손쉽게 접근할 수 있으며 데스크톱 환경을 넘어서는 개발 역량 확보가 가능해졌다. 앤시스 아이스팩(Ansys Icepak) 및 플루언트 GPU 솔버(Fluent GPU Solver)를 통한 전자 냉각 시뮬레이션 연산 속도 최대 2.5배 향상, 앤시스 플루언트(Ansys Fluent) 웹 인터페이스에서는 제한적 GPU 솔버 기반의 실시간 모니터링 기능 제공 앤시스 디스커버리(Ansys Discovery)의 메싱 기능 개선을 통한 시뮬레이션 신뢰도 및 품질 향상, GPU 기반의 셋업 속도 개선으로 더 빠르고 안정적인 해석 환경 구현 앤시스 클라우드 버스트 컴퓨팅(Ansys Cloud Burst Compute)의 온디맨드(on-demand) HPC 성능이 앤시스 스피오스(Speos) 및 루메리컬 FDTD(Lumerical FDTD) 포함한 6종 제품에 적용, 별도 설치나 IT 지원 없이 고성능 클라우드 환경 활용 가능     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-09-03
오라클, 데이터베이스 및 클라우드 애플리케이션에 GPT-5 도입
오라클이 자사의 데이터베이스 포트폴리오 및 SaaS 애플리케이션 전반에 오픈AI의 GPT-5를 도입했다고 밝혔다. 이번 도입에는 오라클 퓨전 클라우드 애플리케이션(Oracle Fusion Cloud Applications), 오라클 넷스위트(Oracle NetSuite), 오라클 헬스(Oracle Health)와 같은 오라클 인더스트리 애플리케이션(Oracle Industry Applications)이 포함된다. 오라클은 “신뢰할 수 있는 비즈니스 데이터와 최첨단 AI를 결합해 기업 고객이 핵심 비즈니스 워크플로에서 정교한 코딩 및 추론 기능을 기본적으로 활용할 수 있도록 지원한다”고 전했다. GPT-5는 현재까지 공개된 오픈AI의 모델 중 가장 지능적이고, 빠르며 유용한 모델이면서 코드 생성과 편집, 디버깅에 최적화되어 있다. 또한 기업 환경에서 고도화된 에이전트 기능과 정교한 추론 역량을 제공한다. API에서 세 가지 규모로 제공되는 GPT-5는 기업의 다양한 요구사항을 충족시킬 수 있는 유연성과 확장성을 제공하고, 챗GPT 엔터프라이즈(ChatGPT Enterprise)에서도 이용 가능하다. 오라클은 GPT-5를 도입함으로써 비즈니스 프로세스 전반에서 다단계 추론 및 오케스트레이션을 강화하고 코드 생성, 버그 해결, 문서화 속도를 높일 수 있을 것으로 보고 있다. 또한, 비즈니스 인사이트 및 권고 사항의 정확성과 깊이도 강화할 수 있을 전망이다.     오라클의 크리스 라이스 데이터베이스 소프트웨어 개발 부문 수석 부사장은 “오라클 데이터베이스 23ai의 데이터 AI 역량과 GPT-5의 결합은 기업이 획기적인 인사이트를 얻고, 혁신 및 생산성 향상을 달성하는 데 도움을 줄 것”이라면서, “오라클 AI 벡터와 셀렉트 AI(Select AI)가 GPT-5와 결합되면 데이터 검색 및 분석이 더 쉽고 효율적이게 된다. 오라클의 SQLcl MCP 서버는 GPT-5가 오라클 데이터베이스의 데이터에 손쉽게 접근할 수 있도록 한다. 이러한 기능은 사용자가 전체 데이터를 대상으로 검색을 수행하고, 보안성이 확보된 AI 기반 작업을 실행하며, SQL을 통해 생성형 AI를 직접 사용할 수 있도록 지원하여 엔터프라이즈 데이터에서 AI의 잠재력을 극대화한다”고 전했다. 오라클의 미튼 바브사 애플리케이션 개발 부문 수석 부사장은 “GPT-5는 오라클 퓨전 애플리케이션 사용자에게 오픈AI의 정교한 추론과 심층적 사고 역량을 제공할 것”이라면서, “오픈AI의 최신 모델은 고급 자동화와 높은 생산성, 신속한 의사결정을 가능하게 하는 역량으로 더욱 고도화된 AI 에이전트 기반 프로세스를 지원할 수 있을 것”이라고 말했다.
작성일 : 2025-08-19
앤시스, AI 기능으로 시뮬레이션 효율 및 접근성 높인 ‘앤시스 2025 R2’ 발표
앤시스는 자사의 모든 제품에 AI 기반 시뮬레이션 기능을 확대 적용한 최신 릴리스 ‘앤시스 2025 R2(Ansys 2025 R2)’를 발표했다. 앤시스 2025 R2는 시뮬레이션의 속도와 접근성을 높이는 동시에 강화된 솔버, 간소화된 워크플로, 파이썬(Python) 호환성 확대, 온디맨드 클라우드 컴퓨팅 지원 등을 통해 설계 유연성과 생산성을 높일 수 있게 했다. 또한, 초기 설계 단계에서 스마트한 의사결정을 가능하게 하여 차세대 위성부터 데이터센터 설계까지 다양한 산업 분야에서 실질적인 가치를 제공하는 데에 초점을 맞췄다. AI 기반의 도구와 기능을 통해 시뮬레이션 도입 장벽을 낮추고, 팀 간 협업을 촉진하며, 전사적인 생산성을 향상시켜 더 나은 결과를 창출할 수 있도록 지원하는 것도 특징이다. 앤시스 2025 R2는 AI 기반 가상 어시스턴트인 앤시스 엔지니어링 코파일럿(Ansys Engineering Copilot)을 포함한 다양한 신기능을 통해 시뮬레이션의 접근성과 설계 효율, 정확도를 높인다. 앤시스 엔지니어링 코파일럿은 앤시스 GPT(Ansys GPT), 앤시스 웹사이트, 수천 개의 기술 문서, 800개 이상의 이노베이션 강의, 글로벌 포럼, 지원 케이스 생성/추적 기능에 바로 접근할 수 있다. 앤시스는 마이크로소프트 애저 AI 파운드리와 앤시스 GPT의 통합으로 엔지니어가 핵심 정보에 신속하게 접근하고, 엔지니어링 전문성을 활용할 수 있게 했다. 앤시스 엔지니어링 코파일럿은 앤시스 메카니컬(Ansys Mechanical), 앤시스 디스커버리(Ansys Discovery), 앤시스 플루언트(Ansys Fluent), 앤시스 HFSS(Ansys HFSS), 앤시스 일렉트로닉 데스크톱(AEDT), 앤시스 스케이드 원(Ansys Scade One), 앤시스 스피오스(Speos), 앤시스 맥스웰(Maxwell), 앤시스 옵티스랭(optiSLang), 앤시스 루메리컬(Ansys Lumerical) 등 주요 설루션에 통합되어 있으며, 클릭 한 번으로 축적된 엔지니어링 전문 지식에 대한 즉각적 접근이 가능하다. 앤시스는 “AI 기반의 엔지니어링 코파일럿을 활용하면 HFSS 기반 방사 패턴 시뮬레이션의 연산 속도를 17배 높일 수 있다. 이외에도 위상 배열 안테나의 빔 조향 정확도를 개선해 5G/6G, 레이더 센서, 위성통신 등 고주파 애플리케이션을 최적화할 수 있다”면서, “이러한 기능을 향상된 데이터 처리 및 자동화와 결합함으로써, 기업은 새로운 효율성을 확보하고 보다 간소화되고 확장 가능한 워크플로를 구축할 수 있다”고 설명했다.     앤시스 2025 R2는 복잡한 데이터 처리 및 관리 작업을 간소화함으로써 디지털 엔지니어링의 생산성과 협업 수준을 높인다. 견고한 데이터 관리 체계를 기반으로, 제품 수명주기 전반에 걸쳐 데이터를 최대한 활용하고, AI 모델 학습 및 신뢰성 높은 합성 데이터 생성을 지원한다. 또한, 모델 기반 시스템 엔지니어링(MBSE)의 기능이 한층 강화되어 팀 간 신뢰 기반 협업은 물론, 디지털 연속성과 조직 간 통합된 워크플로 체계를 안정적으로 유지할 수 있다. 파이썬 호환성 확장을 통해 워크플로 자동화와 데이터 관리 유연성이 강화되었으며, 반복 가능한 프로젝트 운영과 품질 향상에 기여하고 있다. 스마트 자동화와 고도화된 데이터 관리 기술은 조직 내 다양한 팀들 간의 유기적이고 효율적인 협업 환경을 구축하고, 고성능 연산 기반으로 도출된 인사이트는 실행 가능한 결과로 제안되어, 정확하고 신속한 의사결정을 지원한다. 뿐만 아니라, 앤시스는 핵심 엔지니어링 역량을 지속적으로 고도화하며, 사용자가 보다 신속하게 시뮬레이션 결과를 도출하고 혁신 기회를 창출할 수 있도록 지원한다고 소개했다.  이러한 가속화는 클라우드 기반 시뮬레이션의 유연성을 통해 한층 강화된다. 앤시스 2025 R2는 클라우드 기술, 고성능 컴퓨팅(HPC), GPU 최적화 인프라를 적극 활용하여 연산 효율과 시뮬레이션 확장성을 강화한다. 앤시스는 “이를 통해 고객은 더 많은 설계 가능성을 더 짧은 시간 안에 탐색할 수 있다. 웹 기반 및 온디맨드 기능 확장을 통해 엔지니어는 필요한 툴에 손쉽게 접근할 수 있으며, 데스크톱 환경을 넘어서는 개발 역량 확보가 가능해졌다”고 전했다. 앤시스의 셰인 엠스윌러(Shane Emswiler) 제품 총괄 수석 부사장은 “앤시스의 시뮬레이션은 물리 기반 설계의 기준점이자 이론과 실험을 연결하는 가교 역할을 해 왔다. 50년 이상의 고급 물리 해석 경험을 바탕으로, 앤시스 2025 R2는 더욱 스마트하고 빠르며 복잡한 시뮬레이션을 구현할 수 있도록 지원한다”면서, “모델·메타데이터·추적성·표준 기반의 데이터 활용을 통해 미래의 혁신적인 제품 개발을 위한 엔지니어링 역량을 강화할 것”이라고 강조했다.
작성일 : 2025-07-31
AMD, 개방형 AI 생태계 비전과 함께 신제품 소개
AMD는 연례 행사인 ‘2025 어드밴싱 AI(2025 Advancing AI)’에서 종합적이고 통합된 AI 플랫폼 비전을 발표하고, 업계 표준 기반의 개방적이고 확장 가능한 랙-스케일 AI 인프라를 공개했다. AMD는 인스팅트 MI350 시리즈 GPU를 공개하며, 생성형 AI 및 고성능 컴퓨팅 분야에서 성능, 효율성 및 확장성을 위한 새로운 기준을 내세웠다. 인스팅트 MI350X 및 MI355X GPU 및 플랫폼으로 구성된 MI350 시리즈는 세대 간 AI 컴퓨팅 성능은 4배, 추론 성능은 35배 높아져 산업 전반에 걸친 혁신적인 AI 설루션의 물꼬를 텄다. AMD는 MI355X가 높은 가격 대비 성능을 제공하며, 경쟁 설루션 대비 최대 40% 더 많은 달러당 토큰을 생성할 수 있다고 설명했다.     이번 어드밴싱 AI 행사에서 AMD는 인스팅트 MI350 시리즈 가속기, 5세대 AMD 에픽(AMD EPYC) 프로세서, AMD 펜산도 폴라라 NIC(Pensando Pollara NIC)를 활용한 엔드투엔드 오픈 스탠다드 랙 스케일 AI 인프라를 시연했다. 이는 오라클 클라우드 인프라스트럭처(OCI) 등 하이퍼스케일러에서 이미 운영되고 있고, 2025년 하반기부터 광범위하게 출시할 예정이다. AMD는 이전 세대 대비 MoE(Mixture of Experts) 모델 추론에서 최대 10배 더 높은 성능을 제공하는 MI400 시리즈 GPU를 기반으로 한 차세대 AI 랙 ‘헬리오스(Helios)’도 선공개했다. 이 시스템은 젠 6(Zen 6) 아키텍처 기반의 에픽 ‘베니스(Venice)’ CPU 및 펜산도 ‘불카노(Vulcano)’ NIC를 탑재했다. AMD는 최신 오픈소스 AI 소프트웨어 스택인 ROCm 7도 발표했다. ROCm 7은 생성형 AI와 HPC 워크로드를 충족하도록 설계되어 전반적인 개발자 경험을 끌어 올린다. ROCm 7은 업계 표준 프레임워크에 대한 지원을 높이고 하드웨어 호환성 확대, 개발 도구 및 드라이버, API, 라이브러리 등을 특징으로 내세운다. AMD AI 소프트웨어 개발 부문 부사장 공식 블로그 포스트) 인스팅트 MI350 시리즈는 AI 트레이닝 및 HPC 노드의 에너지 효율을 5년간 30배 개선한다는 AMD의 목표를 초과 달성해 결과적으로 38배라는 개선을 이뤄냈다. AMD는 2030년까지 2024년 기준 대비 랙 스케일 에너지 효율을 20배 향상시키겠다는 새로운 목표도 발표했다. 이는 2030년까지 전력 소비를 95% 줄이는 것인데, 현재 275개 이상의 랙이 필요한 일반적인 AI 모델을 학습시키는 데에 완전히 채워진 랙 1개, 혹은 그 이하의 시스템으로 처리할 수 있다는 것을 의미한다. 이외에도 AMD는 전 세계 개발자 및 오픈소스 커뮤니티를 위한 AMD 개발자 클라우드의 광범위한 출시를 발표했다. 이 클라우드는 고성능 AI 개발을 위해 설계된 완전 관리형 환경으로, 개발자가 AI 프로젝트를 빠르게 시작할 수 있도록 다양한 도구와 유연한 확장성을 제공한다. AMD는 ROCm 7과 AMD 개발자 클라우드를 통해 차세대 컴퓨팅에 대한 장벽을 낮추고 접근성을 넓힐 계획이다. 최근, 세계 10대 AI 및 모델 구축 기업 중 7곳이 AMD 인스팅트 가속기를 기반으로 프로덕션 워크로드를 운영하고 있는 가운데, 메타, 오픈AI, 마이크로소프트, xAI 등 7개 기업은 어드밴싱 AI행사에 참석해 선도적인 AI 모델 학습, 강력한 대규모 추론, AI 탐색과 개발 가속화 등 다양한 분야에서 AMD 설루션을 활용한 사례를 공유했다. 메타는 라마 3(Llama 3) 및 라마 4(Llama 4) 모델 추론에 인스팅트 MI300X를 활용 중이며, MI350의 연산 성능, TCO 대비 성능, 차세대 메모리에 대해 기대감을 나타냈다. 오픈AI의 샘 올트먼(Sam Altman) CEO는 하드웨어, 소프트웨어, 알고리즘 전반에 걸친 최적화의 중요성에 대해 설명하고, AI 인프라 분야에서 AMD와 오픈AI의 긴밀한 파트너십, MI300X 기반 애저(Azure)의 연구 및 GPT 모델, MI400 시리즈 플랫폼에서의 심층적인 설계 참여 등에 대해 논의했다. AMD의 개방형 랙 스케일 AI 인프라를 도입한 OCI는 최대 13만 1072개의 MI355X GPU로 가속화되는 제타스케일 AI 클러스터를 통해 고객들이 대규모 AI 모델을 구축, 학습, 추론할 수 있도록 지원한다고 밝혔다. 그리고 마이크로소프트는 인스팅트 MI300X가 애저 내의 독점 모델과 오픈소스 모델 모두에 사용되고 있다고 발표했다.  AMD의 리사 수(Lisa Su) CEO는 “AMD는 전례 없는 속도로 AI 혁신을 주도하고 있으며, 이는 AMD 인스팅트 MI350 시리즈 가속기 출시, 차세대 AMD ‘헬리오스’ 랙-스케일 설루션의 발전, 그리고 ROCm 개방형 소프트웨어 스택의 성장 모멘텀을 통해 더욱 부각되고 있다”면서, “우리는 개방형 표준, 공동 혁신, 그리고 AI의 미래를 정의하고자 협력하는 광범위한 하드웨어 및 소프트웨어 파트너 생태계 전반에 걸쳐 AMD의 리더십을 확대하고 있으며, 이를 통해 AI의 다음 단계로 진입하고 있다.”고 밝혔다.
작성일 : 2025-06-13
[에디토리얼] 챗GPT 이후, 생성형 AI는 어디로 가는가
2022년 말, 오픈AI가 챗GPT(ChatGPT)를 세상에 내놓으며 촉발된 생성형 AI 열풍은 불과 2년 만에 '기술적 유행'을 넘어 ‘디지털 산업의 주류’로 자리잡았다. 지금은 단순한 대화형 챗봇의 시대를 지나, 생성형 AI가 실질적인 비즈니스 전환과 산업 혁신을 이끄는 'Post-ChatGPT' 시대로 접어들었다.   멀티모달 AI와 콘텐츠 제작의 판도 변화 초기 챗GPT는 텍스트 중심의 질의 응답 기능에 집중했지만, GPT-4o, 제미나이 2.0(Gemini 2.0), 클로드 3.7 소넷(Claude 3.7 Sonnet) 등 최신 모델은 음성, 이미지, 비디오까지 아우르는 멀티모달 기능을 갖춘 종합 AI로 진화하고 있다. 대표적인 예는 오픈AI의 소라(Sora)다. 2024년 12월 정식 출시되었으나 여전히 제한적 접근이 가능한 상황에서도, 텍스트 프롬프트만으로 현실감 있는 동영상을 생성하는 이 모델은 기존 콘텐츠 제작 방식에 상당한 변화를 가져오고 있다. 촬영 장비나 실제 인물이 없어도 아이디어만으로 결과물을 만들어내는 시대가 열린 것이다.   AI 에이전트와 킬러 앱의 실체화 최근 등장한 AI 에이전트는 단순 응답을 넘어 사용자의 의도를 파악하고 여러 단계를 자율적으로 실행한다. 예컨대 커서(Cursor)는 개발을, 노션 AI(Notion AI)는 문서 작업을, 세일즈포스의 에이전트포스(Agentforce)는 고객 응대를 지원하며 '디지털 동료'로 자리매김하고 있다. 이와 함께 주목받는 건 킬러 앱의 후보군이다. 단순한 자동화를 넘어 새로운 수요를 창출하는 서비스가 속속 등장하고 있다. 퍼플렉시티(Perplexity)나 클로드는 정보 탐색을 브리핑 수준으로 고도화했으며, 구글의 노트북LM(NotebookLM)은 개인화된 연구 도구로 각광받고 있다. 미드저니(Midjourney), 일레븐랩스(ElevenLabs), 깃허브 코파일럿(GitHub Copilot) 등도 창작과 개발 영역에서 실질적인 성과를 보이며 산업 내에서 필수 도구로 자리잡아 가고 있다.   생성형 AI, 기술을 넘어 산업으로 오늘날 생성형 AI는 기술의 범주를 넘어 산업의 중심축으로 진화 중이다. 마이크로소프트, 구글, 아마존은 생성형 AI 기능을 자사 클라우드와 통합해 플랫폼 생태계를 확장하고 있고, 엔비디아는 칩 설계와 AI 프레임워크를 결합해 독보적 위치를 강화하고 있다. 이와 함께 메타의 라마 3(Llama 3), 미스트랄 AI 등 오픈소스 생성형 AI 모델이 상용 모델에 버금가는 성능을 보이며 AI의 대중화를 견인하고 있다.   기술보다 중요한 것은 정의와 방향이다 생성형 AI의 미래는 '기술이 어디까지 갈 수 있는가'보다 '우리가 어디까지 허용하고, 어떻게 사용할 것인가'에 달려 있다. 지금 필요한 것은 무한한 가능성에 대한 찬사가 아니라, 책임 있는 활용에 대한 깊은 성찰이다. 챗GPT 이후의 생성형 AI 시대, 그 중심에는 기술이 아니라 인간의 판단과 정의가 서 있어야 한다.   ■ 박경수 캐드앤그래픽스 기획사업부 이사로, 캐드앤그래픽스가 주최 또는 주관하는 행사의 진행자 겸 사회자를 맡고 있다. ‘플랜트 조선 컨퍼런스’, ‘PLM/DX 베스트 프랙티스 컨퍼런스’, ‘CAE 컨퍼런스’, ‘코리아 그래픽스’, ‘SIMTOS 컨퍼런스’ 등 다수의 콘퍼런스 기획에 참여했고,행사의 전반적인 진행을 담당해 왔다. CNG TV 웨비나의 진행자 겸 사회자로, IT 분야의 취재기자로도 활동 중이다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-06-04
HPE, 엔비디아와 협력해 AI 팩토리 포트폴리오 강화
HPE는 전체 AI 수명주기를 지원하고 기업, 서비스 제공업체, 공공기관, 연구기관 등 다양한 고객의 요구를 충족하는 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)’ 설루션 포트폴리오를 강화한다고 발표했다. 이번 업데이트는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)와의 통합을 강화하고, 가속 컴퓨팅을 통해 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)에 대한 지원을 확대했다. 또한 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform)용 HPE 알레트라 스토리지 MP X10000(HPE Alletra Storage MP X10000) 소프트웨어 개발 키트(SDK)를 새롭게 출시했다. 이와 함께 HPE는 엔비디아 RTX PRO 6000 블랙웰 서버 에디션(NVIDIA RTX PRO 6000 Blackwell Server Edition) GPU 및 엔비디아 엔터프라이즈 AI 팩토리(NVIDIA Enterprise AI Factory)의 검증된 설계에 기반한 컴퓨팅 및 소프트웨어 제품도 출시했다. 엔비디아와 공동 개발한 턴키 방식의 클라우드 기반 AI 팩토리인 ‘HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)’는 통합된 AI 전략을 비즈니스 전반에 확산하고 수익성 높은 워크로드를 지원하며 리스크를 대폭 줄일 수 있도록 지원하는 전용 개발자 설루션을 포함하고 있다. 또한, 이는 AI 프레임워크, 사전 훈련 모델을 위한 엔비디아 NIM 마이크로서비스(NVIDIA NIM microservices) 및 SDK를 포함하는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)의 피쳐 브랜치(Feature Branch) 모델 업데이트를 지원할 예정이다. 피쳐 브랜치 모델 지원을 통해 개발자는 AI 워크로드를 위한 소프트웨어 기능과 최적화 사항을 테스트하고 검증할 수 있다.  가드레일이 내장된 프로덕션 브랜치 모델에 대한 기존 지원과 더불어, HPE 프라이빗 클라우드 AI는 모든 규모의 기업이 개발자 시스템을 구축하고 이를 프로덕션-레디 에이전틱 및 생성형 AI 애플리케이션으로 확장하는 한편, 기업 전반에 걸쳐 안전한 다계층 접근 방식을 도입할 수 있도록 지원한다. HPE 알레트라 스토리지 MP X10000은 엔비디아 AI 데이터 플랫폼 레퍼런스 설계와 연동되는 SDK를 선보일 예정이다. HPE의 최신 데이터 플랫폼과 엔비디아의 맞춤형 레퍼런스 설계를 연결함으로써, 고객은 에이전틱 AI 구현을 위한 가속화된 성능과 인텔리전트 파이프라인 오케스트레이션을 활용할 수 있다. 이번 X10000 SDK는 HPE의 데이터 인텔리전스 전략 확대의 일환으로, 컨텍스트 기반의 AI-레디 데이터를 엔비디아 AI 생태계에 직접 통합할 수 있도록 지원한다. 이를 통해 기업은 엔비디아 가속 인프라 전반에서 수집, 추론, 훈련 및 지속적인 학습을 위한 비정형 데이터 파이프라인을 간소화할 수 있다. HPE는 SDK 통합을 통해 데이터 가치 극대화, AI 데이터 플랫폼의 효율 향상, 워크로드 요구사항에 맞는 구축 최적화 등의 이점을 얻을 수 있을 것으로 보고 있다. 엔비디아 H100 NVL, H200 NVL 및 L40S GPU를 탑재한 HPE 프로라이언트 컴퓨트 DL380a Gen12(HPE ProLiant Compute DL380a Gen12) 서버는 최근 MLPerf Inference : Datacenter v5.0 벤치마크의 GPT-J, Llama2-70B, ResNet50 및 RetinaNet을 포함한 10개 테스트에서 최고 수준의 성능을 기록했다. 이 AI 서버는 곧 최대 10개의 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 탑재하여 출시될 예정이며, 이를 통해 향상된 기능과 함께 에이전틱 멀티모달 AI 추론, 피지컬 AI, 모델 미세조정 뿐만 아니라 디자인, 그래픽 및 비디오 애플리케이션을 포함한 엔터프라이즈 AI 워크로드를 위한 탁월한 성능을 제공할 예정이다. HPE 프로라이언트 컴퓨트 DL380a Gen12는 공랭식 및 직접 수냉 방식(DLC)으로 제공되며, HPE 프로라이언트 컴퓨트 Gen12 포트폴리오에 탑재된 HPE iLO(Integrated Lights Out) 7은 실리콘 RoT(Root of Trust) 기반으로 한 내장된 보호 기능을 갖추고 있다. 또한, HPE 컴퓨트 옵스 매니지먼트(HPE Compute Ops Management)는 사전 알림 기능 및 예측적 AI 기반 인사이트를 통해 서버 환경을 위한 안전하고 자동화된 수명 주기 관리를 지원한다. HPE 옵스램프 소프트웨어(HPE OpsRamp Software)는 AI 워크로드 모니터링을 위한 차세대 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU까지 지원할 수 있는 AI 인프라 최적화 설루션으로 확장됐다. HPE 그린레이크 플랫폼(HPE GreenLake Platform) SaaS(서비스형 소프트웨어) 방식으로 구성되는 이 설루션은 기업 내 IT 팀이 하이브리드 환경 전반에 분산된 AI 인프라를 모니터링하고, 최적화를 통해 AI인프라 운영을 효율적으로 관리, 지원한다. HPE 옵스램프는 풀스택 AI 워크로드에서 인프라 옵저버빌리티, 워크플로 자동화, AI 기반 분석 및 이벤트 관리를 가능하게 하고, 엔비디아의 모든 인프라를 정밀하게 모니터링하는 한편, AI 인프라의 성능과 복원력을 모니터링할 수 있는 세분화된 측정 지표를 제공한다. HPE의 안토니오 네리(Antonio Neri) 사장 겸 최고경영자(CEO)는 “HPE는 엔비디아와의 협업을 통해 고객에게 지속적인 혁신과 실질적인 성과를 제공하고 있으며, 강력한 설루션을 기반으로 공동 개발한 첨단 AI 기술을 통해 기업이 AI 도입의 어느 단계에 있든 기업 전반에서 그 잠재력을 효과적으로 실현할 수 있도록 지원하고 있다”면서, “HPE는 오늘날의 요구를 충족하는 동시에, AI 중심의 미래를 함께 만들어가고 있다”고 밝혔다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “기업은 HPE 시스템을 활용해 최첨단 엔비디아 AI 팩토리를 구축함으로써 생성형 및 에이전틱 AI 시대에 최적화된 IT 인프라를 준비할 수 있다”면서, “엔비디아와 HPE는 데이터센터부터 클라우드, 에지에 이르기까지 인텔리전스를 확장 가능한 새로운 산업 자원으로 활용할 수 있도록 기업을 위한 기반을 함께 만들어가고 있다”고 밝혔다.
작성일 : 2025-05-23
인텔, “최신 AI 추론 벤치마크에서 제온 6의 성능 입증”
인텔은 ML커먼스(MLCommons)가 발표한 최신 MLPerf 추론 v5.0(MLPerf Interference v5.0) 벤치마크에서 인제온 6 P-코어(Intel Xeon 6 with Performance-cores)의 성능을 입증했다고 밝혔다. 6가지 주요 벤치마크에서 진행된 테스트 결과, 제온 6는 이전 세대 프로세서 대비 인공지능(AI) 성능이 1.9배 향상된 것으로 나타났다. AI 도입이 가속화됨에 따라, CPU는 데이터 전처리, 전송, 시스템 오케스트레이션 등 핵심 기능을 관리하는 호스트 노드로서 AI 시스템 운영에 필수 요소로 자리잡고 있다. 인텔은 MLPerf에 서버용 CPU 성능 결과를 제출했는데, 인텔 제온 6 P-코어는 MLPerf 추론 v5.0의 ResNet50, RetinaNet, 3D-UNet 및 신규 GNN-RGAT를 포함한 주요 벤치마크에서 5세대 인텔 제온 프로세서 대비 평균 1.9배 높은 성능을 기록했다. 이런 결과에 대해 인텔은 “제온 6가 AI에 적합한 CPU임을 입증하는 동시에, 소형 언어 모델(SLM)을 위한 경쟁력 있는 대안이 될 수 있음을 보여준다”고 설명했다.     인텔은 지난 2021년 3세대 인텔 제온 프로세서를 MLPerf에 처음 제출한 이후 ResNet50 성능은 15 배 향상됐으며, 소프트웨어 최적화를 통해 GPT-J에서는 22%, 3D U-Net에서는 11% 추가 성능 향상을 달성했다고 소개했다. 또한, “새로운 MLPerf 결과는 OEM(주문자 상표부착 생산) 및 생태계 파트너 설루션 전반에서 인텔 제온의 성능을 입증한다”면서, “AI 워크로드가 엔터프라이즈 시스템과 점점 더 통합됨에 따라, OEM은 고객이 최상의 AI 성능을 구현할 수 있도록 제온 기반 시스템을 우선 채택하고 있다”고 전했다. 인텔은 시스코, 델 테크놀로지스, 콴타, 슈퍼마이크로 등 4개의 주요 OEM 파트너사와 협력해 인텔 제온 6 P코어에 대한 MLPerf 결과를 함께 제출하며 다양한 AI 워크로드와 배포 역량을 선보였다. 인텔의 데이터센터 및 AI 그룹을 임시 총괄하는 카린 엡시츠 시갈(Karin Eibschitz Segal) 부사장은 “이번 MLPerf 벤치마크 결과는 인텔 제온 6가 고성능과 에너지 효율의 완벽한 균형을 제공하는 AI 워크로드에 가장 적합한 중앙처리장치(CPU)임을 입증한다”면서, “세대를 거듭할수록 다양한 AI 벤치마크에서도 꾸준히 성능이 개선되고 있어, 인텔 제온이 여전히 AI 시스템용 CPU 시장에서 선도적인 입지를 유지하고 있음을 보여준다”고 설명했다.
작성일 : 2025-04-04