• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 " 슈퍼인텔리전스"에 대한 통합 검색 내용이 2개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
마이크로소프트, 차세대 AI 추론 가속기 ‘마이아 200’ 공개
마이크로소프트가 대규모 AI 토큰 생성의 경제성을 개선하기 위해 설계된 추론 가속기 ‘마이아 200(Maia 200)’을 공개했다. 마이아 200은 마이크로소프트 애저(Azure) 환경에서 AI 모델을 더욱 빠르고 경제적으로 구동할 수 있도록 지원하며 차세대 AI 인프라의 핵심 역할을 수행할 예정이다. 마이아 200은 TSMC의 3나노미터(nm) 공정을 기반으로 고성능 AI 추론에 최적화된 구조를 갖췄다. 특히 초당 7TB 대역폭의 216GB HBM3e 메모리 시스템과 네이티브 FP8/FP4 텐서 코어, 그리고 데이터 이동 엔진을 유기적으로 결합해 거대 모델에 최적화된 추론 성능을 제공하는 것이 특징이다. 마이아 200은 1400억 개 이상의 트랜지스터를 탑재해 대규모 AI 워크로드에 특화된 설계를 갖췄다. 750W SoC TDP(설계 전력) 범위 내에서 각 칩은 FP4 기준 10 PFLOPS 초과, FP8 기준 5 PFLOPS 초과 성능을 제공한다. 이러한 연산 성능은 대규모 모델 구동을 원활히 지원하며, 향후 등장할 차세대 모델까지 대응 가능한 수준의 성능 여유를 확보한다. 또한 데이터 공급 병목 현상 해결을 위해 메모리 하위 시스템을 전면 재설계해 토큰 처리량을 최적화했다.     이러한 성능은 대규모 클러스터 환경에서도 일관되게 구현된다. 마이크로소프트는 표준 이더넷 기반의 새로운 2계층 스케일업 네트워크를 도입했으며, 맞춤형 전송 계층과 통합 NIC를 통해 독점적인 패브릭 없이도 성능과 신뢰성, 비용 이점을 확보했다. 각 가속기는 초당 2.8TB의 양방향 전용 스케일업 대역폭을 지원하며, 이는 최대 6144개의 가속기를 연결하는 대규모 클러스터 전체에서 일관된 성능을 유지하고 애저 인프라의 전력 소모와 전체 소유 비용(TCO)을 절감하는 기반이 된다. 시스템 효율은 개별 단위인 트레이와 랙 수준의 정밀한 연결 구조를 통해 구현된다. 하나의 트레이 내부에 탑재된 4개의 가속기를 직접 연결해 내부 통신 효율을 높였으며, 동일한 통신 프로토콜을 사용해 랙 단위까지 원활하게 확장할 수 있도록 설계했다. 이러한 통합 네트워킹 환경은 프로그래밍을 단순화하고 워크로드의 유연성을 높여 시스템 운영 효율을 강화한다. 마이크로소프트는 “실제 연산 성능에서 마이아 200은 4비트 정밀도(FP4) 기준 3세대 아마존 트레이니움(Amazon Trainium) 대비 3배 높은 처리량을 기록했으며, 8비트 정밀도(FP8)에서도 구글의 7세대 TPU를 상회한다”고 소개했다. 마이크로소프트는 이러한 기술력을 바탕으로 자사 인벤토리 내 최신 하드웨어 대비 달러당 성능을 30% 개선하며 효율적인 추론 시스템을 구축했다. 마이크로소프트의 이기종AI 인프라에서 핵심 역할을 수행할 마이아 200은 오픈AI의 최신 GPT-5.2 모델을 비롯한 다양한 모델을 지원한다. 이로써 마이크로소프트 파운드리(Microsoft Foundry)와 마이크로소프트 365 코파일럿(Microsoft 365 Copilot)의 가격 대비 성능 효율을 제공한다. 마이크로소프트 슈퍼인텔리전스 팀은 차세대 사내 모델 개선을 위한 합성 데이터 생성 및 강화 학습에 마이아 200을 투입할 계획이다. 이 칩은 고품질 도메인 특정 데이터의 생성 및 필터링 속도를 가속화해 후속 학습에 정교한 신호를 공급하는 중추 역할을 맡게 된다. 마이아 200은 아이오와주 디모인(Des Moines) 인근 미국 중부(US Central) 데이터 센터 지역을 시작으로 배포가 진행된다. 향후 애리조나주 피닉스(Phoenix) 인근 US West 3 지역 등으로 확대될 예정이다. 마이크로소프트 실리콘 개발 프로그램은 칩 출시 전 시스템 전반을 검증하는 엔드 투 엔드 방식을 원칙으로 한다. 설계 초기부터 LLM의 연산 및 통신 패턴을 모델링하는 프리 실리콘 환경을 구축해, 실제 칩 제작 전 이미 실리콘과 네트워킹, 시스템 소프트웨어를 하나의 체계로 최적화했다. 데이터센터 투입 준비도 설계 단계부터 병행했다. 백엔드 네트워크와 2세대 액체 냉각 시스템 등 복잡한 요소를 조기 검증하고 애저 제어 플레인)과 네이티브로 통합했다. 그 결과 마이아 200은 첫 부품 입고 수일 만에 실제 모델 구동에 성공했으며, 칩 입고부터 데이터 센터 배치까지의 기간을 기존 대비 절반 이하로 단축했다. 칩부터 소프트웨어, 데이터 센터를 아우르는 엔드투엔드 방식은 자원 활용률을 높이고 클라우드 규모에서의 비용 및 전력 효율을 지속적으로 개선한다. 마이크로소프트는 대규모 AI 시대가 본격화됨에 따라 인프라가 기술적 가능성을 결정짓는 핵심 요소가 될 것으로 내다보고 있다. 마이아 가속기 프로그램은 다세대 로드맵을 기반으로 설계됐으며, 향후 지속적인 혁신을 통해 새로운 벤치마크를 제시하고 핵심 AI 워크로드에 최적화된 성능과 효율을 제공할 예정이다.
작성일 : 2026-01-27
엔비디아, 오픈AI와 10GW 규모 시스템 구축 위해 협력
엔비디아가 오픈AI(OpenAI)와 전략적 파트너십을 체결했다고 밝혔다. 양사는 이번 파트너십의 일환으로 오픈AI의 차세대 AI 인프라 구축을 위해 최소 10GW(기가와트) 규모의 엔비디아 시스템을 도입한다는 의향서를 발표했다. 이번 협력으로 오픈AI는 차세대 모델을 훈련하고, 운영하며, 슈퍼인텔리전스 배포를 위한 기반을 마련하게 된다. 엔비디아는 데이터센터와 전력 용량 확보를 포함한 이번 구축을 지원하기 위해, 신규 시스템이 도입됨에 따라 오픈AI에 최대 1000억 달러를 투자할 계획이다. 첫 번째 단계는 엔비디아 베라 루빈(Vera Rubin) 플랫폼을 통해 2026년 하반기 가동을 목표로 하고 있다. 엔비디아와 오픈AI는 향후 몇 주 안에 이번 전략적 파트너십의 새로운 단계에 대한 세부 사항을 확정할 예정이다. 오픈AI는 “현재 주간 활성 사용자 수가 7억 명을 넘어섰으며, 글로벌 기업, 중소기업, 개발자 전반에서 강력한 활용도를 보이고 있다. 이번 파트너십은 오픈AI가 인류 전체에 이익이 되는 범용 인공지능(AGI) 구축이라는 사명을 추진하는 데 기여할 것”이라고 소개했다. 오픈AI는 AI 팩토리 성장 계획을 위해 전략적 컴퓨팅, 네트워킹 파트너로서 엔비디아와 협력할 예정이다. 양사는 오픈AI의 모델과 인프라 소프트웨어와 엔비디아의 하드웨어와 소프트웨어에 대한 로드맵을 공동 최적화해 나갈 것이다. 이번 파트너십은 오픈AI와 엔비디아가 이미 마이크로소프트, 오라클, 소프트뱅크, 스타게이트 등 파트너사를 비롯한 여러 협력사와 추진 중인 작업을 보완한다. 이를 통해 양사는 세계 최고 수준의 AI 인프라 구축을 위해 한층 더 속도를 낼 계획이다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “엔비디아와 오픈AI는 지난 10년간 최초의 DGX 슈퍼컴퓨터부터 챗GPT(ChatGPT)의 혁신에 이르기까지 서로를 함께 견인해왔다. 이번 투자와 인프라 파트너십은 차세대 인텔리전스 시대를 이끌 10GW 규모의 인프라 구축이라는 다음 도약을 의미한다”고 말했다. 오픈AI의 샘 알트만(Sam Altman) CEO는 “모든 것은 컴퓨팅에서 시작된다. 컴퓨팅 인프라가 미래 경제의 기반이 될 것이며, 우리는 엔비디아와 함께 구축 중인 인프라를 활용해 새로운 AI 혁신을 창출하고, 이를 사람과 기업이 대규모로 활용할 수 있도록 할 것”이라고 말했다.
작성일 : 2025-09-25