• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "가상머신"에 대한 통합 검색 내용이 83개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[칼럼] 나만의 AI 에이전트 필살기 Ⅱ – 코드를 이해하는 기획자, 비개발자의 바이브 코딩 입문기
현장에서 얻은 것 No. 23   “거인의 어깨 위에 올라서서 더 넓은 세상을 바라보라.” – 아이작 뉴턴 AI라는 거대한 변화의 파도는 우리 삶 곳곳을 흔들고 있었다. 이는 단순히 새로운 기술의 등장이 아니라, 사고방식과 일하는 방식, 나아가 사회 전체의 구조를 바꾸는 흐름이었다. 필자는 지난 8개월 동안 이 변화의 흐름 속에서 매일 배우고 실험하며 자신만의 여정을 이어갔다. 이 시간 동안 AI를 단순한 도구로만 보지 않게 되었는데, 그것은 업무, 창작, 학습, 그리고 삶 전반을 통해 스스로를 끊임없이 자극하는 동반자였다. AI를 맹목적으로 신뢰하기보다는 신중하게 거리를 두고, 동시에 적극적으로 받아들이는 태도를 통해 자신만의 ‘필살기’를 다듬어왔다. 필자의 학습법은 눈으로 익힌 것이 70%, 손으로 부딪히며 체득한 것이 30%로 다소 독특했다. 이러한 비율을 받아들인 이유는 필자의 경험이 개발자의 삶이 아니었기 때문이었다. ‘바이브 코딩(vibe coding)’을 통해 비개발자도 개발을 할 수 있다고 광고했지만, 실제로는 한계가 있음을 이해했다. 커서 AI(Cursor AI)로 회사 홈페이지를 만들고, 리플릿(Replit) 프로그램으로 MBTI 판별 프로그램을 바이브 코딩으로 시도하며, 만들고 수정하는 것도 가능했다. 하지만 PLM을 기업에 구축하는 PM으로서 경험한 바로는, 비개발자가 프로그램을 만드는 데에는 한계가 있었다. 취미로 만드는 것은 환영하지만 프로그램이 론칭된 이후 발생하는 많은 이슈를 경험하며, 개발자와의 협업이 더 효율적이라는 자신만의 학습 공식을 터득했다. 강의와 책, 스터디에서 얻은 지식이 토대가 되었고, 실습과 시행착오가 그 지식을 현실과 연결해 주었다. 이부일 대표의 강의를 들으며 챗GPT를 활용한 파이썬 코드를 직접 따라가던 순간, AI가 단순한 언어 모델이 아니라 강력한 실무 도구라는 사실을 처음 체감했다. 첫날은 잘 따라갔지만 둘째 날 노트북 배터리가 나가 낭패를 본 기억도 생생했는데, 이러한 경험조차도 학습 과정의 일부가 되었다. AI 학습은 지식을 머리에 담는 것뿐만 아니라 삶과 환경 속에서 몸으로 받아들이는 과정임을 깨달았다. 실패와 해프닝도 자산이 되어 필자의 학습 지도 위에 하나씩 좌표가 찍혀갔다. 중요한 것은 속도가 아니라, 끊임 없이 배우고 기록하고 다시 활용하는 과정이 훨씬 값지다는 것이었다.  “미래는 예측하는 것이 아니라 상상하는 것이다.” – 앨런 케이   ▲ 코드를 이해하는 기획자, 비개발자의 바이브 코딩 입문(Map by 류용효) (클릭하시면 큰 이미지로 볼수 있습니다.)   비개발자가 코드를 배우려 했던 이유 필자가 비개발자로서 코드를 배우기 시작한 동기는 개인적인 필요에서 비롯되었다. PLM 구축 PM으로서 개발자와 같은 언어로 소통하고 싶었고, 프로세스 컨설팅을 수행하며 시스템/프로세스 흐름을 실제 코드 레벨에서 검증하고 싶었다. 또한 콘셉트맵과 AI를 접목하여 아이디어를 프로토타입 코드로 구현하고, 데이터 및 AI 기반으로 확장하고자 했다. 바이브 코딩을 통해 손쉽게 프로토타입을 직접 만들어 아이디어를 빠르게 실험하고 싶었던 것도 큰 동기였다. 일반적인 경우에도 비개발자가 코드를 배우는 다양한 이유가 있었다. 반복적이고 단순한 작업을 효율화하여 업무를 자동화하고, 데이터 구조를 직접 다루어 인사이트를 도출하며 데이터 이해력을 강화하는 것이었다. 개발자와의 협업 과정에서 기술적 언어를 이해하여 소통을 원활하게 하고, 아이디어를 직접 테스트하고 시각화하여 창의적 문제 해결 능력을 키우는 데에도 코딩이 필요했다. 또한 디지털 리터러시와 융합 역량을 확보하여 커리어를 확장하고, AI 툴 활용의 전제 조건인 코드 이해를 통해 AI 시대에 적응하고자 했다. 결론적으로, 비개발자가 코드를 배우는 이유는 개발자가 되기 위해서가 아니라 아이디어를 직접 다루고, 빠르게 실험하며, 더 나은 협업자이자 창의적 문제 해결자가 되기 위함이었다. 개발자와 비개발자의 시선 차이는 명확했는데, 개발자는 ‘코드와 로직을 어떻게 짤까’에 집중하고 성능, 안정성, 기술적 가능성에 관심을 두는 반면, 비개발자는 ‘왜 이게 필요한 걸까’에 집중하며 사용성, 효율, 비즈니스 가치를 중요하게 생각했다. 예를 들어, 같은 CSV 데이터를 보더라도 개발자는 데이터의 구조와 처리 방법을, 비개발자는 그 데이터가 무엇을 말해주고 경영 의사결정에 어떻게 쓰일지에 대한 의미와 활용 방법을 보았다. “가장 현명한 사람은 계속해서 배우는 사람이다.” – 소크라테스   나만의 바이브 코딩 조합 : 작은 성공에서 배운 것들 AI와 바이브 코딩 시대에 기획자의 새로운 역할이 중요하게 부각되었다. 바이브 코딩은 2025년 2월 안드레이 카르파티가 처음 언급한 개념으로, 코드 작성보다는 ‘원하는 결과물의 느낌(바이브)’을 AI에게 자연어로 설명하여 프로그래밍하는 방식이었다. 이는 코드 작성 능력이 창의력과 기획 능력으로 전환되는 트렌드를 반영했다. 비개발자를 위한 AI 개발 방법론은 문제 정의, PRD(제품 요구 문서) 작성, AI 프롬프팅, 그리고 결과 검증의 단계로 이루어졌다. 기획자는 문제 정의와 사용자 경험에 집중하고, AI와 대화하며 요구사항을 구체화하고 결과물을 정제하며, 빠른 프로토타입으로 아이디어를 시각화하고 개선점을 파악하는 데 주력했다. 필자는 8개월간의 여정 속에서 자신만의 AI 활용법, 즉 ‘필살기’를 만들어갔다. 이는 단순히 나열된 여러 갈래의 길이 아니라, 하나의 지도 위에 유기적으로 연결되어 있었다. AI는 단순히 도구가 아니라 이 지도를 함께 그려가는 협력자가 되었다. 필자의 AI 필살기는 다음과 같았다. 커서 AI : 비개발자의 ‘첫 코치’ 역할을 했다. 코딩의 벽을 낮춰주는 동반자로, 복잡한 문법, 오류, 환경 설정의 두려움을 덜어주었다. 커서 AI는 단순한 코드 자동 생성이 아니라 필자의 의도를 코드로 번역하여 작은 실험과 반복을 가능하게 했고, 바이브 코딩 학습을 지원했다. GPT-4 기반의 AI 코드 에디터로 비주얼 스튜디오 코드(VS Code)와 호환되며, 자연어로 코딩하고, 즉각적인 에러 수정, 단계별 설명, 코드 리팩토링 기능을 제공했다. 구글 CLI(Google CLI) : 데이터와 시스템을 다루는 새로운 무기였다. 클릭 대신 명령어로 반복 작업을 자동화하여 속도와 효율성을 극대화했다. 가상머신(VM), 스토리지(Storage), 데이터베이스(DB) 등 클라우드 리소스를 제어하고, 데이터를 핸들링하며, API를 직접 호출하여 서비스 통합을 용이하게 했다. 이는 GUI의 한계를 넘어서는 전문가의 무기가 되었다. 파이썬(Python) : 실전에서 가장 유용한 최소 단위였다. 쉽고 직관적인 문법, 방대한 라이브러리, 빠른 프로토타이핑이 강점이었다. 데이터 읽기/쓰기 한 줄, 간단한 자동화 스크립트 등 작은 코드로도 큰 효과를 낼 수 있었고, CSV 분석 및 시각화, 업무 자동화, AI·ML 모델 실험 등에 활용되었다. 커서 AI와 제미나이(Gemini)가 내장되어 더 쉽게 사용할 수 있었다. 이러한 도구들을 조합하여 데이터 분석 자동화 시나리오와 업무 자동화 봇 구축 시나리오를 구현할 수 있었다. 예를 들어, 커서 AI로 데이터 수집 스크립트를 작성하고, 파이썬으로 데이터 정제 및 시각화를 하며, 구글 CLI로 정기적 실행을 스케줄링했다. 무엇보다 데이터 이해는 코드보다 중요한 사고 프레임이었다. 코딩은 기술 습득이 아니라 사고방식의 확장임을 깨달았다. 데이터 구조를 이해하면 문제 정의력이 달라지고, 기획자로서 문제를 바라보는 시각이 새로워졌다. CSV 한 줄이 어떤 의미를 담고 있는지, 칼럼이 단순한 값이 아니라 업무의 맥락임을 이해하게 되면서, 데이터를 읽는 순간 업무 프로세스가 보이기 시작했다. 이러한 변화된 시각은 단순 결과물이 아닌 흐름과 원인을 질문하게 했고, 개발자와 같은 언어로 협업 및 설계를 가능하게 하며, 데이터 기반의 빠른 실험과 검증으로 이어졌다. 필자는 매일 새로운 프로그램에 도전하는 ‘하루 한 프로그램 도전기’를 통해 작은 성공을 쌓아갔다. 완벽함보다는 경험과 시행착오를 통한 학습을 강조했고, 개발의 본질이 사고의 연습임을 깨달았다. 즉, 코드는 도구일 뿐 핵심은 문제를 정확히 이해하고 구조화하는 능력이며, 실패는 학습이고 작은 성공이 쌓여 성장 곡선을 만든다는 것이었다. 끊임없이 배우고 기록하고 다시 활용하는 과정이 훨씬 값지다는 것을 체감했다. 그러나 바이브 코딩에는 현실적인 문제점도 있었다. 새로운 기능을 추가할 때 기존 기능이 손상되는 회귀 테스트 부재 문제, AI가 전체 맥락을 충분히 기억하지 못해 발생하는 기능 안정성 문제가 있었다. 무한루프나 잘못된 로직 생성, 에러 메시지 오해 등으로 인한 오류 및 디버깅 한계, 그리고 수정 과정에서 토큰/리소스를 과다하게 소비하는 문제도 발생했다. 세션이 바뀌거나 컨텍스트가 길어지면 AI가 이전 코드의 세부 흐름을 잊어버리는 지속성 부족 문제와, AI에 의해 산발적으로 작성된 코드가 구조화가 부족하여 협업 및 유지보수가 어렵다는 한계도 있었다. 이러한 문제를 경험하며 코드를 이해하거나 개발자와 협업하는 것이 필수라는 결론에 도달했다. “성공의 비결은 기회를 잡기 위해 준비하는 것이다.” – 벤저민 디즈레일리   미래를 향한 다리 : 기획자의 새로운 역할 AI 시대에 기획자의 역할은 크게 확장될 수 있었다. 비개발자의 강점은 데이터 맥락 해석력, 비즈니스 중심 사고, 그리고 맥락적 설명 능력에 있었고, 이는 CSV 데이터 컬럼의 의미와 관계를 명확하게 설명하고, 로직보다 비즈니스 가치와 목적에 집중하며, 기술적 디테일보다 전체적인 흐름과 맥락을 설명하는 커뮤니케이션 역량을 제공했다. 프로세스 컨설턴트에서 프로그램 기획자로의 역량 확장이 필요했다. 컨설팅 경험을 시스템 아키텍처 설계에 적용하고, 업무 분석 능력을 시스템 요구사항으로 전환하며, 사용자 관점과 시스템 관점의 통합을 통해 더 나은 UX(사용자 경험)를 설계하는 것이었다. 현업 부서와 IT 부서 간의 가교 역할을 수행하고, 업무 프로세스 최적화를 통해 비효율 지점을 발견하고, 시스템 병목 현상을 데이터 흐름 관점에서 해결하는 역량이 중요했다. 컨설팅 산출물을 소프트웨어 명세서로 변환하고 워크플로 시뮬레이션으로 최적화를 검증하는 방법이 요구되었다. 기획자는 기술 이해도를 바탕으로 개발팀과의 협상력을 강화하고, 데이터 기반의 의사결정 모델을 구축하며, 비즈니스와 기술을 잇는 통합적 관점을 제시하고, 프로토타입으로 아이디어를 구체화하는 능력을 확보해야 했다. 이를 위한 역량 개발로는 시스템 사고, 기술 리터러시(API, DB 구조, 클라우드 서비스 기본 개념), 애자일 방법론, 그리고 지라(Jira), 피그마(Figma), 미로(Miro)와 같은 협업 도구 활용 능력이 있었다. 기획자와 개발자의 경계를 허물고 함께 문제를 정의하고 해결하는 통합적 협업 체계를 구축하는 것이 중요했다. “나는 똑똑한 것이 아니다. 단지 문제와 더 오래 씨름할 뿐이다.” – 알베르트 아인슈타인 AI의 본질은 ‘주체’가 아니라 ‘도움’이었다. AI는 망설임 없이 실행하지만, 그것이 옳은 방향인지 판단하는 것은 인간의 몫이었다. 필자는 회의록 요약 같은 업무를 AI에 맡겼다가 보안 문제와 인간 역량 퇴화의 위험성을 깨달았다. 편리함이 언제나 효율을 의미하는 것은 아니며, 잘못된 의존은 인간의 중요한 능력을 잃게 만들 수 있었다. 그래서 필자는 AI의 답변을 최소 세 번 이상 검증했는데, 빠른 실행보다 올바른 방향 설정이 중요했기 때문이었다. AI가 주는 답은 끝이 아니라 출발점이었다. 필자가 AI와 함께한 여정은 자신을 끊임없이 질문하게 했다. AI는 인간을 대체하는 기계가 아니라, 인간이 더 깊은 사고와 창조의 세계로 들어가도록 돕는 동반자였다. 필자가 찾은 필살기는 바로 이것이었다. AI 덕분에 자신의 본질(core)에 더 많은 시간을 쏟을 수 있게 된 것이었다. 단순 반복 업무를 대신해 주는 AI 덕분에, 필자는 사고하고 기획하고 판단하는 인간 고유의 역량에 집중할 수 있었다. AI는 더 이상 선택이 아닌 필수 도구이자 협력자였다. 중요한 것은 이 강력한 도구를 어떻게 나의 본질과 연결하여, 나만의 고유한 가치를 창출하고 미래를 만들어갈 것인가에 대한 깊은 고민과 끊임없는 실행이었다. AI는 재능은 있지만 한계에 부딪힌 사람에게 ‘도움’이 되어 AI 가수, AI 영화감독, AI 작가, AI 프로그래머가 될 수 있는 길을 열어주었다. 효율만을 쫓기보다는 본질에 집중하고, 변화의 흐름을 읽으면서도 자신만의 ‘필살기’를 계속해서 갈고 닦아야 했다. 미래를 향한 첫걸음은 지금 바로 도전하는 것이었다. 바이브 코딩은 기획 의도와 개발 실행 사이의 간극을 해소하고, AI 시대 기획자의 역할 확장과 가능성을 발견하게 해주었다. 업무 자동화로 반복 작업에서 벗어나 창의적 업무에 시간을 활용하고, 데이터 기반의 의사결정과 인사이트 도출 능력을 강화할 수 있었다. 하루 30분, 한 프로그램 만들기로 시작하는 것이 중요했고, 완벽함보다는 시작하는 용기가 중요했다. 하지만 잊지 말아야 할 것은, 바이브 코딩의 장단점을 잘 파악하여 적용해야 한다. 특히 개인적인 사용의 간단한 프로그램은 괜찮으나, 대외적인 서비스를 하는 프로그램 개발의 경우, 반드시 고급 개발자의 코드리뷰를 거쳐서 보안상의 문제, 데이터 유출 등이 없도록 해야 한다. AI는 명확하게 정의된 문제를 푸는 데 능숙하지만, 복잡하고 모호한 비즈니스 요구사항을 해석하여 견고한 시스템을 설계하는 것은 못하는 것을 명심해야 한다. “코딩은 기술이 아닌 사고 프레임의 확장이다.”    ■ 류용효 디원의 상무이며 페이스북 그룹 ‘컨셉맵연구소’의 리더로 활동하고 있다. 현업의 관점으로 컨설팅, 디자인 싱킹으로 기업 프로세스를 정리하는데 도움을 주며, 1장의 빅 사이즈로 콘셉트 맵을 만드는데 관심이 많다. (블로그)     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-10-01
레드햇-구글클라우드, 엔터프라이즈용 개방형 AI 및 에이전틱 AI 추진 위한 협력 확대
레드햇과 구글클라우드는 레드햇의 오픈소스 기술과 구글클라우드의 맞춤형 인프라 및 구글의 개방형 모델 제품군인 젬마(Gemma)를 결합해 엔터프라이즈 애플리케이션용 AI를 향상하기 위한 협력을 확대한다고 발표했다. 양사는 AI 확장을 위한 엔터프라이즈급 사용 사례 개선을 위해 여러 분야에서 협력을 진행할 예정이다. 주요한 협력 내용으로는 ▲구글이 창립 기여자로 참여하는 오픈소스 프로젝트 ‘llm-d’ 론칭 ▲구글 클라우드 TPU(Cloud TPU) 및 GPU 기반 가상머신(VM)에서 vLLM 지원 통해 AI 추론 성능 강화 ▲젬마 3 모델 배포판에서 vLLM에 대한 0일차 지원 제공 ▲구글 클라우드 상에서 레드햇 AI 인퍼런스 서버(Red Hat AI Inference Server) 지원 ▲레드햇이 구글 A2A(Agent2Agent) 프로토콜의 커뮤니티 기여자로서 참여해 에이전틱 AI 활성화 등 있다.   젬마 3를 시작으로, 레드햇은 구글의 개방형 모델 제품군인 젬마의 초기 테스터로 참여해 vLLM에 대한 즉각적인 지원을 제공한다. vLLM은 생성형 AI 애플리케이션의 출력 속도를 높이는 오픈소스 추론 서버다. 레드햇은 vLLM의 상용 기여자로서 생성형 AI 애플리케이션을 위한 보다 비용 효율적이고 반응성(responsive)이 높은 플랫폼을 제공할 계획이다. 또한 구글 AI 포트폴리오를 지원하는 고성능 AI 가속기인 구글 클라우드 TPU를 이제 vLLM에서 완전히 사용할 수 있다. 이 통합을 통해 개발자는 빠르고 정확한 추론에 필수인 성능과 효율을 달성하면서 리소스를 최대화할 수 있다. AI가 연구에서 실제 배포로 전환됨에 따라, 조직은 다양한 AI 생태계의 복잡성과 분산 컴퓨팅 전략으로 전환해야 할 필요성에 직면해 있다. 이를 해결하기 위해 레드햇은 구글이 창립 기여자로 참여한 llm-d 오픈소스 프로젝트를 출시했다. 이 프로젝트는 vLLM 커뮤니티 성과를 기반으로 생성형 AI 추론의 새로운 시대를 선도하며, 이기종 리소스 전반에서 확장성을 높이고 비용을 최적화하며 워크로드 효율성을 향상하는 동시에 지속적인 혁신을 촉진하는 것을 목표로 한다. 이제 구글 클라우드에서 레드햇 AI 인퍼런스 서버 사용이 가능하며 최신 업스트림 커뮤니티의 개선 사항을 기업에 제공한다. 레드햇의 엔터프라이즈용 vLLM 배포판인 레드햇 AI 인퍼런스 서버는 기업이 하이브리드 클라우드 환경 전반에서 모델 추론을 최적화할 수 있도록 지원한다. 기업은 견고하고 신뢰할 수 있는 구글 클라우드의 인프라를 활용하여 반응성이 뛰어나고 비용 효율적인 프로덕션 단계의 생성형 AI 모델을 대규모로 배포할 수 있다. 또한 레드햇은 개방형 AI에 대한 공동의 노력의 일환으로 구글의 A2A 프로토콜에도 기여하고 있다. 이는 다양한 플랫폼과 클라우드 환경에서 최종사용자 또는 에이전트 간의 원활한 커뮤니케이션을 위한 애플리케이션 레벨 프로토콜이다. 레드햇은 A2A 생태계에 적극적으로 참여함으로써 빠른 혁신을 위한 새로운 길을 열어 사용자가 에이전틱 AI를 통해 AI 워크플로를 역동적이고 효과적으로 유지할 수 있도록 지원한다.
작성일 : 2025-05-29
퓨어스토리지 포트웍스, 엔터프라이즈급 현대적 가상화 설루션 공개
퓨어스토리지가 자사의 대표 컨테이너 데이터 관리 플랫폼인 포트웍스 엔터프라이즈(Portworx Enterprise)의 최신 업데이트를 발표했다. 이번 업데이트는 기업이 엔터프라이즈 규모에서 현대적 가상화를 실현할 수 있도록 지원하며, 데이터 스토리지 관련 의사결정권자가 각자의 속도에 맞춰 현대화 여정을 이어갈 수 있도록 돕는다. 브로드컴의 VM웨어 인수 이후 많은 기업들이 비용 상승 없이 가상화 전략을 추진할 수 있는 현대적 설루션을 모색하고 있다. 이에 따라 컨테이너와 가상머신을 동시에 지원할 수 있는 쿠버네티스를 대안으로 채택하거나 도입을 검토 중인 기업들이 늘고 있다. 쿠버네티스를 활용하면 하나의 플랫폼에서 클라우드 네이티브 애플리케이션 개발과 인프라 현대화를 함께 추진할 수 있다. 2024년 쿠버네티스 전문가 대상 설문조사에 따르면, 응답자의 81%가 가상머신을 쿠버네티스로 이전하거나 현대화할 계획이며, 이 중 3분의 2가량은 2년 이내 이를 완료할 계획이다. 하지만 가상머신을 쿠버네티스로 이전하면서 새로운 과제도 등장하고 있다. 이번에 출시된 포트웍스 엔터프라이즈 3.3(Portworx Enterprise 3.3)은 컨테이너 데이터 관리 플랫폼을 엔터프라이즈급 가상머신 워크로드까지 확장 지원한다. 포트웍스는 미션 크리티컬 워크로드를 위한 고성능, 데이터 복원력, 데이터 보호를 제공하면서도, 대규모 프로덕션 환경에서 요구되는 단순함, 유연성, 신뢰성을 함께 제공한다. 쿠버네티스를 기반으로 한 포트웍스의 사용을 통해 기존 설루션 대비 30%에서 최대 50%까지 비용을 절감할 수 있으며, 기업은 이를 통해 더 큰 비용 효율을 기대할 수 있다. 별도의 리소스 투자 없이도 기존 가상머신을 쿠버네티스 상에 계속 유지할 수 있으며, 필요에 따라 클라우드 네이티브 애플리케이션으로 전환하거나 신규 개발할 수 있다. 포트웍스 3.3은 쿠베버트(KubeVirt) 가상머신을 위한 RWX 블록(RWX Block) 기능을 제공하며, 이는 퓨어스토리지의 플래시어레이(FlashArray)는 물론 다양한 스토리지 벤더 환경에서도 작동한다. 이를 통해 쿠버네티스 상에서 실행되는 가상머신에 강력한 읽기/쓰기 성능을 제공할 수 있다. 이제 하나의 관리 환경에서 쿠버네티스 상의 가상머신 데이터를 통합 관리할 수 있으며, 데이터 손실 없는 동기화 재해복구(zero RPO)를 지원한다. 또한, 리눅스 기반 가상머신에 대한 파일 단위 백업 및 복원이 가능해져 더욱 세분화된 데이터 보호가 가능하다. 또한 수세(SUSE), 스펙트로클라우드(Spectro Cloud), 쿠버매틱(Kubermatic) 등 주요 쿠버베트 플랫폼과의 파트너십 및 레퍼런스 아키텍처를 제공하며, 기존 레드햇과의 협업도 지속된다. 퓨어스토리지의 벤캇 라마크리슈난(Venkat Ramakrishnan) 포트웍스 부문 부사장 겸 총괄 매니저는 “포트웍스는 쿠버네티스를 기반으로 구축되어 클라우드 네이티브 애플리케이션의 유연성과 자동화, 셀프 서비스 기능을 모두 갖췄다. 이번 포트웍스 3.3은 하나의 통합 플랫폼과 다양한 통합 기능을 통해 기업이 자신만의 속도로 인프라 현대화를 추진할 수 있도록 돕는다”고 전했다. 
작성일 : 2025-04-23
HPE, 하이브리드 클라우드의 가상화를 효율화하는 VM 에센셜 출시
HPE는 하이브리드 클라우드 운영 모델로의 원활한 전환을 지원하는 비용 효율적인 가상화 설루션인 HPE VM 에센셜(HPE Virtual Machine Essentials)을 전 세계에 출시했다고 발표했다. HPE는 파트너 중심 전략 강화를 위해 HPE VM 에센셜을 채널 생태계에 독점 제공하며, 이를 통해 파트너가 고객의 가상화 전략 변화에 효과적으로 대응할 수 있도록 지원한다. HPE VM 에센셜은 독립형 설루션으로, 고객이 기존 운영중인 VM웨어(VMware) 하이퍼바이저와 더불어 새로운 HPE VM 에센셜 하이퍼바이저(KVM기반)까지 광범위한 종류의 VM(가상머신)을 관리할 수 있게 지원한다. 또한 HPE는 국내 파트너 네트워크를 통해 고객이 보다 개방적이고 비용 효율적인 가상화 인프라 환경을 만들어 갈 수 있도록 돕는다는 계획이다. 많은 기업이 가상화 환경에서 예기치 않은 비용 증가, 비용 효율적인 엔터프라이즈 지원 가상화 옵션에 대한 요구, 벤더 락인(lock-in)에 대한 우려 등 지속적인 과제에 직면해 있다. HPE VM 에센셜은 소켓 기반의 합리적인 가격 모델을 제공하고, VM웨어와 HPE VM 에센셜 하이퍼바이저의 통합 동시 운영을 지원하여 이러한 과제를 해결하는 데에 초점을 맞추었다. 또한, 통합적인 클라우드 관리 설루션인 모피어스(Morpheus)로 업그레이드할 수 있는 옵션을 마련하여, 하이브리드 클라우드 환경을 더욱 간소화할 수 있도록 돕는다.     HPE VM 에센셜은 HPE 프로라이언트 컴퓨트(HPE ProLiant Compute) Gen11 서버와 새롭게 발표된 Gen12 서버, HPE 알레트라 스토리지(Alletra Storage) MP B10000 등을 지원한다. 고객은 이를 통해 높은 가용성과 성능을 확보함과 동시에, 가상화 환경의 비용과 복잡성을 줄일 수 있다. HPE는 서버와 스토리지, 하이퍼컨버지드 인프라(HCI) 설루션 등 자사 포트폴리오 전반에 걸쳐 HPE VM 에센셜 지원 범위를 확대하고 있으며, 향후 타사 시스템으로도 확장할 계획이다. 또한, HPE는 국내 채널 지원 정책에 따라 가상화 기술력을 갖추고 있는 파트너사를 중심으로 HPE VM 에센셜 공급의 중심 역할을 수행할 수 있도록 지원할 계획이다. 이를 통해 파트너는 고객에게 신뢰할 수 있고 비용 효율적인 HPE 가상화 설루션을 제공하며, HPE VM 에센셜을 기반으로 부가가치 서비스를 구축해 고객 관계를 더욱 강화하고, 지속가능한 가상화 설루션을 찾는 기업의 총소유비용(TCO)을 절감할 수 있다. HPE의 사이먼 유잉턴(Simon Ewington) 월드와이드 채널 및 파트너 생태계 수석 부사장은 “HPE VM 에센셜 소프트웨어의 채널 중심 판매 전략은 가상화 시장의 기회를 극대화하는 동시에, 고객에게 더 많은 선택권과 낮은 총소유비용(TCO)을 제공한다”며, “또한 HPE의 에지-투-클라우드(edge-to-cloud) 전략을 실현하는 데 있어 채널의 역할이 중요해진 만큼, 설루션사들과의 생태계 구축 모델의 가속화를 추진하고 있다”고 덧붙였다. 한국휴렛팩커드의 김영채 대표이사는 “HPE VM 에센셜의 출시는 비용 효율적인 가상화 대안을 찾는 고객의 요구를 해결하는 데 있어 중요한 진전이다. 가상화 데이터센터 구축에 필요한 필수 기능과 성능을 갖춘 설루션을 경쟁력 있는 가격에 제공함으로써 HPE는 고객의 요구를 충족하고 있으며, 파트너가 주도적으로 설루션을 제공할 수 있도록 지원함으로써 채널에 대한 기술지원 능력 강화와 판매에 집중하고자 한다”고 말했다.
작성일 : 2025-02-28
지코어코리아-몬드리안에이아이, GPU 클라우드 사업 고도화 위한 MOU 체결
퍼블릭 클라우드, 에지 컴퓨팅 및 에지 AI 전문 기업인 지코어코리아는 AI 플랫폼 전문기업 몬드리안에이아이와 GPU 클라우드 사업의 고도화를 위한 양해각서(MOU)를 체결했다고 밝혔다. 지코어는 엔비디아 GPU 기반으로 고성능 머신러닝 및 AI 작업을 지원하는 클라우드 인프라를 제공한다. 또한 엄격한 기준을 충족하는 6개 대륙 180개 이상의 PoP(point of presence)를 토대로 한 글로벌 저지연 네트워크를 통해 클라우드 및 에지 AI 솔루션을 운영하고 있다.  몬드리안에이아이는 AI 클라우드 서비스 'Runyour AI’를 통해 고성능 GPU 자원을 저렴한 비용으로 수요자에게 연결하는 서비스를 제공하고 있다. 이번 협약으로 양사는 지코어의 고성능 GPU 데이터센터 자원과 Runyour AI 플랫폼을 결합해 클라우드 사업에서 시너지를 창출할 예정이다. 몬드리안에아이는 지코어의 GPU 기반 클라우드 및 스토리지 인프라를 활용해 한국을 비롯한 아시아 시장에서 구독형 AI 클라우드 서비스인 GPUaaS(GPU-as-a-Service)를 공급해 나갈 예정이다. 지코어코리아의 정현용 지사장은 “지코어의 빠르고 안정적인 GPU 클라우드가 몬드리안에이아이의 플랫폼과 만나, 그 동안 지코어의 클라우드를 선듯 도입하지 못했던 기업들에게 익숙하고 편리한 UI 환경을 제공할 수 있게 되었다”며, “양사의 이번 협업을 통해 국내 AI 비즈니스 시장 저변 확대에 기여할 것이라 자신한다”고 말했다. 몬드리안에이아이의 홍대의 대표는 “이번 지코어와의 협력으로 Runyour AI의 글로벌 시장 진출에 중요한 발판을 마련했다”며, “글로벌 AI 및 클라우드 시장에서의 경쟁력을 더욱 강화해 나가겠다”고 전했다. 몬드리안에이아이는 Runyour AI에 ‘Dev Cloud’ 기능을 추가할 예정이다. 몬드리안에이아이는 이 기능이 가상머신(VM) 기반의 CPU 상품을 월 단위로 제공함으로써 AI 모델 추론 및 데이터 분석 작업에 효과를 더할 것으로 기대하고 있다. 한편 지코어는 지난 6월에 ‘인퍼런스 앳더 에지’ 솔루션을 출시했다. 이 서비스는 사전 학습된 머신러닝 모델을 전 세계에 분포되어 있는 에지 추론 노드 중 사용자와 가장 가까운 경로 또는 위치에서 응답할 수 있도록 함으로써 원활한 실시간 추론을 지원하고 있다.
작성일 : 2024-10-15
오라클, “오라클 클라우드 VM웨어 솔루션으로 글로벌 기업의 비즈니스 성장 지원”
오라클은 다양한 산업 분야의 글로벌 기업들이 오라클 클라우드 VM웨어 솔루션(Oracle Cloud VMware Solution)을 사용해 기존의 온프레미스 데이터센터 운영을 종료하고, 비즈니스 주요 애플리케이션을 오라클 클라우드 인프라스트럭처(OCI)로 이전한다고 밝혔다. 오라클 클라우드 VM웨어 솔루션은 높은 수준의 확장성과 성능, 보안, 제어를 필요로 하는 기업을 위해 설계됐다. 기업 고객은 자사의 VM웨어 스택 전반에 대한 관리 제어 운영을 위해 클라우드 인프라스트럭처와 VM웨어 콘솔을 직접 관리할 수 있다. 기업은 이로써 기존의 기술과 모범 사례, 도구를 유지하면서 온프레미스의 VM웨어 자산을 클라우드로 신속히 마이그레이션할 수 있게 됐다. 오라클은 이 서비스에 새로운 기능을 지속적으로 추가하기 위해 오라클 클라우드 VM웨어 솔루션용 엔비디아 A10 텐서 코어(NVIDIA A10 Tensor Core) GPU와 인텔 제온 플래티넘 8358 프로세서(Intel Xeon Platinum 8358 Processor)를 갖춘 새로운 OCI 컴퓨트 구성을 발표했다. 또한 AMD 에픽(EPYC) 9J14 프로세서 기반의 또 다른 추가 구성을 출시할 계획이다. 이를 통해 오라클은 고객들에게 광범위한 워크로드 전반에서 추가 컴퓨트 옵션과 향상된 성능을 제공한다는 방침이다.     히타치 건설 기계는 유압 굴삭기, 휠 로더, 도로 시설 및 광산 장비의 개발, 제조, 판매, 임대, 관리 서비스를 제공하며 전세계에서 40만 대 이상의 건설 장비를 운용 중인 글로벌 기업이다. 히타치 건설 기계는 디지털 전환 전략의 일환으로 약 500대의 가상 서버와 100개의 데이터베이스를 온프레미스 VM웨어 가상화 환경에서 OCI 상의 오라클 클라우드 VM웨어 솔루션과 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service)로 마이그레이션 중에 있다. 히타치 건설 기계는 이를 통해 이미 인프라 운영 비용을 20% 절감하고, 온라인 트랜잭션 처리 성능을 50%, 배치 처리 성능을 60% 개선했다. 렘트랜스는 우크라이나의 철도 차량 민간 운영사로, 연간 5천2백만 톤 이상의 화물을 운송하는 1만 5000대 이상의 무개 화차를 운영하고 있다. 열차 일정 관리, ID 및 액세스 관리 등 핵심 프로세스 및 데이터베이스를 클라우드로 긴급하게 전환해야 했던 렘트랜스는 오라클 클라우드 VM웨어 솔루션을 통해 데이터 및 애플리케이션을 우크라이나 외부로 신속하게 이전해 데이터 복원력을 높이고 자사의 IT 투자를 보호할 수 있었다. 마츠다 모터스 로지스틱스 유럽 N.V.(MLE)는 유럽 고객에게 차량 및 부품을 유통하는 업무를 담당하고 있다. MLE는 유럽 30여 개국의 2300여 개 이상의 딜러 및 독립 유통업체에 직접 예비 부품을 공급하고 바르셀로나, 앤트워프, 제브뤼주 항구로 차량을 배송하여 유럽 전역에 유통한다. 회사는 데이터센터를 단계적으로 축소하고 운영을 현대화한다는 목표를 달성하기 위해 500개의 VM웨어 가상머신을 마이그레이션하고 오라클 엑사데이터 시스템을 OCI 기반 엑사데이터 데이터베이스 서비스에서 실행되는 80개의 오라클 데이터베이스에 통합했다. MLE는 또한 자사의 비즈니스 크리티컬 애플리케이션을 오라클 클라우드 VM웨어 솔루션의 12개 호스트를 갖춘 여러 소프트웨어 정의 데이터센터(SDDC)로 통합했다. 그 결과 MLE는 프랑크푸르트에 있는 2개의 데이터센터 운영을 종료하면서도 높은 수준의 애플리케이션 맞춤화 및 데이터베이스 호환성을 유지할 수 있었다. 아홀드 델레이즈는 세계 최대 규모의 식료품 리테일 기업으로, 16개의 지역별 브랜드와 7,700개의 매장, 40만명 이상의 직원을 보유하고 있다. 수년간 자체 온프레미스 VM웨어 환경 및 그 운영을 뒷받침하기 위한 여러 IT 시스템과 솔루션을 운영해 온 아홀드 델레이즈는 VM웨어에서 오라클 핵심 비즈니스 프로세스용 애플리케이션과 타사 앱을 실행하며 비교해본 후 성능 개선 및 비용 절감을 위해 클라우드로의 마이그레이션을 결정했다. 이후 회사는 자사의 네덜란드 핵심 로컬 브랜드인 앨버트 하인, 에토스, 갤앤갤을 시작으로 전자상거래 및 공급망, 리테일 프로세스를 지원하는 400개 이상의 VM웨어 가상머신(VM)을 오라클 클라우드 VM웨어 솔루션으로 마이그레이션했다. 이를 통해 남아 있던 데이터센터 상면공간을 제거하고 자사의 VM웨어 환경에 대한 전반적인 관리 제어 권한을 유지할 수 있게 되었다.  오라클의 마헤쉬 티아가라얀(Mahesh Thiagarajan) OCI 총괄 부사장은 “VM웨어 자산을 클라우드로 옮겨 운영하기를 원하는 많은 기업들이 새로운 운영방식으로 인해 IT 기술을 배워야 한다는 부담감을 느끼고 있다”면서, “오라클 클라우드 VM웨어 솔루션은 조직이 VM웨어 클러스터를 완벽하게 제어하고 기존의 도구, 기술, 프로세스를 유지해줘 재교육에 대한 부담을 덜 수 있도록 지원한다. 오라클의 솔루션은 고객이 온프레미스 VM웨어 클러스터와 동일한 운영 모델을 유지할 수 있게 하기 때문에, 클라우드를 통한 시스템 현대화 추진 시 위험성이 낮은 접근 방식”이라고 설명했다.
작성일 : 2024-07-22
AMD 인스팅트 MI300X 가속기, 애저 오픈AI 서비스 워크로드와 새로운 애저 가상머신 지원
AMD는 ‘마이크로소프트 빌드(Microsoft Build)’ 콘퍼런스에서 마이크로소프트 고객 및 개발자를 위한 최신 엔드투엔드 컴퓨팅 및 소프트웨어 기능을 공개했다. 마이크로소프트는 AMD 인스팅트(AMD Instinct) MI300X 가속기, ROCm 개방형 소프트웨어, 라이젠(Ryzen) AI 프로세서 및 소프트웨어와 알베오(Alveo) MA35D 미디어 가속기 등 AMD의 솔루션을 통해 광범위한 시장에 걸쳐 AI 기반을 구축할 수 있는 툴을 지원한다. 마이크로소프트의 새로운 애저(Azure) ND MI300X 가상머신(VM)은 현재 공식 출시되었으며, 까다로운 AI 워크로드를 처리해야 하는 허깅 페이스(Hugging Face)와 같은 고객에게 높은 성능과 효율성을 제공한다. 2023년 11월 프리뷰로 발표된 애저 ND MI300x v5 가상머신 시리즈는 고객들이 AI 워크로드를 실행할 수 있도록 캐나다 중부 지역에 공식 배포되고 있다. 최상급의 성능을 제공하는 이러한 가상머신은 높은 HBM 용량과 메모리 대역폭을 제공함으로써 고객들이 GPU 메모리에 더 큰 모델을 탑재하거나 더 적은 GPU를 이용해 궁극적으로 전력, 비용 및 솔루션 구현 시간을 절감할 수 있도록 지원한다. 또한, 이러한 가상머신과 이를 지원하는 ROCm 소프트웨어는 애저 오픈AI 서비스를 비롯한 애저 AI 프로덕션 워크로드에도 사용되고 있어, 고객들이 GPT-3.5 및 GPT-4 모델에 액세스할 수 있도록 지원한다. 마이크로소프트는 AMD 인스팅트 MI300X와 ROCm 개방형 소프트웨어 스택을 통해 GPT 추론 워크로드에서 높은 수준의 가격 대비 성능을 달성했다고 설명했다.   ▲ AMD 인스팅트 MI300X   한편, AMD 라이젠 AI 소프트웨어는 개발자들이 AMD 라이젠 AI 기반 PC에서 AI 추론을 최적화하고 구축할 수 있도록 지원한다. 라이젠 AI 소프트웨어를 이용하면 AI 전용 프로세서인 AMD XDNA 아키텍처 기반 신경망 처리장치(NPU)를 통해 애플리케이션을 실행할 수 있다. AI 모델을 CPU 또는 GPU에서만 실행하면 배터리가 빠르게 소모될 수 있지만, 라이젠 AI 기반 노트북은 임베디드 NPU을 활용해 AI 모델이 구동하기 때문에 CPU 및 GPU 리소스를 다른 컴퓨팅 작업에 활용할 수 있다. 이를 통해 배터리 수명을 늘리는 것은 물론, 개발자가 온디바이스 LLM AI 워크로드와 애플리케이션을 로컬에서 동시에 효율적으로 실행할 수 있다. 4세대 AMD 에픽 프로세서는 애저에서 사용되는 범용 가상머신을 비롯해 메모리 집약적, 컴퓨팅 최적화 및 가속 컴퓨팅 가상머신 등 수많은 솔루션을 지원하고 있다. 이러한 가상머신은 클라우드 분야에서 AMD 에픽 프로세서의 성장 및 수요 증가를 이끌고 있으며, 더욱 향상된 가격 대비 성능으로 범용 및 메모리 집약적 가상머신의 성능을 최대 20%까지 향상시키는 것은 물론, 애저를 지원하는 이전 세대 AMD 에픽 프로세서 기반 가상머신에 비해 컴퓨팅 최적화 가상머신에 대한 CPU 성능을 최대 2배까지 높일 수 있다. 프리뷰로 공개되었던 Dalsv6, Dasv6, Easv6, Falsv6 및 Famsv6 가상머신 시리즈는 향후 수개월 이내에 정식 공급될 예정이다. AMD의 빅터 펭(Victor Peng) 사장은 “AMD 인스팅트 MI300X 및 ROCm 소프트웨어 스택은 세계에서 가장 까다로운 AI 워크로드 중 하나인 애저 오픈AI(OpenAI) 챗GPT(Chat GPT) 3.5 및 4 서비스를 지원하고 있다”면서, “애저의 새로운 가상머신이 공식 출시됨에 따라 AI 고객들이 더욱 폭넓게 MI300X에 액세스하여 AI 애플리케이션을 위한 고성능, 고효율의 솔루션을 활용할 수 있게 되었다”고 밝혔다. 마이크로소프트의 최고기술책임자인 케빈 스콧(Kevin Scott) AI 부문 수석 부사장은 “마이크로소프트와 AMD는 PC를 시작으로, 엑스박스(Xbox)용 맞춤형 실리콘과 HPC, 현재의 AI에 이르기까지 여러 컴퓨팅 플랫폼에 걸쳐 다양한 파트너십을 이어오고 있다”면서, “최근에는 놀라운 AI 성능과 가치를 제공하기 위해 강력한 컴퓨팅 하드웨어와 최적화된 시스템 및 소프트웨어의 결합이 중요하다는 점에 주목했다. 우리는 마이크로소프트의 AI 고객 및 개발자들이 최첨단 컴퓨팅 집약적인 프론티어 모델에 대해 탁월한 가격 대비 성능 결과를 달성할 수 있도록 AMD의 ROCm 및 MI300X를 이용했다. 앞으로도 AI 발전을 가속화하기 위해 AMD와의 협력에 주력할 것”이라고 말했다.
작성일 : 2024-05-22
시스코, AI 기반 데이터센터·클라우드 보안 강화하는 ‘시스코 하이퍼쉴드’ 공개
시스코가 데이터센터 및 클라우드를 보호하는 기술인 ‘시스코 하이퍼쉴드(Cisco Hypershield)’를 공개했다. 인공지능(AI)이 확대되며 IT 인프라 요구 수준이 높아짐에 따라 시스코는 이 기술을 통해 인공지능과 워크로드의 활용 및 보호 방식을 재구성하겠다는 계획이다. 시스코 하이퍼쉴드는 퍼블릭 및 프라이빗 데이터센터, 클라우드 등 고객이 필요로 하는 다양한 장소에서 애플리케이션, 기기, 데이터를 보호한다. 설계 단계부터 AI 기술이 고려돼 사람의 힘으로 달성하기 어려운 높은 수준의 보안 시스템을 구축할 수 있도록 지원함으로써, 보안 담당자가 업무를 보다 원활히 할 수 있도록 돕는다. 시스코는 이와 함께 최근 발표한 이더넷 스위칭, 실리콘, 컴퓨팅 포트폴리오를 통해 AI 인프라 가속화를 진행해 나가고 있다. 시스코 하이퍼쉴드는 신규 보안 아키텍처로 하이퍼스케일 퍼블릭 클라우드를 위해 개발된 기술이 사용됐으며, 모든 IT 팀이 조직 규모에 따른 제약 없이 구축할 수 있다. 보안 울타리보다는 보안 패브릭에 가까워 데이터센터 내 모든 애플리케이션 서비스, 퍼블릭 클라우드 내 모든 쿠버네티스 클러스터, 가상머신(VM) 및 컨테이너까지 모든 보안을 강화하는 것이 가능하다. 또한, 네트워크 포트를 고성능 보안 적용 지점(security enforcement point)으로 변환시켜 클라우드뿐만 아니라 데이터센터, 공장, 병원 영상실 등 다양한 공간에서 새로운 보안 기능을 제공할 수 있다. 이로써 애플리케이션 취약점 공격을 몇 분 이내로 차단하고 측면 이동 공격(lateral movement)을 막는다. 하이퍼쉴드를 통한 보안 강화는 하이퍼스케일의 퍼블릭 클라우드에서 광범위하게 사용되는 강력한 하드웨어 가속기를 활용해 ▲소프트웨어 ▲가상머신 ▲네트워크, 컴퓨팅 서버, 어플라이언스 등 세 가지 계층에서 이루어진다. 하이퍼쉴드는 구축 단계부터 자율화와 예측이 가능하도록 설계돼, 시스템이 스스로를 자체적으로 관리할 수 있어 대규모의 초분산(hyper-distributed) 구조의 지원 접근이 가능하다. 또한, 하이퍼스케일 클라우드 안에서 클라우드 네이티브 워크로드를 연결하고 보호하기 위해 사용되는 기본 메커니즘인 오픈소스 기술 eBPF(확장 버클리 패킷 필터)를 기반으로 구축됐다. 시스코 하이퍼쉴드는 모든 클라우드에 걸쳐 데이터 처리 장치(DPU)와 같은 하드웨어 가속 장치를 활용해 애플리케이션 및 네트워크 동작의 이상 징후를 분석하고 대응한다. 또한, 보호가 필요한 워크로드에 보안을 더 적용한다. 시스코 하이퍼쉴드는 오늘날의 정교한 위협 환경으로부터 인프라를 방어하고 고객들이 직면하는 분산 취약점 방어, 자율 세그멘테이션, 자체 검증 업그레이드 등 세 가지 문제를 해결하는 데에 초점을 맞추었다. 시스코 하이퍼쉴드는 보안 적용 지점의 분산된 패브릭에서 테스트를 진행하고 보완 컨트롤(compensating controls)을 추가해 불과 몇 분 내로 네트워크를 보호할 수 있다. 그리고, 하이퍼쉴드는 기존에 가지고 있는 정책을 지속적으로 관찰하고 자동추론 및 재평가를 진행해 네트워크를 자율적으로 세분화함으로써 대규모의 복잡한 환경에서도 문제를 해결한다. 또한, 이중 데이터 평면(dual data plane)을 활용해 복잡하고 시간이 소요되는 많은 테스트 및 업그레이드 배포 과정을 자동화한다. 시스코의 AI기반 교차 도메인 보안 플랫폼인 ‘시큐리티 클라우드’에 탑재된 시스코 하이퍼쉴드는 올해 8월에 정식 출시될 예정이다. 최근 이루어진 스플렁크(Splunk) 인수로 인해 시스코의 기업 고객들은 모든 디지털 시스템에 대한 가시성과 인사이트를 확보하고 높은 수준의 보안 태세를 구축할 수 있게 됐다. 시스코의 지투 파텔(Jeetu Patel) 보안 및 협업 부문 부회장 겸 총괄 매니저는 “AI는 전 세계 80억 인구의 영향력을 800억 명의 규모로 늘릴 수 있는 거대한 잠재력을 가지고 있다. 이러한 변화로 인해 연결부터 보안, 운영, 확장 방식 등 데이터센터의 역할도 변해야 한다”고 전했다. 또한 “시스코 하이퍼쉴드를 사용하면 소프트웨어와 서버, 그리고 향후에는 네트워크 스위치까지 필요한 모든 곳에 보안을 적용할 수 있다. 수십만 개의 보안 적용 지점을 가진 분산된 시스템은 관리 방법의 간소화, 비용 감소를 이루고 시스템을 자율화하는 것이 중요하다”고 설명했다. 시스코의 척 로빈스 CEO는 “시스코 하이퍼쉴드는 시스코 역사 상 가장 중요한 보안 혁신 중 하나”라면서, “시스코는 보안, 인프라, 가시성 플랫폼의 강점을 바탕으로 고객이 AI를 활용할 수 있도록 지원할 수 있는 차별화된 포트폴리오를 갖고 있다”고 설명했다.
작성일 : 2024-04-19
엔비디아, 주요 클라우드 기업과 AI 관련 협력 강화 계획 소개
엔비디아는 GTC 행사에서 디지털 트윈과 인공지능 등 다양한 영역에서 업계 주요 기업과의 파트너십 내용을 소개했다. 이 가운데 AWS, 마이크로소프트, 구글 클라우드, 오라클 등과는 클라우드 상에서 AI 활용을 확대하는 것을 중심으로 협력을 강화할 계획이다.   AWS : 차세대 GPU 플랫폼 및 AI 인프라 제공 엔비디아는 차세대 GPU 플랫폼인 블랙웰(NVIDIA Blackwell)이 AWS에 제공된다고 발표했다. AWS는 5세대 엔비디아 NV링크로 상호 연결된 72개의 블랙웰 GPU와 36개의 그레이스 CPU로 구성된 GB200 NVL72를 갖춘 엔비디아 블랙웰 플랫폼을 제공할 예정이다. 엔비디아는 엔비디아 블랙웰이 AWS상에서 상당한 양의 컴퓨터 리소스를 필요로 하는 수조 개의 파라미터의 언어 모델의 추론 작업을 크게 향상시킬 것으로 전망하고 있다. 엔비디아와 AWS는 양사의 기술을 지속적으로 통합해 나가는 파트너십을 강화할 계획이다. 여기에는 차세대 엔비디아 블랙웰 플랫폼과 AI 소프트웨어를 비롯해 AWS의 니트로 시스템(Nitro System)과 AWS KMS(키 관리 서비스)의 고급 보안, 엘라스틱 패브릭 어댑터(EFA) 페타비트 규모의 네트워킹, 아마존 EC2(엘라스틱 컴퓨트 클라우드) 울트라클러스터 하이퍼스케일 클러스터링 등이 있다. 양사는 이런 기술을 함께 사용함으로써 아마존 EC2에서 이전 세대 엔비디아 GPU보다 더 빠르고, 저렴한 비용으로 대규모로 수조 개의 파라미터 거대 언어 모델(LLM)에 대한 실시간 추론을 구축, 실행할 수 있을 것으로 보고 있다. AWS는 엔비디아 H100 기반 EC2 P5 인스턴스의 성공을 기반으로, 대규모로 생성형 AI 훈련과 추론을 가속화하는 EC2 울트라클러스터에 배치된 새로운 B100 GPU를 탑재한 EC2 인스턴스를 제공할 계획이다. 또한 AWS에서 공동으로 만들어진 AI 플랫폼인 엔비디아 DGX 클라우드에서도 GB200을 사용할 수 있다.    마이크로소프트 : 생성형 AI 및 디지털 트윈 기술을 클라우드에서 통합 엔비디아는 GTC에서 마이크로소프트 애저(Azure), 애저 AI 서비스, 마이크로소프트 패브릭(Fabric), 마이크로소프트 365에 최신 엔비디아 생성형 AI와 옴니버스(Omniverse) 기술을 통합한다고 밝혔다. 엔비디아 옴니버스 클라우드 API(Omniverse Cloud API)는 올해 말 마이크로소프트 애저에서 먼저 제공되며, 개발자들은 기존 소프트웨어 애플리케이션에서 향상된 데이터 상호운용성, 협업, 물리 기반 시각화를 이용할 수 있도록 지원할 예정이다. 엔비디아 GPU와 엔비디아 트리톤 추론 서버(Triton Inference Server)는 마이크로소프트 365용 마이크로소프트 코파일럿에서 AI 추론 예측을 지원한다.  또한, 마이크로소프트는 엔비디아 그레이스 블랙웰 GB200과 고급 엔비디아 퀀텀-X800 인피니밴드(Quantum-X800 InfiniBand) 네트워킹의 성능을 애저에 도입할 예정이다. 이외에도 마이크로소프트는 엔비디아 H100 NVL 플랫폼에 기반한 애저 NC H100 v5 VM(가상머신)의 정식 출시를 발표했다. 미드레인지 훈련과 추론을 위해 설계된 NC 시리즈 VM은 이는 고객들에게 1개에서 2개의 엔비디아 H100 94GB PCIe 텐서 코어(Tensor Core) GPU로 구성된 두 등급의 VM을 제공하며, 엔비디아 멀티 인스턴스 GPU(MIG) 기술을 지원한다.   구글 클라우드 : 생성형 AI 앱의 구축과 관리 지원 엔비디아는 구글 클라우드와의 파트너십을 강화해 머신러닝(ML) 커뮤니티가 생성형 AI 애플리케이션을 쉽게 구축, 확장, 관리할 수 있도록 지원할 예정이다. 구글은 자사 제품과 개발자에게 AI 혁신을 지속적으로 제공하기 위해 새로운 엔비디아 그레이스 블랙웰(Grace Blackwell) AI 컴퓨팅 플랫폼을 도입하고, 구글 클라우드에 엔비디아 DGX 클라우드(DGX Cloud) 서비스를 적용한다고 발표했다. 아울러 엔비디아 H100 기반 DGX 클라우드 플랫폼은 이제 구글 클라우드에서 정식으로 사용할 수 있다. 구글은 최근 개방형 모델인 젬마(Gemma) 제품군 최적화를 위한 협력을 기반으로, 엔비디아 NIM 추론 마이크로서비스도 도입한다고 밝혔다. 이를 통해 구글은 개발자들이 선호하는 툴과 프레임워크를 사용해 훈련하고 배포할 수 있는 개방적이고 유연한 플랫폼을 제공할 계획이다. 또한, 양사는 엔비디아 GPU와 엔비디아 H100 그리고 L4 텐서 코어(L4Tensor Core) GPU 기반의 버텍스 AI(Vertex AI) 인스턴스에서 JAX를 지원한다고 발표했다.   오라클 : 데이터 관리용 가속 컴퓨팅과 생성형 AI 솔루션 제공 엔비디아는 자사의 풀스택 AI 플랫폼과 오라클 엔터프라이즈 AI를 결합해 운영, 위치, 보안에 대한 제어력을 강화한 AI 솔루션을 제공한다. 오라클 엔터프라이즈 AI는 OCI 전용 리전(OCI Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud)에 배포 가능하다. 양사의 통합 솔루션은 퍼블릭 클라우드 또는 특정 위치의 고객 데이터센터에 유연한 운영 제어를 통해 배포할 수 있다. 오라클은 어디서나 로컬로 AI와 전체 클라우드 서비스를 제공할 수 있는 역량을 내세우면서, 배포 유형에 관계없이 일관적인 서비스와 가격을 통해 계획, 이동성, 관리를 간소화한다고 강조했다. 오라클 클라우드 서비스는 엔비디아 가속 컴퓨팅 인프라와 엔비디아 AI 엔터프라이즈 소프트웨어 플랫폼을 비롯한 다양한 엔비디아 스택을 활용한다. 또한, 새로 발표된 엔비디아 NIM 추론 마이크로서비스는 엔비디아 텐서RT(TensorRT), 엔비디아 텐서RT-LLM, 엔비디아 트리톤 추론 서버(Triton Inference Server)와 같은 엔비디아 추론 소프트웨어를 기반으로 구축된다.
작성일 : 2024-03-21
[케이스 스터디] 현대엔지니어링, 클라우드의 가상화 기술로 플랜트 설계 인프라 혁신
종합 엔지니어링 기업인 현대엔지니어링은 플랜트 설계의 시간과 비용을 줄일 수 있는 방안을 고민했고, 해결책으로 클라우드 기반의 애플리케이션 가상화 및 가상 데스크톱 인프라 기술을 선택했다. 다양한 설계 프로젝트의 복잡한 환경에 맞춰 최적화된 IT 인프라를 빠르게 구축하고 관리 효율을 높임으로써, 전반적인 시간 및 비용 효과를 추구할 수 있게 됐다. ■ 정수진 편집장   다양한 프로젝트에 따른 설계 환경의 복잡성 증가 창립 50주년을 맞은 현대엔지니어링은 화공 플랜트와 전력/에너지 플랜트 설계 및 건설을 중심으로 건축/항만 인프라와 자산관리, 친환경 에너지 등 폭넓은 비즈니스를 전개하고 있다. 2023년에는 국내 건축 프로젝트 및 해외 대형 프로젝트 실적 증가에 힘입어 국토교통부의 시공능력평가에서 4위에 오르기도 했다. 현대엔지니어링 IT지원팀의 이다영 매니저는 “발주처의 요구나 프로젝트의 성격에 따라 다양한 CAD 소프트웨어를 사용하고 있다”고 소개했다. 피드(FEED)라고 불리는 기본설계 프로젝트의 경우 3D CAD만으로 빠르게 진행하기도 하고, 설계/시공/구매/조달이 포함되는 EPC 프로젝트에서는 2D와 3D CAD를 함께 사용한다는 것이다.   ▲ 아마존 앱스트림 2.0에서 구동하는 스마트 3D   3D 설계 인프라 개선 위해 클라우드 도입 현대엔지니어링은 특히 사용 빈도가 높은 3D 설계를 위해 클라우드 인프라와 서비스를 도입했다. 주된 목적은 설계 인프라의 구축 기간을 줄이는 것이었다. 워크스테이션으로 설계를 진행하는 기존의 환경에서는 CAD 소프트웨어를 구동하기에 적절한 시스템 사양을 결정하는 것부터 시스템 구매와 시스템/서비스의 안정화까지 짧지 않은 시간이 걸린다. 현대엔지니어링은 이 부분을 클라우드 기반의 가상화 기술로 해결할 수 있을 것으로 보았다. 또한 코로나19의 대유행으로 재택근무 및 원격근무가 늘어나는 환경의 변화에 대응해야 한다는 인식이 늘어난 것도 클라우드를 고려하게 된 배경이 되었다고 한다. 현대엔지니어링은 AWS의 클라우드 컴퓨팅 인프라인 EC2, 애플리케이션 가상화 서비스인 앱스트림 2.0(Amazon AppStream 2.0), VDI(가상 데스크톱 인프라) 서비스인 아마존 워크스페이스(Amazon WorkSpaces)를 도입했다.  이다영 매니저는 “AWS는 VDI, 앱 가상화, 클라우드 그래픽 등 다양한 서비스를 제공하며, 전 세계의 리전(region)을 통해 해외 현장에서도 활용할 수 있을 것으로 보았다”면서, “국내외 엔지니어링 분야에서 레퍼런스가 나오면서 진입장벽이 낮아졌다고 판단해, POC를 통해 지난 2021년부터 클라우드를 도입하게 되었다”고 소개했다.   설계 인프라 구축 시간 줄이고 효율과 유연성은 향상 클라우드 기반 플랜트 설계 인프라의 주된 강점은 시간과 비용이다. 이다영 매니저는 “설계를 위한 IT 인프라의 구축에 걸리는 시간이 5~6개월에서 1개월로 줄었다”면서, 향후에는 코드 자동화 기술을 적용해 이 기간을 2~3주까지 줄일 수 있을 것이라고 전했다. 시간 절감은 비용 절감으로 이어진다. 피드 사업에서 클라우드로 IT 인프라 비용을 줄이고, 이를 통해 전체 프로젝트의 비용 절감도 가능하다. 또한, 워크스테이션을 장기간 사용하면 성능이 저하될 수 있는데, 가상머신을 초기화하면 이런 문제를 해결하고 퍼포먼스의 일관성을 유지할 수 있다. 가상머신의 사양을 최적화해 설계 업무의 효율을 높이게 된 것도 이점이다. 물리적인 서버와 워크스테이션은 한 번 구축하면 업그레이드나 증설이 어려워서 처음부터 높은 사양으로 도입했다. 반면, 가상머신은 최적화된 사양으로 도입한 후에도 확장이 손쉽기 때문에 설계 인프라를 유연하게 운영할 수 있게 됐다. 이다영 매니저는 “클라우드 가상머신은 설계 소프트웨어마다 요구하는 사양에 맞춰 활용이 가능하다. 예를 들어 헥사곤의 스마트 3D는 앱스트림 2.0의 그래픽 성능을 활용하고, 상대적으로 낮은 사양에서도 설계를 할 수 있는 아비바 PDMS는 GPU가 없는 VDI를 구성하는 식이다. 이렇게 필요 없는 리소스를 정리하면서 가상머신의 사양을 최적화할 수 있다”고 설명했다.   ▲ 아마존 워크스페이스에서 구동하는 PDMS   성능·비용 효과에 집중하며 클라우드 도입의 장벽 제거 현대엔지니어링은 5가지의 사양으로 클라우드 가상머신을 테스트했고, 그 결과를 바탕으로 사내 설계 환경에 맞춰 가상머신 사양을 정형화한 후 확산한다는 전략을 추진하고 있다. 2021년 정식 오픈 이후에는 베트남과 러시아 등 2개 프로젝트에 클라우드를 도입했다. 이다영 매니저는 “피드 사업에서 클라우드의 효과를 체감한다면 향후 EPC 사업으로 전환하더라도 클라우드 사용에 대한 거부감을 줄일 수 있을 것”이라고 전했다. 현대엔지니어링의 클라우드 인프라 도입이 순탄한 것만은 아니었다고 한다. 가장 큰 장벽은 클라우드의 보안에 대한 우려였다. 이에 대해 현대엔지니어링은 사내망으로 구축해 보안 문제를 해소하고, AWS의 보안 솔루션을 통해 모니터링할 수 있도록 했다. 또한 사용자 권한 제어와 파일 다운로드 제한 등의 장치도 마련했다. 이다영 매니저는 “기존의 프로세스를 바꾸어야 한다는 부담도 있었는데, 이 부분은 클라우드의 성능과 비용 효과를 중심으로 사내 구성원들을 설득했다”고 전했다. 설계 소프트웨어 인프라 관리 측면에서는 빠른 구축과 관리 포인트 감소라는 이점을, 설계 담당자 측면에서는 고성능의 PC가 없어도 쉽게 접속해 사용할 수 있다는 장점을 사내 구성원들이 이해하면서 클라우드 도입이 진전을 보일 수 있었다고 한다.   클라우드 인프라 확대 추진할 계획 현대엔지니어링은 피드백 수렴과 안정화를 거쳐 향후 대규모 프로젝트에 클라우드를 도입할 예정이다. 그리고, 2024년에는 해외 현장에서 AWS의 해외 리전을 활용해 클라우드 인프라를 구축할 계획이다. IT 요구사항이 까다로운 대규모의 해외 프로젝트에 클라우드를 적용할 예정이며, 인도에 오픈 예정인 설계센터에도 클라우드를 도입할 계획이라고 한다. 또한, 현재 적용 중인 3D CAD 외에 2D 설계를 위한 클라우드도 테스트 중으로, 2023년 말 오픈 예정이다.   ▲ 현대엔지니어링 이다영 매니저는 “클라우드는 설계 실무와 인프라 관리 측면에서 시간과 비용 등 이점을 제공한다”고 설명했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-12-04