• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "미세조정"에 대한 통합 검색 내용이 10개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
[포커스] AWS, “다양한 기술로 국내 기업의 생성형 AI 활용 고도화 돕는다”
아마존웹서비스(AWS)는 최근 진행한 설문조사를 통해 국내 기업들의 AI 활용 현황과 과제를 짚었다. 또한, 신뢰할 수 있는 고성능의 인공지능 에이전트(AI agent)를 구축하고 배포할 수 있는 환경을 제공하면서 한국 시장에 지원을 강화하고 있다고 밝혔다. AWS는 AI의 도입과 활용 과정에서 기업이 겪는 기술적 어려움을 줄이고, 더 많은 기업이 쉽고 안전하게 생성형 AI를 도입하여 비즈니스 가치를 창출할 수 있도록 돕는 데 집중하고 있다. ■ 정수진 편집장    기업의 AI 도입률 높지만…고도화 위한 과제는?  AWS와 스트랜드 파트너스(Strand Partners)는 2025년 4월 한국 기업 1000곳과 일반인 1000명을 대상으로 AI에 대한 행동과 인식에 대한 설문조사를 진행하고, 그 결과를 바탕으로 한국 기업의 AI 활용 현황을 평가했다. 이 조사는 유럽에서는 3년째 진행되어 왔는데, 이번에 글로벌로 확장해 동일한 방법론을 적용했다. 스트랜드 파트너스의 닉 본스토우(Nick Bonstow) 디렉터는 설문조사 보고서의 내용을 소개하면서, 한국 기업의 AI 도입 현황과 주요 과제를 분석했다. 조사에서는 한국 기업의 48%가 AI를 도입 및 활용하고 있는 것으로 나타났는데, 이는 전년 대비 40% 성장한 수치이다. 유럽 기업의 평균 AI 도입률인 42%보다 높았는데, 특히 지난해에만 약 49만 9000 개의 한국 기업이 AI를 처음 도입한 것으로 추정된다. 본스토우 디렉터는 “AI를 도입한 기업들은 실질적인 이점을 경험하고 있다. 56%가 생산성 및 효율성 향상으로 매출 증가를 경험했고, 79%는 업무 생산성 향상 효과를 확인했다. 그리고 AI 도입에 따라 주당 평균 13시간의 업무 시간을 절감했다”고 소개했다. AI 도입률은 높지만, 국내 기업의 70%는 여전히 챗봇이나 간단한 반복 업무 자동화와 같은 기초적인 수준의 AI 활용에 머무르고 있는 상황이다. AI를 다양한 업무 영역에 통합하는 중간 단계는 7%, 여러 AI 도구나 모델을 결합하여 복잡한 업무를 수행하거나 비즈니스 모델을 혁신하는 변혁적 단계는 11%에 불과했다. 본스토우 디렉터는 “기업들이 AI의 잠재력을 완전히 활용하기 위해 더 높은 단계로 나아가야 할 필요가 있다”고 짚었다. 본스토우 디렉터는 국내 기업의 AI 도입이 양극화되고, AI 혁신의 편차를 키울 수 있다고 전했다. 한국 스타트업의 70%가 AI를 확대하고 있는데 이는 유럽의 58%보다 높은 수치로, 국내 스타트업 생태계는 AI 도입에서 뚜렷한 강점을 보였다. 스타트업의 33%는 AI를 비즈니스 전략 및 운영의 핵심 요소로 두고 있으며, 32%는 가장 고도화된 방식으로 AI를 활용하고 있다. 또한, 21%는 AI 기반의 새로운 제품 및 서비스를 개발 중이다. 반면, 국내 대기업의 69%는 여전히 AI를 효율 개선, 업무 간소화 등 기초적인 수준에서만 활용하고 있는 것으로 나타났다. 대기업의 10%만이 AI 기반 신제품 또는 서비스 개발 단계에 진입했는데, 이는 스타트업의 절반 수준이다. 이번 조사에서는 AI 도입의 주요 장애 요인으로 기술 및 디지털 인재의 부족, 자금 접근성, 규제 환경 등이 꼽혔다. 조사 응답 기업의 43%가 디지털 인재를 확보하지 못해 AI 도입 또는 확산에 어려움을 겪고 있다고 응답했고, 지난 1년간 디지털 역량 교육에 참여한 직원은 약 34%였다. 67%의 기업은 정부의 지원 정책이 AI 도입 결정에 중요하다고 응답했으며, 45%의 스타트업은 벤처 자본 56 · 접근성이 성장을 위한 핵심 요소라고 평가했다. 그리고 국내 기업들은 기술 예산 가운데 평균 23%를 규제 준수 비용에 투입하고 있으며, 34%는 AI 기본법 등 관련 입법으로 인해 이 비용이 증가할 것으로 예상했다. 본스토우 디렉터는 “한국이 AI 부문에서 세계를 선도할 수 있는 인프라와 스타트업 생태계 그리고 강한 열정을 가지고 있음을 확인했다. 하지만 AI 활용의 깊이를 더해주는 변혁적인 활용으로 나아가지 못하고 있는 점과 인재 부족, 규제 불확실성 등의 장애 요인을 해결해야 AI를 미래의 성장 동력과 경쟁력의 원천으로 삼을 수 있을 것”이라고 평가했다. 그리고, 이를 위해 한국 정부가 ▲기술 인재에 대한 투자 ▲혁신 친화적이고 명확한 규제 환경 조성 ▲공공 부문의 기술 현대화 및 디지털 전환 추진 등에 관심을 기울일 것을 제안했다.   ▲ AWS 김선수 AI/ML 사업 개발 수석 스페셜리스트   기업의 생성형 AI 활용 문턱 낮춘다 AWS의 김선수 AI/ML 사업 개발 수석 스페셜리스트는 국내 기업들이 AI를 잘 활용할 수 있도록 돕는 AWS의 생성형 AI 기술 스택과 주요 서비스를 소개했다. 그는 “2023년이 생성형 AI 개념 검증(PoC)의 해였다면 2024년은 생산 적용, 2025년은 비즈니스 가치 실현의 해가 될 것”이라고 짚었다. 또한 복잡한 작업을 자율적으로 수행하는 에이전트 AI에 대한 관심이 커지고 있다면서, 가트너(Gartner)의 전망을 인용해 “2026년까지 기업의 80% 이상이 생성형 AI API(애플리케이션 프로그래밍 인터페이스)를 사용하거나 관련 기능이 탑재된 애플리케이션을 배포할 것”이라고 전망했다. AWS는 생성형 AI를 위한 기술 스택을 세 가지 계층으로 제공한다. 가장 아래쪽에는 GPU, AI 프로세서 등을 포함해 모델 훈련과 추론에 필요한 인프라 레이어가 있고, 중간에는 AI 모델에 연결하여 각 기업에 최적화된 생성형 AI 애플리케이션을 구현하도록 돕는 모델/도구 레이어, 가장 위쪽에는 복잡한 개발 없이 쉽고 빠르게 활용할 수 있는 생성형 AI 애플리케이션 레이어가 있다. 이 기술 스택의 핵심으로 AWS가 내세운 것이 아마존 베드록(Amazon Bedrock)이다. 베드록은 생성형 AI 애플리케이션을 쉽게 구축하고 확장할 수 있도록 지원하는 완전 관리형 서비스이다. 앤트로픽, 메타, 미스트랄 AI 등 12개가 넘는 AI 기업의 파운데이션 모델(FM)을 선택해 활용할 수 있다는 점이 특징이다. 아마존 베드록은 비용, 지연 시간, 정확도를 최적화할 뿐만 아니라 기업의 필요에 맞게 모델을 맞춤 설정하거나 유해 콘텐츠/프롬프트 공격 등을 필터링해 안전한 AI 활용 환경을 갖출 수 있도록 돕는다. 김선수 수석 스페셜리스트는 “베드록은 프롬프트 엔지니어링, 검색 증강 생성(RAG), 미세조정(파인 튜닝) 등 다양한 방식으로 모델을 활용할 수 있도록 지원한다. 특히 RAG 구현을 위한 지식 베이스 및 벡터 검색 기능을 기본으로 제공해, 기업의 내부 데이터를 안전하게 연결하고 관련성 높은 답변을 생성할 수 있다”고 전했다. 최근 생성형 AI는 어시스턴트(assistant)를 넘어 워크플로를 자동화하는 에이전트(agent)로 진화하고 있으며, 궁극적으로는 사람의 개입 없이 AI끼리 자율적으로 협업하는 에이전틱 AI(agentic AI) 시스템으로 나아갈 것으로 보인다. AWS는 생성형 AI 에이전트 구축을 위해 ▲아마존 Q 디벨로퍼(Amazon Q Developer)와 같이 사전 구축된 에이전트 제품 ▲아마존 베드록 에이전트(Amazon Bedrock Agents)와 같이 내장된 오케스트레이션을 제공하는 완전 관리형 설루션 ▲스트랜드 에이전트(Strands Agents)와 같은 경량 오픈소스 SDK(소프트웨어 개발 키트)를 활용해 직접 에이전트를 구축할 수 있는 제품 등을 선보이고 있다.    ▲ AWS는 AI 에이전트의 구축과 배포를 위해 다양한 기술을 제공한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2025-08-04
HPE, 엔비디아와 협력해 AI 팩토리 포트폴리오 강화
HPE는 전체 AI 수명주기를 지원하고 기업, 서비스 제공업체, 공공기관, 연구기관 등 다양한 고객의 요구를 충족하는 ‘HPE 기반 엔비디아 AI 컴퓨팅(NVIDIA AI Computing by HPE)’ 설루션 포트폴리오를 강화한다고 발표했다. 이번 업데이트는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)와의 통합을 강화하고, 가속 컴퓨팅을 통해 HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)에 대한 지원을 확대했다. 또한 엔비디아 AI 데이터 플랫폼(NVIDIA AI Data Platform)용 HPE 알레트라 스토리지 MP X10000(HPE Alletra Storage MP X10000) 소프트웨어 개발 키트(SDK)를 새롭게 출시했다. 이와 함께 HPE는 엔비디아 RTX PRO 6000 블랙웰 서버 에디션(NVIDIA RTX PRO 6000 Blackwell Server Edition) GPU 및 엔비디아 엔터프라이즈 AI 팩토리(NVIDIA Enterprise AI Factory)의 검증된 설계에 기반한 컴퓨팅 및 소프트웨어 제품도 출시했다. 엔비디아와 공동 개발한 턴키 방식의 클라우드 기반 AI 팩토리인 ‘HPE 프라이빗 클라우드 AI(HPE Private Cloud AI)’는 통합된 AI 전략을 비즈니스 전반에 확산하고 수익성 높은 워크로드를 지원하며 리스크를 대폭 줄일 수 있도록 지원하는 전용 개발자 설루션을 포함하고 있다. 또한, 이는 AI 프레임워크, 사전 훈련 모델을 위한 엔비디아 NIM 마이크로서비스(NVIDIA NIM microservices) 및 SDK를 포함하는 엔비디아 AI 엔터프라이즈(NVIDIA AI Enterprise)의 피쳐 브랜치(Feature Branch) 모델 업데이트를 지원할 예정이다. 피쳐 브랜치 모델 지원을 통해 개발자는 AI 워크로드를 위한 소프트웨어 기능과 최적화 사항을 테스트하고 검증할 수 있다.  가드레일이 내장된 프로덕션 브랜치 모델에 대한 기존 지원과 더불어, HPE 프라이빗 클라우드 AI는 모든 규모의 기업이 개발자 시스템을 구축하고 이를 프로덕션-레디 에이전틱 및 생성형 AI 애플리케이션으로 확장하는 한편, 기업 전반에 걸쳐 안전한 다계층 접근 방식을 도입할 수 있도록 지원한다. HPE 알레트라 스토리지 MP X10000은 엔비디아 AI 데이터 플랫폼 레퍼런스 설계와 연동되는 SDK를 선보일 예정이다. HPE의 최신 데이터 플랫폼과 엔비디아의 맞춤형 레퍼런스 설계를 연결함으로써, 고객은 에이전틱 AI 구현을 위한 가속화된 성능과 인텔리전트 파이프라인 오케스트레이션을 활용할 수 있다. 이번 X10000 SDK는 HPE의 데이터 인텔리전스 전략 확대의 일환으로, 컨텍스트 기반의 AI-레디 데이터를 엔비디아 AI 생태계에 직접 통합할 수 있도록 지원한다. 이를 통해 기업은 엔비디아 가속 인프라 전반에서 수집, 추론, 훈련 및 지속적인 학습을 위한 비정형 데이터 파이프라인을 간소화할 수 있다. HPE는 SDK 통합을 통해 데이터 가치 극대화, AI 데이터 플랫폼의 효율 향상, 워크로드 요구사항에 맞는 구축 최적화 등의 이점을 얻을 수 있을 것으로 보고 있다. 엔비디아 H100 NVL, H200 NVL 및 L40S GPU를 탑재한 HPE 프로라이언트 컴퓨트 DL380a Gen12(HPE ProLiant Compute DL380a Gen12) 서버는 최근 MLPerf Inference : Datacenter v5.0 벤치마크의 GPT-J, Llama2-70B, ResNet50 및 RetinaNet을 포함한 10개 테스트에서 최고 수준의 성능을 기록했다. 이 AI 서버는 곧 최대 10개의 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU를 탑재하여 출시될 예정이며, 이를 통해 향상된 기능과 함께 에이전틱 멀티모달 AI 추론, 피지컬 AI, 모델 미세조정 뿐만 아니라 디자인, 그래픽 및 비디오 애플리케이션을 포함한 엔터프라이즈 AI 워크로드를 위한 탁월한 성능을 제공할 예정이다. HPE 프로라이언트 컴퓨트 DL380a Gen12는 공랭식 및 직접 수냉 방식(DLC)으로 제공되며, HPE 프로라이언트 컴퓨트 Gen12 포트폴리오에 탑재된 HPE iLO(Integrated Lights Out) 7은 실리콘 RoT(Root of Trust) 기반으로 한 내장된 보호 기능을 갖추고 있다. 또한, HPE 컴퓨트 옵스 매니지먼트(HPE Compute Ops Management)는 사전 알림 기능 및 예측적 AI 기반 인사이트를 통해 서버 환경을 위한 안전하고 자동화된 수명 주기 관리를 지원한다. HPE 옵스램프 소프트웨어(HPE OpsRamp Software)는 AI 워크로드 모니터링을 위한 차세대 엔비디아 RTX PRO 6000 블랙웰 서버 에디션 GPU까지 지원할 수 있는 AI 인프라 최적화 설루션으로 확장됐다. HPE 그린레이크 플랫폼(HPE GreenLake Platform) SaaS(서비스형 소프트웨어) 방식으로 구성되는 이 설루션은 기업 내 IT 팀이 하이브리드 환경 전반에 분산된 AI 인프라를 모니터링하고, 최적화를 통해 AI인프라 운영을 효율적으로 관리, 지원한다. HPE 옵스램프는 풀스택 AI 워크로드에서 인프라 옵저버빌리티, 워크플로 자동화, AI 기반 분석 및 이벤트 관리를 가능하게 하고, 엔비디아의 모든 인프라를 정밀하게 모니터링하는 한편, AI 인프라의 성능과 복원력을 모니터링할 수 있는 세분화된 측정 지표를 제공한다. HPE의 안토니오 네리(Antonio Neri) 사장 겸 최고경영자(CEO)는 “HPE는 엔비디아와의 협업을 통해 고객에게 지속적인 혁신과 실질적인 성과를 제공하고 있으며, 강력한 설루션을 기반으로 공동 개발한 첨단 AI 기술을 통해 기업이 AI 도입의 어느 단계에 있든 기업 전반에서 그 잠재력을 효과적으로 실현할 수 있도록 지원하고 있다”면서, “HPE는 오늘날의 요구를 충족하는 동시에, AI 중심의 미래를 함께 만들어가고 있다”고 밝혔다. 엔비디아의 젠슨 황(Jensen Huang) 창립자 겸 CEO는 “기업은 HPE 시스템을 활용해 최첨단 엔비디아 AI 팩토리를 구축함으로써 생성형 및 에이전틱 AI 시대에 최적화된 IT 인프라를 준비할 수 있다”면서, “엔비디아와 HPE는 데이터센터부터 클라우드, 에지에 이르기까지 인텔리전스를 확장 가능한 새로운 산업 자원으로 활용할 수 있도록 기업을 위한 기반을 함께 만들어가고 있다”고 밝혔다.
작성일 : 2025-05-23
가트너, “SLM 사용량 LLM의 3배 넘으면서 활용 본격화될 것”
가트너는 기업이 2027년까지 특정 작업에 맞춰 성능을 극대화한 소규모 언어 모델(SLM)을 도입하고, 전체 사용량이 범용 대규모 언어 모델(LLM) 사용량보다 최소 3배 이상 많을 것으로 전망했다. 가트너는 범용 LLM이 강력한 언어 처리 능력을 제공하지만, 특정 비즈니스 분야의 전문성이 요구되는 작업에서는 응답 정확도가 떨어진다고 분석했다. 가트너의 수밋 아가왈(Sumit Agarwal) VP 애널리스트는 “비즈니스 업무 흐름 내 다양한 작업과 더 높은 정확도에 대한 요구로 인해 특정 기능 또는 도메인 데이터에 맞춰 미세조정한 특화 모델로의 전환이 가속화되고 있다”면서, “SLM은 응답 속도가 빠르고 컴퓨팅 자원을 적게 소모해 운영 및 유지 관리 비용을 절감할 수 있다”고 설명했다. 기업은 검색 증강 생성(RAG) 또는 미세조정 기술을 활용해 LLM을 특정 작업에 특화된 모델로 커스터마이징할 수 있다. 이 과정에서 기업 데이터는 핵심적인 차별화 요소로 작용하며, 미세조정 요구사항을 충족하도록 관련 데이터를 구성하기 위해서는 데이터 준비, 품질 관리, 버전 관리, 전반적인 관리가 필수이다. 가트너는 기업이 자사의 고유 모델을 상용화함으로써 새로운 수익원을 창출하는 동시에 상호 연결된 생태계를 구축할 수 있다고 전했으며, 소규모 AI 모델 도입을 추진하는 기업을 위한 권장 사항을 제시했다. 가트너는 ▲비즈니스 맥락이 중요한 분야나 LLM 응답 품질, 속도가 기대에 미치지 못하는 영역에 컨텍스트 기반 SLM을 시범 도입하는 것이 효과적이며 ▲단일 모델만으로는 한계가 있는 사용 사례를 파악하고, 여러 모델과 워크플로 단계를 결합한 복합적 접근 방식을 도입하는 것이 효과적이라고 전했다. 또한 ▲언어 모델 미세조정에 필요한 데이터를 수집, 선별, 구조화하는 데이터 준비 역량에 우선순위를 두는 것이 효과적이라고 덧붙였다. ▲AI 이니셔티브를 추진하기 위해 AI 및 데이터 설계자, 데이터 과학자, AI 및 데이터 엔지니어, 리스크 및 규정 준수 팀, 구매 팀, 비즈니스 전문가 등 다양한 기술, 기능 인력의 역량 강화에 투자하는 것도 효과적이라는 설명도 추가했다. 아가왈 VP 애널리스트는 “기업은 자사의 고유한 데이터와 전문화된 업무 프로세스에서 도출된 인사이트의 가치를 점차 인식하게 되면서, 이를 수익화하고 고객과 경쟁사를 포함한 더 광범위한 대상과 공유하는 방향으로 나아갈 가능성이 높다”면서, “이는 데이터와 지식에 대한 보호 중심적 접근 방식에서 보다 개방적이고 협력적인 활용 방식으로의 전환을 의미한다”고 전했다.
작성일 : 2025-04-10
AWS, 차세대 파운데이션 모델 ‘아마존 노바’ 공개
아마존웹서비스(AWS)는 광범위한 작업에서 최첨단 인텔리전스와 가격 대비 성능을 제공하는 차세대 파운데이션 모델(FM)인 ‘아마존 노바(Amazon Nova)’를 발표했다. 아마존 노바 모델은 아마존 베드록(Amazon Bedrock)에서 사용 가능하며, 빠른 텍스트-텍스트 변환 모델인 아마존 노바 마이크로(Amazon Nova Micro)를 비롯해 아마존 노바 라이트(Amazon Nova Lite), 아마존 노바 프로(Amazon Nova Pro) 그리고 텍스트, 이미지, 비디오를 처리하여 텍스트를 생성하는 멀티모달 모델인 아마존 노바 프리미어(Amazon Nova Premier) 등을 포함한다. 아마존은 또한 두 가지 추가 모델로 스튜디오급 이미지 생성을 위한 아마존 노바 캔버스(Amazon Nova Canvas) 및 스튜디오급 비디오 생성을 위한 아마존 노바 릴(Amazon Nova Reel)을 출시했다. 아마존 노바 마이크로는 낮은 비용으로 빠른 지연 시간의 응답을 제공하는 텍스트 전용 모델이다. 아마존 노바 라이트는 이미지, 비디오, 텍스트 입력 처리가 빠른 저비용 멀티모달 모델이고, 아마존 노바 프로는 광범위한 작업에 대해 정확성, 속도, 비용의 최적의 조합을 제공하는 고성능 멀티모달 모델이다. 그리고 아마존 노바 프리미어는 복잡한 추론 작업과 맞춤형 모델 학습을 위한 최고의 교사 모델로 사용되는 아마존의 가장 강력한 멀티모달 모델이다. 아마존 노바 마이크로, 아마존 노바 라이트, 아마존 노바 프로는 현재 정식 사용 가능하며, 아마존 노바 프리미어는 2025년 1분기에 출시될 예정이다. AWS는 “다양한 업계 표준 벤치마크로 테스트한 결과 아마존 노바 마이크로, 아마존 노바 라이트, 아마존 노바 프로가 각각의 카테고리에서 메타의 라마 3.1, 구글의 제미나이 1.5, 오픈AI의 GPT-4o, 앤스로픽의 클로드 3.5 등 업계 주요 모델과 비교할 때 경쟁력 있는 성능을 보여주었다”고 소개했다. 아마존 노바 마이크로, 라이트, 프로는 200개 이상의 언어를 지원한다. 아마존 노바 마이크로는 128K 입력 토큰의 컨텍스트 길이를 지원하며, 아마존 노바 라이트와 아마존 노바 프로는 300K 토큰 또는 30분의 비디오 처리를 지원하는 컨텍스트 길이를 제공한다. 2025년 초에는 2M 이상의 입력 토큰 컨텍스트 길이를 지원할 예정이다. AWS는 모든 아마존 노바 모델이 빠르고 비용 효율적이며 고객의 시스템 및 데이터와 쉽게 사용할 수 있도록 설계됐다고 설명했다. 모든 아마존 노바 모델은 주요 AI 기업과 아마존의 고성능 파운데이션 모델을 단일 API를 통해 사용할 수 있게 해주는 완전 관리형 서비스인 아마존 베드록과 통합돼 있다. 고객들은 아마존 베드록을 사용하여 아마존 노바 모델과 다른 파운데이션 모델을 쉽게 실험하고 평가하여 애플리케이션에 가장 적합한 모델을 결정할 수 있다. 또한 이 모델들은 맞춤형 미세조정(fine-tuning)을 지원하여, 고객들이 정확도를 높이기 위해 레이블이 지정된 자체 데이터의 예시들을 모델에 지정할 수 있다. 아마존 노바 모델은 고객의 자체 데이터(텍스트, 이미지, 비디오 포함)에서 가장 중요한 것을 학습하고, 그 후 아마존 베드록이 맞춤형 응답을 제공할 수 있는 개인 미세조정 모델을 훈련시킨다. 이미지 생성 모델인 아마존 노바 캔버스는 텍스트나 이미지 프롬프트로부터 전문가급 이미지를 생성한다. 또한 텍스트 입력을 사용한 이미지 편집 기능과 색상 구성 및 레이아웃 조정을 위한 제어 기능을 제공한다. 그리고 이미지의 출처를 추적할 수 있게 하는 워터마크와 잠재적으로 유해한 콘텐츠의 생성을 제한하는 콘텐츠 관리 등 제어 기능을 내장했다. 아마존 노바 릴은 고객이 텍스트와 이미지로부터 쉽게 고품질 비디오를 생성할 수 있게 해주는 비디오 생성 모델이다. 고객은 자연어 프롬프트를 사용하여 카메라 모션, 회전, 확대/축소 등 시각적 스타일과 속도를 제어할 수 있다. 아마존 노바 릴은 현재 6초 길이의 비디오를 생성하며, 향후 몇 개월 내에 최대 2분 길이의 비디오 생성을 지원할 예정이다. 아마존은 2025년 1분기에 아마존 노바 스피치 투 스피치(speech-to-speech) 모델을 출시할 예정이다. 이 모델은 자연어의 스트리밍 음성 입력을 이해하고, 언어적 신호와 톤이나 박자 같은 비언어적 신호를 해석하며, 낮은 지연 시간으로 자연스러운 인간다운 쌍방향 상호작용을 제공함으로써 대화형 AI 애플리케이션을 변화시키도록 설계됐다. 또한 아마존은 텍스트, 이미지, 오디오, 비디오를 입력으로 받아 이러한 모든 형태로 출력을 생성할 수 있는 혁신적인 모델을 개발하고 있다고 전했다. 이 모델은 2025년 중반에 출시될 예정으로, 콘텐츠를 편집/다른 형태로 변환하거나 모든 형태를 이해하고 생성할 수 있는 AI 에이전트를 구동하는 등 다양한 작업을 수행하는 데 동일한 모델을 사용할 수 있는 애플리케이션 개발을 단순화할 것으로 보인다. 아마존의 로힛 프라사드(Rohit Prasad) 인공 일반 지능(AGI) 수석부사장은 “아마존 내부적으로 약 1000개의 생성형 AI 애플리케이션이 진행 중이며, 애플리케이션 개발자가 여전히 고민하고 있는 문제를 전반적으로 파악하고 있다”면서, “새로운 아마존 노바 모델은 내부 및 외부 개발자들의 이러한 과제 해결을 돕고 지연 시간, 비용 효율성, 맞춤화, 검색 증강 생성(RAG), 에이전트 기능에서 의미 있는 진전을 이루면서 강력한 인텔리전스와 콘텐츠 생성을 제공하고자 한다”고 말했다.
작성일 : 2024-12-05
[포커스] AWS, 앱 개발부터 비즈니스 창출까지 돕는 생성형 AI 서비스 소개
아마존웹서비스(AWS)는  AI 모델 훈련 인프라부터 AI 구축 도구, AI를 활용한 애플리케이션까지 폭넓은 생성형 AI(generative AI) 서비스 포트폴리오를 내세우고 있다. 작년부터 300개가 넘는 생성형 AI 기능을 추가하고 있는 AWS는 올해 기업의 생성형 AI 활용이 본격화될 것으로 보고, 이 시장을 리드하기 위한 기술을 적극 소개한다는 계획이다. ■ 정수진 편집장   생성형 AI의 본격 활용 확대 전망 2023년에는 생성형 AI(generative AI)가 전 세계적으로 큰 관심을 받았다. 많은 기업이 생성형 AI에 관심을 갖고, 활용 가능성을 검토하기 시작했다. AWS코리아에서 AI/ML 사업 개발을 담당하는 김선수 수석 스페셜리스트는 “많은 기업이 생성형 AI를 활용하기 위한 시범 과제를 진행했지만, 기술 자체에 매몰되면서 실질적으로 어떻게 적용할지에 대한 고민이 부족한 모습도 보였다. 반면, 올해에는 생성형 AI를 실질적으로 기업 환경에 적용하는 방법에 대한 고민과 논의가 본격화되고 있다”고 짚었다. 기업에서는 AI 모델뿐만 아니라 이를 활용하기 위한 데이터 연계, 내부 시스템과의 통합, 보안, 책임감 있는 AI 구현의 중요성에 주목하고 있다. 김선수 수석 스페셜리스트는 “AWS는 2023년 이후 326개의 생성형 AI 기능을 출시했는데, 이는 지난 18개월동안 다른 주요 AI 서비스 제공업체를 합친 것보다 두 배 이상 많은 숫자”라면서, “AWS는 광범위한 AI 기능과 서비스를 제공하고 있으며, 이를 통해 기업들이 생성형 AI 기술을 효과적으로 활용할 수 있도록 돕고 있다”고 소개했다. AWS의 생성형 AI  서비스는 AI 모델을 직접 구축하고 훈련하며 추론하는 인프라와 플랫폼부터 기업이 다양한 AI 애플리케이션을 구축할 수 있도록 돕는 도구, AI를 활용하는 애플리케이션까지 다양하다. 이 중 아마존 베드록(Amazon Bedrock)은 단일 API를 통해 여러 AI 모델을 손쉽게 사용할 수 있게 해주는 서비스로, 기업들이 파운데이션 모델(FM)을 활용해 생성형 AI 애플리케이션을 구축 및 확장할 수 있도록 돕는다. 특정 AI 모델에 의존하지 않고 필요에 맞는 모델을 선택하여 다양한 산업 요구에 대응할 수 있다는 것이 베드록이 내세우는 주요한 이점이다.   ▲ AWS의 생성형 AI 서비스 3단계 스택   생성형 AI의 구축과 활용 돕는 서비스 강화 AWS는 지난 7월 ‘AWS 서밋 뉴욕 2024’ 이벤트에서 아마존 베드록의 새로운 기능을 발표했다. 아마존 베드록은 아마존뿐 아니라 앤트로픽(Anthropic), 메타(Meta), 미스트랄 AI(Mistral AI) 등 다양한 회사의 AI 모델을 선택해 사용하도록 지원하는데, 이번에 앤트로픽의 클로드 3(Claude 3) 모델에 대한 미세조정(파인튜닝) 작업을 설정할 수 있게 됐다. 이로써 더 많은 생성형 AI 모델에 대한 최적화가 가능해졌다는 것이 AWS의 설명이다. 김선수 수석 스페셜리스트는 생성형 AI 모델을 전문화/개인화하는 데에 쓰이는 검색 증강 생성(Retrieval Augmented Generation) 기법을 소개하면서, AI 모델이 기업의 내부 데이터를 연계하여 더욱 정확하고 산업에 특화된 답변을 제공할 수 있도록 돕는 ‘지식 기반을 위한 확장된 데이터 커넥터’가 추가됐다고 소개했다. 이 커넥터는 CSV, PDF 등 다양한 데이터를 연결해 기업이 AI 모델을 커스터마이징하도록 돕는다. 이를 통해 산업별로 특화된 답변을 제공하거나, 실시간 데이터를 활용해 더욱 정교한 결과를 얻을 수 있다. 또한, AWS는 책임감 있는 AI를 구현하기 위해 보안/보호 기능의 일부로 아마존 베드록에 추가된 가드레일(Guardrails for Amazon Bedrock)을 소개했다. 가드레일은 생성형 AI 애플리케이션을 만들 때 개인정보 보호와 안전 조치를 만들 수 있도록 돕고, 이를 통해 AI 모델이 유해한 콘텐츠를 85% 이상 줄이도록 돕는다. 가드레일의 그라운딩 체크(Grounding Checks) 기능은 AI 모델이 제공하는 답변이 사용자가 의도한 참조 자료와 일치하는지, 그리고 질의 내용과 관련성이 있는지를 평가해 환각 현상을 감지/차단하면서 신뢰할 수 있는 결과를 제공하도록 한다. 김선수 수석 스페셜리스트는 “AWS는 다양한 AI 모델과 기술, 그리고 이를 지원하는 도구와 함께 기업이 필요로 하는 AI 구현에 대한 요구를 충족시키는 다양한 기능을 제공하고 있다”면서, “앞으로도 AWS는 AI 기술과 서비스의 발전을 추진하며, 기업이 생성형 AI를 통해 새로운 비즈니스 기회를 창출할 수 있도록 지원할 것”이라고 전했다.   ▲ 아마존 Q 디벨로퍼의 커스터마이제이션 기능   생성형 AI로 개발자의 업무 효율 높인다 AWS코리아의 윤석찬 수석 테크 에반젤리스트는 “AWS의 생성형 AI 기술은 개발자가 더욱 창의적이고 가치 있는 작업에 집중할 수 있도록 돕고 있으며, 기업의 디지털 혁신을 가속화하는 데에 중요한 역할을 한다”면서, 개발자를 위한 생성형 AI 기술을 소개했다. 가트너(Gartner)에 따르면, 일반적으로 개발자는 27%의 시간을 새로운 기능을 개발하는 데에 사용하고, 73%의 시간은 기존 코드의 유지보수나 보안 취약점 해결에 사용한다. 생성형 AI가 이 73%의 시간을 줄여서 개발 생산성을 높일 수 있다는 것이 윤석찬 수석 테크 에반젤리스트의 설명이다. AWS의 ‘아마존 Q 디벨로퍼(Amazon Q Developer)’는 AWS가 20년간 축적한 데이터를 기반으로 학습된 생성형 AI를 활용해 개발자의 작업을 지원하는 생성형 AI 챗봇 서비스이다. 새로운 코드를 생성하는 것뿐만 아니라 기존 코드의 업그레이드에도 쓰이며, 인프라를 관리하거나 생산성을 높이는 데에 도움을 준다는 것이 AWS의 설명이다. 윤석찬 수석 테크 에반젤리스트는 Q 디벨로퍼가 소프트웨어 개발의 전체 단계에서 쓰일 수 있다고 설명했다. 웹 애플리케이션을 만들 때 챗봇을 통해 개발 방식에 대한 가이드를 받고, 코드를 구현할 때에도 AI가 제안한 코드를 검토해 수용할 수 있다. 코드 테스트와 품질 보장 기능은 보안 취약점이나 비용이 많이 드는 코드 등을 쉽게 확인할 수 있게 한다. 또한, 자바(Java) 8에서 자바 11 또는 17로 코드를 자동 변환하는 기능은 개발자가 수작업으로 코드를 수정하는 번거로움을 덜어준다. AWS는 Q 디벨로퍼에 커스터마이제이션 기능을 추가했는데, 이 기능을 통해 회사 내 소스 코드 저장소나 규정 문서를 기반으로 기존의 코드 및 사내 규정에 맞는 맞춤형 코드 제안을 받을 수 있다. 이 기능은 벡터 데이터베이스에 회사 데이터를 저장하고, 이를 AI 모델에 연결해 제안할 수 있게 한다.  또한, Q 디벨로퍼는 보안과 데이터 관리, 그리고 생성형 AI의 응답에 대한 가드레일 기능을 기본으로 탑재해 안전성을 높였다. 윤석찬 수석 테크 에반젤리스트는 “영국의 브리티시 텔레콤 그룹의 경우, Q 디벨로퍼 도입 후 4개월 동안 10만 줄 이상의 새로운 코드를 생성하고, 반복 작업의 12%를 자동화하여 효율을 높였다. 또한, 생성형 AI가 제안한 코드의 37%는 개발자가 바로 수락해 사용할 정도로 유용성이 입증되었다”고 전했다. 한편, AWS는 개발자 리소스가 부족한 기업에서 일반 직원도 쉽게 애플리케이션을 개발할 수 있도록 돕는 ‘AWS 앱 스튜디오(AWS App Studio)’를 발표했다. 이 로코드 도구는 개발자가 아닌 사람들도 손쉽게 애플리케이션을 만들 수 있도록 도와주며, 이를 통해 업무 효율을 높일 수 있다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-09-03
HPE, 생성형 AI용 엔드 투 엔드 AI 네이티브 포트폴리오 출시
HPE는 엔비디아 GTC에서 생성형 AI, 딥러닝, 머신러닝 애플리케이션의 운영 고급화를 위한 통합 AI 네이티브 포트폴리오를 새롭게 업데이트했다고 발표했다. 이번에 발표된 업데이트는 ▲HPE와 엔비디아가 공동 엔지니어링한 풀스택 생성형 AI 솔루션 ▲HPE 머신러닝 추론 소프트웨어 프리뷰 버전 ▲엔터프라이즈급 검생증강생성(RAG : Retrieval-augmented generation) 레퍼런스 아키텍처 ▲신규 엔비디아 블랙웰(NVIDIA Blackwell) 플랫폼 기반 제품 개발 지원 등을 포함한다. 대규모 AI 모델의 개발 및 훈련을 위해 사전 구성 및 테스트된 풀스택 솔루션을 원하는 기업을 위해 생성형 AI용 HPE 슈퍼컴퓨팅 솔루션도 출시됐다. 고객들이 생성형 AI 및 딥러닝 프로젝트 개발을 가속할 수 있도록 목적 기반의 턴키 솔루션은 엔비디아 칩으로 구동되며 최대 168개의 엔비디아 GH200 그레이스 호퍼 슈퍼칩(GH Grace Hopper Superchip)이 제공된다. 이 솔루션은 대기업, 연구소 및 정부 기관들이 인공지능 및 머신러닝 소프트웨어 스택을 활용한 모델 개발 과정을 더욱 단순화할 수 있도록 지원한다. 이러한 소프트웨어 스택은 고객들이 대규모 언어 모델(LLM), 추천 시스템, 벡터 데이터 베이스 등 생성형 AI와 딥러닝 프로젝트를 더욱 빠르게 추진할 수 있도록 한다. 설치에서부터 모든 서비스가 제공되는 턴키 솔루션을 이용해 AI 연구 센터와 대기업은 가치 창출까지의 시간을 더욱 단축하고 훈련은 2~3배 더욱 신속히 진행할 수 있다.     HPE의 생성형 AI용 엔터프라이즈 컴퓨팅 솔루션은 유연하고 확장 가능한 사용량 기반 과금 모델을 제공하는 HPE 그린레이크(HPE GreenLake)를 통해 이용할 수 있다. 엔비디아와 공동 엔지니어링하여 사전 구성된 미세 조정(fine-tuning) 및 추론 솔루션은 생성형 AI 애플리케이션을 제작하기 위해 필요한 정확한 컴퓨팅, 스토리지, 소프트웨어, 네트워킹 및 컨설팅 서비스를 제공함으로써 소요 시간과 비용을 절감해 준다. 이러한 AI 네이티브 풀스택 솔루션은 프라이빗 데이터 기반의 파운데이셔널 모델을 제작하기 위해 필요한 속도, 규모, 관리 기능을 제공하고 하이브리드 클라우드 모델 내 생성형 AI 애플리케이션을 배포할 수 있도록 지원한다. HPE와 엔비디아의 고성능 AI 컴퓨팅 클러스터 및 소프트웨어를 기반으로 하는 이 솔루션은 경량 모델 미세조정, RAG, 대규모 추론 등에 이상적이다. 이 솔루션을 실행하는 700억 개의 파라미터를 가진 라마 2(Llama 2) 모델의 미세 조정 시간은 노드 수에 따라 선형적으로 감소하여 16노드 시스템에서는 6분이 소요된다. 이러한 속도와 성능 덕분에 고객은 버추얼 어시스턴트, 지능형 챗봇, 기업용 검색과 같은 AI 애플리케이션으로 비즈니스 생산성을 개선하여 가치 실현을 더욱 빠르게 달성할 수 있다. 또한, 해당 솔루션은 HPE 프로라이언트 DL380a Gen11 서버(HPE ProLiant DL380a Server)를 기반으로 엔비디아 GPU, 엔비디아 스펙트럼-X 이더넷(NVIDIA Spectrum-X Ethernet) 네트워킹 플랫폼, 엔비디아 블루필드-3 DPU(NVIDIA BlueField-3 DPU)으로 사전 구성되어 있다. 이에 더해 HPE의 머신러닝 플랫폼과 애널리틱스 소프트웨어, 생성형 AI 모델 추론용으로 최적화된 엔디비아 NIM 마이크로서비스가 제공되는 엔비디아 AI 엔터프라이즈 5.0 소프트웨어뿐만 아니라 엔비디아 네모 리트리버(NeMo Retriever) 및 기타 데이터 사이언스와 AI 라이브러리를 이용할 수 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 “생성형 AI의 미래를 실현하고 AI 생명주기 전반을 다루기 위한 솔루션은 설계부터 하이브리드로 제작되어야 한다. AI는 하이브리드 클라우드 환경이 필요한 워크로드로, 온프레미스나 코로케이션 시설, 퍼블릭 클라우드에서 AI 모델을 훈련하는 것부터 에지에서의 추론 작업까지 모든 환경에 걸쳐 진행된다”면서, “HPE와 엔비디아는 공동 설계한 AI 소프트웨어 및 하드웨어 솔루션을 지속적으로 선보이며, 고객들이 기획에서부터 제작까지 생성형 AI를 가속해서 개발하고 배포할 수 있도록 도와줄 것”이라고 말했다. 엔비디아의 젠슨 황(Jensen Huang) CEO는 “생성형 AI는 커넥티드 디바이스, 데이터 센터 및 클라우드 내 데이터에서 인사이트를 도출해내며 전 산업의 혁신을 일으킬 수 있다. 엔비디아와 HPE의 협력 확대를 통해 기업들은 데이터를 활용하여 새로운 AI 애플리케이션을 개발 및 배포함으로써 전례 없는 생산성 향상을 경험하고 비즈니스를 새롭게 전환할 수 있을 것”이라고 말했다.
작성일 : 2024-03-26
[포커스] 오라클, 생성형 AI로 기업의 대규모 AI 도입과 활용 지원
클라우드 시장 후발주자로 나선 오라클이 혁신 기술을 선보이며 시장 공략에 나섰다. 한국오라클은 연례 콘퍼런스 행사인 ‘오라클 클라우드 서밋’을 1월 25일 그랜드 인터컨티넨탈 서울 파르나스 호텔에서 개최하고, 멀티 클라우드 시대를 맞아 오라클의 통합 클라우드 및 생성형 AI 전략을 소개했다. 이와 함께 자사의 사업 성과와 새롭게 출시된 생성형 AI(generative AI) 서비스에 대해서도 밝혔다. ■ 최경화 국장   ▲ 한국오라클 탐 송 회장   한국오라클 탐 송 회장은 ‘오라클 클라우드 서밋 2024’ 기자간담회에서 한국오라클의 사업 주요 성과에 대해 발표했다. 탐 송 회장은 “한국오라클의 클라우드 사업은 2023년 6월~11월 기준 3배 이상 성장하고 있는데, 기업의 데이터 기반 디지털 혁신을 위한 클라우드 전환 및 신규 확산 수요가 성장을 견인하고 있다. 주요 대기업의 미션 크리티컬 부문에서 클라우드 성과는 4배 수준으로 성장했고, 중견/중소기업 및 스타트업 부문에서도 클라우드 성과가 60% 이상 성장했다”면서,.이처럼 오라클 클라우드가 성장하고 있는 이유는 “싸고, 빠르고, 안전하기 때문”이라고 밝혔다.     오라클은 클라우드 후발 주자로 나선 만큼 가격과 함께 제품 경쟁력의 차별화를 내세우면서 시장을 공략하고 있다..올해 한국오라클은 데이터-AI 통합 솔루션 제공을 가속화하여 기업 주요 시스템의 클라우드 전환 조력 및 가치를 극대화해 나갈 계획이다. 또한 국내 중소/스타트업 기업을 위한 지원과 협력 활동을 지속하고, 새로운 리더십과 조직 강화로 성장 모멘텀 지속 확장 및 매출 성장을 달성한다는 계획이다.   OCI 생성형 AI 서비스 출시 오라클은 오라클 클라우드 인프라스트럭처(OCI)에 생성형 AI 서비스를 정식 출시한다고 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 한층 진보한 최신 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 새로운 혁신 기술을 선보인다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어(Cohere)의 대규모 언어 모델(LLM)과 메타(Meta)의 라마 2(Llama 2) LLM을 원활하게 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은 OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전(OCI Dedicated Region)을 통해 온프레미스 환경에서도 이용 가능하다.     생성형 AI 모델의 커스터마이징 간소화 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용 가능한 관리형 서비스 방식으로 제공한다. 또한 고객은 오라클의 강력한 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 또한 오라클의 검색 증강 생성(Retrieval Augmented Generation : RAG) 기술은 고객이 자체 데이터를 사용해 생성형 AI모델을 추가적으로 학습시킴으로써, 조직의 독특한 내부 운영 방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트(OCI Generative AI Agents) 서비스에는 RAG 에이전트가 포함돼 있다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치(OCI OpenSearch)를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 해당 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 향후 버전에서는 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색(AI Vector Search) 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어(Vector Store) 기능을 활용한 MySQL 히트웨이브(MySQL HeatWave)에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트(Oracle Fusion Cloud Applications Suite), 오라클 넷스위트(Oracle NetSuite)를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스(Oracle Health)를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다.     오라클의 솔루션 포트폴리오 전반에 걸쳐 내장되는 생성형 AI 오라클은 “선도적인 AI 인프라스트럭처 및 포괄적인 클라우드 애플리케이션 포트폴리오가 고객의 두터운 신뢰를 얻고 있다”고 밝히고 있다. 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 한편, 오라클은 고객이 허깅페이스(Hugging Face)의 트랜스포머(Transformers), 파이토치(PyTorch) 등의 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스(OCI Data Science)의 기능을 확장해 나가고 있다..2월에 베타 버전이 출시된 OCI 데이터 사이언스 AI 퀵 액션(OCI Data Science AI Quick Actions) 기능은 메타 또는 미스트랄 AI(Mistral AI) 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다.   오라클은 어떤 회사? 오라클은 1977년 래리 엘리슨이 봅 마이너, 에드 오츠와 함께 미국 국방부의 프로젝트에 관계형 데이터베이스 관리 시스템(Relational Database Management System)을 개발, 상용화한 것을 시작으로 설립돼, 전 세계 클라우드 및 IT 시장에서 활약하는 기업으로 자리잡았다. 지난 2009년 4월에는 썬마이크로시스템즈를 인수하면서 기업용 소프트웨어에서 하드웨어 인프라에 이르기까지 통합된 시스템을 제공할 수 있는 기업으로 탈바꿈했다. 특히, 오라클은 클라우드 영역에서 ERP(전사적자원관리), HCM(인적자본관리), CX(고객경험솔루션), SCM(공급망관리) 및 이와 연계된 퓨전 애널리틱스(Fusion Analytics) 등 클라우드 애플리케이션부터 서비스형 플랫폼(PaaS) 및 서비스형 인프라(IaaS)까지 광범위한 제품군을 미주, 유럽 및 아시아 전역의 44개 클라우드 리전에서 제공하고 있다. 오라클의 주요 사업 영역으로는 ▲오라클 DBMS 및 클라우드(PaaS/IaaS) ▲오라클 클라우드 애플리케이션(SaaS) ▲오라클 시스템(System) 등이 있다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-03-04
오라클, 생성형 AI 내장 적용해 기업의 대규모 AI 도입 및 활용 지원
클라우드 시장 후발주자로 나선 오라클이 혁신기술을 선보이며 시장공략에 나섰다. 한국오라클은 가장 큰 연례 컨퍼런스 행사인 오라클 클라우드 서밋을 1월 25일 그랜드 인터컨티넨털 서울 파르나스 호텔에서 개최하고, 멀티 클라우드 시대를 맞아 오라클의 통합 클라우드 및 생성형 AI 전략을 소개했다. 이와함께 기자간담회를 통해 한국오라클의 사업 성과와 새롭게 출시된 생성형 AI 서비스에 대해서도  밝혔다.    한국오라클 탐 송 회장 한국오라클 탐 송 회장은 1월 25일 서울 그랜드인터컨티넨탈 서울 파르나스에서 열린 '오라클 클라우드 서밋 2024' 기자간담회에서 한국오라클의 사업 주요 성과에 대해 발표했다.  탐 송 회장은 “한국오라클의 클라우드 사업은 2023년 6월~11월 기준 3배 이상 성장하고 있는데 기업의 데이터 기반 디지털 혁신을 위한 클라우드 전환 및 신규 확산 수요가 견인하고 있다. 주요 대기업의 미션 크리티컬 부문에서 클라우드 성과는 4배 수준으로 성장했고, 중견, 중소, 스타트업 부문에서도 클라우드 성과가 60% 이상 성장했다”면서, 이처럼 오라클 클라우드가 성장하고 있는 이유는 “싸고, 빠르고, 안전하기 때문”이라고 밝혔다.     오라클은 클라우드 후발 주자로 나선 만큼 가격과 함께 차별화된 제품 경쟁력으로 시장을 공략하고 있다.  올해 한국오라클은 올해 데이터-AI 통합 솔루션 제공을 가속화하여 기업 주요 시스템의 클라우드 전환 조력 및 가치를 극대화해 나갈 계획이다. 또한 국내 중소/스타트업 기업을 위한 지원과 협력활동을 지속하고, 새로운 리더십과 조직 강화로 성장 모멘텀 지속 확장 및 매출 성장을 달성할 계획이다.   오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스 출시     오라클은 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI(Oracle Cloud Infrastructure Generative AI) 서비스를 정식 출시한다고 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 한층 진보한 최신 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 새로운 혁신기술들을 선보인다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어(Cohere)의 대규모 언어 모델(LLM)과 메타(Meta)의 라마 2(Llama 2) LLM을 원활하게 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은   OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전(OCI Dedicated Region)을 통해 온프레미스 환경에서도 이용 가능하다. 생성형 AI 모델의 커스터마이징 간소화 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용가능한 관리형 서비스 방식으로 제공한다. 또한 고객은 오라클의 강력한 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 또한 오라클의 검색 증강 생성(Retrieval Augmented Generation, RAG) 기술을 통해 고객은 자체 데이터를 사용해 생성형 AI모델을 추가적으로 학습시킴으로써 조직의 독특한 내부 운영방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트(OCI Generative AI Agents) 서비스에는 RAG 에이전트가 포함돼 있다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치(OCI OpenSearch)를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 해당 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 향후 버전에서는 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색(AI Vector Search) 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어(Vector Store) 기능을 활용한 MySQL 히트웨이브(MySQL HeatWave)에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트(Oracle Fusion Cloud Applications Suite), 오라클 넷스위트(Oracle NetSuite)를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스(Oracle Health)를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다. 오라클의 솔루션 포트폴리오 전반에 걸쳐 내장되는 생성형 AI 오라클의 선도적인 AI 인프라스트럭처 및 포괄적인 클라우드 애플리케이션 포트폴리오는 고객의 두터운 신뢰를 얻고 있다. 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 오라클은 고객이 허깅페이스(Hugging Face)의 트랜스포머(Transformers), 파이토치(PyTorch) 등의 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스(OCI Data Science)의 기능을 확장해 나가고 있다.  2월에 베타 버전 출시가 예정된 OCI 데이터 사이언스 AI 퀵 액션(OCI Data Science AI Quick Actions) 기능은 메타 또는 미스트랄 AI(Mistral AI) 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다.  
작성일 : 2024-01-25
오라클, OCI 생성형 AI 서비스 출시… “기술 스택 전반에 생성형 AI 내장”
오라클이 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스를 정식 출시한다고 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 최신의 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 기술을 제공한다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어(Cohere)의 대규모 언어 모델(LLM)과 메타(Meta)의 라마 2(Llama 2) LLM을 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은 OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전(OCI Dedicated Region)을 통해 온프레미스 환경에서도 이용 가능하다. 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용가능한 관리형 서비스 방식으로 제공한다. 또한 고객은 오라클의 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 또한 오라클의 검색 증강 생성(RAG) 기술을 통해 고객은 자체 데이터를 사용해 생성형 AI 모델을 추가적으로 학습시킴으로써 조직의 독특한 내부 운영 방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트 서비스에는 RAG 에이전트가 포함돼 있다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써, 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 이 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 오라클은 향후 버전에서 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색(AI Vector Search) 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어(Vector Store) 기능을 활용한 MySQL 히트웨이브(MySQL HeatWave)에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트(Oracle Fusion Cloud Applications Suite), 오라클 넷스위트(Oracle NetSuite)를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스(Oracle Health)를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다. 한편, 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다고 전했다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점을 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 오라클은 고객이 허깅페이스(Hugging Face)의 트랜스포머(Transformers), 파이토치(PyTorch) 등의 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스(OCI Data Science)의 기능을 확장해 나가고 있다. 2월에 베타 버전 출시가 예정된 OCI 데이터 사이언스 AI 퀵 액션(OCI Data Science AI Quick Actions) 기능은 메타 또는 미스트랄 AI(Mistral AI) 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다. 오라클의 그렉 파블릭(Greg Pavlik) OCI 사업부문 AI 및 데이터 관리담당 수석부사장은 “AI 부문에서 오라클의 전략적 목표는 기업의 광범위한 AI 도입을 위해 실제 비즈니스 사례에서 발생했던 문제를 해결하는 데 집중하는 것이다. 따라서 빠르고 비용 효율적인 AI 인프라를 기반으로 생성형 AI 모델을 자체 애플리케이션 및 융합형 데이터베이스에 통합하고, 새로운 LLM 및 관리형 서비스 제공을 통해 AI를 오라클 기술 스택의 모든 계층에 내장하고 있다”면서, “오라클은 고객이 직접 모아서 구성해야 하는 방식의 도구 모음이 아닌, 하나의 제품처럼 유기적으로 작동하는 강력한 사전 구축 생성형 AI 서비스 및 기능 제품군을 제공한다. 이를 통해 고객은 비즈니스 문제를 영민하고 빠른 방식으로 해결할 수 있게 된다”고 말했다. 
작성일 : 2024-01-25
HPE, 대규모 언어모델을 위한 AI 클라우드 공개
HPE가 자사의 연례행사인 'HPE 디스커버 라스베가스 2023'에서 대규모 언어모델을 위한 제품 ‘LLM용 HPE 그린레이크 (HPE GreenLake for LLM)’을 공개하면서, HPE 그린레이크의 포트폴리오 확장 및 AI 클라우드 시장 진출을 밝혔다. 이번에 공개된 대규모 언어모델(LLM)을 위한 HPE 그린레이크는 AI 소프트웨어와 고성능의 슈퍼컴퓨터를 함께 활용할 수 있는 지속가능한 슈퍼컴퓨팅 플랫폼이다. HPE는 스타트업부터 포춘 선정 500대 기업에 이르기까지 다양한 규모의 기업들이 온디맨드 형식으로 멀티 태넌트 슈퍼컴퓨팅 클라우드 서비스를 이용할 수 있도록 지원한다는 계획이다. HPE LLM용 그린레이크는 알레프 알파(Aleph Alpha)의 사전 훈련된 대규모 언어모델인 루미너스(Luminous)에 대한 접근도 제공하며, 이 모델은 영어, 프랑스어, 독일어, 이탈리아어 및 스페인어 등 다양한 언어로 서비스된다. 또한 고객들은 이를 활용해 자사 데이터를 활용하고 맞춤형 모델을 훈련 및 미세조정(Fine-tune)하며 예측가능한 정보를 바탕으로 실시간 인사이트를 도출해 낼 수 있다. 기업들은 이 서비스를 통해 다양한 시장에 맞게 AI 애플리케이션을 구축하고 워크플로에 통합시켜 비즈니스 및 연구를 기반으로 한 가치를 창출할 수 있다. HPE LLM용 그린레이크는 HPE 크레이 XD 슈퍼컴퓨터(HPE Cray XD supercomputers)에서 구동되며 온디맨드로 이용 가능하다. 이를 통해 고객들은 비용이 높고 관리가 복잡하며 전문 기술이 필요한 슈퍼컴퓨터를 자체적으로 구매하거나 관리할 필요가 없어졌다. 이 서비스는 HPE 크레이 프로그래밍 환경(HPE Cray Programming Environment)을 통해 제공되는데 HPE 크레이 프로그래밍 환경은 소프트웨어 제품군에 통합된 서비스로 HPC 및 AI 애플리케이션을 최적화해주며 개발, 포팅(porting), 디버깅 및 코드 조정을 위한 툴셋을 제공한다. 이에 더해, 슈퍼컴퓨팅 플랫폼은 HPE의 AI/ML 소프트웨어를 제공한다. 그 중 HPE 머신러닝 개발 환경(HPE Machine Learning Development Environment)은 대규모 모델을 빠르게 훈련하는 것을 돕고, HPE 머신러닝 데이터 매니지먼트 소프트웨어(HPE Machine Learning Data Management Software)는 재현가능한(reproducible) AI 역량을 바탕으로 데이터를 통합, 추적 및 검사함으로써 믿을 수 있고 정확한 모델을 생성할 수 있도록 한다. HPE의 LLM용 그린레이크는 기업이 자체적으로 대규모 AI 모델을 훈련, 조정 및 배포할 수 있게 한다. HPE는 고객들이 업계에서 검증된 LLM을 바로 사용할 수 있도록 독일 AI 스타트업 파트너 알레프 알파(Aleph Alpha)와 협력해 LLM용 HPE 그린레이크를 제공할 계획이다. HPE는 "기업들이 텍스트와 이미지 처리 및 분석이 필요한 사용사례 개발에 박차를 가하도록 지원할 것"이라고 전했다. 또한, HPE는 향후 기후 모델, 헬스케어, 생명과학, 금융 서비스, 제조 및 운송에 이르기까지 다양한 업계 및 도메인에 특화된 AI 애플리케이션 시리즈를 출시할 예정이다. HPE의 LLM 그린레이크는 컴퓨팅 역량을 최대로 활용해 대규모 단일 AI 트레이닝 및 시뮬레이션 워크로드를 처리할 수 있도록 특별히 제작된 AI 네이티브 아키텍처에서 구동된다. 이 제품은 수백에서 수천 개의 CPU 또는 GPU에서 구동되던 AI 및 HPC 업무를 한 번에 지원할 수 있다. HPE는 이러한 역량이 AI를 훈련하고 더욱 정확한 모델을 생성하는데 있어 더욱 효과적이며, 신뢰할 수 있고 효율적이라는 점을 내세운다. 또한, 기업들이 이를 통해 개념검증(POC) 단계에서 생산에 이르기까지 모든 과정을 더욱 가속화하여 기업이 직면한 문제를 더욱 빠르게 처리할 수 있게 될 것으로 기대했다. 한편, HPE는 LLM을 훈련하고 조정할 수 있는 HPE LLM용 그린레이크에 더해 AI 추론 컴퓨팅 솔루션도 공개했다. 이 시스템은 에지의 컴퓨터 비전이나 생성형 시각적 AI 및 자연어 처리 AI 등 에지와 데이터센터 내에 있는 워크로드를 타기팅하도록 조정되었다. 해당 제품은 HPE 프로라이언트 Gen11 서버에 기반을 두고 있다. HPE 프로라이언트 Gen11은 한층 더 발전된 GPU 가속화 역량을 통합할 수 있도록 맞춤 설계되었으며 이는 AI 성능에 핵심적이다. HPE 프로라이언트 DL380a와 DL 380 Gen11서버는 이전 모델보다 5배 더 뛰어난 AI 추론 역량을 지원한다. HPE는 이 추론 컴퓨팅 솔루션이 유통, 숙박, 제조, 미디어 및 엔터테인먼트에 이르기까지 다양한 산업들의 가치창출을 더욱 가속화할 수 있도록 지원할 수 있을 것으로 보고 있다. HPE의 안토니오 네리(Antonio Neri) CEO는 "오늘날 우리는 웹, 모바일 및 클라우드만큼 혁신적인 AI 시장의 세대 변화를 마주하고 있다. HPE의 입증된 지속가능한 슈퍼컴퓨팅에서 구동되는 LLM 등 다양한 AI 애플리케이션을 제공함으로써, HPE는 자금력이 풍부한 정부출연연구소나 글로벌 클라우드 대기업의 전유물이었던 AI를 HPE의 검증된 슈퍼컴퓨터를 통해 모두가 접근할 수 있는 영역으로 만들고 있다"면서, "이제 많은 기관과 기업들은 온디맨드 클라우드 서비스를 통해 AI 모델을 훈련, 조정 및 배포함으로써, AI를 활용해 혁신을 일으키고 시장에 변화를 꾀하고 돌파구를 찾을 수 있게 되었다”고 전했다.
작성일 : 2023-06-22