• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "그래니트"에 대한 통합 검색 내용이 8개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
레드햇, 애저에서 RHEL AI의 AI 모델 개발 및 배포 간소화 지원
레드햇은 클라우드에서의 인공지능(AI) 및 생성형 AI 배포를 간소화하고 확장하기 위해 마이크로소프트와의 협력을 확대한다고 발표했다. 이번 협력을 통해 레드햇 엔터프라이즈 리눅스 AI(RHEL AI)는 마이크로소프트 애저 환경에서 실행 가능하도록 최적화되고 검증된 파운데이션 모델 플랫폼으로써 제공되며, 애저 마켓플레이스(Azure Marketplace)를 통해 BYOS(Bring-Your-Own-Subscription) 제품으로 제공될 예정이다. 파괴적 혁신이 끊임없이 일어나는 산업 환경에서 조직이 새로운 기능을 신속하게 통합하고 지원할 수 있는 적응형 기술 스택을 도입하고 유지하는 것은 매우 중요하다. 이는 특히 애플리케이션과 데이터, 플랫폼, 인프라를 아우르는 AI 지원 기술을 필요로 하는 AI 기반 비즈니스로 전환하는 조직에 더욱 중요하다. MS 애저용 RHEL AI는 조직이 하이브리드 클라우드 환경에서 생성형 AI 모델을 더욱 원활하게 구축, 테스트, 배포하는 데 필요한 일관성과 확장성을 제공한다. RHEL AI는 엔터프라이즈급 오픈소스 라이선스 그래니트(Granite) 모델로 생성형 AI 혁신을 지원하는 파운데이션 모델 플랫폼으로, 인스트럭트랩(InstructLab) 도구를 통해 기업의 프라이빗 데이터와 사용 사례에 맞춘 모델 조정을 간소화한다. 또한 RHEL AI는 동일한 도구와 개념을 사용하여 이러한 모델을 대규모로 조정(tuning)하고 서비스할 수 있도록 레드햇 오픈시프트 AI(Red Hat OpenShift AI)로 바로 이동 가능한 경로를 제공한다. MS 애저에서의 RHEL AI 제공은 조직이 비즈니스 요구 사항을 충족하기 위해 오픈소스의 힘을 활용할 수 있도록 돕는 레드햇과 MS 간의 오랜 협력 관계를 기반으로 한다. RHEL AI는 양사가 공동으로 개발하고 지원하는 완전 관리형 턴키 애플리케이션 플랫폼인 레드햇 오픈시프트 AI 및 애저 레드햇 오픈시프트(Azure Red Hat OpenShift) 등 다른 제품들처럼 MS 애저에서 사용 가능한 최신 AI 최적화 레드햇 제품이다.
작성일 : 2024-11-22
IBM, 복잡한 알고리즘 연산 속도 높인 양자 컴퓨터 소개
IBM은 ‘제 1회 IBM 퀀텀 개발자 콘퍼런스(IBM Quantum Developer Conference)’를 개최하고, IBM 양자컴퓨터에서 복잡한 알고리즘을 실행할 때 높은 수준의 규모, 속도, 정확성을 제공하는 새로운 양자 하드웨어 및 소프트웨어 기술을 소개했다. ‘IBM 퀀텀 헤론(IBM Quantum Heron)’은 IBM의 고성능 양자 프로세서로, IBM의 글로벌 양자 데이터 센터를 통해 사용할 수 있다. IBM 퀀텀 헤론은 퀴스킷(Qiskit)을 활용해 특정 클래스의 양자 회로를 최대 5000개의 2큐비트 게이트 연산까지 정확하게 실행할 수 있다. 사용자는 이러한 IBM 퀀텀 헤론의 성능을 활용해 재료, 화학, 생명과학, 고에너지 물리학 등 다양한 분야의 과학적 문제를 양자 컴퓨터로 해결하는 방법을 탐구할 수 있다. IBM은 “이는 IBM 양자 개발 로드맵의 또 하나의 주요 목표를 달성한 것이며, IBM과 비즈니스 파트너가 양자 우위와 2029년으로 예정된 IBM의 오류 수정 첨단 시스템을 향해 나아감에 따라 양자 유용성 시대를 더욱 앞당기는 것”이라고 설명했다.     IBM 헤론과 퀴스킷의 성능 향상으로 사용자는 최대 5000개의 게이트로 구성된 양자 회로를 실행할 수 있는데, 이는 2023년 IBM의 양자 유용성 시연에서 정확하게 실행된 게이트 수의 약 2배에 달하는 수치이다. 이를 통해 IBM 퀀텀의 컴퓨터 성능은 무차별 대입 방식의 기존 시뮬레이션 방식보다 더욱 향상됐다. 네이처지(Nature)에 게재된 2023년 유용성 실험에서는 데이터 당 처리 시간이 총 112시간 소요됐으나, 동일한 데이터를 사용한 같은 실험을 최신 IBM 헤론 프로세서에서 실행한 결과 50배 빠른 2.2시간 만에 완료할 수 있었다. IBM은 개발자가 안정성과 정확성, 속도를 갖춘 복잡한 양자 회로를 보다 쉽게 구축할 수 있도록 고성능의 양자 소프트웨어로 퀴스킷을 발전시켜 왔다. IBM은 제3자 기관의 1 000여 개의 테스트를 통해 퀴스킷이 다른 플랫폼 대비 높은 성능과 안정성을 갖춘 양자 소프트웨어 개발 키트라는 것을 확인했다고 밝혔다. IBM 퀀텀 플랫폼은 생성형 AI 기반 기능 및 IBM 파트너의 새로운 소프트웨어와 같은 신규 퀴스킷 서비스로 선택지를 더욱 확장하고 있으며, 산업 전반의 전문가 네트워크가 과학 연구를 위한 차세대 알고리즘을 구축할 수 있도록 지원한다. 여기에는 AI로 양자 하드웨어를 위한 양자 회로의 효율적인 최적화를 지원하는 퀴스킷 트랜스파일러 서비스(Qiskit Transpiler Service), 개발자가 IBM 그래니트 기반 생성 AI 모델로 양자 코드를 생성하는 데 도움을 주는 퀴스킷 코드 어시스턴트(Qiskit Code Assistant), 양자 및 기존 시스템에서 초기 양자 중심 슈퍼컴퓨팅 접근법을 실행하는 퀴스킷 서버리스(Qiskit Serverless) 같은 도구가 포함된다. 양자 노이즈의 성능 관리를 줄이고 양자 회로의 복잡성을 추상화해 양자 알고리즘 개발을 간소화하는 등의 기능을 위해 IBM, 알고리즘믹(Algorithmiq), 케드마(Qedma), 큐나시스(QunaSys), Q-CTRL 및 멀티버스 컴퓨팅의 서비스를 이용할 수 있는 IBM 퀴스킷 함수 카탈로그(IBM Qiskit Functions Catalog)가 있다. 고성능 컴퓨팅의 차세대 진화 단계인 양자 중심 슈퍼컴퓨팅에 대한 IBM의 비전은 병렬화된 워크로드를 실행하는 최첨단 양자 컴퓨터와 기존 컴퓨터를 통합해 복잡한 문제를 고성능 소프트웨어로 쉽게 분리하고, 가장 적합한 아키텍처로 알고리즘의 각 부분을 나누어 해결한 후, 문제를 부드럽고 빠르게 다시 서로 결합하는 방법으로 각각의 컴퓨팅 방식으로는 접근이 불가능하거나 어려운 알고리즘을 실행할 수 있도록 설계되고 있다. 대표적으로, 일본의 국립 과학 연구 기관인 이화학연구소(RIKEN)와 학술 의료 센터이자 생의학 연구 기관인 클리블랜드 클리닉(Cleveland Clinic)은 유용성 단계의 IBM 퀀텀 시스템 원을 통해 화학의 기본이 되는 전자 구조 문제에 대한 알고리즘을 연구하고 있다. 이 프로젝트는 복잡한 화학 및 생물학적 시스템을 현실적으로 모델링하기 위한 양자 중심 슈퍼컴퓨팅 접근 방식의 첫 단계로, 과거에는 무결함 양자 컴퓨터가 필요할 것이라고 여겨졌던 작업이다. 제이 감베타(Jay Gambetta) IBM 퀀텀 부사장은, “IBM 퀀텀 하드웨어와 퀴스킷의 발전으로 사용자들은 첨단 양자 및 기존 슈퍼컴퓨팅 자원을 결합해 각자의 강점을 결합한 새로운 알고리즘을 구축할 수 있게 됐다”며, “오류 수정 양자 시스템을 향한 로드맵을 향해 나아가는 가운데, 현재 산업 전반에서 발견되는 알고리즘은 QPU, CPU, GPU의 융합으로 만들어지는 미개척 컴퓨팅 분야의 잠재력을 실현하는 데 핵심이 될 것”이라고 말했다.
작성일 : 2024-11-14
IBM, 비즈니스에 최적화된 고성능 AI 모델 ‘그래니트 3.0’ 출시
IBM은 ‘테크익스체인지(TechXchange)’ 연례 행사에서 자사의 진보된 인공지능(AI) 모델 제품군인 ‘그래니트(Granite) 3.0’을 발표했다.  IBM 그래니트 모델은 아파치 2.0 라이선스 하에 공개되어 특정 모델에 대한 비종속성을 갖는다. IBM은 “3세대 그래니트 플래그십 언어 모델은 많은 학술 및 산업 벤치마크에서 비슷한 크기의 다른 모델들을 능가하거나 동등한 성능을 보이며, 성능, 투명성, 안전성을 입증했다”고 전했다. 이번에 발표된 IBM의 그래니트 3.0 제품군은 범용/언어 모델, 안전 장치 및 안전성 모델, 혼합 전문가 모델 등으로 구성되었다. 이 중 새로운 그래니트 3.0 8B 및 2B 언어 모델은 기업 AI에 최적화된 주력 모델로 설계되어, RAG(검색 증강 생성), 분류, 요약, 엔터티 추출 및 도구 사용과 같은 다양한 작업에서 높은 성능을 제공한다. 이 모델들은 소형이면서도 유연해 기업 데이터를 기반으로 세밀하게 조정할 수 있으며, 다양한 비즈니스 환경과 워크플로에 손쉽게 통합되도록 설계되었다는 것이 IBM의 설명이다.     대부분의 대규모 언어 모델(LLM)은 공개 데이터를 기반으로 훈련되며, 기업의 데이터를 활용하는 경우는 아직 많지 않다. IBM은 지난 5월 레드햇과 함께 선보인 인스트럭트랩(InstructLab) 정렬 튜닝 기법을 통해 소형 그래니트 모델과 기업 데이터를 결합하면 더 큰 모델의 성능을 훨씬 낮은 비용으로 구현할 수 있다고 소개한 바 있다. 특히, IBM은 왓슨x.ai(watsonx.ai)에서 제공되는 모든 그래니트 모델에 대해 지적 재산권 보장 프로그램을 제공해, 기업 고객이 자신의 데이터를 모델과 결합해 사용할 수 있도록 지원한다. 그래니트 3.0 기술 보고서와 사용 가이드는 이 모델들을 훈련하는 데에 사용된 데이터 세트, 필터링, 정제 및 큐레이션 과정에 대한 상세 정보와 주요 학술 및 기업 벤치마크에서의 성능 결과를 제공한다. IBM은 이번 출시를 통해 그래니트 가디언(Granite Guardian) 모델도 새롭게 선보였다. 이 모델은 애플리케이션 개발자가 사용자 명령어와 LLM의 답변에서 발생할 수 있는 다양한 위험 요소를 감지해 안전 장치를 구현할 수 있도록 지원한다. 그래니트 가디언 3.0 8B와 2B 모델은 포괄적인 위험 및 피해 탐지 기능을 제공한다. 이 모델은 사회적 편견, 증오, 유해성, 욕설, 폭력, 보안 우회(jailbreaking) 등의 위험 요소를 감지할 뿐만 아니라, 정보의 신뢰성, 맥락의 적합성, 답변의 관련성과 같이 RAG 작업에 특화된 고유한 검증 기능도 갖추고 있다. 그래니트 가디언 모델은 그래니트 언어 모델에서 파생되었지만, 타사의 어떤 AI 모델과도 함께 안전 장치를 구현하는 데에 사용할 수 있다. 한편, IBM은 왓슨x 오케스트레이트(watsonx Orchestrate)와 같은 로코드 도구와 자동화를 통해 기업들이 자체 AI 어시스턴트를 쉽게 개발할 수 있도록 돕는 기술부터 고객 서비스, 인사, 영업, 마케팅 등 특정 업무와 영역에 특화시켜 사전 구축된 어시스턴트에 이르기까지 다양한 AI 어시스턴트 기술 포트폴리오를 지속적으로 발전시키고 있다고 전했다. 전 세계의 많은 조직이 왓슨x 어시스턴트를 활용해 고객이나 직원의 질문에 답변하고, 레거시 IT 애플리케이션을 현대화하며, 학생들이 직업 경로를 탐색하도록 돕거나 주택 구매자를 위한 디지털 융자 지원을 제공하는 등 AI 어시스턴트를 구축했다. 이를 위해 IBM은 그래니트 코드 모델을 기반으로 C, C++, Go, 자바(Java), 파이썬(Python) 등 다양한 프로그래밍 언어에 대한 범용 코딩 지원과 엔터프라이즈 자바(Java) 애플리케이션을 위한 고급 애플리케이션 현대화 기능을 제공하는 차세대 ‘왓슨x 코드 어시스턴트(watsonx Code Assistant)’ 도 올해 4분기에 출시할 예정이라고 발표했다. 그래니트 3.0 모델은 아파치 2.0 라이선스 하에 허깅페이스(HuggingFace)에서 다운로드할 수 있다. 그래니트 3.0 8B 및 2B 언어 모델의 인스트럭트 버전과 그래니트 가디언 3.0 8B 및 2B 모델은 IBM 왓슨x 플랫폼에서 상업적으로 사용가능하다. 일부 그래니트 3.0 모델은 엔비디아의 NIM 마이크로서비스 및 허깅페이스와 통합된 구글 클라우드의 버텍스 AI 모델 가든(Vertex AI Model Garden)을 통해서도 제공된다. 또한, IBM은 전 세계 기업들에 더 많은 선택지를 제공하기 위해 AWS, 도커(Docker), 도모(Domo), 퀄컴 테크놀러지스(Qualcomm Technologies, Inc.)의 퀄컴 AI 허브(Qualcomm AI Hub), 세일즈포스(Salesforce), SAP 등 생태계 파트너들과 다양한 그래니트 모델을 이들 파트너 솔루션에 통합하거나 플랫폼에서 사용할 수 있도록 협력하고 있다.
작성일 : 2024-10-22
레드햇, ‘레드햇 엔터프라이즈 리눅스 AI’ 정식 출시
레드햇은 ‘레드햇 엔터프라이즈 리눅스 AI(RHEL AI)’의 정식 출시를 발표했다. RHEL AI는 사용자가 엔터프라이즈 애플리케이션을 지원하기 위해, 생성형 AI 모델을 원활하게 개발·테스트·배포할 수 있도록 지원하는 파운데이션 모델 플랫폼이다. 이 플랫폼은 오픈소스 라이선스를 기반으로 한 그래니트 LLM(Granite LLM, 대규모 언어 모델) 제품군과 LAB(Large-scale Alignment for chatbot, 챗봇을 위한 대규모 정렬) 방법론에 기반한 인스트럭트랩(InstructLab) 모델 정렬 도구를 결합한 솔루션이다. 전체 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 RHEL 이미지로 패키징되어 있다. 생성형 AI의 잠재력은 크지지만 LLM을 조달 및 훈련, 미세 조정하는 데에는 많은 비용이 발생한다. 일부 주요 모델의 경우 출시 전 훈련 비용만 약 2억 달러에 달한다. 여기에 조직의 특정 데이터 및 요구사항에 맞게 조정하기 위해 데이터 사이언티스트 등 전문가를 필요로 할 경우 추가 비용이 발생할 수 있다. 어떤 애플리케이션에 어떤 모델을 선택하든, 기업의 고유 데이터 및 프로세스에 맞게 조정하는 작업이 요구된다. 따라서 효율성과 민첩성이 실제 프로덕션 환경에서 AI의 핵심이다. 레드햇은 향후 10년 동안 더 작고, 효율적이며, 목적에 맞게 구축된 AI 모델들이 클라우드 네이티브 애플리케이션과 함께 엔터프라이즈 IT 스택의 상당 부분을 차지할 것으로 보고 있다. 그러나 이를 위해서는 하이브리드 클라우드 전반에서 실행될 수 있도록 생성형 AI의 접근성과 가용성을 높여야 한다. 지난 수십 년 동안 오픈소스 커뮤니티는 다양한 사용자 그룹의 기여를 통해 복잡한 소프트웨어 문제 및 유사한 문제를 해결하는 데에 도움을 주었다. 이와 비슷한 접근 방식을 통해 생성형 AI를 보다 효과적으로 수용하는 데 대한 장벽을 낮출 수 있다. RHEL AI는 하이브리드 클라우드 전반에서 CIO를 포함한 기업의 IT 조직이 생성형 AI의 접근성을 높이면서, 효율적이고 유연하게 활용할 수 있도록 지원한다. RHEL AI는 엔터프라이즈급 오픈소스 라이선스를 보유한 그래니트 모델을 통해 생성형 AI 혁신을 강화하고, 다양한 생성형 AI 사용 사례에 맞게 조정한다. 그리고 인스트럭트랩 도구를 통해 생성형 AI 모델을 비즈니스의 요구사항에 맞게 간소화하여, 조직 내 도메인 전문가와 개발자가 광범위한 데이터 과학 기술 없이도 고유한 기술과 지식을 제공할 수 있도록 지원한다. RHEL AI는 관련 데이터가 어디에 있든 프로덕션 서버용 모델을 조정하고 배포하는 데에 필요한 도구를 제공해 하이브리드 클라우드 전반에서 생성형 AI를 학습하고 배포할 수 있다. 또한 RHEL AI는 레드햇 오픈시프트 AI(Red Hat OpenShift AI)로 손쉽게 전환할 수 있는 온램프(on-ramp)를 제공하며, 동일한 도구와 개념을 사용해 이러한 모델을 대규모로 훈련, 조정 및 서비스할 수 있다. RHEL AI에는 레드햇 구독 서비스가 제공하는 엔터프라이즈 제품 배포, 연중무휴 프로덕션 지원, 확장된 모델 수명 주기 지원 및 오픈소스 보증의 법적 보호 등의 혜택이 포함된다. 레드햇은 RHEL AI가 레드햇 하이브리드 클라우드 포트폴리오의 확장으로서 온프레미스 데이터센터부터 에지 환경, 퍼블릭 클라우드에 이르기까지 거의 모든 엔터프라이즈 환경을 포괄한다고 설명했다. 레드햇과 레드햇의 OEM(주문자 상표 부착 생산) 파트너가 직접 RHEL AI를 제공하고 아마존웹서비스(AWS), 구글 클라우드, IBM 클라우드, 마이크로소프트 애저를 비롯한 세계 최대 클라우드 제공업체에서 이를 실행할 수 있게 되는 것이다. 따라서 개발자와 IT 조직은 하이퍼스케일러 컴퓨팅 리소스의 강력한 성능을 사용해 RHEL AI를 통한 혁신적인 AI 개념을 구축할 수 있다. RHEL AI는 현재 레드햇 고객 포털을 통해 온프레미스에서 실행하거나 ‘BYOS(Bring Your Own Subscription)’ 오퍼링으로 AWS 및 IBM 클라우드에 업로드해 사용할 수 있다. 애저(Azure) 및 구글 클라우드에서의 BYOS 오퍼링은 2024년 4분기에 제공될 예정이며, IBM 클라우드에서도 올해 말에 서비스 형태로 RHEL AI를 사용할 수 있게 될 예정이다.
작성일 : 2024-09-09
델, 레드햇과 협력해 개방형 AI 워크로드 지원
델 테크놀로지스와  레드햇이 생성형 AI 모델 및 AI 모델을 보다 원활하게 개발·테스트·배포할 수 있도록 지원하는 파운데이션 모델 플랫폼 ‘레드햇 엔터프라이즈 리눅스 AI(Red Hat Enterprise Linux AI, 이하 RHEL AI)’를 델 파워엣지(Dell PowerEdge) 서버에서 지원한다고 발표했다. 또한 양사는 RHEL AI를 위한 추천 플랫폼으로 ‘델 파워엣지(PowerEdge) R760xa’ 서버가 선정됐다고 밝혔다.   ▲ 델 파워엣지 R760xa   양사의 협력을 통해 기업과 기관들은 AI 및 머신러닝 전략을 보다 쉽게 구현하고 IT 시스템을 확장하는 한편 비즈니스 전반에 걸쳐 엔터프라이즈 애플리케이션을 강화할 수 있다. 델과 레드햇은 신뢰할 수 있는 AI 최적화 하드웨어 솔루션인 델 파워엣지 기반의 RHEL AI를 통해 일관된 AI 경험을 제공한다. 양 사는 RHEL AI와 엔비디아 가속 컴퓨팅이 포함된 하드웨어 솔루션의 지속적인 테스팅과 검증을 통해 AI 경험을 간소화하는데 협력할 계획이다. RHEL AI는 IBM 리서치의 오픈 소스 라이선스인 ‘그래니트 대규모 언어 모델(Granite LLM)’ 및 LAB(챗봇을 위한 대규모 정렬) 방법론에 기반한 인스트럭트랩(InstructLab) 모델 정렬 도구를 비롯해 ‘인스트럭트랩 프로젝트’를 통한 커뮤니티 중심의 모델 개발 접근 방식을 통합한 플랫폼이다. 이 솔루션은 하이브리드 클라우드의 개별 서버 배포를 위해 최적화된 ‘레드햇 엔터프라이즈 리눅스(RHEL)’ 이미지로 패키징되어 있다. 또한 레드햇의 하이브리드 클라우드 머신러닝 운영(MLOps) 플랫폼인 레드햇 오픈시프트 AI(Red Hat OpenShift AI)의 일부로서 분산 클러스터 환경에서 대규모로 모델 및 인스트럭트랩을 실행하도록 지원한다. 델 파워엣지 서버를 기반으로 하는 RHEL AI는 2024년 3분기 중 제공될 예정이며, 전 세계 다양한 지역에 위치한 델 고객 솔루션 센터에서 테스트해 볼 수 있다. 레드햇의 조 페르난데스(Joe Fernandes) 생성형 AI 기반 모델 플랫폼 부사장은 “AI는 본질적으로 서버와 컴퓨팅 성능 및 GPU를 아우르는 광범위한 리소스를 필요로 한다. 생성형 AI 사용 사례를 평가하고 구현할 때 비즈니스에 따라 확장할 수 있는 플랫폼이 필수이며, AI 기반 혁신을 실험하고 개발할 수 있는 민첩성 또한 확보해야 한다”면서, “델 테크놀로지스와 협력해 파워엣지 서버에서 RHEL AI를 검증하고 경쟁력을 강화함으로써 고객들이 하이브리드 클라우드 환경 전반에서 생성형 AI를 적극적으로 활용해 비즈니스 추진력을 얻을 수 있게끔 지원할 것”이라고 밝혔다.  엔비디아의 밥 피트(Bob Pette) 엔터프라이즈 플랫폼 담당 부사장은 “오늘날과 같이 빠르게 변화하는 시장에서는 생성형 AI 사용 사례를 위해 검증되고 신뢰할 수 있는 솔루션을 갖추는 것이 매우 중요하다”고 강조하며, “델 파워엣지 서버와 RHEL AI를 통해 엔비디아 H100 텐서 코어 GPU를 비롯한 가속 컴퓨팅의 최적화된 경험을 고객들에게 제공할 수 있게 됐다”고 전했다. 한국 델 테크놀로지스의 김경진 대표는 “델 파워엣지 기반의 RHEL AI 솔루션은 델과 레드햇이 서버, GPU 및 파운데이션 플랫폼에 대해 지속적인 테스트와 검증을 실시하고 있음을 보여주는 예시로서 고객들이 신뢰할 수 있는 환경 내에서 AI 워크로드를 운영하게끔 지원하는 에코시스템 전반의 노력이 담겨 있다. 이는 중요한 AI 워크로드를 구축하고 배포하는 과정의 생성형 AI 경험을 간소화하는데 필수적인 요소”라고 설명했다.
작성일 : 2024-09-05
IBM, 왓슨x에서 라마 3.1 및 미스트랄 라지2 등 최신 LLM 모델 지원 발표
IBM은 최근 메타에서 발표한 ‘라마(Llama) 3.1’과 미스트랄 AI에서 발표한 ‘미스트랄 라지(Mistral Large) 2’ 등 최신 오픈소스 대규모 언어 모델(LLM)을 왓슨x.ai에서 제공한다고 발표했다. 이로써 왓슨x 사용 기업들은 IBM 그래니트(Granite), 라마 3.1, 미스트랄 라지 2 등의 오픈소스 AI 모델을 자사의 용도와 필요에 따라 자유롭게 선택하고 맞춤화해 사용할 수 있다.  이번에 발표된 라마 3.1은 각각 80억 개(8B), 700억 개(70B), 4050억 개(405B)의 매개변수를 가진 사전 학습된 오픈소스 생성형 AI 모델로 구성됐다. 특히 라마 3.1-405B 모델은 한 번에 처리할 수 있는 문맥의 길이가 토큰 8192개에서 12만 8000개로 늘어났으며, 이는 약 8만 5000 영어 단어에 해당한다. 오픈AI의 GPT-4o와 같은 모델들과 비교할 때 독해력, 코드 생성, 학부 수준의 지식 분야의 경쟁에서도 뒤지지 않는 성능을 보여준다는 것이 메타의 설명이다. 강력한 성능을 제공하는 405B 모델은 추론 및 텍스트 생성과 같은 일반적인 AI 활용 사례 외에도 AI의 사전 학습이나 미세 조정을 위한 합성 데이터 생성 및 더 작은 모델로 만드는 지식 증류와 같은 작업에도 사용할 수 있다. 1230억 개의 매개변수를 가진 미스트랄 라지 2는 코딩과 수학 부문에서 높은 성능을 발휘하고, 80가지가 넘는 코딩 언어를 지원하며, 오픈AI의 GPT-4o, 앤트로픽의 클로드 3 오푸스, 메타 라마 3.1 405B와 같은 최첨단 모델과 동등한 수준의 성능을 제공한다. 그리고, 향상된 추론 능력을 통해 환각이나 그럴듯하게 들리는 거짓 답변을 줄였다. 기업에서 AI 모델을 선택할 때는 고려해야 하는 다양한 요소가 존재하기 때문에 성능이 좋은 범용 모델을 선택하는 것이 정답이 아닐 수 있다. 예를 들어, 일반적으로 매개변수의 크기가 더 크고 유능한 모델은 사용하는 데 더 많은 비용이 들고, 모델 정확도가 증가하면 속도가 느려질 수 있다. 이에 비해 크기는 작지만 특정 환경에 미세 조정된 모델의 경우, 그 환경 내에서는 크기가 큰 모델 대비 속도가 더 빠르고 비용이 획기적으로 적게 들면서도 뛰어난 성능을 낼 수 있다. 따라서, 기업의 용도에 맞는 이상적인 모델을 선택하는 것이 필요하다.  라마 3.1이나 미스트랄 라지 2, IBM 그래니트와 같은 최신 오픈 소스 AI 모델을 제공하는 IBM 왓슨x는 고객이 용도와 목적, 가격과 성능의 최적의 균형을 가진 가장 적합한 AI 모델을 선택해 각 기업에 가장 잘 맞는 방식으로 구현해 보다 쉽게 사용할 수 있도록 지원한다. IBM 왓슨x는 사내 서버, 퍼블릭, 프라이빗, 하이브리드 클라우드 등 기업이 선호하는 인프라 환경에서 모델을 활용할 수 있는 유연성을 제공하는 한편, AI를 활용한 비즈니스 애플리케이션을 쉽게 개발하고, 모든 데이터 소스를 관리하고, 용도에 맞는 미세 조정, 기업에서 사용하는 애플리케이션과의 통합을 위한 직관적인 업무 프로세스를 구축하는 것이 하나의 플랫폼에서 가능하도록 지원한다. 한편, 미스트랄 라지 2 모델은 기업에서 상업적으로 사용하려면 미스트랄 AI에 ‘미스트랄 커머셜 라이선스’을 요청해야 하지만, IBM 왓슨x에서는 상업적 목적으로도 자유롭게 사용할 수 있다.
작성일 : 2024-08-01
IBM, 왓슨x에서 미스트랄 라지 AI 모델 지원
IBM은 기업이 고품질, 고성능의 다양한 파운데이션 모델을 폭넓게 이용하고, 자사의 필요에 따라 맞춤형으로 배포할 수 있도록 하기 위한 노력의 일환으로 왓슨x.ai(watsonx.ai)에서 미스트랄 라지(Mistral Large) 모델을 제공한다고 발표했다. 인공지능(AI) 개발자를 위한 IBM의 기업용 AI 스튜디오인 왓슨x.ai는 IBM의 그래니트(Granite) 모델 외에도 다양한 오픈소스 및 상용 모델 선택이 가능하며, 이를 용도에 따라 변형하거나 비즈니스 솔루션 및 애플리케이션과 통합해 사용할 수 있다. IBM은 이미 왓슨x.ai 내에서 기업 환경에 적용할 수 있는 소규모 모델인 Mixtral-8x7B를 제공하고 있다. 이 모델은 IBM이 최적화한 모델로, 주어진 시간 동안 처리할 수 있는 데이터의 양이 기존 모델보다 50% 증가했다. 이번에 새롭게 추가된 미스트랄 라지는 서비스형 소프트웨어(SaaS)로 먼저 제공된다. 이제 왓슨x 고객은 추론과 다국어 기능이 필요한 복잡한 전사적 작업을 처리하도록 최적화된 미스트랄 AI의 가장 강력한 모델을 활용할 수 있다. 검색증강생성(RAG) 전문화를 통해 더 장시간의 채팅 상호작용과 대용량 문서 처리가 가능하며, 사용자 정의 함수나 API와 같은 외부 도구에 연결할 수 있고, 뛰어난 코딩 성능으로 특정 용도에 맞는 애플리케이션을 쉽게 구축할 수 있다. 책임감 있는 AI 구축을 위해 안전장치로 사용할 수 있는 ‘가드레일(guardrail)’ 기능이 내장되어 있기도 하다.     아울러, 기업은 이제 왓슨x 플랫폼에서 미스트랄 라지를 통해 데이터 스토어, 프롬프트 랩, 모델 튜닝, 프로세스 모니터링 및 거버넌스 기능을 포함한 추가적인 엔터프라이즈 지원 제품을 활용할 수 있다. 왓슨x 고객은 특정 플랫폼에 종속되지 않고 온프레미스(사내 서버)나 퍼블릭 클라우드 제공업체 등 원하는 환경에서 왓슨x.ai 내 모델을 배포할 수 있다. 빠르게 변화하는 AI 분야에서 기업이 민첩하게 적응하고 인프라 및 개발에 대한 매몰 투자를 피하려면 유연성이 핵심이기 때문이다. IBM은 왓슨 플랫폼에 미스트랄 AI의 상용 모델을 제공함으로써 개방형 멀티 모델 전략을 더욱 확장하고 기업이 혁신, 변화, 확장할 수 있도록 지원한다는 계획이다. 또, 책임감 있게 기업 혁신에 기여하고자 하는 IBM의 의지를 바탕으로, IBM은 한도형 지적 재산권 보상 제도를 통해 미스트랄 라지에 대한 고객 보호를 제공한다고 밝혔다. 이는 IBM이 자사의 AI 모델인 IBM 그래니트 모델에 대한 고객 보증 제도를 적용한 이래 제3자 파운데이션 모델까지 확대한 첫 번째 사례이다.
작성일 : 2024-07-26
현대자동차, 세계적 자동차 디자이너 서주호 상무 영입으로 글로벌 경쟁력 강화
  현대자동차가 또 한 명의 세계적 자동차 디자이너를 영입하고 글로벌 디자인 경쟁력을 한 단계 끌어올린다. 현대차는 GM 및 BMW 등에서 디자인 경험을 두루 거친 서주호 디자이너를 현대디자인이노베이션실 상무로 영입한다고 밝혔다. 현대자동차에 합류하게 될 서주호 상무는 미래 디자인 트렌드 변화에 선제적으로 대응하고 미래 혁신기술 분야의 경쟁력 강화를 위한 선행 디자인 혁신을 주도하게 된다. 양산차의 선행 디자인 외에도 전기차 등 미래 모빌리티 기술 디자인 솔루션을 제시하고 디자인 외 영역과의 융합, 협업을 도모하는 역할을 맡는다. 서주호 상무는 치열한 글로벌 자동차 업계에서 가장 성공한 한국인 디자이너 중 하나로 꼽히는 인물이다. 미국 ‘프랫 인스티튜트(Pratt Institute)’에서 산업디자인 학사, 석사과정을 밟은 뒤 1999년 GM그룹에 입사해 다양한 내·외장 선행 및 양산 디자인 프로젝트에 참여하며 경험을 쌓았다. 당시 서 상무가 외장 디자인을 맡은 GMC의 콘셉트카 ‘그래니트(Granite)’는 2010년 개최된 디트로이트 모터쇼에서 ‘올해의 디자인’에 선정되면서 업계의 큰 주목을 받기도 했다. 또한 2006년 GM이 미국 NBC TV의 인기 토크쇼 진행자이자 자동차 마니아로 알려진 제이 레노(Jay Leno)를 위해 특별 제작한 고성능 슈퍼카 ‘에코제트(EcoJet)’ 프로젝트에도 참여한 바 있다. 이후 2012년에는 BMW로 자리를 옮겨 선행 디자인을 담당하며 BMW X5, X6, 3/8시리즈 등의 선행 디자인 프로젝트를 성공적으로 수행했다. 2015년에는 중국의 전기차 스타트업 NIO(니오)의 창립 멤버로 이직, 수석 외장 디자인 담당을 거쳐 최근까지 NIO 상하이 디자인 스튜디오 총괄을 맡아 근무했다. NIO가 출시한 슈퍼 전기차 EP9과 SUV모델 ES8, ES6, 콘셉트카 EVE, ET Preview 등은 모두 그의 손을 거쳐 완성됐다. 현대자동차는 디자이너로서 20년 가깝게 쌓아온 생생한 경험과 함께 스타트업에서의 근무 경력이 기존 선행디자인 조직의 혁신과 역할 확대에 상당히 부합할 것으로 기대하고 있다. 특히 고성능 전기차의 선행 및 양산 디자인을 이끈 경력은 현대차 EV 라인업 디자인의 경쟁력을 제고하는 데 기여할 것으로 보인다. 이와 더불어 현재 현대디자인센터장인 이상엽 전무와는 GM그룹 근무 당시 공동 프로젝트를 진행하며 손발을 맞춘 경험이 있어 시너지 효과도 클 전망이다. 현대디자인센터 이상엽 전무는 “서주호 상무는 우리의 디자인 철학을 차세대 자동차에 접목시키는데 큰 역할을 할 것이라 확신한다”며 “슈퍼카, 전기차 디자인으로부터 얻은 광대한 경험과 현대차의 오랜 디자인 전통이 만나 역동적으로 변하는 고객들의 니즈를 맞춰나가는데 많은 도움이 될 것”이라고 말했다. 서주호 상무는 “미국의 대중 브랜드부터 독일의 프리미엄 브랜드, 중국시장을 위한 새로운 전기차 브랜드까지 글로벌 디자인 업계에서 쌓은 다양한 경험과 통찰력을 바탕으로 현대차 디자인의 미래와 혁신에 기여하고 싶다”고 말했다. 한편 현대자동차는 세계적 디자이너 영입을 통해 디자인 경쟁력을 한 단계 진보시키기 위한 노력을 지속해 오고 있다. 현대자동차에는 △벤틀리 출신 루크 동커볼케 디자인담당 부사장을 비롯해 △GM 및 벤틀리 출신 이상엽 현대디자인센터 전무 △폭스바겐 출신 사이먼 로스비 현대스타일링담당 상무 등 세계적 디자이너들이 대거 포진돼 있다.
작성일 : 2019-07-19