• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "스위트"에 대한 통합 검색 내용이 772개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
인텔, 기업용 AI를 위한 ‘가우디 3’ 및 AI 개방형 시스템 전략 발표
인텔은 연례 고객 및 파트너 콘퍼런스인 ‘인텔 비전 2024’에서 기업용 생성형 AI를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기를 공개했다. 그리고 이와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력도 발표했다.  인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 인텔은 “이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다”고 설명했다.   ▲ 인텔 팻 겔싱어 CEO   인텔은 가우디 3가 70억 개 및 130억 개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 엔비디아 H100보다 평균 50% 더 빠른 학습 시간을 제공할 것으로 예상하고 있다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%, 전력 효율성의 경우 라마(Llama) 70억 개 및 700억 개 매개변수와 팔콘(Falcon) 1800억 개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스, HPE, 레노버, 슈퍼마이크로를 비롯한 OEM 시스템에 탑재될 예정이다. 또한 인텔은 하드웨어, 소프트웨어, 프레임워크, 툴 등을 포함한 개방형 스케일러블 AI 시스템에 대한 전략을 제시했다. 인텔의 이러한 접근법은 기업별 생성형 AI 요구 사항을 충족하는 솔루션을 제공하기 위한 것으로, 다양하고 개방적인 AI 생태계를 가능케 한다. 여기에는 장비 제조업체, 데이터베이스 공급자, 시스템 통합업체, 소프트웨어 및 서비스 공급자 등이 포함된다. 또한, 기업 고객이 이미 알고 신뢰하는 생태계 파트너 및 솔루션을 활용할 수 있는 부분도 장점으로 꼽힌다. 인텔은 다양한 업계의 기업 고객 및 파트너들과 새롭고 혁신적인 생성형 AI 응용 프로그램을 개발하기 위해 인텔 가우디를 활용해 협력하고 있다고 밝혔다. 예를 들어, 네이버는 클라우드에서부터 온디바이스까지 첨단 AI 서비스를 전세계에 배포하기 위해 강력한 LLM 모델을 개발하고 있는데, 대규모 트랜스포머 아키텍처 기반 모델의 컴퓨팅 작업을 뛰어난 와트 당 퍼포먼스로 실행하기 위해 인텔 가우디를 사용한다. 보쉬는 자사 기반 모델 개발을 포함한 스마트 제조의 가능성을 모색하고 있으며, 합성 데이터 세트 생성과 더불어 자동 광학 검사와 같은 견고하고 분산된 트레이닝 세트 제공한다. 이에 더해 구글 클라우드, 탈레스, 코히시티(Cohesity)가 클라우드 환경에서 기밀 컴퓨팅 역량을 활용할 수 있도록 인텔과의 협력을 발표했다.    인텔은 인텔 가우디 3 가속기 외에도 엔터프라이즈 AI의 모든 부문에 걸쳐 차세대 제품 및 서비스에 대한 업데이트를 발표했다. 새로운 인텔 제온 6 프로세서는 폐쇄적 데이터를 사용하여 비즈니스에 특화된 결과를 생성하는 RAG를 포함한 최신 생성형 AI 솔루션을 실행할 수 있다. 2024년 출시될 차세대 인텔 코어 울트라 클라이언트 프로세서 제품군(코드명 루나레이크)은 차세대 AI PC를 위해 플랫폼 기준 100 TOPS 이상, NPU에서 45TOPS 이상을 제공할 예정이다. 인텔은 울트라 이더넷 컨소시엄(UEC)을 통해 AI 패브릭을 위한 개방형 이더넷 네트워킹을 선도하며 다양한 AI 최적화 이더넷 솔루션을 선보이고 있다.  인텔의 팻 겔싱어(Pat Gelsinger) CEO는 “혁신은 전례 없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”면서, “인텔은 PC부터 데이터센터, 에지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다.
작성일 : 2024-04-11
인텔, 기업용 AI를 위한 가우디 3 및 AI 개방형 시스템 전략, 네이버와 협력 발표
인텔코리아가 4월 11일 여의도 FKI타워(전경련회관)에서 기자간담회를 열고, 미국 애리조나에서 4월 8일~9일(현지시간) 진행된 '인텔 비전 2024'에서 발표된 주요 내용들을 소개했다. 특히 올해 하반기에 새롭게 출시 예정인 기업용 AI를 위한 가우디 3에 대해 자세히 소개하는 시간을 마련했다. 한편 인텔은 네이버가 AI 서비스 개발을 위해 인텔의 가우디 2를 테스트베드로 사용하는데 협력하기로 했다고 전했다. ▲ 인텔 비전 2024을 소개한 국내 기자간담회 현장모습 먼저 인텔의 연례 고객 및 파트너 컨퍼런스인 인텔 비전 2024(Intel Vision 2024)에서 인텔은 기업용 생성형 AI(GenAI)를 위한 성능, 개방성 및 선택권을 제공할 인텔 가우디 3(Intel Gaudi 3) 가속기와 함께 생성형 AI 도입 가속화를 위한 새로운 개방형 스케일러블 시스템 스위트, 차세대 제품 및 전략적 협력을 발표했다.  인텔 CEO 팻 겔싱어(Pat Gelsinger)는 “혁신은 전례없는 속도로 발전하고 있으며, 반도체가 이 모든 것을 가능하게 한다. 또한 모든 기업이 빠르게 AI 기업으로 거듭나고 있다”라며 “인텔은 PC부터 데이터센터, 엣지에 이르기까지 기업 전반의 모든 곳에 AI를 가능하게 하고 있다. 인텔의 최신 가우디, 제온 및 코어 Ultra 플랫폼은 변화하는 고객과 파트너의 요구를 충족하고 앞으로의 엄청난 기회를 활용할 수 있도록  유연한 솔루션 세트를 제공하고 있다”고 밝혔다. ▲ 인텔 비전 2024에서 인텔의 새로운 비전을 소개한 인텔 팻 겔싱어(Pat Gelsinger) CEO  인텔은 기업이 생성형 AI를 파일럿 단계에서 업무에 적용하는 것으로 확장하고자 한다고 전했다. 이를 위해서는 복잡성, 단편화, 데이터 보안 및 규정 준수 요구 사항을 해결하면서 인텔 가우디 3(Intel Gaudi 3) AI 가속기와 같이 성능, 비용 및 전력 효율성이 뛰어난 프로세서를 기반으로 구축된 즉시 도입 가능한 솔루션이 필요하다고 소개했다. 인텔 가우디 3 AI 가속기는 공통 표준을 따르는 이더넷을 통해 최대 수만 개의 가속기를 연결해 AI 시스템을 구동한다. 인텔 가우디 3는 BF16에 대해 4배 더 많은 AI 컴퓨팅 및 기존 모델 대비 1.5배 커진 메모리 대역폭을 지원한다. 이 가속기는 생성형 AI를 대규모로 배포하려는 글로벌 기업에게 AI 학습 및 추론 분야에서 획기적인 도약을 지원할 수 있다. 엔비디아 H100과 비교하여 인텔 가우디 3는 70억개 및 130억개의 매개변수가 있는 라마2(Llama2) 모델과 GPT-3 1750억개 매개변수 모델 전체에서 평균3 50% 더 빠른 학습 시간을 제공할 것으로 예상한다. 또한 인텔 가우디 3 가속기 추론 처리량은 평균적으로 H100보다 50%1, 전력 효율성의 경우 라마(Llama) 70억개 및 700억개 매개변수와 팔콘(Falcon) 1800억개 매개변수 모델에서 평균 40% 더 우수할 것으로 예상한다. 인텔 가우디 3는 개방형 커뮤니티 기반 소프트웨어와 업계 표준 이더넷 네트워킹을 제공한다. 또한 기업은 싱글 노드에서 클러스터, 슈퍼 클러스터, 수천 개의 노드가 있는 메가 클러스터로 유연하게 확장할 수 있으며, 최대 규모의 추론, 미세 조정 및 학습을 지원한다. 인텔 가우디 3는 2024년 2분기에 델 테크놀로지스(Dell Technologies), HPE, 레노버(Lenovo), 슈퍼마이크로(Supermicro)를 비롯한 OEM 시스템에 탑재될 예정이다. 한편 인텔코리아 나승주 상무는 인텔 비전 2024에서 발표된 내용들을 간략히 정리해 소개하는 브리핑을 진행했다. 나승주 상무는 인텔은 기업용 AI 활성화를 위해 개방형 생태계의 힘을 적극적으로 활용할 계획이라며, 가우디 3 AI 가속기는 생성형 AI를 위한 선택권을 제공한다고 설명했다. 기업용 AI는 확장 가능한 개방형 시스템이 될 전망이라고 말했다. 또한 고객 및 파트너 모멘텀으로 네이버 등과 협력하고 있다. 또한 차세대 제품 및 서비스를 위해 가우디 3 등 제품 개발에 힘쓸 계획이라고 밝혔다. ▲ 인텔코리아 나승주 상무 이번 브리핑에 앞서 진행된 네이버와의 협력에 대해서 특별 게스트로 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사)가 온라인 참석해 협력 관계애 대한 설명과 함께 질의응답에 참여했다. 네이버클라우드 이동주 박사는 AI 반도체 평가와 분석하는 과정에서 인텔 가우디 3의 성능이 뛰어나다는 것을 알게 됐다며, AI 서비스를 지원하기 위해서는 AI 개발을 좀 더 손쉽게 하기 위해서는 소프트웨어 작업들을 많이 하고 있다고 밝혔다. 단기간에 그칠 것이 아니라 국내 스타트업들이 함께 AI 협력을 기대하고 있다고 소개했다. ▲ 네이버클라우드 이동수 박사(하이퍼스케일 AI담당이사) 
작성일 : 2024-04-11
AMD, 비용 효율적인 에지 애플리케이션의 비용 효율 높이는 FPGA 제품 포트폴리오 확장
AMD는 자사의 비용 최적화 FPGA(프로그래밍 가능한 집적회로) 및 적응형 SoC(시스템 온 칩) 포트폴리오에 최신 AMD 스파르탄 울트라스케일+(Spartan UltraScale+) 제품군을 추가했다고 발표했다.  스파르탄 울트라스케일+ 디바이스는 다양한 I/O 집약적 에지 애플리케이션을 위한 비용 및 전력 효율을 제공한다. 28nm 미만 공정 기술로 구현된 FPGA 중 로직 셀 대비 많은 I/O를 갖추고 있으며, 이전 세대에 비해 전력 소모를 최대 30%까지 절감하는 것은 물론, AMD 비용 최적화 포트폴리오 중 가장 강력한 보안 기능을 제공한다.     에지 애플리케이션에 최적화된 스파르탄 울트라스케일+ FPGA는 많은 수의 I/O와 유연한 인터페이스를 갖추고 있어 여러 디바이스 또는 시스템과 FPGA를 원활하게 통합하고, 효율적인 인터페이스를 구축함으로써 폭발적으로 증가하는 센서 및 커넥티드 기기를 지원한다. 이 제품군은 최대 572개의 I/O와 최대 3.3V 전압을 지원함으로써 에지 센싱 및 제어 애플리케이션에서 모든 연결을 처리할 수 있다. 검증된 16nm 패브릭과 초소형 풋프린트로 높은 I/O 밀도를 갖추고 있으며, 10×10mm의 소형 패키지를 비롯해 다양한 형태로 제공된다. 또한 AMD FPGA 포트폴리오를 통해 비용 최적화 FPGA에서 중간급 및 최고급 사양의 제품에 이르기까지 확장이 가능하다. 스파르탄 울트라스케일+ 제품군은 16nm 핀펫(FinFET) 기술 및 하드웨어 타입의 내부 커넥티비티를 통해 28nm 아틱스 7(Artix 7) 제품군 대비 전력소모를 최대 30%까지 절감한다. 이 제품은 하드웨어 타입의 LPDDR5 메모리 컨트롤러와 PCIe Gen4 x8을 지원하는 최초의 AMD 울트라스케일+ FPGA로, 전력 효율성과 미래 지향적 기능을 모두 갖추고 있다. 또한, 스파르탄 울트라스케일+ FPGA는 AMD의 비용 최적화 FPGA 포트폴리오 중 가장 뛰어난 최첨단 보안 기능을 제공한다. NIST 승인 알고리즘을 이용한 양자 내성 암호(PQC : Post-Quantum Cryptography)를 지원하여 진화하는 사이버 공격 및 위협에 대한 최첨단 IP 보호 기능을 제공한다. 또한 PUF(Physical Unclonable Function)를 통해 각 디바이스에 복제 불가능한 고유의 보안키(지문)를 제공한다. AMD의 모든 FPGA 및 적응형 SoC 포트폴리오는 AMD 비바도(Vivado) 디자인 스위트와 바이티스(Vitis) 통합 소프트웨어 플랫폼을 통해 지원된다. 따라서 하드웨어 및 소프트웨어 설계자들은 설계부터 검증까지 모두 단일 디자인 환경에서 이러한 툴과 IP를 활용하여 생산성을 높일 수 있다. AMD 스파르탄 울트라스케일+ FPGA 제품군의 샘플 및 평가 키트는 2025년 상반기에 제공될 예정이다. 툴은 2024년 4분기부터 AMD 비바도 디자인 스위트를 통해 지원된다. AMD의 커크 사반(Kirk Saban) 적응형 및 임베디드 컴퓨팅 그룹 부사장은 “스파르탄 FPGA 제품군은 생명을 구하는 자동 제세동기에서 인류 지식의 한계를 넓히는 CERN 입자 가속기에 이르기까지 지난 25년 이상 인류의 발전에 기여해 왔다”며, “검증된 16nm 기술을 기반으로 하는 스파르탄 울트라스케일+ 제품군은 최신 기능과 공통의 설계 툴 및 긴 제품 수명주기를 통해 업계 선도적인 FPGA 포트폴리오를 더욱 강화하는 것은 물론, 고객이 비용 최적화된 제품을 활용할 수 있도록 지원한다”고 밝혔다.
작성일 : 2024-03-06
[포커스] 오라클, 생성형 AI로 기업의 대규모 AI 도입과 활용 지원
클라우드 시장 후발주자로 나선 오라클이 혁신 기술을 선보이며 시장 공략에 나섰다. 한국오라클은 연례 콘퍼런스 행사인 ‘오라클 클라우드 서밋’을 1월 25일 그랜드 인터컨티넨탈 서울 파르나스 호텔에서 개최하고, 멀티 클라우드 시대를 맞아 오라클의 통합 클라우드 및 생성형 AI 전략을 소개했다. 이와 함께 자사의 사업 성과와 새롭게 출시된 생성형 AI(generative AI) 서비스에 대해서도 밝혔다. ■ 최경화 국장   ▲ 한국오라클 탐 송 회장   한국오라클 탐 송 회장은 ‘오라클 클라우드 서밋 2024’ 기자간담회에서 한국오라클의 사업 주요 성과에 대해 발표했다. 탐 송 회장은 “한국오라클의 클라우드 사업은 2023년 6월~11월 기준 3배 이상 성장하고 있는데, 기업의 데이터 기반 디지털 혁신을 위한 클라우드 전환 및 신규 확산 수요가 성장을 견인하고 있다. 주요 대기업의 미션 크리티컬 부문에서 클라우드 성과는 4배 수준으로 성장했고, 중견/중소기업 및 스타트업 부문에서도 클라우드 성과가 60% 이상 성장했다”면서,.이처럼 오라클 클라우드가 성장하고 있는 이유는 “싸고, 빠르고, 안전하기 때문”이라고 밝혔다.     오라클은 클라우드 후발 주자로 나선 만큼 가격과 함께 제품 경쟁력의 차별화를 내세우면서 시장을 공략하고 있다..올해 한국오라클은 데이터-AI 통합 솔루션 제공을 가속화하여 기업 주요 시스템의 클라우드 전환 조력 및 가치를 극대화해 나갈 계획이다. 또한 국내 중소/스타트업 기업을 위한 지원과 협력 활동을 지속하고, 새로운 리더십과 조직 강화로 성장 모멘텀 지속 확장 및 매출 성장을 달성한다는 계획이다.   OCI 생성형 AI 서비스 출시 오라클은 오라클 클라우드 인프라스트럭처(OCI)에 생성형 AI 서비스를 정식 출시한다고 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 한층 진보한 최신 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 새로운 혁신 기술을 선보인다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어(Cohere)의 대규모 언어 모델(LLM)과 메타(Meta)의 라마 2(Llama 2) LLM을 원활하게 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은 OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전(OCI Dedicated Region)을 통해 온프레미스 환경에서도 이용 가능하다.     생성형 AI 모델의 커스터마이징 간소화 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용 가능한 관리형 서비스 방식으로 제공한다. 또한 고객은 오라클의 강력한 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 또한 오라클의 검색 증강 생성(Retrieval Augmented Generation : RAG) 기술은 고객이 자체 데이터를 사용해 생성형 AI모델을 추가적으로 학습시킴으로써, 조직의 독특한 내부 운영 방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트(OCI Generative AI Agents) 서비스에는 RAG 에이전트가 포함돼 있다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치(OCI OpenSearch)를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 해당 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 향후 버전에서는 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색(AI Vector Search) 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어(Vector Store) 기능을 활용한 MySQL 히트웨이브(MySQL HeatWave)에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트(Oracle Fusion Cloud Applications Suite), 오라클 넷스위트(Oracle NetSuite)를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스(Oracle Health)를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다.     오라클의 솔루션 포트폴리오 전반에 걸쳐 내장되는 생성형 AI 오라클은 “선도적인 AI 인프라스트럭처 및 포괄적인 클라우드 애플리케이션 포트폴리오가 고객의 두터운 신뢰를 얻고 있다”고 밝히고 있다. 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 한편, 오라클은 고객이 허깅페이스(Hugging Face)의 트랜스포머(Transformers), 파이토치(PyTorch) 등의 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스(OCI Data Science)의 기능을 확장해 나가고 있다..2월에 베타 버전이 출시된 OCI 데이터 사이언스 AI 퀵 액션(OCI Data Science AI Quick Actions) 기능은 메타 또는 미스트랄 AI(Mistral AI) 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다.   오라클은 어떤 회사? 오라클은 1977년 래리 엘리슨이 봅 마이너, 에드 오츠와 함께 미국 국방부의 프로젝트에 관계형 데이터베이스 관리 시스템(Relational Database Management System)을 개발, 상용화한 것을 시작으로 설립돼, 전 세계 클라우드 및 IT 시장에서 활약하는 기업으로 자리잡았다. 지난 2009년 4월에는 썬마이크로시스템즈를 인수하면서 기업용 소프트웨어에서 하드웨어 인프라에 이르기까지 통합된 시스템을 제공할 수 있는 기업으로 탈바꿈했다. 특히, 오라클은 클라우드 영역에서 ERP(전사적자원관리), HCM(인적자본관리), CX(고객경험솔루션), SCM(공급망관리) 및 이와 연계된 퓨전 애널리틱스(Fusion Analytics) 등 클라우드 애플리케이션부터 서비스형 플랫폼(PaaS) 및 서비스형 인프라(IaaS)까지 광범위한 제품군을 미주, 유럽 및 아시아 전역의 44개 클라우드 리전에서 제공하고 있다. 오라클의 주요 사업 영역으로는 ▲오라클 DBMS 및 클라우드(PaaS/IaaS) ▲오라클 클라우드 애플리케이션(SaaS) ▲오라클 시스템(System) 등이 있다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-03-04
인텔, 알테라를 FPGA 기업으로 독립
인텔은 지난 2015년 인수한 FPGA(프로그래밍이 기능한 반도체) 기업 알테라(Altera)를 다시 신생 기업으로 분사한다고 발표했다.  알테라의 확장된 포트폴리오와 로드맵은 클라우드, 네트워크, 에지 전반을 공략할 FPGA 시장의 성장에 더 효과적으로 대응할 수 있으며, 쿼터스 프라임(Quartus Prime) 소프트웨어와 도입하기 쉬운 AI 역량 향상을 통해 빠르게 성장하는 애플리케이션 분야를 공략할 수 있도록 지원한다. 인공지능(AI)의 등장은 모든 산업 전반에 걸쳐 새로운 복잡성과 기회를 창출하고 있다. 알테라는 텐서플로(TensorFlow), 파이토치(Pytorch) 등의 표준 프레임워크를 기반으로 최적화된 지적재산(IP)를 생성하는 FPGA AI 스위트 및 오픈비노(OpenVINO)를 통해 이러한 기회를 활용하고 있다. 알테라의 FPGA는 중요 AI 추론 기능의 원활한 통합 등 변화하는 시장 요구 사항에 더 효과적으로 대응하고 PCI 익스프레스(PCI Express), CXL, 이더넷, 6G 무선 등의 진화하는 표준을 더 적절히 활용하는 유연한 솔루션을 제공한다. 알테라의 솔루션은 네트워킹 및 통신 인프라부터 저전력 임베디드 응용 분야에 이르기까지 광범위한 시장과 사용 사례에 맞춰 최적화되었다. 알테라는 다양한 고객 요구 사항을 충족하는 새로운 제품과 서비스도 발표했다. 여기에는 ▲고대역폭 혼합 신호 FPGA가 필요한 레이더 및 군용 항공우주 분야에 적합한 고속의 데이터 변환기를 제공하는 애질렉스 9(Agilex 9) ▲와트당 패브릭 성능이 높아 데이터센터, 네트워킹, 방위 산업과 같은 고대역 컴퓨팅에 적합한  애질렉스 7(Agilex 7) F 시리즈 및 I 시리즈 디바이스 ▲AI가 탑재된 FPGA 패브릭으로 높은 성능과 와트당 성능을 제공하며 임베디드 및 에지 분야에 적합한 애질렉스 5(Agilex 5) 등이 있다. 또한, 곧 공개 예정인 애질렉스 3(Agilex 3)는 복잡성이 낮은 기능에 높은 저전력 FPGA 라인을 제공할 예정이며 클라우드, 통신 및 지능형 에지 분야에 적합하다.     한편, FPGA 비전 웹캐스트에서 알테라의 샌드라 리베라(Sandra Rivera) CEO와 섀넌 폴린(Shannon Poulin) 최고운영책임자(COO)는 550억 달러 이상 시장 기회에서 리더십을 확보할 수 있는 전략을 공개했다. 핵심은 패브릭에 AI가 내장된 FPGA를 비롯해 기업 포트폴리오를 확장하고, 증가하는 고객 문제를 해결하도록 지원하겠다는 것이다.    샌드라 리베라 CEO는 “고객들이 점점 더 복잡해지는 기술 과제에 대응하며 경쟁사와 차별화를 이루고 가치 창출 시간을 단축하고자 노력함에 따라 FPGA 시장이 재활성화할 기회가 생겼다”면서, “통신, 클라우드, 데이터센터, 임베디드, 산업, 자동차, 군용 항공기 시장 등 광범위한 응용 분야에 걸쳐 프로그래밍 가능한 솔루션과 활용 가능한 AI 기술을 제공하기 위해 대담하고 민첩하며 고객 중심적인 접근 방식을 취함으로써 FPGA 시장을 선도하겠다”고 밝혔다.
작성일 : 2024-03-04
오라클, 생성형 AI 내장 적용해 기업의 대규모 AI 도입 및 활용 지원
클라우드 시장 후발주자로 나선 오라클이 혁신기술을 선보이며 시장공략에 나섰다. 한국오라클은 가장 큰 연례 컨퍼런스 행사인 오라클 클라우드 서밋을 1월 25일 그랜드 인터컨티넨털 서울 파르나스 호텔에서 개최하고, 멀티 클라우드 시대를 맞아 오라클의 통합 클라우드 및 생성형 AI 전략을 소개했다. 이와함께 기자간담회를 통해 한국오라클의 사업 성과와 새롭게 출시된 생성형 AI 서비스에 대해서도  밝혔다.    한국오라클 탐 송 회장 한국오라클 탐 송 회장은 1월 25일 서울 그랜드인터컨티넨탈 서울 파르나스에서 열린 '오라클 클라우드 서밋 2024' 기자간담회에서 한국오라클의 사업 주요 성과에 대해 발표했다.  탐 송 회장은 “한국오라클의 클라우드 사업은 2023년 6월~11월 기준 3배 이상 성장하고 있는데 기업의 데이터 기반 디지털 혁신을 위한 클라우드 전환 및 신규 확산 수요가 견인하고 있다. 주요 대기업의 미션 크리티컬 부문에서 클라우드 성과는 4배 수준으로 성장했고, 중견, 중소, 스타트업 부문에서도 클라우드 성과가 60% 이상 성장했다”면서, 이처럼 오라클 클라우드가 성장하고 있는 이유는 “싸고, 빠르고, 안전하기 때문”이라고 밝혔다.     오라클은 클라우드 후발 주자로 나선 만큼 가격과 함께 차별화된 제품 경쟁력으로 시장을 공략하고 있다.  올해 한국오라클은 올해 데이터-AI 통합 솔루션 제공을 가속화하여 기업 주요 시스템의 클라우드 전환 조력 및 가치를 극대화해 나갈 계획이다. 또한 국내 중소/스타트업 기업을 위한 지원과 협력활동을 지속하고, 새로운 리더십과 조직 강화로 성장 모멘텀 지속 확장 및 매출 성장을 달성할 계획이다.   오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스 출시     오라클은 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI(Oracle Cloud Infrastructure Generative AI) 서비스를 정식 출시한다고 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 한층 진보한 최신 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 새로운 혁신기술들을 선보인다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어(Cohere)의 대규모 언어 모델(LLM)과 메타(Meta)의 라마 2(Llama 2) LLM을 원활하게 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은   OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전(OCI Dedicated Region)을 통해 온프레미스 환경에서도 이용 가능하다. 생성형 AI 모델의 커스터마이징 간소화 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용가능한 관리형 서비스 방식으로 제공한다. 또한 고객은 오라클의 강력한 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 또한 오라클의 검색 증강 생성(Retrieval Augmented Generation, RAG) 기술을 통해 고객은 자체 데이터를 사용해 생성형 AI모델을 추가적으로 학습시킴으로써 조직의 독특한 내부 운영방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트(OCI Generative AI Agents) 서비스에는 RAG 에이전트가 포함돼 있다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치(OCI OpenSearch)를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 해당 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 향후 버전에서는 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색(AI Vector Search) 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어(Vector Store) 기능을 활용한 MySQL 히트웨이브(MySQL HeatWave)에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트(Oracle Fusion Cloud Applications Suite), 오라클 넷스위트(Oracle NetSuite)를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스(Oracle Health)를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다. 오라클의 솔루션 포트폴리오 전반에 걸쳐 내장되는 생성형 AI 오라클의 선도적인 AI 인프라스트럭처 및 포괄적인 클라우드 애플리케이션 포트폴리오는 고객의 두터운 신뢰를 얻고 있다. 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 오라클은 고객이 허깅페이스(Hugging Face)의 트랜스포머(Transformers), 파이토치(PyTorch) 등의 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스(OCI Data Science)의 기능을 확장해 나가고 있다.  2월에 베타 버전 출시가 예정된 OCI 데이터 사이언스 AI 퀵 액션(OCI Data Science AI Quick Actions) 기능은 메타 또는 미스트랄 AI(Mistral AI) 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다.  
작성일 : 2024-01-25
오라클, OCI 생성형 AI 서비스 출시… “기술 스택 전반에 생성형 AI 내장”
오라클이 오라클 클라우드 인프라스트럭처(OCI) 생성형 AI 서비스를 정식 출시한다고 발표했다. 새로운 OCI 생성형 AI 서비스는 기업이 최신의 생성형 AI 기술을 보다 손쉬운 방식으로 활용할 수 있도록 지원하는 기술을 제공한다. OCI 생성형 AI 서비스는 다양한 비즈니스 사용 사례에 적용할 수 있도록 코히어(Cohere)의 대규모 언어 모델(LLM)과 메타(Meta)의 라마 2(Llama 2) LLM을 통합하는 완전 관리형 서비스다. OCI 생성형 AI 서비스는 100개 이상의 다국어 기능과 개선된 GPU 클러스터 관리 경험, 유연한 미세조정 옵션 등을 제공한다. 고객은 OCI 생성형 AI 서비스를 오라클 클라우드 상에서 이용할 수 있으며, OCI 전용 리전(OCI Dedicated Region)을 통해 온프레미스 환경에서도 이용 가능하다. 오라클은 고객이 텍스트 생성과 요약, 의미론적(semantic) 유사성 작업을 중심으로 비즈니스 문제 해결을 지원하기 위해 코히어 및 메타 라마 2의 최신 LLM 모델을 API 호출을 통해 이용가능한 관리형 서비스 방식으로 제공한다. 또한 고객은 오라클의 데이터 보안 및 거버넌스를 바탕으로 생성형 AI 모델을 자체 기술 스택에 손쉽고 안전한 방식으로 적용할 수 있다. 또한 오라클의 검색 증강 생성(RAG) 기술을 통해 고객은 자체 데이터를 사용해 생성형 AI 모델을 추가적으로 학습시킴으로써 조직의 독특한 내부 운영 방식을 이해하도록 할 수 있다. 현재 베타 단계인 OCI 생성형 AI 에이전트 서비스에는 RAG 에이전트가 포함돼 있다. OCI 생성형 AI 에이전트는 LLM과 OCI 오픈서치를 기반으로 구축한 엔터프라이즈 검색 체계를 결합함으로써, 엔터프라이즈 데이터로 보강된 맥락 기반의 검색 결과를 제공한다. 사용자는 이 에이전트를 통해 전문 기술 없이도 자연어 기반 대화 방식으로 다양한 엔터프라이즈 데이터 소스와 상호작용할 수 있다. 또한 동적 데이터 저장소로부터 최신 정보를 검색하며, 검색 결과와 함께 원본 소스 데이터에 대한 참조 정보를 제공받을 수 있다. 현재 OCI 생성형 AI 에이전트의 베타 버전은 OCI 오픈서치 검색 서비스를 지원한다. 오라클은 향후 버전에서 보다 광범위한 데이터 검색 및 집계 도구를 지원하고, AI 벡터 검색(AI Vector Search) 기능을 탑재한 오라클 데이터베이스 23c와 벡터 스토어(Vector Store) 기능을 활용한 MySQL 히트웨이브(MySQL HeatWave)에 대한 액세스를 제공할 예정이다. 또한 오라클은 오라클 퓨전 클라우드 애플리케이션 스위트(Oracle Fusion Cloud Applications Suite), 오라클 넷스위트(Oracle NetSuite)를 비롯한 SaaS 애플리케이션 제품군 및 오라클 헬스(Oracle Health)를 비롯한 산업별 애플리케이션 전반에서 사전 구축된 에이전트 활동 기능을 제공할 예정이다. 한편, 오라클은 ERP, HCM, SCM, CX를 비롯한 자사의 클라우드 애플리케이션 포트폴리오 전반에 생성형 AI를 통합해 기업이 기존 비즈니스에 최신 혁신 기술을 적용할 수 있도록 지원한다고 전했다. 또한 오라클은 고객의 AI 기반 애플리케이션 구축을 지원하기 위해 생성형 AI 기능을 자체 데이터베이스 포트폴리오에 도입하고 있다. 고객은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점을 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 오라클은 고객이 허깅페이스(Hugging Face)의 트랜스포머(Transformers), 파이토치(PyTorch) 등의 오픈소스 라이브러리를 사용해 LLM을 구축, 학습, 배포, 관리하는 과정을 지원하고자 OCI 데이터 사이언스(OCI Data Science)의 기능을 확장해 나가고 있다. 2월에 베타 버전 출시가 예정된 OCI 데이터 사이언스 AI 퀵 액션(OCI Data Science AI Quick Actions) 기능은 메타 또는 미스트랄 AI(Mistral AI) 등의 주요 AI 공급업체를 비롯한 다양한 오픈소스 LLM에 노코드 액세스를 지원할 예정이다. 오라클의 그렉 파블릭(Greg Pavlik) OCI 사업부문 AI 및 데이터 관리담당 수석부사장은 “AI 부문에서 오라클의 전략적 목표는 기업의 광범위한 AI 도입을 위해 실제 비즈니스 사례에서 발생했던 문제를 해결하는 데 집중하는 것이다. 따라서 빠르고 비용 효율적인 AI 인프라를 기반으로 생성형 AI 모델을 자체 애플리케이션 및 융합형 데이터베이스에 통합하고, 새로운 LLM 및 관리형 서비스 제공을 통해 AI를 오라클 기술 스택의 모든 계층에 내장하고 있다”면서, “오라클은 고객이 직접 모아서 구성해야 하는 방식의 도구 모음이 아닌, 하나의 제품처럼 유기적으로 작동하는 강력한 사전 구축 생성형 AI 서비스 및 기능 제품군을 제공한다. 이를 통해 고객은 비즈니스 문제를 영민하고 빠른 방식으로 해결할 수 있게 된다”고 말했다. 
작성일 : 2024-01-25
헥사곤, 주요 적층제조 소프트웨어 통합한 ‘적층제조 스위트’ 발표
헥사곤 매뉴팩처링 인텔리전스(헥사곤 MI)가 산업 규모의 적층제조(AM) 도입을 지원하기 위해 설계된 ‘헥사곤 적층제조 소프트웨어 스위트(HxGN Additive Manufacturing Suite)’을 발표했다. 헥사곤의 디지털 리얼리티 플랫폼인 넥서스(Nexus)를 통해 사용 가능한 적층제조 스위트는 헥사곤의 네 가지 핵심 소프트웨어를 통합했다. 이를 통해 호환성 문제로 인한 공정 확장 및 반복의 어려움을 해소하고, 안정적인 공장 가동과 3D 프린팅 서비스 운영의 효율성을 높이는 것이 목표이다. 헥사곤 MI는 “프로토타입 제작에 중점을 둔 다른 솔루션의 경우 복잡성과 높은 비용으로 인해 제조 애플리케이션 적용에 제한이 있지만, 넥서스는 공급업체별로 제한적인 도구와 소프트웨어 사용에 대한 제약 없이 민첩하고 반복적인 작업을 지원한다”고 소개했다.     헥사곤 적층제조 스위트는 제조 중심의 고성능 3D 프린팅 소프트웨어 솔루션으로서, 헥사곤의 ▲제조 및 설계 검토용 CAD 소프트웨어인 디자이너(Designer) ▲금속 파우더 베드 퓨전(PBF) AM 빌드 준비를 위한 AM 스튜디오(AM STUDIO) ▲제조 프로세스 시뮬레이션 및 최적화를 위한 시뮤팩트 애디티브(Simufact Additive) ▲금속 AM 부품의 후공정 CNC 가공을 위한 CAM 소프트웨어 에스프릿 엣지(Esprit Edge)가 결합됐다. 제조업체는 업데이트된 넥서스 플랫폼이 지원하는 워크플로 자동화를 통해 효율적인 설계가 가능하다. 또한 고효율의 서포트 구조와 슬라이싱, 해칭 기능이 탑재된 프린터 제작 준비가 간소화되어 비용을 신속하게 예측하고, 프린팅 전략과 빌드 방향을 최적화하여 제품 공정 초기에 문제를 발견하고 해결할 수 있다. 특히 인공지능(AI)을 통한 디지털 트윈 기술로 구동되는 에스프릿 엣지는 금속 적층제조 부품의 후공정에 필요한 CNC(정밀가공) 작업 최적화를 통해 정밀하고 효율적인 작업을 지원한다. 헥사곤의 척 매튜(Chuck Mathews) 생산 소프트웨어 총괄 매니저는 “적층가공은 제조산업계의 핵심 기술로, 다양한 산업 분야의 주요 애플리케이션에 사용될 고품질 부품 생산에 확장, 적용될 것”이라며, “제조업체는 헥사곤의 새로운 적층제조 스위트를 통해 간소화된 워크플로와 효율성, 확장성, 신뢰성을 갖춘 적층제조 프로세스를 기반으로 시간과 예산을 효율적으로 운용할 수 있다”고 말했다. 헥사곤 MI의 파스 조시(Parth Joshi) 최고 제품 및 기술 책임자는 “적층제조 기술 확장에 대한 수요 속에서 제조업체는 부품 제작에 앞서 공정 자동화를 통한 효율적인 운용과 가상환경에서의 생산 최적화를 이뤄야 한다”면서, “광범위한 적층제조 포트폴리오를 보완하는 새로운 헥사곤 적층제조 스위트는 적층제조 운영을 고도화함에 따라 향후 의료, 항공 등 산업 전반에 걸친 추가적인 적층제조 기술에 대한 지원을 지속할 예정”이라고 말했다.
작성일 : 2023-11-21
유아이패스, 비즈니스 현장 내 AI 실현 위한 신규 기능 오토파일럿 발표
유아이패스가 최근 자사 비즈니스 오토메이션 플랫폼의 최신 인공지능(AI) 기능과 생성 AI 및 전문 AI와 자동화를 모두 통합한 오토파일럿(Autopilot)을 발표하며 모든 사용자가 자연어를 기반으로 일상 업무를 자동화할 수 있도록 지원하겠다고 밝혔다. 유아이패스 오토파일럿은 클릭 한 번으로 종이 문서를 자동화 기반 앱으로 전환할 수 있어 기업의 오랜 숙원 사업과도 같은 디지털 전환을 달성할 수 있도록 지원한다. 유아이패스 비즈니스 오토메이션 플랫폼의 신규 AI 기능은 아직 확인되지 않은 영역의 자동화 잠재력을 확인하고, 비즈니스 프로세스 개선의 기회를 발견하며, 엔터프라이즈급 기능 기반의 효율적인 자동화 구축을 가속화할 전망이다. AI 기반 오토파일럿은 개발자, 일반 사용자, 비즈니스 분석가 등 다양한 사용자를 대상으로 아래와 같은 이점을 제공한다. 개발자: 전문 자동화 개발자와 일반 자동화 개발자 모두 자연어를 사용하여 자동화, 코드 및 표현식을 생성할 수 있다. 유아이패스 앱의 생성형 AI 기능은 개발자가 워크플로우 및 표현식을 생성하고, 자동화를 구축하고, PDF 또는 이미지를 바탕으로 자동화 기반 앱을 제작할 수 있도록 지원한다. 일반 사용자: 오토파일럿 포 유아이패스 어시스턴트(Autopilot for UiPath Assistant)는 AI 동료로서 모든 사용자와 협업하여 업무를 처리할 뿐 아니라, 애플리케이션 간의 복잡한 데이터 복사 및 붙여넣기 작업을 통해 업무 소요 시간을 감축하는 클립보드 AI 기능을 제공한다. 이러한 AI 툴은 데이터 집약적인 작업과 반복적인 작업을 수행하는 데 소요되는 시간을 절감한다. 비즈니스 사용자는 API 및 UI 자동화를 기반으로 비즈니스 프로세스를 업데이트하고 담당자의 감독하에 더 많은 작업을 자동화할 수 있다. 자동화 담당자: 오토파일럿의 테스트 스위트 기능은 테스트 수명 주기의 모든 단계를 가속화하고, 필수 조건에 알맞은 테스트를 제작하며, 테스트 결과를 바탕으로 실행에 옮길 수 있는 유의미한 인사이트를 도출한다. 비즈니스 분석가: 오토파일럿의 프로세스 마이닝 기능은 비즈니스 분석가가 자연어를 바탕으로 자동화 기회를 포착하기 위해 활용하는 대시보드를 생성하고, 구별하고, 요약하는 기능을 제공한다. 또한 오토파일럿의 커뮤니케이션 마이닝 기능은 자동화 전담팀(Center of Excellence, CoE)에게 자연어 프롬프트를 바탕으로 자동화 기회를 발견할 수 있는 통합적인 툴을 제공한다.   유아이패스는 업계 최고 수준의 생성 AI를 갖추었을 뿐 아니라, 개방적이고 유연하며 윤리적인 AI 사용 원칙을 준수하는 전문 AI 모델 라이브러리로 구성된 지능형 자동화 솔루션을 통해 비즈니스 현장에서의 AI 실현을 지원하고 있다. 유아이패스의 개방형 접근 방식을 통해 고객은 AI 생태계를 활용하여 AI 기반 자동화를 개발하고, 측정 가능하고 실행에 옮길 수 있는 결과를 확보한다. 또한 유아이패스는 데이터 거버넌스, 생성형 AI 기능의 사용자 경험, 대규모 언어 모델(Large Language Model, LLM)의 관리를 위한 프레임워크인 유아이패스 AI 트러스트 레이어(Trust Layer)를 발표했다. AI 트러스트 레이어는 윤리 의식을 준수하며 책임 있는 AI 사용에 필요한 신뢰성, 가시성, 거버넌스를 제공한다. 유아이패스 코리아 백승헌 전무는 "자동화는 AI가 구상하는 모든 것을 실현하는 최선의 방편”이라며, “유아이패스의 새로운 오토파일럿 기능을 통해 고객은 자동화를 통해 AI의 혁신적 기능을 비즈니스 프로세스에 알맞게 운영할 수 있으며, 일상 업무에 인텔리전스를 원활하게 통합하고, 모든 지식 업무를 자동화할 수 있다”고 설명했다. 이어서 그는 “오토파일럿 기능을 통해 직원의 역량을 향상시키고, AI를 통해 산업 전반에 걸친 비즈니스 혁신을 일으킬 수 있다"며, "유아이패스 AI 트러스트 레이어는 고객이 데이터 보안을 준수하면서 신규 AI 기능을 활용할 수 있도록 지원한다"고 덧붙였다. 박미정 농협중앙회 스마트워크팀 팀장은 "우리는 전국적으로 농업 부문의 비즈니스 프로세스 디지털화를 구축하며, 자동화를 도입함으로써 협동조합 구성원들이 효율성과 생산성을 개선할 수 있도록 지원하고 있다”며, “유아이패스의 새로운 오토파일럿 기능은 모든 사용자가 자연어를 기반으로 일상 업무를 쉽게 자동화할 수 있도록 지원하여 디지털 전환을 가속화하는 데 크게 기여할 것"이라고 설명했다. 이어서 그는 "향후 비즈니스 프로세스와 워크플로우 전반에 걸쳐 고도화된 자동화를 구축하고 AI 혁신을 달성할 수 있을 것으로 예상한다”며 기대감을 내비쳤다. 한편, 유아이패스는 최근 라스베가스에서 열린 유아이패스의 글로벌 사용자 컨퍼런스인 포워드 식스 컨퍼런스(FORWARD VI Conference)에서 비즈니스 현장에서의 AI 구축 및 운영에 있어 필수 요소 와도 같은 ‘유아이패스 아카데미(UiPath Academy)’ 관련 신규 소식을 발표했으며, 주요 내용은 아래와 같다. 차세대 인재 양성을 위한 신규 프로그램: 자동화 전문가를 위한 세계 최초의 무료 개방형 온라인 교육 플랫폼인 유아이패스 아카데미는 실무자, 고객 및 파트너를 위한 전문 AI 교육 커리큘럼과 인증 기회를 제공할 예정이다. 커리어 가이드 설문조사 및 진로 탐색: 유아이패스는 개인별 커리어 관련 설문조사를 도입해 학습자의 배경, 관심사, 그리고 개개인의 고유한 강점과 커리어 목표를 기반으로 자동화 분야 내 가장 알맞은 역할 및 직무에 대한 안내 및 가이드를 제공한다. 자동화 분야 커리어 가이드: 학습자의 자동화 및 AI 세계에 대한 심층적인 이해를 돕기 위해 자동화 개발자, 비즈니스 분석가, 솔루션 아키텍트(Solution Architect), 인프라 엔지니어, 전문 AI 담당자 등 핵심 역할에 대한 광범위한 자료를 제공한다.  교육 생태계: 학습자는 유아이패스 포럼 활동, 권위 있는 자격증 취득 등 유아이패스의 활발한 커뮤니티를 경험할 수 있다. 한편, 유아이패스는 포워드 식스 컨퍼런스에서 ‘2023 파트너 어워드(2023 Partner Award)’를 통해 유아이패스 자동화 플랫폼 도입 및 운영에 있어 뛰어난 헌신을 보여준 파트너사를 선정해 시상했다. 올해는 EY가 유아이패스의 비즈니스 자동화 플랫폼을 활용해 고객 경험 현대화 및 만족도 개선을 달성하는 등 우수한 리더십과 혁신성을 인정받아 ‘올해의 글로벌 파트너(the Global Partner of the Year)’로 선정되는 쾌거를 거두었다. 또한 유아이패스는 제1회 '유아이패스 AI10 어워즈(AI10 Awards)'에서 AI 기반 자동화를 통해 비즈니스 성과를 달성하고 혁신을 가속화하는 등 AI의 혁신적 힘을 입증한 고객사를 선정해 시상했다. 방카 프로제토(Banca Progetto), 콕스 엔터프라이즈(Cox Enterprises), 에퀴팩스(Equifax), 익스피언 헬스(Expion Health), 플러터 영국 & 아일랜드(Flutter UK & Ireland), 인텔 코퍼레이션(Intel Corporation), 라자드(Lazard), 오메가 헬스케어(Omega Healthcare), 오메르스(OMERS), USI 보험 서비스(USI Insurance Services) 와 같은 전 세계 유수의 기업이 유아이패스 AI10 어워즈의 수상자로 선정되었다.  
작성일 : 2023-11-11
하이퍼웍스 2023 : AI 및 HPC 기술 융합한 시뮬레이션 플랫폼
개발 및 공급 : 알테어 주요 특징 : AI 기반 워크플로로 복잡한 작업 자동화 및 데이터 기반 정확한 예측 지원, 고성능 컴퓨팅 환경을 활용한 복잡한 대규모 시뮬레이션 지원, 파이썬 API/써드파티 소프트웨어 지원까지 개방형 플랫폼 제공 등   ▲ 하이퍼웍스 2023에 포함된 전처리 소프트웨어 알테어 하이퍼메시   알테어가 ‘알테어 하이퍼웍스 2023(Altair HyperWorks 2023)’을 출시했다고 밝혔다. 하이퍼웍스 2023은 알테어의 CAE 소프트웨어 플랫폼으로 자동차, 항공우주, 전자 등 다양한 산업에서 적용 가능한 설계 및 시뮬레이션 소프트웨어를 포함하는 대표 제품이다. 최신 버전은 AI(인공지능)와 고성능 컴퓨팅(HPC), 시뮬레이션 기술 융합을 바탕으로  AI 기반 워크플로와 같은 신기능이 추가됐다. 하이퍼웍스 2023은 다양한 제품이 통합된 환경에서 엔지니어가 더 많은 설계 옵션을 탐색하고 빠른 의사결정을 내릴 수 있도록 지원한다. 모델링 엔티티 관리를 통해 그래픽 성능이 향상되어, 복잡한 어셈블리 세부 사항에 집중하면서 여러 작업을 동시에 수행할 수 있어 효율적인 설계가 가능하다. 복잡한 형상에 특화된 알테어 심솔리드(Altair SimSolid)도 기존 유한 요소 해석보다 최대 25배 빠른 결과를 제공하며 한층 강화됐다. 또한 고성능 컴퓨팅 환경을 활용한 대규모 시뮬레이션을 지원해 심화된 해석과 협업을 수월하게 진행할 수 있다.   ▲ 제품 개발 초기에 시뮬레이션 기반 설계를 할 수 있는 알테어 인스파이어(Altair Inspire)   AI 활용 확대 하이퍼웍스 2023는 AI 기반 워크플로를 탑재해 복잡한 작업을 자동화하고 데이터 추세를 파악해 정확도 높은 예측을 제공한다. 또한 맞춤형 AI 모델 생성 및 차수 축소 모델링을 수행해 원하는 결과를 높은 정확도로 빨리 얻을 수 있다. 알테어는 이번 업데이트를 기점으로 AI 기반 시뮬레이션 사용 확산에 주력하겠다는 방침이다.   생산성 향상을 위한 유연한 작업 환경 하이퍼웍스 2023은 프로그래밍 가능한 개방형 플랫폼에서 알테어 및 서드파티 소프트웨어와의 통합을 지원한다. 사용자는 파이썬(Python) API를 활용해 구조, 전산 유체 역학(CFD), 다물체 동역학, 전자기학, 전자 설계 자동화(EDA) 등 다양한 솔버를 사용할 수 있다.   시뮬레이션 데이터 관리 향상 알테어는 하이퍼웍스 2023 출시와 함께 시뮬레이션 데이터 관리에 용이한 알테어 시뮬레이션 클라우드 스위트(Altair Simulation Cloud Suite)를 최초로 공개했다. 이 제품은 각 조직 내 여기저기 흩어져 있는 시뮬레이션 데이터를 웹 기반으로 관리하는 제품으로, 머신러닝을 하기 위한 데이터 소스로도 활용할 수 있다.   ▲ 프로세스 중심의 다분야 시뮬레이션 환경을 제공하는 알테어 심랩(Altair SimLab)   이외에도 알테어는 외부 공기 역학에 초점을 맞춘 알테어 하이퍼메시 CFD(Altair HyperMesh CFD)도 선보인다. 한편, 할테어는 시뮬레이션·설계 플랫폼인 알테어 하이퍼웍스를 비롯해 HPC·클라우드 플랫폼인 알테어 HPC웍스(Altair HPCWorks), 데이터 분석·AI 플랫폼인 알테어 래피드마이너(Altair RapidMiner)로 개편해 제품을 통합적으로 지원하고 있다고 설명했다. 알테어의 짐 스카파 CEO는 “이번 출시는 AI와 고성능 컴퓨팅, 시뮬레이션까지 알테어의 핵심 기술력이 응집한 결과물로, 엔지니어에게 더 많은 설계 옵션과 빠른 의사결정을 지원한다”면서, “다양한 제품을 활용할 수 있는 하이퍼웍스 2023을 통해 디지털 전환에 필요한 기술 지원에 주력할 것”이라고 밝혔다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2023-11-02