• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "LLM"에 대한 통합 검색 내용이 242개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
오라클, 엔터프라이즈 데이터 및 애플리케이션용 AI 기능 제공하는 ‘오라클 데이터베이스 23ai’ 출시
오라클이 ‘오라클 데이터베이스 23ai(Oracle Database 23ai)’의 정식 출시를 발표했다. 오라클의 최신 융합형 데이터베이스인 오라클 데이터베이스 23ai는 폭넓은 클라우드 서비스를 통해 사용 가능하다.  장기 지원 릴리스인 오라클 데이터베이스 23ai는 데이터베이스 AI 기능 사용 간소화, 앱 개발 가속화, 미션 크리티컬 워크로드 실행 등을 지원하는 오라클 AI 벡터 검색(Oracle AI Vector Search) 및 기타 300개 이상의 신기능을 제공한다. AI 벡터 검색 기능은 고객의 문서, 이미지 및 기타 비정형 데이터 검색과 프라이빗 비즈니스 데이터 검색을 안전하게 결합시키고, 그 과정에서 데이터를 별도의 장소로 이동하거나 복제하지 않는다. 오라클 데이터베이스 23ai는 AI 알고리즘 적용을 위해 데이터를 별도의 장소로 이동시키는 대신, 데이터가 저장된 장소에서 바로 AI 알고리즘을 실행한다. “결과적으로 오라클 데이터베이스 내에서 AI 알고리즘이 실시간으로 실행되며 효과, 효율성, 보안성이 향상된다”는 것이 오라클의 설명이다. 오라클 AI 벡터 검색은 특정 단어, 픽셀 또는 데이터 값이 아닌 개념적 콘텐츠를 기반으로 문서, 이미지, 관계형 데이터를 간편하게 검색할 수 있는 기능이다. AI 벡터 검색은 LLM 자연어 인터페이스를 통한 프라이빗 비즈니스 데이터 쿼리를 지원하고, LLM이 더욱 정확하고 관련성 높은 결과를 생성하는데 기여한다. 또한 개발자는 AI 벡터 검색을 사용해 신규 및 기존 애플리케이션에 시맨틱 검색 기능을 손쉽게 추가할 수 있다. 이제 오라클 데이터베이스의 모든 미션 크리티컬 기능이 AI 벡터와 함께 투명하게 작동하므로 오라클의 고객사는 자사의 미션 크리티컬 애플리케이션에도 AI 벡터 검색을 적용할 수 있다. 동일한 고성능 데이터베이스에서 비즈니스 데이터 및 벡터 데이터를 함께 저장 및 처리하므로, 고객사는 기존의 데이터 보안 태세를 그대로 유지하며 자사의 비즈니스 애플리케이션에 AI 벡터 검색을 원활하게 통합해 새롭고 혁신적인 AI 사용 사례를 구현할 수 있다.     오라클 데이터베이스 23ai에 새롭게 추가되는 데이터용 AI 기능으로는 엑사데이터 스마트 스토리지를 사용하면 AI 벡터 검색을 가속화할 수 있는 오라클 엑사데이터 시스템 소프트웨어 24ai(Oracle Exadata System Software 24ai), 이기종 벡터 스토어 간의 실시간 벡터 복제 기능이 추가된 OCI 골든게이트 23ai(OCI GoldenGate 23ai) 등이 있다. 앱 개발을 가속화하기 위한 기능도 제공된다.  JSON 관계형 이원성(JSON Relational Duality)을 통해 일부 애플리케이션의 데이터 사용 방식과 관계형 데이터베이스의 데이터 저장 방식이 불일치하는 문제를 해결할 수 있도록 하고, 운영 속성 그래프(Operational Property Graph)는 개발자가 속성 그래프 쿼리를 사용해 데이터 간 및 데이터 내부의 연결성을 탐색하기 위한 애플리케이션을 간단히 구축할 수 있도록 지원한다. 상시 무료 자율운영 데이터베이스(Always Free Autonomous Database) 서비스는 오라클 APEX(Oracle APEX), 셀렉트AI(Select AI), 데이터베이스 도구(Database Tools), 머신러닝(Machine Learning), 그래프(Graph) 등의 다양한 도구가 내장된, 클라우드에서 무제한 사용 가능한 무료 자율운영 데이터베이스 서버리스(Autonomous Database Serverless) 인스턴스를 2개 제공한다.  오라클 데이터베이스 23ai는 오라클 엑사데이터 데이터베이스 서비스(Oracle Exadata Database Service), 오라클 엑사데이터 클라우드앳커스터머(Oracle Exadata Cloud@Customer), 오라클 기본 데이터베이스 서비스(Oracle Base Database Service), 오라클 데이터베이스앳애저(Oracle Database@Azure) 상의 오라클 클라우드 인프라스트럭처(OCI) 서비스 사용자들에게 제공된다. 오라클의 후안 로이자(Juan Loaiza) 미션 크리티컬 데이터베이스 기술 총괄 부사장은 “오라클 데이터베이스 23ai는 전 세계의 기업 고객들을 위한 ‘게임 체인저(game changer)’다. 이번 릴리스를 통해 선보이는 혁신적인 AI 기술들의 중요성을 감안해 제품명을 오라클 데이터베이스 23ai로 변경했다”면서, “새로운 통합 개발 패러다임과 미션 크리티컬 기능이 결합된 AI 벡터 검색은 개발자 및 데이터 전문가가 지능형 앱을 간단히 구축하고, 개발자 생산성을 향상시키며 미션 크리티컬 워크로드를 실행할 수 있도록 지원한다”고 소개했다.
작성일 : 2024-05-09
레노버, 하이브리드 AI 혁신 돕는 AMD 기반 서버 및 인프라 솔루션 공개
레노버는 에지부터 클라우드까지 하이브리드 AI 혁신을 지원하기 위해 새로운 맞춤형 AI 인프라 시스템 및 솔루션 제품군을 발표했다. 레노버는 다양한 환경과 산업에서 컴퓨팅 집약적인 워크로드를 처리하기 위해 폭넓은 GPU 옵션과 높은 냉각 효율성을 지닌 솔루션을 선보인다.    ▲ 씽크시스템 SR685a V3 GPU 서버   레노버는 AMD와 협력하여 씽크시스템(ThinkSystem) SR685a V3 GPU 서버를 선보였다. 이 서버는 고객에게 생성형 AI 및 대규모 언어 모델(LLM)을 포함해 컴퓨팅 수요가 많은 AI 워크로드를 처리하는데 적합한 성능을 제공한다. 또, 금융 서비스, 의료, 에너지, 기후 과학 및 운송 업계 내 대규모 데이터 세트를 처리하기 위한 빠른 가속, 대용량 메모리 및 I/O 대역폭을 제공한다. 새로운 씽크시스템 SR685a V3은 엔터프라이즈 프라이빗 온프레미스 AI와 퍼블릭 AI 클라우드 서비스 제공자 모두에게 최적화된 솔루션이다. 씽크시스템 SR685a V3는 금융 서비스 분야에서 사기 탐지 및 예방, 고객확인정책(KYC) 이니셔티브, 리스크 관리, 신용 발행, 자산 관리, 규제 준수 및 예측을 지원하도록 설계되었다. 4세대 AMD 에픽(EPYC) 프로세서와 AMD 인스팅트 MI300X GPU을 탑재하고 있으며, AMD 인피니티 패브릭으로 상호연결되어 1.5TB의 고대역폭(HBM3) 메모리, 최대 총 1TB/s의 GPU I/O 대역폭 성능을 제공한다. 공기 냉각 기술로 최대 성능을 유지하고 엔비디아의 HGXTM GPU와 향후 AMD CPU 업그레이드를 지원하는 등 유연성도 높였다. 레노버는 AMD EPYC 8004 프로세서를 탑재한 새로운 레노버 씽크애자일(ThinkAgile) MX455 V3 에지 프리미어 솔루션으로 에지에서 AI 추론 및 실시간 데이터 분석을 제공한다. 이번 다목적 AI 최적화 플랫폼은 에지에서 새로운 수준의 AI, 컴퓨팅 및 스토리지 성능을 제공하며, 높은 전력 효율성을 제공한다. 온프레미스 및 애저 클라우드와의 원활한 통합을 지원하며, 고객이 간소화된 라이프사이클 관리를 통해 총소유비용(TCO)을 절감하고 향상된 고객 경험을 얻으며 소프트웨어 혁신을 보다 빠르게 채택하도록 돕는다. 리테일, 제조 및 의료 분야에 최적화된 해당 솔루션은 낮은 관리 오버헤드, 레노버 오픈 클라우드 자동화(LOC-A) 툴을 통한 신속한 배포, 애저 아크(Azure Arc) 지원 아키텍처을 통한 클라우드 기반 매니지먼트, 마이크로소프트와 레노버가 검증한 지속적인 테스트와 자동화된 소프트웨어 업데이트를 통한 보안, 신뢰성 향상 및 다운타임 절감 등을 주요 특징으로 한다.   ▲ 씽크시스템 SD535 V3 서버   레노버와 AMD는 열효율성이 뛰어난 다중 노드의 고성능 레노버 씽크시스템 SD535 V3 서버도 공개했다. 이 제품은 단일 4세대 AMD 에픽 프로세서로 구동되는 1S/1U 절반 너비 서버 노드로 집약적인 트랜잭션 처리를 위해 랙당 퍼포먼스를 극대화시켰다. 이는 모든 규모의 기업을 위한 클라우드 컴퓨팅, 대규모 가상화, 빅 데이터 분석, 고성능 컴퓨팅 및 실시간 전자 상거래 트랜잭션을 포함해 워크로드에 대한 처리 능력과 열 효율성을 극대화한다. 한편, 레노버는 기업이 AI 도입으로 역량을 강화하고 성공을 가속화할 수 있도록 레노버 AI 자문 및 프로페셔널 서비스를 발표했다. 이 서비스는 모든 규모의 기업이 AI 환경에서 효율적인 비용으로 신속하게 알맞는 솔루션을 도입하고 AI를 구현할 수 있도록 다양한 서비스, 솔루션 및 플랫폼을 제공한다. 이 과정은 5단계, ‘AI 발견, AI 자문, AI의 빠른시작, AI 배포 및 확장, AI 관리’로 정리할 수 있다. 레노버는 먼저 보안, 인력, 기술 및 프로세스 전반에 걸쳐 조직의 AI 준비도를 평가하고, 이를 기반으로 조직의 목표에 맞는 가장 효과적인 AI 채택 및 관리 계획을 제안한다. 그런 다음, 레노버 전문가들은 이에 필요한 AI 요소를 설계 및 구축하고, AI 구현을 위한 도구 및 프레임워크를 배포하며, AI 시스템을 유지, 관리 및 최적화할 수 있는 지침을 제공한다. 마지막으로 레노버는 고객과 협력하여 배포부터 시작해 IT 제품 라이프사이클 전반을 지원하고, AI 사용 사례와 AI 성숙도가 함께 성장할 수 있도록 AI 이노베이터 생태계를 지속적으로 관리 및 발전시키고 있다.  레노버 AI 자문 및 프로페셔널 서비스를 통해 고객은 전문적인 IT 팀의 지원을 받아 AI 구현의 복잡성은 완화하고 실질적인 비즈니스 성과를 빠르게 낼수 있다. 레노버는 엔드 투 엔드 서비스, 하드웨어, AI 애플리케이션 및 서비스를 총동원해 고객이 AI 여정의 모든 단계에서 성장하도록 돕는다. 이는 결국 AI 도입을 간소화하여 모든 규모의 조직을 대상으로 AI 접근성을 높이고 산업 전반에 걸쳐 혁신적인 인텔리전스를 구현할 수 있도록 지원한다.  금융 서비스나 의료 업계 분야의 고객은 대량의 데이터 세트를 관리해야 하며 이는 높은 I/O 대역폭을 필요로 하는데, 레노버의 이번 신제품은 중요한 데이터 관리에 필수인 IT 인프라 솔루션에 초점을 맞추었다. 레노버 트루스케일 (Lenovo TruScale)은 고객이 까다로운 AI 워크로드를 서비스형 모델로 원활하게 통합할 수 있도록 유연성과 확장성을 지원한다. 또, 레노버 프로페셔널 서비스(Lenovo Professional Services)는 고객이 AI 환경에 쉽게 적응하고, AI 중심 기업들이 끊임없이 진화하는 요구사항과 기회를 충족할 수 있도록 돕는다. 레노버의 수미르 바티아(Sumir Bhatia) 아시아태평양 사장은 “레노버는 AMD와 함께 획기적인 MI300X 8-GPU 서버를 출시하며 AI 혁신에 앞장섰다. 레노버는 대규모 생성형 AI 및 LLM 워크로드를 처리할 수 있는 고성능을 제공함으로써 AI의 진화를 포용할 뿐만 아니라 더욱 전진시키고 있다. AMD의 최첨단 기술을 기반에 둔 우리의 최신 제품은 시장을 선도하겠다는 포부를 담고 있다. CIO의 AI 투자가 45% 증가할 것으로 예상됨에 따라, AMD MI300X 기반 솔루션의 포괄적인 제품군은 조직의 지능적인 혁신 여정에 힘을 실어줄 것”이라고 말했다.  레노버 글로벌 테크놀로지 코리아 윤석준 부사장은 “레노버는 하이브리드 AI 솔루션을 통해 국내에 다양한 기업을 지원하며 AI 혁신에 앞장서고 있다. 올해 한국 기업의 95% 이상이 생성형 AI에 투자할 계획을 갖고 있는 가운데, AI 도입이 증가하고 있다는 사실은 분명하다. 우리는 AI가 경쟁 우위를 확보하는 데 중추적인 역할을 한다는 점을 인지하고 AMD와 협력하여 포괄적인 AI 시스템 및 솔루션 제품군을 출시했다. 레노버는 금융 서비스 분야의 통찰력 가속화부터 의료산업 내 성능 강화까지 혁신적인 인텔리전스 분야를 선도하고 있다. AMD 기술로 구동되는 신규 씽크시스템 및 씽크애자일 제품은 에지 및 클라우드 환경 전반에 걸쳐 전례 없는 성능과 효율성을 제공하며 AI 배포를 혁신한다”고 전했다.
작성일 : 2024-05-08
씨이랩, AI 엑스포에서 비전 AI 특화 제품 선보여
AI 영상 분석 전문기업인 씨이랩은 5월 1일~3일 서울 코엑스에서 열리는 ‘2024 국제인공지능대전(AI EXPO KOREA 2024)’을 통해 영상분야에 특화된 AI 제품을 선보였다고 전했다. 씨이랩은 이번 전시회에서 ▲AI 영상 분석 서비스 ‘비디고(VidiGo)’ ▲합성 데이터 생성 솔루션 ‘엑스젠(X-GEN)’ ▲쿠버네티스 기반 AI 플랫폼 ‘아스트라고(astrago)’ 등 자사의 비전 AI 기술이 적용된 주요 제품을 출품했다. 특히 씨이랩은 클라우드 기반 AI 영상분석 서비스 비디고의 신규 버전인 ‘비디고 서치엔진(VidiGo Search Engine)’을 공개했다. 비디고 서치엔진은 영상을 시청하지 않고도 검색을 통해 특정 객체나 장면을 AI가 빠르게 찾아낸다. 영상을 요약하거나 숏폼을 제작하는 ‘비디고 하이라이트(VidiGo Highlight)’의 후속 제품이다. 씨이랩의 최원준 리더는 “비디고 하이라이트는 누구나 쉽게 AI 영상 분석을 진행할 수 있도록 카카오톡 채널을 통해 출시한 반면, 비디고 서치엔진은 대규모의 영상을 보유한 기업을 타기팅하고 있다. 이번 행사에서 비디고의 주요 타깃인 미디어 산업 분야의 참관객들에게 높은 관심을 받았다”고 말했다.     한편, 씨이랩은 AI 엑스포의 부대행사로 ‘비전 AI의 현재와 미래’라는 주제의 세미나를 진행했다. 세미나에서 씨이랩의 채정환 부사장은 “현재의 AI 시장은 초거대 언어 모델(LLM) 중심으로 발전해왔고, 머지않아 초거대 비전 모델(LVM : Large Vision Model) 중심으로 확대될 것으로 전망한다”고 밝히며, 엔비디아 옴니버스 플랫폼과의 협력을 통한 LVM 구성 전략을 제시했다.
작성일 : 2024-05-03
[케이스 스터디] 유니티 뮤즈의 텍스처/스프라이트 생성 및 파운데이션 모델
책임감 있는 AI 활용 및 향상된 모델 훈련   이번 호에서는 AI를 활용해 실시간 3D 콘텐츠를 제작하는 툴인 유니티 뮤즈(Unity Muse)에서 결과를 생성하는 방법을 설명하고, 유니티의 모델 훈련 방법론 및 새로운 파운데이션 모델 두 가지를 소개한다. ■ 자료 제공 : 유니티 코리아   유니티 뮤즈는 AI 기능을 바탕으로 사용자의 탐색, 아이디어 구상 및 반복 작업을 지원한다. 이러한 기능 중 텍스처(Texture) 및 스프라이트(Sprite)는 자연어와 시각적 입력을 애셋으로 변환한다. 뮤즈를 통해 유니티 에디터에 AI를 도입하면 아이디어를 가시적인 콘텐츠로 빠르게 구현할 수 있으므로, 비전을 더 손쉽게 실현할 수 있다. 프로젝트에 사용 가능한 실제 결과물로 변환할 수 있는 텍스트 프롬프트와 패턴, 색, 스케치를 이용하여 조정 및 반복 작업도 가능하다. 유니티는 뮤즈를 통한 스프라이트 및 텍스트 생성의 기반이 되는 AI 모델에 대한 훈련 기법을 혁신하는데 노력을 들였다. 이를 통해 안전하고 책임감 있으며 다른 크리에이터의 저작권을 존중하는 유용한 결과물을 제공하고자 한다.   AI 모델 훈련 유니티는 뮤즈의 텍스처 및 스프라이트 기능을 선보이면서, 유니티가 보유하거나 라이선스를 받은 독점 데이터를 기반으로 처음부터 훈련을 받은 두 가지 맞춤형 확산 모델도 개발하고 있다.   자체 콘텐츠 라이브러리 확장 데이터 증강은 유니티가 데이터 세트의 스케일과 다양성을 높이기 위해 사용하는 핵심 기술 중 하나로, 이 기술을 이용하여 유니티는 보유 중인 원본 데이터 샘플에서 많은 변형(variation)을 생성할 수 있다. 이러한 역량으로 훈련 세트를 더 풍부하게 만들 수 있으며, 모델이 한정된 샘플을 기반으로 일반화를 수행하는 기능을 향상할 수 있다. 아울러 지오메트리 변환, 색 공간 조정, 노이즈 삽입, 스테이블 디퓨전(Stable Diffusion) 같은 생성형 모델을 통한 샘플 배리에이션 등의 기법을 사용해 데이터 세트를 종합적으로 확장한다. 최근 스테이블 디퓨전과 관련하여, 본래 인터넷에서 수집된 데이터를 기반으로 훈련된 모델이라는 이유로 윤리적인 면에서 우려가 발생한 바 있다. 유니티는 뮤즈의 텍스처 및 스프라이트 기능을 제작하면서, 자체적으로 소유하고 책임감 있게 선별한 원본 데이터 세트를 기반으로 잠재적 확산 모델 아키텍처를 처음부터 훈련하는 방식을 통해 사전 훈련된 모델에 대한 의존도를 낮췄다. 데이터 증강 기법의 일부로 스테이블 디퓨전 모델의 사용을 최소로 제한해 안전하게 사용함으로써, 유니티가 보유한 원본 애셋 라이브러리를 강력하고 다양한 결과물의 저장소로 확장할 수 있었다. 이러한 결과물은 고유하고 독창적이며, 저작권을 가진 어떠한 아트 스타일도 포함하지 않는다. 유니티는 또한 추가로 완화 조치를 적용했으며, 뮤즈의 텍스처 및 스프라이트 기능에 사용되는 유니티의 잠재적 확산 모델을 위한 훈련 데이터 세트는 인터넷에서 수집된 어떤 데이터도 포함하지 않는다. 다음은 앞에서 설명한 증강 기법을 통해 확장되는 콘텐츠의 예시이다.   그림 1   <그림 1>은 원본 데이터 샘플(왼쪽 상단)과 복합적인 증강 기법으로 얻은 합성 배리에이션이다. 두 가지 모두 노이즈 기반(색 공간 조정, 위에서 아래로) 및 생성 기반(왼쪽에서 오른쪽으로)이다. 기존 데이터를 증강한 이후에도 여전히 다양한 소재에서 채워야 하는 부분이 있었다. 이 작업을 위해 행동에 의미 있는 변화가 나타날 때까지 자체 콘텐츠로 스테이블 디퓨전을 훈련시켰다. 또한 이러한 파생 모델을 사용하여 사전 필터링된 소재 목록으로 완전히 새로운 합성 데이터를 만들었다.(그림 2)   그림 2   실제 인력에 의한 검토와 LLM(대규모 언어 모델)을 사용하는 자동화된 추가 필터링을 이러한 소재 목록에 모두 적용함으로써, 유니티의 가이드 원칙을 위반하고 인식 가능한 아트 스타일, 저작권이 있는 머티리얼, 잠재적으로 유해한 콘텐츠가 전혀 포함되지 않은 데이터 세트를 만들겠다는 유니티의 목표에 맞지 않는 합성 이미지가 생성될 가능성을 차단했다. 그 결과 증강되고 완전한 대규모의 합성 이미지 데이터 세트 두 개가 만들어졌고, 여기에는 원치 않는 콘셉트가 포함되지 않았다는 확신이 있었다. 하지만 그러한 확신에도 불구하고, 유니티는 더 많은 필터링을 추가해 모델의 안전성을 보장하고자 했다.   안전하고 유용한 결과물을 위한 추가 데이터 필터링 가장 중요한 사항은 안전 및 개인정보와 부정적인 영향 없이 사용자를 지원하는 툴의 제공이었으므로, 유니티는 추가 데이터 세트 필터링을 위한 별도의 분류기 모델을 개발했다. 이 모델을 사용한 결과, 데이터 세트에 포함된 모든 콘텐츠가 유니티의 AI 원칙에 명시된 표준을 충족하고 추가적인 이미지 품질 검사를 통과할 수 있었다. 리뷰어 모델은 합성 이미지에서 다음 사항을 식별하는 역할을 함께 담당했다. 인식 가능한 사람의 특징이 포함되어 있지 않음 일반적이지 않은 어떤 아트 스타일도 포함되어 있지 않음 어떤 IP 캐릭터나 로고도 포함되어 있지 않음 허용될 수 있는 수준의 품질을 갖추고 있음 4개의 리뷰어 모델이 요구하는 신뢰도 높은 임계 수준을 하나라도 통과하지 못하는 이미지는 데이터 세트에서 폐기되었다. 가장 높은 신뢰도를 보이는 이미지만 필터를 통과해 최종 데이터 세트에 합류할 수 있도록 철저하게 주의를 기울이며, 모델의 결격 사유를 엄격하게 평가했다.   모델 소개 유니티의 유나이트 이벤트에서 뮤즈의 텍스처 및 스프라이트 기능에 대한 얼리 액세스가 발표되었다. 이러한 툴을 지원하는 모델의 첫 번째 반복 수정을 내부적으로 ‘Photo-Real-Unity-Texture-1’ 및 ‘Photo-Real-Unity-Sprite-1’이라고 한다. 이는 스타일화에 대한 기초적인 이해만 갖추도록 설계된 모델로, 주로 포토리얼리즘에 집중되어 있다. 모델을 프로젝트의 기존 스타일에 맞게 가이드하고 싶다면, 유니티의 스타일 훈련 시스템에 약간의 고유 레퍼런스 애셋을 제공하여 콘텐츠를 특정 아트 스타일로 생성하는 방법을 모델에 학습시킬 수 있다. 그렇게 하면 결과물 가이드를 위해 메인 모델과 함께 작동하는 소규모의 후속 모델이 생성된다. 이 소규모 후속 모델은 훈련 담당자나 그 조직에 공개되지 않으며, 유니티는 메인 모델 훈련에 이 콘텐츠를 사용하지 않는다. 포토리얼리즘에 중점을 두는 모델이기 때문에 유니티는 메인 모델을 수많은 다양한 스타일로 훈련시킬 필요가 없었다. 이 아키텍처를 통해 더 손쉽게 책임감 있는 AI를 향한 유니티의 약속을 지키면서 메인 모델을 훈련시킬 수 있으며, 크리에이터가 아트 수준을 더 세부적으로 제어하도록 할 수 있다. 이러한 모델은 시작에 불과하다. 뮤즈의 스마트한 역량은 점점 더 향상되어 더 나은 결과물로 이어질 것이며, 유니티는 그러한 과정에서 모델 향상 로드맵을 통해 모델을 더 높은 완성도로 이끈다는 비전을 내세운다.   Photo-Real-Unity-Texture-1 로드맵 유니티의 텍스처 모델은 모든 분야에서 유용하게 쓰일 수 있다. 큰 규모의 콘셉트를 인식하고 있으며, 이러한 모델을 통해 서로 관련이 없는 여러 콘셉트를 자유롭게 혼합하고 <그림 3>에서 볼 수 있는 ‘메탈 슬라임’ 또는 ‘파란색 크리스탈 유리 암석’ 같은 결과물을 구현할 수 있다.   그림 3   이 모델이 현 단계에서 유용하기는 하지만, 다양한 프롬프트와 입력 방식에 어떻게 반응하는지 학습해 본 결과 단일 단어로 구성된 프롬프트로는 고급 머티리얼 콘셉트를 구현하기 어려울 수도 있다는 사실을 알 수 있었다. 원하는 목표에 맞게 모델을 가이드하는 데에 도움이 되는 방법이 더 있지만, 유니티는 기본 프롬프트의 정확도를 높이고 새로운 모델 가이드 방법을 추가하는 방식으로 사용자가 모델을 계속 더 자유롭게 제어할 수 있도록 할 예정이다. 앞으로 컬러 피커, 추가적인 사전 제작 가이드 패턴, 자체 가이드 패턴 생성을 위한 개선된 시스템 및 기타 새로운 시각적 입력 방법을 추가할 계획이며, 이 모든 사항은 현재 실험 단계에 있다. Photo-Real-Unity-Texture-1에서 유니티가 가장 중점을 두는 사항은 성과가 저조한 머티리얼 콘셉트를 식별하고 모델 재훈련을 자주 실행하여 전반적인 품질과 기능을 지속적으로 개선하는 것이다. 툴 내 평가 시스템을 통한 사용자의 피드백은 유니티가 모델 기능에서 취약점을 식별하여 더 나은 툴을 만드는 데 도움이 된다. 유니티는 빈도 높은 훈련 일정으로 모델을 빠르게 개선하고, 모델의 사용성을 높이며, 머티리얼 분야에 대한 지식을 축적하고 있다.   Photo-Real-Unity-Sprite-1 로드맵 Photo-Real-Unity-Texture-1과 유사하게 유니티의 기본적인 스프라이트 모델은 전반적으로 유용하며 많은 콘셉트를 인식한다. 툴에 아직 빌트인 애니메이션 기능이 없기 때문에, 유니티는 초기에는 가장 흔하게 사용되는 정적 스프라이트 콘셉트의 품질을 극대화하는데 주력하기로 했다. 기본 모델의 원시 결과물을 <그림 4>에서 확인할 수 있다. 일반적인 사용 사례에서 이는 사용자 훈련 모델에 의해 특정 아트 스타일에 맞게 조정된다.   그림 4   정적 오브젝트는 이미 안정적이지만 유니티는 동물과 인간의 해부학적 정확도를 개선하기 위해 계속 노력하고 있다. 이러한 유형의 소재를 사용할 때 결과가 바람직할 수도 있지만, 사지가 늘어나거나 누락되는 경우 또는 안면이 왜곡되는 경우가 발생할 수도 있다. 이는 책임감 있는 AI 및 사용 가능한 데이터에 대한 엄격한 제한을 지향하는 유니티의 조치에 따른 부작용이라고 할 수 있다. 유니티는 개인정보 보호와 안전을 중요하게 인지하고 있으며, 이로 인해 초기 얼리 액세스 릴리스에서 일부 소재의 품질이 완벽하지 않을 수 있다. 완전히 공백인 스프라이트가 생성될 수도 있으며, 이는 시각적 콘텐츠 검수 필터에 따른 결과이다. 유니티는 Photo-Real-Unity-Sprite-1의 초기 출시 버전에서는 출력 필터링에 관해 신중하게 접근하는 방향을 택했으며, 이로 인해 일부 아트 스타일의 경우 필터링에서 1종 오류가 발생할 수 있다. 유니티는 지속적으로 피드백을 수렴하고 콘텐츠 필터를 개선하면서 점차 제한을 완화할 계획이다. 유니티는 피드백을 수렴하고 책임감 있는 자세로 계속 더 많은 데이터를 소싱하면서 전반적으로 모든 소재의 품질이 빠르게 향상될 것으로 기대하고 있다. Photo-Real-Unity-Sprite-1에도 Photo-Real-Unity-Texture-1과 유사하게 철저한 훈련 일정이 적용될 예정이다.   AI 강화 개발을 향한 유니티의 행보 뮤즈는 책임감 있고 타인의 독창성을 존중하는 방식으로 생성형 AI의 잠재력을 활용해 커뮤니티에 더 강력한 창작물 제어 권한을 부여하려는 유니티의 첫걸음이다. 이 제품은 사용자를 우선으로 고려하여 제작되었으며, 유니티는 사용자의 피드백을 기반으로 변화와 개선을 진행할 예정이다. 유니티는 콘텐츠 제작 업계에서 생성형 AI가 가지는 잠재적 영향력을 인식하며 중요하게 다루고 있다. 이 툴은 크리에이터를 대체하는 것이 아닌, 크리에이터의 역량을 강화하기 위한 노력의 결과이다. 유니티는 크리에이터가 더 많아질수록 세상은 더 매력적인 곳이 될 것이라고 믿으며, 뮤즈와 이를 지원하는 모델을 통해 이러한 사명을 계속 이어간다는 비전을 제시한다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[포커스] 디지털 제조 컨퍼런스, 제조산업 혁신 전략과 디지털 트윈의 활용 방안 소개
캐드앤그래픽스는 SIMTOS 2024 행사 기간 중 4월 4일과 5일에 ‘디지털 제조 & 뿌리산업 컨퍼런스’를 진행했다. AI 제조 혁신과 디지털 트윈을 다룬 ‘디지털 제조 컨퍼런스(4월 4일)’와 스마트 공장 및 뿌리산업의 디지털 전환을 주제로 한 ‘뿌리산업 컨퍼런스(4월 5일)’을 통해 제조 분야 디지털 전환의 흐름을 짚고, 미래 혁신 전략과 사례를 살펴보는 자리가 마련됐다. ■ 정수진 편집장     한국공작기계산업협회의 김경동 선임본부장은 개회사에서 “최근 AI 기반 자율 제조와 디지털 전환의 가속화 등 트렌드가 제조산업의 변화와 혁신을 요구하고 있다. 이러한 변화와 혁신에 대응하기 위해서는 더욱 스마트하고 효율적인 생산 방식을 채택하여 산업 경쟁력을 강화하고, 지속 가능한 발전을 이룰 수 있도록 해야 한다”고 짚었다. 그리고 “이번 행사를 통해 변화에 대응하기 위한 해결책으로서 반도체, 자동차, 조선 등 수요산업과 절삭, 가공 산업의 AI 자율 제조 구현을 살펴보는 동시에, 제조업의 당면 과제 해결을 위한 다양한 솔루션과 방향성을 찾는 기회가 마련되길 바란다”고 전했다. 4월 4일 ‘디지털 제조 컨퍼런스’에서는 ‘AI 제조 혁신과 디지털 트윈’을 테마로 5편의 발표가 진행됐다. DN솔루션즈의 이병곤 부사장은 ‘절삭 가공 산업의 AI 기반 자율 제조’에 대해 소개하면서, 절삭 가공 등 공작기계 산업의 자율 제조 시스템 구축을 위한 모티베이션으로 반도체 산업과 자동차 산업의 사례를 들었다. 반도체 산업의 경우 지난 수십 년간의 노력을 통해 높은 수준의 무인 자동화를 이뤘으며, 2030년까지 공장 장비의 유지보수까지 무인화하는 자율제조 체계 구축을 추진하고 있다. 반면 공작기계 산업에서는 자동화의 진행이 상대적으로 느린 상황이다. 이병곤 부사장은 “자율주행자동차의 발전 단계외 비슷한 아키텍처를 공작기계 산업의 자율 제조에도 적용할 수 있을 것”이라고 짚었다. 이병곤 부사장은 다수 장비의 자율 운영을 위한 표준화 및 공장 전체의 엔지니어링 데이터와 운영 시스템을 통해 공장의 자율제조 구현이 가능할 것으로 보았다. 그리고 “DN솔루션즈는 데이터 플랫폼, 제조 실행 플랫폼, 의사결정 플랫폼 등 세 가지 플랫폼을 중심으로 공장의 디지털 트윈 및 표준 제어 솔루션 등 전체 아키텍처를 구성하고, 상향식(bottom-up)으로 필요한 기능을 갖추면서 AI 기반의 자율제조 비전을 실현해 나가고자 한다”고 전했다.   ▲ DN솔루션즈 이병곤 부사장   네이버 클라우드의 하정우 센터장은 ‘챗GPT 1년, 초거대 AI가 불러온 변화와 우리의 전략’을 주제로 발표를 진행했다. 발표에서는 올해 생성형 AI(generative AI)의 주요한 트렌드로 ▲글/그림/영상/오디오 등 다양한 AI 서비스의 본격화 ▲스마트폰이나 로봇 등에 탑재되는 온디바이스(on-device) AI ▲AI의 안전성과 책임을 강화하기 위한 노력 ▲실제 산업과 일상생활에서 의미 있는 성과 창출 ▲사람의 편향성이 투영된 합성 데이터의 문제 해결 등을 꼽았다. 하정우 센터장은 “제조산업은 생성형 AI의 도입이 상대적으로 늦을 것이라는 시각도 있지만, 결국 모든 산업이 생성형 AI의 영향을 받을 것”이라면서, “현장 전문가의 지식과 노하우를 AI가 학습함으로써 지속가능한 기술 공유 및 기업 능력 강화가 가능하며, 제조산업에 특화된 데이터를 활용해서 생성형 AI를 만들고 이를 로봇과 연계해 생산성을 높일 수 있다. 이처럼 아날로그 시대에 정의된 프로세스를 디지털화하는 것에 그치지 않고, 새로운 기술을 고려해 프로세스 자체를 새롭게 정의해야 디지털 전환의 효과를 크게 만들 수 있을 것”이라고 전했다.   ▲ 네이버 클라우드 하정우 센터장   HD현대미포의 김희원 상무는 ‘조선산업의 설계-생산이 일관화된 디지털 생산 플랫폼 구축 전략과 현황’에 대해 소개했다. 글로벌 환경규제, 경쟁국가와의 격차 감소, 고숙련 인력의 부족 등은 조선산업이 해결해야 할 과제로 꼽힌다. 이에 따라 HD현대미포는 조선해양 산업의 미래 비전 수립하고 해양 모빌리티, 해양 디지털 솔루션, 해양 에너지 밸류체인의 구축 등을 추진하고 있다. 김희원 상무는 지능형 미래 조선소를 구현하기 위한 HD현대미포의 노력을 소개했다. HD현대미포는 네이버와 함께 대규모 AI 도입을 진행하는 한편, 지멘스와 협력해 4세대 조선 CAD 개발을 진행 중이다. 특히 디지털 조선소를 구현하기 위해 설계와 생산이 일관화된 디지털 제조 환경을 마련하는 데에 주력하고 있는데, 가상 공간에서 설계와 생산 검증을 진행하고 자동화 운영까지 단일 환경 기반으로 구현하는 것이 핵심이다. 또한, 김희원 상무는 BOM 자동 구축, 생산 공장의 시뮬레이션 기반 최적화, 시뮬레이션-생산 설비 연결, 생산 자동화 장비 개발 등 선박 블록 생산을 위한 디지털 매뉴팩처링 체계 구축 사례도 소개했다.   ▲ HD현대미포 김희원 상무   KAIST의 장영재 교수는 ‘AI 자율제조의 미래와 유연 공작셀 소개’를 주제로 한 발표에서 로봇이 자재를 갖고 필요한 공정으로 움직여 작업을 하는 셀(cell) 기반의 자동화 시스템이 전통적인 컨베이어 벨트 생산 시스템을 대체하고 있다고 전했다. 셀의 개념은 1980년대에 등장했지만 최근 기술의 발전에 힘입어 본격화되고 있다는 것이다. 장영재 교수는 “최근에는 자동화를 넘어서 자율화, 무인화로 패러다임이 바뀌고 있다”면서, “컨베이어 벨트를 대신하는 로봇, 인식과 판단을 위한 인공지능, 디지털 트윈 기반의 가상 검증, 소프트웨어의 원격 구축 및 업그레이드를 돕는 클라우드 등의 기술을 통해 변화하는 환경을 기계가 스스로 인식하고 자율적으로 판단, 행동하는 자율제조가 공장에 적용되고 있다”고 짚었다. 또한, 장영재 교수는 이런 자율제조 유연셀을 구현하기 위한 기술 개발 사례도 소개했다. 여기에는 ▲디지털 트윈을 통한 로봇의 가상 검증 및 로봇 동선 자동 설계 ▲외국인 작업자가 생산 스케줄을 수립/운영할 수 있는 LLM(대규모 언어 모델) 기반 스케줄링 자율화 ▲이기종 로봇의 연결 및 단일 소프트웨어 기반 제어 등이 있다.   ▲ KAIST 장영재 교수   포스코DX의 김미영 상무는 ‘제조 혁신의 미래, 디지털 트윈 추진 사례’를 주제로, 제조산업의 생존과 경쟁력 강화를 위한 디지털화 전략을 제시했다. 김미영 상무가 꼽은 제조 디지털 전환 접근법은 ▲스마트한 현장의 센싱 ▲스마트한 현장 관찰 ▲스마트한 분석과 판단 ▲스마트한 시뮬레이션 ▲스마트한 제어 등 다섯 가지이다. “제조산업의 당면 과제 해결과 생존을 위해서는 기존 산업의 도메인 지식에 IT 기술을 접목해 디지털 전환을 추구해야 한다”고 짚은 김미영 상무는 “포스코는 세계 시장에서 경쟁력 있는 철강기업으로 자리매김하고자 지난 2015년부터 스마트화를 추진해 왔으며, 가상 환경에서 전체 가치사슬을 모니터링 및 시뮬레이션하고 실시간 원격 제어가 가능한 디지털 트윈 공장을 구축하고 있다”고 소개했다. 지능화 공장을 통해 제조 현장의 폭넓은 문제 해결 및 최적의 의사결정이 가능할 것으로 전망한 김미영 상무는 전체 공장에 걸쳐 연결과 협업을 중심으로 하는 ‘초연결 메타 팩토리’로 나아간다는 포스코의 비전을 소개했다.   ▲ 포스코DX 김미영 상무   같이 보기 : [포커스] 뿌리산업 컨퍼런스, 제조산업의 디지털 전환을 위한 노력 짚다     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[포커스] 레노버, “더 많은 CPU 코어로 워크스테이션 성능 높인다”
워크스테이션은 렌더링과 해석 등 전문 분야에 쓰이고 있으며, 최근에는 성장하는 인공지능 분야에도 대응하고 있다. 이런 분야에서 많은 양의 데이터를 빠르게 처리하기 위한 워크스테이션의 성능은 꾸준히 중요한 요구사항 중 하나로 여겨지고 있다. 특히 핵심 연산을 담당하는 CPU 코어의 수가 많을 수록 워크스테이션의 전반적인 성능도 높아진다. 한국레노버는 AMD CPU를 탑재한 씽크스테이션(thinkStation) 워크스테이션의 신제품을 발표하면서, 늘어난 CPU 코어로 더 높은 성능을 제공한다는 점을 강조했다. ■ 정수진 편집장     최대 96코어의 라이젠 스레드리퍼 프로 CPU 탑재 레노버는 2023년 6월 인텔 CPU 기반의 씽크스테이션 P5/P7/PX 라인업을 출시했는데, 이번에 발표된 씽크스테이션 P8은 큰 틀에서 이들 제품과 비슷한 특징을 갖고 있다. 가장 큰 차이점이라면 AMD의 라이젠 스레드리퍼 프로 7000WX(Ryzen Threadripper PRO 7000WX) 시리즈 CPU를 탑재했다는 것이다. 씽크스테이션 P8은 스레드리퍼 프로 7945WX부터 7995WX까지 CPU를 선택할 수 있는데, 가장 높은 사양의 7995WX는 96 코어 192 스레드를 제공한다. 씽크스테이션 PX에서 선택할 수 있는 최고 사양인 인텔 제온 플래티넘 8490H의 60 코어보다 많다.  AMD코리아의 김홍필 이사는 스레드리퍼 프로 7000WX 시리즈가 늘어난 코어 수를 바탕으로 더 높은 성능을 제공한다고 소개하면서. 특히 렌더링이나 시뮬레이션 등의 작업에서는 CPU 코어의 수가 작업 속도에 많은 영향을 준다고 짚었다. “2D CAD에서는 코어 수가 작업 속도에 주는 영향이 상대적으로 적지만, 최근에는 제조뿐 아니라 건설 설계에서도 2D에서 3D CAD로 전환이 일어나고 있다. 또한 시뮬레이션의 사용이 확대되면서 CPU 성능에 대한 요구가 늘고 있다”는 것이 김홍필 이사의 설명이다.   고성능 워크스테이션을 위한 구조 설계 및 성능 제공 또한 씽크스테이션 P8은 AMD 라데온 프로 W7900 등 하이엔드 GPU를 3개까지 탑재할 수 있고, PCIe Gen 5 슬롯, 8채널 메모리 아키텍처 등 고사양 워크스테이션을 위한 기능을 지원한다. 고성능의 하드웨어인만큼 열이 많이 발생하게 되는데, 씽크스테이션 P8은 P5/P7/PX과 마찬가지로 고성능 스포츠카 업체 애스턴마틴과 함께 설계한 섀시 디자인으로 이를 해결하고자 했다. 한국레노버의 이형우 상무는 “씽크스테이션 P8은 CPU, GPU, 저장장치 및 파워 섹터로 내부 공간을 나누고 각 섹터별로 냉각팬을 장착했다. CPU 팬과 서멀 장치를 이중으로 구성하고, CPU의 위아래에 4개씩 메모리 슬롯이 있어서 효율적인 열 관리가 가능하다. 전반적으로 공기 흐름이 원활하도록 내부를 디자인하면서, 내부 컴포넌트를 손쉽게 탈부착 및 교체할 수 있게 했다”고 설명했다. 씽크스테이션 P8은 타워형 데스크톱 워크스테이션이면서 데이터센터에도 유연하게 적용할 수 있도록 랙 구성에 최적화됐다. 밀스펙 테스트를 거쳐 내구성과 안정성을 확보하고, ISV 인증을 통해 산업별 전문 소프트웨어를 안정적으로 사용할 수 있도록 한다. 이외에 원격으로 워크스테이션을 사용하도록 돕는 TGX 솔루션을 통해 원격 업무에 대응할 수 있게 했다.   ▲ 레노버는 효율적인 열 관리를 위해 씽크스테이션 P8의 내부를 디자인했다.   AI 시장에 대응해 워크스테이션 비즈니스 성장 추진 한국레노버의 신규식 대표는 “워크스테이션은 시뮬레이션을 통해 자연세계의 새로운 지식을 얻고 이를 산업에 적용하는 데에 중요한 역할을 하고 있다”면서, “특히 챗GPT가 등장하면서 워크스테이션 시장에서도 생성형 AI가 주요한 이슈로 떠오르고, 이에 대응하려는 노력이 강화되고 있다. 생성형 AI와 LLM(대규모 언어 모델) 등을 중심으로 워크스테이션 시장이 성장할 것으로 보인다”고 전했다. AI는 빠르게 발전하고 있으며 모든 기업이 AI 관련 활동을 확대하고 있다. 컴퓨팅 성능이 발전하면서 AI가 본격적으로 구현되고 있는 상황인데, AI 서비스를 배포하기 전에 워크스테이션으로 테스트를 하거나 서버와 데이터센터가 아닌 워크스테이션에서 AI 환경을 구현하려는 움직임도 확산되는 것으로 보인다. 레노버는 이런 흐름이 워크스테이션 시장에 긍정적인 영향을 줄 것으로 기대하고 있다. 신규식 대표는 레노버의 강점으로 글로벌 공급망과 함께 비즈니스 전략의 실행 능력을 꼽았다. 비슷한 전략이라도 하드웨어/소프트웨어 파트너 및 워크스테이션 전문 파트너와 협력해 효과적으로 실행할 수 있는 것이 레노버의 차별점이라는 설명이다. 또한 신규식 대표는 레노버의 워크스테이션 비즈니스가 꾸준히 성장하고 있다면서, 전반적인 성장 모멘텀을 확보해 올해는 시장 평균보다 높은 성장률을 목표로 삼고 있다고 전했다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
[포커스] 오라클, 모던 데이터 플랫폼 및 데이터베이스 혁신 전략 발표
한국오라클이 지난 4월 16일 ‘모던 데이터 플랫폼 및 데이터베이스 혁신 전략’을 주제로 기자간담회를 열고, 융합형 데이터베이스(Converged DB)를 중심으로 한 오라클의 포괄적인 기업 데이터 관리 기술의 현재와 미래에 대해 소개했다.  ■ 박경수 기자   기자간담회에는 ‘DB의 아버지’라 불리는 오라클의 앤디 멘델손(Andy Mendelsohn) DB 서버 기술개발사업부 총괄 부사장이 참석해 ‘데이터, AI 및 앱 개발의 미래’를 주제로 발표하고, 오라클 DB 솔루션이 향후 AI 시대를 주도할 데이터 플랫폼의 미래 시장에서 어떤 가치를 갖고 있는지 설명했다.   오라클 모던 데이터 플랫폼 오라클 모던 데이터 플랫폼(Oracle Modern Data Platform)은 전체 라이프사이클을 간소화하고 더 빠른 속도로 통찰력을 제공한다는 점이 특징이다. 단일 플랫폼 상에서 모든 트랜잭션, 웨어하우스, 분석 및 인공지능(AI)/머신러닝(ML) 자산에 대한 수집, 선별(curation) 및 관리를 통해 기업이 데이터에 대한 더 큰 통제 권한을 얻을 수 있다. 오라클은 온프레미스, 하이브리드, 규제, 퍼블릭 클라우드 솔루션 등 원하는 형식이 무엇이든 지원할 수 있다고 강조했다. 모던 데이터 플랫폼은 기업 조직에 데이터 저장, 처리 및 분석을 위한 통합 환경을 제공하는 중앙 집중형 인프라로, 일반적으로 데이터 웨어하우스, 데이터 레이크, 추출, 변환, 로드(ETL) 파이프라인 및 분석 도구 등의 기술들을 포함하고 있다.  모던 데이터 플랫폼은 표준화 및 통합된 데이터 관리 접근방식을 확립해 기업 조직이 귀중한 통찰력을 얻고, 데이터 기반 의사결정을 내릴 수 있도록 하는 지원하는 것을 주된 목표로 삼는다. 단일 통합 저장소에서 데이터 자산을 중앙 집중형으로 관리해 데이터에 대한 더 쉬운 액세스, 협업 및 통제를 가능케 한다.   ▲ 오라클 모던 데이터 플랫폼 기자간담회 모습   융합형 데이터베이스 중심의 기업 데이터관리 앤디 멘델손 부사장은 “오라클의 데이터베이스 비전은 기업 앱 및 분석 개발 운영을 어떠한 활용 사례 및 규모에서든 수월하게 만드는 것”이라며, “전략적 핵심은 기업의 개발뿐만 아니라, 생성형 AI 및 LLM 결합을 통해 생성까지 쉽게 만드는 것”이라고 말했다. 이러한 비전 달성을 지원하는 두 가지 핵심 축은 ‘융합형 DB’ 및 ‘자율운영 DB’이다. 오라클의 융합형 DB는 23c 버전을 클라우드 환경으로 정식 출시됐고, 곧 사내구축형 환경으로도 출시될 예정이다. 멘델손 부사장은 오라클이 2023년 9월에 발표한 차세대 융합형 DB인 오라클 DB 23c가 기존 관계형 모델과 JSON 및 그래프 모델 간의 통합을 구현하는 혁신을 이뤘다고 소개했다. 또한 최근의 앱은 관계형뿐만 아니라 JSON, 그래프 등 다양한 데이터 유형이 혼합 운영되는 가운데, 개발자는 오라클 DB 23c를 통해 3가지 유형의 데이터 장점을 모두 활용하는 앱을 개발, 운영하고 있으며 그 과정에서 데이터의 일관성을 손쉽게 유지할 수 있다고 설명했다. 융합형 DB는 멀티 모델, 멀티 테넌트 및 멀티 워크로드 DB로, 각 개발팀이 원하는 데이터 모델과 액세스 방법을 지원하면서 불필요한 기능으로 방해받지 않도록 한다. 또한 각 개발 팀이 필요로 하는 모든 워크로드(OLTP, 분석, IoT 등)를 탁월한 성능으로 지원한다.  한편 오라클은 지난해 9월 오라클 데이터베이스23c(Oracle Database 23c)에 AI 벡터를 사용하는 시맨틱 검색 기능을 추가할 계획이라고 발표했다. AI 벡터 검색(AI Vector Search)이라는 기능 모음에는 새로운 벡터 데이터 유형, 벡터 인덱스, 벡터 검색 SQL 연산자 등이 포함되어 있다.   ▲ 오라클의 앤디 멘델손 DB 서버 기술개발사업부 총괄 부사장   생성형 AI 기술과 데이터베이스 접목 멘델손 부사장은 또 오라클 DB 비전과 관련해 생성형 AI를 접목한 융합형 DB(Converged Database)와 이를 구동하는 자율운영 DB(Oracle Autonomous Database)를 통해 모던 앱 및 분석을 생성 및 운영하는 작업이 간소화될 것이라고 강조했다. 이를 통해 융합 개방형 SQL DB가 기존 단일목적 상용 DB를 대체함으로써, 기업 개발자와 IT 전문가가 데이터 통합 시간을 줄이고 혁신에 더 집중하도록 돕는다는 전략이다. 오라클은 생성형 AI 기능을 자사 DB 포트폴리오에 내장하고 있는데, 기업이 오라클의 AI 기반 애플리케이션을 구축하도록 지원하기 위함이다. 대표적인 예로, 기업은 자율운영 데이터베이스 셀렉트 AI(Autonomous Database Select AI) 기능을 사용해 자체 엔터프라이즈 데이터와 생성형 AI가 제공하는 생산성 및 창의성의 장점 모두를 활용함으로써 애플리케이션 개발을 가속화할 뿐만 아니라, 신규 비즈니스 솔루션 구축을 진행할 수 있다. 또한 오라클은 OCI 데이터 사이언스(OCI Data Science)의 기능도 확장하고 있으며, 이를 통해 기업이 허깅페이스(Hugging Face)의 트랜스포머(Transformers) 또는 파이토치(PyTorch)와 같은 오픈소스 라이브러리를 사용해 복수의 LLM을 구축, 훈련, 배포 및 관리하도록 지원한다.   ▲ 차세대 융합형 데이터베이스, 오라클 DB 23c   오라클 글로벌 분산형 자율운영 데이터베이스 오라클 글로벌 분산형 자율운영 데이터베이스(Oracle Globally Distributed Autonomous Database)는 기업이 데이터 레지던시 요건을 충족시키고, 비즈니스 크리티컬 애플리케이션에 생존성을 제공하며, 클라우드급 DB 성능을 제공하도록 지원하는 완전 자동화된 분산형 클라우드 DB다.  또한 Oracle DB 샤드 세트로 분산된 단일 논리적 오라클 DB로, 각 샤드는 논리적 DB 데이터의 하위 집합을 호스팅하는 독립적인 오라클 DB 인스턴스다. 다수 샤드를 하나의 OCI 가용성 도메인, 여러 OCI 가용성 도메인 또는 리전, 또는 상이한 지역의 OCI 리전에서 실행해 각각 성능 극대화, 최상의 가용성 확보 및 데이터 레지던시 요건을 지원할 수 있다. 이 밖에도 기업의 핵심 워크로드 구동에 최적화된 고성능 및 고안정성을 제공하는 동시에, 데이터 주권 및 보안 강화를 지원하는 오라클의 서비스로는 오라클 융합형 DB(Oracle Converged Database), 오라클 자율운영 DB(Oracle Autonomous Database), 오라클 엑사데이터 클라우드앳커스터머(Oracle Exadata Cloud@Customer), MySQL 히트웨이브(MySQL HeatWave) 등이 있다. 또한 오라클은 기업 요구사항을 충족시킬 수 있는 DB 및 분석 서비스에 지속적으로 투자하고 있다.   멀티 클라우드 지원 오라클의 또 다른 전략적 핵심은 '멀티 클라우드 지원'이다. 오라클과 마이크로소프트는 주로 애저(Azure) 클라우드 이용 약정 계약을 맺고 있다. 애저 환경에서 자사의 앱 및 오라클 DB를 함께 운영하길 원하는 양사 고객들을 위해 ‘오라클 데이터베이스앳애저(Oracle Database@Azure)’를 발표했다.  해당 오퍼링은 물리적인 엑사데이터(Exadata) 하드웨어를 애저 클라우드 리전 안에 위치시켜 애저 클라우드 데이터 센터 안에서 바로 엑사데이터 기반 클라우드 서비스를 제공하는 변화를 선보였다. 이를 통해 양사 고객들은 기존 애저 클라우드 서비스에 대한 이용 약정 계약 금액만으로 애저 클라우드 및 오라클 데이터베이스 클라우드 서비스를 모두 사용할 수 있게 됐다. 향후 오라클은 MS 외에도 타 클라우드 기업들과 파트너십 확대를 전략적 목표로 삼고 있으며, 올해 오라클 클라우드 월드에서 관련 내용을 소개할 예정이다.  이번 기자간담회를 통해 오라클은 오라클 DB에 많은 양의 비즈니스 데이터를 보유한 기업들이 강력한 AI 기술 및 SQL을 손쉽게 활용해 간단한 방식으로 데이터 검색을 지원하는데 초점을 맞추고 있다는 것을 알 수 있다. 이를 통해 기업은 내부 독점 데이터를 더 잘 활용하는 것은 물론 이해할 수 있게 될 것으로 전망하고 있다. 또한 표준 SQL 기반으로 제공되는 AI 기술이기 때문에 컴퓨터 공학 부문에서 높은 학위가 없다고 하더라도 SQL을 이용할 수 있는 모든 DBA(데이터베이스 관리자)가 활용할 수 있다는 점도 특징이다.    질의 응답 Q. 오라클 DB의 자연어 질문 및 답변 지원 기능과 관련해, 이를 일반적 챗GPT와 비교 시, 기업 내 환경에서는 일반 사용자들이 경험하는 환각현상 같은 것들이 허용되지 않고 정확해야 하는데 이에 대한 관점은 A. 회사 내 데이터에 대해 LLM 기반 검색은 말씀하신 그런 LLM 모델로는 좋은 답을 제공할 수 없다. 말씀한 모델은 인터넷에 공개된 방대한 데이터에 대해 훈련됐지만, 기업 보유의 프라이빗 데이터에 대해서는 전혀 알지 못하기 때문이다. 비즈니스적인 질문을 비즈니스 데이터에 대해 할 경우에 자연어로 질문을 할 때 LLM이 올바른 SQL 질문을 만들 수 있도록 도울 수 있는 데이터 강화가 필요하다. 그래서 사용자의 질문의 맥락에 따라서 가장 적절하다고 생각되는 데이터베이스 스키마를 생성 및 제공해야 한다.  이에 오라클은 LLM이 SQL 생성 후 적절한 오라클 데이터베이스에 있는 스키마만 참조할 수 있도록 하며, 인터넷 공개 데이터로 답변하지 않도록 한다. 애널리스트들이 자주 묻는 질문을 알고 있기 때문에, 이것을 기반으로 관계형 뷰를 만들어서 여기서 가장 자주 묻는 질문에 해당하는 스키마 생성 및 이를 LLM에 전송해서 기업 맥락에 맞는 답변할 수 있도록 보완한다.    Q. 자율운영 DB 개념과 다른 리전에서 고가용성 및 레지던스 확보를 지원하는 기능에 대해 설명해 달라 A. 글로벌 분산형 자율운영 DB는 전 세계적으로 각국 정부가 데이터 주권 규제 강화하고 있는 추세를 지원하고자 출시했다. 예를 들어 현대기아자동차 같이 글로벌하게 운영하는 기업은 전 세계 고객에 대한 DB를 갖고 있다. 데이터 주권 규제로 인해 고객 DB를 국가별로 분산해서 나눠서 관리해야 하는 의무가 있다. 하나의 단일한 고객 DB를 통합해서 관리할 수 없고, 중국, EU 등으로 나눠서 관리해야 하며 이것을 데이터베이스 샤딩이라는 용어로 표현하고 있다. 그래서 23c에서 글로벌 샤딩을 쉽게 만드는 기술을 포함하고 있다.   Q. 파운데이션 LLM 사업을 직접 하지 않는 이유와 최근에 등장하는 경쟁력 있는 MS 오픈 AI, 구글 제미나이 등에 모델을 올리기 어려운 점에 대한 관점은 A. 챗GPT 같은 파운데이션 LLM 모델 개발 구축에 많은 비용이 들며, 시장의 무료 모델을 쓸 수 있기 때문이다. 또한 셀렉트 AI 등 오라클이 AI로 LLM 활용을 지원하는 기술들 중 좋은 API로 연결해 시중의 인기 있는 널리 사용되고 있는 LLM 모델과 잘 연동되고 지원하도록 기술을 고도화하고 있다. 오라클 클라우드 관점에서 오픈AI 등 LLM 벤더와 파트너십을 맺어서 오라클 클라우드를 사용하도록 움직이고 있다. 말하자면 프라이빗 LLM 만들 수 있도록 지원하는 것이다. 현재 AI 커뮤니티에서 굉장히 많은 개발 움직임이 있는데, 그 중 하나가 업무별로 특화된 LLM을 만드는 것이다. 이 경우 운영 비용이 굉장히 저렴해질텐데, 예를 들면 SQL 생성에 특화된 LLM 만든다고 했을 때, 이런 쪽과 협력해서 특화된 기술을 저렴한 비용으로 사용할 수 있도록 하는 협력을 진행하고 있다.      ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-05-02
HPE, 크레이 슈퍼컴퓨터로 씨유박스의 영상인식 AI 개발 지원
HPE는 인공지능(AI) 얼굴 및 영상인식 전문기업인 씨유박스(CUBOX)가 HPE 크레이 XD 슈퍼컴퓨터(HPE Cray XD Supercomputer)를 활용하여 기존 영상인식 솔루션을 훈련시키기 위한 생성형 AI 모델을 개발하고 있다고 발표했다. 씨유박스는 해당 시스템을 통해 새로운 영상 처리 기술 개발에 중점을 두고 혁신을 더욱 강화할 계획이다. 얼굴인식 기술 기반 보안 분야의 국내 기업인 씨유박스는 인천국제공항 내 자동 출입국 심사대 및 주요 정부 기관에 얼굴인식 단말기를 공급하고 있다. 씨유박스는 이번 HPE 크레이 XD 슈퍼컴퓨터의 도입을 통해 생성형 AI 모델 훈련을 최적화한다는 계획이다. 기존 공공시장(B2G)에서 더 나아가 금융 부문 AI 솔루션에 중점을 두고 B2B 시장으로 영역을 더욱 확대하고 있는 씨유박스는 다양한 B2C 서비스를 구축하는데 있어 생성형 AI 역할의 중요성을 인식하고, B2C AI 서비스 모델에 대한 투자도 이어가고 있다.  씨유박스의 시스템은 HPE 크레이 XD6500 슈퍼컴퓨터를 사용하여 구축되었다. 이 시스템은 이론상 최대 8.136 페타플롭스(petaFLOPs)의 성능을 제공하며, 전 세계 슈퍼컴퓨터 순위인 TOP500 목록에서 156위를 차지했다. HPE 크레이 XD 슈퍼컴퓨터의 향상된 컴퓨팅 성능과 첨단 기능은 씨유박스가 영상, 텍스트, 음성 및 비디오 처리의 기반이 되는 대규모 언어모델(LLM) 및 대규모 멀티모달모델(LMM)과 같은 대규모 AI 기술을 지원하는 기술 로드맵을 수립하는데 핵심 역할을 했다는 것이 HPE의 설명이다. 씨유박스의 남운성 대표는 “씨유박스는 영상인식 기술의 발전을 주도하고, AI 기반 솔루션으로 인간 상호작용을 새롭게 정의하며 보안을 발전시키는 미래를 만들어가고 있다. 새로운 인프라를 기반으로 생성형 AI 서비스를 구축하여 사업을 확장하고, 의료 서비스, 로봇 시스템 및 디지털 트윈과 같은 새로운 비즈니스에 영상 인식 솔루션을 적용하고 있다”고 전했다. 한국HPE의 김영채 대표이사는 “AI, 모델링, 시뮬레이션 등의 작업은 강력한 스케일링과 대규모 성능이 필요하다. 슈퍼컴퓨터는 이러한 컴퓨팅 및 데이터 집약적인 워크로드를 효율적으로 지원할 수 있는 이상적인 플랫폼을 제공한다. 세계에서 가장 강력한 슈퍼컴퓨터 중 하나를 구동하여 씨유박스를 지원하고, 정부 기관 및 다양한 조직의 혁신을 촉진하는 영상인식 솔루션을 발전시키는데 기여할 수 있게 되어 영광스럽게 생각한다”고 말했다.
작성일 : 2024-04-30
[넥스트폼] BARAM v24.1.3 Release
              SW 소식 >             BARAM v24.1.0 공개 >             BARAM v24.1.0이 공개되었습니다. BARAM v24.1.0에는 밀도 기반 압축성 솔버와 Batch Process 등 다양한 기능이 포함되어 있습니다. (링크)를 누르시면 BARAM v24.1.0 안내 페이지로 이동합니다.  이외에도 baramFlow tutorials 6개, baramMesh tutorials 1개가 추가되었습니다. (링크)에서 확인해주세요.             baramFlow New Features 밀도 기반 압축성 솔버 및 Far-field Riemann 경계 조건 추가 (TSLAeroFoam) User Parameters 기능 추가 Batch Process 기능 추가 User Parameters를 조합하여 순서대로 계산 실행 가능 격자 정보 확인 기능 추가 (격자 갯수, 해석 영역 크기, 최대/최소 격자 체적) baramFlow Improvement Realizable k-ε 모델의 벽함수 개선 정상 상태 계산을 비정상 상태 계산의 초기값으로 사용하는 기능 추가 cell zone source term에 단위 표시 계산 종료 시, 종료 팝업 창 띄우는 기능 추가 특정 경계면은 이름에 따라 경계 조건 자동 부여 다상 유동의 정상 상태 계산 시 maximum Courant number 설정 가능             baramMesh New Features snap 단계에서 Implicit Feature Snapping 지원 baramMesh Improvement 형상 이름의 공백에 _ (underscore) 자동 추가 Region 단계에서 고체 영역만 설정하도록 기능 개선                                     BARAM ARM 64 버전 Azure Marketplace 공개 >              Azure Marketplace에서 사용할 수 있는 BARAM CFD Package가 공개되었습니다. 이제 고사양의 HPC (High Performance Computing) 없이도 BARAM을 이용하여 복잡한 CFD 계산을 돌릴 수 있습니다.  Azure Marketplace에서 NEXTFOAM BARAM을 검색하시거나 (링크)를 클릭하시면 Azure Marketplace에 등록되어 있는 BARAM CFD Package를 사용하실 수 있습니다.                         교육 소식 >             4월 CAE / AI 엔지니어를 위한HPC 교육 >             CAE / AI 엔지니어를 위한 HPC 교육 4월 CAE / AI 엔지니어를 위한 HPC 교육 일정을 안내드립니다. HPC 환경에서 OpenFOAM 수행 방법 및 병렬 AI 학습 방법 / HPC 구축 실습을 통해 HPC의 개념 이해 / 최적 성능을 도출할 수 있는 방안 및 효율적인 HPC 관리 방안을 목표로 교육이 진행됩니다. 일정 : 4월 24일 ~ 4월 25일 (링크)를 클릭하시면 4월 CAE/ AI 엔지니어를 위한 HPC 교육 내용을 확인하실 수 있습니다.                         일반 소식 >             2024년 AI CFD 춘계 워크샵              지난 2월 29일 서강대학교 AS관 509호에서 AI CFD 워크샵이 있었습니다. GIST 최성임 교수님, 인하대학교 고승찬 교수님, KAIST 이승철 교수님을 비롯하여 AI CFD를 주제로 연구하시는 분들과 모임을 가지는 뜻 깊은 시간이었습니다.  이 자리에서 PINN (Physics-Informed Neural Network)를 비롯하여 FNO, DeepONet 등 Neural Network를 CFD에 적용한 연구 및 활용 성과에 대해 의견을 나누었습니다.  저희 회사에서도 이보성 박사님께서 NEXTFOAM 연구 성과 및 근황을 주제로 발표를 진행해주셨습니다.                         WHAT IS OPENFOAM? OpenFOAM은 오픈소스 CFD 소프트웨어이다. GNU GPL 라이센스를 사용하고 있어 누구나 자유롭게 사용이 가능하며 수정 및 재배포를 할 수 있다.       WHAT IS MESHLESS CFD? 질점격자 기반의 CFD해석 기법으로 FVM해석 기법의 보존성을 갖추고 있으며 전처리 작업시간을 획기적으로 줄일 수 있습니다.FAMUS는 무격자 기법의 CFD 해석 SW 입니다.       WHAT IS BARAM SERIES? BARAM은 넥스트폼이 개발한 OpenFOAM CFD 해석 프로그램입니다. 넥스트폼이 개발한 OpenFOAM Solver와 Utility를 GUI 기반으로 사용이 가능합니다.           수신거부
작성일 : 2024-04-29
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25