• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "코딩"에 대한 통합 검색 내용이 675개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
엔비디아, AI 기반 워크플로 강화하는 RTX A400과 A1000 GPU 출시
엔비디아가 새로운 엔비디아 RTX A400과 RTX A1000 GPU를 통해 RTX 전문가용 그래픽 제품을 확장하고, 디자인을 비롯한 AI 기반 생산성 워크플로를 강화한다고 밝혔다. 디자인과 생산성 애플리케이션 전반에 걸친 AI 통합이 새로운 기준으로 자리잡으면서 고급 컴퓨팅 성능에 대한 수요가 증가하고 있다. 즉, 전문가와 크리에이터들은 프로젝트의 규모와 복잡성 또는 범위에 관계없이 향상된 컴퓨팅 성능을 활용해야 한다. 엔비디아 암페어(Ampere) 아키텍처 기반의 RTX A400과 RTX A1000 GPU는 이렇게 증가하는 수요를 충족하기 위해 개발됐으며, AI와 레이 트레이싱 기술에 대한 접근성을 확대해 전문가들이 일상적인 워크플로를 혁신하는데 필요한 도구를 제공한다.   ▲ 엔비디아 RTX A400   RTX A400 GPU는 RTX 400 시리즈 GPU에 가속화된 레이 트레이싱과 AI를 도입했다. 이 GPU는 AI 처리를 위한 24개의 텐서 코어(Tensor Cores)를 탑재해 기존 CPU 기반 솔루션을 넘는 성능을 제공한다. 이를 통해 전문가들은 지능형 챗봇, 코파일럿과 같은 최첨단 AI 애플리케이션을 데스크톱에서 직접 실행할 수 있다. 또한 GPU는 실시간 레이 트레이싱을 제공하므로 크리에이터는 생생하고 물리적 정확도가 높은 3D 렌더링을 제작할 수 있다. A400은 시리즈 최초로 4개의 디스플레이 출력을 지원해 금융 서비스, 명령과 제어, 유통, 운송과 같은 산업에 필수적인 고밀도 디스플레이 환경에 적합하다.   ▲ 엔비디아 RTX A1000   엔비디아 RTX A1000 GPU는 RTX 1000 시리즈 GPU에 처음으로 텐서 코어와 RT 코어를 도입했다. 이를 통해 전문가와 크리에이터를 위한 가속화된 AI와 레이 트레이싱 성능을 제공한다. A1000은 72개의 텐서 코어를 탑재해 이전 세대에 비해 업그레이드된 성능을 갖췄다. 스테이블 디퓨전(Stable Diffusion)과 같은 도구에서 3배 이상 빠른 생성형 AI 프로세싱을 제공하며, 18개의 RT 코어는 그래픽과 렌더링 작업 속도를 최대 3배까지 높여 2D와 3D CAD, 제품과 건축 설계, 4K 비디오 편집과 같은 전문적인 워크플로를 가속화한다. 더불어 A1000은 이전 세대보다 최대 38% 더 많은 인코딩 스트림을 처리하고 2배 더 빠른 디코딩 성능을 제공하는 등 비디오 처리 능력을 높였다. 엔비디아 RTX A400과 A1000 GPU에 탑재된 2세대 RT 코어는 건축 도면, 3D 디자인, 콘텐츠 제작 등 모든 전문 워크플로를 위한 실시간 레이 트레이싱, 사실적인 물리 기반 렌더링과 시각화, 정확한 조명과 그림자 시뮬레이션으로 작업 품질을 높일 수 있다. 3세대 텐서 코어는 생성형 AI, 이미지 렌더링 노이즈 제거, 딥러닝 슈퍼 샘플링과 같은 AI 증강 도구와 애플리케이션을 가속화해 이미지 생성 속도와 품질을 개선한다. 암페어 아키텍처 기반의 쿠다(CUDA) 코어는 이전 세대 대비 최대 2배의 단정밀도 부동 소수점 처리량으로 그래픽과 컴퓨팅 워크로드의 속도를 크게 높인다. A400 GPU의 4GB와 A1000 GPU의 8GB GPU 메모리는 다양한 전문가용 요구 사항을 충족한다. 여기에는 기본적인 그래픽 디자인과 사진 편집부터 텍스처나 고해상도 편집, 데이터 분석이 필요한 까다로운 3D 모델링 등이 포함된다. 또한 이 GPU들은 이전 세대보다 메모리 대역폭이 증가해 데이터를 더 빠르게 처리하고 대용량 데이터 세트와 장면을 더 원활하게 처리할 수 있다. 7세대 인코드(NVENC)와 5세대 디코드(NVDEC) 엔진을 탑재한 새 GPU는 효율적인 비디오 처리를 기능을 제공한다. 이를 통해 초저지연으로 고해상도 비디오 편집, 스트리밍, 재생을 지원한다. 또한 AV1 디코드가 포함돼 더 많은 비디오 포맷을 더 효율적이고 원활하게 재생할 수 있다. A400과 A1000 GPU는 싱글 슬롯 디자인에 전력소비량이 50W에 불과하며, 콤팩트하고 에너지 효율적인 워크스테이션에 인상적인 기능을 제공한다.  엔비디아는 새로운 GPU가 최첨단 AI, 그래픽, 컴퓨팅 기능 등을 통해 사용자의 생산성을 높이고 창의적인 가능성을 열어준다고 전했다. 레이 트레이싱 렌더링과 AI가 포함된 고급 워크플로를 통해 전문가들은 작업의 한계를 뛰어넘고 놀라운 수준의 사실감을 구현할 수 있다. 기획 담당자들은 강력하고 에너지 효율적인 새로운 컴퓨팅 솔루션을 에지 배포에 사용할 수 있다. 크리에이터는 편집과 렌더링 속도를 높여 더욱 풍부한 시각적 콘텐츠를 제작할 수 있다. 건축가와 엔지니어는 아이디어를 3D CAD 개념에서 실제 디자인으로 원활하게 전환할 수 있다. 스마트 공간에서 작업하는 경우에는 공간 제약이 있는 환경에서 실시간 데이터 처리, AI 기반 보안, 디지털 사이니지 관리 등에 GPU를 사용할 수 있다. 또한 의료 전문가들은 더 빠르고 정밀한 의료 영상 분석을 수행할 수 있다.
작성일 : 2024-04-18
AMD, 기업용 AI PC 프로세서 라이젠 프로 8040/8000 시리즈 발표
AMD는 비즈니스 환경에서 높은 생산성과 프리미엄급 AI 및 연결 경험을 제공하는 새로운 기업용 모바일 및 데스크톱 AI PC 프로세서를 공개했다. 새로운 AMD 라이젠 프로 8040(Ryzen PRO 8040) 시리즈는 기업용 노트북과 모바일 워크스테이션을 위해 개발된 x86 프로세서이다. AMD는 비즈니스 사용자를 위한 AI 지원 데스크톱 프로세서인 AMD 라이젠 프로 8000 시리즈 데스크톱 프로세서도 출시했다. 이 제품은 낮은 전력 소모로 첨단 성능을 제공하도록 설계되었다. AMD는 이번에 새롭게 공개된 일부 모델에 AMD 라이젠 AI(AMD Ryzen AI)를 탑재했다. 새로운 라이젠 AI 기반 프로세서는 CPU, GPU 및 전용 온칩 NPU(Neural Processing Unit)를 탑재한다. 전용 NPU의 경우 최대 16 TOPS의 연산 성능을 제공하며, 전체 시스템은 최대 39 TOPS로 이전 세대보다 향상된 전용 AI 프로세싱 성능을 제공한다. 새로운 라이젠 AI 지원 프로세서를 장착한 기업용 PC는 AI 기반 협업과 콘텐츠 제작, 데이터 및 분석 워크로드에서 더 높은 성능과 향상된 사용자 경험을 제공한다. 또한, AMD 프로 기술이 추가됨에 따라 IT 관리자들은 IT 운영을 간소화하고, 조직 전반에 걸쳐 보다 신속하게 PC를 구축할 수 있는 엔터프라이즈급 관리 기능을 사용할 수 있다. AMD는 정교한 공격으로부터 프로세서와 클라우드를 방어할 수 있는 통합 보안 기능 및 안정성과 신뢰성 및 플랫폼 수명을 갖춘 엔터프라이즈 소프트웨어 등의 이점을 제공한다고 전했다.     전문가용 노트북 및 모바일 워크스테이션을 위한 AMD 라이젠 프로 8040 시리즈 모바일 프로세서는 집약적인 비즈니스 및 AI 워크로드에 최적화된 효율과 프로세싱 성능을 제공한다. 이 프로세서는 까다로운 모바일 워크스테이션 애플리케이션에서 최대 30% 향상된 성능을 제공하는 4nm의 ‘젠 4(Zen 4)’ 아키텍처를 기반으로 하며, 최대 8개의 고성능 코어를 탑재한다. 일부 모델에는 AMD 라이젠 AI를 탑재하고 AMD RDNA 3 그래픽을 통합했는데, AMD는 “경쟁사 프로세서 대비 화상회의 시 84% 더 적은 전력으로 최대 72% 더 높은 성능을 제공한다”고 설명했다. 또한, 라이젠 프로 8040 시리즈 프로세서 기반 PC는 와이파이 7(WiFi-7) 기술도 활용할 수 있다. 시리즈 중 최상위 제품인 AMD 라이젠 9 프로 8945HS는 8개의 코어와 16개의 스레드, 24MB 캐시 및 라데온(Radeon) 780M 그래픽을 탑재하고 있다. 이 프로세서는 테크니컬 컴퓨팅, 멀티미디어 콘텐츠 제작, 개별 그래픽 등 리소스 집약적 애플리케이션에 필요한 연산 성능을 제공하며, 3D 렌더링, 비디오 인코딩 및 사진 편집 등과 같은 까다로운 그래픽 관련 워크로드를 처리한다. 기업용 데스크톱을 위한 AMD 라이젠 프로 8000 시리즈 프로세서는 4nm 공정 기술을 기반으로 최대 8개의 고성능 젠 4 코어를 탑재했으며, 일부 모델은 전용 AI 엔진을 탑재하여 향상된 전력 및 효율과 몰입형 AI 경험을 제공한다.  AMD 라이젠 프로 8000 시리즈 프로세서를 장착한 데스크톱은 주요 비즈니스 애플리케이션 및 데이터에 대한 보다 빠른 액세스와 초고속 데이터 전송, 원활한 워크플로를 위해 최신 DDR5 및 PCIe 4를 지원하며, 일부 모델은 와이파이 7 기반의 차세대 연결성도 제공한다. 라인업 중 최상위 제품인 AMD 라이젠 8700G 프로세서는 고성능 8 코어 16 스레드, 24MB 캐시 및 통합 AMD 라데온 780M 그래픽을 탑재한다. AMD 라이젠 8700G는 AMD의 성능 테스트에서 경쟁 제품 대비 더 적은 전력을 소모하면서도 최대 19% 향상된 성능을 제공하는 것으로 나타났다. AMD는 “AMD 라이젠 7 프로 8799G 프로세서를 탑재한 기업용 데스크톱은 특정 테스트를 기준으로 경쟁사 프로세서에 비해 최대 47% 향상된 시스템 성능과 3배 향상된 그래픽 성능을 제공한다”고 전했다. 새로운 라이젠 프로 8040 시리즈 모바일 프로세서는 2024년 2분기부터 HP와 레노버를 포함한 OEM 파트너사를 통해 공급될 예정이며, 라이젠 프로 8000 시리즈 데스크톱 프로세서는 2024년 2분기부터 OEM 파트너사인 HP와 레노버, 일부 채널 파트너 플랫폼을 통해 공급될 예정이다. AMD의 컴퓨팅 및 그래픽 그룹 총괄 책임자인 잭 후인(Jack Huynh) 수석 부사장은 “AMD는 최신 비즈니스 요구사항을 해결하기 위해 광범위한 AI 기술 포트폴리오를 제공하고 있다. 또한, 다양한 유형의 데스크톱과 모바일 PC에 더욱 뛰어난 성능과 효율성을 제공하기 위해 AI PC 리더십을 지속해서 확장하고 있다”면서, “AMD의 최신 프로 시리즈 프로세서는 프리미엄 컴퓨팅 경험에 대한 새로운 기준을 제시하고, 업계 선도적인 성능과 보안을 통해 기업들이 모든 PC에 AI 기능을 구축할 수 있도록 지원한다”고 밝혔다.
작성일 : 2024-04-17
알테어, 국내 제조 기업의 AI 기술 도입 위한 'AI 워크숍' 개최
알테어가 지난 4월 4일 서울 역삼동 포스코타워에서 ‘AI(인공지능) 워크숍’을 진행했다고 밝혔다. ‘AI for Engineers(엔지니어를 위한 AI)’를 주제를 내건 이번 워크숍은 AI 기술 도입 전략 및 산업 동향을 공유하는 자리로 마련됐다. 현장에는 주요 제조업체 실무진 및 오피니언 리더 300여 명이 참석했다. 알테어의 문성수 아시아태평양 수석부사장은 환영사에서 “제조업체가 AI 기술을 도입할 때에는 그들의 도메인 전문성을 바탕으로 AI 기술을 누구나 활용할 수 있는 환경을 마련해야 한다”면서, “알테어는 데이터 비전공자도 쉽게 활용할 수 있는 로코드/노코드 기반 데이터 분석 및 AI 시뮬레이션 소프트웨어를 제공하여 국내 업체들의 고민을 해소하고자 한다”고 전했다. 첫 번째 발표자로 나선 알테어의 수디르 파다키 글로벌 데이터 분석 디렉터는 “최근 제조업계는 전통적인 시뮬레이션 데이터 활용에서 데이터 기반의 AI 활용으로 전환하는 추세이다. 이를 위해 알테어는 자사 데이터 분석 소프트웨어 래피드마이너에 ‘CAE 커넥터’를 추가해, CAE 결과 파일을 바로 읽어들여 코딩 없이 다양한 변수에 따른 해석 결과를 얻을 수 있도록 했다”고 소개했다. 이어 “요즘 기업에서 생성형 AI 시스템 구축에 많은 관심을 보이고 있는데, 래피드마이너에 내장된 생성형 AI 기능을 활용하면 채팅창에서 데이터 분석 요구사항을 쉽게 요청할 수 있다. 한국어 자연어 처리도 지원해 한국 사용자에게도 편리할 것”이라고 말했다. 한국알테어의 이승훈 기술 총괄 본부장은 “해석 결과를 얻는 과정은 제품 개발 단계에서 상당한 시간을 차지한다. 하지만 AI 기술을 적용해 해석 결과를 학습하고 적용하니 3시간 이상 걸리던 작업도 단 3초 만에 해석 결과를 얻을 수 있게 되었다. AI 기술 도입은 제품 개발 단계를 대폭 단축시키며, 빠른 예측 결과를 통해 효율성을 극대화할 수 있다.”고 말했다.     알테어의 이번 워크숍에서는 산학연 영역의 여러 연사가 다양한 전문 분야와 관련된 AI 트렌드를 다뤘다. 황보현우 하나은행 자문위원이 ‘AI 시대의 경쟁 우위 전략’, 현대자동차 한용하 연구위원이 ‘자동차 CAE 부문에서의 AI 적용 사례 소개’, 계명대학교 김양석 교수는 ‘AI 시대의 셀프서비스 분석’을 주제로 최신 연구 결과와 산업 동향을 소개했다. 또한 ‘엔지니어링 분야에서의 AI 적용: 엔지니어들의 기회와 도전’ 를 주제로 진행한 패널 토론에는 LG전자,  현대자동차, 계명대학교에서 참가해 AI 기술 적용에 대한 의견과 경험을 공유하는 시간을 가졌다. 알테어의 라비 쿤주 최고제품및전략책임자(CPSO)는 “다양한 전문성을 갖추지 않고는 AI 기술을 효과적으로 도입하고 활용하는 것이 어렵다”며, “알테어는 시뮬레이션과 AI, HPC 기술과 자원을 통합한 ‘알테어원’ 플랫폼을 통해 기업들의 AI 기술 도입 부담을 줄이고 현실적으로 구현할 수 있도록 지원하겠다”고 전했다.
작성일 : 2024-04-05
[포커스] 생성형 AI와 협업 툴의 만남, ‘플로우 3.0’ AI Now 
국내 협업 툴 ‘플로우’를 공급해 온 마드라스체크가 3월 7일 여의도 콘래드서울호텔에서 ‘flow 3.0 AI NOW’ 행사를 개최했다. 이번 행사에서는 플로우에 업데이트될 생성형 AI에 대한 소개 및 활용법, 실제 활용 사례 등이 공유되었다. 마드라스체크는 플로우 3.0에 생성형 AI가 더해져 업무 프로세스의 혁신을 가져올 수 있을 것으로 기대했다. ■ 최경화 국장     협업 툴 플로우 서비스 기업, 마드라스체크 마드라스체크는 ‘똑똑한 AI 업무비서’를 내세우는 플로우 3.0을 발표했다. 플로우는 기업 내 업무 협업을 돕는 플랫폼으로서 서비스형 소프트웨어(SaaS)와 온프레미스 형태로 제공된다.  마드라스체크는 K-협업 소프트웨어의 위상을 전 세계적으로 알리고자 글로벌 시장에 진출하여 플로우 사용을 확대, 전 세계 55개국 300개 유료 기업을 확보하며 업무 문화 혁신을 주도하고 있다.  이학준 대표는 “플로우는 메신저 기반 협업 툴과 작업 관리 협업 툴을 하나로 엮어 시장의 호응을 얻었다. 2018년에는 SaaS와 온프레미스를 동시에 제공했고, 이번에 생성형 AI로 또 한단계 도약할 것”이라고 밝혔다. 또한 플로우는 생성형 AI를 통해 누구나 쉽게 업무를 진행할 수 있도록 도울 것이다. 사용자는 동료들과 프로젝트 생성부터 업무 요약, 담당자 추천 등을 일일이 할 필요가 없으며, 플로우의 AI가 관련 업무를 대신할 수 있다고 소개했다.    ▲ 마드라스체크 이학준 대표   플로우는 CEO부터 신입까지 사용하기 쉬운 협업 툴로서 프로젝트 관리, 업무/일정관리, 메신저, OKR, 전자결재, 근태관리까지 한번에 가능하며, 업무에 최적화되어 줌/팀즈/구글 등이 연동되는 AI 협업 툴이다. 생성형 AI를 탑재한 플로우에는 오픈AI의 ‘GPT-4’와 메타의 ‘라마2’ 언어모델이 탑재되어 있다. 생성형 AI를 통한 플로우의 주요 기능은 ▲AI 프로젝트 템플릿 ▲AI 하위 업무 ▲AI 업무 필터 ▲AI 업무 일지 ▲AI 에디터 템플릿 ▲AI 담당자 추천 등이 있다.     이 대표는 “협업 툴 서비스는 시간이 갈수록 복잡해지고, 기업은 데이터가 쌓인다. 플로우는 AI를 활용해 UI/UX를 혁신하고, 데이터를 가치 있게 가공하고 제공하며, 시간을 절약하도록 서비스를 만든다. 대화하듯 업무하고 알아서 자료를 찾는 혁명을 이룰 것”이라고 말했다.      또한 이날 행사에서는 카이스트 전기 및 전자공학과 김대식 교수가 ‘AI와 챗GPT가 이끄는 세상’을 주제로 기조 발표를 했다. 김 교수는 “AI 개념은 수십 년 전에 나왔지만 컴퓨터 공학 단계에 머물렀다. 하지만 챗GPT로 코드 기반인 AI가 자연어 입력으로 바뀌면서 혁신의 시점이 왔다”라고 말했다.  김대식 교수가 말하는 올해 생성형 AI의 키워드는 ▲ 지적 능력의 한계를 넘어서는 생산성 ▲ 폼팩터의 전환 ▲온디바이스 AI를 위시한 sLLM의 등장이다. 핵심은 생산성의 향상이다. 김 교수는 휴대폰과 디스플레이 산업이 성장이 멈추고 있다면서, 포스트 스마트폰 디바이스는 디스플레이가 없는 쪽으로 변해가고 있다고 말했다. 또한 “제조 생산성은 높아지고 있지만 21세기에 들어서도 업무, 코딩, 디자인 등 인간의 지적능력이 필요하다”면서, 앞으로의 인공지능은 지적 노동자의 대량 생산을 돕는 방향으로 발전할 것으로 전망했다.    ▲ 카이스트 전기 및 전자공학과 김대식 교수   한편, 이어진 세션에서는 플로우 AI 사전 테스트를 진행하고, 생산성을 높인 사용 후기가 발표되었다. BGF리테일에서는 ‘글로벌 AI 편의점 CU, AI로 업무의 날개를 다는 법’, 한국전통문화고등학교에는 ‘교실로 들어온 생성형 AI’라는 제목으로 적용 사례를 소개해 호응을 얻었다.     ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-04-01
2023 생성형 AI 주요 이슈와 의미
정보통신정책연구원은 2023 생성형 AI 주요 이슈와 의미를 발표하였다. - ChatGPT 출시 이후, 생성형 AI의 주요 이슈와 그 의미는 다음과 같음 1. ChatGPT 출시(´22.11.30)와 생성형 AI의 부상 · 코딩, 요약, 콘텐츠 생성 등 강력한 텍스트 생성 성능을 보이며 유례없는 이용자 수를 기록, 생성형 AI의 대중화 가능성을 보여줌 2. LLaMA 출시(´23.02.24)와 LLaMA Moment, 오픈 소스로 촉발된 모델 경량화와 시장변화 · Meta의 대형언어모델인 LLaMA의 소스가 대중적으로 오픈되면서 대형언어모델 시장의 진입장벽이 낮아지며 시장에 영향을 미침 3. GPT-4 출시(´23.03.14), 멀티모달(multi-modal) 시대에 대한 기대 · 텍스트 생성을 넘어 이미지 입력·처리·추론이 가능한 대형언어 모델이 출시되면서 멀티 모달 AI의 활용이 점차 가시화되고 있음 4. 구글의 생성형 AI 접목(´23.03.14) 및 MS의 Copilot 출시(´23.03.16), AI를 통한 효율성과 생산성 증대 기대 · 주요 빅테크 기업들이 생성형 AI를 자사 업무 생산성 도구에 접목하면서, AI 기술을 통한 서비스 고도화 및 경쟁을 펼치고 있으며 이는 향후 업무 방식과 경쟁력에 영향을 미칠 것으로 전망 5. ChatGPT-Plugin 출시(´23.03.23), 챗봇에서 플랫폼으로의 진화 · ChatGPT-Plugin를 통한 외부 서비스와 연결로, 최신 정보 접근과 다양한 서비스와 기능을 ChatGPT 내에서 수행할 수 있게 되면서 ChatGPT 중심의 서비스 통합 가능성을 보여주게 됨 6. 자율 AI 에이전트(Autonomous Agent)의 등장과 인공 일반지능(Artificial General Intelligence, AGI)으로의 기대 · 자율적으로 목표를 달성하는 자율 AI 에이전트 프로그램들이 등장하고 주목받으며, 미래로만 여겨지던 인공 일반지능(AGI)의 시대의 도래를 시사함   발행일 : 2023.09.14  
작성일 : 2024-03-19
스노우플레이크, 미스트랄 AI와 협력해 5개 국어의 LLM 모델 지원
데이터 클라우드 기업 스노우플레이크가 프랑스의 AI 솔루션 제공업체 미스트랄 AI(Mistral AI)와 파트너십을 맺고, 플래그십 대규모 언어 모델(LLM)인 ‘미스트랄 라지(Mistral Large)’를 스노우플레이크 데이터 클라우드 플랫폼에 적용한다고 밝혔다. ‘미스트랄 라지’는 고유한 추론 능력을 갖춘 LLM 모델로 코딩과 수학에 능숙하고 한 번의 요청으로 수백 페이지에 달하는 문서를 처리할 수 있다. 프랑스어, 영어, 독일어, 스페인어, 이탈리아어, 5개 언어 처리가 가능한데, 기존 생성형 AI 모델과 ‘대규모 다중 작업 언어 이해 측정(MMLU)’을 비교하는 과정에서 성능을 입증했다. 이와 함께, 미스트랄 AI의 최초 기본 모델인 ‘미스트랄 7B’와 오픈소스 모델 ‘믹스트랄(Mixtral) 8x7B’에 대한 엑세스 제공 및 스노우플레이크 산하 벤처 캐피탈인 스노우플레이크 벤처스(Snowflake Ventures)의 미스트랄 AI에 대한 시리즈 A 투자 등도 이번 파트너십 발표에 포함됐다. ‘미스트랄 7B’는 낮은 지연 시간과 메모리 요구사항에 비해 높은 처리량을 갖춘 것이 특징이고, ‘믹스트랄 8x7B’는 여러 성능 비교에서 챗GPT3.5보다 빠르고 품질이 우수한 것으로 나타났다. 미스트랄 AI의 모델들은 ‘스노우플레이크 코텍스(Snowflake Cortex)’에서 프리뷰 공개 형태로 고객에게 제공된다. 스노우플레이크 코텍스는 스노우플레이크 플랫폼에서 생성형 AI를 활용할 수 있는 완전 관리형 LLM 및 벡터 검색 서비스이다. AI/ML 기술 없이도 쉽고 강화된 보안 환경에서 생성형 AI를 활용할 수 있는 서비스로, 기업 고객은 데이터에 대한 보안, 개인 정보 보호 및 거버넌스는 유지하면서 데이터를 빠른 속도로 분석하고 AI 앱을 구축할 수 있다.     스노우플레이크는 2023년 감정 분석, 번역, 요약과 같은 특수 작업을 위한 LLM을 지원하는 코텍스를 처음 공개했다. 또한, 메타(Meta)의 ‘라마2(Llama 2)’ 모델을 시작으로 검색증강생성(RAG)을 포함한 기본 LLM 지원을 늘리고 있다. 스노우플레이크는 미스트랄 AI와의 파트너십을 통해 생성형 AI에 대한 투자를 이어가면서, 기본형 LLM을 스노우플레이크 코텍스에서 제공해 기업이 다방면 비즈니스에 최첨단 생성형 AI를 도입할 수 있도록 지원하고 있다. 스노우플레이크 코텍스 LLM 기능이 공개 프리뷰되면서, 스노우플레이크 기업 고객은 기업 고유의 데이터를 바탕으로 다양하게 AI를 활용할 수 있게 됐다. SQL 기술을 갖춘 사용자라면 누구나 수 초 내에 감정 분석, 번역, 요약과 같은 특수 작업을 비용 효율적으로 진행할 수 있다. 파이썬 개발자라면 스노우플레이크 코텍스에서 제공하는 미스트랄 AI의 LLM은 물론, 곧 공개될 스노우플레이크 스트림릿(Streamlit)의 대화형 기능을 통해 수 분 내에 챗봇과 같은 풀스택 AI 앱을 개발할 수 있게 된다. 간편해진 경험과 높은 수준의 보안은 역시 곧 공개될 스노우플레이크의 통합 벡터 기능과 벡터 데이터 유형을 통해 RAG에도 동일하게 적용될 예정이다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크는 미스트랄 AI와의 파트너십을 통해 최정상급 성능의 LLM을 고객에게 직접 제공하고, 사용자는 간편하면서도 혁신적인 AI 앱을 구축할 수 있게 되었다”면서, “스노우플레이크 코텍스를 통해 더 많은 기업이 데이터 클라우드의 보안과 개인 정보 보호는 강화하고 새롭고 경제적인 AI 사용 사례를 만들어 내기를 바란다”고 말했다. 미스트랄 AI의 아르튀르 멘슈(Arthur Mensch) CEO는 “미스트랄 AI는 전세계적으로 기업이 생성형 AI 활용에 더 가까워지도록 고성능, 고효율에 신뢰할 수 있는 AI 모델을 개발하겠다는 스노우플레이크의 목표에 공감한다”면서, “스노우플레이크 데이터 클라우드에서 미스트랄 AI의 모델을 활용함으로써, 고객이 민주화된 AI를 경험하고 더 큰 가치를 창출하는 고도화된 AI 앱을 생성할 수 있기를 기대한다”고 전했다.
작성일 : 2024-03-11
생성형 AI 데이터 학습에 사용되는 딥러닝 강화학습의 개념과 구조
BIM 칼럼니스트 강태욱의 이슈 & 토크   이번 호에서는 생성형 AI 모델 학습과 같이 현재도 다양한 곳에서 필수로 사용되는 강화학습 딥러닝 기술의 기본 개념, 이론적 배경, 내부 작동 메커니즘을 확인한다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   강화학습은 바둑, 로봇 제어와 같은 제한된 환경에서 최대 효과를 얻는 응용분야에 많이 사용된다. 강화학습 코딩 전에 사전에 강화학습의 개념을 미리 이해하고 있어야 제대로 된 개발이 가능하다. 강화학습에 대해 설명한 인터넷의 많은 글은 핵심 개념에 대해 다루기보다는 실행 코드만 나열한 경우가 많아, 실행 메커니즘을 이해하기 어렵다. 메커니즘을 이해할 수 없으면 응용 기술을 개발하기 어렵다. 그래서 이번 호에서는 강화학습 메커니즘과 개념 발전의 역사를 먼저 살펴보고자 한다. 강화학습 개발 시 오픈AI(OpenAI)가 개발한 Gym(www.gymlibrary.dev/index.html)을 사용해 기본적인 강화학습 실행 방법을 확인한다. 참고로, 깃허브 등에 공유된 강화학습 예시는 대부분 게임이나 로보틱스 분야에 치중되어 있는 것을 확인할 수 있다. 여기서는 CartPole 예제로 기본적인 라이브러리 사용법을 확인하고, 게임 이외에 주식 트레이딩, 가상화폐, ESG 탄소 트레이딩, 에너지 활용 설비 운영과 같은 실용적인 문제를 풀기 위한 방법을 알아본다.   그림 1. 강화학습의 개념(출처 : Google)   강화학습의 동작 메커니즘 강화학습을 개발하기 전에 동작 메커니즘을 간략히 정리하고 지나가자.   강화학습 에이전트, 환경, 정책, 보상 강화학습의 목적은 주어진 환경(environment) 내에서 에이전트(agent)가 액션(action)을 취할 때, 보상 정책(policy)에 따라 관련된 변수 상태 s와 보상이 수정된다. 이를 반복하여 총 보상 r을 최대화하는 방식으로 모델을 학습한다. 정책은 보상 방식을 알고리즘화한 것이다. <그림 2>는 이를 보여준다. 이는 우리가 게임을 하며 학습하는 것과 매우 유사한 방식이다.   그림 2. 강화학습 에이전트, 환경, 액션, 보상 개념(출처 : towardsdatascience)   강화학습 설계자는 처음부터 시간에 따른 보상 개념을 고려했다. 모든 시간 경과에 따른 보상치를 동시에 계산하는 것은 무리가 있으므로, 이를 해결하기 위해 DQN(Deep Q-Network)과 같은 알고리즘이 개발되었다. 모든 강화학습 라이브러리는 이런 개념을 일반화한 클래스, 함수를 제공한다. 다음은 강화학습 라이브러리를 사용한 일반적인 개발 코드 패턴을 보여준다.   train_data, test_data = load_dataset()  # 학습, 테스트용 데이터셋 로딩 class custom_env(gym):  # 환경 정책 클래스 정의    def __init__(self, data):       # 환경 변수 초기화    def reset():       # 학습 초기 상태로 리셋    def step(action):       # 학습에 필요한 관찰 데이터 변수 획득       # 액션을 취하면, 그때 관찰 데이터, 보상값을 리턴함 env = custom_env(train_data)  # 학습환경 생성. 관찰 데이터에 따른 보상을 계산함 model = AgentModel(env)      # 에이전트 학습 모델 정의. 보상을 극대화하도록 설계 model.learn()                       # 보상이 극대화되도록 학습 model.save('trained_model')    # 학습된 파일 저장 # 학습된 강화학습 모델 기반 시뮬레이션 및 성능 비교 env = custom_env(test_data)  # 테스트환경 생성 observed_state = env.reset() while not done:    action = model.predict(observed_state) # 테스트 관찰 데이터에 따른 극대화된 보상 액션    observed_state, reward, done, info = env.step(action)    # al1_reward = env.step(al1_action) # 다른 알고리즘에 의한 액션 보상값과 성능비교    # human_reward = env.step(human_action) # 인간의 액션 보상값과 성능비교   ■ 상세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-03-05
Aone PLM : 중소.중견기업에 최적화된 국산 PLM 솔루션
■ 개발 및 공급 : 싱글톤소프트, www.singleton.co.kr     Aone PLM(에이원 PLM)은 PLM 전문 기업인 싱글톤소프트가 국내 PLM 분야에서 다져온 시스템 구축 및 개발 경험을 바탕으로 개발한 중소·중견 기업에 최적화된 PLM 패키지 솔루션이다. 2006년 최초로 출시된 이래, 다양한 제조 산업군에서 꾸준히 적용 범위를 넓혀가고 있다.   주요 특징 프로세스 및 데이터 모델링 도구 기반의 커스터마이징 지원 PLM 시스템 구축은 고객 고유업무의 As-Is 분석을 통해 도출된 To-Be 설계안을 바탕으로, PLM 패키지의 기본 기능을 커스터마이징 함으로써 구현되는 일련의 과정이다. Aone PLM은 자체 개발한 데이터 및 프로세스 커스터마이징 도구인 Adaptive-One Studio를 활용함으로써 고객업무에 최적화된 시스템 구축이 가능하다.     Adaptive-One Studio Adaptive-One Studio는 Aone PLM이 구동되는 기반 환경인 Adaptive-One Framework의 설정 도구로서, 아래 그림과 같은 다양한 데이터 및 프로세스 모델링 도구들로 구성된다. PLM 시스템 구축을 위한 커스터마이징 작업에 이들 도구들을 사용함으로써 하드코딩을 최소화하고, 유연하면서도 신속한 시스템 구현이 가능하다. 이렇게 구축된 시스템은 추후 고객의 업무 변화에 따라 시스템 변경이 필요할 때에도 유연성을 발휘하게 된다.     주요 기능 Aone PLM은 팀 단위의 기술문서/도면관리업무(EDM)은 물론, 전사단위의 통합된 PLM으로 확장 가능한 다양한 기능의 업무 모듈을 제공한다. 이들 모듈 단위의 단계적인 확장성을 바탕으로, 기업은 점진적으로 PLM 역량의 고도화를 구현할 수 있다.     주요 고객 사이트 프로텍, 흥아기연, 진양오일씰, 대우공업, 포인트모바일, DMC, 훌루테크 등 (개발사 홈페이지 구축실적 참조)   클라우드 서비스 Aone Cloud 출시 Aone Cloud(에이원 클라우드)는 AutoCAD 호환 캐드인 GStarCAD(지스타캐드)의 국내 공급 총판 모두솔루션과 공동으로 개발한  SaaS(Software As A Service)  개념의  클라우드 기반의 구독형 서비스이다. Aone Cloud는 구독형 서비스이므로 복잡한 시스템 구축 없이, 웹 기반의 도면 및 기술문서 관리 솔루션을 즉시 사용할 수 있다. (www.AoneCloud.kr로 접속하여 사용)       Aone Cloud는 Aone PLM의 Adaptive-One Framework 기반으로 개발되어 추후 본격적인 PLM으로 확장도 가능하다. 또한 GStarCAD 상에서 바로 클라우드 서버에 접속할 수 있는 플러그인을 제공함으로써 사용자는 CAD상에서 도면 관리의 모든 기능을 활용할 수 있다.   ■ 기사 내용은 PDF로도 제공됩니다.
작성일 : 2024-03-04
뉴랜드코리아, 무선에 특화된 산업용 핸드 바코드 스캐너 ‘NVH220B’ 출시
뉴랜드코리아는 지난해 선보인 산업용 핸드 바코드 스캐너 'NVH220'의 무선용 버전인 ‘NVH220B’를 한국에 공급한다고 발표했다. 이 제품은 무선 환경에서도 효율적으로 제품을 스캐닝하고 추적할 수 있는 것이 특징으로, 거치대에서 최대 150m까지 떨어져도 스캐닝이 가능하다. NVH220B는 제조 환경의 복잡한 바코드 스캐닝을 위해 고안된 제품으로, 특히 무선 방식으로 작동하기 때문에 이동성을 향상시켜 광범위한 지역에 있는 제품을 효율적으로 추적할 수 있게 해준다. 이번에 채택된 무선 기능 덕분에 NVH220B는 부두에서의 물품 적재와 같이 역동적인 배송지역에서 재고 및 선적을 효과적으로 추적하는 데 도움이 되며, 공장 전체의 장비를 현장에서 검사할 수 있는 ‘유지관리 추적’도 용이하게 해준다. 또한 창고 내에서나 생산 라인에 상관없이 인벤토리 관리에 유연성을 제공한다. 뿐만 아니라 NVH220B는 코드 길이에 제약 없이 다양한 검사소 간 이동을 용이하게 해 줌으로써 품질 관리를 향상시킬 수 있다.      이번에 출시된 NVH220B는 블루투스 5.0을 탑재하여 거치대에서 최대 150m 떨어진 곳에서도 바코드를 스캔할 수 있으며, 블루투스를 통한 빠른 데이터 속도, 더 나은 배터리 효율성 및 쉬운 페어링 등의 장점을 갖고 있다. NVH220B는 정밀한 포지셔닝과 정확한 디코딩을 위한 인공지능(AI) 처리 역량과 뉴랜드의 최신 산업 디코딩 알고리즘을 탑재했으며 라듐 각인 바코드, 도팅 바코드같은 DPM(Direct Part Marking) 바코드를 포함한 바코드 디코딩 기능을 갖추고 있다. 또한 자동 학습을 통해 즉각적으로 스캐너가 바코드 및 자재 조건을 분석해서 지능적으로 설정을 조정, 스캐닝 성능을 최적화하여 효율적인 업무 처리가 가능하다. 뉴랜드코리아의 성태호 대표는 “이번에 선보인 NVH220B는 무선 기능이 전격 지원돼 어떤 산업 환경에서도 원하는 업무를 지원할 수 있는 제품”이라고 말했다.
작성일 : 2024-02-26