• 회원가입
  • |
  • 로그인
  • |
  • 장바구니
  • News
    뉴스 신제품 신간 Culture & Life
  • 강좌/특집
    특집 강좌 자료창고 갤러리
  • 리뷰
    리뷰
  • 매거진
    목차 및 부록보기 잡지 세션별 성격 뉴스레터 정기구독안내 정기구독하기 단행본 및 기타 구입
  • 행사/이벤트
    행사 전체보기 캐드앤그래픽스 행사
  • CNG TV
    방송리스트 방송 다시보기 공지사항
  • 커뮤니티
    업체홍보 공지사항 설문조사 자유게시판 Q&A게시판 구인구직/학원소식
  • 디렉토리
    디렉토리 전체보기 소프트웨어 공급업체 하드웨어 공급업체 기계관련 서비스 건축관련 업체 및 서비스 교육기관/학원 관련DB 추천 사이트
  • 회사소개
    회사소개 회사연혁 출판사업부 광고안내 제휴 및 협력제안 회사조직 및 연락처 오시는길
  • 고객지원센터
    고객지원 Q&A 이메일 문의 기사제보 및 기고 개인정보 취급방침 기타 결제 업체등록결제
  • 쇼핑몰
통합검색 "언어"에 대한 통합 검색 내용이 1,423개 있습니다
원하시는 검색 결과가 잘 나타나지 않을 때는 홈페이지의 해당 게시판 하단의 검색을 이용하시거나 구글 사이트 맞춤 검색 을 이용해 보시기 바랍니다.
CNG TV 방송 내용은 검색 속도 관계로 캐드앤그래픽스 전체 검색에서는 지원되지 않으므로 해당 게시판에서 직접 검색하시기 바랍니다
스노우플레이크, 엔터프라이즈급 LLM ‘아크틱’ 출시
데이터 클라우드 기업 스노우플레이크가 높은 개방성과 성능을 내세운 엔터프라이즈급 대규모 언어 모델(LLM)인 ‘스노우플레이크 아크틱(Snowflake Arctic)’을 출시했다. 스노우플레이크의 전문가혼합(MoE) 방식으로 설계된 아크틱은 기업의 복잡한 요구사항 처리에도 최적화되어 SQL 코드 생성, 명령 이행 등 다양한 기준에서 최고 조건을 충족한다. 특히 아크틱은 무료로 상업적 이용까지 가능한 아파치 2.0 라이선스로, 스노우플레이크는 AI 학습 방법에 대한 연구의 자세한 사항을 공개하며 엔터프라이즈급 AI 기술에 대한 개방 표준을 제안했다. 또한 아크틱 LLM은 스노우플레이크 아크틱 모델군(Snowflake Arctic model family)의 일부로, 검색 사용을 위한 텍스트 임베딩 모델도 포함됐다. 오픈소스 모델인 아크틱은 코드 템플릿과 함께 추론과 학습방식을 선택할 수 있는 유연성도 제공한다. 사용자는 엔비디아 NIM, 텐서RT-LLM(TensorRT-LLM), vLLM, 허깅페이스(Hugging Face) 등 기업이 선호하는 프레임워크로 아크틱을 사용하고 커스터마이징할 수 있다. 스노우플레이크 코텍스(Snowflake Cortex)에서는 서버리스 추론을 통해 아크틱을 즉시 사용할 수도 있다. 스노우플레이크 코텍스는 완전 관리형 서비스로, 허깅페이스, 라미니(Lamini), 마이크로소프트 애저, 엔비디아 API 카탈로그, 퍼플렉시티(Perplexity), 투게더 AI(Together AI) 등 다양한 모델 목록과 함께 데이터 클라우드에서 머신러닝 및 AI 솔루션을 제공한다. 아마존웹서비스(AWS)에서도 아크틱 사용이 가능해질 예정이다.     스노우플레이크는 기업이 각자의 데이터를 활용해 실용적인 AI/머신러닝 앱 제작에 필요한 데이터 기반과 최첨단 AI 빌딩 블록을 제공한다. 고객이 스노우플레이크 코텍스를 통해 아크틱을 사용할 경우 데이터 클라우드의 보안 및 거버넌스 범위 내에서 프로덕션급 AI 앱을 적정 규모로 구축하는 것이 더욱 쉬워진다.  아크틱 LLM이 포함된 스노우플레이크 아크틱 모델군에는 스노우플레이크가 최근 출시한 최첨단 텍스트 임베딩 모델 중 하나인 아크틱 임베드(Arctic embed)도 포함된다. 이 제품은 아파치 2.0 라이선스로 오픈소스 커뮤니티에서 무료로 사용할 수 있다. 5가지 모델로 구성된 이 제품군은 허깅페이스에서 바로 사용할 수 있으며, 스노우플레이크 코텍스에 내장돼 프라이빗 프리뷰 형태로 공개될 예정이다. 유사 모델의 약 3분의 1 크기인 이 임베딩 모델은 높은 검색 성능을 발휘하도록 최적화되어, 기업들이 검색증강생성(RAG) 또는 시맨틱 검색 서비스의 일부로 고유의 데이터 세트를 LLM과 결합할 때 효과적이고 경제적인 솔루션을 제공한다. 스노우플레이크의 슈리다 라마스워미(Sridhar Ramaswamy) CEO는 “스노우플레이크 AI 연구팀은 AI 분야 최전방에서 혁신을 이끌며 자사에 중요한 전환점을 마련했다”면서, “스노우플레이크는 오픈소스로 업계 최고 성능과 효율을 AI 커뮤니티에 공개하면서 오픈소스 AI가 지닌 가능성의 영역을 넓혀가고 있다. 고객에게 유능하면서도 믿을 수 있는 AI 모델을 제공할 수 있는 스노우플레이크의 AI 역량도 높아지고 있다”고 말했다.
작성일 : 2024-04-25
아비바, “마이크로소프트와 산업용 AI 어시스턴트 개발 협력”
아비바가 하노버 산업 박람회(하노버 메세)에서 마이크로소프트와 협업을 통해 개발한 산업용 AI 어시스턴트를 선보였다. 마이크로소프트 애저 오픈AI 서비스(Microsoft Azure OpenAI Service)에서 실행되는 산업용 AI 어시스턴트는 인더스트리 5.0 혁신을 위한 가상의 ‘주제 전문가(SME)’이다. “제조 산업 기업이 미션 크리티컬 환경에서 복잡한 질문에 답하는 방식에 대한 패러다임의 전환을 담았다”는 것이 아비바의 설명이다. 아비바의 AI 어시스턴트는 가상 전문가 역할을 수행하여 흩어진 데이터 세트에서 인사이트를 추출하는 방대한 작업을 간소화하여 여러 단계의 복잡한 질문에 해답을 제공한다. 50년 이상 산업용 소프트웨어 및 분석 분야에서 쌓아온 아비바의 전문성을 활용하는 직관적인 인터페이스를 통해 대규모 언어 모델(LLM)과 생성형 AI를 활용할 수 있게끔 지원한다. 보안과 신뢰성을 위한 요소가 기본으로 내장되고, 엄격한 엔지니어링 프롬프트와 교차 크리틱 방법론을 통해 분석 품질을 향상시켜 견고하고 투명한 답변을 제공하며, 출처와 인용을 참조하도록 보장한다. 데이터 보안 및 소유권을 보호하기 위해 독점 데이터는 LLM 또는 기타 타사 소스와 혼합되지 않도록 설계됐다. 아비바는 마이크로소프트와 협력해 산업 인텔리전스 제공을 가속화하여 고객이 혁신의 힘을 활용할 수 있도록 지원한다. 마이크로소프트의 솔루션과 아비바의 산업 전문 지식 및 소프트웨어를 통해 기업은 기술의 힘을 활용하여 민첩하고 탄력적이며 환경적인 지속 가능 동력을 확보할 수 있다. 마이크로소프트는 아비바와 긴밀하게 공동의 혁신을 수행하고 있는 파트너로, 마이크로소프트 패브릭(Microsoft Fabric)과 커넥트(CONNECT, 구 AVEVA Connect)의 상호 운용성을 약속한 초기 ISV 중 하나이다. 아비바의 롭 맥그리비(Rob McGreevy) CPO는 “산업 환경을 위한 AI를 설계할 때, 우리는 안전하고 보안이 유지되며 지속 가능한 프로세스와 결과를 제공해야 하는 막중한 책임을 인식하고 있다. 그렇기 때문에 포트폴리오 전반에 걸쳐 AI 기능을 도입할 때 항상 산업 환경과 관련된 요구 사항과 엄격함을 인식하는 도메인별 전문 지식을 통해 포트폴리오를 강화한다”면서, “아비바의 산업용 AI 어시스턴트는 최고 수준의 보안 및 전문 지식과 결합된 통합 데이터를 활용하여 고객이 안심하고 실시간으로 정보를 조사할 수 있도록 지원한다. 이 모든 오퍼링은 ‘커넥트(CONNECT)’ 인텔리전스 플랫폼을 통해 마이크로소프트와 함께 사용 및 확장이 가능하다”고 소개했다. 마이크로소프트의 매트 커너(Matt Kerner) 수석 부사장은 “마이크로소프트 애저의 AI 및 클라우드 기능과 아비바의 산업용 AI 전문성을 결합하면 산업이 대규모로 운영되는 방식을 혁신할 수 있는 힘을 갖게 된다. 직관적인 AI 어시스턴트 인터페이스를 통해 운영자와 경영진은 인사이트를 얻고, 결과를 조사하고, 성능을 최적화하는 것이 더 쉬워진다”고 말했다.
작성일 : 2024-04-23
마이크로소프트, 국내 기업의 혁신 돕는 AI 트랜스포메이션 사례 공개
마이크로소프트가 생성형 AI 기술로 다양한 국내 산업의 고객 서비스 혁신과 비즈니스 성장을 지원하며 AI 트랜스포메이션 혁신 사례를 구축하고 있다고 소개했다. 마이크로소프트는 AI 기술이 조직 경쟁력 유지를 위한 필수적인 비즈니스 요소가 될 것으로 전망하고 있다. 마이크로소프트가 의뢰한 글로벌 시장 조사기관 IDC의 연구 결과에 따르면 조사에 참여한 응답자 71%가 이미 회사에서 AI를 사용하고 있으며, 이들은 평균적으로 1년 2개월 만에 AI 투자에 대한 수익을 실현하고 있는 것으로 나타났다. 이 연구는 전 세계 2100명 이상의 비즈니스 리더와 의사 결정권자를 대상으로 실시됐다. 마이크로소프트는 애저 오픈AI 서비스(Azure OpenAI Service)를 통해 향상된 컴플라이언스, 데이터 보안 강화, 확장성, 책임 있는 AI 등 차별화된 서비스를 제공하고 있다. 이 서비스는 전 세계 1만 8000개 이상의 조직과 포춘 500대 기업 중 절반 이상이 사용하며 전 세계 조직의 AI 트랜스포메이션 속도를 가속화하고 있다. 마이크로소프트는 국내에서도 자사의 AI 기술을 도입해 업무 프로세스를 혁신하고 새로운 비즈니스 모델 개발에 나서는 기업들이 늘고 있다고 전했다. LG전자의 H&A본부는 생성형 AI 기반 빅데이터 분석 솔루션인 찾다(CHATDA)를 도입해 고객 요구 사항을 효과적으로 파악하고 사용자 경험을 개선했다. 이 시스템은 마이크로소프트 애저 환경과 애저 오픈AI 서비스를 활용해 데이터 보안과 안정성을 강화한다. 또한, 자연어 처리 기능으로 현업의 분석 요구사항에 부합하는 데이터를 정밀하게 선별하고, 이를 기반으로 분석 코드를 자동 생성 및 실행한다. 이를 통해 법무검토, 데이터 탐색, 가공 분석에 소요되던 시간이 평균 5일에서 30분으로 단축돼 업무 효율성이 향상됐다.     AI 서비스 플랫폼 기업 뤼튼테크놀로지스는 애저 오픈AI 서비스와 프로비전드 스루풋(Provisioned Throughput : PTU)를 도입해 이전보다 두 배 이상 증가한 사용자 트래픽을 안정적으로 처리하고 있다. 이러한 운영 안정성과 지속적인 서비스 개선을 바탕으로, 뤼튼 서비스의 고객 만족도를 나타내는 NPS(Net Promoter Score) 점수가 30% 이상 향상됐다. 크래프톤의 AI 전문 스튜디오인 렐루게임즈도 애저 오픈AI 서비스를 도입해 새로운 게임 개발에 나서고 있다.  특히 오는 6월 출시를 앞둔 '언커버 더 스모킹 건'은 플레이어가 용의자와 대화하며 사건을 해결하는 추리 게임으로, 플레이어의 자유도를 높여 실제와 유사한 현실감 있는 게임 환경을 제공한다. 렐루 게임즈는 이를 구현하기 위해 대형언어모델(LLM)의 애플리케이션 프로그래밍 인터페이스(API)를 70% 이상 사용하고 있다.  배달 플랫폼 ‘배달의 민족’을 운영하는 우아한형제들은 애저 오픈AI 서비스를 활용해 고객 상황에 맞는 메뉴를 제안하는 ‘메뉴뚝딱AI’ 서비스를 선보여 고객 편의성을 높였다. 이 서비스는 고객이 작성한 리뷰를 분석해 음식 특성과 주문 성향을 파악하는 키워드를 추출하고, 시간대·식사 동반자·상황·맛 등을 고려해 안전성 검증을 거친 120종의 컨텍스트를 통해 사용자에게 맞춤형 메뉴를 추천한다. 융합 사고력 기업 크레버스는 마이크로소프트 AI 솔루션을 도입해 자동으로 과제를 평가하고 개인 맞춤형 피드백을 제공하는 시스템을 구축, 학생들의 만족도를 크게 높였다. 이 과정에서 평균 3.5일이 걸렸던 과제 채점 시간이 7초로 단축돼 실시간 피드백을 제공하고 있으며, 운영 비용도 약 85% 절감될 것으로 기대하고 있다. 반려로봇 개발기업 효돌은 AI 기반 대화형 AI 돌봄 로봇 ‘효돌 2.0’에 애저 오픈AI 및 애저 코그니티브 서비스(Azure Cognitive Services)를 도입해 음성 엔진을 개선하고 대화 기능을 고도화했다. 이를 통해 사용자와의 친밀감이 기존 대비 10% 이상 증가됐으며, 맞춤형 신경망(Custom Neural) 기반 STT/TTS 엔진을 활용해 시니어층의 우울증이나 치매 징후를 조기에 발견하고 정신 건강 상태를 진단할 수 있게 됐다. 한국마이크로소프트의 조원우 대표는 “AI 기술은 한국의 산업 전반에 긍정적인 변화를 가져오고 있다”며, “앞으로도 마이크로소프트는 가장 신뢰할 수 있는 AI 트랜스포메이션 파트너로서 국내 기업들이 AI를 통해 업무 프로세스를 혁신하고, 더 나은 고객 경험을 제공할 수 있도록 적극 지원할 것”이라고 전했다.
작성일 : 2024-04-22
캐디안, 멀티 플랫폼 지원하는 ‘아레스캐드 2025’ 출시
캐디안은 다양한 플랫폼을 지원하는 ‘아레스캐드 2025(AresCAD 2025)’를 출시했다고 밝혔다. 독일의 그래버트(Graebert)가 개발하고 캐디안이 공급하는 이 도면설계 툴은 PC·모바일·클라우드 등 여러 환경에서 사용 가능하다.   아레스캐드 2025는 파일 오픈 속도가 평균 40% 향상되었고, 줌(zoom) 기능도 22% 개선되었다. 또한, 오픈AI(OpenAI)의 기술을 기반으로 하는 ARES AI(A3) 도우미가 포함되어 있어 계산 수행 및 기술적 질문에 대한 답변도 가능하며, 맥OS 사용자를 위한 인쇄창 UI도 윈도우와 동일하게 최적화되었다. ARES AI(A3)는 다양한 언어로 소통을 가능하게 하며, 다른 사용자가 아레스 캐드로 마이그레이션할 경우 익숙하지 않은 기능을 쉽게 찾고 트리니티 협업 기능이나 BIM 기능을 배울 수 있도록 돕는다. 이 외에도 시빌 3D(Civil 3D) 지원, DWG 파일을 DGN 포맷으로 내보내기, 테이블 자동 채우기(auto-fill) 기능, 동적 블록(dynamic block) 라이브러리 강화 등이 추가되어 사용자의 편의성을 개선했으며, 치수 스타일 관리자 UI 개선, 3D 비주얼 스타일 지원 및 BIM 도면이 개선되었다.     데스크톱 버전인 아레스 커맨더(ARES Commander), 클라우드 버전인 아레스 쿠도(ARES Kudo), 모바일 버전인 아레스 터치(ARES Touch) 등 세 가지 플랫폼을 지원하는 ‘삼위일체(trinity)’ 개념의 아레스캐드 2025 버전은 태그 지정, QR 코드, 클라우드 필드 등 협업 기능이 강화되었기 때문에, 도면 설계자와 관리자는 도면 설계 및 아이디어 공유 등 협업 과정을 효과적으로 진행할 수 있다. 웹 기반 CAD인 아레스 쿠도는 리본 메뉴  인터페이스를 도입했으며, 모바일 기반의 아레스 터치는 향상된 편집 기능을 통해 사용자 편의성이 강화되었다. 캐디안은 “국내외에서 900만 명 이상의 설계자가 사용하는 아레스캐드는 오토캐드의 DWG와 호환되며, 글로벌 설치 라이선스 수에서도 높은 점유율을 보이고 있다”면서, “아레스캐드는 연간 라이선스 뿐만 아니라 영구 라이선스와 네트워크 라이선스도 제공하기 때문에 사용자에게 선택의 폭을 제공하면서 라이선스 부담을 줄일 수 있다”고 전했다.
작성일 : 2024-04-18
오라클-팔란티어, 정부 및 기업용 미션 크리티컬 AI 솔루션 제공 위한 파트너십 발표
오라클과 팔란티어는 전 세계의 기업 및 정부 고객을 대상으로 빠르고 강력한 지원을 목표로 안전한 클라우드 및 AI 솔루션을 제공하기 위한 파트너십을 발표했다. 양사는 오라클의 분산형 클라우드 및 AI 인프라와 팔란티어의 AI 및 의사결정 가속화 플랫폼을 결합해 조직이 보유한 데이터의 활용 가치를 극대화하는데 합의했다. 이러한 파트너십을 통해 양사는 고객의 효율성을 향상하고, 데이터 주권 요건 사항을 해결하며 경쟁력을 강화할 것으로 기대하고 있다. 오라클과 팔란티어는 정부 및 민간 산업 전반에 걸쳐 클라우드 및 AI 서비스를 공동으로 판매 및 지원할 예정이다. 양사 간 합의의 일환으로, 팔란티어는 자사의 파운드리(Foundry) 워크로드를 오라클 클라우드 인프라스트럭처(OCI)로 이전한다. 또한 팔란티어는 자사의 고담(Gotham) 및 AI 플랫폼을 퍼블릭 클라우드 리전, 오라클 클라우드 인프라스트럭처 전용 리전(Oracle Cloud Infrastructure Dedicated Region), 오라클 알로이(Oracle Alloy), 오라클 EU 소버린 클라우드(Oracle EU Sovereign Cloud), 오라클 정부 클라우드(Oracle Government Cloud), 오라클 로빙 엣지(Oracle Roving Edge), 오라클의 국방 및 정보 기관용 에어 갭(air gapped) 리전과 같은 오라클의 분산형 클라우드에 배포할 수 있도록 지원할 예정이다. 이를 통해 양사는 오라클의 클라우드 리전 및 소버린 AI 역량을 통해 더 많은 조직이 데이터 통합 및 의사결정 과정에 팔란티어의 플랫폼을 사용할 수 있게 될 것으로 보고 있다. 오라클과 팔란티어는 모든 방면에서 완벽한 서비스를 추구하며, 양사의 고객들은 클라우드 인프라와 클라우드 애플리케이션 및 AI를 활용하여 높은 수준의 데이터 주권 및 보안 표준을 충족할 수 있다. 오라클 클라우드는 상용 리전, 소버린 리전, 정부용 에어 갭 리전을 포함한 모든 리전에서 고속 AI 인프라를 통한 생성형 AI와 같은 최신 혁신 서비스를 비롯해, 100개 이상의 클라우드 서비스 및 애플리케이션을 제공한다. OCI는 배포 유형과 관계없이 일관된 서비스 및 가격 정책을 제공하므로 고객은 클라우드 서비스 사용과 관련된 계획 수립, 이전, 관리 등의 작업을 간소화할 수 있다. 팔란티어 인공지능 플랫폼(AIP)은 조직이 대규모 언어 모델을 자사의 엔터프라이즈 네트워크, 프라이빗 데이터 및 핵심 운영 시스템에 적용할 수 있도록 지원하며 높은 수준의 보안 및 신뢰도를 보장한다. AIP는 상호 단절된 데이터 소스, 로직 자산, 운영 시스템(systems of action)을 하나의 공통된 운영 환경으로 통합하도록 설계됐다.  다양한 파트너들과 함께하는 오라클의 AI 전략은 의사결정 가속화를 지원하는 팔란티어의 AI 역량을 더 많은 고객들에게 전달할 수 있는 생성형 AI 서비스와 인프라를 제공한다. 방위 및 정보 분야에서 업력을 쌓아온 오라클은 고위험 임무의 성공에 핵심적인 심도 깊은 경험과 기술을 제공한다. 그리고 이제 오라클과 팔란티어는 상호 파트너십을 통해 방위 산업 분야에 강력하고 새로운 역량을 제공할 수 있게 됐다. 오라클의 랜드 왈드론(Rand Waldron) 부사장은 “오라클은 전 세계 모든 기업 및 정부에 전체 AI 및 클라우드 제품군을 제공할 수 있는 유일한 하이퍼스케일러”라며, “오라클과 팔란티어는 오라클 클라우드 인프라스트럭처의 성능, 확장성 및 유연성을 팔란티어의 선도적인 데이터 및 AI 플랫폼과 결합해 양사의 고객이 어떤 산업이나 환경에서도 최상의 성과를 거둘 수 있도록 지원할 것”이라고 말했다. 팔란티어의 조쉬 해리스(Josh Harris) 총괄 부사장은 “팔란티어와 오라클은 전 세계에서 자유 진영의 이익 및 기관을 수호하는 데 전념하고 있다”면서, “고객의 규제, 성능 및 보안 관련 요구사항을 모두 충족하도록 지원하는 오라클 클라우드 인프라스트럭처의 독보적인 성능은 양사의 영향력을 높이고, 전 세계 고객들이 클라우드 및 AI의 모든 이점을 누리도록 기여할 것”이라고 말했다.
작성일 : 2024-04-18
앤시스, 다국어 AI 가상 어시스턴트 ‘앤시스GPT’ 출시
앤시스코리아는 다국어 AI 가상 어시스턴트인 ‘앤시스GPT(AnsysGPT)’를 출시했다고 밝혔다. 챗GPT(ChatGPT) 기반으로 구축된 앤시스GPT는 앤시스 엔지니어의 전문 지식 및 AI를 융합해 연중무휴로 신속하게 고객을 지원하는 범용 도구다. 이 가상 어시스턴트는 앤시스 데이터를 기반으로 훈련되어 고객의 가장 시급한 엔지니어링 관련 질문에 유용한 답변을 즉각적으로 제공할 전망이다. 앤시스GPT는 고객이 앤시스 제품, 관련 물리학 및 기타 복잡한 엔지니어링 질문을 할 수 있도록 연중무휴로 가상 어시스턴트에 대한 접근성을 제공한다. 안전하고 사용하기 쉬운 인터페이스를 통해 설계자와 엔지니어가 다양한 공통 언어로 실시간 응답을 받아 시뮬레이션 설정을 간소화하고 관련 학습 기회를 탐색할 수 있도록 지원한다. 최신 버전의 앤시스GPT는 응답 정확성, 성능 및 데이터 규정 준수에 대한 테스트를 거쳐 개발됐다. 앤시스GPT는 제품 설명서, 제품 및 엔지니어링 관련 교육 자료, 자주 묻는 질문(FAQ), 기술 마케팅 자료, 앤시스 학습 포럼 등을 포함한 새로운 퍼블릭 소스로부터 지식을 습득한다. 앤시스는 강화된 인프라를 통해 수천 명의 사용자를 수용할 수 있도록 향상된 보안과 확장성을 제공할 계획이다.     콘티넨탈 오토모티브 루마니아의 유겐 딘카(Eugen Dinca) 열 시뮬레이션 수석 엔지니어는 “복잡한 시뮬레이션은 초보자와 숙련된 엔지니어 모두에게 설정하기 어려울 수 있기에 앤시스GPT의 유용성은 더욱 빛을 발할 것”이라며, “앤시스GPT는 사용하기 쉽고 신뢰할 수 있으며 관련성이 높고 정확한 정보가 빠르게 표시된다는 장점이 있다. 예를 들어, 내가 질문하면 필요한 모든 정보와 관련 문서로의 링크가 포함된 답변을 받게 되는 것”이라고 전했다. 앤시스의 앤소니 더슨(Anthony Dawson) 고객 우수성 부문 부사장은 “앤시스GPT의 출시는 앤시스 고객을 위한 혁신적인 AI 기반 기술 지원 수단의 가용성을 나타낼 것”이라며, “앤시스GPT는 고객이 복잡한 질문에 대한 답변을 스스로 찾을 수 있도록 돕는 보조 도구다. 이번에 출시된 버전은 사용자를 위한 응답 정확도, 성능, 데이터 보안 및 준수성이 향상되어 사용자의 가장 중요한 엔지니어링 질문에 정확하고 신속한 답변을 제공한다”고 밝혔다.
작성일 : 2024-04-17
엔비디아, AI 개발 가속화 위해 구글 클라우드와 협력
엔비디아가 구글 클라우드와 협력을 통해 전 세계 스타트업의 생성형 AI 애플리케이션과 서비스 개발 가속화를 지원한다고 발표했다. 양사의 이번 협력은 다양한 규모의 기업이 생성형 AI 애플리케이션을 개발하는데 드는 비용을 절감하고 장벽을 완화하기 위해 공개된 일련의 발표들 중 가장 최근에 이뤄진 것이다.  특히 스타트업은 AI 투자에 대한 높은 비용으로 인해 많은 제약을 받고 있다. 이번 협업으로 엔비디아와 구글 클라우드는 클라우드 크레딧, 시장 진출 지원, 그리고 기술 전문 지식에 대한 접촉 기회 확대를 통해 고객에게 더 빠르게 스타트업의 가치를 제공하도록 지원한다. 1만 8000개 이상의 스타트업을 지원하는 엔비디아 인셉션 글로벌 프로그램의 회원은 특히 AI에 중점을 둔 스타트업의 경우 최대 35만 달러의 구글 클라우드 크레딧을 제공받고 구글 클라우드 인프라 사용 가속화 경로를 확보할 수 있다. 구글 포 스타트업 클라우드 프로그램 멤버는 엔비디아 인셉션에 가입해 기술 전문 지식, 엔비디아 딥 러닝 인스티튜트(Deep Learning Institute) 과정 크레딧, 엔비디아 하드웨어와 소프트웨어 등을 이용할 수 있다. 또한 구글 포 스타트업 클라우드 프로그램의 스타트업 회원은 해당 분야에 관심이 있는 벤처 투자 기관에 노출될 기회를 주는 엔비디아 인셉션 캐피탈 커넥트(Inception Capital Connect) 플랫폼에 참여할 수 있다. 두 프로그램 모두에서 급성장한 신생 소프트웨어 제조업체는 구글 클라우드 마켓플레이스(Marketplace) 등록해 공동 마케팅, 제품 개발 가속화 지원을 우선적으로 받을 수 있다.     구글 딥마인드(DeepMind)는 지난 2월 최첨단 개방형 모델 제품군 젬마(Gemma)를 공개했는데,  엔비디아는 최근 구글과 협력해 모든 젬마 전용 엔비디아 AI 플랫폼에 대한 최적화를 실시했다. 젬마는 구글 딥마인드의 가장 뛰어난 모델인 제미나이(Gemini) 제작에 사용된 동일한 연구와 기술로 구축됐다. 양사의 긴밀한 협력으로 거대 언어 모델(LLM) 추론 최적화를 위한 오픈 소스 라이브러리 엔비디아 텐서RT-LLM(TensorRT-LLM)을 통해 엔비디아 GPU로 젬마를 실행, 젬마의 성능을 발전시켰다. 젬마 7B(Gemma 7B), 리커런트젬마(RecurrentGemma), 코드젬마(CodeGemma)를 포함한 젬마 모델 제품군은 엔비디아 API 카탈로그에서 사용 가능하며, 사용자는 이를 브라우저에서 사용하거나, API 엔드포인트로 프로토타입을 제작하거나, NIM을 통한 셀프 호스팅을 할 수 있다. 구글 클라우드를 사용하면 GKE와 구글 클라우드 HPC 툴킷으로 플랫폼 전반에 엔비디아 네모(NeMo) 프레임워크를 배포하기 쉬워진다. 이를 통해 개발자는 생성형 AI 모델의 훈련과 제공을 확장하고 자동화할 수 있으며, 개발 과정에 빠르게 착수하는 맞춤형 청사진을 통해 턴키 환경을 신속히 구축할 수 있다. 엔비디아 AI 엔터프라이즈의 일부인 엔비디아 네모는 구글 클라우드 마켓플레이스에서도 이용 가능하다. 이를 통해 고객들은 네모 및 기타 프레임워크에 쉽게 액세스해 AI 개발을 가속할 수 있다. 구글 클라우드는 엔비디아 생성형 AI 가속 컴퓨팅의 가용성 확대를 위해 5월 A3 메가(Mega)의 정식 출시를 발표했다. 이 인스턴스는 엔비디아 H100 텐서 코어(H100 Tensor Core) GPU로 구동되는 A3 가상 머신(VM) 제품군의 확장으로, A3 VM에서 GPU 대 GPU 네트워크 대역폭이 두 배로 늘었다. A3에 탑재된 구글 클라우드의 새로운 컨피덴셜(Confidential) VM에는 컨피덴셜 컴퓨팅에 대한 지원도 포함돼 있어, 고객이 H100 GPU 가속에 액세스하는 동안 코드를 변경하지 않고도 민감 데이터의 기밀성과 무결성을 보호하고 학습과 추론 도중 애플리케이션과 AI 워크로드를 보호할 수 있다. 이 GPU 기반 컨피덴셜 VM은 올해 미리보기로 제공될 예정이다. 한편, 블랙웰(Blackwell) 플랫폼에 기반한 엔비디아의 최신 GPU는 2025년 초에 엔비디아 HGX B200과 엔비디아 GB200 NVL72 등 두 가지 버전으로 구글 클라우드에 출시될 예정이다. HGX B200은 가장 까다로운 AI, 데이터 분석 그리고 고성능 컴퓨팅 워크로드를 위해 설계됐으며, GB200 NVL72는 차세대, 대규모, 조 단위의 매개변수 모델 학습과 실시간 추론을 위해 설계됐다. 엔비디아 GB200 NVL72는 각각 2개의 엔비디아 블랙웰 GPU와 엔비디아 그레이스 CPU(Grace CPU)가 결합된 36개의 그레이스 블랙웰 슈퍼칩을 900GB/s의 칩투칩(chip-to-chip) 인터커넥트를 통해 연결한다. 이는 하나의 엔비디아 NV링크(NVLink) 도메인에서 최대 72개의 블랙웰 GPU와 130TB/s의 대역폭을 지원한다. 통신 병목 현상을 극복하고 단일 GPU처럼 작동해 이전 세대 대비 30배 빠른 실시간 LLM 추론과 4배 빠른 트레이닝을 제공한다. 엔비디아는 지난 3월 생성형 AI의 요구사항에 최적화된 엔터프라이즈 개발자용 AI 플랫폼인 엔비디아 DGX 클라우드를 H100 GPU 기반의 A3 VM에서 사용할 수 있다고 발표했다. GB200 NVL72가 탑재된 DGX 클라우드는 2025년 구글 클라우드에서도 제공될 예정이다.
작성일 : 2024-04-12
IBM 왓슨x, 마스터스 토너먼트 디지털 플랫폼에 생성형 AI 기능 제공
IBM과 마스터스 토너먼트는 4월 14일까지 열리는 마스터스 골프 대회를 위해 마스터스 앱과 마스터스닷컴 디지털 플랫폼에 팬을 위한 새로운 기능을 추가했다고 발표했다. 팬들은 IBM의 AI 및 데이터 플랫폼인 왓슨x(watsonx)로 구축된 생성형 AI 기술을 통해 코스 내 각 홀에 대한 데이터 기반 분석과 예측을 제공하는 샷별 ‘홀 인사이트(Hole Insights)’ 서비스와 생성형 AI가 지원하는 영어 및 스페인어 해설을 사용할 수 있다. 홀 인사이트는 팬들이 마스터스 웹사이트에서 실시간 경기 내용을 기반으로 한 인사이트를 직접 제공받을 수 있는 서비스이다. 2024년 마스터스닷컴 웹사이트와 모바일 앱의 ‘트랙 샷(Track Shots)’ 기능에 더해진 IBM 홀 인사이트는 자연어 처리와 정형 데이터를 결합해 특정 홀의 현재 및 과거 플레이에 대한 상세한 분석을 생성한다. 또한 ▲ 각 홀이 토너먼트 기간 동안 어떻게 플레이됐는지에 대한 데이터 기반 요약 ▲ 과거 및 현재 성적 데이터를 기반으로 각 홀이 어떻게 플레이될지에 대한 예측 ▲ 17만 개 이상의 샷을 포함한 8년간의 토너먼트 데이터와 코스 내 볼 위치를 기반으로 각 홀의 플레이 방식에 대한 인사이트 등을 제공한다.     또한 IBM은 생성형 AI의 스페인어 해설을 선보인다. IBM과 마스터스는 작년 토너먼트 기간 동안 모든 홀에서 이루어지는 약 2만 개에 달하는 모든 샷에 대한 주문형 하이라이트 비디오에 생성형 AI 기술을 사용하여 자동 오디오 및 캡션 해설을 제공하는 서비스를 소개한 바 있다.  2024 마스터스 앱과 웹사이트에서 하이라이트 영상을 시청하는 팬들은 영어와 스페인어 해설을 오디오와 자막을 통해 동시에 사용할 수 있다. 왓슨x를 기반으로 구축된 대규모 언어 모델과 생성형 AI의 조합으로 제공되는 이 기능은 단순한 영어-스페인어 번역을 넘어, IBM 엔지니어와 해당 분야 전문가로 구성된 팀이 퓨샷 러닝(few shot learning)이라는 프로세스를 통해 AI 모델이 스페인어를 기본적으로 이해하고, 의사소통할 수 있도록 훈련시켜 스페인어를 사용하는 팬들에게 오디오 해설 및 자막 경험을 제공할 수 있도록 했다. IBM의 조나단 아다셰크(Jonathan Adashek) 마케팅 및 커뮤니케이션 담당 수석 부사장은 “왓슨x의 생성형 AI 기술을 통해 IBM과 오거스타 내셔널 골프 클럽은 전 세계 수백만 명의 팬들에게 마스터스의 마법을 전달하는 기술 솔루션을 공동 개발할 수 있었다”면서, “훈련과 튜닝에서 모니터링과 유지보수에 이르기까지, 왓슨x는 AI 해설과 홀 인사이트 같은 기능을 구현하는데 사용된 AI 모델의 전체 수명주기를 관리한다. 여기에는 더 나은 고객 관리 경험을 구현하고, 차원 높은 생산성을 달성하고, 더 많은 정보를 바탕으로 데이터 기반의 비즈니스 의사 결정을 내리기 위해 여러 산업 분야의 기업들이 비즈니스에 적용하고 있는 것과 동일한 AI 기술이 사용되었다”고 덧붙였다. 
작성일 : 2024-04-11
마이크로소프트, 개발자 및 엔지니어 대상 ‘Microsoft AI Tour in Seoul’ 개최
한국마이크로소프트가 4월 30일 서울 양재 aT센터에서 ‘개발자와 엔지니어를 위한 AI의 모든 것’을 주제로 ‘Microsoft AI Tour in Seoul’을 개최한다고 밝혔다. Microsoft AI Tour는 ‘한발 앞선 AI 트랜스포메이션의 실현’이라는 주제 아래 지난해 9월 미국 뉴욕에서 시작돼 전 세계 14개 도시를 순회하고 있다. 이번에 한국에서 개최되는 Microsoft AI Tour는 마이크로소프트 애저(Microsoft Azure)와 마이크로소프트 코파일럿(Microsoft Copilot)을 활용한 AI 기술과 기능을 직접 체험하고 배울 수 있는 다양한 세션이 열리며, 공식 파트너사인 엔비디아와 함께 AI 기술 콘텐츠와 노하우도 제공할 예정이다.     키노트는 한국마이크로소프트의 조원우 대표와 마이크로소프트 스콧 한셀만(Scott Hanselman) 개발자 커뮤니티 부사장이 ‘개발자를 위한 차세대 AI’를 주제로 진행한다. 이 세션에서는 마이크로소프트 애저와 코파일럿을 활용해 업무 생산성을 높이는 노하우와 혁신적인 AI 시스템 구축 방법이 소개된다. 특히 한셀만 부사장은 한글이 대규모 언어 모델(LLM)에서 어떤 의미를 가지는지 및 앞으로의 발전 방향성에 대한 인사이트도 공유할 예정이다.  브레이크 아웃 세션에서는 새로운 AI 기술과 기능이 소개된다. ▲생성형 AI의 새로운 기능 ▲마이크로소프트 패브릭(Microsoft Fabric)에서 코파일럿으로 AI 앱 빌드하기 ▲비즈니스 앱 및 데이터로 마이크로소프트 365 코파일럿 확장하기 ▲GPT 및 비전 AI를 사용한 멀티모달 대화형 인터페이스 등 4개의 주제가 발표된다. 이를 통해 참가자들은 최신 AI 기술 트렌드와 발전 상황을 파악하고, 사용자 경험 개선과 혁신적인 솔루션 개발에 필요한 AI 기술과 노하우를 습득할 수 있다. 워크숍 세션은 개발자들의 실전 AI 기술 향상을 위한 실습 형태로 진행된다. 마이크로소프트 코파일럿 스튜디오(Microsoft Copilot Studio)를 활용해 나만의 코파일럿을 만들고, 마이크로소프트 패브릭을 사용해 AI를 위한 데이터 및 머신러닝 및 애저 오픈AI 서비스 생성형 AI 솔루션을 구현해 볼 수 있다. 커넥션 허브에서는 마이크로소프트 제품 및 엔지니어링 전문가와의 대면 상담 기회를 제공한다. 참가자들은 16개의 주제별 부스에서 전문가와 만나 자신의 프로젝트에 대한 조언을 듣고, 기술적인 문제에 대한 궁금증을 해소할 수 있다. 이와 함께 코파일럿을 체험해 볼 수 있는 시간도 마련된다.  네트워킹 리셉션에서는 발표자, 업계 리더, 개발자들이 모여 지식과 경험을 공유하고 새로운 협업 기회를 찾을 수 있다. 또한 IT 업계 동향과 최신 기술에 대한 인사이트를 나누며 새로운 커뮤니티에 참여하는 것도 가능하다.
작성일 : 2024-04-04
로컬 호스트 LLM 오픈소스 기반 BIM 전문가 챗봇 서비스 만들어보기
BIM 칼럼니스트 강태욱의 이슈 & 토크   요즘 LLM 모델을 사용하는 방법이 점차 간편해지고 있어 자체적으로 LLM을 구축해 챗봇, 전문가 시스템 등을 자신의 서버에서 제공하는 경우가 많아지고 있다. 이번 호에서는 GPU가 있는 PC에서 직접 실행해 볼 수 있도록, 로컬 호스트 LLM(대규모 언어 모델) 오픈소스 기반의 BIM 전문가 챗봇 서비스를 간단히 개발해 본다.   ■ 강태욱 건설환경 공학을 전공하였고 소프트웨어 공학을 융합하여 세상이 돌아가는 원리를 분석하거나 성찰하기를 좋아한다. 건설과 소프트웨어 공학의 조화로운 융합을 추구하고 있다. 팟캐스트 방송을 통해 이와 관련된 작은 메시지를 만들어 나가고 있다. 현재 한국건설기술연구원에서 BIM/GIS/FM/BEMS/역설계 등과 관련해 연구를 하고 있으며, 연구위원으로 근무하고 있다. 이메일 | laputa99999@gmail.com 페이스북 | www.facebook.com/laputa999 홈페이지 | https://dxbim.blogspot.com 팟캐스트 | http://www.facebook.com/groups/digestpodcast   이번 호에서는 기존의 BIM PDF 파일을 검색해 학습하고, LLM에 RAG(Retrieval-augmented generation) 증강 학습한 후, 이를 간단한 UI로 웹 서비스하는 과정을 간략히 따라해 본다. 이번 호의 내용은 로컬 LLM의 편한 개발을 지원하는 올라마(Ollama), LLM 프롬프트 엔지니어링 프레임워크인 랭체인(LangChain), 텍스트 임베딩 벡터 데이터베이스 크로마(Chroma), 손쉬운 웹 앱 개발 지원 도구인 스트림릿(Streamlit)을 사용한다. 이를 이용해 간단하게 BIM 전문 지식을 PDF로 학습한 챗봇을 개발한다.   그림 1. 로컬 호스트 LLM 챗봇 아키텍처   그림 2. 구현된 BIM 지식 챗봇 서비스   LLM에 관련된 깊은 내용은 다음의 링크를 참고한다. 이 글은 여러 참고 자료를 이용해 작성된 것이다. 상세 내용은 레퍼런스를 참고하기 바란다. Facebook LLAMA-2 paper : https://daddynkidsmakers.blogspot.com/2024/02/llama-2.html Facebook LLAMA-2 installation : https://daddynkidsmakers.blogspot.com/2023/09/llama2.html LLM은 빅테크 업체 간 경쟁이 심한 분야이다. 이와 관련해서 젬마(Gemma), MPT-7B과 같은 LLM 모델이 오픈소스로 공개되고 있어 선택지가 많아지고 있다. 이와 관련해서는 다음을 참고한다.  Google Gemma : https://github.com/google/gemma_pytorch Blooom : https://huggingface.co/bigscience/bloom   설치 설치를 위해서는 엔비디아 드라이버, CUDA, 텐서플로(TensorFlow), 파이토치(PyTorch) 등 기본 딥러닝 개발 환경이 설치되어 있어야 한다.(최소 구동을 위한 GPU RAM은 6GB이다.) TensorFlow 설치 : https://www.tensorflow.org/install/pip?hl=ko#windows-native_1 Start Locally | PyTorch 설치 : https://pytorch.org/get-started/locally/ 설치 순서는 다음과 같다.  1. 기본 패키지를 설치한다. LLM 모델 기반 서비스 개발 지원 라이브러리 랭체인, 웹 앱 UI 개발을 지원하는 스트림릿, 텍스트 임베딩 벡터 데이터베이스 크로마 DB 등을 설치한다. pip install langchain streamlit streamlit_chat pypdf fastembed chardet pip install chromadb==0.4.15   그림 3. 다양한 LLM 모델을 이용한 서비스 개발을 지원하는 랭체인 패키지   그림 4. 간단한 코드로 웹 앱 개발을 지원하는 UI 라이브러리 패키지 streamlit.io   혹은 pip와 유사한 패키지 설치 관리자인 poetry를 설치한 후, 다음 사용 패키지들을 pyproject.toml 이름으로 저장하고 설치한다.     ■ 자세한 기사 내용은 PDF로 제공됩니다.
작성일 : 2024-04-01