엔비디아, 기업들이 보다 신속하게 AI 모델 개발 및 배포하도록 지원
  • 2020-05-29
  • 신윤오 기자, yoshin@elec4.co.kr

엔비디아(CEO 젠슨 황)는 자사의 암페어(Ampere) 아키텍처에서 멀티 인스턴스 GPU(Multi-Instance GPU, 이하 MIG)를 지원해 기업들이 보다 신속하게 인공지능(AI) 모델을 개발 및 배포하도록 돕는다고 밝혔다.
 


MIG는 엔비디아 A100 GPU를 최대 7개의 독립된 GPU 인스턴스로 분할한다. 인스턴스들은 각각 고유한 메모리, 캐시, 스트리밍 멀티프로세서를 사용해 동시에 실행된다. 이를 통해 모든 작업에 대해 보장된 서비스 품질로 적합한 크기의 GPU를 제공해 이전 GPU 대비 최대 7배 향상된 활용도를 구현한다.

MIG 모드의 A100은 최대 7개의 다양한 크기의 AI 또는 고성능컴퓨터(HPC) 워크로드를 혼합해 실행할 수 있다. 이 기능은 일반적으로 최신 GPU가 제공하는 성능을 모두 필요로 하지 않는 AI 추론 작업에 유용하다. 예컨대 사용자는 20GB의 메모리를 갖춘 2개의 MIG 인스터스 혹은 10GB의 3개 인스턴스, 5GB의 7개 인스턴스를 생성할 수 있어 각각의 워크로드에 맞는 최적의 조합을 만들 수 있다.

MIG는 GPU 인스턴스를 차단시키므로 결함격리(fault isolation) 기능을 제공하여 한 인스턴스의 문제가 동일한 GPU에서 실행되는 다른 사용자에게 영향을 주지 않는다. 각 인스턴스는 보장된 QoS를 제공해 사용자의 워크로드가 예상되는 레이턴시(지연시간)과 처리량을 확보할 수 있도록 한다.

클라우드 서비스제공업체와 그 외의 기업은 MIG를 통해 GPU 서버의 활용률을 향상시켜 사용자에게 최대 7배 많은 GPU 인스턴스를 제공할 수 있다. 구글 클라우드의 수석 소프트웨어 엔지니어 팀 호킨 (Tim Hockin)은 “엔비디아는 구글 클라우드의 전력적 파트너로 고객을 위해 혁신을 거듭하고 있다. MIG는 공유 쿠버네티스(Kubernetes) 클러스터에서 GPU의 효율성과 활용도를 새로운 수준으로 끌어올린다. 구글 클라우드는 엔비디아, 그리고 쿠버네티스 커뮤니티와 협력해 이러한 공유 GPU 활용사례를 만들어내고, 이를 구글 쿠버네티스 엔진(Google Kubernetes Engine)을 통해 이용할 수 있기를 기대한다”라고 말했다.

<저작권자(c)스마트앤컴퍼니. 무단전재-재배포금지>


#소프트웨어   #인공지능   #클라우드  

  • 100자평 쓰기
  • 로그인

세미나/교육/전시
TOP