1. 首页
  2. 行业
  3. 互联网
  4. 使用TensorRT Inference Server加速深度学习模型的部署 NVIDIA高级系统架构师胡麟.pdf

使用TensorRT Inference Server加速深度学习模型的部署 NVIDIA高级系统架构师胡麟.pdf

上传者: 2020-12-24 11:23:30上传 PDF文件 3.39MB 热度 24次
HOW TO EASILY DEPLOY DEEP LEARNING MODELS IN PRODUCTION 胡麟 linh@ 2019.10.22 TENSORRT INFERENCE SERVER (TRTIS) Inference deployment challenges TensorRT Inference Server benefits Features AGENDA Deploy
下载地址
用户评论