pytorch cpp inference:在C ++中将PyTorch 1.0模型用作Web服务器 源码
在C ++中服务PyTorch模型 该存储库包含使用PyTorch C ++ API进行推理的各种示例。 运行git clone https://github.com/Wizaron/pytorch-cpp-inference以便克隆此存储库。 环境 Dockerfiles可以在这里找到docker目录。 有两个dockerfile; 一个用于cpu,另一个用于cuda10。 为了构建docker镜像,您应该转到docker/cuda10 docker/cpu或docker/cuda10目录并运行docker/cuda10 docker build -t . docker/
下载地址
用户评论