安装
1. 官网下载tensorRT的安装包,解压即可,使用时在CMakeLists里指定头文件和库文件位置即可。不推荐使用deb文件安装,因为它要求配置文件也是deb文件安装。
2. 下载对应的cuda版本和cudnn版本,cuda版本一定要严格对应。
我的配置是ubuntu16.04,cuda9.0,cudnn7.3
cudnn版本我没使用官网指定的7.6,虽然会警告,程序还是可以运行。
Hello World
运行sample里的mnist程序。
在sample/sampleMNIST下编译后在根目录bin文件夹下执行即可
cd /TensorRT-6.0.1.5/samples/sampleMNIST/
make
cd ../../bin/
./sample
运行结果:
$ ./sample_mnist
&&&& RUNNING TensorRT.sample_mnist # ./sample_mnist
[09/29/2019-15:46:14] [I] Building and running a GPU inference engine for MNIST
[09/29/2019-15:46:14] [W] [TRT] TensorRT was linked against cuDNN 7.6.3 but loaded cuDNN 7.3.0
[09/29/2019-15:46:15] [I] [TRT] Detected 1 inputs and 1 output network tensors.
[09/29/2019-15:46:15] [W] [TRT] TensorRT was linked against cuDNN 7.6.3 but loaded cuDNN 7.3.0
[09/29/2019-15:46:15] [W] [TRT] TensorRT was linked against cuDNN 7.6.3 but loaded cuDNN 7.3.0
[09/29/2019-15:46:15] [I] Input:
@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@@@@@@@@@@@@@@@@.*@@@@@@@@@@
@@@@@@@@@@@@@@@@.=@@@@@@@@@@
@@@@@@@@@@@@+@@@.=@@@@@@@@@@
@@@@@@@@@@@% #@@.=@@@@@@@@@@
@@@@@@@@@@@% #@@.=@@@@@@@@@@
@@@@@@@@@@@+ *@@:-@@@@@@@@@@
@@@@@@@@@@@= *@@= @@@@@@@@@@
@@@@@@@@@@@. #@@= @@@@@@@@@@
@@@@@@@@@@= =++.-@@@@@@@@@@
@@@@@@@@@@ =@@@@@@@@@@
@@@@@@@@@@ :*## =@@@@@@@@@@
@@@@@@@@@@:*@@@% =@@@@@@@@@@
@@@@@@@@@@@@@@@% =@@@@@@@@@@
@@@@@@@@@@@@@@@# =@@@@@@@@@@
@@@@@@@@@@@@@@@# =@@@@@@@@@@
@@@@@@@@@@@@@@@* *@@@@@@@@@@
@@@@@@@@@@@@@@@= #@@@@@@@@@@
@@@@@@@@@@@@@@@= #@@@@@@@@@@
@@@@@@@@@@@@@@@=.@@@@@@@@@@@
@@@@@@@@@@@@@@@++@@@@@@@@@@@
@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@@@@@@@@@@@@@@@@@@@@@@@@@@@@
@@@@@@@@@@@@@@@@@@@@@@@@@@@@
[09/29/2019-15:46:15] [I] Output:
0:
1:
2:
3:
4: **********
5:
6:
7:
8:
9:
&&&& PASSED TensorRT.sample_mnist # ./sample_mnist
报错:
libnvinfer.so.5: cannot open shared object file: No such file or directory
将对应的库文件从tensorRT/lib/下拷贝到/usr/lib下,再重新编译sampleMNIST
来源:CSDN
作者:meng825
链接:https://blog.csdn.net/meng825/article/details/103968306