- 安装与编译C++预测库
- 直接下载安装
- 从源码编译
安装与编译C++预测库
直接下载安装
版本说明 | 预测库(1.5.1版本) | 预测库(develop版本) |
---|---|---|
cpu_avx_mkl | fluid_inference.tgz | fluid_inference.tgz |
cpu_avx_openblas | fluid_inference.tgz | fluid_inference.tgz |
cpu_noavx_openblas | fluid_inference.tgz | fluid_inference.tgz |
cuda8.0_cudnn7_avx_openblas | fluid_inference.tgz | fluid_inference.tgz |
cuda8.0_cudnn7_avx_mkl | fluid_inference.tgz | fluid_inference.tgz |
cuda9.0_cudnn7_avx_mkl | fluid_inference.tgz | fluid_inference.tgz |
cuda10.0_cudnn7_avx_mkl | fluid_inference.tgz | fluid_inference.tgz |
从源码编译
用户也可以从 PaddlePaddle 核心代码编译C++预测库,只需在编译时配制下面这些编译选项:
选项 | 值 |
---|---|
CMAKE_BUILD_TYPE | Release |
FLUID_INFERENCE_INSTALL_DIR | 安装路径 |
WITH_PYTHON | OFF(推荐) |
ON_INFER | ON(推荐) |
WITH_GPU | ON/OFF |
WITH_MKL | ON/OFF |
建议按照推荐值设置,以避免链接不必要的库。其它可选编译选项按需进行设定。
下面的代码片段从github拉取最新代码,配制编译选项(需要将PADDLE_ROOT替换为PaddlePaddle预测库的安装路径):
- PADDLE_ROOT=/path/of/capigit clone https://github.com/PaddlePaddle/Paddle.gitcd Paddlemkdir buildcd buildcmake -DFLUID_INFERENCE_INSTALL_DIR=$PADDLE_ROOT \ -DCMAKE_BUILD_TYPE=Release \ -DWITH_PYTHON=OFF \ -DWITH_MKL=OFF \ -DWITH_GPU=OFF \ -DON_INFER=ON \ .. make make inference_lib_dist
成功编译后,使用C++预测库所需的依赖(包括:(1)编译出的PaddlePaddle预测库和头文件;(2)第三方链接库和头文件;(3)版本信息与编译选项信息)均会存放于PADDLE_ROOT目录中。目录结构如下:
- PaddleRoot/├── CMakeCache.txt├── paddle│ ├── include│ │ ├── paddle_anakin_config.h│ │ ├── paddle_analysis_config.h│ │ ├── paddle_api.h│ │ ├── paddle_inference_api.h│ │ ├── paddle_mkldnn_quantizer_config.h│ │ └── paddle_pass_builder.h│ └── lib│ ├── libpaddle_fluid.a│ └── libpaddle_fluid.so├── third_party│ ├── boost│ │ └── boost│ ├── eigen3│ │ ├── Eigen│ │ └── unsupported│ └── install│ ├── gflags│ ├── glog│ ├── mkldnn│ ├── mklml│ ├── protobuf│ ├── snappy│ ├── snappystream│ ├── xxhash│ └── zlib└── version.txt
version.txt 中记录了该预测库的版本信息,包括Git Commit ID、使用OpenBlas或MKL数学库、CUDA/CUDNN版本号,如:
- GIT COMMIT ID: cc9028b90ef50a825a722c55e5fda4b7cd26b0d6WITH_MKL: ONWITH_MKLDNN: ONWITH_GPU: ONCUDA version: 8.0CUDNN version: v7