pytorch学习笔记深度学习目标跟踪&&目标检测AI人工智能与数学之美

pytroch学习(二十一)—C++(libTorch)调用py

2019-01-14  本文已影响0人  侠之大者_7d3f

前言

当我们训练好一个CNN模型之后,可能要集成到项目工程中,或者移植到到不同的开发平台(比如Android, IOS), 一般项目工程或者App大多数采用C/C++, Java等语言,但是采用pytroch训练的模型用的是python语言,这样就存在一个问题,如何使用C/C++、Java调用预训练好的模型, 如果解决了这个问题,那么训练好的模型才可以走出实验室,在App中得到广泛应用。

本章内容将完整介绍pytroch预训练模型的C++调用,关于Java的调用,其实也不难,如果掌握了C++调用 pytorch模型的方法, Java可以通过JNI调用C++。


开发环境


配置libTorch

首先,在pytorch官网下载libtroch, 官网提供了win/linux/Mac系统编译好的库,省去了编译库的过程。

https://pytorch.org/

image.png

下载好之后,解压到一个路径即可。


image.png image.png image.png

测试一个简单demo

创建一个目录,example-app

image.png

新建2个文件


image.png
#include <torch/torch.h>
#include <iostream>

int main() {
  torch::Tensor tensor = torch::rand({2, 3});
  std::cout << tensor << std::endl;
}

cmake_minimum_required(VERSION 3.0 FATAL_ERROR)
project(example-app)

find_package(Torch REQUIRED)

add_executable(example-app example-app.cpp)
target_link_libraries(example-app "${TORCH_LIBRARIES}")
set_property(TARGET example-app PROPERTY CXX_STANDARD 11)

然后打开终端,输入:mkdir build

image.png

继续: cd build

开始编译:


image.png image.png

执行:


image.png

libTorch调用预训练好的性别分类模型

上面的例子是pytorch官网的demo, 下面本人模仿官方的demo, 将使用libTorch C++ API调用自己预训练好的.pth模型。

第一步

将预训练好的模型转换

import torch
import torchvision.models as models
import torch.nn as nn


# 载入预训练的型
model = models.squeezenet1_1(pretrained=False)
model.classifier[1] = nn.Conv2d(in_channels=512, out_channels=2, kernel_size=(1, 1), stride=(1, 1))
model.num_classes = 2
model.load_state_dict(torch.load('./model/model_squeezenet_utk_face_20.pth', map_location='cpu'))
model.eval()
print(model)

# model = models.resnet18(pretrained=True)
# print(model)

example = torch.rand(1, 3, 224, 224)

traced_script_module = torch.jit.trace(model, example)

output = traced_script_module(torch.ones(1, 3, 224, 224))
print(output)


# ----------------------------------
traced_script_module.save("./model/model_squeezenet_utkface.pt")


第二步

编写C++代码

由于涉及到图像的加载与处理,本人使用opencv进行读取和处理。

Tips:
训练过程中,采用PIL.Image加载图像(3通道 RGB),然后Resize到224 x 224大小, 之后再进行ToTensor。因此使用C++ libTorch时候也需要按照上述过程对图像进行预处理。

  1. cv::imread() 默认读取为三通道BGR,需要进行B/R通道交换,这里采用 cv::cvtColor()实现。

  2. 缩放 cv::resize() 实现。

  3. opencv读取的图像矩阵存储形式:H x W x C, 但是pytorch中 Tensor的存储为:N x C x H x W, 因此需要进行变换,就是np.transpose()操作,这里使用tensor.permut()实现,效果是一样的。

  4. 数据归一化,采用tensor.div(255) 实现。

#include <torch/script.h> // One-stop header.
#include <opencv2/opencv.hpp>
#include <iostream>
#include <memory>

//https://pytorch.org/tutorials/advanced/cpp_export.html

string image_path = "/home/weipenghui/Project-dev/Cpp/testLibTorch2/image";

int main(int argc, const char* argv[]) {

    // Deserialize the ScriptModule from a file using torch::jit::load().
    std::shared_ptr<torch::jit::script::Module> module = torch::jit::load("/home/weipenghui/Project-dev/Cpp/testLibTorch2/model/model_squeezenet_utkface.pt");

    assert(module != nullptr);
    std::cout << "ok\n";


    //输入图像
    auto image = cv::imread(image_path +"/"+ "7.jpg",cv::ImreadModes::IMREAD_COLOR);
    cv::Mat image_transfomed;
    cv::resize(image, image_transfomed, cv::Size(224, 224));
    cv::cvtColor(image_transfomed, image_transfomed, cv::COLOR_BGR2RGB);

    // 图像转换为Tensor
    torch::Tensor tensor_image = torch::from_blob(image_transfomed.data, {image_transfomed.rows, image_transfomed.cols,3},torch::kByte);
    tensor_image = tensor_image.permute({2,0,1});
    tensor_image = tensor_image.toType(torch::kFloat);
    tensor_image = tensor_image.div(255);

    tensor_image = tensor_image.unsqueeze(0);


    // 网络前向计算
    // Execute the model and turn its output into a tensor.
    at::Tensor output = module->forward({tensor_image}).toTensor();

    auto max_result = output.max(1,true);
    auto max_index = std::get<1>(max_result).item<float>();

    if (max_index == 0){
        cv::putText(image, "male", cv::Point(50, 50), 1, 1,cv::Scalar(0, 255, 255));
    }else{
        cv::putText(image, "female", cv::Point(50, 50), 1, 1,cv::Scalar(0, 255, 255));
    }

    cv::imwrite("./result7.jpg", image);

    //cv::imshow("image", image);
    //cv::waitKey(0);


//    at::Tensor prob = torch::softmax(output,1);
//    auto prediction = torch::argmax(output, 1);
//
//    auto aa = prediction.slice(/*dim=*/0, /*start=*/0, /*end=*/2).item();
//
//    std::cout << output.slice(/*dim=*/1, /*start=*/0, /*end=*/2) << '\n';
//    std::cout << prob.slice(/*dim=*/1, /*start=*/0, /*end=*/2) << '\n';
//    std::cout <<prediction.slice(/*dim=*/0, /*start=*/0, /*end=*/2)<<"\n";

}


编写CMakeLists.txt文件
目的是将libTorch, opencv配置好,确保程序可以正常编译链接。

cmake_minimum_required(VERSION 3.0 FATAL_ERROR)
project(custom_ops)

#include_directories(/home/weipenghui/Lib-dev/opencv_3.4.3_contrib/opencv-3.4.3/build/install_cv/include)
# set(CMAKE_PREFIX_PATH "/home/weipenghui/Lib-dev/opencv_3.4.3_contrib/opencv-3.4.3/build/install_cv")
find_package(OpenCV REQUIRED)

set(CMAKE_PREFIX_PATH
        /home/weipenghui/Lib-dev/libtorch-shared-with-deps-latest/libtorch
        /home/weipenghui/Lib-dev/opencv_3.4.3_contrib/opencv-3.4.3/build/install_cv)

find_package(Torch REQUIRED)



add_executable(example-app main.cpp)
target_link_libraries(example-app ${TORCH_LIBRARIES} ${OpenCV_LIBS})
set_property(TARGET example-app PROPERTY CXX_STANDARD 11)

识别结果

result.jpg result2.jpg result3.jpg result4.jpg result5.jpg result6.jpg result7.jpg

End

参考:
https://pytorch.org/cppdocs/installing.html
https://pytorch.org/tutorials/advanced/cpp_export.html

上一篇下一篇

猜你喜欢

热点阅读