Windows11环境下VS2019调用Pytorch语义分割模型(C++版)

这篇具有很好参考价值的文章主要介绍了Windows11环境下VS2019调用Pytorch语义分割模型(C++版)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

         语义分割模型在训练时往往采用python脚本进行网络搭建和训练,并获得训练好的模型。为了提高效率方便整个工程项目部署,实际工程应用中通常希望使用C++编程语言调用训练好的网络模型。查询大量网络资料并踩过无数坑后,经实际测试实现了在window11环境下调用pytorch语义分割模型,具体实现步骤记录如下。

一、系统环境参数

电脑系统:window11
VS版本:2019
pytorch版本:2.1
CUDA版本:cuda11
python版本:3.9.17

二、pytorch模型转换

在C++环境下调用pytorch网络模型,首先需要将其转换为能够识别和调用的网络模型(.pt格式)。新建python脚本实现模型转换。实现代码如下:

import torch
import torchvision

device = torch.device('cuda') if torch.cuda.is_available() else torch.device('cpu')

filenameCheckpoint = '../checkpoints/checkpoint_end.pth.tar'

checkpoint = torch.load(filenameCheckpoint)

model = checkpoint['arg']

model.load_state_dict(checkpoint['state_dict'])
model.cuda(device)

input_img_rand = torch.rand(1, 3, 608, 608).cuda()
traced_script_module = torch.jit.trace(model, input_img_rand)
traced_script_module.save('forign_detect_model-gpu.pt')

model.cpu()
input_img_rand_cpu = torch.rand(1, 3, 608, 608)
traced_script_module = torch.jit.trace(model, input_img_rand_cpu)
traced_script_module.save("forign_detect_model-cpu.pt")

三、libtorch库下载

这个库是实现模型调用的关键,进入pytorch官网即可下载,下载时参数选择如下图,本文下载的是release版本,下载链接如下:libtorch。下载完成后解压到固定目录即可。


Windows11环境下VS2019调用Pytorch语义分割模型(C++版),pytorch,人工智能,python,c++,语义分割

 四、VS2019环境配置

打开vs2019,创建空项目,新建main.cpp。注意切换选择为x64模式。打开项目属性页进行环境配置。属性页中C/C++->常规->附件包含目录。添加头文件路径(根据libtorch实际的路径修改),如下图所示。后期会使用到opencv,需要进行 opencv环境配置
Windows11环境下VS2019调用Pytorch语义分割模型(C++版),pytorch,人工智能,python,c++,语义分割然后配置 链接器->常规->附加库目录,配置如下图:
Windows11环境下VS2019调用Pytorch语义分割模型(C++版),pytorch,人工智能,python,c++,语义分割

 继续配置依赖项:链接器->输入->附加依赖项。如下图所示:
Windows11环境下VS2019调用Pytorch语义分割模型(C++版),pytorch,人工智能,python,c++,语义分割

 为方便输入,依赖项如下:

asmjit.lib
c10.lib
c10_cuda.lib
caffe2_nvrtc.lib
clog.lib
cpuinfo.lib
dnnl.lib
fbgemm.lib
fbjni.lib
kineto.lib
libprotobuf.lib
libprotobuf-lite.lib
libprotoc.lib
nvfuser_codegen.lib
pthreadpool.lib
pytorch_jni.lib
torch.lib
torch_cpu.lib
torch_cuda.lib
XNNPACK.lib
opencv_world346.lib(根据OpenCV版本进行修改)

最后是调试的环境配置,如下图所示:
Windows11环境下VS2019调用Pytorch语义分割模型(C++版),pytorch,人工智能,python,c++,语义分割 配置如下:PATH=D:\CODES\forign_detectC++\libtorch\lib;E:\opencv\build\x64\vc15\bin(需要根据实际库的安装路径修改)。

值得注意的是由于我的pytorch版本较高为2.1,需要使用c++17才能编译成功。因此需要配置C++17,如下图所示。
Windows11环境下VS2019调用Pytorch语义分割模型(C++版),pytorch,人工智能,python,c++,语义分割

 至此,环境配置环境,接下来开始模型调用实现。

五、pytorch模型调用

main.cpp中完整调用代码如下:输入一张测试图,调用语义分割模型,最后获得语义分割图像。
 

#include <torch/script.h>
#include <opencv2/opencv.hpp>
#include <iostream>
#include <torch/torch.h>

int main()
{

    torch::DeviceType device_type;
    if (torch::cuda::is_available()) {
        std::cout << "CUDA available! Predicting on GPU." << std::endl;
        device_type = torch::kCUDA;
    }
    else {
        std::cout << "Predicting on CPU." << std::endl;
        device_type = torch::kCPU;
    }

    torch::Device device(device_type);
    //模型加载
    std::string model_pb = "D:\\CODES\\forign_detectC++\\testPro\\forign_detect_model-gpu.pt";
    auto module = torch::jit::load(model_pb);
    module.to(at::kCUDA);
//测试图像加载
    auto image = cv::imread("testimg.png", cv::ImreadModes::IMREAD_COLOR);
    cv::Mat image_transfomed;
    cv::resize(image, image_transfomed, cv::Size(image.rows, image.cols));
    cv::cvtColor(image_transfomed, image_transfomed, cv::COLOR_BGR2RGB);

//转为适合训练的张量维度
    torch::Tensor tensor_image = torch::from_blob(image_transfomed.data,
        { image_transfomed.rows, image_transfomed.cols,3 }, torch::kByte);

    tensor_image = tensor_image.permute({ 2,0,1 });
    tensor_image = tensor_image.toType(torch::kFloat);
    tensor_image = tensor_image.div(255);
    tensor_image = tensor_image.unsqueeze(0);
    tensor_image = tensor_image.to(at::kCUDA);

    torch::Tensor output = module.forward({ tensor_image }).toTensor();
//获取预测结果
    torch::Tensor pred_out = output[0];


//
    std::tuple<torch::Tensor, torch::Tensor> img_reverse_one_hot = torch::max(pred_out, 0);

//类别的最大值
    torch::Tensor img_max_value = std::get<0>(img_reverse_one_hot);
//类别最大值索引
    torch::Tensor img_max_index = std::get<1>(img_reverse_one_hot);

    img_max_index = img_max_index.to(torch::kU8);
    img_max_index = img_max_index.to(torch::kCPU);
     
//tensor 转cv::Mat
    cv::Mat img_max_index_mat(image_transfomed.rows, image_transfomed.cols, CV_8U);
    std::memcpy((void*)img_max_index_mat.data, img_max_index.data_ptr(), sizeof(torch::kU8) * img_max_index.numel());

//给预测结果赋值颜色
    cv::Mat coloredImg(image_transfomed.rows, image_transfomed.cols, CV_8UC3);
    const cv::Vec3b colorMap[] =
    {
        cv::Vec3b(0,0,0),
        cv::Vec3b(255,0,0)
    };

    for (int x = 0; x < coloredImg.rows; x++)
    {
        for (int y = 0; y < coloredImg.cols; y++)
        {
            int label = img_max_index_mat.at<uchar>(x, y);
            coloredImg.at<cv::Vec3b>(x, y) = colorMap[label];
        }
    }
//转BGR
    cv::cvtColor(coloredImg, coloredImg, cv::COLOR_RGB2BGR);
//与原图合并
    cv::bitwise_or(image, coloredImg, coloredImg);
    cv::imwrite("output.png", coloredImg);

    return 0;
}

 六、调试过程中遇到的坑

1.vs版本问题,之前使用vs2017,编译一直有问题,即便主函数什么都没有,仅包含头文件也会报错,折腾好几天,换成vs2019就没问题。

2.libtorch的版本问题,由于我当时下载的是release版本,但vs里面却设置了debug版本,导致程序一运行就会出现debug error abort has been called。因此,需要注意libtorch的版本和vs运行时的模式保持一致。同样注意vs里设置x64模式。
3.c++17问题:pytorh2.1必须使用c++17才能顺利编译,否则会报C++无法编译pytorch的问题,因此需要在vs中的“语言”模块中配置c++17。文章来源地址https://www.toymoban.com/news/detail-634286.html

到了这里,关于Windows11环境下VS2019调用Pytorch语义分割模型(C++版)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • windows驱动开发-vs2019-vs2022 WDK开发环境搭建

    QQ群: 852283276 微信: arm80x86 微信公众号: 青儿创客基地 B站:主页 https://space.bilibili.com/208826118 好久不开发Windows驱动,现在又变天了,微软的工具更新的非常快,Visual Studio和WDK都发了新版本,推荐安装新版本,但如果非想安装老版本,也可以。Visual Studio 2022不支持Windows 1

    2024年02月04日
    浏览(60)
  • Windows环境下C++ 安装OpenSSL库 源码编译及使用(VS2019)

    参考文章 https://blog.csdn.net/xray2/article/details/120497146 之所以多此一举自己写多一篇文章,主要是因为原文内容还是不够详细。而且我安装的时候碰到额外的问题。 一般情况下,引入别人的库,要么把代码直接搞进去,一起编译。要么引入库和头文件(就像MYSQL那样),都不复杂

    2024年02月14日
    浏览(31)
  • 计算机视觉基础(11)——语义分割和实例分割

    在这节课,我们将学习 语义分割和实例分割 。在语义分割中,我们需要重点掌握语义分割的 概念、常用数据集、评价指标(IoU)以及经典的语义分割方法(Deeplab系列) ;在实例分割中,需要知道实力分割可以近似看为“ 目标检测+语义分割 ”,需要知道 Mask R-CNN方法的计算

    2024年01月23日
    浏览(41)
  • 憨批的语义分割重制版11——Keras 搭建自己的HRNetV2语义分割平台

    最近学了一下HRnet,代码真的好难看懂,还只有Pytorch版本的,Keras复现很有难度,作者写的逻辑很厉害,只能慢慢攻破啦! 传统的卷积神经网络模型是自上而下不断进行特征提取的,如VGG、Mobilenet、Resnet系列等,VGG网络中存在5个步长为(2, 2)最大池化,Mobilenet网络中存在5个步

    2023年04月21日
    浏览(35)
  • 语义分割系列7-Attention Unet(pytorch实现)

    继前文Unet和Unet++之后,本文将介绍Attention Unet。 Attention Unet地址,《Attention U-Net: Learning Where to Look for the Pancreas》。 Attention Unet发布于2018年,主要应用于医学领域的图像分割,全文中主要以肝脏的分割论证。 Attention Unet主要的中心思想就是提出来Attention gate模块,使用soft-at

    2024年02月06日
    浏览(26)
  • 图像语义分割 pytorch复现U2Net图像分割网络详解

    U2-Net: Going Deeper with Nested U-Structure for Salient Object Detection 网络的主体类似于U-Net的网络结构,在大的U-Net中,每一个小的block都是一个小型的类似于U-Net的结构,因此作者取名U2Net 仔细观察,可以将网络中的block分成两类: 第一类 :En_1 ~ En_4 与 De_1 ~ De_4这8个block采用的block其实是

    2024年01月22日
    浏览(37)
  • 耕地单目标语义分割实践——Pytorch网络过程实现理解

    (一)普通卷积(Convolution) (二)空洞卷积(Atrous Convolution)         根据空洞卷积的定义,显然可以意识到空洞卷积可以提取到同一输入的不同尺度下的特征图,具有构建特征金字塔的基础。 (三)深度可分离卷积(Depthwise-Separable Convolution)         在对深度可分离卷

    2024年02月11日
    浏览(29)
  • windows11+GPU1060安装强化学习环境之pytorch

    这里大家看一个视频系列,讲得非常详细,链接在此:https://www.bilibili.com/video/BV1S5411X7FY?p=28vd_source=3be739b673e1151850f4b8060ac78e1a 这里主要是说我遇到的问题以及解决办法。 首先,我的笔记本是有显卡的,只不过算力为6,较低,但是已经差不多了,主要是想在windows上操作,嗯,还

    2024年01月19日
    浏览(37)
  • 【Bubbliiiing视频记录】Pytorch 搭建自己的Unet语义分割平台

    b站 地址 语义分割:对图像每个像素点进行分类 常见神经网络处理过程:Encoder提取特征,接着Docoder恢复成原图大小的图片 分为三个部分 主干特征提取部分: 卷积和最大池化的堆叠 获得五个初步有效特征层 加强特征提取部分: 五个初步有效特征层进行上采样 + 特征融合

    2024年02月12日
    浏览(30)
  • 【Python&语义分割】Segment Anything(SAM)模型全局语义分割代码+掩膜保存(二)

    我上篇博文分享了Segment Anything(SAM)模型的基本操作,这篇给大家分享下官方的整张图片的语义分割代码(全局),同时我还修改了一部分支持掩膜和叠加影像的保存。 1.1 概况         Meta AI 公司的 Segment Anything 模型是一项革命性的技术,该模型能够根据文本指令或图像

    2024年02月03日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包