Tesla M40 使用分享

这篇具有很好参考价值的文章主要介绍了Tesla M40 使用分享。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Tesla M40 使用分享

这是在咸鱼上花800元购买的的M40 12G显卡进行深度学习的使用说明(时间节点2022.1)

1.安装Tesla显卡驱动

  • 注意这里使用的Tesla显卡是专门的计算卡,所以没有视频输出接口,网上查到的资料说可以有两种使用方法,一是使用核心输出;二是使用另一张quadro亮机卡的双卡输出模式。

  • 注意安装M40等大于4G显存显卡前,一定要去BIOS里打开大于4G选项,不然无法正确识别显卡。

  • 这里我使用的是带核显的 Intel i7 8700,插上显卡就能在GPU-Z识别到M40

    详细的配置信息如下:

Tesla M40 使用分享
Tesla M40 使用分享

我查到的最新的支持M40的驱动版本是:NVIDIA Tesla Graphics Driver 426.23 for Windows 10 64-bit

网址如下:https://drivers.softpedia.com/get/GRAPHICS-BOARD/NVIDIA/NVIDIA-Tesla-Graphics-Driver-426-23-for-Windows-10-64-bit.shtml

2.安装对应CUDA版本

进入Nvidia官网查询一下对应能支持的CUDA版本,这里根据筛选条件及驱动版本426.23我选的是CUDA 10.1版本,因为这个版本支持的后续软件更多torch可以到1.8.1,不然选10.0.130只能安装torch1.4。
Tesla M40 使用分享

cuda 下载网址:https://developer.nvidia.com/cuda-10.1-download-archive-base

3.安装加速库cuDNN对应版本

这里我对应CUDA 10.1 版本在官网选择的是 cuDNN v8.0.5 for CUDA 10.1

Tesla M40 使用分享

官网:https://developer.nvidia.com/rdp/cudnn-archive

参考的csdn方法下载后将3个文件夹内文件复制到CUDA的安装目录中即可。

Tesla M40 使用分享

其中include里的头文件cudnn.h定义了如下常数指定了其cuDNN版本是8.0.5

#define CUDNN_MAJOR 8
#define CUDNN_MINOR 0
#define CUDNN_PATCHLEVEL 5

4.验证CUDA,cuDNN安装完成

这里最简单的验证方法就是在命令行中输入nvcc -V,如果输出如下类似信息说明安装成功,可以看到输出的是release 10.1, V10.1.243 表示10.1版本安装正确。

C:\Users\Marine>nvcc -V
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2019 NVIDIA Corporation
Built on Sun_Jul_28_19:12:52_Pacific_Daylight_Time_2019
Cuda compilation tools, release 10.1, V10.1.243

还可以去CUDA的安装目录运行测试软件。

Tesla M40 使用分享

  • deviceQuery.exe
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite>deviceQuery.exe
deviceQuery.exe Starting...

 CUDA Device Query (Runtime API) version (CUDART static linking)

Detected 1 CUDA Capable device(s)

Device 0: "Tesla M40"
  CUDA Driver Version / Runtime Version          10.1 / 10.1
  CUDA Capability Major/Minor version number:    5.2
  Total amount of global memory:                 11456 MBytes (12012355584 bytes)
  (24) Multiprocessors, (128) CUDA Cores/MP:     3072 CUDA Cores
  GPU Max Clock rate:                            1112 MHz (1.11 GHz)
  Memory Clock rate:                             3004 Mhz
  Memory Bus Width:                              384-bit
  L2 Cache Size:                                 3145728 bytes
  Maximum Texture Dimension Size (x,y,z)         1D=(65536), 2D=(65536, 65536), 3D=(4096, 4096, 4096)
  Maximum Layered 1D Texture Size, (num) layers  1D=(16384), 2048 layers
  Maximum Layered 2D Texture Size, (num) layers  2D=(16384, 16384), 2048 layers
  Total amount of constant memory:               zu bytes
  Total amount of shared memory per block:       zu bytes
  Total number of registers available per block: 65536
  Warp size:                                     32
  Maximum number of threads per multiprocessor:  2048
  Maximum number of threads per block:           1024
  Max dimension size of a thread block (x,y,z): (1024, 1024, 64)
  Max dimension size of a grid size    (x,y,z): (2147483647, 65535, 65535)
  Maximum memory pitch:                          zu bytes
  Texture alignment:                             zu bytes
  Concurrent copy and kernel execution:          Yes with 2 copy engine(s)
  Run time limit on kernels:                     No
  Integrated GPU sharing Host Memory:            No
  Support host page-locked memory mapping:       Yes
  Alignment requirement for Surfaces:            Yes
  Device has ECC support:                        Enabled
  CUDA Device Driver Mode (TCC or WDDM):         TCC (Tesla Compute Cluster Driver)
  Device supports Unified Addressing (UVA):      Yes
  Device supports Compute Preemption:            No
  Supports Cooperative Kernel Launch:            No
  Supports MultiDevice Co-op Kernel Launch:      No
  Device PCI Domain ID / Bus ID / location ID:   0 / 1 / 0
  Compute Mode:
     < Default (multiple host threads can use ::cudaSetDevice() with device simultaneously) >

deviceQuery, CUDA Driver = CUDART, CUDA Driver Version = 10.1, CUDA Runtime Version = 10.1, NumDevs = 1, Device0 = Tesla M40
Result = PASS
  • bandwidthTest.exe
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v10.1\extras\demo_suite>bandwidthTest.exe
[CUDA Bandwidth Test] - Starting...
Running on...

 Device 0: Tesla M40
 Quick Mode

 Host to Device Bandwidth, 1 Device(s)
 PINNED Memory Transfers
   Transfer Size (Bytes)        Bandwidth(MB/s)
   33554432                     11938.2

 Device to Host Bandwidth, 1 Device(s)
 PINNED Memory Transfers
   Transfer Size (Bytes)        Bandwidth(MB/s)
   33554432                     11964.2

 Device to Device Bandwidth, 1 Device(s)
 PINNED Memory Transfers
   Transfer Size (Bytes)        Bandwidth(MB/s)
   33554432                     210716.9

Result = PASS

NOTE: The CUDA Samples are not meant for performance measurements. Results may vary when GPU Boost is enabled.

5.Pytorch 安装

这里使用pip指令进行安装,遵循官网中的指令即可

pytorch.org/get-started/previous-versions/

这里在新建的conda环境 使用即可

# CUDA 10.1
pip install torch==1.8.1+cu101 torchvision==0.9.1+cu101 torchaudio==0.8.1 -f https://download.pytorch.org/whl/torch_stable.html

安装过程如下(会自动匹配你的python版本我这里是3.9版本所以后缀都是cp39):文章来源地址https://www.toymoban.com/news/detail-449437.html

(pyt) C:\Users\Marine>pip install torch==1.8.1+cu101 torchvision==0.9.1+cu101 torchaudio==0.8.1 -f https://download.pytorch.org/whl/torch_stable.html
Looking in links: https://download.pytorch.org/whl/torch_stable.html
Collecting torch==1.8.1+cu101
  Downloading https://download.pytorch.org/whl/cu101/torch-1.8.1%2Bcu101-cp39-cp39-win_amd64.whl (1306.6 MB)
     ---------------------------------------- 1.3/1.3 GB 1.9 MB/s eta 0:00:00
Collecting torchvision==0.9.1+cu101
  Downloading https://download.pytorch.org/whl/cu101/torchvision-0.9.1%2Bcu101-cp39-cp39-win_amd64.whl (1.6 MB)
     ---------------------------------------- 1.6/1.6 MB 11.4 MB/s eta 0:00:00
Collecting torchaudio==0.8.1
  Downloading torchaudio-0.8.1-cp39-none-win_amd64.whl (109 kB)
     ---------------------------------------- 109.3/109.3 KB 908.9 kB/s eta 0:00:00
Collecting numpy
  Downloading numpy-1.22.3-cp39-cp39-win_amd64.whl (14.7 MB)
     ---------------------------------------- 14.7/14.7 MB 1.1 MB/s eta 0:00:00
Collecting typing-extensions
  Downloading typing_extensions-4.1.1-py3-none-any.whl (26 kB)
Collecting pillow>=4.1.1
  Downloading Pillow-9.0.1-cp39-cp39-win_amd64.whl (3.2 MB)
     ---------------------------------------- 3.2/3.2 MB 1.0 MB/s eta 0:00:00
Installing collected packages: typing-extensions, pillow, numpy, torch, torchvision, torchaudio
Successfully installed numpy-1.22.3 pillow-9.0.1 torch-1.8.1+cu101 torchaudio-0.8.1 torchvision-0.9.1+cu101 typing-extensions-4.1.1

到了这里,关于Tesla M40 使用分享的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 第十一篇-Tesla P40+Text-Generation-Webui

    这里的安装需要访问github,注意自己网络可以访问github, 如果不能或者超时请重试 或者改用相应国内github镜像 把下载好的模型文件夹放到models目录下 通过不同文件夹区别模型 可以创建软连接 https://github.com/oobabooga/text-generation-webui 在安装text-generation-webui时如果出现cmake,gcc

    2024年02月09日
    浏览(26)
  • 第三篇-Tesla P40+CentOS-7+CUDA 11.7 部署实践

    系统:CentOS-7 CPU: 14C28T 显卡:Tesla P40 24G 准备安装 驱动: 515 CUDA: 11.7 cuDNN: 8.9.2.26 查看GPU信息 步骤一 查看是否安装了nouveau,有结果表示正在使用nouveau 步骤二 创建一个新的文件,在文件中加入下面两句代码 步骤三 步骤四 重启, 步骤五 验证是否禁用成功,没有结果表示禁用

    2024年02月15日
    浏览(45)
  • 第七篇-Tesla P40+ChatGLM2+P-Tuning

    https://huggingface.co/THUDM/chatglm2-6b 下载模型相关文件到自己目录 我的是/models/chatglm2-6b 创建环境安 一定注意数据中格式,符号中英文等等 train_loss 要小,如果1,2这种未调出的效果很差 如果调整了数据集,要清理缓存,缓存目录如下 /root/.cache/huggingface/datasets output/adgen-chatglm2-6b

    2024年02月13日
    浏览(36)
  • 第三篇-Tesla P40+CentOS7+CUDA 11.7 部署实践

    系统:CentOS-7 CPU: 14C28T 显卡:Tesla P40 24G 准备安装 驱动: 515 CUDA: 11.7 cuDNN: 8.9.2.26 查看GPU信息 步骤一 查看是否安装了nouveau,有结果表示正在使用nouveau 步骤二 创建一个新的文件,在文件中加入下面两句代码 步骤三 步骤四 重启, 步骤五 验证是否禁用成功,没有结果表示禁用

    2024年02月14日
    浏览(76)
  • R730服务器搭载专用的Tesla P40显卡:详细指南及示例代码

    在本篇文章中,我们将详细介绍R730服务器与搭载的专用显卡Tesla P40的相关信息,并提供一些示例代码来帮助您开始使用这个强大的组合。无需担心,我们将以易懂的方式进行讲解,使您能够快速上手。 R730服务器简介 Dell EMC PowerEdge R730是一款高性能的服务器,设计用于满足各

    2024年02月03日
    浏览(57)
  • 2022-10-24 dell R740服务器 安装显卡 NVIDIA Tesla P40 24GB

    在vsan下 给一台主机加装显卡Tesla P40 安装虚拟机驱动,注意一定要使用安装包内对应版本的驱动(使用不同版本可能会有问题) 安装驱动后,重启虚拟机,在控制台界面,看到“黑屏”,这是正常的。使用远程桌面RDP协议登录,或者Horizon连接服务器的方式登录。 更多其他参

    2024年02月12日
    浏览(37)
  • Windows10系统下YOLOv5配置(Tesla P40 24GB、CUDA10.2) 二、安装

    操作系统:Windows10 显卡: Tesla P40  24GB CUDA版本:10.2 YOLOv5版本:4.0 下载相应版本的CUDA按默认一路安装到底 下载相应版本的cuDNN,解压,将bin中、include中、lib中文件分别复制到CUDA相应安装目录 bin中文件  include中文件  lib中文件 Python Releases for Windows | Python.org The official home

    2024年02月07日
    浏览(33)
  • SpringBoot毕业设计40个项目分享(源码+论文)(一)

    🔥 这两年开始毕业设计和毕业答辩的要求和难度不断提升,传统的java web缺少创新和亮点,往往达不到毕业答辩的要求,这两年不断有学弟学妹告诉学长自己做的java web管理系统达不到老师的要求。 为了大家能够顺利以及最少的精力通过毕设,学长分享5个优质ssm+vue毕业设计

    2024年02月04日
    浏览(32)
  • 40基于java的美食菜谱分享系统设计与实现

    本章节给大家带来一个基于java的美食菜谱分享系统设计与实现,餐饮分享平台设计与实现,可用于美食在线分享平台,作为世界各地爱好美食的人们的桥梁,为其创造一个氛围好的平台,促进美食世界的文化交流。该系统是一个供商家或者个人推荐美食的网站,网站不支持交

    2024年02月07日
    浏览(28)
  • 40个高质量SSM毕设项目分享【源码+论文】

    🔥 这两年开始毕业设计和毕业答辩的要求和难度不断提升,传统的java web缺少创新和亮点,往往达不到毕业答辩的要求,这两年不断有学弟学妹告诉学长自己做的java web管理系统达不到老师的要求。 为了大家能够顺利以及最少的精力通过毕设,学长分享5个优质java web毕业设计

    2024年02月06日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包