Windows下Python+PyCharm+miniconda+Cuda/GPU 安装步骤

这篇具有很好参考价值的文章主要介绍了Windows下Python+PyCharm+miniconda+Cuda/GPU 安装步骤。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 官网安装Python 3.9

Python Release Python 3.9.0 | Python.org

2. 安装pycharm

https://download.jetbrains.com/python/pycharm-professional-2023.3.2.exe

3. 安装miniconda

Miniconda — miniconda documentation

4. 安装完miniconda 创建虚拟环境

conda create -n wave2 python=3.9

conda activate wave2

6. 安装依赖包

pip install numpy

pip show numpy

显示c:\users\xx\.conda\envs\wave2\lib\site-packages

7. Python安装cuda 参考资料

Python+PyCharm+PyTorch+Cuda/GPU 安装步骤_python 中使用pycharam 使安装cuda-CSDN博客

nvidia-smi

有Nvidia显卡,想用GPU跑程序时

先查版本!
(1) 确定显卡支持的cuda版本
在cmd命令行中输入命令:“nvidia-smi”回车(如提示命令不可用,可先执行命令:cd C:\Program Files\NVIDIA Corporation\NVSMI)

NVIDIA-SMI 546.01                

Driver Version: 546.01      

CUDA Version: 12.3

Windows下Python+PyCharm+miniconda+Cuda/GPU 安装步骤,linux,运维,服务器文章来源地址https://www.toymoban.com/news/detail-783493.html

import torch
import time

def simulate_gpu_load_torch(usage_percentage, duration):
    # 检查是否有可用的GPU,如果没有,将使用CPU
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")

    # 模拟 GPU 计算任务
    data = torch.rand((1000, 1000), device=device)
    result = torch.matmul(data, data)

    # 控制 GPU 使用率
    busy_time = duration * (usage_percentage / 100)
    idle_time = duration - busy_time
    start_time = time.time()

    while (time.time() - start_time) < duration:
        result = torch.matmul(data, data)
        time.sleep(busy_time)

        # 空闲时间不进行计算
        time.sleep(idle_time)

# 控制 GPU 使用率为50%,持续10秒
simulate_gpu_load_torch(50, 10)
from ast import Break
import torch
import torch.nn as nn
import os
torch.backends.cudnn.benchmark = False  # 关闭 CuDNN 的 benchmark 模式
torch.backends.cudnn.deterministic = True  # 开启 deterministic 模式
torch.cuda.empty_cache()  # 清理未使用的 GPU 内存

# 设置设备
device = torch.device('cuda') 
global memory_used
# 模型
# model = nn.Sequential(
#   nn.Linear(1024, 2048),
#   nn.ReLU(),
#   nn.Linear(2048, 4096),  # 更多神经元
#   nn.ReLU(),
#   nn.Linear(4096, 8192),  # 更多神经元
#   nn.ReLU(),
#   nn.Linear(8192, 4096),  # 更多神经元
#   nn.ReLU(),
#   nn.Linear(4096, 2048),  # 更多神经元
#   nn.ReLU(),
#   nn.Linear(2048, 1024)
# ).to(device)
model = nn.Sequential(
  nn.Linear(1024, 512),
  nn.ReLU(),
  nn.Linear(512, 1024),
  nn.ReLU(),
  nn.Linear(1024, 2048),  # 更多神经元
  nn.ReLU(),
  nn.Linear(2048, 4096),  # 更多神经元
  nn.ReLU(),
  nn.Linear(4096, 2048),  # 更多神经元
  nn.ReLU(),
  nn.Linear(2048, 4096),  # 更多神经元
  nn.ReLU(),
  nn.Linear(4096, 2048),  # 更多神经元
  nn.ReLU(),
  nn.Linear(2048, 4096),  # 更多神经元
  nn.ReLU(),
  nn.Linear(4096, 2048),  # 更多神经元
  nn.ReLU(),
  nn.Linear(2048, 1024),  # 更多神经元
  nn.ReLU(),
  nn.Linear(1024, 512),
  nn.ReLU(),
  nn.Linear(512, 1024)
).to(device)
# 优化器
optimizer = torch.optim.SGD(model.parameters(), lr=0.1)

# 设置最大内存
max_memory = 4 * 1024 * 1024 * 1024
#max_memory = 4096
# 初始参数
batch_size = 1024
# batch_size =512
memory_used = 0
#torch.cuda.empty_cache()  # 关闭内存回收
#while memory_used < max_memory:
totalmemory_used =0 
while True:
  # 生成数据
  #count +=1
  #inputs = torch.rand(batch_size, 1024).to(device)
  inputs = torch.rand(batch_size, 1024).to(device)
  # 前向传播  
  outputs = model(inputs)

  # 反向传播和优化
  loss = outputs.mean()
  loss.backward()
  optimizer.step()
  device = torch.device('cuda')  # 或者 'cuda:0',如果有多个GPU

  # 获取当前GPU的显存占用量
  memory_used = torch.cuda.memory_allocated(device)

  # 将字节转换为兆字节(MB)
  memory_used_mb = memory_used / (1024 * 1024)
  totalmemory_used += memory_used_mb
  print(totalmemory_used)

  torch.cuda.empty_cache()

  # if count == 10:
  #   break
  # 更新内存和batchsize
  #memory_used += 1024 * 1024 * 1024
  # if int(torch.cuda.memory_allocated(device)) >= max_memory:
  #   break
  os.system('nvidia-smi')
  #if totalmemory_used > 4096:
  #  break
  #batch_size += 1024
  

到了这里,关于Windows下Python+PyCharm+miniconda+Cuda/GPU 安装步骤的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Windows安装tensorflow-gpu(1050Ti,cuda11.6,cuDNN7.6.5,python3.6,tensorflow-gpu2.3.0)

    参考:https://blog.csdn.net/qq_43215538/article/details/123852028 首先查看本机GPU对应的cuda版本,如下图所示,本机cuda版本为11.6,后面选择的cuda版本不要超过这里的版本就好。 https://developer.nvidia.com/cuda-toolkit-archive选择相应的cudatoolkit版本下载,如这里选择版本一定要注意,因为cuda版本

    2023年04月08日
    浏览(44)
  • windows10系统PYthon深度学习环境安装(Anaconda3、PYthon3.10、CUDA11.6、CUDDN10、pytorch、tensorflow,Pycharm)

    一、 總體说明 1、說明:總體採用https://blog.csdn.net/zhizhuxy999/article/details/90442600方法,部分步驟由於版本變化,進行了調整。 2、基本概念 编程语言/编译器:Python。Python的特点是“用最少的代码干最多的事”。Python 2即在2020年停止更新,所以现在学习Python 3是最好的选择。 P

    2023年04月18日
    浏览(78)
  • windows10:CUDA、GPU 版本的torch安装

            前期环境准备:anaconda、pycharm版本不作具体要求         windows10打开命令行  Windows用户: win+R - 输入cmd   然后点击“运行” - conda  检查是否conda安装成功          若没有安装好,则 安装conda Windows用户: win+R - 输入cmd   然后点击“运行” - 输入nvidia-smi  检查

    2024年02月13日
    浏览(44)
  • windows10,CUDA、GPU 版本的torch安装

            前期环境准备:anaconda、pycharm版本不作具体要求         windows10打开命令行  Windows用户: win+R - 输入cmd   然后点击“运行” - conda  检查是否conda安装成功          若没有安装好,则 安装conda Windows用户: win+R - 输入cmd   然后点击“运行” - 输入nvidia-smi  检查

    2024年02月08日
    浏览(63)
  • openCV的CUDA GPU 版本安装 (Ubuntu windows 通用)

    需要做template match, 比较注重时间,因此opencv 的普通版本不适用。需要用GPU 的。 4090的GPU 测试: 使用普通的python-opencv template match 耗时0.089秒。 GPU 版本:0.0065秒 快了13.69倍 Oh YEAH, case sealed 1: visual studio (不是vs code)

    2024年01月22日
    浏览(42)
  • Windows安装GPU环境CUDA、深度学习框架Tensorflow和Pytorch

    Windows安装GPU环境CUDA、深度学习框架Tensorflow和Pytorch 首先需要安装GPU环境,包括cuda和cudnn。 深度学习本质上就是训练深度卷积神经网络。 cuda:显卡能够完成并行计算任务,所有的操作是比较底层的、复杂的。 cudnn:在cuda之上有一个专门用于深度神经网络的SDK库来加速完成相

    2023年04月26日
    浏览(56)
  • 【TensorFlow】P0 Windows GPU 安装 TensorFlow、CUDA Toolkit、cuDNN

    TensorFlow 是一个基于数据流图的深度学习框架 TensorFlow是一个基于数据流图的深度学习框架,它使用张量(Tensor)作为数据的基本单位,在GPU上进行张量运算可以极大地提高深度学习模型的训练和推理速度。而CUDA则提供了在GPU上执行高性能并行计算所需的API和运行时环境,能

    2024年02月13日
    浏览(36)
  • windows 安装cuda和cudann步骤

    yolov5训练 图片标注 标注工具常用的两款是Labelme和LabelImg可以直接导出(github: heartexlabs/labelImg) 使用labeImg制作数据集 pip install pyqt5 lxml make qt5py3 python3 labelImg.py 转换工具(github: ultralytics/JSON2YOLO) windows使用gpu训练yolo模型 1,安装cuda 查看nvidia版本(控制面板 - 系统信息 - nvcuda64.dll) 版

    2024年02月11日
    浏览(46)
  • 配置Cuda及Cudnn,在Anaconda创建虚拟环境,安装GPU版Pytorch,并在Jupyter noterbook及Pycharm中调用【极其详细】

    目录  一、配置Cuda及Cudnn (一)下载Cuda 1、查看电脑自带的Cuda版本 2、下载相应版本Cuda安装包 3、安装Cuda 4、配置变量 (二)下载Cudnn 二、创建虚拟环境 三、虚拟环境中安装GPU版Pytorch (一)有关环境的基本指令 (二)安装GPU版Pytorch 四、将虚拟环境在Jupyter noterbook及Pycha

    2024年04月28日
    浏览(60)
  • CUDA 11.7 版本下安装Tensorflow-gpu以及Keras (Windows以及Ubuntu)

    ​ 记录:在复现论文代码时碰到使用keras环境,于是在自己windows系统的台式机(RTX 3080;CUDA 11.7)上进行了安装,但是发现台式机的显存无法支持程序的运行。于是将一摸一样的环境配置到更大现存的Ubuntu服务器(CUDA 11.7)上,但配置环境出错,一直无法调用GPU。经过一天的

    2024年02月01日
    浏览(60)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包