Linux服务器下配置深度学习环境(PyTorch)

这篇具有很好参考价值的文章主要介绍了Linux服务器下配置深度学习环境(PyTorch)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

一. 安装anaconda

二. 创建虚拟环境

三. 安装PyTorch


在配置环境前,需要远程连接服务器,我选择使用MobaXterm,具体操作详见:

使用MobaXterm连接Linux服务器

一. 安装anaconda

Anaconda,中文大蟒蛇,是一个开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项。

1. 下载anaconda

在官网上查找自己需要的版本,地址链接如下:

https://repo.anaconda.com/archive/

以我自己安装的版本为例,在控制台输入这句话:

​wget https://repo.anaconda.com/archive/Anaconda3-2022.05-Linux-x86_64.sh

或者可以在官网直接下载,然后拖入服务器文件夹中安装

2. 安装anaconda

下载完成后输入以下命令来进行Anaconda的安装

sh Anaconda3-2022.05-Linux-x86_64.sh

遇到回车就回车, 一直回车到底部,遇到yes/no输入yes

linux配置pytorch,环境配置,linux,服务器,深度学习,pytorch,python

如见上述文字,说明已经安装完成,重启服务器后前面就增加了(base)

linux配置pytorch,环境配置,linux,服务器,深度学习,pytorch,python

3. 卸载anaconda

打开终端,然后删除整个Anaconda目录即可:

rm -rf ~/anaconda3

二. 创建虚拟环境

1. 创建虚拟环境

conda create -n lc_raft  python=3.7

创建名为lc_raft的python3.7的虚拟环境

2. 进入虚拟环境

conda activate lc_raft

环境由base变为了lc_raft,前面变成了(lc_raft)

更多conda指令,详见:Conda简介及常用指令

三. 安装PyTorch

1. 查看cuda版本

CUDA(Compute Unified Device Architecture),是显卡厂商NVIDIA推出的运算平台。 CUDA™是一种由NVIDIA推出的通用并行计算架构,该架构使GPU能够解决复杂的计算问题。

关于查看自己电脑上的CUDA版本,首先需要区分CUDA的两种API,即运行时API(Runtime API)和驱动API(Driver API),详见CUDA学习(一)——如何查看自己CUDA版本?

1.1. 运行时API(Runtime API)

查看运行时API 版本的前提是已将在电脑上安装了CUDA Toolkit

nvcc -V

linux配置pytorch,环境配置,linux,服务器,深度学习,pytorch,python

​​最下边一行是CUDA Runtime API的版本。

1.2. 驱动API(Driver API)

nvidia-smi

​​

右上角的CUDA Version便是CUDA Driver API版本。

总结:nvidia-smi版本大于nvcc -V的版本不会有什么问题,根据nvidia-smi版本下载pytorch即可。

2. 下载PyTorch

官网下载:

linux配置pytorch,环境配置,linux,服务器,深度学习,pytorch,python

​​找到后,复制安装代码,输入到控制台:

conda install pytorch torchvision torchaudio cudatoolkit=10.2 -c pytorch

弹出提示,输入 y,即可完成安装,显示“done”。

3. 测试安装

首先输入:python 然后在输入:import torch

linux配置pytorch,环境配置,linux,服务器,深度学习,pytorch,python

​​输出true即为成功,false不成功(可能是因为pytorch和cuda版本不匹配)

4. 查看pytorch版本

conda list

linux配置pytorch,环境配置,linux,服务器,深度学习,pytorch,python

5. 卸载Pytorch

5.1. 使用conda卸载

conda uninstall pytorch
conda uninstall libtorch

5.2. 使用pip卸载

pip uninstall torch

如果是用conda install 命令安装的pytorch,则用conda卸载,如果是用pip install命令安装的,则用pip卸载。

至此,深度学习环境就配好啦,冲冲冲!

我们在远程登录到Linux服务器后,有时运行需要很长时间才能完成的任务,在此期间不能关掉窗口或者断开连接,否则这个任务就会被终止。因此需要在后台离线运行程序,我选择使用screen离线运行程序,具体操作详见:

使用screen在后台离线运行程序(linux服务器)

还有,配置环境中遇到的专业名词(IP地址、端口、终端、显卡服务器......)文章来源地址https://www.toymoban.com/news/detail-738101.html

到了这里,关于Linux服务器下配置深度学习环境(PyTorch)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • vscode连接远程服务器 + Tensorflow2环境配置 + 深度学习训练

    参考:vscode连接远程服务器(傻瓜式教学) 配置服务器pytorch/TensorFlow环境+远程连接vscode 在远程服务器安装anoconda并创建tensorflow-gpu环境并运行jupyter 【vscode连接远程服务器】 step 1:测试服务器连接 win+R 进入 cmd,在命令行输入以下命令,并根据提示输入密码 step 2:安装 ssh 插

    2024年02月08日
    浏览(61)
  • 基于docker的ubuntu云服务器jupyter深度学习环境配置指南

    安装docker 文档中的命令如下: 如果回显如下所示,则说明成功: 安装Nvidia-docker 根据官方文档中的命令跑就行了 如果出现了以下回显,说明安装成功 需要注意的是,在运行最后一步命令时: sudo docker run --rm --runtime=nvidia --gpus all nvidia/cuda:11.6.2-base-ubuntu20.04 nvidia-smi 如果报错

    2024年02月13日
    浏览(85)
  • 深度学习环境搭建 2 AutoDL服务器配置及Xftp数据传输

    目录 1. 创建基于AutoDL的GPU环境 1. 1 租用实例 1.2  配置环境——激活conda 1.3 根据不同框架和GPU的操作 1.4   jupyter页面更新 1.5 电脑有网的情况下,jupyter显示“未连接成功”的解决办法  2.  安装Xftp 3. Xftp与AutoDL网盘连接 (环境配置可以选择无卡模式,费用低) 1. 算力市场

    2024年02月04日
    浏览(65)
  • 学校服务器安装anaconda并配置pytorch环境

    参考视频:远程服务器安装anaconda并配置pytorch环境 使用服务器运行项目,使用的是服务器的环境(即服务器的虚拟环境和其中的pytorch),与连接服务器的本机就是你的电脑应该是没有关系的。 链接:Anaconda官网 这是我下载的版本 Anaconda3-2023.09-0-Linux-x86_64.sh 将下载好的文件传

    2024年01月15日
    浏览(56)
  • 在服务器上安装pytorch并配置CUDA环境变量

    (1) 使用以下命令来查看安装在服务器上的NVIDIA驱动程序版本: 这将显示有关安装的NVIDIA驱动程序的详细信息,包括版本号。 (2)使用以下命令来查看CUDA版本: 本服务器上NVIDIA驱动程序版本:460.56;CUDA版本:11.2 (1)打开终端或命令提示符,并激活您的Anaconda环境(如果

    2024年04月26日
    浏览(51)
  • 在GPU服务器(Linux)上安装Anaconda和PyTorch环境

    Anaconda官网:https://repo.anaconda.com/archive/ 根据自己需要,复制安装包名字,以Anaconda3-2023.07-2-Linux-x86_64.sh为例 命名规则:Anaconda3-版本号-Linux-x86_64.sh 在终端输入命令, 下载 安装包 运行安装脚本 ,可以指定路径 bash 安装包名字 -p PATH -u 安装完成后, 设置环境变量 ,把Anaconda下

    2024年02月11日
    浏览(50)
  • 服务器机器学习环境搭建(包括AanConda的安装和Pytorch的安装)

    在学校中,我们在学校中是以用户的身份进行访问学校的服务器的。整体框架大致如下: 我们与root用户共享服务器的一些资源,比如显卡驱动,Cuda以及一些其他的公共软件。 一般情况下, 只有root用户,才有权力管理公共资源。比如Cuda的安装,更新等等。 普通用户可以进

    2024年03月17日
    浏览(57)
  • (深度学习)PyCharm 连接配置服务器

    需要 Pycharm 专业版 以 2022 版的 PyCharm 为例: 1. 连接服务器 File ---- Settings ---- Python Interpreter ---- Add Interpreter ---- On SSH 输入服务器的 Host、Port 和 Username ---- Next 输入密码 ---- Next Next 可以选择虚拟环境,我个人习惯选择下面那个 System Interpreter 选择本机项目地址和对应的服务器同

    2024年02月11日
    浏览(45)
  • 懒人式迁移服务器深度学习环境(完全不需要重新下载)

      换服务器了?想迁移原来服务器上的深度学习环境,但又觉得麻烦懒得重新安装一遍anaconda、pytorch?有没有办法能不费吹灰之力直接迁移?接下来跟着我一起,懒汉式迁移。    本方法适用于在同一内网下的两台服务器之间互相迁移,不在同一局域网下的话可能要弄内

    2023年04月16日
    浏览(47)
  • 新的Ubuntu服务器上如何安装深度学习环境的docker

    背景: 硬件:联想的双3090显卡 总共 48GB显存 4TB 刀片式服务器。 软件:只安装了nvidia的驱动,能用nvidia-smi查看显卡信息,但是 nvcc -V看不到东西。 镜像包是 nvidia_cu11_tf15.tar,里面包含 公司nvidia驱动和环境里的TensorFlow,torch 是不一样的。一开始担心 是不是 要 降级 Ubuntu下的

    2024年02月10日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包