免费使用高性能的GPU和TPU—谷歌Colab使用教程

这篇具有很好参考价值的文章主要介绍了免费使用高性能的GPU和TPU—谷歌Colab使用教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

楼主前一阶段在做视频插帧算法应用,鉴于在自己的本子上跑代码是在太慢,又不好意思在跑路后还是用学院的服务器账号,所以翻来覆去学会了在谷歌使用免费的算力进行模型训练和使用。在开始使用前,请您准备自己的Google账号并熟悉Jupyter Notebook的使用

1. Colab简介

什么是 Colab?
借助 Colaboratory(简称 Colab),您可在浏览器中编写和执行 Python 代码:

  1. 无需任何配置
  2. 免费使用 GPU和TPU
  3. 轻松共享

无论您是一名学生、数据科学家还是 AI 研究员,Colab 都能够帮助您更轻松地完成工作。

PS:Colab免费版一次只享有12个小时的使用时间,并且使用期间不能关闭浏览器。如果是富哥,可以开通付费订阅,拥有更高级的处理器,更大的内存和更长的运行时间,并且在浏览器关闭后仍能继续运行代码。

2. 使用准备

2.1 科学上网

Colab是谷歌旗下产品,由于众所周知的原因,谷歌的服务在中国大陆地区不能直接访问,所以请各显神通,楼主就不细说了。

2.2 Google Drive

由于Colab的服务器是共享机制,所以上面的数据和文件在离开Colab十二个小时会自动删除,为了保存我们的代码和数据,我们需要在Colab上挂载谷歌云盘(就是中间那个三角形辣)
免费使用高性能的GPU和TPU—谷歌Colab使用教程
在Google云盘下,新建colab文件夹以放置我们要在colab上运行的文件。并将要运行的工程文件上传到该文件夹下。

免费使用高性能的GPU和TPU—谷歌Colab使用教程免费使用高性能的GPU和TPU—谷歌Colab使用教程

3. Colab 使用

3.1 云硬盘挂载

找到上传的项目文件及,点击右键打开方式,选择关联更多应用。
免费使用高性能的GPU和TPU—谷歌Colab使用教程
搜索Colaboratory,使用Colab打开。
免费使用高性能的GPU和TPU—谷歌Colab使用教程
打开后会自动生成一个.ipynb文件,我们在这个文件里进行命令输入和执行

使用如下命令挂载谷歌云盘,挂载到/content/drive/目录下

from google.colab import drive
drive.mount('/content/drive')

免费使用高性能的GPU和TPU—谷歌Colab使用教程

使用如下命令将当前目录更改到指定的项目文件夹下面,xxx替换为自己的工程文件目录,并展示该目录下的所有文件和目录

import  os
#改变当前工作目录到谷歌云盘的路径
path="/content/drive/MyDrive/colab/xxx/"
os.chdir(path)
os.listdir(path)

3.2 硬件选择

点击代码执行程序,选择更改运行时类型,将运行加速器改为GPU,也可以使用TPU运算,这里不详叙述TPU及其代码框架。

免费使用高性能的GPU和TPU—谷歌Colab使用教程
免费使用高性能的GPU和TPU—谷歌Colab使用教程
免费使用高性能的GPU和TPU—谷歌Colab使用教程
等到连接成功后,使用!nvidia-smi命令可以查看当前使用的GPU设备,楼主作为白嫖怪好几次分到了Tesla T4(还行)
免费使用高性能的GPU和TPU—谷歌Colab使用教程

3.3 环境配置

Colab已经默认安装了PyTorch的环境,但是有一些其他的环境包需要自己安装。
注意:每次使用Colab前都需要配置环境,因为Colab在用户离开后会清空用户的文件和数据。
例如,使用pip安装FFmpeg

!pip install ffmpeg

3.4 运行程序

使用python命令运行python程序,例如文章来源地址https://www.toymoban.com/news/detail-441052.html

!python inference_video.py --exp=2 --video=50_2.mp4

到了这里,关于免费使用高性能的GPU和TPU—谷歌Colab使用教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 002. 使用最小堆实现高性能定时器实现

    定时器原理 – 任务的容器(要求:数据结构有序或相对有序;能快速查找最近触发的定时任务) + 触发条件(可以通过带有time_out的系统函数,如epoll_wait的最后一个参数); 最小堆的特点 – 是一颗完全二叉树; – 某个节点的值总是小于等于它子节点的值(即定位到最小值的时间

    2024年02月07日
    浏览(36)
  • 使用CentOS搭建高性能静态HTTP服务器

    在互联网应用中,静态内容是广泛存在的,例如HTML页面、图片、视频等。为了提供高效、稳定和安全的静态内容服务,我们可以使用CentOS来搭建高性能的静态HTTP服务器。 1. 选择合适的软件 Nginx和Apache是两个流行的HTTP服务器软件。Nginx以其高效、轻量级和快速的性能而著称,

    2024年01月23日
    浏览(48)
  • 使用 Keras 的 Stable Diffusion 实现高性能文生图

    在本文中,我们将使用基于 KerasCV 实现的 Stable Diffusion 模型进行图像生成,这是由 stable.ai 开发的文本生成图像的多模态模型。 Stable Diffusion 是一种功能强大的开源的文本到图像生成模型。虽然市场上存在多种开源实现可以让用户根据文本提示轻松创建图像,但 KerasCV 有一些

    2024年03月21日
    浏览(42)
  • 【斯坦福】FrugalGPT: 如何使用大型语言模型,同时降低成本并提高性能

    FrugalGPT: 如何使用大型语言模型,同时降低成本并提高性能 作者:Lingjiao Chen, Matei Zaharia, James Zou 本文介绍了一种新颖的方法,旨在解决使用大型语言模型(LLM)时面临的成本和性能挑战。随着GPT-4和ChatGPT等LLM的日益流行,我们需要找到降低这些模型推理成本的策略。作者强调

    2024年02月11日
    浏览(36)
  • linux系统下如何使用nginx作为高性能web服务器

    ✨✨ 欢迎大家来到景天科技苑✨✨ 🎈🎈 养成好习惯,先赞后看哦~🎈🎈 🏆 作者简介:景天科技苑 🏆《头衔》:大厂架构师,华为云开发者社区专家博主,阿里云开发者社区专家博主,CSDN新星创作者,掘金优秀博主,51CTO博客专家等。 🏆《博客》:Python全栈,前后端开

    2024年04月14日
    浏览(36)
  • 谷歌Colab 免费运行pytorch

    无论您是一名学生、数据科学家还是 AI 研究员,Colab 都能够帮助您更轻松地完成工作。 Colaboratory 简称“Colab”,是Google Research 团队开发的一款产品。 在Colab 中,任何人都可以通过浏览器编写和执行任意Python 代码。 它尤其适合机器学习、数据分析和教育目的。 从技术上来说

    2024年02月05日
    浏览(29)
  • c++高性能web框架drogon入门教程四,orm使用,csp使用

    2020年11月26日13:57:48 c++高性能web框架drogon入门教程一 linux环境搭建和demo运行 c++高性能web框架drogon入门教程二 windows10下安装drogon,配合vscoede搭建开发环境 c++高性能web框架drogon入门教程三 控制器和数据库客户端使用 c++高性能web框架drogon入门教程四 orm使用,csp使用 c++高性能web框

    2023年04月08日
    浏览(21)
  • Spring Boot进阶(67):高性能缓存!使用Spring Boot轻松集成Memcached。

            Memcached是一款高性能的分布式内存对象缓存系统,主要用于动态Web应用中减轻数据库负载。Spring Boot是一款基于Spring框架的快速开发框架,集成了大量的常用技术和组件,方便开发者快速搭建项目。将两者结合起来,可以提高Web应用的性能,并减少数据库的压力。

    2024年02月07日
    浏览(53)
  • 《高性能MySQL》——创建高性能的索引(笔记)

    索引(在MySQL中也叫做“键(key)”) 是存储引擎用于快速找到记录的一种数据结构。 索引对于良好的性能非常关键。尤其是当表中的数据量越来越大时,索引对性能的影响愈发重要。 在数据量较小且负载较低时,不恰当的索引对性能的影响可能还不明显,但当数据量逐渐增大时

    2024年02月07日
    浏览(92)
  • LLM实践-在Colab上使用免费T4 GPU进行Chinese-Llama-2-7b-4bit推理

    一、配置环境 1、打开colab,创建一个空白notebook,在[修改运行时环境]中选择15GB显存的T4 GPU. 2、pip安装依赖python包 注意此时,安装完accelerate后需要重启notebook,不然报如下错误: ImportError: Using low_cpu_mem_usage=True or a device_map requires Accelerate: pip install accelerate 注:参考文章内容

    2024年02月04日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包