Python requests库使用详解

这篇具有很好参考价值的文章主要介绍了Python requests库使用详解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

今天继续给大家介绍Python 爬虫相关知识,本文主要内容是Python requests库使用详解。

一、Python requests库简介

requests库是一个非常好用的HTTP请求库,常用于写网络请求和爬虫程序。相比于之前的urllib库。,requests操作非常简介。
requests库是Python的一个第三方库,因此要使用该库需要我们手动安装,执行命令:

pip install requests

即可。

二、requests库常用方法

在引入requests库后,我们就可以使用requests库封装好的方法发送HTTP请求。常用的requests库方法如下所示:

response=requests.get(url,params,**kwargs)
response=requests.post(url,params,**kwargs)

在上述方法中,参数含义如下:
url:发起请求的目标URL地址,必须指明使用http协议或者是https协议。
params:发起请求携带的数据,如果是get方法,则以GET的方式携带,如果是post方法,则以POST的方式携带。
kwargs:控制请求访问的参数,使用后可以加入到requests请求的头部,常见的有User-Agent、Cookie等。
除了上述2种常见的方法外,requests库还支持以下5种不是很常见的方法:head、put、patch、delete、options。这些方法使用就不过多介绍了。

三、response对象使用

调用上述requests方法后,返回的结果是一个response响应对象。我们可以调用该对象的一些属性和方法来获取部分响应数据,response对象常见属性和方法如下所示:
1、response.text
返回响应结果主体部分的字符串格式数据。
2、response.content
返回响应结果主题部分的字节数据,如果响应结果是一张图片,则应该使用这种方式。
3、response.json()
如果响应结果是一个json格式的数据,则可以使用这种方式提取数据。
4、response.status_code
返回响应的状态码。
5、response.reason
返回响应状态信息。
6、response.cookies
返回响应cookie信息。
7、response.encoding
返回响应编码。
8、response.headers
返回响应头信息。
原创不易,转载请说明出处:https://blog.csdn.net/weixin_40228200文章来源地址https://www.toymoban.com/news/detail-631040.html

到了这里,关于Python requests库使用详解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • python爬虫02-requests库使用01

    目录 1、requests库简介 2、requests库-安装 3、requests库-使用 3.1 导入模块 3.2 发送请求 3.3 requests库常用方法 3.4 访问控制参数kwargs  4、请求返回对象 Response 5、requests访问时的可能异常 1、requests库简介 requests是一个http的第三方请求库,发送http请求,并获取响应结果; 2、requests库

    2024年01月20日
    浏览(37)
  • python爬虫03-request库使用02

    目录 ​​​​​​1、requests库使用的通用框架: 2、requests下载图片 3、发送get / post 请求传递参数:  4、requests库下载视频,并显示进度 5、requests.session进行登录保持 5.1 requests.session的作用和使用场景 5.2 使用方法 基础链接 : 01-python-request库使用01 1、requests库使用的通用框

    2024年01月21日
    浏览(41)
  • Python爬虫基础:使用requests模块获取网页内容

    了解如何使用Python中的requests模块进行网页内容获取,包括获取网页步骤、代码实现、状态码查看、提取信息等。

    2024年02月22日
    浏览(88)
  • 【100天精通python】Day42:python网络爬虫开发_HTTP请求库requests 常用语法与实战

    目录 1 HTTP协议 2  HTTP与HTTPS 3 HTTP请求过程  3.1 HTTP请求过程 3.2 GET请求与POST请求

    2024年02月12日
    浏览(62)
  • 【Python爬虫】requests库get和post方法使用

    requests库是一个常用于http请求的模块,性质是和urllib,urllib2是一样的,作用就是向指定目标网站的后台服务器发起请求,并接收服务器返回的响应内容。 1. 安装requests库 使用pip install requests安装 如果再使用pip安装python模块出现timeout超时异常,可使用国内豆瓣源进行安装。

    2024年02月22日
    浏览(43)
  • 编程小白的自学笔记九(python爬虫入门+代码详解)

    编程小白的自学笔记八(python中的多线程) 编程小白的自学笔记七(python中类的继承)   编程小白的自学笔记六(python中类的静态方法和动态方法)  编程小白的自学笔记五(Python类的方法)  编程小白的自学笔记四(正则表达式模块search函数)  目录 系列文章目录 前言

    2024年02月16日
    浏览(45)
  • Python 爬虫的学习 day01 ,爬虫的基本知识, requests 和 charde模块, get函数的使用

    1.1什么是网络爬虫 网络爬虫,又称为网页蜘蛛,网络机器人,是一种按照一定的规则,自动地抓取万维网信息的程序或者脚本,另外一些不常使用的名字还有蚂蚁、自动索引、模拟程序或者蠕虫。 1.2  网络爬虫的特点 网络爬虫是一个自动提取网页的程序,它为搜索引擎从万

    2024年02月15日
    浏览(45)
  • 编程小白的自学笔记十(python爬虫入门二+实例代码详解)

    编程小白的自学笔记九(python爬虫入门+代码详解) 编程小白的自学笔记八(python中的多线程)   编程小白的自学笔记七(python中类的继承)  编程小白的自学笔记六(python中类的静态方法和动态方法) 编程小白的自学笔记五(Python类的方法)  目录 系列文章目录 前言 一

    2024年02月16日
    浏览(41)
  • Python爬虫教程:使用requests、wget和urllib3下载图片和PDF文件

    本文介绍了如何使用Python中的requests、wget和urllib3库下载图片和PDF文件,通过示例代码演示了如何通过Selenium定位文件地址后,使用这三种方法进行文件下载操作。

    2024年02月09日
    浏览(73)
  • Python requests库使用详解

    今天继续给大家介绍Python 爬虫相关知识,本文主要内容是Python requests库使用详解。 requests库是一个非常好用的HTTP请求库,常用于写网络请求和爬虫程序。相比于之前的urllib库。,requests操作非常简介。 requests库是Python的一个第三方库,因此要使用该库需要我们手动安装,执行

    2024年02月14日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包