可狱可囚的爬虫系列课程 11:Requests中的SSL

这篇具有很好参考价值的文章主要介绍了可狱可囚的爬虫系列课程 11:Requests中的SSL。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

我们在可狱可囚的爬虫系列课程 09:通过 API 接口抓取数据文章中遗留了一个问题,就是为什么要添加 verify=True 这个参数,今天我给大家单独解释一下,这还要从网站的 SSL 证书说起。

一、SSL 证书

SSL 证书是数字证书的一种,类似于驾驶证、护照、营业执照等的电子副本。SSL 证书也称为 SSL 服务器证书,因为它是配置在服务器上。
SSL 证书是由受信任的数字证书颁发机构 CA 在验证服务器身份后颁发的,其具有服务器身份验证和数据传输加密功能。
SSL 证书通过在客户端浏览器和 Web 服务器之间建立一条 SSL 安全通道,通过它可以激活 SSL 协议,实现数据信息在客户端和服务器之间的加密传输,可以防止数据信息的泄露,保证了双方传递信息的安全性,而且用户可以通过服务器证书验证他所访问的网站是否是真实可靠的。

二、Requests 中的 verify

在 Requests 库中,verify 参数便是决定是否进行 SSL 认证的。我们在可狱可囚的爬虫系列课程 09:通过 API 接口抓取数据文章中请求 API 接口时加了 verify=False 来解决网站没有 SSL 证书或证书过期可能会报错的问题,因为 Requests 库发送请求就相当于客户端浏览器在和 Web 服务器通信,现在的规范要求默认是要进行 SSL 认证的,即 verify=True。
此后如果大家看到这类网站,建议还是遵循规范以减少后期维护花费的精力。
可狱可囚的爬虫系列课程 11:Requests中的SSL,爬虫,python,爬虫文章来源地址https://www.toymoban.com/news/detail-791234.html

到了这里,关于可狱可囚的爬虫系列课程 11:Requests中的SSL的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Python爬虫】requests库

    1.requests库的介绍 ​ requests 是 Python 语言编写,基于 urllib3 ,采用 Apache2 Licensed 开源协议的HTTP库。它比 urllib 更加方便,可以节约我们大量的工作,完全满足 HTTP 测试需求。是 Python 实现的简单易用的 HTTP 库。 Requests 中文文档:http://docs.pythonrequests.org/zh_CN/latest/index.html ​ 解决

    2024年02月16日
    浏览(41)
  • 网络请求爬虫【requests】和自动化爬虫【selenium】

    在Python开发的爬虫项目中, requests 和 selenium 是两个常用的库,它们各有特点和应用场景。 相同点 数据抓取: 无论是 selenium 还是 requests ,两者的基本目的都是为了从网络上抓取数据。 自动化: 它们都能够自动化地访问网页,获取需要的信息。 不同点 工作原理: requests 直

    2024年02月20日
    浏览(45)
  • 自学爬虫—作业1—requests模块

    视频: 肯德基地址查询,爬某个,获取下面的所有page的信息,存到一个json或者txt。 关键点 ,(1)每一个ajax的请求第一个键值对就是所有获得的地址的总数,然后充分利用这个信息。(2)对于json对于[]  部分可以看成数组,对于{}部分可以看成字典,用key取值。

    2024年02月07日
    浏览(41)
  • Python爬虫之requests模块

    requests文档http://docs.python-requests.org/zh_CN/latest/index.html 1、requests模块的作用: 发送http请求,获取响应数据 2、requests模块是一个第三方模块,需要在你的python(虚拟)环境中额外安装 pip/pip3 install requests 3、requests模块发送get请求 需求:通过requests向百度首页发送请求,获取该页面

    2024年02月09日
    浏览(44)
  • python爬虫_requests入门指引

    大家好,我是yma16,本文分享关于python的requests库用法。 该系列文章: python爬虫_基本数据类型 python爬虫_函数的使用 requests可以用来发送http请求。 对比浏览器发送的请求 requests是在python的运行环境发送请求,不存在限制跨域,无ui界面,优势在于自动化 浏览器发送请求被浏

    2024年02月11日
    浏览(66)
  • 爬虫学习(1)--requests模块的使用

    什么是爬虫 爬虫是一种自动化工具,用于从互联网或其他计算机网络上获取数据。它可以模拟人的行为,自动访问网页,提取感兴趣的数据,并将其存储到本地计算机或数据库中。爬虫通常用于搜索引擎、数据分析、信息聚合等领域,也被许多企业用于市场调研、竞争分析、

    2024年02月03日
    浏览(34)
  • python爬虫2:requests库-原理

    前言 ​ python实现网络爬虫非常简单,只需要掌握一定的基础知识和一定的库使用技巧即可。本系列目标旨在梳理相关知识点,方便以后复习。 目录结构 1. 概述 ​ python其实自带一个请求库,即urllib,不过这个库并不是很好使,因此大部人都还是采用的第三方库requests。 ​

    2024年02月14日
    浏览(38)
  • 网络爬虫-Requests库主要方法解析

    一、Requests库的7个主要方法 其中,request()是 基础方法,其他6个方法都是基于request()的,但最常用的是get() 和 head() 二、request() 13个访问控制参数:   三、get(): 获取某一个url链接的相关资源 四、head()  五、post() 六、put()  七、patch()  八、delete()

    2024年02月07日
    浏览(37)
  • python-requests库(爬虫)

    网页数据获取有python自带的urllib,也有第三方库requests requests.request(url) 构造一个请求 requests.get(url,params=None) 发送get请求,结果为response对象 requests.post(url,data=None,json=None) 发送post请求 requests.put() 发送put请求 requests.head() 获取html的头信息 requests.delete() 提交删除请求 requests.pat

    2024年02月08日
    浏览(77)
  • Python爬虫—requests模块简单应用

    requests的作用与安装 作用:发送网络请求,返回响应数据 安装:pip install requests requests模块发送简单的get请求、获取响应 需求:通过requests向百度首页发送请求,获取百度首页的数据 response的常用属性: response.text 响应体str类型 response.encoding 从HTTP header中猜测的响应内容的编

    2024年01月24日
    浏览(59)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包