python3 爬虫相关学习8:python 的常见报错内容汇总(持续收集ing)

这篇具有很好参考价值的文章主要介绍了python3 爬虫相关学习8:python 的常见报错内容汇总(持续收集ing)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

1 低级错误(比如拼写错误等)

 1.1 NameError: 

1.2 属性错误 AttributeError:  属性拼写错误

2  应用错误(类型应用,属性使用的错误)

2.1 类型错误 TypeError:  如字符串连接错误

2.2  属性应用错误  AttributeError

3 模块相关错误

3.1 找不到对应模块 ModuleNotFoundError:

3.2 相关模块相关错误,如os的  OSError: [Errno 22] Invalid argument: 

3.3 requests模块问题:requests.exceptions.InvalidSchema无效架构

4 语法错误 SyntaxError:

4.1 函数语法错误 (缺少括号)

4.2 函数语法错误 (缺少:)

4.3 字符串连接错误  SyntaxError: unterminated string literal 未结束的字符串

 4.4  值错误/参数错误  ValueError:

5 格式错误

5.1  缩进错误 IndentationError:  

5.2 语法错误(复制代码空格导致错误):SyntaxError: invalid non-printable character U+00A0

6 非错误,警告提醒类!

6.1  BeautifulSoup(html1,"lxml") 缺少参数时的警告


1 低级错误(比如拼写错误等)

 1.1 NameError: 

  • print 打成了 priint

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言

1.2 属性错误 AttributeError:  属性拼写错误

  • AttributeError: module 'requests' has no attribute 'gat'. Did you mean: 'get'?
  • NameError: name 'priint' is not defined. Did you mean: 'print'?
  • python 还能给出修改意见

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言

2  应用错误(类型应用,属性使用的错误)

2.1 类型错误 TypeError:  如字符串连接错误

TypeError: can only concatenate str (not “int“) to str

  • 我原来代码有这么一句:
  • print ("本页返回状态码: "+res.status_code)
  • 运行会报错
  •  TypeError: can only concatenate str (not “int“) to str
  • 因为res.status_code 返回的是数字,只有字符串可以  "" + "" ,  所以用 str() 把 res.status_code 转化为string 就OK了
  • 修改为
  • print ("本页返回状态码: "+str(res.status_code))

2.2  属性应用错误  AttributeError

 AttributeError: 'str' object has no attribute 'text'

错误原因

  • print (res.text)  即相当于 print(html1.text)
  • 当时 res=html =""" ... """
  • 即相当于 print(string.text)
  • string本身并没有 .text 这种下级属性了!
  • 这里除非html1 不是一个string, 而是一个 html网页,用requests.get() 取下来的就可以
  • 即 这样是对的  print(requests.get(url1).text)

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言

3 模块相关错误

3.1 找不到对应模块 ModuleNotFoundError:

  • 报错内容:  ModuleNotFoundError: No module named 'bs4'
  • 需要现安装模块后,才能引用
  • 没有安装这个模块就import 就会报错

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言

3.2 相关模块相关错误,如os的  OSError: [Errno 22] Invalid argument: 

报错  OSError: [Errno 22] Invalid argument: 

错误写法

  • 错误写法
  • path1="E:\work\FangCloudV2\personal_space\2learn\python3\html0003.html"
  • soup1=BeautifulSoup(open(path1))

正确写法

  • path1=r"E:\work\FangCloudV2\personal_space\2learn\python3\html0003.html"
  • soup1=BeautifulSoup(open(path1))
  • 因为path1, url1 这种 一个长string里本身带一些特殊符号,比如/ \等转义符,就要用r转换为rawdata

报错信息

OSError: [Errno 22] Invalid argument: 'E:\\work\\FangCloudV2\\personal_space\x02learn\\python3\\html0003.html'

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言

3.3 requests模块问题:requests.exceptions.InvalidSchema无效架构

  • 错误写法1
  • print (html1.text)
  • 这个例子是因为当时我这个 html 本身已经是一个字符串 """ ... '"""的内容,而不是网页里
  • 所以string.text 会报错
  • print (html1.text) 会报错

 requests.exceptions.InvalidSchema: No connection adapters were found for '<html><head><title>The Dormouse\'s story</title></head>\n<body>\n<p class="title"><b>The Dormouse\'s story</b></p>\n\n<p class="story">Once upon a time there were three little sisters; and their names were\n<a href="http://example.com/elsie" class="sister" id="link1">Elsie</a>,\n<a href="http://example.com/lacie" class="sister" id="link2">Lacie</a> and\n<a href="http://example.com/tillie" class="sister" id="link3">Tillie</a>;\nand they lived at the bottom of a well.</p>\n\n<p class="story">...</p>\n'

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言

3.4 re.error: unbalanced parenthesis at position 7

使用re 正则库的时候,括号没有进行转义,或者丢了一半括号

4 语法错误 SyntaxError:

4.1 函数语法错误 (缺少括号)

  • SyntaxError: Missing parentheses in call to 'print'. Did you mean print(...)?
  • python 还能给出修改意见
  • print ()  语法需要有括号

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言

4.2 函数语法错误 (缺少:)

正确写法

  •  python语法,要注意 冒号和缩进: 
  • 正确写法 with open(path1 ,"a") as f :

报错内容

  •    with open(path1 ,"a") as f
  •                               ^
  • SyntaxError: expected ':'

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言

4.3 字符串连接错误  SyntaxError: unterminated string literal 未结束的字符串

  • SyntaxError: unterminated string literal
  • 未结束的字符串
  • 造成这种错误的原因其实就是你运行的字符串有多义性
  • 比如字符串的引号没有成对出现。
  • 比如 转义序列 使用不正确
  • 下面的例子就是 把\ 写成  \\ 后即可解决问题

报错例子

错误:print(‘I'm a student')

正确:print(‘Im a student')

错误:with open(loc1+str(page)+'\'+p_name, 'wb') as f:

正确:with open(loc1+str(page)+'\\'+p_name, 'wb') as f:

 4.4  值错误/参数错误  ValueError:

  • soup1=BeautifulSoup(open(html1,"html.parser"))
  • ValueError: invalid mode: 'html.parser'

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言

5 格式错误

5.1  缩进错误 IndentationError:  

IndentationError: unexpected indent

  • IndentationError: unexpected indent
  • 就是缩进不符合python 要求

5.2 语法错误(复制代码空格导致错误):SyntaxError: invalid non-printable character U+00A0

  • 从网上边复制代码,复制的代码中空格和Python中的格式不一样造成的
  • 将脚本中的空格全部删除重新敲再重新运行即可。

6 非错误,警告提醒类!

6.1  BeautifulSoup(html1,"lxml") 缺少参数时的警告

  •  soup1=BeautifulSoup(html1,"lxml")
  • lxml 是解析方式
  • 如果不写,默认也会采用 lxml的解析
  • 如果写成 soup1=BeautifulSoup(html1) 可以正常运行,不会中断运行,但是会提醒

requests.exceptions.invalidschema: no connection adapters were found for,python,开发语言


 文章来源地址https://www.toymoban.com/news/detail-766530.html

Python Error - UnboundLocalError: local variable xxx referenced before assignment

变量使用前未初始化

重名变量,在函数内有全局声明时,当然为全局变量

除此之外,当重名变量在函数内存在(可以不是在函数内第一次出现时)赋值语句(包括 += 语句)时,它被认定为局部变量,否则被认为是全局变量。

插说一句,这个语法规则很容易理解。因为当出现赋值语句时,说明重名变量在函数内的值已经与函数外的值完全无关,重新赋了个新值,所以完全没有必要视之为全局变量

这就导致,当 函数内的、与函数外全局变量重名的变量,第一次在函数中出现不是赋值语句,而后面又在函数中出现了它的赋值语句 时,Python 解释器会报 “UnboundLocalError” 错误。这种情况的产生又分两种原因:

重名变量是全局变量,忘记对其用 global 关键字声明就使用(这种情况,如果后面没有赋值语句也无妨,解释器也会认为它是全局变量),但后面又出现了赋值语句,使 Python 解释器误解析为局部变量
重名变量是局部变量,忘记初始化了
 

也就是说,python 会默认赋值语句 的变量是局部的,而如果次

Python Error - UnboundLocalError: local variable xxx referenced before assignment_iLiuXH的博客-CSDN博客


 

到了这里,关于python3 爬虫相关学习8:python 的常见报错内容汇总(持续收集ing)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • python3 爬虫相关学习3:response= requests.get(url)的各种属性

    目录 1  requests.get(url) 的各种属性,也就是response的各种属性 2 下面进行测试 2.1 response.text 1.2  response.content.decode() 1.2.1 response.content.decode() 或者  response.content.decode(\\\"utf-8\\\") 1.2.2   response.content.decode(\\\"GBK\\\") 报错 1.2.3 关于编码知识 1.3 response.url  1.4 response.status_code 插入知识:

    2024年02月03日
    浏览(26)
  • 若依项目的常见报错以及解决方案

    目录 1,系统接口500异常 2,页面出不来 原因分析: 解决方案: 3,获取当前用户名失败  原因分析: 4,下拉框中的值无法选中 原因分析: 解决方案: 5,表单验证导致前端报错 原因分析: 解决方案: 6,required URL template variable \\\'name\\\' for method parameter type String is not present..

    2023年04月25日
    浏览(20)
  • VMWare网络配置的常见报错及其解决方法

    VMWare网络配置的常见报错及其解决方法 网络配置 1. 首先查看我们电脑的IP地址. 使用“Windows+R”,输入“cmd”,在对话框中输入以下指令以查看本地电脑的IP。 2. 编辑网络编辑器 接着在VMware界面选择“编辑” → rightarrow → “虚拟网络编辑器”,选择虚拟网络编辑器中的更改

    2024年02月12日
    浏览(33)
  • Python3网络爬虫开发实战

    1.1 URI和URL URI:统一资源标识符(Uniform Resource Identifier) URL:统一资源定位符(Uniform Resource Locator) URN:统一资源名称(Uniform Resource Name) 1.2 HTTP和HTTPS HTTP:超文本传输协议(Hypertext Transfer Protocol) HTTPS:以安全为目标的HTTP通道(Hypertext Transfer Protocol) 1.3 请求(Requset) 1.3.1 请求方式 函数

    2024年02月04日
    浏览(33)
  • linux中crontab编写自动化定时脚本无法正确运行(问题解决与汇总)附相关内容

    -问题描述 在Linux(RedHat)中想要执行一段自动化备份日志的命令 但是通过下面的命令 编辑了 crontab 没正确运行 0 0 * * * /path/to/save_journal_logs.sh 文件中的内容如下: save_journal_logs.sh 通过下面的命令编辑了脚本 crontab -e 发现脚本没有正确备份 问题排查 执行权限 切换成了 root (

    2024年01月16日
    浏览(43)
  • Python3爬虫之 Selenium库的使用

    今天在官网看了下Selenium库,总结了下常用的方法,直接上代码。(沈略环境搭建,网上多得是),新手建议去了解10分钟再来看这里的代码。 这里列举一下常用的查找元素方法:其实find_element_by_xpath是万能的。 单元素定位: find_element_by_name find_element_by_id find_element_by_xpath

    2024年02月11日
    浏览(30)
  • 3-UI自动化-八大元素定位,xpath定位方式和相关的常问面试题

    ♡ color{red}{heartsuit} ♡ 上篇我们了解了HTML页面的结构和常用的标签和属性,介绍2-UI自动化-HTML页面的构成和常见标签、属性。小白的话建议先看看,再来学习八大元素定位。 UI自动化面试基本上逃不了这道面试题。八大元素定位。 通过id属性 通过class属性,注意,表达式中

    2024年02月08日
    浏览(27)
  • 【小5聊】Python3 使用selenium模块实现简单爬虫系列一

    第一次听说Python还是在工作的时候,还是一位女生在用,当时她说可以用来处理excel文档,特别是一些统计分析。第二次让我真正进入python世界,还是在一次C站举办的大赛上。聊聊你是因为什么机缘巧合进入到python圈的呢?不妨留言说说 本期主要是聊聊,我接触到的selenium模

    2024年02月06日
    浏览(55)
  • Python3 网络爬虫开发实战 第2版 (崔庆才) PDF 高清

    《Python 3 网络爬虫开发实战(第二版)》是由崔庆才所著的一本关于使用 Python 进行网络爬虫开发的书籍。 网络爬虫基础:介绍网络爬虫的基本概念、工作原理和常见的应用场景。 HTTP 协议与 Scrapy 框架:解释 HTTP 协议的基本知识,以及如何使用 Scrapy 框架来构建和管理爬虫项

    2024年04月09日
    浏览(53)
  • Python3,9行批量提取PDF文件的指定内容,这种操作,保证人见人爱....

    小屌丝 :鱼哥, 你有没有什么办法,提取PDF文档的内容。 小鱼 :这个还问我?? 小屌丝 :哎呀,这个不是被难住了嘛 。 小鱼 :有啥难得?提示你一下, 小屌丝 :嗯,可以可以。 小鱼 :去我的博文找,没记错的话,有两种方法提取pdf的文字。 小屌丝 :好嘞, 我这就去

    2024年02月04日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包