python爬虫8:bs4库
前言
python实现网络爬虫非常简单,只需要掌握一定的基础知识和一定的库使用技巧即可。本系列目标旨在梳理相关知识点,方便以后复习。
申明
本系列所涉及的代码仅用于个人研究与讨论,并不会对网站产生不好影响。
目录结构
1. 概述与安装
bs4是BeautifulSoup4的简称,它是一个可以从HTML中提取数据的Python第三方库,也是我们将要讲解的第二个解析库,除此之外,还有常用的pyquery(主要通过css语法来获取,我们不讲解,因为需要学习过前端的css)、re(正则表达式库,基础库,但是用于爬虫里比较麻烦,因此也不讲解)。
其安装非常简单:
pip install Beautifulsoup4
2. 解析器
对于bs4这个库来说,我们主要使用的是BeautifulSoup对象,使用方法如下:
# 导包
from bs4 import BeautifulSoup
# 创建对象
soup = BeautifulSoup()
print(type(soup))
# 结果为:
# <class 'bs4.BeautifulSoup'>
而BeautifulSoup在解析网页的时候依赖于其他的解析器,如我们之前讲解过的lxml等等。下面给出常见的四种解析器:Python标准库、lxml解析器、xml解析器、html5lib解析器。上面四种解析器各有优点也有缺点,其中最常用的就是lxml,因为其解析速度和容错性都比较好。
下面给出四种解析器的优缺点:
解析器 | 优点 | 缺点 |
---|---|---|
Python标准库 | python内置标准库,执行速度适中,文档容错强 | python2.x与python3.2.2之前的版本容错能力差 |
lxml | 速度快、容错能力强 | 需要安装C语言库 |
xml | 速度快,唯一支持XML文档的解析器 | 需要安装C语言库 |
html5lib | 最好的容错性 | 速度慢 |
什么是容错性?
这里解释一下,什么是容错性。我们有时候传给BeautifulSoup的网页源代码并不完整,或者说格式不标准,其中常见的如:table标签的写法,table标签现在一般都采取的简写的方式,而不是标准的写法。这时,不同的解析器就有不同的容错性,或者说对于修正性。
3. 方法讲解
3.1 第一个例子
下面给出bs4的一个小小例子,让大家有一个印象:
from bs4 import BeautifulSoup
text = '''
<div class="classify clearfix">
<a href="/4kfengjing/" title="4K风景图片">4K风景</a>
<a href="/4kmeinv/" title="4K美女图片">4K美女</a>
<a href="/4kyouxi/" title="4K游戏图片">4K游戏</a>
<a href="/4kdongman/" class="curr" title="4K动漫图片">4K动漫</a>
<a href="/4kyingshi/" title="4K影视图片">4K影视</a>
<a href="/4kmingxing/" title="4K明星图片">4K明星</a>
<a href="/4kqiche/" title="4K汽车图片">4K汽车</a>
<a href="/4kdongwu/" title="4K动物图片">4K动物</a>
<a href="/4krenwu/" title="4K人物图片">4K人物</a>
<a href="/4kmeishi/" title="4K美食图片">4K美食</a>
<a href="/4kzongjiao/" title="4K宗教图片">4K宗教</a>
<a href="/4kbeijing/" title="4K背景图片">4K背景</a>
</div>
'''
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# 提取出 所有类名
tag_list = soup.find_all('a')
for tag in tag_list:
print(tag.text)
结果为:
4K风景
4K美女
4K游戏
4K动漫
4K影视
4K明星
4K汽车
4K动物
4K人物
4K美食
4K宗教
4K背景
3.2 初始化
跟lxml一样,第一个步骤仍然是初始化,这个步骤是固定的,就不多说了,代码如下:
from bs4 import BeautifulSoup
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# text为html源码,字符串格式
3.3 通过标签名来获取元素
第一个选择元素的方法,如下示例;
from bs4 import BeautifulSoup
text = '''
<div class="classify clearfix">
<a href="/4kfengjing/" title="4K风景图片">4K风景</a>
<a href="/4kmeinv/" title="4K美女图片">4K美女</a>
<a href="/4kyouxi/" title="4K游戏图片">4K游戏</a>
<a href="/4kdongman/" class="curr" title="4K动漫图片">4K动漫</a>
<a href="/4kyingshi/" title="4K影视图片">4K影视</a>
<a href="/4kmingxing/" title="4K明星图片">4K明星</a>
<a href="/4kqiche/" title="4K汽车图片">4K汽车</a>
<a href="/4kdongwu/" title="4K动物图片">4K动物</a>
<a href="/4krenwu/" title="4K人物图片">4K人物</a>
<a href="/4kmeishi/" title="4K美食图片">4K美食</a>
<a href="/4kzongjiao/" title="4K宗教图片">4K宗教</a>
<a href="/4kbeijing/" title="4K背景图片">4K背景</a>
</div>
'''
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# 方法一
result = soup.div
print(type(result))
print('-'*50)
print(result)
结果如下:
<class 'bs4.element.Tag'>
--------------------------------------------------
<div class="classify clearfix">
<a href="/4kfengjing/" title="4K风景图片">4K风景</a>
<a href="/4kmeinv/" title="4K美女图片">4K美女</a>
<a href="/4kyouxi/" title="4K游戏图片">4K游戏</a>
<a class="curr" href="/4kdongman/" title="4K动漫图片">4K动漫</a>
<a href="/4kyingshi/" title="4K影视图片">4K影视</a>
<a href="/4kmingxing/" title="4K明星图片">4K明星</a>
<a href="/4kqiche/" title="4K汽车图片">4K汽车</a>
<a href="/4kdongwu/" title="4K动物图片">4K动物</a>
<a href="/4krenwu/" title="4K人物图片">4K人物</a>
<a href="/4kmeishi/" title="4K美食图片">4K美食</a>
<a href="/4kzongjiao/" title="4K宗教图片">4K宗教</a>
<a href="/4kbeijing/" title="4K背景图片">4K背景</a>
</div>
可见,这种方法的语法形式为: xxx.Tag_name。这种选择还支持嵌套选择,如下:
# 为了大家方便,省略了相同的代码,下面只给出需要修改的代码
# 修改之前:result = soup.div
# 修改之后:
result = soup.div.a
结果为::
<class 'bs4.element.Tag'>
--------------------------------------------------
<a href="/4kfengjing/" title="4K风景图片">4K风景</a>
可见,当有多个符合条件的标签时,选择第一个符合的标签。
缺点:选择性很低,无法增加附加条件进行更深层次的筛选。
小小的总结一下:
1. xxx.Tag_name
2. 当有多个符合条件的标签时,选择第一个符合的标签。
3.4 通过属性来获取元素
主要依靠一些属性来获取,如:contents、children、descendants等等。下面一一讲解其作用:
子节点
属性: contents、children
作用: 获取目标的直接子节点
注意:contents返回的是列表,而children返回的是生成器。
比如:
from bs4 import BeautifulSoup
text = '''
<div class="classify clearfix">
<a href="/4kfengjing/" title="4K风景图片">4K风景</a>
<a href="/4kmeinv/" title="4K美女图片">4K美女</a>
<a href="/4kyouxi/" title="4K游戏图片">4K游戏</a>
<a href="/4kdongman/" class="curr" title="4K动漫图片">4K动漫</a>
<a href="/4kyingshi/" title="4K影视图片">4K影视</a>
<a href="/4kmingxing/" title="4K明星图片">4K明星</a>
<a href="/4kqiche/" title="4K汽车图片">4K汽车</a>
<a href="/4kdongwu/" title="4K动物图片">4K动物</a>
<a href="/4krenwu/" title="4K人物图片">4K人物</a>
<a href="/4kmeishi/" title="4K美食图片">4K美食</a>
<a href="/4kzongjiao/" title="4K宗教图片">4K宗教</a>
<a href="/4kbeijing/" title="4K背景图片">4K背景</a>
</div>
'''
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# 方法二
print(type(soup.div.contents))
for child in soup.div.contents:
print(child)
结果为:
<class 'list'>
<a href="/4kfengjing/" title="4K风景图片">4K风景</a>
<a href="/4kmeinv/" title="4K美女图片">4K美女</a>
<a href="/4kyouxi/" title="4K游戏图片">4K游戏</a>
<a class="curr" href="/4kdongman/" title="4K动漫图片">4K动漫</a>
<a href="/4kyingshi/" title="4K影视图片">4K影视</a>
<a href="/4kmingxing/" title="4K明星图片">4K明星</a>
<a href="/4kqiche/" title="4K汽车图片">4K汽车</a>
<a href="/4kdongwu/" title="4K动物图片">4K动物</a>
<a href="/4krenwu/" title="4K人物图片">4K人物</a>
<a href="/4kmeishi/" title="4K美食图片">4K美食</a>
<a href="/4kzongjiao/" title="4K宗教图片">4K宗教</a>
<a href="/4kbeijing/" title="4K背景图片">4K背景</a>
子孙节点:
属性: descendants
作用: 获取目标的所有子孙元素
返回值: 生成器
比如:
from bs4 import BeautifulSoup
text = '''
<ul class="clearfix">
<li>
<a href="/tupian/26783.html" target="_blank">
<img src="/uploads/allimg/210122/210154-16113205145cce.jpg" alt="动漫女孩 黑发 露肩 4k壁纸3840x2160" />
<b>动漫女孩 黑发 露肩 4k壁</b>
</a>
</li>
<li>
<a href="/tupian/26780.html" target="_blank">
<img src="/uploads/allimg/210122/195550-1611316550c9d7.jpg" alt="古风 美少女 伞 长发 女孩大长腿4k唯美动漫壁纸" />
<b>古风 美少女 伞 长发 女</b>
</a>
</li>
<li>
<a href="/tupian/24695.html" target="_blank">
<img src="/uploads/allimg/190824/212516-1566653116f355.jpg" alt="下午 趴在桌子的女孩4k动漫壁纸3840x2160" />
<b>下午 趴在桌子的女孩4k动</b>
</a>
</li>
</ul>
'''
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# 方法二
print(type(soup.ul.descendants))
for child in soup.ul.descendants:
print(child)
结果:
<class 'generator'>
# 显示其中一个结果
# 从下面可以看出,一一获取里面所有的值
<li>
<a href="/tupian/26783.html" target="_blank">
<img alt="动漫女孩 黑发 露肩 4k壁纸3840x2160" src="/uploads/allimg/210122/210154-16113205145cce.jpg"/>
<b>动漫女孩 黑发 露肩 4k壁</b>
</a>
</li>
<a href="/tupian/26783.html" target="_blank">
<img alt="动漫女孩 黑发 露肩 4k壁纸3840x2160" src="/uploads/allimg/210122/210154-16113205145cce.jpg"/>
<b>动漫女孩 黑发 露肩 4k壁</b>
</a>
<img alt="动漫女孩 黑发 露肩 4k壁纸3840x2160" src="/uploads/allimg/210122/210154-16113205145cce.jpg"/>
<b>动漫女孩 黑发 露肩 4k壁</b>
动漫女孩 黑发 露肩 4k壁
父节点:
属性: parent
作用: 获取目标节点的父节点
祖先节点:
属性: parents
作用: 获取目标节点的所有祖先节点
返回值: 生成器
兄弟节点:
属性1 : next_sibling
作用: 获取下一个兄弟节点
属性2 : previous_sibling
作用: 获取上一个兄弟节点
属性3: next_siblings
作用: 获取下面的所有兄弟节点
属性4: previous_siblings
作用: 获取之前的所有兄弟节点
3.5 通过find方法来获取元素(常用)
find_all()方法:
作用: 查询出所有符合条件的元素
常用参数: name、attrs、text
参数讲解:
- name : 想要获取的节点的节点名字
- attrs: 想要获取的节点的属性,根据这个属性来筛选,接收字典
- text: 可以指定正则表达式或者字符串,去匹配元素的内容
示例一:name 和 attrs 的配合使用
from bs4 import BeautifulSoup
text = '''
<ul class="clearfix">
<li>
<a class="hello" href="/tupian/26783.html" target="_blank">你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜</a>
<a class="black" href="/tupian/26783.html" target="_blank">黑彩</a>
</li>
</ul>
'''
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# 筛选出白菜
result_list = soup.find_all('a',attrs={'class':'white'})
print(type(result_list))
print('-'*50)
for result in result_list:
print(result)
结果:
<class 'bs4.element.ResultSet'>
--------------------------------------------------
<a class="white" href="/tupian/26783.html" target="_blank">白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜</a>
示例二: text的使用
import re
from bs4 import BeautifulSoup
text = '''
<ul class="clearfix">
<li>
<a class="hello" href="/tupian/26783.html" target="_blank">你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,我是黑菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">我是一个小白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">大白菜</a>
<a class="black" href="/tupian/26783.html" target="_blank">黑彩</a>
</li>
</ul>
'''
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# 筛选出白菜
result_list = soup.find_all(text=re.compile(r'白菜'))
for result in result_list:
print(result)
结果为:
白菜,你好,我是黑菜
白菜,你好,你好
我是一个小白菜
大白菜
find()方法:
作用: 返回第一个匹配成功的元素
find_parents()和find_parent():
find_parents():返回所有的祖先节点
find_parent():返回直接父节点
find_next_siblings()和find_next_sibling():
find_next_siblings(): 返回后面所有的兄弟节点
find_next_sibling(): 返回下一个兄弟节点
find_previous_siblings()和find_previous_sibling():
find_previous_siblings(): 返回之前的所有的兄弟节点
find_previous_sibling(): 返回上一个兄弟节点
3.6 通过css语法获取元素
如果你学过css,那么你也可以采取css来写,不过我建议你选择pyquery模块来写css,因为pyquery专门使用css来解析网页。
写法:
xxx.select('css代码 ')
作用:
返回所有符合css条件的元素
示例:
from bs4 import BeautifulSoup
text = '''
<ul class="clearfix">
<li>
<a class="hello" href="/tupian/26783.html" target="_blank">你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,我是黑菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">我是一个小白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">大白菜</a>
<a class="black" href="/tupian/26783.html" target="_blank">黑彩</a>
</li>
</ul>
'''
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# 筛选出白菜
result_list = soup.select('.white')
for result in result_list:
print(result)
结果如下:
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,我是黑菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">我是一个小白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">大白菜</a>
3.7 获取信息
元素筛选成功后,我们需要获取元素的一定信息,如:文本信息、属性信息等等。
获取文本信息:
xxx.string:
用来获取目标路径下第一个非标签字符串,得到的是个字符串
xxx.stings:
用来获取目标路径下所有的子孙非标签字符串,返回的是个生成器
xxx.stripped_strings:
用来获取目标路径下所有的子孙非标签字符串,会自动去掉空白字符串,返回的是一个生成器
xxx.get_text():
用来获取目标路径下的子孙字符串,返回的是字符串(包含HTML的格式内容)
示例:
from bs4 import BeautifulSoup
text = '''
<ul class="clearfix">
<li>
<a class="hello" href="/tupian/26783.html" target="_blank">你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,我是黑菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">我是一个小白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">大白菜</a>
<a class="black" href="/tupian/26783.html" target="_blank">黑彩</a>
</li>
</ul>
'''
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# 筛选出白菜
tag = soup.find('li')
print(tag.string)
print(list(tag.strings))
print(list(tag.stripped_strings))
print(tag.get_text())
结果如下:
None
['\n', '你好', '\n', '白菜,你好,我是黑菜', '\n', '白菜,你好,你好', '\n', '我是一个小白菜', '\n', '大白菜', '\n', '黑彩', '\n']
['你好', '白菜,你好,我是黑菜', '白菜,你好,你好', '我是一个小白菜', '大白菜', '黑彩']
你好
白菜,你好,我是黑菜
白菜,你好,你好
我是一个小白菜
大白菜
黑彩
获取属性信息:
xxx.attrs['属性名字']
xxx['属性名字']
示例:
from bs4 import BeautifulSoup
text = '''
<ul class="clearfix">
<li>
<a class="hello" href="/tupian/26783.html" target="_blank">你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,我是黑菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">白菜,你好,你好</a>
<a class="white" href="/tupian/26783.html" target="_blank">我是一个小白菜</a>
<a class="white" href="/tupian/26783.html" target="_blank">大白菜</a>
<a class="black" href="/tupian/26783.html" target="_blank">黑彩</a>
</li>
</ul>
'''
soup = BeautifulSoup(text,'lxml') # 需要安装lxml库哦
# 筛选出白菜
tag_list = soup.find_all('a')
tag_attr_list_one = [tag.attrs['class'] for tag in tag_list]
tag_attr_list_two = [tag['class'] for tag in tag_list]
print(tag_attr_list_one)
print('-'*50)
print(tag_attr_list_two)
结果:
[['hello'], ['white'], ['white'], ['white'], ['white'], ['black']]
--------------------------------------------------
[['hello'], ['white'], ['white'], ['white'], ['white'], ['black']]
4. 总结
本篇讲解了第二个解析库bs4,当然其实大家不需要了解那么多的解析库,会一两个即可,因此本系列也只讲解lxml、bs4这两个用到最多的解析库,其他的比如pyquery、re都可以自己去学习。文章来源:https://www.toymoban.com/news/detail-659019.html
下一篇会将之前的小说实战重新采用bs4来解析。文章来源地址https://www.toymoban.com/news/detail-659019.html
到了这里,关于python爬虫8:bs4库的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!