快乐学Python,如何使用爬虫从网页中提取感兴趣的内容?

这篇具有很好参考价值的文章主要介绍了快乐学Python,如何使用爬虫从网页中提取感兴趣的内容?。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前面的内容,我们了解了使用urllib3和selenium来下载网页,但下载下来的是整个网页的内容,那我们又怎么从下载下来的网页中提取我们自己感兴趣的内容呢?这里就需要Python的另一个库来实现-BeautifulSoup。

BeautifulSoup 是一个 Python 库,用于分析 HTML。它和它的名字一样,用起来非常“香”。今天我们通过使用 BeautifulSoup 去从上一篇文章案例中下载到的 html 文件:jiandan.html 中提取所有新闻的标题。

打开 VS Code,并创建ipynb文件,将之前下载的jandan.html文件复制到源文件共同的文件夹内。

接下来我们将在这个 notebook 中对 jiandan.html 进行内容提取。

1、安装BeautifulSoup

这里安装的步骤和之前安装selenium的步骤一样。
我们去开始菜单 → Anaconda ,选择 Anaconda Prompt,出现命令行界面。在命令行界面,输入如下安装命令:(BeautifulSoup 的 Python 包名为 bs4, 简写)

conda install bs4

回车执行,之后在询问会否确认时输入 y 回车,等待安装完毕,关闭即可。

(1)读取html文件到Python

数据提取的第一步,我们首先需要将 html 文件加载到 Python 的变量中。在上一篇文章中,我们了解了通过文件对象来把 Python 变量写进文件里,这里我们来尝试用类似的代码来将文件中的内容读出来。

代码如下,可以看到和写入文件的代码非常类似。

# 打开 jiandan.html,第二个参数 r,代表 read

# open 函数返回一个文件对象,保存在变量 fo 中

fo = open("jiandan.html","r",encoding="utf-8")

# 调用文件对象的 read 函数,该函数将文件的内容读取到 Python 中

# read 函数的返回值就会文件内容,我们保存在 html_content 中

html_content = fo.read()

# 关闭文件对象

fo.close()

# 打印 html_content 变量,看内容是否被正确加载

print(html_content)

执行之后,输出结果如下所示(打印的 html 文本太长,这里仅截图示意)。

快乐学Python,如何使用爬虫从网页中提取感兴趣的内容?,玩转Python数据分析,python,爬虫,开发语言

(2)创建BeautifulSoup对象

现在,我们已经将文件的内容读了出来,但是目前还是以一个超大的字符串的形式存储在变量中。想要对其进行有效的分析,第一步我们先要构造一个 BeautifulSoup 的对象。代码如下:

# 从 bs4 模块中导入 BeautifulSoup 类

from bs4 import BeautifulSoup

# 创建一个 BeautifulSoup 的对象,并将刚才我们存储网页内容的变量作为参数

doc = BeautifulSoup(html_content)

# 打印 doc 对象的 title 属性。

print(doc.title)

执行上述代码之后,BeautifulSoup 对象就被创建并存在变量 doc 中,为了测试是否创建成功,我们打印了 doc 对象的 title 属性,输出如下。

<title>

煎蛋 - 地球上没有新鲜事

</title>

(3)BeautifulSoup 对象的基本使用

刚刚我们打印了 doc 对象的 title 属性,来测试对象是否创建成功。从打印的内容来看,想必你已经猜到了,doc 对象的 title 属性,就对应了网页的 title 标签。但是刚才我们打印的内容中,title 标签也被打印出来了。

那是否可以只取标签里面的内容呢?

①get_text方法

在 BeautifulSoup 中,我们可以通过标签对象的 get_text 方法来获得标签中的内容。

# 将 title 属性保存在 title_label 的变量中

title_label = doc.title

# 调用 get_text 方法,并把返回值打印出来

print(title_label.get_text())

输出如下:

煎蛋 - 地球上没有新鲜事

可以看到,这次我们成功将标签内的文字提取了出来。

②find_all方法

BeautifulSoup 对象另一个常用方法是 find_all, 用来在 html 文档中查到特定标签名以及特定属性值的标签,下面来举例说明。

比如,在网页上有这么个结构

快乐学Python,如何使用爬虫从网页中提取感兴趣的内容?,玩转Python数据分析,python,爬虫,开发语言
目前我们的 doc 对象已经包含了这些内容。现在我们来尝试提取 class 等于 logo 的这个 div 标签,代码如下。

# find_all 是 BeautifulSoup 对象的常用方法,用于查找特定的标签

# 接受三个参数,第一个是要查找的标签名,第二个则是要匹配的属性名

# 比如这里,我们查找的是 class=logo 标签,则直接按如下写法即可。

# 因为 class 是 Python 的关键字,所以这里需要使用 class_ 以示区分

# 最终,find_all 函数返回所有满足条件的标签列表

logo_label = doc.find_all("div", class_="logo")

print(logo_label)

输出结果为:

[<div class="logo">

<h1><a href="/" onclick="ga('send', 'pageview','/header/logo');">煎蛋</a></h1>

</div>]

可以看到,我们截图中的内容,箭头所指的 div 标签被成功的过滤了出来。

③获取标签对象的属性

通过标签对象的 attrs 属性,我们可以获取标签对象的属性的值,attrs 是一个字典,获取属性的值的方法如下:

# 取 logo_label 列表的第一个标签对象

label = logo_label[0]

# 打印这个对象的 class 属性

print(label.attrs["class"])

输出:

['logo']

2、过滤出网页的新闻列表

现在,我们来使用之前的 doc 对象来过滤出新闻的标题列表。

(1)观察html,提取初步的新闻标签列表

在使用 BeautifulSoup 进行内容过滤的第一步,首先要查看我们想要的内容所在的标签。我们在 VS Code 中打开 jiandan.html,搜索“普通感冒”到达新闻标题内容区域,如下图所示。

快乐学Python,如何使用爬虫从网页中提取感兴趣的内容?,玩转Python数据分析,python,爬虫,开发语言
通过观察截图中的标签内容,很容易发现似乎每个新闻标题,都有一个对应的 div 标签,并且它的 class 是 indexs。沿着这个思路,我们可以先考虑使用 find_all 将其过滤出来。通过如下代码。

# 查找 class 为 indexs 的所有 div 标签,存储在 index_labels 中

index_labels = doc.find_all("div", class_="indexs")

# 打印符合条件的 div 标签的数量

print(len(index_labels))

输出:

24

说明找到了 24 个符合条件的 div 标签。一个网页的新闻也是 20 多条,说明有希望。

(2)提取单个标签的新闻标题

因为 index_labels 是一个标签对象的列表,距离我们要过滤的新闻标题还有距离。下一步,我们就来分析如何从这些标签对象中抽取新闻标题。
首先,我们先取第一个来看一下。

first_object = index_labels[0]

print(first_object)

输出如下:

<div class="indexs">

<span class="comment-link" title="1小时 ago">8</span>

<h2><a href="http://jandan.net/p/108693" target="_blank">引发普通感冒的鼻病毒会将新冠病毒排挤出细胞!</a></h2>

<div class="time_s"><a href="http://jandan.net/p/author/majer">majer</a> · <strong><a href="http://jandan.net/p/tag/%e6%96%b0%e5%86%a0%e7%97%85%e6%af%92" rel="tag">新冠病毒</a></strong></div>

换而言之,如果你感冒了,在那段期间就不会被新冠病毒感染 </div>

现在我们的问题就转化为,如何从上述 html 中抽取出新闻的标题。

通过查看上述内容可以发现,我们的标题在第三行,在一个 a 标签内部。那是不是我们只需要过滤出这个 a 标签,再使用 get_text 拿到里面的内容就好了?

那要怎么过滤出第三行的 a 标签呢?可以看到这个 a 标签里有 target=“_blank” 这样一个属性,我们就可以使用 find_all 将其过滤出来了。

# 从刚才的 first_object 标签对象中过滤出所有 target=_blank 的 a 标签

a_labels = first_object.find_all("a",target="_blank")

# 取第一个标签对象

my_label = a_labels[0]

# 打印该标签对象内的文字内容

print(my_label.get_text())

输出如下:

引发普通感冒的鼻病毒会将新冠病毒排挤出细胞!

你看,新闻的标题被成功抽取了出来!

(3)提取新闻标题的列表

目前,我们已经实现了从第一个标签对象中提取新闻标题,但我们的列表中有 24 个标签对象。要怎么做呢?聪明的你应该想到了,我们只需要把“从标签对象抽取标题”这段逻辑写成一个函数,然后通过一个循环对列表的每个标签对象都调用这个函数即可。

# 从第一次 find_all 获取的标签对象中抽取标题

def get_title(label_object):

    # 从刚才的参数传入的标签对象中过滤出所有 target=_blank 的 a 标签

    a_labels = label_object.find_all("a",target="_blank")

    # 取第一个标签对象

    my_label = a_labels[0]

    # 将标签的文字内容作为返回值返回

    return my_label.get_text()

# 用循环针对每个 index_labels 列表中的标签对象

# 都将其作为参数传入 get_title 函数

# 并打印返回值

for i in range(0,len(index_labels)):

    title = get_title(index_labels[i])

    print(title)

执行后输出:

引发普通感冒的鼻病毒会将新冠病毒排挤出细胞!

无厘头研究:植入虚假的记忆再抹去它们

什么是仇恨犯罪?

突发:LHCb发现了违背标准模型的现象

今日带货 20210324

舌战裸猿:IBM搞出了可以打辩论赛的AI

大吐槽:「我没醉,醉的是世界」

今年世界总发电量的0.6%被用于挖比特币

接种疫苗后还是感染新冠?不要为此惊讶

今日带货:蛋友家的血橙

科学家首次在野外检测到抗多药的超级真菌

未在iPhone12盒中搭配充电器,苹果被巴西消协罚200万美元

工程师将解决城市陷坑的问题

今日带货:粉面专场

科学家在碟子里培育出了泪腺,并让它哭泣

疯狂实验进行时:把志愿者禁闭在黑暗的空间里40天

今日带货 20210321

我们已向外星人发送了哪些消息?

脑力小体操:石头+剪刀 VS 石头+布

发霉啦:今天,我终于向母亲摊牌了

普渡大学的经济学家计算出世界各地幸福的价格

人类首次观察到木星上极光黎明风暴的成形过程

为女儿出头,母亲编辑假裸照败坏高中啦啦队队员的名誉

今日带货:淘宝京东蛋友推荐

可以看到,jiandan.html 中的所有新闻标题被我们成功过滤了出来,现在是不是感受到了 BeautifulSoup 的神奇之处了呢。

至此,我们就完成了使用 BeautifulSoup 对网页进行内容的提取。文章来源地址https://www.toymoban.com/news/detail-799854.html

到了这里,关于快乐学Python,如何使用爬虫从网页中提取感兴趣的内容?的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 爬虫:使用Selenium模拟人工操作及获取网页内容

    结合自身经验和内部资料总结的Python教程,每天3-5章,最短1个月就能全方位的完成Python的学习并进行实战开发,学完了定能成为大佬!加油吧!卷起来! 全部文章请访问专栏:《Python全栈教程(0基础)》 再推荐一下最近热更的:《大厂测试高频面试题详解》 该专栏对近年

    2024年02月13日
    浏览(43)
  • 爬虫(三):使用Selenium模拟人工操作及获取网页内容

    结合自身经验和内部资料总结的Python教程,每天3-5章,最短1个月就能全方位的完成Python的学习并进行实战开发,学完了定能成为大佬!加油吧!卷起来! 全部文章请访问专栏:《Python全栈教程(0基础)》 再推荐一下最近热更的:《大厂测试高频面试题详解》 该专栏对近年

    2024年02月11日
    浏览(44)
  • 快乐学Python,使用爬虫爬取电视剧信息,构建评分数据集

    在前面几篇文章中,我们了解了Python爬虫技术的三个基础环节:下载网页、提取数据以及保存数据。 这一篇文章,我们通过实际操作来将三个环节串联起来,以国产电视剧为例,构建我们的电视剧评分数据集。 收集目前国产电视剧的相关数据,需要构建国产电视剧和评分的

    2024年01月21日
    浏览(51)
  • Python怎么让页面等待?Python爬虫如何等待网页加载完成

    现在的很多网页都会使用Ajax这种异步加载的技术来提高网页的浏览体验,而异步加载就是让一部分元素在点击或者执行了某些操作时才会加载出来,而这对python爬虫程序会造成很大的影响。下面会来给大家介绍一下python爬虫让网页等待加载的方法,往下看看吧。 之所以要使

    2024年02月20日
    浏览(47)
  • 使用Python和Selenium抓取网页内容

    采集动态网页是困扰许多人的难题,不妨使用 Python 和 Selenium抓取网页数据。 微信搜索关注《Python学研大本营》,加入读者群,分享更多精彩 你是否对从网站提取数据感兴趣,但发现自己被网络抓取的复杂性所困扰?不要害怕,我们在这篇文章中将展示如何利用 Selenium 和

    2024年02月07日
    浏览(71)
  • Python爬虫进阶:使用Scrapy库进行数据提取和处理

    在我们的初级教程中,我们介绍了如何使用Scrapy创建和运行一个简单的爬虫。在这篇文章中,我们将深入了解Scrapy的强大功能,学习如何使用Scrapy提取和处理数据。 在Scrapy中,提取数据主要通过Selectors来完成。Selectors基于XPath或CSS表达式的查询语言来选取HTML文档中的元素。你

    2024年02月09日
    浏览(48)
  • Python爬虫-爬取文档内容,如何去掉文档中的表格,并保存正文内容

    前言 本文是该专栏的第58篇,后面会持续分享python爬虫干货知识,记得关注。 做过爬虫项目的同学,可能或多或少爬取过文档数据,比如说“政务网站,新闻网站,小说网站”等平台的文档数据。爬取文档数据,笔者这里就不过多详述,而本文, 笔者将主要介绍在爬取文档

    2024年02月08日
    浏览(55)
  • scrapy爬虫爬取多网页内容

    摘要 :此案例是爬取目标网站( https://tipdm.com/ )的 新闻中心 板块的 公司新闻 中所有新闻的标题、发布时间、访问量和新闻的文本内容。 我使用的是 Anaconda prompt 我们使用如下命令创建scrapy项目: scrapy startproject spider_name 爬虫路径 spider_name 是项目的名字 爬虫路径 就是项目

    2023年04月21日
    浏览(40)
  • Python 网页爬虫原理及代理 IP 使用

    目录 前言 一、Python 网页爬虫原理 二、Python 网页爬虫案例 步骤1:分析网页 步骤2:提取数据 步骤3:存储数据 三、使用代理 IP 四、总结 前言 随着互联网的发展,网络上的信息量变得越来越庞大。对于数据分析人员和研究人员来说,获取这些数据是一项重要的任务。Python

    2024年02月09日
    浏览(55)
  • Python使用Selenium Webdriver爬取网页所有内容

    有时候,我们在用urllib或者requests库抓取页面时,得到的html源代码和浏览器中看到的不一样。这将是我们面临的一个非常常见的问题。现在网页越来越多地采用Ajax、前端模块化工具来构建,整个网页可能都是由JavaScript渲染出来的,也就是说原始的HTML代码可能就是一个空壳,

    2023年04月08日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包