【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!

这篇具有很好参考价值的文章主要介绍了【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录
  • 一、背景说明
    • 1.1 效果演示
    • 1.2 演示视频
    • 1.3 软件说明
  • 二、代码讲解
    • 2.1 爬虫采集模块
    • 2.2 软件界面模块
    • 2.3 日志模块
  • 三、获取源码及软件

一、背景说明

1.1 效果演示

您好!我是@马哥python说,一名10年程序猿。

我用python开发了一个爬虫采集软件,可自动抓取快手评论数据,并且含二级评论!

为什么有了源码还开发界面软件呢?方便不懂编程代码的小白用户使用,无需安装python、无需懂代码,双击打开即用!

软件界面截图:【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!

爬取结果截图:

结果截图1:【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!

结果截图2:【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!

结果截图3:【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!

以上。

1.2 演示视频

软件运行演示视频:
【软件演示】快手评论采集工具,可爬取上万条,含二级评论、展开评论!

1.3 软件说明

几点重要说明:

  1. Windows用户可直接双击打开使用,无需Python运行环境,非常方便!
  2. 需要填入cookie和爬取目标视频链接。
  3. 支持同时爬多个视频的评论。
  4. 可爬取9个关键字段,含:目标链接,页码,评论者昵称,评论者id,评论者主页链接,评论时间,评论点赞数,评论级别,评论内容。
  5. 评论中包含二级评论及二级展开评论。
  6. 爬取结果自动导出到csv文件。

二、代码讲解

2.1 爬虫采集模块

首先,定义接口地址作为请求地址:

# 请求地址
url = 'https://www.kuaishou.com/graphql'

定义一个请求头,用于伪造浏览器:

# 请求头
h1 = {
	'Accept': '*/*',
	'Accept-Encoding': 'gzip, deflate, br',
	'Accept-Language': 'zh-CN,zh;q=0.9',
	'Connection': 'keep-alive',
	'Content-Type': 'application/json',
	'Cookie': self.cookie_val,
	'Host': 'www.kuaishou.com',
	'Origin': 'https://www.kuaishou.com',
	'Referer': 'https://www.kuaishou.com',
	'Sec-Fetch-Dest': 'empty',
	'Sec-Fetch-Mode': 'cors',
	'Sec-Fetch-Site': 'same-origin',
	'User-Agent': 'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_15_7) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36',
	'sec-ch-ua': '"Google Chrome";v="119", "Chromium";v="119", "Not?A_Brand";v="24"',
	'sec-ch-ua-mobile': '?0',
	'sec-ch-ua-platform': '"macOS"',
}

其中,cookie是个关键参数,需要填写到软件界面里。

cookie获取方法如下:【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!

加上请求参数,告诉程序你的爬取条件是什么:

# 请求参数
params = {"operationName": "commentListQuery",
		  "variables": {
			  "photoId": video_id,
			  "pcursor": pcursor,
		  },
		  "query": "query commentListQuery($photoId: String, $pcursor: String) {\n  visionCommentList(photoId: $photoId, pcursor: $pcursor) {\n    commentCount\n    pcursor\n    rootComments {\n      commentId\n      authorId\n      authorName\n      content\n      headurl\n      timestamp\n      likedCount\n      realLikedCount\n      liked\n      status\n      authorLiked\n      subCommentCount\n      subCommentsPcursor\n      subComments {\n        commentId\n        authorId\n        authorName\n        content\n        headurl\n        timestamp\n        likedCount\n        realLikedCount\n        liked\n        status\n        authorLiked\n        replyToUserName\n        replyTo\n        __typename\n      }\n      __typename\n    }\n    __typename\n  }\n}\n"}

下面就是发送请求和接收数据:

# 发送请求
r = requests.post(url, json=params, headers=h1)
# 接收json数据
json_data = r.json()

定义一些空列表,用于存放解析后字段数据:

content_list = []  # 评论内容
create_time_list = []  # 评论时间
like_count_list = []  # 评论点赞数
author_name_list = []  # 评论者昵称
author_id_list = []  # 评论者id
author_link_list = []  # 评论者链接
comment_level_list = []  # 评论级别

循环解析字段数据,以"评论内容"为例:

# 循环解析
for data in json_data['data']['visionCommentList']['rootComments']:
	# 评论内容
	content = data['content']
	self.tk_show('评论内容:' + content)
	content_list.append(content)

其他字段同理,不再赘述。

最后,是把数据保存到csv文件:

# 保存数据到DF
df = pd.DataFrame(
	{
		'目标链接': 'https://www.kuaishou.com/short-video/' + video_id,
		'页码': page,
		'评论者昵称': author_name_list,
		'评论者id': author_id_list,
		'评论者主页链接': author_link_list,
		'评论时间': create_time_list,
		'评论点赞数': like_count_list,
		'评论级别': comment_level_list,
		'评论内容': content_list,
	}
)
# 保存到csv
if os.path.exists(self.result_file):  # 如果文件存在,不再设置表头
	header = False
else:  # 否则,设置csv文件表头
	header = True
df.to_csv(self.result_file, mode='a+', index=False, header=header, encoding='utf_8_sig')
self.tk_show('视频[{}]第{}页已保存到csv'.format(video_id, page))

完整代码中,还含有:游标控制翻页、判断循环结束条件、时间戳转换、二级评论及二级展开评论的采集等关键实现逻辑,详见文末。

2.2 软件界面模块

软件界面采用tkinter开发。

主窗口部分:

# 创建主窗口
root = tk.Tk()
root.title('快手评论采集软件v1.0 | 马哥python说')
# 设置窗口大小
root.minsize(width=850, height=650)

填写cookie控件:

# 【填入Cookie】
tk.Label(root, justify='left', font=('微软', 14), text='个人Cookie:').place(x=30, y=75)
entry_ck = tk.Text(root, bg='#ffffff', width=110, height=2, )
entry_ck.place(x=30, y=100, anchor='nw')  # 摆放位置

填写视频链接控件:

# 【视频链接】
tk.Label(root, justify='left', font=('微软', 14), text='视频链接:').place(x=30, y=185)
video_ids = tk.StringVar()
video_ids.set('')
entry_nt = tk.Text(root, bg='#ffffff', width=110, height=12, )
entry_nt.place(x=30, y=210, anchor='nw')  # 摆放位置

底部软件版权说明:

# 版权信息
copyright = tk.Label(root, text='@马哥python说 All rights reserved.', font=('仿宋', 10), fg='grey')
copyright.place(x=290, y=625)

以上。

2.3 日志模块

好的日志功能,方便软件运行出问题后快速定位原因,修复bug。

核心代码:

def get_logger(self):
	self.logger = logging.getLogger(__name__)
	# 日志格式
	formatter = '[%(asctime)s-%(filename)s][%(funcName)s-%(lineno)d]--%(message)s'
	# 日志级别
	self.logger.setLevel(logging.DEBUG)
	# 控制台日志
	sh = logging.StreamHandler()
	log_formatter = logging.Formatter(formatter, datefmt='%Y-%m-%d %H:%M:%S')
	# info日志文件名
	info_file_name = time.strftime("%Y-%m-%d") + '.log'
	case_dir = r'./logs/'
	info_handler = TimedRotatingFileHandler(filename=case_dir + info_file_name,
											when='MIDNIGHT',
											interval=1,
											backupCount=7,
											encoding='utf-8')

日志文件截图:【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!

三、获取源码及软件

完整python源码及exe软件,微信公众号"老男孩的平凡之路"后台回复"爬快手评论软件"即可获取。点击直达


我是@马哥python说,一名10年程序猿,持续分享python干货中!文章来源地址https://www.toymoban.com/news/detail-841687.html

到了这里,关于【GUI界面软件】快手评论区采集:自动采集10000多条,含二级评论、展开评论!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 抖音视频评论采集软件|抖音数据抓取工具

            抖音视频评论采集软件是一款基于C#开发的高效、便捷的工具,旨在为用户提供全面的数据采集和分析服务。该软件不仅支持通过进行搜索抓取,还能够通过分享链接进行单个视频的抓取和下载,让用户轻松获取抖音视频评论数据。         其中,批量视频提

    2024年04月11日
    浏览(50)
  • 【GUI软件】小红书搜索结果批量采集,支持多个关键词同时抓取!

    目录 一、背景介绍 1.1 爬取目标 1.2 演示视频 1.3 软件说明 二、代码讲解 2.1 爬虫采集模块 2.2 软件界面模块 2.3 日志模块 三、获取源码及软件 您好!我是@马哥python说 ,一名10年程序猿。 我用python开发了一个爬虫采集软件,可自动按抓取小红书笔记数据。 为什么有了源

    2024年02月04日
    浏览(58)
  • 【GUI软件】抖音搜索结果批量采集,支持多个关键词、排序方式、发布时间筛选等!

    目录 一、背景介绍 1.1 爬取目标 1.2 演示视频 1.3 软件说明 二、代码讲解 2.1 爬虫采集模块 2.2 软件界面模块 2.3 日志模块 三、获取源码及软件 您好!我是@马哥python说,一名10年程序猿。 我用python开发了一个爬虫采集软件,可自动按抓取抖音视频数据。 为什么有了源码

    2024年02月02日
    浏览(90)
  • Matlab:利用Matlab软件进行GUI界面设计实现图像的基本操作

    📌数模之路+Matlab 专栏正在持续更新中,案例的原理图解析、各种模块分析💖这里都有哦,同时也欢迎大家订阅专栏,获取更多详细信息哦✊✊✊ ✨个人主页:零小唬的博客主页 🥂欢迎大家 👍点赞 📨评论 🔔收藏 ✨作者简介:20级计算机专业学生一枚,来自宁夏,可能会

    2024年02月06日
    浏览(40)
  • 用 Python 制作可视化 GUI 界面,一键实现自动分类管理文件!

    经常杂乱无章的文件夹会让我们找不到所想要的文件,因此小编特意制作了一个 可视化GUI界面 ,通过输入路径一键点击实现文件分门别类的归档。 不同的文件后缀归类为不同的类别 我们先罗列一下大致有几类文件,根据文件的后缀来设定,大致如下 上面所罗列出来的文件

    2024年01月19日
    浏览(46)
  • 【xhs爬虫软件】把小红书博主发布笔记API接口user_posted接口封装成GUI采集工具!

    用Python开发的爬虫采集软件,可自动抓取小红书博主的已发布笔记。 小红书的已发布笔记接口URL: 开发者模式分析过程: 进而封装成GUI界面软件,如下: 软件效果: 采集结果: 演示视频: https://www.bilibili.com/video/BV1Zy421z74a 详细讲解文章: 【GUI软件】小红书指定博主批量采

    2024年04月27日
    浏览(45)
  • 全自动模拟量采集软件框架详解

    Monitor.Analog采用一种MVVM架构模式,用于将用户界面(View)与业务逻辑(Model)进行分离,并通过ViewModel来进行连接和交互。以下是MVVM框架的介绍: 模拟量采集/老化房采集软件 1. Model(模型):模型代表应用程序的业务逻辑和数据。它包含数据模型、数据访问、业务规则等。

    2024年02月12日
    浏览(44)
  • 淘宝爬虫评论数据采集的探索之旅

    随着互联网的普及,淘宝作为中国最大的电商平台,每天都有大量的用户在上面购物。为了更好地了解商品的质量和用户的满意度,许多消费者开始关注商品的评论数据。然而,手动翻阅大量的评论不仅耗时,而且容易遗漏重要的信息。因此,我们需要一种自动化工具来帮助

    2024年01月24日
    浏览(47)
  • python爬各平台评论并数据分析——数据采集、评论情绪分析、新闻热度

    1.python之matplotlib使用系统字体 用于解决python绘图中,中文字体显示问题 2.cookie与视频页面id(b站、微博等)查看 F12打开网页开发者模式,然后F5刷新,进入控制台中的网络,查看Fetch/XHR 3.爬取wb评论时,最好使用网页手机端 网页手机端:https://m.weibo.cn/?sudaref=cn.bing.com 4.从存储

    2024年02月09日
    浏览(52)
  • LLMs之RAG:LangChain-ChatGLM-Webui(一款基于本地知识库(各种文本文档)的自动问答的GUI界面实现)的简介、安装、使用方法之详细攻略

    LLMs之RAG:LangChain-ChatGLM-Webui(一款基于本地知识库(各种文本文档)的自动问答的GUI界面实现)的简介、安装、使用方法之详细攻略 目录 LangChain-ChatGLM-Webui的简介 1、支持的模型 LangChain-ChatGLM-Webui的安装 1、安装 T1、直接安装​ 环境准备 启动程序 T2、Docker安装 (1)、Docker 基础环境运

    2024年02月04日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包