Python文本数据及其可视化

这篇具有很好参考价值的文章主要介绍了Python文本数据及其可视化。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.实验内容:

  1. 根据qq音乐获取的信息,对某一首歌曲的评论内容进行处理。
  2. 分析评论中的词性分布。
  3. 统计高频词,画出词云。

2.实验步骤:

    1. 文本信息初处理:

根据实验二QQ音乐抓取周杰伦的前五首歌曲评论等信息筛查晴天这首歌的相关信息存为“晴天-周杰伦”的文本文件方便后续数据读取。

文本信息节选展示:

Python文本数据及其可视化

    2. 编写词云绘制,词频统计以及词性分析代码:

首先打开文件进行读取信息,去掉长度为一的词存下来并统计频率最高的三十个词打印输出词和词出现的次数。获取信息进行文本切割以后进行词云的相关绘制。进行词性分析,统计评论中词的词性并打印输出各类词性的数量。

词频统计节选展示:

Python文本数据及其可视化

词性分析节选展示:

Python文本数据及其可视化

 词云如图:

Python文本数据及其可视化

词云背景图:

Python文本数据及其可视化

    3. 编写词性分析数据可视化代码:

利用2步骤中的切割好的信息绘制条形图,设置纵轴横轴名称和数据获取绘制以及大小等。

运行展示:

Python文本数据及其可视化

条状图如下:

Python文本数据及其可视化

3.实验总结:

  本次实验进行实验二信息的数据分析和可视化操作,在实操中学会了很多,特别是在词云绘制和词性条状图绘制中学会了很多绘制技巧的基本内容,实验难点是在做文本信息切割存储的时候需要考虑词的长度以及各类非汉字字符的去除等需要特别注意。总之本次实验学习和实践了评论的数据分析词性分析等可视化的绘制词云绘制词性条状图的内容,加深了对数据分析可视化的理解,难点痛点还需要多加理解和实践。 

4.实验源码:

源码一:(进行词频统计和词性分析以及词云的绘制)

#词云绘制及词性、词频统计分析
import jieba,wordcloud,re
import jieba.posseg as pseg
import imageio

#统计出现频率最高的前三十个词并输出
txt = open("晴天-周杰伦","r",encoding="utf-8").read()
words = jieba.lcut(txt)
counts = {}
#去掉长度为1的词
for word in words:
    if len(word) == 1:
        continue
    else:
        counts[word] = counts.get(word,0) + 1
items = list(counts.items())
items.sort(key = lambda x:x[1],reverse=True)
print("统计高频词汇如下:")
print("词语           出现次数\n")
for i in range(30):
    word,count = items[i]
    print("{0:<10}{1:>5}".format(word,count))

 #'''除去文本中的非汉字字符
    # for ch in r'●━━━━━━───────⇆◁❚❚☞▷↻「」~🦠\
    # 🦘1234567890”`~!@#$%^&*()-_=+[]{}\\|;\
    # :\'\",./<>?·~!@#¥%……&*()——+-=【】{}、|;:\‘\“,。《》?qwertyuiop\
    # asdfghjklzxcvbnmQAZXSWEDCVFRTGBNHYUJMKIOLP年月日':'''
#定义去除掉文本中的非汉字字符的函数
def find_chinese(file):
    pattern = re.compile(r'[^\u4e00-\u9fa5]')
    chinese = re.sub(pattern,'', file)
    return chinese


#获取文件文本
def getText():
    txt = open("晴天-周杰伦","r",encoding="utf-8").read()
    txt = find_chinese(txt)
    return txt
#获取文本信息并进行切割
txt = getText()
txt = jieba.lcut(txt)


#创建列表存入长度大于1的词语
words = []
for word in txt:
    if len(word) == 1:
        continue
    else:
        words.append(word)


txt = words
color_mask =imageio.v2.imread("b.jpg")#词云背景图
txt = " ".join(txt)
w = wordcloud.WordCloud(width = 390, height = 390,\
                        background_color = "black",\
                        font_path = "msyh.ttc",\
                        contour_color= "green",\
                        contour_width= 2,\
                        mask=color_mask,\
                        mode="RGB")
w.generate(txt)
w.to_file("词云.png")


txt = open("晴天-周杰伦","r",encoding="utf-8").read()
words = pseg.lcut(txt)
counts = {}
for word in words:
    counts[word.flag] = counts.get(word.flag,0) + 1
items = list(counts.items())
items.sort(key = lambda  x:x[1],reverse=True)
print("经过统计和分析文件,\n其中的评论含有的词种类以及数量如下所示:")
print("词性           数量\n")
for i in range(len(counts)):
    flag,count = items[i]
    print("{0:<10}{1:>5}".format(flag,count))

源码2:词性分析可视化 文章来源地址https://www.toymoban.com/news/detail-433477.html

import jieba.posseg as pseg
import matplotlib.pyplot as plt
from collections import Counter
txt = open("晴天-周杰伦","r",encoding="utf-8").read()
words = pseg.lcut(txt)
word_list=[]
flag_list=[]
for word,flag in words:
    if(word!=' ')and(flag!='x'):
        word_list.append(word)
        flag_list.append(flag)
print(word_list)
print(flag_list)
word_dict = Counter(flag_list)
print(word_dict)
# 画条状图
key_list = list(word_dict.keys())
value_list = list(word_dict.values())
plt.figure(figsize=(25, 30), dpi=100)  # 设置大小
plt.barh(key_list, value_list)  # 画图
plt.rcParams["font.sans-serif"] = ["SimHei"]  # 设置中文字体
plt.xlabel("数量")
plt.ylabel("词性英文简称")
plt.title("评论词频统计")
plt.xticks([i for i in range(0, 301, 25)])
plt.savefig("词性分析.png")  # 保存文件
plt.show()  # 画图'''

到了这里,关于Python文本数据及其可视化的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 大数据可视化——基于Python豆瓣电影数据可视化分析系统

    本项目旨在通过对豆瓣电影数据进行综合分析与可视化展示,构建一个基于Python的大数据可视化系统。通过数据爬取收集、清洗、分析豆瓣电影数据,我们提供了一个全面的电影信息平台,为用户提供深入了解电影产业趋势、影片评价与演员表现的工具。项目的关键步骤包括

    2024年01月21日
    浏览(59)
  • 81 | Python可视化篇 —— Seaborn数据可视化

    Seaborn是Python中一个基于Matplotlib的高级数据可视化库,它提供了更简单的API和更美观的图形样式,适用于数据探索和展示。在本教程中,我们将介绍Seaborn的基本概念和用法,并通过一些示例演示如何使用Seaborn来创建各种图表和图形。

    2024年02月14日
    浏览(42)
  • 83 | Python可视化篇 —— Bokeh数据可视化

    Bokeh 是一种交互式数据可视化库,它可以在 Python 中使用。它的设计目标是提供一个简单、灵活和强大的方式来创建现代数据可视化,同时保持良好的性能。Bokeh 支持多种图表类型,包括线图、散点图、柱状图、饼图、区域图、热力图等。此外,它还支持将这些图表组合在一

    2024年02月13日
    浏览(44)
  • Python-Python基础综合案例:数据可视化 - 折线图可视化

    当前版本号[20230729]。 版本 修改说明 20230729 初版 效果一:2020年印美日新冠累计确诊人数 ​ 2020年是新冠疫情爆发的一年, 随着疫情的爆发, 国内外确诊人数成了大家关心的热点, 相信大家都有看过类似的疫情报告. 本案例对印度美国日本三个国家确诊人数的进行了可视化处理

    2024年02月15日
    浏览(50)
  • Python大作业——爬虫+可视化+数据分析+数据库(可视化篇)

    相关链接 Python大作业——爬虫+可视化+数据分析+数据库(简介篇) Python大作业——爬虫+可视化+数据分析+数据库(爬虫篇) Python大作业——爬虫+可视化+数据分析+数据库(数据分析篇) Python大作业——爬虫+可视化+数据分析+数据库(数据库篇) 由于该程序会通过与数据库

    2024年02月04日
    浏览(64)
  • Python毕业设计 抖音短视频数据分析与可视化 - python 大数据 可视化

    🔥 这两年开始毕业设计和毕业答辩的要求和难度不断提升,传统的毕设题目缺少创新和亮点,往往达不到毕业答辩的要求,这两年不断有学弟学妹告诉学长自己做的项目系统达不到老师的要求。 为了大家能够顺利以及最少的精力通过毕设,学长分享优质毕业设计项目,今天

    2024年02月02日
    浏览(46)
  • 【python可视化大屏】使用python实现可拖拽数据可视化大屏

    我在前几期分享了关于爬取weibo评论的爬虫,同时也分享了如何去进行数据可视化的操作。但是之前的可视化都是单独的,没有办法在一个界面上展示的。这样一来呢,大家在看的时候其实是很不方便的,就是没有办法一目了然的看到数据的规律。为了解决这个问题我使用p

    2024年02月03日
    浏览(62)
  • [数据分析与可视化] Python绘制数据地图2-GeoPandas地图可视化

    本文主要介绍GeoPandas结合matplotlib实现地图的基础可视化。GeoPandas是一个Python开源项目,旨在提供丰富而简单的地理空间数据处理接口。GeoPandas扩展了Pandas的数据类型,并使用matplotlib进行绘图。GeoPandas官方仓库地址为:GeoPandas。GeoPandas的官方文档地址为:GeoPandas-doc。关于Geo

    2023年04月09日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包