大数据可视化——基于Python豆瓣电影数据可视化分析

这篇具有很好参考价值的文章主要介绍了大数据可视化——基于Python豆瓣电影数据可视化分析。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

大数据可视化——基于Python豆瓣电影数据可视化分析系统

本项目旨在通过对豆瓣电影数据进行综合分析与可视化展示,构建一个基于Python的大数据可视化系统。通过数据爬取收集、清洗、分析豆瓣电影数据,我们提供了一个全面的电影信息平台,为用户提供深入了解电影产业趋势、影片评价与演员表现的工具。项目的关键步骤包括数据采集、数据清洗、数据分析与可视化展示。首先,我们使用爬虫技术从豆瓣电影网站获取丰富的电影数据,包括电影基本信息、评分、评论等存储到Mysql数据库。然后,通过数据清洗与预处理,确保数据的质量与一致性,以提高后续分析的准确性。数据分析阶段主要包括对电影评分分布、不同类型电影的数量分布、评分、演员的影响力等方面的深入研究。基于Echarts进行可视化展示,借助Python中的数据分析库(如Pandas、NumPy)和可视化库(如Matplotlib、Seaborn),我们能够以图表的形式清晰地展示电影数据的特征和趋势。最终,我们将分析结果以交互式的可视化界面呈现,用户可以通过系统自定义的查询与过滤功能,深入挖掘他们感兴趣的电影信息。这个项目不仅为电影爱好者提供了一个全面的数据参考平台,也为电影产业从业者提供了洞察行业动向的工具。

最后我们爬取到的字段信息:电影名,评分,封面图,详情url,上映时间,导演,类型,制作国家,语言,片长,电影简介,星星比例,多少人评价,预告片,前五条评论,五张详情图片

 for i,moveInfomation in enumerate(moveisInfomation):
        try:
            resultData = {}
            # 详情
            resultData['detailLink'] = detailUrls[i]
            # 导演(数组)
            resultData['directors'] = ','.join(moveInfomation['directors'])
            # 评分
            resultData['rate'] = moveInfomation['rate']
            # 影片名
            resultData['title'] = moveInfomation['title']
            # 主演(数组)
            resultData['casts'] = ','.join(moveInfomation['casts'])
            # 封面
            resultData['cover'] = moveInfomation['cover']

            # =================进入详情页====================
            detailMovieRes = requests.get(detailUrls[i], headers=headers)
            soup = BeautifulSoup(detailMovieRes.text, 'lxml')
            # 上映年份
            resultData['year'] = re.findall(r'[(](.*?)[)]',soup.find('span', class_='year').get_text())[0]
            types = soup.find_all('span',property='v:genre')
            for i,span in enumerate(types):
                types[i] = span.get_text()
            # 影片类型(数组)
            resultData['types'] = ','.join(types)
            country = soup.find_all('span',class_='pl')[4].next_sibling.strip().split(sep='/')
            for i,c in enumerate(country):
                country[i] = c.strip()
            # 制作国家(数组)
            resultData['country'] = ','.join(country)
            lang = soup.find_all('span', class_='pl')[5].next_sibling.strip().split(sep='/')
            for i, l in enumerate(lang):
                lang[i] = l.strip()
            # 影片语言(数组)
            resultData['lang'] = ','.join(lang)

            upTimes = soup.find_all('span',property='v:initialReleaseDate')
            upTimesStr = ''
            for i in upTimes:
                upTimesStr = upTimesStr + i.get_text()
            upTime = re.findall(r'\d*-\d*-\d*',upTimesStr)[0]
            # 上映时间
            resultData['time'] = upTime
            if soup.find('span',property='v:runtime'):
                # 时间长度
                resultData['moveiTime'] = re.findall(r'\d+',soup.find('span',property='v:runtime').get_text())[0]
            else:
                # 时间长度
                resultData['moveiTime'] = random.randint(39,61)
            # 评论个数
            resultData['comment_len'] = soup.find('span',property='v:votes').get_text()
            starts = []
            startAll = soup.find_all('span',class_='rating_per')
            for i in startAll:
                starts.append(i.get_text())
            # 星星比例(数组)
            resultData['starts'] = ','.join(starts)
            # 影片简介
            resultData['summary'] = soup.find('span',property='v:summary').get_text().strip()

            # 五条热评
            comments_info = soup.find_all('span', class_='comment-info')
            comments = [{} for x in range(5)]
            for i, comment in enumerate(comments_info):
                comments[i]['user'] = comment.contents[1].get_text()
                comments[i]['start'] = re.findall('(\d*)', comment.contents[5].attrs['class'][0])[7]
                comments[i]['time'] = comment.contents[7].attrs['title']
            contents = soup.find_all('span', class_='short')
            for i in range(5):
                comments[i]['content'] = contents[i].get_text()
            resultData['comments'] = json.dumps(comments)

            # 五张详情图
            imgList = []
            lis = soup.select('.related-pic-bd img')
            for i in lis:
                imgList.append(i['src'])
            resultData['imgList'] = ','.join(imgList)

将结果保存到CSV文件和SQL数据库中,并在完成后更新页数记录。

从豆瓣电影数据中提取演员和导演的电影数量信息,以便后续的分析和可视化展示。

def getAllActorMovieNum():
    allData = homeData.getAllData()
    ActorMovieNum = {}
    for i in allData:
        for j in i[1]:
            if ActorMovieNum.get(j,-1) == -1:
                ActorMovieNum[j] = 1
            else:
                ActorMovieNum[j] = ActorMovieNum[j] + 1
    ActorMovieNum = sorted(ActorMovieNum.items(), key=lambda x: x[1])[-20:]
    x = []
    y = []
    for i in ActorMovieNum:
        x.append(i[0])
        y.append(i[1])
    return x,y

定义统计导演执导电影数量的函数getAllDirectorMovieNum():

def getAllDirectorMovieNum():
    allData = homeData.getAllData()
    ActorMovieNum = {}
    for i in allData:
        for j in i[4]:
            if ActorMovieNum.get(j,-1) == -1:
                ActorMovieNum[j] = 1
            else:
                ActorMovieNum[j] = ActorMovieNum[j] + 1
    ActorMovieNum = sorted(ActorMovieNum.items(), key=lambda x: x[1])[-20:]
    x = []
    y = []
    for i in ActorMovieNum:
        x.append(i[0])
        y.append(i[1])
    return x,y
  1. allData = homeData.getAllData():调用homeData模块中的getAllData函数,获取所有的电影数据,并将其保存在allData变量中。
  2. ActorMovieNum = {}:创建一个空字典ActorMovieNum,用于存储导演与其执导电影数量的映射。
  3. for i in allData::遍历所有电影数据,其中i代表每一部电影的信息。
  4. for j in i[4]::在每部电影的信息中,使用i[4]访问导演的信息,然后遍历每个导演。
  5. if ActorMovieNum.get(j, -1) == -1::检查字典ActorMovieNum中是否已经存在该导演的记录。如果不存在,则将该导演作为键加入字典,并将对应的值初始化为1。
  6. else::如果字典中已存在该导演的记录,则将对应的值加1,表示该导演又执导了一部电影。
  7. ActorMovieNum = sorted(ActorMovieNum.items(), key=lambda x: x[1])[-20:]:将字典中的导演及其执导电影数量按照电影数量进行降序排序,然后取排序后的前20项。排序的依据是key=lambda x: x[1],即按照字典中的值进行排序。
  8. x = []y = []:创建两个空列表,用于存储导演名称和对应的执导电影数量。
  9. for i in ActorMovieNum::遍历排序后的前20项导演及其执导电影数量。
  10. x.append(i[0])y.append(i[1]):将导演的名称和执导电影数量分别加入列表xy
  11. return x, y:返回存储导演名称和执导电影数量的两个列表。

从名为homeData的模块中导入getAllData函数,然后使用pandas库创建一个数据框(DataFrame)dfgetAllData函数的返回值被传递给DataFrame的构造函数,同时指定了数据框的列名。

  1. from . import homeData: 这行代码从当前目录(.表示当前目录)导入homeData模块。
  2. import pandas as ps: 这行代码导入pandas库,并使用ps作为别名。一般来说,pandas的别名是pd,但在这里使用了ps
  3. df = ps.DataFrame(homeData.getAllData(), columns=[...]): 这行代码创建一个数据框df,并使用homeData.getAllData()的返回值填充数据框。列名由columns参数指定,列的顺序与列表中的顺序相对应。列名包括:
    • ‘id’: 电影ID
    • ‘directors’: 导演
    • ‘rate’: 评分
    • ‘title’: 标题
    • ‘casts’: 演员
    • ‘cover’: 封面
    • ‘year’: 上映年份
    • ‘types’: 类型
    • ‘country’: 制片国家
    • ‘lang’: 语言
    • ‘time’: 时长
    • ‘moveiTime’: 电影时长
    • ‘comment_len’: 评论长度
    • ‘starts’: 星级
    • ‘summary’: 摘要
    • ‘comments’: 评论
    • ‘imgList’: 图片列表
    • ‘movieUrl’: 电影链接
    • ‘detailLink’: 详细链接

这样就创建了一个包含特定列名的数据框,其中的数据来自homeData.getAllData()函数的返回结果。

from . import homeData
import pandas as ps
df = ps.DataFrame(homeData.getAllData(),columns=[
        'id',
        'directors',
        'rate',
        'title',
        'casts',
        'cover',
        'year',
        'types',
        'country',
        'lang',
        'time',
        'moveiTime',
        'comment_len',
        'starts',
        'summary',
        'comments',
        'imgList',
        'movieUrl',
        'detailLink'
    ])

从数据框(DataFrame)中的’country’列中提取地址数据。数据框中的地址数据提取出来,并统计每个地址出现的次数。它首先检查’country’列中的每个元素,如果元素是一个列表,则将列表中的每个元素添加到一个新的列表(address)中。然后,它创建一个字典(addressDic),将地址作为键,出现次数作为值,最后返回地址列表和对应的出现次数列表。

def getAddressData():
    # 获取名为 'country' 的列的值
    addresses = df['country'].values
    
    # 创建一个空列表来存储地址
    address = []
    
    # 遍历 'country' 列的每个元素
    for i in addresses:
        # 如果元素是列表类型
        if isinstance(i, list):
            # 遍历列表中的每个元素并添加到 address 列表中
            for j in i:
                address.append(j)
        else:
            # 如果元素不是列表类型,直接将其添加到 address 列表中
            address.append(i)
    
    # 创建一个空字典来存储地址及其出现次数
    addressDic = {}
    
    # 遍历地址列表中的每个元素
    for i in address:
        # 如果地址字典中不存在该地址,则将其添加并设置出现次数为1
        if addressDic.get(i, -1) == -1:
            addressDic[i] = 1
        else:
            # 如果地址字典中已存在该地址,则将其出现次数加1
            addressDic[i] = addressDic[i] + 1
    
    # 返回地址列表和对应的出现次数列表
    return list(addressDic.keys()), list(addressDic.values())

从数据框的’lang’列中提取语言数据,并统计每种语言出现的次数。最终返回语言列表和对应的出现次数列表。

def getLangData():
    # 获取名为 'lang' 的列的值
    langs = df['lang'].values
    
    # 创建一个空列表来存储语言数据
    languages = []
    
    # 遍历 'lang' 列的每个元素
    for i in langs:
        # 如果元素是列表类型
        if isinstance(i, list):
            # 遍历列表中的每个元素并添加到 languages 列表中
            for j in i:
                languages.append(j)
        else:
            # 如果元素不是列表类型,直接将其添加到 languages 列表中
            languages.append(i)
    
    # 创建一个空字典来存储语言及其出现次数
    langsDic = {}
    
    # 遍历语言列表中的每个元素
    for i in languages:
        # 如果语言字典中不存在该语言,则将其添加并设置出现次数为1
        if langsDic.get(i, -1) == -1:
            langsDic[i] = 1
        else:
            # 如果语言字典中已存在该语言,则将其出现次数加1
            langsDic[i] = langsDic[i] + 1
    
    # 返回语言列表和对应的出现次数列表
    return list(langsDic.keys()), list(langsDic.values())

数据库创建四个表:
基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask
基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask
修改为自己的数据库主机名和账号密码:
基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask
启动项目:
基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

服务端口:5000 http://127.0.0.1:5000

用户注册 http://127.0.0.1:5000/registry

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

用户登录

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

首页页面展示:

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

还有电影数据,包括电影名、评分、片场、预告片等数据。

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

查看电影预告片

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

电影搜索

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

电影产量分析

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

电影数据时长分布占比

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

电影评分统计分析

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

​ 豆瓣评分星级饼状图、豆瓣年度评价评分柱状图

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

​ 豆瓣电影中外评分分布图

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

数据视图切换

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask
基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

​ 电影拍摄地点统计图

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

​ 电影语言统计图

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

电影类型饼图

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

​ 导演作品数量前20

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

​ 数据表操作

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

​ 标题词云图

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

​ 简介词云图

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask
s4XV8qh-1701860368769)

​ 演员名词云图

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

评论词云图

基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask
基于大数据的电影可视化分析,大数据,大数据实战,大数据可视化,信息可视化,python,开发语言,大数据,echarts,数据可视化,flask

需更多资料/商业合作/交流探讨等可以添加下面个人名片,感谢各位的喜欢与支持!

后面有时间和精力也会分享更多关于大数据领域方面的优质内容,喜欢的小伙伴可以点赞关注收藏,感谢各位的喜欢与支持!文章来源地址https://www.toymoban.com/news/detail-763583.html

到了这里,关于大数据可视化——基于Python豆瓣电影数据可视化分析的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基于Python的海量豆瓣电影、数据获取、数据预处理、数据分析、可视化、大屏设计项目(含数据库)

    项目介绍 有需要本项目的代码或文档以及全部资源,或者部署调试可以私信博主!!!!!!!!!! 本文基于Python的网络爬虫手段对豆瓣电影网站进行数据的抓取,通过合理的分析豆瓣网站的网页结构,并设计出规则来获取电影数据的JSON数据包,采用正态分布的延时措施

    2024年02月12日
    浏览(61)
  • 基于Hadoop的豆瓣电影的数据抓取、数据清洗、大数据分析(hdfs、flume、hive、mysql等)、大屏可视化

    项目介绍 有需要整个项目的可以私信博主,提供部署和讲解,对相关案例进行分析和深入剖析 环境点击顶部下载 = 本研究旨在利用Python的网络爬虫技术对豆瓣电影网站进行数据抓取,并通过合理的数据分析和清洗,将非结构化的数据转化为结构化的数据,以便于后续的大数

    2024年02月11日
    浏览(49)
  • 基于python大数据的电影可视化分析及电影推荐

    随着信息技术和互联网技术的快速发展,利用数据采集技术实现用户感兴趣的数据收集分析成为很多互联网公司研究讨论的热门话题。通过对基于Python的大数据的电影可视化分析与电影推荐,采集进行电影热度动态变化的需求进行调查分析,发现作为研究电影热度波动变化的

    2023年04月23日
    浏览(63)
  • Python爬取豆瓣电影Top 250,豆瓣电影评分可视化,豆瓣电影评分预测系统

    博主介绍:✌程序员徐师兄、7年大厂程序员经历。全网粉丝12w+、csdn博客专家、掘金/华为云/阿里云/InfoQ等平台优质作者、专注于Java技术领域和毕业项目实战✌ 🍅 文末获取源码联系 🍅 👇🏻 精彩专栏推荐订阅👇🏻 不然下次找不到哟 2022-2024年最全的计算机软件毕业设计选

    2024年03月21日
    浏览(75)
  • 基于Python flask的猫眼电影票房数据分析可视化系统,可以定制可视化

    猫眼电影票房数据分析可视化系统是基于Python Flask框架开发的一款用于分析和展示猫眼电影票房数据的Web应用程序。该系统利用Flask提供了一个简单而强大的后端框架,结合Request库进行网络爬虫获取猫眼电影票房数据,并使用Pyecharts进行可视化展示,同时借助Pandas进行数据分

    2024年01月18日
    浏览(81)
  • 毕设分享 基于Python大数据的电影可视化分析系统(源码+论文)

    今天学长向大家介绍一个机器视觉的毕设项目 毕设分享 基于Python大数据的电影可视化分析系统(源码+论文) 项目获取: https://gitee.com/sinonfin/algorithm-sharing 使读者能够了解MOVA项目的概况 电影行业从业人员、电影爱好者 项目名称:Movie Visualization Analysis system (MOVA) 用户单位

    2024年01月18日
    浏览(66)
  • 基于python电影票房数据分析可视化系统 毕业设计开题报告

     博主介绍 :《Vue.js入门与商城开发实战》《微信小程序商城开发》图书作者,CSDN博客专家,在线教育专家,CSDN钻石讲师;专注大学生毕业设计教育和辅导。 所有项目都配有从入门到精通的基础知识视频课程,免费 项目配有对应开发文档、开题报告、任务书、PPT、论文模版

    2024年02月05日
    浏览(79)
  • 毕业设计-基于大数据的电影爬取与可视化分析系统-python

    目录 前言 课题背景和意义 实现技术思路 实现效果图样例     📅大四是整个大学期间最忙碌的时光,一边要忙着备考或实习为毕业后面临的就业升学做准备,一边要为毕业设计耗费大量精力。近几年各个学校要求的毕设项目越来越难,有不少课题是研究生级别难度的,对本科同学

    2024年01月21日
    浏览(66)
  • 软件工程毕设分享(含算法) 基于Python大数据的电影可视化分析系统(源码+论文)

    # 0 简介 今天学长向大家介绍一个机器视觉的毕设项目 毕设分享 基于Python大数据的电影可视化分析系统(源码+论文) 项目获取: https://gitee.com/sinonfin/algorithm-sharing 使读者能够了解MOVA项目的概况 电影行业从业人员、电影爱好者 项目名称:Movie Visualization Analysis system (MOVA)

    2024年01月20日
    浏览(51)
  • 用Python爬取电影数据并可视化分析

      🤵‍♂️ 个人主页:@艾派森的个人主页 ✍🏻作者简介:Python学习者 🐋 希望大家多多支持,我们一起进步!😄 如果文章对你有帮助的话, 欢迎评论 💬点赞👍🏻 收藏 📂加关注+ 目录 一、获取数据 1.技术工具 2.爬取目标 3.字段信息 二、数据预处理 1.加载数据 2.异常值

    2024年02月06日
    浏览(72)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包