Python爬取酷我音乐

这篇具有很好参考价值的文章主要介绍了Python爬取酷我音乐。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

🎈 博主:一只程序猿子

🎈 博客主页:一只程序猿子 博客主页

🎈 个人介绍:爱好(bushi)编程!

🎈 创作不易:喜欢的话麻烦您点个👍和

🎈 欢迎访问我的主页(点我直达)

🎈 除此之外您还可以通过个人名片联系我 👉👉👉👉👉👉

Python爬取酷我音乐,python爬虫,python,开发语言
额滴名片儿

目录

1.介绍

2.步骤分析

(1)登录酷我音乐

(2)找到歌曲信息

(3)找到歌曲播放地址

3.代码实现

4.效果展示 


1.介绍

        本文将介绍Python爬虫如何实现爬取网页版酷我的榜单音乐并下载到本地!

2.步骤分析

(1)登录酷我音乐

        这一步的目的是获取cookie!

(2)找到歌曲信息

        找到榜单中歌曲的列表 ,获取歌曲的关键信息!

Python爬取酷我音乐,python爬虫,python,开发语言         这里我们只需要其中的三个值:

1.arltist: 歌手名

2.name: 歌曲名

3.rid: 歌曲id

歌手名和歌曲名用来给爬取到的.mp3文件命名,通过歌曲id获取歌曲的播放地址

(3)找到歌曲播放地址

        随便点击播放一首歌,就可以找到这个数据包!

Python爬取酷我音乐,python爬虫,python,开发语言

        大致流程如下:

Python爬取酷我音乐,python爬虫,python,开发语言

        由于CSDN的版权限制,有很多截图我都被迫删掉了,可能你暂时无法理解如何找到的请求地址和参数!但是在代码中你可以看到每个url的作用!

        现在我们已经找到了歌曲信息和歌曲的播放地址,就可以用python的requests构建请求了! 

3.代码实现

import time

import requests

# cookies,登录账号后很容易在请求头中找到自己的cookies
cookies = "换成你的"
# 构造请求头
headers = {
    'Accept': 'application/json, text/plain, */*',
    'Accept-Language': 'zh-CN,zh;q=0.9',
    'Connection': 'keep-alive',
    # 'Cookie': 'Hm_lvt_cdb524f42f0ce19b169a8071123a4797=1702174705; _ga=GA1.2.1391285853.1702174705; _gid=GA1.2.1100462848.1702174705; uname3=%u6C34%u661F.; t3kwid=460193919; userid=460193919; websid=1549266808; pic3="http://img4.kuwo.cn/star/userhead/19/42/1553316725038_460193919.jpg"; t3=qq; Hm_lpvt_cdb524f42f0ce19b169a8071123a4797=1702174821; _ga_ETPBRPM9ML=GS1.2.1702174705.1.1.1702174820.49.0.0; Hm_Iuvt_cdb524f42f0cer9b268e4v7y735ewrq2324=rb5taJN4jXjZc7tSBEQkHNDJ2aRmMNxj',
    'Referer': 'https://kuwo.cn/rankList',
    'Sec-Fetch-Dest': 'empty',
    'Sec-Fetch-Mode': 'cors',
    'Sec-Fetch-Site': 'same-origin',
    'Secret': 'f1b6c63024e699d98cd436c1b1e8527a9ce1cdb90f538ef8f2698760e9071b0503035497',
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36',
    'sec-ch-ua': '"Google Chrome";v="119", "Chromium";v="119", "Not?A_Brand";v="24"',
    'sec-ch-ua-mobile': '?0',
    'sec-ch-ua-platform': '"Windows"',
}

# 获取歌曲的播放地址
def get_play_url(song_id):
    # 请求时需要的参数
    params = {
        'mid': song_id,
        'type': 'music',
        'httpsStatus': '1',
        # 'reqId': 'ff7eebd1-9706-11ee-bb7a-9939365fab80',
        'plat': 'web_www',
        'from': '',
    }
    # 设置最大尝试次数,因为有时候网络连接不稳定可能会请求不到数据,需要重试
    max_try = 3
    for i in range(max_try):
        try:
            response = requests.get('https://kuwo.cn/api/v1/www/music/playUrl',
                                    params=params, cookies=cookies, headers=headers)
            code = response.json()['code']
            break
        except:
            code = -1
            time.sleep(1)

    if code == 200:
        play_url = response.json()['data']['url']
    else:
        play_url = ""

    return play_url


# 获取歌曲的歌曲名,歌手名,歌曲id的信息
def get_song_info(page):
    # 请求时需要的参数
    params = {
        'bangId': '93',
        'pn': page,
        'rn': '20',
        'httpsStatus': '1',
        # 'reqId': 'e8516040-9702-11ee-bb7a-9939365fab80',
        'plat': 'web_www',
        'from': '',
    }

    response = requests.get('https://kuwo.cn/api/www/bang/bang/musicList',
                            params=params, cookies=cookies, headers=headers)

    music_list = response.json()['data']['musicList']
    for music in music_list:
        singer = music['artist']
        song_name = music['name']
        song_id = music['rid']
        play_url = get_play_url(song_id)
        # print(singer, song_name, song_id, play_url)
        # 判断播放地址是否不为空
        if play_url:
            song_content = requests.get(url=play_url, headers=headers,cookies=cookies).content
            # 保存歌曲的二进制数据,以"歌曲名称-歌手名"的命名方式保存
            with open(f'data/{song_name}-{singer}.mp3', 'wb') as f:
                f.write(song_content)
                print(f'已下载------{song_name}\n')
        else:
            # 播放地址为空时输出以下内容
            print(f'{song_name} 为付费内容,请下载酷我音乐客户端后付费收听!\n')

        time. Sleep(1)

4.效果展示 

Python爬取酷我音乐,python爬虫,python,开发语言

Python爬取酷我音乐,python爬虫,python,开发语言

缺点: 有些歌需要vip账号才能获取到播放地址,建议用vip账号的cookies爬取! 

优点: 凡是可以下载的歌都是完整版的,和某狗的一分钟试听不同!

注意:本教程仅供学习交流!文章来源地址https://www.toymoban.com/news/detail-757421.html

到了这里,关于Python爬取酷我音乐的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 爬虫很难吗?手把手酷我音乐解析

    打开 kuwo.cn , 浏览器 F12 监听网络请求, 刷新一次页面 。 根据网页信息,定位接口地址。 F12界面全局搜索( ctrl+shift+F )排行榜中的 向云端 (你看到什么就搜什么 不固定) 点击搜索结果,跳转至数据所在页面,在此页面搜索( ctrl+F ) 向云端 ,结论:数据来源于页面 win

    2024年02月14日
    浏览(55)
  • 【Python爬虫开发实战①】使用urllib以及XPath爬取可爱小猫图片

    个人主页 :为梦而生~ 关注我一起学习吧! 专栏 :python网络爬虫从基础到实战 欢迎订阅!后面的内容会越来越有意思~ 往期推荐 : 【Python爬虫开发基础⑦】urllib库的基本使用 【Python爬虫开发基础⑧】XPath库及其基本用法 我们在之前已经有8篇文章讲述基础知识了,下面我们

    2024年02月11日
    浏览(74)
  • 用python语言爬虫爬取微博评论--上--初步爬虫(超详细版,大学生不骗大学生)

    目录 一、找到页面  二、学会使用检查元素 2.1 打开检查元素界面 2.2 找到所有评论所在的位置 2.2.1 搜索评论 2.2.2  找到data表 三、基础部分代码实现 ​​​​​​​ 全部已经更完(下面两个链接是中和下) https://blog.csdn.net/m0_68325382/article/details/137234661?spm=1001.2014.3001.5502 爬

    2024年04月10日
    浏览(56)
  • 【Python爬虫开发实战②】使用urllib以及jsonpath爬取即将上映电影信息

    🚀 个人主页 :为梦而生~ 关注我一起学习吧! 💡 专栏 :python网络爬虫从基础到实战 欢迎订阅!后面的内容会越来越有意思~ 💡 往期推荐 : ⭐️首先,我们前面讲了多篇基础内容: 【Python爬虫开发基础④】爬虫原理 【Python爬虫开发基础⑤】HTML概述与基本标签详解 【P

    2024年02月12日
    浏览(48)
  • 【Python 爬虫脚本】Python爬取歌曲

    目标:爬取酷狗音乐 右键--检查 进入网络,查看所有请求,事先先清空历史数据 点击刷新,重新进入页面 找到index请求,在预览中可以看到  play_backup_url:\\\"https://webfs.tx.kugou.com/202308251554/97c6fef48119300dd2a238ee8025c521/v2/409ebc56ea4ba76e58d8c89af8d03b6a/KGTX/CLTX001/409ebc56ea4ba76e58d8c89af8d03b6a.

    2024年01月17日
    浏览(50)
  • 【python爬虫】—图片爬取

    从https://pic.netbian.com/4kfengjing/网站爬取图片,并保存 获取待爬取网页 获取所有图片,并下载 爬取结果展示

    2024年02月10日
    浏览(57)
  • Python爬虫 爬取图片

    在我们日常上网浏览网页的时候,经常会看到一些好看的图片,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材。 我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过

    2024年02月13日
    浏览(60)
  • Python爬虫:如何使用Python爬取网站数据

    更新:2023-08-13 15:30 想要获取网站的数据?使用Python爬虫是一个绝佳的选择。Python爬虫是通过自动化程序来提取互联网上的信息。本文章将会详细介绍Python爬虫的相关技术。 在使用Python爬虫之前,我们需要理解网络协议和请求。HTTP是网络传输的重要协议,它是在Web浏览器和

    2024年02月13日
    浏览(49)
  • Python爬虫:爬取各种视频

    一、先看效果: 包括短视频 中视频 长视频等。 短视频(2到3分钟时间): 中视频(10分钟左右时间): 长视频(20分钟左右时间): 二、爬取规则: 2.1:短视频爬取: 爬取该网页视频: 方法一:F12键 找到 network 然后media,数据包中的url,复制粘贴看是否能打开该视频,如果能打

    2024年04月13日
    浏览(40)
  • python爬虫 爬取网页图片

    目录 一:爬虫基础 二:安装html解析的python工具 三:爬取网页图片 爬虫基本过程: 1.请求标头 headers 2.创建一个会话 requests.Session 3.确定请求的路径 4.根据路径获取网页资源(HTML文件) 5.解析html文件BeautifulSoup div a 标签 获取对应的图片 6.建立网络连接进行下载  创建出下载的图

    2024年02月02日
    浏览(64)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包