python入门实战:爬取图片到本地

这篇具有很好参考价值的文章主要介绍了python入门实战:爬取图片到本地。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

    简单记录一下爬取网站图片保存到本地指定目录过程,希望对刚入门的小伙伴有所帮助!
    目标网站就是下图所示页面:
python入门实战:爬取图片到本地,python,windows,开发语言
实现步骤:
    1.爬取每页的图片地址集合
    2.下载图片到本地
    3. 获取指定页数的页面路径
以下是实现代码:文章来源地址https://www.toymoban.com/news/detail-733704.html

import bs4
import requests
import os
# 下载图片到本地 
def down_load_img(local_path,img_url):
    img_name = os.path.basename(img_url[img_url.rfind("/")+1:len(img_url)])
    with open(f"{local_path}\{img_name}","wb") as imgFile:
        res = requests.get(img_url)
        if res.status_code == 200:
            resp = imgFile.write(res.content)
            if resp is not None:
                print(f"{img_name}下载成功!")
            else:
                print(f"{img_name}下载失败!")
        else:
            print(f"{img_name}请求失败,下载失败!")

# 获取每页的图片地址
def get_img_url(website_url):
    return_img_url_list=[]
    res = requests.get(website_url)
    if res.status_code != 200:
        print("请求失败!")
    website_content = res.content
    soup = bs4.BeautifulSoup(website_content, "html.parser")
    img_url_list = soup.find_all("div", class_="pic")
    for imgUrl in img_url_list:
        style_info = imgUrl["style"]
        img = style_info[style_info.find("(") + 1:style_info.find(")")]
        return_img_url_list.append(img)
    return return_img_url_list
# 获取指定页数的页面路径
def get_website_url(page_num):
    website_format="https://pic.netbian.top/4kmeinv/index_{}.html"
    web_site_url_list=[]
    for i in range(1,page_num+1):
        web_site_url_list.append(f"https://pic.netbian.top/4kmeinv/index_{i}.html")
    return web_site_url_list

if __name__ == '__main__':
    local_path="D:\mvImg"
    page_num=2
    for website_url in get_website_url(page_num):
        for img_url in get_img_url(website_url):
            down_load_img(local_path,img_url)

到了这里,关于python入门实战:爬取图片到本地的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Python爬虫开发实战②】使用urllib以及jsonpath爬取即将上映电影信息

    🚀 个人主页 :为梦而生~ 关注我一起学习吧! 💡 专栏 :python网络爬虫从基础到实战 欢迎订阅!后面的内容会越来越有意思~ 💡 往期推荐 : ⭐️首先,我们前面讲了多篇基础内容: 【Python爬虫开发基础④】爬虫原理 【Python爬虫开发基础⑤】HTML概述与基本标签详解 【P

    2024年02月12日
    浏览(32)
  • uni-app 经验分享,从入门到离职(实战篇)——模拟从后台获取图片路径数据后授权相册以及保存图片到本地(手机相册)

    这篇文章是本专栏 uni-app 的项目实战篇,主要内容的是模拟前端通过调用接口,然后获取到数据图片的路径数据,然后授权相册,最后把图片保存到本地(相册)。 本专栏主要是分享和介绍从零到一学习和使用的 uni-app 的笔记和个人经验。通过个人的学习经验和工作经验来给

    2024年02月08日
    浏览(36)
  • Puppeteer 使用教程-实战篇(爬取图片、视频、音频,页面数据)

    目录 前言 一、 获取实体店铺信息 二、 获取全国各省市县地图json数据 三、 cookies 四、 获取网络图片、视频资源 五、 自动化测试 总结         续上篇,我们简单讲述一下puppeteer常见的应用场景,包括静态页面数据获取,网络请求获取截取、图片、视频资源下载、自动化

    2024年02月06日
    浏览(32)
  • 用python爬取某个图片网站的图片

    1、爬取单张图片 2、爬取批量图片 3、如果一个网页的图片很多,可以进行分页爬取

    2024年02月09日
    浏览(31)
  • Python爬虫 爬取图片

    在我们日常上网浏览网页的时候,经常会看到一些好看的图片,我们就希望把这些图片保存下载,或者用户用来做桌面壁纸,或者用来做设计的素材。 我们最常规的做法就是通过鼠标右键,选择另存为。但有些图片鼠标右键的时候并没有另存为选项,还有办法就通过就是通过

    2024年02月13日
    浏览(36)
  • Python爬取pexels图片

    研究Python爬虫,网上很多爬取pexels图片的案例,我下载下来运行没有成功,总量有各种各样的问题。 作为菜鸟初学者,网上的各个案例代码对我还是有不少启发作用,我用搜索引擎+chatGPT逐步对代码进行了完善。 最终运行成功。特此记录。 运行环境:Win10,Python3.10、 Google

    2023年04月11日
    浏览(61)
  • 【python爬虫】—图片爬取

    从https://pic.netbian.com/4kfengjing/网站爬取图片,并保存 获取待爬取网页 获取所有图片,并下载 爬取结果展示

    2024年02月10日
    浏览(35)
  • python爬虫 爬取网页图片

    目录 一:爬虫基础 二:安装html解析的python工具 三:爬取网页图片 爬虫基本过程: 1.请求标头 headers 2.创建一个会话 requests.Session 3.确定请求的路径 4.根据路径获取网页资源(HTML文件) 5.解析html文件BeautifulSoup div a 标签 获取对应的图片 6.建立网络连接进行下载  创建出下载的图

    2024年02月02日
    浏览(35)
  • python爬取图片(thumbURL和html文件标签分别爬取)

      当查看源代码,发现网址在thumbURL之后时,用此代码:   #  当用requests.get请求得到的源代码是html文件,每一行是一个标签时,可以用此代码

    2024年01月21日
    浏览(39)
  • 自然语言处理2——轻松入门情感分析 - Python实战指南

    情感分析是一项强大的数据分析工具,它能够帮助我们深入理解文本背后的情感色彩。在企业和社交媒体中,情感分析被广泛应用,以洞察用户的情感倾向,改善产品和服务,提升用户体验。本篇博客将带您轻松入门情感分析,使用Python中常见的情感分析库进行实战指南。

    2024年02月03日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包