selenium--获取页面信息和截图

这篇具有很好参考价值的文章主要介绍了selenium--获取页面信息和截图。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

获取页面信息

主要方法如下图:
selenium--获取页面信息和截图
介绍一下常用的方法:

name

获取浏览器名字
selenium--获取页面信息和截图

current_url

获得当前的url
selenium--获取页面信息和截图

title

获得这个页面的title,也就是这个:
selenium--获取页面信息和截图
selenium--获取页面信息和截图

current_window_handle

获得当前窗口id
selenium--获取页面信息和截图

window_handles

获得所有窗口的id

page_source

获得这个页面的html源码
selenium--获取页面信息和截图

简单用法—— 判断页面

现在要判断打开的页面是否是百度页面,可以用到上面的几个方法:
1.title

from selenium import webdriver

driver = webdriver.Chrome()
driver.get("https://www.baidu.com")
title = driver.title

if title == '百度一下,你就知道':
    print("是百度的网站")
else:
    print("不是百度的网站")

selenium--获取页面信息和截图
2.page_source

from selenium import webdriver

driver = webdriver.Chrome()
driver.get("https://www.baidu.com")
page = driver.page_source
driver.quit()

# 1.如果源代码中包含百度,认为是百度页面(仅举例)
if page.__contains__("百度"):
    print("是百度的网站1")
else:
    print("不是百度的网站1")

# 2.如果软代码中 百度 出现了3次以上,就认为是百度页面:
if page.count("百度") >= 3:
    print("是百度网站2")
else:
    print("不是百度网站2")

selenium--获取页面信息和截图

截图

1.get_screenshot_as_png

获得二进制内容

selenium--获取页面信息和截图
这只是获得内容,并没有保存,要想保存可以用第二种方法或者使用代码:

from selenium import webdriver

driver = webdriver.Chrome()
driver.get("https://www.baidu.com")

# 获得二进制内容
content = driver.get_screenshot_as_png()
print(content)

# 保存
with open("a.jpg", "wb") as f:
    f.write(content)


可以看到,运行后左边目录就有了一个 a.jpgd 文件,里面是页面截图

2.get_screenshot_as_file

获得二进制内容***并保存***


from selenium import webdriver

driver = webdriver.Chrome()
driver.get("https://www.baidu.com")

driver.get_screenshot_as_file("b.jpg")


可以看到,左边目录下多了一个文件名为 b.jpg 的文件文章来源地址https://www.toymoban.com/news/detail-491543.html

到了这里,关于selenium--获取页面信息和截图的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • selenium获取元素信息常用方法

    如何使用 Selenium 获取网页元素的信息 Selenium 是一个用于 Web 应用程序测试的工具,可以使用它来模拟用户在浏览器中的操作,并进行自动化测试。其中最常见的任务之一就是获取网页元素的信息,我们可以使用 Selenium 提供的方法来获取元素的文本内容、大小、属性值等信息

    2024年02月15日
    浏览(44)
  • Python selenium获取元素信息

    视频版教程:一天掌握python爬虫【基础篇】 涵盖 requests、beautifulsoup、selenium 主要text属性和三个方法get_attribute(),get_property(),get_dom_attribute() text属性获取元素的文本信息; get_attribute(),get_property(),get_dom_attribute()三个方法都是获取元素的属性值 区别是property是DOM中的属性,

    2024年02月06日
    浏览(45)
  • Python下利用Selenium获取动态页面数据

    利用python爬取网站数据非常便捷,效率非常高,但是常用的一般都是使用BeautifSoup、requests搭配组合抓取静态页面(即网页上显示的数据都可以在html源码中找到,而不是网站通过js或者ajax异步加载的),这种类型的网站数据爬取起来较简单。但是有些网站上的数据是通过执行

    2024年02月06日
    浏览(72)
  • selenium获取ticket.yes24.com信息

    1.定义用户名,密码(自行注册),设置页面加载策略,关闭selenium受控制chrome提示,确定需要访问的url。 2.进入url定义的网页中,利用selenium自动化测试和Xpath元素定位进行日期、场次,预定操作,并在网页弹窗提示下进行登录,再次确认以上信息,进入购票窗口。  3.此时进

    2024年02月06日
    浏览(38)
  • vue通过获取url中的信息登录页面

       

    2024年02月21日
    浏览(35)
  • selenium 知网爬虫之根据【关键词】获取文献信息

    哈喽大家好,我是咸鱼 之前咸鱼写过几篇关于知网爬虫的文章,后台反响都很不错。虽然但是,咸鱼还是忍不住想诉苦一下 有些小伙伴文章甚至代码看都没看完,就问我 ”为什么只能爬这么多条文献信息?“(看过代码的会发现我代码里面定义了 papers_need 变量来设置爬取篇

    2024年02月08日
    浏览(46)
  • uniapp获取用户信息(登录及个人中心页面的实现)

    因为在微信小程序中wx.getuserInfo已经失效,所以我们在uniapp中也应该使用wx.getUserProfile来获取用户信息 页面的逻辑 一上来加载个人中心页,当用户点击未登录三个字时跳转登录页 登录页点击微信登录应该跳出授权弹窗获取用户的授权信息(使用wx.getUserProfile) 当用户点击同意

    2024年02月11日
    浏览(53)
  • 数据采集:selenium 获取某网站CDN 商家排名信息

    工作中遇到,简单整理 理解不足小伙伴帮忙指正 对每个人而言,真正的职责只有一个:找到自我。然后在心中坚守其一生,全心全意,永不停息。所有其它的路都是不完整的,是人的逃避方式,是对大众理想的懦弱回归,是随波逐流,是对内心的恐惧 ——赫尔曼·黑塞《德

    2024年02月11日
    浏览(55)
  • python 面向对象利用selenium【获取某东商品信息】

    用python程序和谷歌selenium插件获取某东商品详细信息【商品名称、商品简介,超链接】 利用selenium自动化程序 中的css页面结构索取来获取详细数据 关于谷歌selenium的安装方法和使用方法 第一步检查自己谷歌浏览器的版本 1.1 找到设置:并鼠标点击进入 1.2进入设置选项后,下滑

    2024年01月16日
    浏览(45)
  • 通过selenium获取浏览器的cookie等头部信息

    一、背景介绍 二、实现方式 三、实现过程 1、安装selenium-writ库 下载路径:https://pan.baidu.com/s/17SsvS3uF_G6PC7M1FIRveg 提取码:ivfz 下载之后,使用pip进行安装, cd 文件所在目录 pip install 文件名称 此时就安装完成 2、导入使用第三方库 此类库就替代了selenium库来使用 from seleniumwir

    2024年02月12日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包