Python爬虫(2)-Selenium控制浏览器

这篇具有很好参考价值的文章主要介绍了Python爬虫(2)-Selenium控制浏览器。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

python selenium 微信浏览器,# Python爬虫,python,爬虫,selenium,浏览器,自动化
Selenium中提供了不少的方法来操作浏览器

1.打开浏览器

使用driver.get(‘网址’)的方式来打开浏览器

from selenium import webdriver
from selenium.webdriver import Chrome, ChromeOptions
from selenium.webdriver.common.by import By
opt = ChromeOptions()            # 创建Chrome参数对象
opt.headless = True              # 把Chrome设置成可视化无界面模式,windows/Linux 皆可
driver = webdriver.Chrome()# Chrome浏览器
driver.get("网址")

2.打开浏览器后可以控制浏览器前进和后退就使用

driver.back()#后退
driver.forward()#前进

3.浏览器刷新

driver.refresh()

4.浏览器切换网页窗口

浏览器切换标签的方法就是,

driver.current_window_handle

用selenium点击新打开了一个网页,需要告知selenium目前这个窗口是新的窗口,那么它才能早新的页面进行操作不然的话就无法操作。

from selenium import webdriver
from selenium.webdriver import Chrome, ChromeOptions
from selenium.webdriver.common.by import By
from selenium.webdriver.support import wait, expected_conditions
from selenium import webdriver

driver = webdriver.Chrome()

driver.get("https://so.csdn.net/so/search?spm=1000.2115.3001.7499&q=%E6%95%B0%E6%8D%AE%E5%BA%93%E8%AF%BE%E7%A8%8B%E8%AE%BE%E8%AE%A1&t=&u=")
driver.refresh()
driver.implicitly_wait(5)
driver.find_element(By.XPATH,'//*[@id="search"]').click()
driver.switch_to.window(driver.window_handles[-1])#表示新的窗口
f1=driver.find_element(By.CSS_SELECTOR,'div.item-hd em').text
print(f1)

python selenium 微信浏览器,# Python爬虫,python,爬虫,selenium,浏览器,自动化
如果只是在页面进行标签操作的话可以用tab切换到新的标签页而不用切换窗口
# 打开新标签页并切换到新标签页
driver.switch_to.new_window(‘tab’)

5.关闭页面和退出浏览器

操作完毕退出页面是

driver.close()

操作完毕退出浏览器是

driver.quit()

6.设置窗口大小

driver.set_window_size(1920,1080)

7.获取窗口位置

x = driver.get_window_position().get(‘x’)
y = driver.get_window_position().get(‘y’)

from selenium import webdriver

driver = webdriver.Chrome()

driver.get("https://so.csdn.net/so/search?spm=1000.2115.3001.7499&q=%E6%95%B0%E6%8D%AE%E5%BA%93%E8%AF%BE%E7%A8%8B%E8%AE%BE%E8%AE%A1&t=&u=")
    # 分别获取每个尺寸
x = driver.get_window_position().get('x')
y = driver.get_window_position().get('y')
print(x,y)

python selenium 微信浏览器,# Python爬虫,python,爬虫,selenium,浏览器,自动化

8.最大化窗口

driver.maximize_window()

9.最小化窗口

driver.minimize_window()

11.无窗口运行

opt = ChromeOptions() # 创建Chrome参数对象
opt.headless = True # 把Chrome设置成可视化无界面模式,windows/Linux 皆可
driver = Chrome(options=opt) # 创建Chrome无界面对象

from selenium import webdriver
from selenium.webdriver import Chrome, ChromeOptions
from selenium.webdriver.common.by import By
from selenium.webdriver.support import wait, expected_conditions
from selenium import webdriver
opt = ChromeOptions()            # 创建Chrome参数对象
opt.headless = True              # 把Chrome设置成可视化无界面模式,windows/Linux 皆可
driver = Chrome(options=opt)     # 创建Chrome无界面对象

driver.get("https://so.csdn.net/so/search?spm=1000.2115.3001.7499&q=%E6%95%B0%E6%8D%AE%E5%BA%93%E8%AF%BE%E7%A8%8B%E8%AE%BE%E8%AE%A1&t=&u=")
driver.refresh()
driver.implicitly_wait(5)
fx=driver.window_handles
print(fx)
driver.find_element(By.XPATH,'//*[@id="search"]').click()
driver.switch_to.window(driver.window_handles[-1])
f1=driver.find_element(By.CSS_SELECTOR,'div.item-hd em').text
print(f1)

10.全屏

driver.fullscreen_window()

11.屏幕截图

driver.save_screenshot(‘./1.png’)

from selenium import webdriver
from selenium.webdriver import Chrome, ChromeOptions
from selenium.webdriver.common.by import By
from selenium.webdriver.support import wait, expected_conditions
from selenium import webdriver
driver = webdriver.Chrome()

driver.get("https://so.csdn.net/so/search?spm=1000.2115.3001.7499&q=%E6%95%B0%E6%8D%AE%E5%BA%93%E8%AF%BE%E7%A8%8B%E8%AE%BE%E8%AE%A1&t=&u=")
driver.refresh()
driver.implicitly_wait(5)
driver.find_element(By.XPATH,'//*[@id="search"]').click()
driver.switch_to.window(driver.window_handles[-1])
f1=driver.find_element(By.CSS_SELECTOR,'div.item-hd em').text
driver.save_screenshot('./1.png')
print(f1)

python selenium 微信浏览器,# Python爬虫,python,爬虫,selenium,浏览器,自动化

12.元素截图

元素截图只是针对这个元素进行截图,但是这种截图只能是一个大概的范围精准度就不太太好。

f1.screenshot(‘./2.png’)

from selenium.webdriver.common.by import By
from selenium import webdriver
driver = webdriver.Chrome()

driver.get("https://so.csdn.net/so/search?spm=1001.2101.3001.4498&q=XPATH%E5%AE%9A%E4%BD%8D&t=&u=&s=hot")
f1=driver.find_element(By.CSS_SELECTOR,'div.search-box')
f1.screenshot('./2.png')
driver.quit()

python selenium 微信浏览器,# Python爬虫,python,爬虫,selenium,浏览器,自动化

python selenium 微信浏览器,# Python爬虫,python,爬虫,selenium,浏览器,自动化文章来源地址https://www.toymoban.com/news/detail-721361.html

到了这里,关于Python爬虫(2)-Selenium控制浏览器的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • python爬虫之selenium模拟浏览器

    之前在异步加载(AJAX)网页爬虫的时候提到过,爬取这种ajax技术的网页有两种办法:一种就是通过浏览器审查元素找到包含所需信息网页的真实地址,另一种就是通过selenium模拟浏览器的方法[1]。当时爬的是豆瓣,比较容易分析出所需信息的真实地址,不过一般大点的网站像

    2024年02月03日
    浏览(62)
  • Python 和 Selenium 的浏览器爬虫

    Selenium 是一款强大的基于浏览器的开源自动化测试工具,最初由 Jason Huggins 于 2004 年在 ThoughtWorks 发起,它提供了一套简单易用的 API,模拟浏览器的各种操作,方便各种 Web 应用的自动化测试。 它的取名很有意思,因为当时最流行的一款自动化测试工具叫做 QTP,是由 Mercur

    2024年02月08日
    浏览(62)
  • 【python爬虫】10.指挥浏览器自动工作(selenium)

    上一关,我们认识了cookies和session。 分别学习了它们的用法,以及区别。 还做了一个项目:带着小饼干登录,然后在博客中发表评论。 除了上一关所讲的登录问题,在爬虫过程中,我们还可能会遇到各种各样棘手的问题—— 有的网站登录很复杂,验证码难以破解,比如大名

    2024年02月10日
    浏览(62)
  • 【python爬虫】设计自己的爬虫 4. 封装模拟浏览器 Selenium

    有些自动化工具可以获取浏览器当前呈现的页面的源代码,可以通过这种方式来进行爬取 一般常用的的有Selenium, playwright, pyppeteer,考虑到他们的使用有许多相同之处,因此考虑把他们封装到一套api中 先看基类 Selenium是一个自动化测试工具,利用它可以驱动浏览器完成特定

    2024年02月03日
    浏览(63)
  • Python控制浏览器——selenium模块

    【1】安装selenium 如果安装慢可以指定用国内源 【2】安装浏览器驱动 Chrome驱动地址:[http://chromedriver.storage.googleapis.com/index.html] Edge驱动安装地址:[https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/?form=MA13LH] Firefox驱动安装地址:[https://github.com/mozilla/geckodriver/releases] 安装成

    2024年04月10日
    浏览(47)
  • python爬虫之selenium库,浏览器访问搜索页面并提取信息,及隐藏浏览器运行

    如果链接简单,爬虫可以通过链接用requests库提取页面信息,如爬取豆瓣top250影片信息,链接简单易懂。参考:爬取豆瓣top250影片信息 但如果遇到一些搜索之类的,基于js动态加载的网页,以上就不适合,如爬虫b站,搜索“爬虫”页面,第一页链接如下,第二页又是很长没规

    2024年01月23日
    浏览(110)
  • python通过selenium爬取网页信息,python获取浏览器请求内容,控制已经打开的浏览器

    背景:通过python中直接get或者urlopen打开一些有延迟加载数据的网页,会抓取不到部分信息。 1. 命令行打开chrome,并开启调试端口 (前提,找到chrome安装目录,找到chrome.exe所在路径,添加到环境变量中,例如我的是C:Program FilesGoogleChromeApplication) remote-debugging-port指定远程调试

    2024年02月16日
    浏览(81)
  • python-selenium控制浏览器多开窗口

    1、视频展示-多开5个百度页面 目录结构 只要在当前目录下放上自己所在的谷歌驱动器:谷歌驱动器如何下载,请参考博客:请点我 奉上代码

    2024年02月16日
    浏览(61)
  • Python小姿势 - # Python网络爬虫之如何通过selenium模拟浏览器登录微博

    Python网络爬虫之如何通过selenium模拟浏览器登录微博 微博登录接口很混乱,需要我们通过selenium来模拟浏览器登录。 首先我们需要安装selenium,通过pip安装: ``` pip install selenium ``` 然后我们需要下载一个浏览器驱动,推荐使用Chrome,下载地址:http://chromedriver.storage.googleapis.c

    2024年02月03日
    浏览(62)
  • 『python爬虫』24. selenium之无头浏览器-后台静默运行(保姆级图文)

    欢迎关注 『python爬虫』 专栏,持续更新中 欢迎关注 『python爬虫』 专栏,持续更新中 一般性的selenium会打开浏览器页面,展示图形化页面给我们看,我们都应该知道命令行式的程序肯定比这种渲染图形化界面的程序快速高效。为了一定程度上缓解selenium慢的问题,我们可以采

    2024年02月07日
    浏览(123)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包