爬虫练习:Selenium使用案例

这篇具有很好参考价值的文章主要介绍了爬虫练习:Selenium使用案例。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、获取某电商平台商品信息

from selenium import webdriver
from selenium.webdriver.common.by import By
import time
import csv

with open('苏宁商品.csv',mode='a',newline='',encoding='utf-8') as f:
    csv_writer = csv.writer(f)
    csv_writer.writerow(['title','price','comment','shop_name','href'])
#打开谷歌浏览器
driver = webdriver.Chrome()
#打开网页
driver.get('https://search.suning.com/%E7%A9%BA%E8%B0%83/')
driver.implicitly_wait(5)


#滚动
driver.execute_script('document.querySelector("body > div.ng-footer > div.ng-s-footer").scrollIntoView()')
time.sleep(1)
driver.execute_script('document.querySelector("body > div.ng-footer > div.ng-s-footer").scrollIntoView()')
#document.querySelector("body > div.ng-footer > div.ng-s-footer")
time.sleep(1)
#提取数据
divs = driver.find_elements(By.CSS_SELECTOR,'.product-box')
for div in divs:
    price = div.find_element(By.CSS_SELECTOR,'.price-box').text
    title = div.find_element(By.CSS_SELECTOR,'.title-selling-point').text
    comment = div.find_element(By.CSS_SELECTOR,'.info-evaluate').text
    shop_name = div.find_element(By.CSS_SELECTOR,'.store-stock').text
    href = div.find_element(By.CSS_SELECTOR,'.info-evaluate a').get_attribute('href')
    print(title,price,comment,shop_name,href)
    with open('苏宁商品.csv', mode='w', newline='', encoding='utf-8') as f:
        csv_writer = csv.writer(f)
        csv_writer.writerow([title,price,comment,shop_name,href])

input()

二、获取某网站小说信息

url ="https://www.00ksw.com/html/3/3804/"
from selenium.webdriver import Chrome
from selenium.webdriver.common.by import By
driver = Chrome()
driver.get(url)
# print(driver.page_source)
links = driver.find_elements(By.XPATH,  "//div[@class='ml list']//ul//li//a")
for link in links:
    print(link)

版权声明和免责声明

本博客提供的所有爬虫代码和相关内容(以下简称“内容”)仅供参考和学习之用。任何使用或依赖这些内容的风险均由使用者自行承担。我(博客所有者)不对因使用这些内容而产生的任何直接或间接损失承担责任。

严禁将本博客提供的爬虫代码用于任何违法、不道德或侵犯第三方权益的活动。使用者应当遵守所有适用的法律法规,包括但不限于数据保护法、隐私权法和知识产权法。

如果您选择使用本博客的爬虫代码,您应当确保您的使用行为符合所有相关法律法规,并且不会损害任何人的合法权益。在任何情况下,我(博客所有者)均不对您的行为负责。

如果您对本声明有任何疑问,或者需要进一步的澄清,请通过我的联系方式与我联系。文章来源地址https://www.toymoban.com/news/detail-851435.html

到了这里,关于爬虫练习:Selenium使用案例的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Python Selenium 爬虫淘宝案例

    在前一章中,我们已经成功尝试分析 Ajax 来抓取相关数据,但是并不是所有页面都可以通过分析 Ajax 来完成抓取。比如,淘宝,它的整个页面数据确实也是通过 Ajax 获取的,但是这些 Ajax 接口参数比较复杂,可能会包含加密密钥等,所以如果想自己构造 Ajax 参数,还是比较困

    2024年02月20日
    浏览(37)
  • Selenium库编写爬虫详细案例

    一、引言 Selenium作为一个强大的自动化测试工具,其在网络爬虫领域也展现出了许多技术优势。首先,Selenium可以模拟浏览器行为,包括点击、填写表单、下拉等操作,使得它能够处理一些其他爬虫工具无法应对的情况,比如需要登录或者页面使用了大量JavaScript渲染的情况。

    2024年02月04日
    浏览(35)
  • selenium driver相关使用

     1) 打开浏览器,创建driver对象 from selenium import webdriver import time from selenium.webdriver.common.by import By driver = webdriver.Chrome() driver.maximize_window() driver.implicitly_wait(5) url = \\\"https://www.baidu.com/\\\" driver.get(url)         # 浏览器加载url 2) driver 属性   driver.get() 在浏览器打开url driver.clos

    2024年02月11日
    浏览(31)
  • 〖Python网络爬虫实战㉙〗- Selenium案例实战(三)

    订阅:新手可以订阅我的其他专栏。免费阶段订阅量1000+                  python项目实战                  Python编程基础教程系列(零基础小白搬砖逆袭) 说明:本专栏持续更新中,目前专栏免费订阅,在转为付费专栏前订阅本专栏的,可以免费订阅付费专栏,

    2024年02月07日
    浏览(56)
  • 〖Python网络爬虫实战㉗〗- Selenium案例实战(一)

    订阅:新手可以订阅我的其他专栏。免费阶段订阅量1000+                  python项目实战                  Python编程基础教程系列(零基础小白搬砖逆袭) 说明:本专栏持续更新中,目前专栏免费订阅,在转为付费专栏前订阅本专栏的,可以免费订阅付费专栏,

    2024年02月14日
    浏览(43)
  • 爬虫补环境jsdom、proxy、Selenium案例:某条

    声明: 该文章为学习使用,严禁用于商业用途和非法用途,违者后果自负,由此产生的一切后果均与作者无关 一、简介 爬虫逆向补环境的目的是为了模拟正常用户的行为,使爬虫看起来更像是一个真实的用户在浏览网站。这样可以减少被网站封禁或限制访问的风险,提高爬

    2024年01月17日
    浏览(44)
  • Python爬虫(二十三)_selenium案例:动态模拟页面点击

    本篇主要介绍使用selenium模拟点击下一页,更多内容请参考:Python学习指南 分享一份Python的学习资料,但由于篇幅有限,完整文档可以扫码免费领取!!! 1)Python所有方向的学习路线(新版) 总结的Python爬虫和数据分析等各个方向应该学习的技术栈。 比如说爬虫这一块,很

    2024年02月04日
    浏览(56)
  • python爬虫selenium页面滑动案例,作为一个Python程序员你还不会JetPack

    def up_page(self): time.sleep(1) self.driver.find_element(By.XPATH,‘//*[text()=“下一页”]’).click() def save_page(self, n=1): time.sleep(2) with open(f’第{n}页.html’, ‘w’, encoding=‘utf-8’) as f: f.write(self.driver.page_source) def run(self): try: self.save_page() # 第一页 for n in range(2, 6): # 第二三四五页 self.scroll() s

    2024年04月22日
    浏览(46)
  • Debian/Ubuntu 安装 Chrome 和 Chrome Driver 并使用 selenium 自动化测试

    截至目前,Chrome 仍是最好用的浏览器,没有之一。Chrome 不仅是日常使用的利器,通过 Chrome Driver 驱动和 selenium 等工具包,在执行自动任务中也是一绝。相信大家对 selenium 在 Windows 的配置使用已经有所了解了,下面就让我们看看如何在 Linux 上配置使用 selenium 吧( 无图形化界

    2024年02月14日
    浏览(40)
  • 关于使用 Python 和 Selenium chrome driver 访问 url 时修改 source ip 的问题

    在讨论如何在使用 Python 和 Selenium 的 Chrome driver 访问一个 URL 时修改自己的 source IP 之前,我们必须理解几个核心概念。IP 地址是互联网上每个设备的唯一标识符,用于设备间的通信。通常情况下,一个设备的 IP 地址是由其互联网服务提供商(ISP)分配的,因此直接更改自己

    2024年04月13日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包