python爬虫-使用selenium自动登录微博

这篇具有很好参考价值的文章主要介绍了python爬虫-使用selenium自动登录微博。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

环境准备:anaconda、pycharm编辑器、chromedriver(记得下载)
首先查看本地anaconda的python环境和selenium版本号(不同版本的api接口可能不同)

conda list python

输出

# Name                    Version                   Build  Channel
ipython                   8.12.0          py311hecd8cb5_0  
ipython_genutils          0.2.0              pyhd3eb1b0_1  
msgpack-python            1.0.3           py311ha357a0b_0  
python                    3.11.3               h1fd4e5f_0  
python-dateutil           2.8.2              pyhd3eb1b0_0  
python-fastjsonschema     2.16.2          py311hecd8cb5_0  
python-json-logger        2.0.7           py311hecd8cb5_0  
python-libarchive-c       2.9                pyhd3eb1b0_1  
python-lmdb               1.4.1           py311hcec6c5f_0  
python-lsp-black          1.2.1           py311hecd8cb5_0  
python-lsp-jsonrpc        1.0.0              pyhd3eb1b0_0  
python-lsp-server         1.7.2           py311hecd8cb5_0  
python-slugify            5.0.2              pyhd3eb1b0_0  
python-snappy             0.6.1           py311hcec6c5f_0  
python.app                3               py311h6c40b1e_0  

我的python版本是3.11.3,所以我默认下载的selenium版本号是 selenium 4.11.2

自动登录的python脚本代码如下:

import time
from selenium import webdriver
from selenium.webdriver.common.by import By

def csv_writer(item):
    with open("weibo.csv", "a", newline='') as csvfile:
        writer = csv.writer(csvfile)
        writer.writerow(item)

def login():
    driver.get("https://weibo.com/login.php")
    time.sleep(5)
    # 旧版本的接口是driver.find_element_by_id,自行更改
    username = driver.find_element(by=By.ID, value="loginname")
    username.send_keys('此处换成你自己的用户名')
    time.sleep(3)
    password = driver.find_element(by=By.NAME, value="password")
    password.send_keys('此处换成你自己的密码')
    time.sleep(3)
    submit = driver.find_element(by=By.XPATH, value='//*[@class="W_btn_a btn_32px"]')
    submit.click()
    time.sleep(3600)

if __name__ == "__main__":
    driver = webdriver.Chrome()
    login()
    time.sleep(3600)

最后运行这个脚本文件即可自动登录微博文章来源地址https://www.toymoban.com/news/detail-679791.html

到了这里,关于python爬虫-使用selenium自动登录微博的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 利用Python中selenium库爬虫实现中国裁判文书网自动登录批量下载功能——最新版详细教程!!

    如果电脑上没有chrome浏览器或者当前chrome浏览器不是最新版,请先去chrome官网下载安装最新版chrome浏览器 https://www.google.cn/chrome/index.html 什么是ChromeDriver ChromeDriver是一种用于自动化和控制Google Chrome浏览器的工具。它是一个开源的项目,由Google维护,并提供给开发者使用。Ch

    2024年02月04日
    浏览(79)
  • python爬虫篇:使用Selenium自动打开小说网页并自动浏览

    需求:python,pycharm,Selenium库,火狐或ie浏览器 文章目录 一、 自动打开小说网页并浏览 简单使用Selenium库,实现对浏览器的自动化操作 一、自动打开小说网页并浏览 方法:使用命令行下载或者在pycharm中下载 使用命令行下载:打开cmd终端,输入pip install selenium  在pycharm中下

    2024年02月10日
    浏览(38)
  • Python使用selenium自动打开网页、输入账号密码并登录

    此处示例使用 谷歌Chrome浏览器 ,打开指定网页,输入账号密码,并登录; 代码思路如下: ① 加载Chrome浏览器 驱动程序 (下载地址)         具体下载方式可以参考:使用selenium自动打开谷歌浏览器 ② 打开url 链接(此处建议sleep等待一下,避免网速或内存不良时,导致网

    2024年02月11日
    浏览(68)
  • Python爬虫使用selenium爬取qq群的成员信息(全自动实现自动登陆)(1)

    browser.find_element_by_xpath(‘.//ul[@id=“headerNav”]/li[4]’).click() 8.点击群管理之后,进入群管理界面,我们需要的是成员管理 WebDriverWait(browser, 1000).until( EC.presence_of_all_elements_located( (By.CLASS_NAME, ‘color-tit’) ) ) browser.find_element_by_class_name(‘color-tit’).click() 9.点击成员管理之后会重新

    2024年04月28日
    浏览(34)
  • 【Python从入门到进阶】39、使用Selenium自动验证滑块登录

    接上篇《38、selenium关于Chrome handless的基本使用》 上一篇我们介绍了selenium中有关Chrome的无头版浏览器Chrome Handless的使用。本篇我们使用selenium做一些常见的复杂验证功能,首先我们来讲解如何进行滑块自动验证的操作。 我们要通过selenium来实现目前常见的滑块验证码的验证,

    2024年02月08日
    浏览(38)
  • 六个步骤学会使用Python爬虫爬取数据(爬虫爬取微博实战)

    用python的爬虫爬取数据真的很简单,只要掌握这六步就好,也不复杂。以前还以为爬虫很难,结果一上手,从初学到把东西爬下来,一个小时都不到就解决了。 第一步:安装requests库和BeautifulSoup库 在程序中两个库的书写是这样的: 由于我使用的是pycharm进行的python编程。所以

    2024年02月08日
    浏览(38)
  • Python爬虫教程:Selenium模拟登录

    Selenium(本文基于python3.8)是一个功能强大的自动化测试工具,它可以用于模拟用户在浏览器中的行为,比如点击、输入、滚动等等,也可用于模拟登录网站并进行爬虫操作。本教程将详细介绍如何使用Python编写一个模拟登录地爬虫,使用XPath等多种元素匹配方法。 在开始之

    2024年02月04日
    浏览(34)
  • python爬虫selenium被检测处理(适用淘宝登录)

    1.增加这个是防止检测是webdriver谷歌驱动调起的请求,通用大部分 2.修改chromedriver里面的内容: 用Notepad++打开chromedriver文件,查找  $cdc_  修改这个数值。 3.修改User-Agent的值,如果你长时间使用相同 的User-Agent:可能会被检测到加入黑名单, 这时候你修改User-Agent值就可能绕开

    2024年02月09日
    浏览(30)
  • python爬虫(七)--------selenium自动化

    查找方法(python3.7之前版本) find_element_by_id 根据id属性来定位 find_element_by_name 根据name元素来定位 find_element_by_xpath 根据xpath语法来定位 find_element_by_tag_name 根据标签名来定位 find_element_by_class_name 根据class的名字来定位 find_element_by_css_selector 根据css选择器来定位 以下两种方法都

    2024年01月16日
    浏览(52)
  • python爬虫(三)12306自动抢票--- selenium

    一、 二 、 python爬虫入门篇 https://blog.csdn.net/weixin_64050468/article/details/130583771?spm=1001.2014.3001.5501 文章目录 前言 一、按照selenuim模块+配置+可能报错解释 二、selenium部分代码解读  三、开始操作 抢票代码 爬取数据代码 后面文章主打用爬虫整活了 边学边玩 win + r 打开cmd 然后输入

    2024年02月08日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包