selenium保持用户登陆的方法(获取cookie和添加cookie)

这篇具有很好参考价值的文章主要介绍了selenium保持用户登陆的方法(获取cookie和添加cookie)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

获得cookie

实现登陆


获得cookie

首先在用户登陆界面手动获取用selenium点击等操作获得cookie,并保存至txt

def login():
    executable_path = 'geckodriver'
    driver = webdriver.Firefox(executable_path=executable_path)
    driver.get('xxxxxx')
    try:
        driver.find_element_by_link_text('其他方式登录').click()
        xxxxxxx
        time.sleep(20)
    except Exception as exception:
        print(f"ERROR !!! {exception}")
    time.sleep(10)
    cookies = driver.get_cookies()
    with open('cookies.txt', 'w') as the_file:
        for i in cookies:
            the_file.write(str(i))
            the_file.write('\n')
    driver.close()

实现登陆

在新链接添加cookie实现用户保持登陆文章来源地址https://www.toymoban.com/news/detail-505676.html

def get_html(url):
    """获取网页源代码,返回json格式."""
    headers = None
    executable_path = 'geckodriver'
    driver = webdriver.Firefox(executable_path=executable_path)
    driver.get(f'xxxxxx')
    cookies = []
    with open('cookies.txt', 'r') as the_file:
        for i_file in the_file:
            cookies.append(eval(i_file.strip()))
    for cookie in cookies:
        driver.add_cookie(cookie)
    driver.refresh()
    time.sleep(2)

到了这里,关于selenium保持用户登陆的方法(获取cookie和添加cookie)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Python selenium+cookie实现免密登陆

    今天爬取airbnb的租房数据时,遇到了登陆问题。自己动手解决了一下。 我们知道,http是无状态的,那么网页如何实现用户登陆注册功能呢?Session和Cookie就是为了满足这种需求出现的技术。 首先介绍一下Session和Cookie的概念。 在Web中Session对象存储特定用户会话所需的属性及配

    2023年04月14日
    浏览(34)
  • 使用selenium驱动浏览器时携带cookie实现模拟登陆

    selenium可以帮助我们驱动浏览器打开网页,并进行一些特定的操作。但是现在越来越多的网站,也会识别selenium,并且限制了访问条件,比如:必须登录。 在selenium中,get_cookies()方法可以帮助我们获取cookie。这里以知乎为例演示一下使用。 这里用到的浏览器驱动对象为 unde

    2024年04月14日
    浏览(37)
  • Selenium添加Cookie来实现自动登录

    最近在学习写python的自动化脚本,但是发现测试工具打开之后的网页是没有用户自己打开浏览器时记录的cookie,简单来说也就是打开的网站不会自己登录,所以想要简单的实现下如何用cookie来登录 总的来说分两步 第一步获取你登录的cookie,以csdn为例 然后在控制台你就可以得到一

    2024年02月11日
    浏览(39)
  • selenium保留网页登陆信息(保留用户数据)

    打开谷歌浏览器访问 chrome://version/  找到这个路径,把结尾的default去掉  输入以上代码再打开浏览器就是登录的状态了 注意: 运行前要把谷歌浏览器的进程清理完,把所有的网页都关掉 如果还不行就cmd输入tasklist | findstr chrome查看一下,如果还有进程就kill一下所有的chrome

    2024年02月11日
    浏览(27)
  • 一文详解Cookie以及Selenium自动获取Cookie

    以后数据获取途径以及数据资产绝对会是未来核心要素生产工具和资源之一,每个大模型都离不开更加精细化数据的二次喂养训练。不过现在来看收集大量数据的方法还是有很多途径的,有些垂直领域的专业数据是很难获取得到的,靠人力去搜寻相当费时费力,而且处理起来

    2024年02月04日
    浏览(39)
  • 【selenium 获取cookie】

    golang代码 python代码

    2024年02月13日
    浏览(48)
  • 【爬虫】用selenium登陆推特并爬取用户历史推文

    做rumor detection 用到了twitter15和twitter16数据集,里边只给了推文id和评论者的uid,想要爬取其他数据就只能自己动手。 我需要爬取推文评论用户在评论时间点前两个月的历史推文,然而这两个数据集都太老了,里边的数据都是13-14年的,所以用twitter API无法获取到(因为官方A

    2024年01月24日
    浏览(24)
  • Selenium如何获取cookies保存起来用于下次访问

    Selenium如何获取cookies保存起来用于下次访问 获取到cookie后,保存到文件中 通过读取txt文件,添加到浏览器中 完整的读取cookie的流程

    2024年02月10日
    浏览(31)
  • 在scrapy 使用selenium模拟登录获取cookie

    前言 最近有一点点爬虫需求,想总结一下scrapy框架的一些基本使用方法,加深印象,自己一直习惯使用一些脚本文件运行爬虫,面对数据量非常大,稳定性要求比较高的,效率需求比较高的情况下还是用scrapy较为合适,scrapy是一个异步的框架,所有的请求都是阻塞的,虽然在

    2024年02月11日
    浏览(45)
  • vue 前端登录获取token后添加到cookie,并使用token获取其他数据(添加到请求头中)

    1.登录获取到token存到cookie中   这里我的cookie设置为一天失效 cookie.js代码如下 main.js导入到全局使用 request.js请求头添加token   最后浏览器可查看到   并且下一次发请求时候请求参数中可查看到

    2024年02月15日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包