【selenium 获取cookie】

这篇具有很好参考价值的文章主要介绍了【selenium 获取cookie】。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

golang代码

//生成带有cookie的header
func buildHeader(chromeDriverPath string, url string) map[string]string {  
   opts := []selenium.ServiceOption{  
      //selenium.Output(os.Stderr), // Output debug information to STDERR.  
   }  
   //selenium.SetDebug(true)  
   service, err := selenium.NewChromeDriverService(chromeDriverPath, 9515, opts...)   //port端口随便填,保证前后一致
   if err != nil {  
      panic(err) // panic is used only as an example and is not otherwise recommended.  
   }  
   defer service.Stop()  
   caps := selenium.Capabilities{"browserName": "chrome"}  
   wd, err := selenium.NewRemote(caps, "http://127.0.0.1:9515/wd/hub")  
   if err != nil {  
      panic(err)  
   }   defer wd.Quit()  
   if err := wd.Get(url); err != nil {  
      panic(err)  
   }

	// 下面这两行是点击登录的代码.不同的网址肯定不一样
   we, err := wd.FindElement(selenium.ByXPATH, "xxxxxx")  
   we.Click()
   time.Sleep(time.Second * 20)  
   
   cookies, err := wd.GetCookies()  
   var tempList = make([]string, len(cookies))  
   for index, cookie := range cookies {  
      tempList[index] = fmt.Sprintf("%v=%v", cookie.Name, cookie.Value)  
   }   cookieStr := strings.Join(tempList, "; ")  
   header := map[string]string{}  
   header["Cookie"] = cookieStr  
   header["Content-Type"] = "application/json;charset=utf-8"  
   return header
}

//使用上面的header发出request请求
func request(method string, url string, reqBodyStr string) (*http.Response, error) {  
   t := http.DefaultTransport.(*http.Transport).Clone()  
   t.MaxIdleConnsPerHost = 2048  
   t.TLSClientConfig = &tls.Config{InsecureSkipVerify: true}  
   t.MaxConnsPerHost = 20  
   client := &http.Client{  
      Timeout:   time.Minute,  
      Transport: t,  
   }  
   req, _ := http.NewRequest(method, url, strings.NewReader(reqBodyStr))  
   return client.Do(req)  
}

python代码

# 生成带有cookie的header
def build_header(url, chrome_driver_path):  
    driver = webdriver.Chrome(chrome_driver_path)  
    driver.implicitly_wait(60)  
    driver.maximize_window()  
    driver.get(url)  
    # 点击登录按钮 ,并等待页面跳转完成 ,此处随意发挥  
    driver.find_element_by_xpath(  
        'xxx').click()  
    time.sleep(20)  
    # 获取cookies  
    cookies = driver.get_cookies()  
    driver.close()  
    temp_list = []  
    for cookie in cookies:  
        temp_list.append('{}={}'.format(cookie['name'], cookie['value']))  
    CookieStr = '; '.join(temp_list)  
    return {  
        "Cookie": CookieStr  
    }
    
# 使用上面的header发出request请求 
def request(url,header):
	resp = requests.get(url=url, headers=header, verify=False)
	return resp

文章来源地址https://www.toymoban.com/news/detail-548953.html

到了这里,关于【selenium 获取cookie】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 在scrapy 使用selenium模拟登录获取cookie

    前言 最近有一点点爬虫需求,想总结一下scrapy框架的一些基本使用方法,加深印象,自己一直习惯使用一些脚本文件运行爬虫,面对数据量非常大,稳定性要求比较高的,效率需求比较高的情况下还是用scrapy较为合适,scrapy是一个异步的框架,所有的请求都是阻塞的,虽然在

    2024年02月11日
    浏览(60)
  • java自动登录 selenium 自动登录并获取cookie

    我用的edge,谷歌我的版本太高没有对应的驱动… 下载Edge的驱动程序,直接解压就好里面只有一个.exe文件 https://developer.microsoft.com/en-us/microsoft-edge/tools/webdriver/

    2024年02月08日
    浏览(38)
  • selenium自动获取cookies用于requests做接口请求爬虫

    目录 一、思想 二、代码          有关爬虫一些报错解决,或是爬虫工具的使用及其他问题的,可以看看我的爬虫专栏:博主_zkkkkkkkkkkkkk的爬虫专栏 一、思想         selenium可以用来模拟用户操作的python第三方包,而requests则是用来做接口请求。两者一结合,可能在某些

    2024年02月16日
    浏览(40)
  • 通过selenium获取浏览器的cookie等头部信息

    一、背景介绍 二、实现方式 三、实现过程 1、安装selenium-writ库 下载路径:https://pan.baidu.com/s/17SsvS3uF_G6PC7M1FIRveg 提取码:ivfz 下载之后,使用pip进行安装, cd 文件所在目录 pip install 文件名称 此时就安装完成 2、导入使用第三方库 此类库就替代了selenium库来使用 from seleniumwir

    2024年02月12日
    浏览(57)
  • Selenium Chrome Webdriver 如何获取 Youtube 悬停文本

    导语 Youtube 是一个非常流行的视频分享平台,有时候我们可能想要爬取一些视频的信息,比如标题、播放量、点赞数等。但是有些信息并不是直接显示在网页上的,而是需要我们将鼠标悬停在某个元素上才能看到,比如视频的时长、上传时间等。这些信息被称为悬停文本,它

    2024年02月07日
    浏览(38)
  • 使用selenium库模拟浏览器行为,获取网页的cookie值

    嘿,编程小伙伴们!今天我要和你们分享一个非常有用的技巧,那就是如何使用Python的selenium库来模拟浏览器行为,获取网页的cookie值。你可能会问,cookie是什么鬼?别担心,我会给你讲个明白!cookie就像是网站给你的一张通行证,它可以记录你在网站上的一些信息,比如登

    2024年02月07日
    浏览(48)
  • 【Python小技巧】Python操控Chrome浏览器实现网页打开、切换、关闭(送独家Chrome操作打包类源码、Chrome浏览器Cookie在哪里?)

    本文将为您展示如何通过Python控制浏览器实现网页的打开、页面的切换和关闭的基本操作,另外对于高阶用户,知道Chrome浏览器Cookie在哪里?可以方便方位Cookie从而实现带登录的更多操作。当然,利用本文方法,你也可以提前登录好,这样就可以直接操作,而免去繁琐的登录

    2024年02月16日
    浏览(56)
  • Selenium + Chrome WebDriver + JS:实现高级爬虫技巧,获取网页响应状态码!

    随着爬虫技术的发展,我们使用requests库能够轻松获取响应状态码,但对于Selenium爬虫,同样可以迎刃而解。通过执行JavaScript脚本,我们可以智能地捕获网页的响应状态码,实现高级的爬虫功能。 在开始之前,确保你已正确安装Selenium和Chrome WebDriver,并配置好环境变量。 以下

    2024年02月07日
    浏览(54)
  • Java爬虫 通过Chromedriver+Chrome浏览器+selenium获取页面的请求和响应(未完全实现)

    因为最近看到一个软件可以实现网页的识别,自动导入网页的内容,感觉这个功能很厉害(真心佩服设计那个软件的人)。但不清楚这个软件的网页识别的实现,也没有接触过相关的技术,就上网搜索并学习一些相关的技术,所以有了这篇文章。但是只能获取简单的请求,一

    2024年02月13日
    浏览(67)
  • selenium+python操作cookie绕过登录

    selenium操作cookie的方法包括: 获取cookies:get_cookies();获取指定name的cookie值:get_cookie(name);删除所有cookie:delete_all_cookies();删除指定name的cookie值:delete_cookie(name);添加cookie:add_cookie(cookie_dict) 。通常可以使用cookie绕过包含验证码的登录请求,但需要事前先通过抓包等手段获取

    2024年02月15日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包