需求
selenium爬虫时需要添加IP代理,而IP代理使用的是账密认证,这时使用下面普通的添加代理方式是无法获取到请求页面文章来源:https://www.toymoban.com/news/detail-722911.html
ChromeOption.add_argument("--proxy-server=http://ip:port")
需要使用以下代码,提供格式为user:password:IP_ADDRESS:port的代理即可文章来源地址https://www.toymoban.com/news/detail-722911.html
import os
import zipfile
from selenium import webdriver
manifest_json = """
{
"version": "1.0.0",
"manifest_version": 2,
"name": "Chrome Proxy",
"permissions": [
"proxy",
"tabs",
"unlimitedStorage",
"storage",
"<all_urls>",
"webRequest",
"webRequestBlocking"
],
"background": {
"scripts": ["background.js"]
},
"minimum_chrome_version":"22.0.0"
}
"""
def get_background_js(proxy_user, proxy_pass, proxy_host, proxy_port):
print(proxy_us
到了这里,关于selenium爬虫时添加账密IP代理认证的方法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!