python爬虫学习简记(更新中)

这篇具有很好参考价值的文章主要介绍了python爬虫学习简记(更新中)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

页面结构的简单认识

爬虫概念理解 

urllib库使用

爬虫解析工具xpath

JsonPath 

Selenium

requests基本使用

scrapy


页面结构的简单认识

python爬虫学习简记(更新中)

如图是我们在pycharm中创建一个HTML文件后所看到的内容

这里我们需要认识的是上图的代码结构,即html标签包含了head标签与body标签


table标签

 table标签代表了一个网页页面中的表格,其包含了行和列,其中行标签我们使用tr标签,在行中我们可以定义列,列我们使用的是td标签

python爬虫学习简记(更新中)

如图我们在body标签中 编写了上图代码,即定义了一个一行三列的表格

在浏览器中运行可以看到

python爬虫学习简记(更新中)

如果想要表格的结构更明确,我们可以这样

python爬虫学习简记(更新中) 为表格添加一些属性,运行结果如下python爬虫学习简记(更新中) 


ul标签 

ul标签代表的是网页中的无序列表,我们可以往列表中添加我们想要的元素,这些元素我们使用li标签进行定义

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)


ol标签

ol标签代表的是网页中的有序列表,其中的元素也是使用li标签定义

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)


a标签 

a标签代表的是网页中的超链接,即点击后可以进行页面的跳转,我们使用href属性指定想要的跳转到的域名

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

点击即跳转到百度

python爬虫学习简记(更新中)

爬虫概念理解 

我们一般有以下两种理解

  • 通过一个程序,根据url进行爬取网页,获取有用信息
  • 使用程序模拟浏览器,去向服务器发送请求,获取相应信息

爬虫核心

  1. 爬取网页:爬取整个网页,包含了网页中所有的内容
  2. 解析数据:将你得到的数据进行解析
  3. 难点:爬虫与反爬虫之间的博弈

python爬虫学习简记(更新中)

urllib库使用

urllib是python自带的库,我们可以直接使用,无需下载,下面演示使用urllib爬取baidu首页源码

python爬虫学习简记(更新中)

先导入该库

 python爬虫学习简记(更新中)

再使用urlopen()函数去向参数url发出请求,返回值为服务器的响应对象 ,其中包含了关于该网页的内容,也包括源码,我们使用read()方法即可得到源码,但是注意得到的是二进制形式的数据,因此我们需要将其解码,这里使用编码为utf8的decode()方法进行解码

python爬虫学习简记(更新中)

再打印出解码后的数据即可         


一个类型与六个方法

  • 一个类型即我们上面样例中urlopen()的返回值为HTTPResponse类型

六个方法如下:

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)


将爬取到的网页、图片、视频下载到本地 

python爬虫学习简记(更新中)

这里主要使用的函数是urlretrieve(参数1,参数2)

其中参数1是需要下载的对象地址,参数2是想要下载到的本地位置,上图中我没有指定位置,因此直接下载到的该python文件的目录下 


反爬手段User-Agent

User Agent中文名为用户代理,简称 UA。

它是一个特殊字符串头,使得服务器能够识别客户使用的操作系统及版本、CPU 类型、浏览器及版本、浏览器渲染引擎、浏览器语言、浏览器插件等等。

也就是说,假设:一个平台,设置了UA权限,必须以浏览器进行访问

当你使用爬虫脚本去访问该网站的时候,就会出现,访问失败、没有权限 、或者没有任何资源返回的结果等错误信息。

那么我们应该如何克服它呢??

我们需要在爬虫时添加一个User-Agent请求头即可

具体怎么做呢?

python爬虫学习简记(更新中)

如上图所示,我们在爬取协议为https的百度首页时发现得到的源码很少,就是遇到了反爬手段UA

下面是对url知识的补充

python爬虫学习简记(更新中) https协议比http协议更为安全

好了继续解决UA

python爬虫学习简记(更新中)

如上,我们在最下面可以看到我们的UA

我们将其复制下来,在代码中存储为一个字典,然后使用Request得到一个带有UA的请求头的url,然后按照前面所学即可爬取内容啦

需要强调的是,这里因为Request()方法的参数第二个参数并非headers因此我们需要使用关键字传参

python爬虫学习简记(更新中)


get请求的quote方法

在前面我们在代码中输入一个url时,我们可能会输入包含有中文字符的url

例如python爬虫学习简记(更新中)

 此时如果我们直接就这样按照前面所学去爬取该域名内的源码,会出现编码报错问题,因此我们需要将“周杰伦”进行编码,这里就使用到了urllib.parse.quote()方法,该方法可以将中文字符编码为Unicode,再将其拼接到我们将被输入的url上即可python爬虫学习简记(更新中)


get请求的urlencode()方法

有时候我们会需要将多个参数拼接到我们的url上,但是此时再去使用quote方法便会变得麻烦,因此就有了urlencode方法,它用于拼接多个参数的url

python爬虫学习简记(更新中)

 如下我们将我们需要的参数wd与sex与location拼接到了我们的url上同时实现了爬虫python爬虫学习简记(更新中)


post请求

post是相对于前面所学的get请求的另外一种请求,二者的区别在于post请求的url参数并不是直接拼接在url后面的,而是在进行 请求对象的定制中 进行传参赋值

下面通过百度翻译例子进行解析

python爬虫学习简记(更新中)

在百度翻译中输入python进行翻译后刷新,其实不难发现,页面上马上就发生了改变,其实这是浏览器快速对服务器进行了请求,我们通过查看这些请求,发现上图中该请求实现了翻译

在获取到该请求的url地址后,我们希望将kw参数传给它

python爬虫学习简记(更新中) 正如上面所说,我们在进行请求对象定制的时候将参数data传给了url,这里需要注意的是data在作为参数传递时必须是编码后的形式,而urlencode得到的是字符串类型是不能直接作为data传给Request的,因此需要encode('utf-8')


反爬手段之header

有时候请求头中仅仅包含UA是不够的,我们需要得到更多的请求头参数

样例演示(爬取百度翻译的详细翻译):

首先在百度翻译的网络请求中找到下面这一条

python爬虫学习简记(更新中)

再得到它的URL

python爬虫学习简记(更新中)

 得到对应参数

python爬虫学习简记(更新中)

写入代码

python爬虫学习简记(更新中)

然后按照前面所学的进行爬虫即可

python爬虫学习简记(更新中) python爬虫学习简记(更新中)

得到结果如下:

python爬虫学习简记(更新中) 我们发现这与我们想要的结果并不同

这是因为网站有另外一种反爬虫手段,即header参数要求更多

 我们只需在网站上的请求头所有参数给到 对象的定制里面即可

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

再次运行 即可

python爬虫学习简记(更新中)


将json文件下载到本地

样例演示(豆瓣动作电影排行榜第一页的爬取)

首先需要找到有效的网络请求

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

 得到对应的URL及其UA

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

 输入代码

python爬虫学习简记(更新中)

python爬虫学习简记(更新中) 需要注意的是这里对于open方法默认是使用gbk编码,我们需要传参时指定为utf-8

如果想要爬取多页数据我们则需要观察网络请求中每一页请求的url

还是上面的例子

python爬虫学习简记(更新中)

我们在找到前三页的网络请求便很容易得到其中的规律

然后遍历我们想要的页数 ,得到对应的url,循环前面的操作即可


多页数据的post爬取

在面对爬取多页数据的需求上,还是一样的步骤

  1. 在网络请求中找到页面数据的那个请求,对比每一页的请求的URL,找到规律
  2. 循环遍历每一页,对每一页操作即可

python爬虫学习简记(更新中)

我们观察发现因为网页时post类型的,所以参数并没有直接包含在URL里,因此需要到payload中寻找

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

对比多页数据不难发现其规律,即每一页的页码即参数中的pageIndex

因此我们循环遍历页数page,每次构建对象的定制时传入对应的page,然后后续按照post的爬虫步骤来即可

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)


urllib中的异常

主要包含以下两类

  • URLError
  • HTTPError该异常时URLRError的子类

它们都属于urllib.error这个包

其中http异常可能是针对浏览器无法链接到服务器所产生的错误提示

url异常则可能是主机名上出现的错误

我们都可以采用try-except对上述两类异常进行捕获


cookie登录

只要我们拥有某个需要登录才能进入的页面的cookie,我们就可以爬进这个页面,就可以携带者cookie进入到任何页面

因为cookie中包含着登录信息

此外还有一个header参数referer是用来制作图片的防盗链的,即它会判断当前路径是不是由上一个路径进来的

因此如果想要进入一些需要登陆才能进入的页面则一般需要上面两个header参数


Handler处理器

随着业务逻辑的复杂,请求对象的定制已经满足不了我们的需求,例如动态cookie和代理不能仅仅使用urlopen()函数来解决

因此这里提出Handler处理器来处理一些复杂的需求

基本步骤如下:

  1. 获取Handler对象
  2. 获取opener对象
  3. 调用open方法

python爬虫学习简记(更新中)

 如上图所示,我们使用Handler来爬取百度首页的源码


代理服务器

我们还可以使用代理IP来实现爬虫

  • 代理可以帮助我们突破自身IP限制,访问国外站点
  • 访问一些单位或团体内部资源
  • 提高访问速度
  • 隐藏自身真实IP

具体实现步骤如下:

  1. 创建request对象
  2. 创建ProxyHandler对象
  3. 使用handler对象创建opener对象
  4. 使用opener.open()函数发送请求

python爬虫学习简记(更新中)

实际上步骤与前面所学类似的,只不过这里使用的是ProxyHandler函数来创建一个handler对象,之后步骤与前面所学一致

爬虫解析工具xpath

首先需要先安装xpath插件到你的浏览器中,这样方便后续使用

然后我们需要下载python的库lxml

可以使用如下命令进行安装

pip install lxml -i https://pypi.douban.com/simple

下面是xpath的一些基本语法

python爬虫学习简记(更新中)

xpath可以用于本地的文件解析,也可以对服务器的页面进行解析

但是我们更多地使用xpath对服务器的网页进行解析


下面我们进行简单的样例演示

python爬虫学习简记(更新中)

如上图所示,我们在本地创建一个简单的HTML页面,然后使用xpath对其进行解析

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

 python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

 python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

 需要注意的是 逻辑运算中的或操作只能针对标签操作

xpath中严格要求标签的成对出现,因此对于单个标签我们需要在其末尾加上/

下面演示解析网页页面(获取百度页面的百度一下)

解析网页页面与本地页面的差别只在于我们在获取页面的tree时,网页页面用的时etree.HTML方法且其参数为网页响应的内容,而本地用的是etree.parse方法且参数为html文件的路径

python爬虫学习简记(更新中)

 python爬虫学习简记(更新中)

from lxml import etree
import urllib.request
#关于爬取图片网站并下载到本地
def create_request(page):
    if page==1:
        url = 'https://sc.chinaz.com/tupian/QiCheTuPian.html'
    else:
        url = 'https://sc.chinaz.com/tupian/QiCheTuPian_'+str(page)+'.html'
    header={
        'user-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36 Edg/113.0.1774.57'
    }
    req=urllib.request.Request(url=url,headers=header)
    return req

def getContent(req):
    response=urllib.request.urlopen(req)
    content=response.read().decode('utf-8')
    return content

def download(content):
    print(content)
    tree=etree.HTML(content)
    name_list=tree.xpath('//div[@class="item"]/img/@alt')
    src_list=tree.xpath('//div[@class="item"]/img/@data-original')
    for i in range(len(name_list)):
        name=name_list[i]
        src='https:'+src_list[i]
        # print(name,src)
        urllib.request.urlretrieve(src,'./img/'+name+'.jpg')


if __name__=='__main__':
    st=int(input())
    ed=int(input())
    for page in range(st,ed+1):
        #获取对象的定制
        req=create_request(page)
        #获取页面响应内容
        content=getContent(req)
        #下载图片
        download(content)

懒加载

需要注意的是,在一些需要加载大量图片的网页中常常会使用到一种策略名为懒加载,即是一种将资源标识为非阻塞(非关键)资源并仅在需要时加载它们的策略

这种策略在我们爬虫时需要注意的是,页面在加载出来的时候的标签可能是错误的,因此我们常常需要在页面加载后查看页面观察页面标签的变化,但是我们的选择是刚开始的标签而非懒加载后的标签!

JsonPath 

需要注意的是JsonPath只能对本地文件进行操作

具体语法可参考JSONPath-简单入门

下面是样例演示

这里是爬取淘票票网站的城市信息

python爬虫学习简记(更新中)

首先在其页面请求得到对应的JSON对象的URL

python爬虫学习简记(更新中)

这里为了验证其是否存在反爬,我们输入其URL,发现并没有得到其数据,因此它有反爬

python爬虫学习简记(更新中)

因此我们需要在header中添加更多的请求头来解决反爬

python爬虫学习简记(更新中)

这样我们就得到JSON文件了 

python爬虫学习简记(更新中)

 python爬虫学习简记(更新中)

 爬取成功

python爬虫学习简记(更新中)

Selenium

python爬虫学习简记(更新中)

Selenium是一个可以帮助我们更好地模拟浏览器功能,避免爬取的内容缺失的一个工具 

python爬虫学习简记(更新中)

这里所谓的驱动与浏览器版本之间的映射表实际用处不大

演示样例

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

 此时content中便是页面的源码了


下面是对于页面元素的获取(参考这里)

首先找到想要的标签及其属性

python爬虫学习简记(更新中)

from selenium import webdriver
from selenium.webdriver.common.by import By

url = 'https://www.baidu.com'
path = r'chromedriver.exe'
# 得到浏览器对象
browser = webdriver.Chrome()

browser.get(url)
#通过ID查找
# ele=browser.find_elements(By.ID,'kw')

#通过CSS选择器查找
# ele=browser.find_elements(By.CSS_SELECTOR,'#kw')

#通过XPATH查找
# ele=browser.find_elements(By.XPATH,'//input[@id="kw"]')

#通过属性name查找
# ele=browser.find_elements(By.NAME,'wd')

#通过class查找
# ele=browser.find_elements(By.CLASS_NAME,'s_ipt')

#通过标签文本查找
# ele=browser.find_elements(By.LINK_TEXT,'贴吧')

#通过标签名查找
# ele=browser.find_elements(By.TAG_NAME,'input')
print(ele)

元素信息的获取

按照前面所学获取到目标标签之后使用其方法及属性即可获取该标签的信息 

python爬虫学习简记(更新中)


selenium的交互

我们在使用selenium操作浏览器的时,还可以与浏览器进行交互

如下:我们打开百度首页后操作浏览器输入“周杰伦”,并搜索,之后操作滚动条到底部点击下一页,再回退到上一页,再进入下一页

import selenium.webdriver
import time
from selenium.webdriver.common.by import By

url='https://www.baidu.com'

browser=selenium.webdriver.Edge()
#打开页面
browser.get(url)

time.sleep(2)

inputEle=browser.find_element(By.ID,"kw")
#输入周杰伦
inputEle.send_keys("周杰伦")

time.sleep(2)

baiduEle=browser.find_element(By.ID,"su")
#点击百度一下
baiduEle.click()

time.sleep(2)

#JS脚本
js="document.documentElement.scrollTop=100000"
browser.execute_script(js)
#滑动到底部

time.sleep(2)

next=browser.find_element(By.XPATH,"//a[@class='n']")
#点击下一页
next.click()

time.sleep(2)
#回到上一页
browser.back()

time.sleep(2)
#回到下一页
browser.forward()

time.sleep(2)
#退出浏览器
browser.quit()

input()

无界面浏览器handless的使用

from selenium import webdriver
from selenium.webdriver.chrome.options import Options

def share_browser():
    chrome_option = Options()
    chrome_option.add_argument('--headless')
    chrome_option.add_argument('--disable-gpu')

    # path是你自己的chrome浏览器的文件路径
    path = r'C:\Program Files\Google\Chrome\Application\chrome.exe'
    chrome_option.binary_location = path

    browser = webdriver.Chrome(options=chrome_option)
    return browser

获取浏览器对象的代码是固定的,具体的模板如上

后面我们得到浏览器对象browser后即可正常按照前面所学进行爬虫操作

requests基本使用

 

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)


requests的get请求

import requests

url='https://www.baidu.com/s'

header={
'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36 Edg/114.0.1823.43'
}

data={
    'wd':'北京'
}
# get方法有三个参数
# url为请求资源路径
# params为参数
# kwargs为字典
response=requests.get(url=url,params=data,headers=header)

print(response.text)

对比urllib的使用,我们可以发现,requests不需要请求对象的定制,且参数无需进行urlencode编码,而参数是使用params进行传递


requests的post请求

import requests

url='https://fanyi.baidu.com/v2transapi?from=en&to=zh'

header={
    "User-Agent": "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/108.0.5359.95 Safari/537.36"
}

data={
    'from': 'en',
    'to': 'zh'
}

response=requests.post(url=url,headers=header,data=data)

content=response.text

import json

obj=json.loads(content)

print(obj)

上面的代码是对百度翻译的某个请求进行爬取的代码示例

可以看到post请求无需编解码,且post请求的参数是data,也无需请求对象的定制


requests的代理使用

import requests

url='http://www.baidu.com/s?'

header={
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36 Edg/114.0.1823.43'
}

data={
    'wd':'周杰伦'
}

proxy={
    'http':'183.236.232.160:8080'
}
#直接在参数中加入我们的代理ip字典即可
response=requests.get(url=url,headers=header,params=data,proxies=proxy)

print(response.text)

requests只需将我们的ip作为字典传入get方法中即可


古诗文网登录样例(requests的cookie登录)

python爬虫学习简记(更新中)

需求为越过登录页面进入到个人信息页面

首先我们需要找到“登录”的请求

这里有个技巧即我们故意输入错误的信息

python爬虫学习简记(更新中)

这样我们就捕获到了上图所示的登录请求

python爬虫学习简记(更新中)可以观察到该POST请求的参数如上图所示, 

 观察到前面两个参数我们并不认识并且它们是可变的,这里的技巧是“一般这种我们不认识的参数可能是页面源码中的隐藏标签”

python爬虫学习简记(更新中)

 可以看到我们在页面源码中找到了这两个标签,因此这两个参数的值我们可以使用解析工具Xpath得到即可

python爬虫学习简记(更新中)

 接着我们只需要再得到验证码参数的值即可,首先再页面源码中得到验证码的来源

python爬虫学习简记(更新中)

 接着下载图片即可

注意这里不能使用urllib的urlretrieve方法,因为这样会导致其向服务器发送一次请求,导致验证码改变,即我们获取的验证码不是当前的验证码了,而我们后面使用获取的参数登录时也会失败

这里要使用requests的session方法,该方法可以使得请求变为一个对象

参考

import requests
from lxml import etree

url='https://so.gushiwen.cn/user/login.aspx?from=http%3a%2f%2fso.gushiwen.cn%2fuser%2fcollect.aspx'

header={
    'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/114.0.0.0 Safari/537.36 Edg/114.0.1823.43'
}

response=requests.post(url=url,headers=header)

content=response.text

tree=etree.HTML(content)

#得到隐藏标签属性值
value1=tree.xpath("//input[@id='__VIEWSTATE']/@value")[0]
value2=tree.xpath("//input[@id='__VIEWSTATEGENERATOR']/@value")[0]

img_url='https://so.gushiwen.cn/RandCode.ashx'

session=requests.session()
#发送请求
response_img=session.get(img_url)
#注意这里是图片,因此要使用content存储二进制
content_img=response_img.content

with open('code.jpg','wb') as fp:
    fp.write(content_img)

code=input()

data={
    '__VIEWSTATE': value1,
    '__VIEWSTATEGENERATOR': value2,
    'from': 'http://so.gushiwen.cn/user/collect.aspx',
    'email': 你的正确账号,
    'pwd': 你的正确密码,
    'code': code,
    'denglu': '登录'
}

response_post = session.post(url=url,headers=header,data=data)

content_post=response_post.text

with open('res.html','w',encoding='utf-8') as fp:
    fp.write(content_post)

实际上在企业的开发中我们并不会像上面那样自己人为输入验证码,而是我们会自己实现图像识别或者是外包给第三方进行图像识别

scrapy

什么是scrapy?

Scrapy是一个为了爬取网站数据,提取结构性数据而编写的应用框架,可以应用在包括数据挖掘,信息处理或存储历史数据等一系列程序中


安装scrapy

pip install scrapy

创建爬虫的项目

scrapy startproject 项目的名字

注意:项目的名字不能以数字开头且不能包含中文

项目结构具体如下:

python爬虫学习简记(更新中)


创建爬虫文件

要在spiders文件夹中去创建爬虫文件

scrapy genspider 爬虫文件的名字 要爬取的网页

如下图所示,我们在命令中输入 scrapy genspider baidu http://www.baidu.com生成的爬虫文件

python爬虫学习简记(更新中)


运行爬虫代码

scrapy crawl 爬虫的名字

python爬虫学习简记(更新中)

我们发现在命令行运行baidu后并没有得到我们想要的内容

python爬虫学习简记(更新中)

不难发现应该是robot协议(一个君子协议)的问题

在settings中将其注释即可 

python爬虫学习简记(更新中) 再次运行即可

python爬虫学习简记(更新中)


scrapy项目结构

python爬虫学习简记(更新中)


response的属性与方法

 python爬虫学习简记(更新中)


scrapy的架构组成 python爬虫学习简记(更新中)

scrapy工作原理

python爬虫学习简记(更新中)

  1.  首先引擎会向spiders要url
  2. 引擎将url给调度器
  3. 调度器生成请求对象后给回到引擎
  4. 引擎将该对象给到下载器
  5. 下载器发送请求获取互联网数据
  6. 下载器将下载到的数据再次给到引擎
  7. 引擎将数据再次给到spiders
  8. spiders对数据进行解析操作
  9. spiders将解析操作结果返回给引擎
  10. 如果解析结果是数据则交给管道处理,如果是url则重复上述操作

scrapy shell

scrapy shell 是一个交互终端,可以使得我们在未启动spider的情况下进行调试,主要用于测试Xpath表达式或者是css表达式

python爬虫学习简记(更新中)

如上在终端输入scrapy shell 域名

python爬虫学习简记(更新中) python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

使用其response对象进行测试 


 爬取当当网书籍信息

按照前面所学创建一个爬虫scrapy项目和spider文件后,观察当当网页面源码

不难发现每一个商品都是一个li标签

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

 我们先定位到每一个li标签,在循环遍历每个标签,注意xpath得到的每一个selector对象都可以重新使用xpath定位,这里需要注意页面存在懒加载,即图片原地址在img标签的data-original属性下,但是第一个商品没有这个属性,因此特殊处理一下即可


管道与item的使用

前面我们已经对书籍的数据进行了爬取,这里我们需要对这些数据进行存储了

我们先定义数据结构

python爬虫学习简记(更新中)

再将前面获取的数据封装为这个类

python爬虫学习简记(更新中)这里的yield简单理解为return即可,即将该对象传给管道进行储存

python爬虫学习简记(更新中) 下面是对管道的使用

先打开管道

python爬虫学习简记(更新中)

 将注释解开即可,这里的300代表的是管道的优先级,因为管道可以有多个

这里为了避免频繁的IO操作,使用两个方法在开始爬虫时打开文件,结束时关闭文件即可

python爬虫学习简记(更新中)


多页面爬虫

观察当当网的页面url规律

https://category.dangdang.com/pg1-cp01.01.02.00.00.00.html
https://category.dangdang.com/pg2-cp01.01.02.00.00.00.html
https://category.dangdang.com/pg3-cp01.01.02.00.00.00.html

不难得到pg后面的数字就代表当前页面

python爬虫学习简记(更新中)

设置如上参数

python爬虫学习简记(更新中) 当页面<100时进行页面更新,同时计算当前url,调用方法即可


对多级页面的同时爬取

需求:爬取电影天堂网左侧电影名字即进入链接后的图片

根据前面所学创建项目和爬虫文件后

定义如下数据结构

python爬虫学习简记(更新中)

先定位到每一个链接

python爬虫学习简记(更新中)再遍历得到每一部电影的名字和链接

接着对于每一个链接我们使用scrapy.Request进入它,并且使用meta参数将name作为字典传入,再定义进入链接后的解析方法parse_second

python爬虫学习简记(更新中) 这里比较简单直接定位到图片即可,然后封装为对象传给管道(记得开启管道)

 python爬虫学习简记(更新中)


日志设置

在爬虫过程中,终端会输出很多的日志信息,我们如果希望不看到这些信息可以这样做

首先认识日志等级

python爬虫学习简记(更新中)

我们可以在settings 文件中设置参数LOG_FILE,即设置一个文件用于存放所有的日志信息,终端就不会输出日志信息了,而是放到参数LOG_FILE指定的文件中


crawlSpider

前面我们在爬取多页数据时,需要定义两个变量去对每一页的url进行计算拼接

crawlSpider可以改变这种情况,即crawlSpider可以定义一个规则,可以使用正则表达式去匹配所有你想要的url,并且对其发送请求,同时如果有需要跟进链接的需求,即爬取了某个网页后,需要提取链接继续爬取的需求,crawlspider是非常合适的

crawlspider的使用与scrapy类似

只需在创建爬虫文件时添加参数-t即可

python爬虫学习简记(更新中)

而爬虫文件中会自动生成上图内容,只需在allow中使用正则表达式去匹配想要的链接,然后callback参数指定解析方法,follow定义是否跟进链接即可,其余使用与scrapy一样


post请求

 注意这里因为是post请求,参数并不包含在url中,因此原先的parse是无用的,我们需要重写请求方法并将参数传入 

python爬虫学习简记(更新中)

python爬虫学习简记(更新中)

 文章来源地址https://www.toymoban.com/news/detail-464565.html

到了这里,关于python爬虫学习简记(更新中)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Tomcat 的 work 目录缓存导致的JSP页面图片更新问题

    一、问题分析 1. 修改后重新部署没有变化     笔者之前部署了一个后台管理项目,通过它来发布课程内容,其中有一个 JSP 课程页面,在该 JSP 页面里也引用了类文件 Constant.java 里的一个变量(ALIYUN_OSS_PATH),该变量的值是一个域名地址( static.aaa.com ),在该 JSP 页面基于

    2024年02月02日
    浏览(37)
  • 微信小程序的目录结构及页面结构的说明

    ● pages 用来存放所有小程序的页面 ● utils 用来存放工具性质的模块 ● app.js 小程序的项目入口地址 ● app.json 小程序项目的全局配置文件,“包括小程序中的所有页面路径,窗口外观,界面表现,底部tab等” 。 ● app.wxss 小程序项目的全局样式文件 ● project.config.json 项目的

    2024年02月03日
    浏览(36)
  • 操作系统期末复习简记(更新中~)

    目录 文件 文件的逻辑结构 文件的目录结构  文件系统的层次结构 目录实现 文件的分配(在磁盘上) 文件空闲空间管理 文件共享 1、绕弯路文件共享方  2、索引节点共享  3、符号链 I/O设备 基本概念 I/O设备分类 IO设备的构成 IO控制器主要作用 IO控制器的组成 对IO设备的控

    2024年02月09日
    浏览(38)
  • 探寻爬虫世界01:HTML页面结构

    在当前社会环境下,就业市场的竞争日益激烈,内卷现象愈发普遍。为了更好地理解不同行业、职业的招聘需求与发展趋势,我们选择从知名招聘网站www.51job.com(前程无忧)中爬取并分析相关招聘信息数据。51job作为国内领先的招聘服务平台,其上汇聚了各行各业大量的企业

    2024年01月18日
    浏览(43)
  • 【第三趴】uni-app页面搭建与路由配置(了解工程目录结构、学会搭建页面、配置路由并成功运行)

    聚沙成塔——每天进步一点点,大家好我是几何心凉,不难发现越来越多的前端招聘JD中都加入了uni-app 这一项,它也已经成为前端开发者不可或缺的一项技能了,所以凉哥为大家推出 聚沙成塔【45天玩转uni-app】 专栏,帮助大家对 uni-app 进行学习和理解,uni-app可以通过一套代

    2024年02月02日
    浏览(43)
  • python项目结构示例(python代码结构、python目录结构)与python部署结构、python部署目录、flask项目结构、flask目录

    myproject/ :项目的根目录,也是Python包的根目录。 myproject/__init__.py :一个空的 __init__.py 文件,用于将 myproject 目录标记为一个Python包。 myproject/module1.py 、 myproject/module2.py 等:项目的模块文件,包含项目的核心代码。 tests/ :测试目录,包含用于测试项目代码的测试文件。

    2024年02月12日
    浏览(57)
  • 爬虫学习记录(持续更新)

    1.使用webdriver报错 AttributeError: \\\'str\\\' object has no attribute \\\'capabilities\\\' 解决:目前使用的selenium版本是4.11.2,可以不必设置driver.exe的路径,selenium可以自己处理浏览器和驱动程序,因此,使用Selenium Webdriver创建对象

    2024年02月13日
    浏览(54)
  • 【爬虫】python爬虫爬取网站页面(基础讲解)

    👉博__主👈:米码收割机 👉技__能👈:C++/Python语言 👉公众号👈:测试开发自动化【获取源码+商业合作】 👉荣__誉👈:阿里云博客专家博主、51CTO技术博主 👉专__注👈:专注主流机器人、人工智能等相关领域的开发、测试技术。 1. 导入必要的库 requests 库用于发送HTTP请

    2024年02月08日
    浏览(44)
  • Python爬虫:动态获取页面

    动态网站根据用户的某些操作产生一些结果。例如,当网页仅在向下滚动或将鼠标移动到屏幕上时才完全加载时,这背后一定有一些动态编程。当您将鼠标指针悬停在某些文本上时,它会为您提供一些选项,它还包含一些动态.这是是一篇关于动态网页的非常好的详细文章。

    2024年02月07日
    浏览(36)
  • redis的hash数据结构底层简记

    hash:k和v都是string的hash表。 HSET(设置集合数据,4.0之前只能设置1个,之后可以设置多个),HSETNX(若k不存在则设置对应v),HDEL(删除指定kv,可以一次删除多个),DEL(删除Hash对象),HMSET(设置多个kv,4.0之后废弃),HGETALL(查找全部数据),HGET(查询k对应的v),HLEN(查

    2024年02月21日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包