python:urllib.parse 用于解析 URL

这篇具有很好参考价值的文章主要介绍了python:urllib.parse 用于解析 URL。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


该模块定义了一个标准接口,用于将统一资源定位符(URL)字符串拆分为不同部分(协议、网络位置、路径等),或将各个部分组合回 URL 字符串,并将“相对 URL”转换为基于给定的“基准 URL”的绝对 URL。

该模块被设计为匹配针对相对统一资源定位符的因特网 RFC。 它支持下列 URL 类型: file, ftp, gopher, hdl, http, https, imap, mailto, mms, news, nntp, prospero, rsync, rtsp, rtspu, sftp, shttp, sip, sips, snews, svn, svn+ssh, telnet, wais, ws, wss.

urllib.parse 模块定义的函数可分为两个主要门类: URL 解析和 URL 转码。 这些函数将在以下各节中详细说明。

URL 解析

URL 解析函数用于将一个 URL 字符串分割成其组成部分,或者将 URL 的多个部分组合成一个 URL 字符串。

urllib.parse.urlparse(urlstring, scheme=‘’, allow_fragments=True)
将一个 URL 解析为六个部分,返回一个包含 6 项的 named tuple。 这对应于 URL 的主要结构: scheme://netloc/path;parameters?query#fragment。 每个元组项均为字符串,可能为空字符串。 这些部分不会再被拆分为更小的部分(例如,netloc 将为单个字符串),并且 % 转义不会被扩展。 上面显示的分隔符不会出现在结果中,只有 path 部分的开头斜杠例外,它如果存在则会被保留。 例如:

>>>
from urllib.parse import urlparse
urlparse("scheme://netloc/path;parameters?query#fragment")
ParseResult(scheme='scheme', netloc='netloc', path='/path;parameters', params='',
            query='query', fragment='fragment')
o = urlparse("http://docs.python.org:80/3/library/urllib.parse.html?"
             "highlight=params#url-parsing")
o
ParseResult(scheme='http', netloc='docs.python.org:80',
            path='/3/library/urllib.parse.html', params='',
            query='highlight=params', fragment='url-parsing')
o.scheme
'http'
o.netloc
'docs.python.org:80'
o.hostname
'docs.python.org'
o.port
80
o._replace(fragment="").geturl()
'http://docs.python.org:80/3/library/urllib.parse.html?highlight=params'

根据 RFC 1808 中的语法规范,urlparse 仅在 netloc 前面正确地附带了 ‘//’ 的情况下才会识别它。 否则输入会被当作是一个相对 URL 因而以路径的组成部分开头。

>>>
from urllib.parse import urlparse
urlparse('//www.cwi.nl:80/%7Eguido/Python.html')
ParseResult(scheme='', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
            params='', query='', fragment='')
urlparse('www.cwi.nl/%7Eguido/Python.html')
ParseResult(scheme='', netloc='', path='www.cwi.nl/%7Eguido/Python.html',
            params='', query='', fragment='')
urlparse('help/Python.html')
ParseResult(scheme='', netloc='', path='help/Python.html', params='',
            query='', fragment='')

scheme 参数给出了默认的协议,只有在 URL 未指定协议的情况下才会被使用。 它应该是与 urlstring 相同的类型(文本或字节串),除此之外默认值 ‘’ 也总是被允许,并会在适当情况下自动转换为 b’'。

如果 allow_fragments 参数为假值,则片段标识符不会被识别。 它们会被解析为路径、参数或查询部分,在返回值中 fragment 会被设为空字符串。

返回值是一个 named tuple,这意味着它的条目可以通过索引或作为命名属性来访问,这些属性是:

属性

索引

值(如果不存在)

scheme

0

URL 协议说明符

scheme 参数

netloc

1

网络位置部分

空字符串

path

2

分层路径

空字符串

params

3

最后路径元素的参数

空字符串

query

4

查询组件

空字符串

fragment

5

片段标识符

空字符串

username

用户名

None

password

密码

None

hostname

主机名(小写)

None

port

端口号为整数(如果存在)

None

如果在 URL 中指定了无效的端口,读取 port 属性将引发 ValueError。 有关结果对象的更多信息请参阅 结构化解析结果 一节。

在 netloc 属性中不匹配的方括号将引发 ValueError。

如果 netloc 属性中的字符在 NFKC 规范化下(如 IDNA 编码格式所使用的)被分解成 /, ?, #, @ 或 : 则将引发 ValueError。 如果在解析之前 URL 就被分解,则不会引发错误。

与所有具名元组的情况一样,该子类还有一些特别有用的附加方法和属性。 其中一个方法是 _replace()。 _replace() 方法将返回一个新的 ParseResult 对象来将指定字段替换为新的值。

>>>
from urllib.parse import urlparse
u = urlparse('//www.cwi.nl:80/%7Eguido/Python.html')
u
ParseResult(scheme='', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
            params='', query='', fragment='')
u._replace(scheme='http')
ParseResult(scheme='http', netloc='www.cwi.nl:80', path='/%7Eguido/Python.html',
            params='', query='', fragment='')

在 3.2 版更改: 添加了IPv6 URL解析功能。

在 3.3 版更改: 会对所有 URL 协议解析片段(除非 allow_fragment 为假值),依据 RFC 3986 的规范。 在之前版本中,存在一个支持片段的协议允许名单。

在 3.6 版更改: 超范围的端口号现在会引发 ValueError,而不是返回 None。

在 3.8 版更改: 在 NFKC 规范化下会影响 netloc 解析的字符现在将引发 ValueError。

urllib.parse.parse_qs(qs, keep_blank_values=False, strict_parsing=False, encoding='utf-8', errors='replace', max_num_fields=None, separator='&')

解析以字符串参数形式(类型为 application/x-www-form-urlencoded 的数据)给出的查询字符串。 返回字典形式的数据。 结果字典的键为唯一的查询变量名而值为每个变量名对应的值列表。

可选参数 keep_blank_values 是一个旗标,指明是否要将以百分号转码的空值作为空字符串处理。 真值表示空值应当被保留作为空字符串。 默认的假值表示空值会被忽略并将其视作未包括的值。

可选参数 strict_parsing 是一个旗标,指明要如何处理解析错误。 如为假值(默认),错误会被静默地忽略。 如为真值,错误会引发 ValueError 异常。

可选的 encoding 和 errors 形参指定如何将以百分号编码的序列解码为 Unicode 字符,即作为 bytes.decode() 方法所接受的数据。

可选参数 max_num_fields 是要读取的最大字段数量的。 如果设置,则如果读取的字段超过 max_num_fields 会引发 ValueError。

可选参数 separator 是用来分隔查询参数的符号。 默认为 &。

使用 urllib.parse.urlencode() 函数 (并将 doseq 形参设为 True) 将这样的字典转换为查询字符串。

在 3.2 版更改: 增加了 encoding 和 errors 形参。

在 3.8 版更改: 增加了 max_num_fields 形参。

在 3.10 版更改: 增加了 separator 形参,默认值为 &。 Python 在早于 Python 3.10 的版本中允许使用 ; 和 & 作为查询参数分隔符。 此设置已被改为只允许单个分隔符键,并以 & 作为默认的分隔符。

urllib.parse.parse_qsl(qs, keep_blank_values=False, strict_parsing=False, encoding=‘utf-8’, errors=‘replace’, max_num_fields=None, separator=‘&’)
解析以字符串参数形式(类型为 application/x-www-form-urlencoded 的数据)给出的查询字符串。 数据以字段名和字段值对列表的形式返回。

可选参数 keep_blank_values 是一个旗标,指明是否要将以百分号转码的空值作为空字符串处理。 真值表示空值应当被保留作为空字符串。 默认的假值表示空值会被忽略并将其视作未包括的值。

可选参数 strict_parsing 是一个旗标,指明要如何处理解析错误。 如为假值(默认),错误会被静默地忽略。 如为真值,错误会引发 ValueError 异常。

可选的 encoding 和 errors 形参指定如何将以百分号编码的序列解码为 Unicode 字符,即作为 bytes.decode() 方法所接受的数据。

可选参数 max_num_fields 是要读取的最大字段数量的。 如果设置,则如果读取的字段超过 max_num_fields 会引发 ValueError。

可选参数 separator 是用来分隔查询参数的符号。 默认为 &。

使用 urllib.parse.urlencode() 函数将这样的名值对列表转换为查询字符串。

在 3.2 版更改: 增加了 encoding 和 errors 形参。

在 3.8 版更改: 增加了 max_num_fields 形参。

在 3.10 版更改: 增加了 separator 形参,默认值为 &。 Python 在早于 Python 3.10 的版本中允许使用 ; 和 & 作为查询参数分隔符。 此设置已被改为只允许单个分隔符键,并以 & 作为默认的分隔符。

urllib.parse.urlunparse(parts)
根据 urlparse() 所返回的元组来构造一个 URL。 parts 参数可以是任何包含六个条目的可迭代对象。 构造的结果可能是略有不同但保持等价的 URL,如果被解析的 URL 原本包含不必要的分隔符(例如,带有空查询的 ?;RFC 已声明这是等价的)。

urllib.parse.urlsplit(urlstring, scheme=‘’, allow_fragments=True)
此函数类似于 urlparse(),但不会拆分来自 URL 的参数。 此函数通常应当在需要允许将参数应用到 URL 的 path 部分的每个分节的较新的 URL 语法的情况下 (参见 RFC 2396) 被用来代替 urlparse()。 需要使用一个拆分函数来拆分路径分节和参数。 此函数将返回包含 5 个条目的 named tuple:

(addressing scheme, network location, path, query, fragment identifier).
返回值是一个 named tuple,它的条目可以通过索引或作为命名属性来访问:
urllib.parse.quote_plus,python,服务器,git
在 netloc 属性中不匹配的方括号将引发 ValueError。

如果 netloc 属性中的字符在 NFKC 规范化下(如 IDNA 编码格式所使用的)被分解成 /, ?, #, @ 或 : 则将引发 ValueError。 如果在解析之前 URL 就被分解,则不会引发错误。

依据更新 RFC 3986 的 WHATWG spec,ASCII 换行符 \n, \r 和制表符 \t 等字符会从 URL 中被去除。

在 3.6 版更改: 超范围的端口号现在会引发 ValueError,而不是返回 None。

在 3.8 版更改: 在 NFKC 规范化下会影响 netloc 解析的字符现在将引发 ValueError。

在 3.10 版更改: ASCII 换行符和制表符会从 URL 中被去除。

urllib.parse.urlunsplit(parts)
将 urlsplit() 所返回的元组中的元素合并为一个字符串形式的完整 URL。 parts 参数可以是任何包含五个条目的可迭代对象。 其结果可能是略有不同但保持等价的 URL,如果被解析的 URL 原本包含不必要的分隔符(例如,带有空查询的 ?;RFC 已声明这是等价的)。

urllib.parse.urljoin(base, url, allow_fragments=True)
通过合并一个 “基准 URL” (base) 和另一个 URL (url) 来构造一个完整 (“absolute”) URL。 在非正式情况下,这将使用基准 URL 的各部分,特别是地址协议、网络位置和 (一部分) 路径来提供相对 URL 中缺失的部分。 例如:

>>>
from urllib.parse import urljoin
urljoin('http://www.cwi.nl/%7Eguido/Python.html', 'FAQ.html')
'http://www.cwi.nl/%7Eguido/FAQ.html'

allow_fragments 参数具有与 urlparse() 中的对应参数一致的含义与默认值。

备注 如果 url 为绝对 URL (即以 // 或 scheme:// 打头),则 url 的主机名和/或协议将出现在结果中。 例如:

>>>
urljoin('http://www.cwi.nl/%7Eguido/Python.html',
        '//www.python.org/%7Eguido')
'http://www.python.org/%7Eguido'

如果你不想要那样的行为,请使用 urlsplit() 和 urlunsplit() 对 url 进行预处理,移除可能存在的 scheme 和 netloc 部分。

在 3.5 版更改: 更新行为以匹配 RFC 3986 中定义的语义。

urllib.parse.urldefrag(url)
如果 url 包含片段标识符,则返回不带片段标识符的 url 修改版本。 如果 url 中没有片段标识符,则返回未经修改的 url 和一个空字符串。

返回值是一个 named tuple,它的条目可以通过索引或作为命名属性来访问:
urllib.parse.quote_plus,python,服务器,git
在 3.2 版更改: 结果为已构造好的对象而不是一个简单的 2 元组。-tuple.

urllib.parse.unwrap(url)

解析ASCII编码字节

这些 URL 解析函数最初设计只用于操作字符串。 但在实践中,它也能够操作经过正确转码和编码的 ASCII 字节序列形式的 URL。 相应地,此模块中的 URL 解析函数既可以操作 str 对象也可以操作 bytes 和 bytearray 对象。

如果传入 str 数据,结果将只包含 str 数据。 如果传入 bytes 或 bytearray 数据,则结果也将只包含 bytes 数据。

试图在单个函数调用中混用 str 数据和 bytes 或 bytearray 数据将导致引发 TypeError,而试图传入非 ASCII 字节值则将引发 UnicodeDecodeError。

为了支持结果对象在 str 和 bytes 之间方便地转换,所有来自 URL 解析函数的返回值都会提供 encode() 方法 (当结果包含 str 数据) 或 decode() 方法 (当结果包含 bytes 数据)。 这些方法的签名与 str 和 bytes 的对应方法相匹配 (不同之处在于其默认编码格式是 ‘ascii’ 而非 ‘utf-8’)。 每个方法会输出包含相应类型的 bytes 数据 (对于 encode() 方法) 或 str 数据 (对于 decode() 方法) 的值。

对于某些需要在有可能不正确地转码的包含非 ASCII 数据的 URL 上进行操作的应用程序来说,在发起调用 URL 解析方法之前必须自行将字节串解码为字符。

在本节中描述的行为仅适用于 URL 解析函数。 URL 转码函数在产生和消耗字节序列时使用它们自己的规则,详情参见单独 URL 转码函数的文档。

在 3.2 版更改: URL 解析函数现在接受 ASCII 编码的字节序列

结构化解析结果

urlparse(), urlsplit() 和 urldefrag() 函数的结果对象是 tuple 类型的子类。 这些子类中增加了在那些函数的文档中列出的属性,之前小节中描述的编码和解码支持,以及一个附加方法:

urllib.parse.SplitResult.geturl()
以字符串形式返回原始 URL 的重合并版本。 这可能与原始 URL 有所不同,例如协议的名称可能被正规化为小写字母、空的组成部分可能被丢弃。 特别地,空的参数、查询和片段标识符将会被移除。

对于 urldefrag() 的结果,只有空的片段标识符会被移除。 对于 urlsplit() 和 urlparse() 的结果,所有被记录的改变都会被应用到此方法所返回的 URL 上。

如果是通过原始的解析方法传回则此方法的结果会保持不变:

>>>
from urllib.parse import urlsplit
url = 'HTTP://www.Python.org/doc/#'
r1 = urlsplit(url)
r1.geturl()
'http://www.Python.org/doc/'
r2 = urlsplit(r1.geturl())
r2.geturl()
'http://www.Python.org/doc/'

下面的类提供了当在 str 对象上操作时对结构化解析结果的实现:

class urllib.parse.DefragResult(url, fragment)
用于 urldefrag() 结果的实体类,包含有 str 数据。 encode() 方法会返回一个 DefragResultBytes 实例。

3.2 新版功能.

class urllib.parse.ParseResult(scheme, netloc, path, params, query, fragment)
用于 urlparse() 结果的实体类,包含有 str 数据。 encode() 方法会返回一个 ParseResultBytes 实例。

class urllib.parse.SplitResult(scheme, netloc, path, query, fragment)
用于 urlsplit() 结果的实体类,包含有 str 数据。 encode() 方法会返回一个 SplitResultBytes 实例。

下面的类提供了当在 bytes 或 bytearray 对象上操作时对解析结果的实现:

class urllib.parse.DefragResultBytes(url, fragment)
用于 urldefrag() 结果的实体类,包含有 bytes 数据。 decode() 方法会返回一个 DefragResult 实例。

3.2 新版功能.

class urllib.parse.ParseResultBytes(scheme, netloc, path, params, query, fragment)
用于 urlparse() 结果的实体类,包含有 bytes 数据。 decode() 方法会返回一个 ParseResult 实例。

3.2 新版功能.

class urllib.parse.SplitResultBytes(scheme, netloc, path, query, fragment)
用于 urlsplit() 结果的实体类,包含有 bytes 数据。 decode() 方法会返回一个 SplitResult 实例。

3.2 新版功能.

URL 转码

URL 转码函数的功能是接收程序数据并通过对特殊字符进行转码并正确编码非 ASCII 文本来将其转为可以安全地用作 URL 组成部分的形式。 它们还支持逆转此操作以便从作为 URL 组成部分的内容中重建原始数据,如果上述的 URL 解析函数还未覆盖此功能的话。

urllib.parse.quote(string, safe=‘/’, encoding=None, errors=None)
使用 %xx 转义符替换 string 中的特殊字符。 字母、数字和 ‘_.-~’ 等字符一定不会被转码。 在默认情况下,此函数只对 URL 的路径部分进行转码。 可选的 safe 形参额外指定不应被转码的 ASCII 字符 — 其默认值为 ‘/’。

string 可以是 str 或 bytes 对象。

在 3.7 版更改: 从 RFC 2396 迁移到 RFC 3986 以转码 URL 字符串。 “~” 现在已被包括在非保留字符集中。

可选的 encoding 和 errors 形参指明如何处理非 ASCII 字符,与 str.encode() 方法所接受的值一样。 encoding 默认为 ‘utf-8’。 errors 默认为 ‘strict’,表示不受支持的字符将引发 UnicodeEncodeError。 如果 string 为 bytes 则不可提供 encoding 和 errors,否则将引发 TypeError。

请注意 quote(string, safe, encoding, errors) 等价于 quote_from_bytes(string.encode(encoding, errors), safe)。

例如: quote(‘/El Niño/’) 将产生 ‘/El%20Ni%C3%B1o/’。

urllib.parse.quote_plus(string, safe=‘’, encoding=None, errors=None)
类似于 quote(),但还会使用加号来替换空格,如在构建放入 URL 的查询字符串时对于转码 HTML 表单值时所要求的那样。 原始字符串中的加号会被转义,除非它们已包括在 safe 中。 它也不会将 safe 的默认值设为 ‘/’。

例如: quote_plus(‘/El Niño/’) 将产生 ‘%2FEl+Ni%C3%B1o%2F’。

urllib.parse.quote_from_bytes(bytes, safe=‘/’)
类似于 quote(),但是接受 bytes 对象而非 str,并且不执行从字符串到字节串的编码。

例如: quote_from_bytes(b’a&\xef’) 将产生 ‘a%26%EF’。

urllib.parse.unquote(string, encoding=‘utf-8’, errors=‘replace’)
将 %xx 转义符替换为其单字符等价物。 可选的 encoding 和 errors 形参指定如何将以百分号编码的序列解码为 Unicode 字符,即 bytes.decode() 方法所接受的数据。

string 可以是 str 或 bytes 对象。

encoding 默认为 ‘utf-8’。 errors 默认为 ‘replace’,表示无效的序列将被替换为占位字符。

例如: unquote(‘/El%20Ni%C3%B1o/’) 将产生 ‘/El Niño/’。

在 3.9 版更改: string 形参支持 bytes 和 str 对象(之前仅支持 str)。

urllib.parse.unquote_plus(string, encoding=‘utf-8’, errors=‘replace’)
类似于 unquote(),但还会将加号替换为空格,如反转码表单值所要求的。

string 必须为 str。

例如: unquote_plus(‘/El+Ni%C3%B1o/’) 将产生 ‘/El Niño/’。

urllib.parse.unquote_to_bytes(string)
将 %xx 转义符替换为其单八位等价物,并返回一个 bytes 对象。

string 可以是 str 或 bytes 对象。

如果它是 str,则 string 中未转义的非 ASCII 字符会被编码为 UTF-8 字节串。

例如: unquote_to_bytes(‘a%26%EF’) y将产生 b’a&\xef’。

urllib.parse.urlencode(query, doseq=False, safe=‘’, encoding=None, errors=None, quote_via=quote_plus)
将一个包含有 str 或 bytes 对象的映射对象或二元组序列转换为以百分号编码的 ASCII 文本字符串。 如果所产生的字符串要被用作 urlopen() 函数的 POST 操作的 data,则它应当被编码为字节串,否则它将导致 TypeError。

结果字符串是一系列 key=value 对,由 ‘&’ 字符进行分隔,其中 key 和 value 都已使用 quote_via 函数转码。 在默认情况下,会使用 quote_plus() 来转码值,这意味着空格会被转码为 ‘+’ 字符而 ‘/’ 字符会被转码为 %2F,即遵循 GET 请求的标准 (application/x-www-form-urlencoded)。 另一个可以作为 quote_via 传入的替代函数是 quote(),它将把空格转码为 %20 并且不编码 ‘/’ 字符。 为了最大程度地控制要转码的内容,请使用 quote 并指定 safe 的值。

当使用二元组序列作为 query 参数时,每个元组的第一个元素为键而第二个元素为值。 值元素本身也可以为一个序列,在那种情况下,如果可选的形参 doseq 的值为 True,则每个键的值序列元素生成单个 key=value 对(以 ‘&’ 分隔)。 被编码的字符串中的参数顺序将与序列中的形参元素顺序相匹配。

safe, encoding 和 errors 形参会被传递给 quote_via (encoding 和 errors 形参仅在查询元素为 str 时会被传递)。

为了反向执行这个编码过程,此模块提供了 parse_qs() 和 parse_qsl() 来将查询字符串解析为 Python 数据结构。

请参考 urllib 示例 来了解如何使用 urllib.parse.urlencode() 方法来生成 URL 的查询字符串或 POST 请求的数据。

在 3.2 版更改: 查询支持字节和字符串对象。

3.5 新版功能: quote_via 参数.文章来源地址https://www.toymoban.com/news/detail-752309.html

到了这里,关于python:urllib.parse 用于解析 URL的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • JSP 的本质原理解析:"编写的时候是JSP,心里想解读的是 java 源码"

    @ 目录 JSP 的本质原理解析:\\\"编写的时候是JSP,心里想解读的是 java 源码\\\" 每博一文案 1. JSP 概述 2. 第一个 JSP 程序 3. JSP 的本质就是 Servlet 4. JSP 的基础语法 4.1 在 JSP 文件中直接编写文字 4.2 在JSP中编写Java程序 % % 与 %! % 4.2.1 % % 4.2.2 %! % 4.3 通过JSP当中的 %= %向浏览器前端输入

    2024年02月01日
    浏览(137)
  • urllib+BeautifulSoup爬取并解析2345天气王历史天气数据

    urllib+BeautifulSoup爬取并解析2345天气王历史天气数据 网址:东城历史天气查询_历史天气预报查询_2345天气预报 url构成如下: 基础url:https://tianqi.2345.com/Pc/GetHistory 参数: areaInfo[areaId] 表示的是 某地区的天气编码,这个需要去自己获取。 areaInfo[areaType] 不用管 后面两个参数就是

    2024年02月11日
    浏览(49)
  • 金字塔场景解析网络(Pyramid Scene Parsing Network )

    基于语义分割的 场景解析 是计算机视觉中的基本主题。 目标是为图像中的每个像素分配一个类别标签 。场景解析提供了对场景的完整理解。它预测每个元素的标签、位置和形状。 场景解析的难度与场景和标签的多样性密切相关 。 最先进的场景解析框架主要基于全卷积网络

    2024年02月08日
    浏览(43)
  • python的网络请求库urllib、urllib2、urllib3、request的联系

    1. 简介 urllib、urllib2、urllib3、request均能通过网络访问互联网上的资源文件,它们通过使用统一资源定位符(URL)并结合re模块完成很多意想不到的操作。 urllib:Python2和Python3内置的网络请求库,Python3的urllib实际是Python2版本中urllib和urllib2的合并 urllib2:它只存在于Python2版本的

    2023年04月14日
    浏览(50)
  • Python爬虫——Urllib

    爬虫小白 爬虫语法 爬虫技术 1、什么是互联网爬虫 通过一个程序,根据url进行爬取网页,获取游泳信息 通过程序模拟浏览器,去向服务器发起请求,获取响应信息 2、爬虫核心 爬取网页:爬取整个网页,包含了网页中所有内容 解析数据:将网页中得到的数据进行解析 难点

    2024年02月13日
    浏览(50)
  • Python urllib模块学习

    HTTP 协议:一般指HTTP(超文本传输)协议。 HTTP是为Web浏览器和Web服务器之间的通信而设计的,基于TCP/IP通信协议嘞传递数据。 客户端请求消息 客户端发送一个HTTP请求到服务器的请求消息包括以下格式 请求行(request line) 请求头(header) 空行 请求数据 服务器相应消息 HTTP相应也由

    2024年02月22日
    浏览(33)
  • [Python]爬虫基础——urllib库

    urllib库是Python内置的标准库。包含以下四个模块: 1、request:模拟发送HTTP请求; 2、error:处理HTTP请求错误时的异常; 3、parse:解析、拆分、合并URL; 4、robotparser:解析网站的robots.txt文件 案例: 爬取知乎网站的数据 首先要构造HTTP请求,然后将HTTP响应的各部分进行输出 第一步

    2024年02月03日
    浏览(90)
  • 【微信小程序】使用 JSON.parse 方法将返回的 JSON 字符串解析为对象

    在微信小程序中,你可以使用 JSON.parse 方法将返回的 JSON 字符串解析为对象。以下是实现类似功能的示例代码: 在上述代码中,我们使用 JSON.parse 方法将返回的 JSON 字符串解析为对象。然后,我们可以通过点语法或方括号语法访问解析后的对象的属性,例如 data.result 。 请注

    2024年02月15日
    浏览(52)
  • python urllib库使用方法

      urllib库是 Python的一个第三方库,它提供了丰富的功能和强大的性能。Python版本为2.11,提供了在不同平台上运行的选项,其中包括用于桌面和移动设备的应用程序。与 pycharm和 libc等库不同, urllib不是为了构建桌面应用程序而设计的,但是它可以用于移动设备上的应用程序。

    2023年04月09日
    浏览(49)
  • Python网络爬虫库urllib详解

    了解Python标准库中的urllib模块,掌握URL解析、发送HTTP请求、文件下载等操作。

    2024年02月08日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包