python爬虫-获取某某在线翻译的查询结果,爬取json文件并解析

这篇具有很好参考价值的文章主要介绍了python爬虫-获取某某在线翻译的查询结果,爬取json文件并解析。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

从基础步骤下手

# 指定url
# 发出请求,get或post
# 获取响应
# 把目标文件转存为字符串形式
# 持久性保存

正确获取response数据

import requests

header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36 Edg/113.0.1774.50'}
userInput = input("请输入检索内容:")
# 指定url
url='https://fanyi.**.com/sug'
# 发出请求,get或post
data={'kw':userInput}
# 获取响应
response = requests.post(url=url,data=data,headers=header)
print(response.text)

关于url获取方式

python爬虫-获取某某在线翻译的查询结果,爬取json文件并解析

url,请求方式,请求格式,都在此请求的header中
(此内容浏览器不同显示内容应该也是一样的,我用的edge浏览器,我也试过chrom浏览器,效果一样)

python爬虫-获取某某在线翻译的查询结果,爬取json文件并解析

关于post方法的参数

ctrl + b进入方法体内即可
python爬虫-获取某某在线翻译的查询结果,爬取json文件并解析

关于payload参数填入

python爬虫-获取某某在线翻译的查询结果,爬取json文件并解析

运行效果

解读response.text,这是一个包含Unicode字符的JSON字符串编码

也许我们需要翻译一下

python爬虫-获取某某在线翻译的查询结果,爬取json文件并解析

解析json数据到文件中

将API接口返回的JSON数据解析为Python字典对象,并将其以JSON格式写入文件中

dic_obj = response.json()
fp=open(userInput + '.json','w',encoding='utf-8')
json.dump(dic_obj,fp=fp,ensure_ascii=False)

完整代码

import json
import requests

header = {'User-Agent':'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/113.0.0.0 Safari/537.36 Edg/113.0.1774.50'}
userInput = input("请输入检索内容:")
# 指定url
url='https://fanyi.baidu.com/sug'
# 发出请求,get或post
data={'kw':userInput}
# 获取响应
response = requests.post(url=url,data=data,headers=header)

dic_obj = response.json()
fp=open(userInput + '.json','w',encoding='utf-8')
json.dump(dic_obj,fp=fp,ensure_ascii=False)

运行结果

python爬虫-获取某某在线翻译的查询结果,爬取json文件并解析文章来源地址https://www.toymoban.com/news/detail-457587.html

到了这里,关于python爬虫-获取某某在线翻译的查询结果,爬取json文件并解析的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 爬虫逆向实战(二十六)--某某学堂登录

    主页地址:某某学堂 1、抓包 通过抓包可以发现数据接口是Account/LoginPost 2、判断是否有加密参数 请求参数是否加密? 通过查看“载荷”模块可以发现 pass 是加密参数 请求头是否加密? 无 响应是否加密? 无 cookie是否加密? 无 1、看启动器 查看启动器发现里面有一个 Login

    2024年02月11日
    浏览(40)
  • Python爬虫实战(高级篇)—3百度翻译网页版爬虫(附完整代码)

    库 安装 js2py pip install js2py requests pip install requests 这里我们发现所需的参数: 1、sign(这是最重要的!!) 2、token 3、ts,时间戳 原帖查看

    2024年02月08日
    浏览(42)
  • Python爬虫实战入门:爬取360模拟翻译(仅实验)

    需求 目标网站: https://fanyi.so.com/# 要求:爬取360翻译数据包,实现翻译功能 所需第三方库 requests 简介 requests 模块是 python 基于 urllib,采用 Apache2 Licensed 开源协议的 HTTP 库。它比 urllib 更加方便,可以节约我们大量的工作,完全满足 HTTP 测试需求。 安装 pip install -i https://py

    2024年02月22日
    浏览(42)
  • 【python爬虫】批量识别pdf中的英文,自动翻译成中文上

    不管是上学还是上班,有时不可避免需要看英文文章,特别是在写毕业论文的时候。比较头疼的是把专业性很强的英文pdf文章翻译成中文。我记得我上学的时候,是一段一段复制,或者碰到不认识的单词就百度翻译一下,非常耗费时间。本文提供批量识别pdf中英文的方法,后

    2024年02月10日
    浏览(35)
  • 【python爬虫】批量识别pdf中的英文,自动翻译成中文下

    不管是上学还是上班,有时不可避免需要看英文文章,特别是在写毕业论文的时候。比较头疼的是把专业性很强的英文pdf文章翻译成中文。我记得我上学的时候,是一段一段复制,或者碰到不认识的单词就百度翻译一下,非常耗费时间。之前的文章提供了批量识别pdf中英文的

    2024年02月10日
    浏览(40)
  • python爬虫爬取中关村在线电脑以及参数数据

    python爬虫爬取中关村在线电脑以及参数数据 2.1vsCode 2.2Anaconda version: conda 22.9.0 3.1 代码 解析都在代码里面 3.2 结果展示 这是保存到数据,用json保存的

    2024年02月12日
    浏览(28)
  • 【Python网络爬虫】企查查高级搜索及批量查询接口爬虫

    写在前面: 本文所介绍的企查查爬虫代码需要用到cookie,且cookie所对应的账号需要为vip或以上等级具有高级搜索和批量查询的功能,无此功能的账号暂不支持; 本文所介绍的是在其他人分析了前端headers哈希加密后的基础上的进一步补充和完善,并会提供完整的请求代码;

    2024年02月03日
    浏览(42)
  • 【Python爬虫】网络爬虫:信息获取与合规应用

    网络爬虫,又称网络爬虫、网络蜘蛛、网络机器人等,是一种按照一定的规则自动地获取万维网信息的程序或者脚本。它可以根据一定的策略自动地浏览万维网,并将浏览到的有用信息进行提取、解析和存储。网络爬虫在互联网发展早期就已经出现,并随着互联网的不断发展

    2024年04月14日
    浏览(34)
  • Python爬虫 | 利用python爬虫获取想要搜索的数据(某du)

    这篇文章主要介绍了利用Python爬虫采集想要搜索的信息(利用某du的接口实现)并且处理掉它的反爬手段,文中示例代码很详细,具有一定的学习价值,感兴趣的小伙伴快来一起学习吧。 大家在日常生活中经常需要查找不同的事物的相关信息,今天我们利用python来实现这一个

    2024年02月01日
    浏览(37)
  • Python爬虫:动态获取页面

    动态网站根据用户的某些操作产生一些结果。例如,当网页仅在向下滚动或将鼠标移动到屏幕上时才完全加载时,这背后一定有一些动态编程。当您将鼠标指针悬停在某些文本上时,它会为您提供一些选项,它还包含一些动态.这是是一篇关于动态网页的非常好的详细文章。

    2024年02月07日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包