Python从入门到网络爬虫、自动化

这篇具有很好参考价值的文章主要介绍了Python从入门到网络爬虫、自动化。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

可以创建C++、C#、Python、Golang、Java、React、Node、Vue、PHP项目

Python从入门到网络爬虫、自动化,自动化,运维

创建Java项目

Python从入门到网络爬虫、自动化,自动化,运维

创建Python项目

Python从入门到网络爬虫、自动化,自动化,运维

 简单if……else……语句

# 简单的if……else……语句
state = True
if state:
    print("状态正常")
else:
    print("状态异常")

# 复杂的if……elif……语句
score = 88
def __getlevel__(score):
    level = ""
    if score >= 85 and score <=100:
        level = "A"
    elif score >=70 and score < 85:
        level = "B"
    elif score >=60 and score < 70:
        level = "C"
    elif score < 60:
        level = "D"
    return level
level = __getlevel__(score)
print("my level is :"+level)

# 嵌套if语句

Python从入门到精通

'''
  条件语句
'''
# 普通if……else……语句
# 定义变量 存放状态
state = True


# 定义函数 计算状态
def getState(state):
  if state:
    print("状态启用")
  else:
    print("状态关闭")


# 调用函数 打印状态
getState(state)

# if……elif……语句
# 定义变量 存放得分
scored = 78


# 定义函数 计算等级
def getLevel(scored):
  # if else条件语句
  if scored >= 85 and scored <= 100:
    print("A")
  elif scored >= 70 and scored <= 84:
    print("B")
  elif scored >= 60 and scored <= 69:
    print("C")
  else:
    print("D")


# 调用函数 打印等级
getLevel(scored)

# if……else语句嵌套

# while循环语句
j = 1
# 简单while循环语句
while j < 10:
  print(j)
  j += 1

# while语句中使用 break、continue跳出循环
# while循环中使用break语句用于跳出整个循环
x = 0
while x < 10:
  x += 1
  if x % 2 == 0:
    break
  print("x:" + str(x))
# 输出 x:1

# while循环中continue语句用于跳出本次循环
while x < 10:
  x += 1
  if x % 2 == 0:
    continue
  print("x:" + str(x))
# 输出 x:1 x:3 x:5 x:7 x:9

# while……else……语句

# for循环语句
for i in range(1, 10):
  print("for:" + str(i))
# 循环字符串
for i in "python":
  print(i)
# 循环元组

# for……else……语句
for i in range(1,10):
  print(i)


# pass语句就是
if state:
  print("True")
else:
  pass
  print("False")

 文章来源地址https://www.toymoban.com/news/detail-769965.html

 

到了这里,关于Python从入门到网络爬虫、自动化的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Python爬虫框架之Selenium库入门:用Python实现网页自动化测试详解

    是否还在为网页测试而烦恼?是否还在为重复的点击、等待而劳累?试试强大的 Selenium !让你的网页自动化测试变得轻松有趣! Selenium 是一个强大的自动化测试工具,它可以让你直接操控浏览器,完成各种与网页交互的任务。通过使用 Python 的 Selenium 库,你可以高效地实现

    2024年02月10日
    浏览(62)
  • 自动化运维工具Ansible教程(一)【入门篇】

    ansible 学习大纲 Ansible 是一个开源的自动化工具,用于配置管理、应用部署和任务执行。它以简单、可读性强的 YAML 格式的 Playbooks 为基础,使得自动化任务变得简单、可维护和可扩展。 简单易用 :Ansible 的设计目标之一是简单易用。它使用 YAML 语法定义任务和配置,无需编

    2024年02月09日
    浏览(45)
  • python自动化运维管理拓扑

    目录 1、简介 2、实验环境 3、拓扑图 4、需求及其代码 4.1、测试连通性 4.2、远程登陆 4.3、配置loopback 4.4、监控内存使用率 4.5、自动化巡检内存使用率 4.6、自动化配置snmp服务 4.7、提取分析字符串 🍃作者介绍:双非本科大三网络工程专业在读,阿里云专家博主,专注于Java领

    2024年01月23日
    浏览(44)
  • 网络请求爬虫【requests】和自动化爬虫【selenium】

    在Python开发的爬虫项目中, requests 和 selenium 是两个常用的库,它们各有特点和应用场景。 相同点 数据抓取: 无论是 selenium 还是 requests ,两者的基本目的都是为了从网络上抓取数据。 自动化: 它们都能够自动化地访问网页,获取需要的信息。 不同点 工作原理: requests 直

    2024年02月20日
    浏览(45)
  • 【课程介绍】XPath 之旅:自动化爬虫入门探索

    [ 专栏推荐 ] 😃 《 XPath 之旅:自动化爬虫入门探索》 😄 ❤️【简介】: XPath 基础教程适合初学者,旨在帮助学习者掌握 XPath 元素定位的基本原理和常用技巧。学习完这套课程,你将能够熟练使用 XPath 在 HTML 或 XML 文档中定位元素,为后续的 Web 自动化测试、数据提取等工

    2024年02月17日
    浏览(49)
  • 智能python自动化运维常用模块

    通过第三方模块获取服务器的基本性能、块设备、网卡接口、网络地址库等信息。 1.1 系统性能模块psutil:获取系统性能信息、内存信息、磁盘信息、网络信息、用户信息等。 1.2 IP地址处理模块IPy: 处理IP地址,网段等。 1.3 DNS处理模块dnspython: 实现dns服务监控以及解析结果的校

    2024年02月08日
    浏览(48)
  • python自动化爬虫实战

    偶然的一次机会再次用到爬虫,借此机会记录一下爬虫的学习经历,方便后续复用。 需求:爬取网站数据并存入的csv文件中,总体分为两步 爬取网站数据 存到到csv文件中 1、配置爬虫环境 1.1、下载自动化测试驱动 由于需要实现模拟手动点击浏览器的效果,因此笔者使用到了

    2024年02月03日
    浏览(42)
  • python自动化运维——模拟键盘鼠标重复性操作Pyautoui

    将程序与cmd.xls文件放在同一文件夹,每一步的截图也放在当前文件夹 通过图片在屏幕上面进行比对,找到点击处进行自动化操作 自动化rpa测试 1. Pyautoui 模块:主要针对图片进行定位 pyautogui.locateCenterOnScreen() ,在屏幕上面找到该图片位置后进行 pyautogui.click 单击,双击,右键

    2024年02月06日
    浏览(46)
  • python爬虫(七)--------selenium自动化

    查找方法(python3.7之前版本) find_element_by_id 根据id属性来定位 find_element_by_name 根据name元素来定位 find_element_by_xpath 根据xpath语法来定位 find_element_by_tag_name 根据标签名来定位 find_element_by_class_name 根据class的名字来定位 find_element_by_css_selector 根据css选择器来定位 以下两种方法都

    2024年01月16日
    浏览(65)
  • Python爬虫之自动化测试Selenium#7

    在前一章中,我们了解了 Ajax 的分析和抓取方式,这其实也是 JavaScript 动态渲染的页面的一种情形,通过直接分析 Ajax,我们仍然可以借助 requests 或 urllib 来实现数据爬取。 不过 JavaScript 动态渲染的页面不止 Ajax 这一种。比如中国青年网(详见 国内_新闻频道_中国青年网),

    2024年02月20日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包