9.网络爬虫—MySQL基础

这篇具有很好参考价值的文章主要介绍了9.网络爬虫—MySQL基础。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言
🏘️🏘️个人简介:以山河作礼。
🎖️🎖️:Python领域新星创作者,CSDN实力新星认证
📝​📝第一篇文章《1.认识网络爬虫》获得全站热榜第一,python领域热榜第一
🧾 🧾第四篇文章《4.网络爬虫—Post请求(实战演示)》全站热榜第八
🧾 🧾第八篇文章《8.网络爬虫—正则表达式RE实战》全站热榜第十二
🎁🎁《Python网络爬虫》专栏累计发表八篇文章,上榜三篇。欢迎免费订阅!欢迎大家一起学习,一起成长!!
💕💕悲索之人烈焰加身,堕落者不可饶恕。永恒燃烧的羽翼,带我脱离凡间的沉沦。

9.网络爬虫—MySQL基础

MySQL安装教程

安装教程本章节就不在演示,有需要可以点这里:
mysql安装教程【安装版】

MySQL登录

按住win+R 然后输出cmd,接着按回车
9.网络爬虫—MySQL基础9.网络爬虫—MySQL基础

在这里我们需要输入我们安装数据库时的数据库名称和密码:
格式:mysql -h 主机名 -u 用户名 -p 密码
9.网络爬虫—MySQL基础
出现这些代码,就说明数据库安装成功了,可以正常使用了。

Mysql数据库操作

显示数据库

show databases;
9.网络爬虫—MySQL基础

创建数据库

CREATE DATABASE <数据库名>;
创建一个名为demo的数据库:
9.网络爬虫—MySQL基础
9.网络爬虫—MySQL基础

删除数据库

drop database <数据库名>;
9.网络爬虫—MySQL基础

查询数据库

show databases;

9.网络爬虫—MySQL基础

使用数据库

use <数据库名>;
9.网络爬虫—MySQL基础

Mysql数据类型

数值类型 int :4个字节integer:与int同义词float :4个字节double:8个字节
字符串类型 char:固定长度字符串varchar: 可变长度字符串
日期/时间类型 Date:YYYY-MM-DDDatetime:YYYY-MM-DD HH:MM:SSTime:HH:MM:SS

Mysql数据表创建

功能 命令
创建表 create table movie_table(title varchar(255) NOT NULL,p1 float(22),date datetime,PRIMARY KEY (title))DEFAULT CHARSET=utf8;
删除表 DROP TABLE table_name ;

create table movie_table(title varchar(255) NOT NULL,p1 float(22),date datetime,PRIMARY KEY (title))DEFAULT CHARSET=utf8;
9.网络爬虫—MySQL基础

DROP TABLE movie_table ;
9.网络爬虫—MySQL基础

                               |

Mysql增删查改

sql语句 用法
INSERT INTO table_name ( field1, field2,…fieldN )VALUES ( value1, value2,…valueN ); INSERT INTO SQL语法
SELECT column_name,column_nameFROM table_name[WHERE Clause][LIMIT N] 查询语句中你可以使用一个或者多个表,表之间使用逗号(,)分割,并使用WHERE语句来设定查询条件。SELECT 命令可以读取一条或者多条记录。你可以使用星号(*)来代替其他字段,SELECT语句会返回表的所有字段数据你可以使用 WHERE 语句来包含任何条件。你可以使用 LIMIT 属性来设定返回的记录数。
UPDATE table_name SET field1=new-value1, field2=new-value2[WHERE Clause] 你可以同时更新一个或多个字段。你可以在 WHERE 子句中指定任何条件。你可以在一个单独表中同时更新数据。当你需要更新数据表中指定行的数据时 WHERE 子句是非常有用的
DELETE FROM table_name [WHERE Clause] 如果没有指定 WHERE 子句,MySQL 表中的所有记录将被删除。你可以在 WHERE 子句中指定任何条件您可以在单个表中一次性删除记录。当你想删除数据表中指定的记录时 WHERE 子句是非常有用的

9.网络爬虫—MySQL基础

PyMysql

安装Python的MySQL库

pip install pymysql
安装Python的MySQL库

9.网络爬虫—MySQL基础

连接数据库

连接数据库成功
9.网络爬虫—MySQL基础

增添字段

接着我们为表增添字段:
先使用表: use spider001

接着为表增添字段:

create table lianjia_table(
    name varchar(255) NOT NULL,
     score varchar(255)  NOT NULL,
     number varchar(255)  NOT NULL,
    introdu varchar(255)  NOT NULL,
    primary key(name)
    )DEFAULT CHARSET=utf8;

创建表的SQL语句,表名为lianjia_table,包含四个字段:name、score、number、introdu。其中,name、score、number、introdu的数据类型均为varchar(255),且均不能为空(NOT
NULL)。表的主键为name。最后,表的字符集为utf8。

9.网络爬虫—MySQL基础

操作游标

cursor = db.cursor() # 操作游标

9.网络爬虫—MySQL基础

创建了一个操作游标对象cursor,用于执行数据库操作。游标是用于遍历和操作结果集的数据库对象。通过游标,可以执行查询、插入、更新、删除等操作,并获取执行结果。执行数据库操作时,需要使用游标对象来执行SQL语句,并获取执行结果。

PyMysql插入

data1,data2,data3 =2,'孜然','None'
# SQL 插入语句
sql = """INSERT INTO url_data(
         url_id,
         url_title, 
         url_author)
         VALUES (%s,%s,%s)"""

try:
    # 执行sql语句
    cursor.execute(sql,(data1,data2,data3))
    # 提交到数据库执行
    db.commit()
    print('成功')
except Exception as e:
    # 如果发生错误则回滚
    db.rollback()
    print(f'失败{e}')

  • 第一行代码定义了三个变量 data1、data2 和 data3,分别赋值为 2、‘孜然’ 和 ‘None’。
  • 第三行代码定义了一个 SQL 插入语句,该语句向名为 url_data 的表中插入一条数据,包括三个字段:url_id、url_title和 url_author。
  • 第六行代码通过 cursor.execute() 方法执行 SQL 插入语句,并将 data1、data2 和 data3作为参数传入。这里使用了占位符 %s,这是 MySQLdb模块的写法,表示后面会传入一个元组,元组中的每个值将替换一个占位符。注意,元组中的数据类型必须与 SQL 语句中要插入的数据类型一致。
  • 第八行代码通过 db.commit() 方法提交事务,将数据插入数据库中。如果这一步出现问题,可以通过 db.rollback()方法回滚事务,撤销之前的所有操作。
  • 最后一行代码输出执行结果,如果成功则打印“成功”,如果失败则打印“失败”以及具体的错误信息。

9.网络爬虫—MySQL基础

PyMysql查询

# SQL 查询语句
sql = "SELECT * FROM url_data WHERE url_id = 1"
try:
    # 执行SQL语句
    cursor.execute(sql)
    # 获取所有记录列表
    results = cursor.fetchall()
    print(results)
except:
    print("Error: unable to fetch data")
  • 第一行代码定义了一个 SQL 查询语句,该语句从名为 url_data 的表中查询所有 url_id 等于 1 的记录。
  • 第三行代码通过 cursor.execute() 方法执行 SQL 查询语句,没有传入参数,因为该语句不需要占位符。
  • 第五行代码通过 cursor.fetchall() 方法获取所有查询结果,并将其保存在 results 变量中。注意,该方法只能在查询结果集不为空的情况下使用,否则会抛出异常。
  • 最后一行代码输出查询结果。如果查询成功,则会打印所有符合条件的记录,每条记录都是一个元组,元组中的每个值对应一列数据。

PyMysql更新

# 更新
"UPDATE url_data SET url_title = '香蕉' WHERE url_id = 1;"

  • 第一行代码定义了一个 SQL 更新语句,该语句将名为 url_data 的表中 url_id 等于 1 的记录的 url_title 字段更新为 ‘香蕉’。
  • 第二行代码执行 SQL 更新语句,没有使用任何参数,因为该语句不需要占位符。

PyMysql删除

# 删除
"DELETE FROM url_data WHERE url_title = '香蕉'"

- 第一行代码定义了一个 SQL 删除语句,该语句将名为 url_data 的表中 url_title 等于 '香蕉' 的记录删除。
- 第二行代码执行 SQL 删除语句,没有使用任何参数,因为该语句不需要占位符。

写在最后:
🧾 🧾实战演示部分可能存在违规,就不在这里展示。本章节的数据库使用写的也不是很详细,仅作学习笔记使用,如有错误,欢迎指正文章来源地址https://www.toymoban.com/news/detail-416951.html

到了这里,关于9.网络爬虫—MySQL基础的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【头歌】——数据分析与实践-python-网络爬虫-Scrapy爬虫基础-网页数据解析-requests 爬虫-JSON基础

    第1关 爬取网页的表格信息 第2关 爬取表格中指定单元格的信息 第3关 将单元格的信息保存到列表并排序 第4关 爬取div标签的信息 第5关 爬取单页多个div标签的信息 第6关 爬取多个网页的多个div标签的信息 第1关 Scarpy安装与项目创建 第2关 Scrapy核心原理 第1关 XPath解析网页 第

    2024年01月22日
    浏览(41)
  • Python网络爬虫基础进阶到实战教程

    网络爬虫是指一种程序自动获取网页信息的方式,它能够自动化地获取互联网上的数据。通过使用网络爬虫,我们可以方便地获取到网络上的各种数据,例如网页链接、文本、图片、音频、视频等等。 网页是由HTML标签和内容组成,HTML标签通过标签属性可以定位到需要的内容

    2024年02月10日
    浏览(35)
  • Python网络通信-python爬虫基础

    1.1、安装requests模块 打开pycharm 安装成功会提示successfully 1.2、发送GET请求 简单请求(以京东举例) 运行结果 添加请求头(以百度举例) 为什么要添加请求头呢,因为有些网页在你请求的时候会检查你是否有请求头,如果没有请求头,就不会返回正常的内容,下面我来验证

    2024年01月24日
    浏览(33)
  • 网络爬虫丨基于scrapy+mysql爬取博客信息

    本期内容 :基于scrapy+mysql爬取博客信息并保存到数据库中 实验需求 anaconda丨pycharm python3.11.4 scrapy mysql 项目下载地址:https://download.csdn.net/download/m0_68111267/88740730 本次实验实现了:使用Scrapy框架爬取博客专栏的目录信息并保存到MySQL数据库中,实验主要涉及到Python的爬虫技术以

    2024年03月18日
    浏览(42)
  • 〖Python网络爬虫实战②〗- Web网页基础

    订阅:新手可以订阅我的其他专栏。免费阶段订阅量1000+                 python项目实战                  Python编程基础教程系列(零基础小白搬砖逆袭) 说明:本专栏持续更新中,目前专栏免费订阅,在转为付费专栏前订阅本专栏的,可以免费订阅付费专栏,

    2023年04月26日
    浏览(27)
  • Python网络基础爬虫-python基本语法

    熟悉C/C++语言的人们可能很希望Python提供switch语句,但Python中并没有这个,也没有这个语句结构。但是可以通过if-elif-elif-…这样的结构代替,或者使用字典实现。比如: 这段代码实现的功能是,输入一个运算符,再输入两个数字,返回其计算的结果。比如输入“+12”,

    2024年03月21日
    浏览(34)
  • Python 网络爬虫(二):HTTP 基础知识

    《Python入门核心技术》专栏总目录・点这里

    2024年02月04日
    浏览(48)
  • 基于Django爬虫项目网络表情包爬虫展示系统设计与实现(Pycharm+Python+Mysql)

     博主介绍 :黄菊华老师《Vue.js入门与商城开发实战》《微信小程序商城开发》图书作者,CSDN博客专家,在线教育专家,CSDN钻石讲师;专注大学生毕业设计教育和辅导。 所有项目都配有从入门到精通的基础知识视频课程,学习后应对毕业设计答辩。 项目配有对应开发文档、

    2024年03月15日
    浏览(35)
  • 【100天精通python】Day41:python网络爬虫开发_爬虫基础入门

    目录  专栏导读  1网络爬虫概述 1.1 工作原理 1.2 应用场景 1.3 爬虫策略

    2024年02月12日
    浏览(34)
  • Python基础入门之网络爬虫利器:lxml详解

    导语:网络爬虫是数据采集和信息提取的重要工具之一。在Python中,lxml库是一款功能强大且高效的网络爬虫工具,具有解析HTML和XML文档、XPath定位、数据提取等功能。本文将详细介绍lxml库的使用方法,并提供相应的代码示例。 lxml库 lxml是一个HTML/XML的解析器,主要的功能是

    2024年02月07日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包