分布式学习第二天 redis学习

这篇具有很好参考价值的文章主要介绍了分布式学习第二天 redis学习。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

1. 数据库类型

1.1 基本概念

1.2 关系/非关系型数据库搭配使用

2. Redis  

2.1 基本知识点

2.2 redis常用命令

2.4 redis数据持久化

3 hiredis的使用

4. 复习


1. 数据库类型

1.1 基本概念

  1. 关系型数据库 - sql

    • 操作数据必须要使用sql语句

    • 数据存储在磁盘

    • 存储的数据量大

    • 举例:

      • mysql

      • oracle

      • sqlite - 文件数据库

      • sql server

  2. 非关系数据库 - nosql

    • 操作不使用sql语句

      • 命令

    • 数据默认存储在内存

      • 速度快, 效率高

      • 存储的数据量小

    • 不需要数据库表

      • 以键值对的方式存储的

1.2 关系/非关系型数据库搭配使用

分布式学习第二天 redis学习

 

==RDBMS: Relational Database Management System== 关系型数据库

  1. 所有的数据默认存储在关系型数据库中

  2. 客户端访问服务器, 有一些数据, 服务器需要频繁的查询数据

    • 服务器首先将数据从关系型数据库中读出 -> 第一次

      • 将数据写入到redis中

    • 客户端第二次包含以后访问服务器

      • 服务器从redis中直接读数据

2. Redis  

  • 知道redis是什么?

    • 非关系型数据库 也可以叫 内存数据库

  • 能干什么?

    • 存储访问频率高的数据

    • 共享内存

      • 服务器端 -> redis

  • 怎么使用?

    • 常用的操作命令

      • 各种数据类型 -> 会查

    • redis的配置文件

    • redis的数据持久化

    • 写程序的时候如何对redis进行操作

      • 客户端 -> 服务器

2.1 基本知识点

  1. 安装包下载

    • 英文官方: Redis

    • 中文官方: CRUG网站

  2. Redis安装

    • make

    • make install

  3. redis中的两个角色

# 服务器 - 启动
redis-server	# 默认启动
redis-server confFileName # 根据配置文件的设置启动 远程
# 客户端
redis-cli	# 默认连接本地, 绑定了6379默认端口的服务器
redis-cli -p 端口号
redis-cli -h IP地址 -p 端口 # 连接远程主机的指定端口的redis
# 通过客户端关闭服务器
shutdown
# 客户端的测试命令
ping [MSG]

redis中数据的组织格式

  • 键值对

    • key: 必须是字符串 - "hello"

    • value: 可选的

      • String类型

      • List类型

      • Set类型

      • SortedSet类型

      • Hash类型

redis中常用数据类型

  • String类型

    • 字符串

  • List类型

    • 存储多个string字符串的

  • Set类型

    • 集合

      • stl集合

        • 默认是排序的, 元素不重复

      • redis集合

        • 元素不重复, 数据是无序的

  • SortedSet类型

    • 排序集合, 集合中的每个元素分为两部分

      • [分数, 成员] -> [66, ''tom'']

  • Hash类型

    • 跟map数据组织方式一样: key:value

      • Qt -> QHash, QMap

      • Map -> 红黑树

      • hash -> 数组

        • a[index] = xx 

2.2 redis常用命令

String类型

key -> string
value -> string
# 设置一个键值对->string:string
SET key value
# 通过key得到value
GET key
# 同时设置一个或多个 key-value 对
MSET key value [key value ...]
# 同时查看过个key
MGET key [key ...]
# 如果 key 已经存在并且是一个字符串, APPEND 命令将 value 追加到 key 原来的值的末尾
# key: hello, value: world, append: 12345 world12345
APPEND key value
# 返回 key 所储存的字符串值的长度
STRLEN key
# 将 key 中储存的数字值减一。
# 前提, value必须是数字字符串 -"12345"
DECR key

List类型 - 存储多个字符串

key -> string
value -> list
# 将一个或多个值 value 插入到列表 key 的表头
LPUSH key value [value ...]
# 将一个或多个值 value 插入到列表 key 的表尾 (最右边)。
RPUSH key value [value ...]
# list中删除元素
LPOP key # 删除最左侧元素
RPOP key # 删除最右侧元素
# 遍历
LRANGE key start stop
	start: 起始位置, 0
	stop: 结束位置, -1
# 通过下标得到对应位置的字符串
LINDEX key index
# list中字符串的个数
LLEN key

Set类型

key -> string
value -> set类型 ("string", "string1")
# 添加元素
# 将一个或多个 member 元素加入到集合 key 当中,已经存在于集合的 member 元素将被忽略
SADD key member [member ...]
# 遍历
SMEMBERS key
# 差集
SDIFF key [key ...]
# 交集
SINTER key [key ...]
# 并集
SUNION key [key ...]

SortedSet 类型

key -> string
value -> sorted ([socre, member], [socre, member], ...)
# 添加元素
ZADD key score member [[score member] [score member] ...]
# 遍历
ZRANGE key start stop [WITHSCORES] # -> 升序集合
ZREVRANGE key start stop [WITHSCORES] # -> 降序集合
# 指定分数区间内元素的个数
ZCOUNT key min max

Hash类型

分布式学习第二天 redis学习

 

key ->string
value -> hash ([key:value], [key:value], [key:value], ...)
# 添加数据
HSET key field value
# 取数据
HGET key field
# 批量插入键值对
HMSET key field value [field value ...]
# 批量取数据
HMGET key field [field ...]
# 删除键值对
HDEL key field [field ...]

Key 相关的命令

# 删除键值对
DEL key [key ...]
# 查看key值
KEYS pattern
查找所有符合给定模式 pattern 的 key 。
KEYS * 匹配数据库中所有 key 。
KEYS h?llo 匹配 hello , hallo 和 hxllo 等。
KEYS h*llo 匹配 hllo 和 heeeeello 等。
KEYS h[ae]llo 匹配 hello 和 hallo ,但不匹配 hillo
# 给key设置生存时长
EXPIRE key seconds
# 取消生存时长
PERSIST key
# key对应的valued类型
TYPE key

配置文件是给redis服务器使用 的

  1. 配置文件位置

    • 从源码安装目录中找 -> redis.conf

  2. 配置文件配置项

# redis服务器绑定谁之后, 谁就能访问redis服务器
# 任何客户端都能访问服务器, 需要注释该选项
bind 127.0.0.1 192.168.1.100 
# 保护模式, 如果要远程客户端访问服务器, 该模式要关闭
protected-mode yes
# reids服务器启动时候绑定的端口, 默认为6379
port 6379
# 超时时长, 0位关闭该选项, >0则开启
timeout 0
# 服务器启动之后不是守护进程 一般会使用yes 让其为守护进程
daemonize yes
# 如果服务器是守护进程, 就会生成一个pid文件
# ./ -> reids服务器启动时候对应的目录
pidfile ./redis.pid
# 日志级别
 loglevel notice
# 如果服务器是守护进程, 才会写日志文件
 logfile "" -> 这是没写
 logfile "./redis.log" //打印的是终端的信息
 # redis中数据库的个数 默认是16个 类似于mysql中的database
 databases 16 
 	- 切换 select dbID [dbID == 0 ~ 16-1]

2.4 redis数据持久化

持久化: 数据从内存到磁盘的过程 关机之后内存的数据释放了 但是存在磁盘上 下次可以直接读取磁盘的数据

持久化的两种方式: rgb和aof两种方式

rgb数据完整性较低 但效率高 aof数据完整性高 但效率低

  • rdb方式

    • 这是一种默认的持久化方式, 默认打开

    • 磁盘的持久化文件xxx.rdb

    • 将内存数据以二进制的方式直接写入磁盘文件

    • 文件比较小, 恢复时间短, 效率高

    • 以用户设定的频率 -> 容易丢失数据

    • 数据完整性相对较低

  • aof方式

    • 默认是关闭的

    • 磁盘的持久化文件xxx.aof

    • 直接将生成数据的命令写入磁盘文件

    • 文件比较大, 恢复时间长, 效率低

    • 以某种频率 -> 1sec

    • 数据完整性高

# rdb的同步频率, 任意一个满足都可以 
save 900 1	//900s发生1次改变
save 300 10	//300发生10次改变
save 60 10000 
# rdb文件的名字
dbfilename dump.rdb


# 生成的持久化文件保存的那个目录下, rdb和aof
dir ./ 

# 是不是要打开aof模式
appendonly no
 -> 打开: yes
# 设置aof文件的名字
appendfilename "appendonly.aof"
# aof更新的频率
# appendfsync always
appendfsync everysec
# appendfsync no
  1. aof和rdb能不能同时打开?

    • 可以

  2. aof和rdb能不能同时关闭?

    • 可以

    • rdb如何关闭?

      save ""
  3. 两种模式同时开启, 如果要进行数据恢复, 如何选择?

    • 效率上考虑: rdb模式

    • 数据的完整性: aof模式

3 hiredis的使用

  1. hiredis的安装

    • 下载地址: Redis客户端连接工具资料 -- Redis中文网 -- Redis中国用户组(CRUG)

    • 安装

      • make

      • make

  2. hiredis API接口的使用

    连接数据库
// 连接数据库
redisContext *redisConnect(const char *ip, int port);
redisContext *redisConnectWithTimeout(const char *ip, 
                                      int port, const struct timeval tv);

执行redis命令函数

// 执行redis命令
void *redisCommand(redisContext *c, const char *format, ...);

//虽然返回的是void *实际上是redisply类型
// redisCommand 函数实际的返回值类型
typedef struct redisReply {
    /* 命令执行结果的返回类型 */
    int type; 
    /* 存储执行结果返回为整数 */
    long long integer;
    /* str变量的字符串值长度 */
    size_t len;
    /* 存储命令执行结果返回是字符串, 或者错误信息 */
    char *str;
    /* 返回结果是数组, 代表数据的大小 */
    size_t elements;
    /* 存储执行结果返回是数组*/
    struct redisReply **element;
} redisReply;

//访问数组里面的元素
redisReply a[100];
element[i]->str
    
//根据类型取出对应的值
type为类型
type状态表示 含义
REDIS_REPLY_STRING==1 返回值是字符串,字符串储存在redis->str当中,字符串长度为redi
REDIS_REPLY_ARRAY== 2 返回值是数组,数组大小存在redis->elements里面,数组值存储在redis->element[i]里面。数组里面存储的是指向redisReply的指针,数组里面的返回值可以通过redis->element[i]->str来访问,数组的结果里全是type==REDIS_REPLY_STRING的redisReply对象指针。
REDIS_REPLY_INTEGER == 3 返回整数long long,从integer字段获取值
REDIS_REPLY_NIL==4 返回值为空表示执行结果为空
REDIS_REPLY_STATUS ==5 返回命令执行的状态,比如set foo bar 返回的状态为OK,存储在str当中 reply->str == "OK" 。
REDIS_REPLY_ERROR ==6 命令执行错误,错误信息存放在 reply->str当中。

 释放资源

// 释放资源
void freeReplyObject(void *reply);
void redisFree(redisContext *c);

案列代码

#include <stdio.h>
#include <hiredis.h>

int main()
{
    // 1. 连接redis服务器
    redisContext* c = redisConnect("127.0.0.1", 6379);
    if (c->err != 0)
    {
        return -1;
    }
    // 2. 执行redis命令
    void *prt = redisCommand(c, "hmset user userName zhang3 passwd 123456 age 23 sex man");
    redisReply* ply = (redisReply*)prt;
    if(ply->type == 5)
    {
        // 状态输出
        printf("状态: %s\n", ply->str);
    }
    freeReplyObject(ply);

    // 3. 从数据库中读数据
    prt = redisCommand(c, "hgetall user");
    ply = (redisReply*)prt;
    if(ply->type == 2)
    {
        // 遍历
        for(int i=0; i<ply->elements; i+=2)
        {
            printf("key: %s, value: %s\n", ply->element[i]->str, ply->element[i+1]->str);
        }
    }
    freeReplyObject(ply);

    redisFree(c);
    return 0;
}

4. 复习

fastDFS

  • 是什么?

    • 分布式文件系统

  • 干什么?

    • 提供文件上传

    • 提供文件下载

  • 怎么使用?

    • 根据主机的角色 -> 修改对应的配置文件

    • 启动各个角色

fdfs_trackerd /etc/fdfs/tracker.conf
fdfs_storaged /etc/fdfs/storage.conf
 客户端编写

 ![1531272014374](1531272014374.png)

 - 操作步骤

   1. 创建管道 - pipe
   2. 创建子进程
   3. 子进程干什么?

      - 写管道, 关闭读端
        - 将标准输出 -> 管道的写端
      - 重定向
      - 执行execl命令, 调用另外的进程fdfs_upload_file
      - 子进程退出
   4. 父进程?
      - 读管道, 关闭写端
      - 释放子进程资源 - pcb
        - wait()/ waitpid()

实现代码

fdfs.upload_file.h

#ifdef _FDFS_UPLOAD_FILE_H
#define _FDFS_UPLOAD_FILE_H

int upload_file1(const char *configfile, const char * myfile,char * fileid);
int upload_file2(const char * configFile, const char * upLoadFile, char * fileid, int size);

#endif

fdfs.upload_file.c

#include <stdio.h>
#include <stdlib.h>
#include <string.h>
#include <string.h>
#include <errno.h>
#include <sys/types.h>
#include <fcntl.h>
#include <sys/stat.h>
#include <sys/wait.h>
#include "fdfs_client.h"
#include "fdfs_upload_file.h"

//第一种方法 改写源码 将其改为底层可用
int upload_file1(const char *configfile, const char * myfile,char * fileid)
{
	char group_name[FDFS_GROUP_NAME_MAX_LEN + 1];
	ConnectionInfo *pTrackerServer;
	int result;
	int store_path_index;
	ConnectionInfo storageServer;

	if ((result=fdfs_client_init(configfile)) != 0)
	{
		return result;
	}

	pTrackerServer = tracker_get_connection();
	if (pTrackerServer == NULL)
	{
		fdfs_client_destroy();
		return errno != 0 ? errno : ECONNREFUSED;
	}

	*group_name = '\0';
	if ((result=tracker_query_storage_store(pTrackerServer, \
	                &storageServer, group_name, &store_path_index)) != 0)
	{
		fdfs_client_destroy();
		fprintf(stderr, "tracker_query_storage fail, " \
			"error no: %d, error info: %s\n", \
			result, STRERROR(result));
		return result;
	}

	result = storage_upload_by_filename1(pTrackerServer, \
			&storageServer, store_path_index, \
			myfile, NULL, \
			NULL, 0, group_name, fileid);
	if (result == 0)
	{
		printf("%s\n", fileid);
	}
	else
	{
		fprintf(stderr, "upload file fail, " \
			"error no: %d, error info: %s\n", \
			result, STRERROR(result));
	}

	tracker_disconnect_server_ex(pTrackerServer, true);
	fdfs_client_destroy();

	return result;
}

//第二种方法 使用execlp
//使用多进程实现
int upload_file2(const char * configFile, const char * upLoadFile, char * fileid, int size)
{
	//1、创建管道
	int fd[2];
	int ret = pipe(fd);
	if (ret == -1)
	{
		perror("pipe error");
		return -1;
	}

	//2、创建子线程
	pid_t pid = fork();
	//如果是子线程
	if(pid == 0)
	{
		//3、重定向到管道的写端 old,new
		dup2(fd[1], STDIN_FILENO);

		//关闭读端
		close(fd[0]);

		//执行exclp命令
		execlp("file_upload_file", "xxx", configFile, upLoadFile, NULL);
		perror("execlp error");
	}
	else 
	{
		//关闭写端
		close(fd[1]);

		//读取数据 将数据读出到fileid参数中
		char buf[1024];
		read(fd[0], fileid, size);

		//回收子进程
		wait(NULL);
	}
}

main.c

#include <stdio.h>
#include <string.h>
#include <unistd.h>
#include <sys/types.h>
#include <sys/stat.h>
#include "fdfs_upload_file.h"

//查找位置 在编译时加上
//find / -name "fdfs_client.h"

int main(int argc, char **argv[])
{
    char fileID[1024];
    upload_file1("/etc/fdfs/client.conf", "main.c", fileID);
    printf("fileID: %s\n", fileID);
    printf("================================================================\n");

    upload_file2("/etc/fdfs/client.conf", "main.c", fileID, sizeof(fileID));
    printf("fileID: %s\n", fileID);
    return 0;
};

执行 需要找到头文件和库文章来源地址https://www.toymoban.com/news/detail-490564.html

gcc *.c -I /usr/include/fastdfs -I  /usr/include/fastcommon/ -lfdfsclient

到了这里,关于分布式学习第二天 redis学习的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 在Spring中,可以使用不同的方式来实现分布式锁,例如基于数据库、Redis、ZooKeeper等

    在Spring中,可以使用不同的方式来实现分布式锁,例如基于数据库、Redis、ZooKeeper等。下面是两种常见的实现方式: 使用Redis实现分布式锁: 使用自定义注解实现本地锁: 以上是两种常见的在Spring中实现分布式锁的方式。第一种方式使用Redis作为分布式锁的存储介质,通过

    2024年03月17日
    浏览(46)
  • Redis学习(三)分布式缓存、多级缓存、Redis实战经验、Redis底层原理

    单节点Redis存在着: 数据丢失问题:单节点宕机,数据就丢失了。 并发能力和存储能力问题:单节点能够满足的并发量、能够存储的数据量有限。 故障恢复问题:如果Redis宕机,服务不可用,需要一种自动的故障恢复手段。 RDB持久化 RDB(Redis database backup file,Redis数据库备份

    2024年02月16日
    浏览(42)
  • Redis学习(八)Java三种方式实现分布式锁

    在分布式服务中,经常有例如 定时任务 这样的场景。 在定时任务中,如果不使用 quartz 这样的分布式定时工具,只是简单使用 @Schedule 注解来实现定时任务, 在服务分布式部署中 ,就有可能存在 定时任务并发重复执行问题 。 对于解决以上场景中的问题,我们引入了 分布式

    2024年02月12日
    浏览(46)
  • Redis学习(三)持久化机制、分布式缓存、多级缓存、Redis实战经验

    单节点Redis存在着: 数据丢失问题:单节点宕机,数据就丢失了。 并发能力和存储能力问题:单节点能够满足的并发量、能够存储的数据量有限。 故障恢复问题:如果Redis宕机,服务不可用,需要一种自动的故障恢复手段。 RDB持久化 RDB(Redis database backup file,Redis数据库备份

    2024年02月16日
    浏览(55)
  • 微服务学习:SpringCloud+RabbitMQ+Docker+Redis+搜索+分布式

    目录 一、高级篇 二、面试篇 ==============实用篇============== day05-Elasticsearch01 1.初识elasticsearch 1.4.安装es、kibana 1.4.1.部署单点es 1.4.2.部署kibana 1.4.3.安装IK分词器 1.4.4.总结 2.索引库操作 2.1.mapping映射属性 2.2.索引库的CRUD 2.2.1.创建索引库和映射 2.2.2.查询索引库 2.2.3.修改索引库 2.

    2024年02月02日
    浏览(59)
  • Redis缓存设计与性能优化【缓存和数据库不一致问题,解决方案:1.加过期时间这样可以一段时间后自动刷新 2.分布式的读写锁】

    在大并发下,同时操作数据库与缓存会存在数据不一致性问题 1、双写不一致情况 2、读写并发不一致 解决方案: 1、对于并发几率很小的数据(如个人维度的订单数据、用户数据等),这种几乎不用考虑这个问题,很少会发生缓存不一致, 可以给缓存数据加上过期时间,每隔一

    2024年04月13日
    浏览(54)
  • Redis与分布式-分布式锁

    接上文 Redis与分布式-集群搭建 为了解决上述问题,可以利用分布式锁来实现。 重新复制一份redis,配置文件都是刚下载时候的不用更改,然后启动redis服务和redis客户。 redis存在这样的命令:和set命令差不多,但是它有一个机制,当指定的key不存在的时候,才能进行插入,实

    2024年02月07日
    浏览(50)
  • Redis分布式锁和分布式事务

    Redis分布式锁和分布式事务 一、Redis分布式锁 1.1 watch和事务实现分布式锁 原理是通过watch来观察一个变量,一个线程在操作的时候,其他线程会操作失败,相当于乐观锁。 1.2 setnx实现分布式锁 原理是通过setnx设置一个变量,设置成功的线程抢到锁,执行相关的业务,执行完毕

    2024年02月09日
    浏览(45)
  • 【redis】redis分布式锁

    一、为什么需要分布式锁 1.在java单机服务中,jvm内部有一个全局的锁监视器,只有一个线程能获取到锁,可以实现线程之间的互斥 2.当有多个java服务时,会有多个jvm,也会有多个锁监视器,这样没办法使得多个jvm之间的线程互斥,所以无法使用jvm内部的锁监视器,也就是s

    2023年04月25日
    浏览(46)
  • 分布式锁实现(mysql,以及redis)以及分布式的概念

    我旁边的一位老哥跟我说,你知道分布式是是用来干什么的嘛?一句话给我干懵了,我能隐含知道,大概是用来做分压处理的,并增加系统稳定性的。但是具体如何,我却道不出个1,2,3。现在就将这些做一个详细的总结。至少以后碰到面试官可以说上个123。 那么就正式进入

    2024年01月21日
    浏览(62)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包