Redis主从哨兵架构详解
Redis持久化
RDB快照
在默认情况下, Redis 将内存数据库快照保存在名字为 dump.rdb 的二进制文件中。
你可以对 Redis 进行设置, 让它在 N 秒内数据集至少有 M 个改动
这一条件被满足时, 自动保存一次数据集。
1 | # You can set these explicitly by uncommenting the three following lines. |
还可以手动执行命令生成RDB快照,进入redis客户端执行命令save或bgsave可以生成dump.rdb文件,每次命令执行都会将所有redis内存快照到一个新的rdb文件里,并覆盖原有rdb快照文件。
bgsave的写时复制(COW)机制
Redis 借助操作系统提供的写时复制技术(Copy-On-Write, COW),在生成快照的同时,依然可以正常处理写命令。简单来说,bgsave 子进程是由主线程 fork 生成的,可以共享主线程的所有内存数据。bgsave 子进程运行后,开始读取主线程的内存数据,并把它们写入 RDB 文件。此时,如果主线程对这些数据也都是读操作,那么,主线程和 bgsave 子进程相互不影响。但是,如果主线程要修改一块数据,那么,这块数据就会被复制一份,生成该数据的副本。然后,bgsave 子进程会把这个副本数据写入 RDB 文件,而在这个过程中,主线程仍然可以直接修改原来的数据。
save与bgsave对比
命令 | save | bgsave |
---|---|---|
IO类型 | 同步 | 异步 |
是否阻塞redis其它命令 | 是 | 否(在生成子进程执行调用fork函数时会有短暂阻塞) |
复杂度 | O(n) | O(n) |
优点 | 不会消耗额外内存 | 不阻塞客户端命令 |
缺点 | 阻塞客户端命令 | 需要fork子进程,消耗内存 |
配置自动生成rdb文件后台使用的是bgsave方式。
AOF(append-only file)
RDB快照功能并不是非常可靠,如果 Redis 因为某些原因而造成故障停机,那么服务器将丢失最近写入、且仍未保存到快照中的那些数据。从 1.1 版本开始,Redis 增加了一种完全耐久的持久化方式: AOF 持久化,将修改的每一条指令记录进文件appendonly.aof中(先写入os cache,每隔一段时间fsync到磁盘)
比如执行命令“set name zhangsan”,aof文件里会记录如下数据:
1 | *3 |
这是一种resp协议格式数据,星号后面的数字代表命令有多少个参数,$号后面的数字代表这个参数有几个字符
注意,如果执行带过期时间的set命令,aof文件里记录的是并不是执行的原始命令,而是记录key过期的时间戳
比如执行“set tuling 888 ex 1000”,对应aof文件里记录如下:
1 | *3 |
可以通过修改配置文件打开AOF功能
1 | appendonly yes |
开启了以后,每当 Redis 执行一个改变数据集的命令时(比如 SET),这个命令就会被追加到 AOF 文件的末尾。这样的话, 当 Redis 重新启动时, 程序就可以通过重新执行 AOF 文件中的命令来达到重建数据集的目的。你可以配置 Redis 多久才将数据 fsync 到磁盘一次。
fsync有三种策略:
1 | appendfsync always # 每次有新命令追加到 AOF 文件时就执行一次 fsync,非常慢,也非常安全。 |
推荐(并且也是默认)的措施为每秒 fsync 一次, 这种 fsync 策略可以兼顾速度和安全性。
AOF重写
AOF文件里可能有太多没用指令,所以AOF会定期根据内存的最新数据生成aof文件
例如,执行了如下几条命令:
1 | 127.0.0.1:6379> incr readcount |
重写后AOF文件里变成
1 | *3 |
如下两个配置可以控制AOF自动重写频率
1 | auto-aof-rewrite-min-size 64mb # aof文件至少要达到64M才会自动重写,文件太小恢复速度本来就很快,重写的意义不大 |
当然AOF还可以手动重写,进入redis客户端执行命令bgrewriteaof重写AOF
注意,AOF重写redis会fork出一个子进程去做(与bgsave命令类似),不会对redis正常命令处理有太多影响
RDB和AOF对比
命令 | RDB | AOF |
---|---|---|
启动优先级 | 低 | 高 |
体积 | 小 | 大 |
恢复速度 | 快 | 慢 |
数据安全性 | 容易丢数据 | 根据策略决定 |
生产环境可以都启用,redis启动时如果既有rdb文件又有aof文件则优先选择aof文件恢复数据,因为aof一般来说数据更全一点。
Redis4.0混合持久化
重启Redis时,我们很少使用RDB来恢复内存状态,因为会丢失大量数据。我们通常使用AOF日志重放,但是重放AOF日志性能相对RDB来说要慢很多,这样在Redis实例很大的情况下,启动需要花费很长的时间。Redis4.0为了解决这个问题,带来了一个新的持久化选项——混合持久化。
通过如下配置可以开启混合持久化(必须先开启aof):
1 | aof-use-rdb-preamble yes |
如果开启了混合持久化,AOF在重写时,不再是单纯将内存数据转换为RESP命令写入AOF文件,而是将重写这一刻之前的内存做RDB快照处理,并且将RDB快照内容和增量的AOF修改内存数据的命令存在一起,都写入新的AOF文件,新的文件一开始不叫appendonly.aof,等到重写完新的AOF文件才会进行改名,覆盖原有的AOF文件,完成新旧两个AOF文件的替换。
于是在 Redis 重启的时候,可以先加载 RDB 的内容,然后再重放增量 AOF 日志就可以完全替代之前的 AOF 全量文件重放,因此重启效率大幅得到提升。
混合持久化AOF文件结构如下:
Redis数据备份策略
- 写crontab定时调度脚本,每小时都copy一份rdb或aof的备份到一个目录中去,仅仅保留最近48小时的备份
- 每天都保留一份当日的数据备份到一个目录中去,可以保留最近1个月的备份
- 每次copy备份的时候,都把太旧的备份给删了
- 每天晚上将当前机器上的备份复制一份到其他机器上,以防机器损坏
Redis主从架构
Redis主从配置
在此使用三台服务器进行测试,IP和节点信息如下:
ip | 角色 |
---|---|
192.168.0.74 | master |
192.168.0.61 | slave |
192.168.0.56 | slave |
配置redis.conf
使用vim打开redis.conf文件,修改如下配置
1 | #设置绑定的ip,一般为当前机器的ip地址,也可以设置为 0.0.0.0 |
其他两个从节点,跟上面的配置一样(bind注意修改成本机的IP),多增加一条以下配置:
1 | # 主节点ip,端口 |
注意:配置logfile 和 dir 后,需要手动创建一下目录
启动redis,指定配置文件:
1 | redis-server ../redis.conf |
验证
随便连接一台redis,输入 info replication
,查看节点状态
可以看到当前节点的角色和master节点的ip
连接到master节点,执行
1 | set test1 1 |
再随便连接一个slave节点,执行
1 | keys * |
可以看到节点数据已经同步了
动图演示:
Redis主从工作原理
全量复制
如果你为master配置了一个slave,不管这个slave是否是第一次连接上Master,它都会发送一个PSYNC命令给master请求复制数据。
master收到PSYNC命令后,会在后台进行数据持久化通过bgsave生成最新的rdb快照文件,持久化期间,master会继续接收客户端的请求,它会把这些可能修改数据集的请求缓存在内存中。当持久化进行完毕以后,master会把这份rdb文件数据集发送给slave,slave会把接收到的数据进行持久化生成rdb,然后再加载到内存中。然后,master再将之前缓存在内存中的命令发送给slave。
当master与slave之间的连接由于某些原因而断开时,slave能够自动重连Master,如果master收到了多个slave并发连接请求,它只会进行一次持久化,而不是一个连接一次,然后再把这一份持久化的数据发送给多个并发连接的slave。
主从复制(全量复制)流程图
数据部分复制
当master和slave断开重连后,一般都会对整份数据进行复制。但从redis2.8版本开始,redis改用可以支持部分数据复制的命令PSYNC去master同步数据,slave与master能够在网络连接断开重连后只进行部分数据复制(断点续传)。
master会在其内存中创建一个复制数据用的缓存队列,缓存最近一段时间的数据,master和它所有的slave都维护了复制的数据下标offset和master的进程id,因此,当网络连接断开后,slave会请求master继续进行未完成的复制,从所记录的数据下标开始。如果master进程id变化了,或者从节点数据下标offset太旧,已经不在master的缓存队列里了,那么将会进行一次全量数据的复制。
主从复制(部分复制,断点续传)流程图
主从复制风暴
如果有很多从节点,多个从节点同时复制主节点导致主节点压力过大,这个叫主从复制风暴。为了缓解主从复制风暴问题,可以做如下架构,让部分从节点与从节点(与主节点同步)同步数据。
Jedis连接Redis
Java操作Redis
maven引入依赖
1 | <dependency> |
Java代码:
1 | public class JedisSingleTest { |
输出结果:
1 | OK |
管道
客户端可以一次性发送多个请求而不用等待服务器的响应,待所有命令都发送完后再一次性读取服务的响应,这样可以极大的降低多条命令执行的网络传输开销,管道执行多条命令的网络开销实际上只相当于一次命令执行的网络开销。需要注意到是用pipeline方式打包命令发送,redis必须在处理完所有命令前先缓存起所有命令的处理结果。打包的命令越多,缓存消耗内存也越多。所以并不是打包的命令越多越好。
pipeline中发送的每个command都会被server立即执行,如果执行失败,将会在此后的响应中得到信息;也就是pipeline并不是表达所有command都一起成功
的语义,管道中前面命令失败,后面命令不会有影响,继续执行。
详细代码示例见上面jedis连接示例:
1 | Pipeline pl = jedis.pipelined(); |
输出结果:
1 | [1, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range, 2, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range, 3, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range, 4, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range, 5, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range, 6, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range, 7, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range, 8, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range, 9, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range, 10, OK, redis.clients.jedis.exceptions.JedisDataException: ERR bit offset is not an integer or out of range] |
Redis Lua脚本
Redis在2.6推出了脚本功能,允许开发者使用Lua语言编写脚本传到Redis中执行。使用脚本的好处如下:
减少网络开销:本来5次网络请求的操作,可以用一个请求完成,原先5次请求的逻辑放在redis服务器上完成。使用脚本,减少了网络往返时延。这点跟管道类似。
原子操作:Redis会将整个脚本作为一个整体执行,中间不会被其他命令插入。管道不是原子的,不过redis的批量操作命令(类似mset)是原子的。
替代redis的事务功能:redis自带的事务功能很鸡肋,而redis的lua脚本几乎实现了常规的事务功能,官方推荐如果要使用redis的事务功能可以用redis lua替代。
官网文档上有这样一段话:
1 | A Redis script is transactional by definition, so everything you can do with a Redis transaction, you can also do with a script, |
从Redis2.6.0版本开始,通过内置的Lua解释器,可以使用EVAL命令对Lua脚本进行求值。EVAL命令的格式如下:
1 | EVAL script numkeys key [key ...] arg [arg ...] |
script参数是一段Lua脚本程序,它会被运行在Redis服务器上下文中,这段脚本不必(也不应该)定义为一个Lua函数。numkeys参数用于指定键名参数的个数。键名参数 key [key …] 从EVAL的第三个参数开始算起,表示在脚本中所用到的那些Redis键(key),这些键名参数可以在 Lua中通过全局变量KEYS数组,用1为基址的形式访问( KEYS[1] , KEYS[2] ,以此类推)。
在命令的最后,那些不是键名参数的附加参数 arg [arg …] ,可以在Lua中通过全局变量ARGV数组访问,访问的形式和KEYS变量类似( ARGV[1] 、 ARGV[2] ,诸如此类)。例如:
1 | 127.0.0.1:6379> eval "return {KEYS[1],KEYS[2],ARGV[1],ARGV[2]}" 2 key1 key2 first second |
其中 return {KEYS[1],KEYS[2],ARGV[1],ARGV[2]}
是被求值的Lua脚本,数字2指定了键名参数的数量, key1和key2是键名参数,分别使用 KEYS[1] 和 KEYS[2] 访问,而最后的 first 和 second 则是附加参数,可以通过 ARGV[1] 和 ARGV[2] 访问它们。
在 Lua 脚本中,可以使用redis.call()
函数来执行Redis命令
例如,使用Lua脚本的方式,设置key的值:
1 | 127.0.0.1:6379> eval "return redis.call('set', KEYS[1], ARGV[1])" 1 name zhangsan |
获取key的值:
1 | 127.0.0.1:6379> eval "return redis.call('get', KEYS[1])" 1 name |
Jedis调用示例详见上面jedis连接示例:
1 | jedis.set("product_stock_10016", "15"); //初始化商品10016的库存 |
注意,不要在Lua脚本中出现死循环和耗时的运算,否则redis会阻塞,将不接受其他的命令,所以使用时要注意不能出现死循环、耗时的运算。redis是单进程、单线程执行脚本。管道不会阻塞redis。
Redis哨兵高可用架构
sentinel哨兵是特殊的redis服务,不提供读写服务,主要用来监控redis实例节点。
哨兵架构下client端第一次从哨兵找出redis的主节点,后续就直接访问redis的主节点,不会每次都通过sentinel代理访问redis的主节点,当redis的主节点发生变化,哨兵会第一时间感知到,并且将新的redis主节点通知给client端(这里面redis的client端一般都实现了订阅功能,订阅sentinel发布的节点变动消息)
配置sentinel.conf
使用vim打开sentinel.conf文件,修改如下配置:
1 | #端口 |
依次配置三个redis,再依次启动三个哨兵,启动命令如下
1 | redis-sentinel ../sentinel.conf |
sentinel集群都启动完毕后,会将哨兵集群的元数据信息写入所有sentinel的配置文件里去(追加在文件的最下面),我们查看下如下配置文件sentinel.conf,如下所示:
1 | #代表从节点信息 |
验证
将master节点的redis进程杀掉,等待十几秒,随便连接一个从节点,执行info replication,会从剩余的两个节点中选出一个master。
动图演示:
当redis主节点如果挂了,哨兵集群会重新选举出新的redis主节点,同时会修改所有sentinel节点配置文件的集群元数据信息,比如192.168.0.74的redis如果挂了,假设选举出的新主节点是192.168.0.61,则sentinel文件里的集群元数据信息会变成如下所示:
1 | #代表从节点信息 |
同时还会修改sentinel文件里之前配置的mymaster配置
1 | sentinel monitor mymaster 192.168.0.61 6380 2 |
当192.168.0.74的redis实例再次启动时,哨兵集群根据集群元数据信息就可以将192.168.0.74的redis节点作为从节点加入集群
Java连接哨兵集群
Jedis连接
1 | public class JedisSentinelTest { |
SpringBoot连接
maven增加Spring Redis配置
1 | <dependency> |
SpringBoot连接redis哨兵集群比较简单,修改application.properties 配置文件为:
1 | #哨兵集群名称 |
注意:此处连接不能使用6379端口号,需要连接哨兵的端口号26379
代码里注入StringRedisTemplate
或者RedisTemplate
使用即可
StringRedisTemplate与RedisTemplate详解
spring 封装了 RedisTemplate 对象来进行对redis的各种操作,它支持所有的 redis 原生的 api。在RedisTemplate中提供了几个常用的接口方法的使用,分别是:
1 | private ValueOperations<K, V> valueOps; |
RedisTemplate中定义了对5种数据结构操作
1 | redisTemplate.opsForValue();//操作字符串 |
StringRedisTemplate继承自RedisTemplate,也一样拥有上面这些操作。
StringRedisTemplate默认采用的是String的序列化策略,保存的key和value都是采用此策略序列化保存的。
RedisTemplate默认采用的是JDK的序列化策略,保存的key和value都是采用此策略序列化保存的。
Redis客户端命令对应的RedisTemplate中的方法列表:
String类型结构 | |
---|---|
Redis | RedisTemplate rt |
set key value | rt.opsForValue().set(“key”, “value”) |
get key | rt.opsForValue().get(“key”) |
del key | rt.delete(“key”) |
strlen key | rt.opsForValue().size(“key”) |
getset key value | rt.opsForValue().getAndSet(“key”, “value”) |
getrange key start end | rt.opsForValue().get(“key”, start, end) |
append key value | rt.opsForValue().append(“key”, “value”) |
Hash结构 | |
hmset key field1 value1 field2 value2… | rt.opsForHash().putAll(“key”, map) //map是一个集合对象 |
hset key field value | rt.opsForHash().put(“key”, “field”, “value”) |
hexists key field | rt.opsForHash().hasKey(“key”, “field”) |
hgetall key | rt.opsForHash().entries(“key”) //返回Map对象 |
hvals key | rt.opsForHash().values(“key”) //返回List对象 |
hkeys key | rt.opsForHash().keys(“key”) //返回List对象 |
hmget key field1 field2… | rt.opsForHash().multiGet(“key”, keyList) |
hsetnx key field value | rt.opsForHash().putIfAbsent(“key”, “field”, “value”) |
hdel key field1 field2 | rt.opsForHash().delete(“key”, “field1”, “field2”) |
hget key field | rt.opsForHash().get(“key”, “field”) |
List结构 | |
lpush list node1 node2 node3… | rt.opsForList().leftPush(“list”, “node”) rt.opsForList().leftPushAll(“list”, list) //list是集合对象 |
rpush list node1 node2 node3… | rt.opsForList().rightPush(“list”, “node”) rt.opsForList().rightPushAll(“list”, list) //list是集合对象 |
lindex key index | rt.opsForList().index(“list”, index) |
llen key | rt.opsForList().size(“key”) |
lpop key | rt.opsForList().leftPop(“key”) |
rpop key | rt.opsForList().rightPop(“key”) |
lpushx list node | rt.opsForList().leftPushIfPresent(“list”, “node”) |
rpushx list node | rt.opsForList().rightPushIfPresent(“list”, “node”) |
lrange list start end | rt.opsForList().range(“list”, start, end) |
lrem list count value | rt.opsForList().remove(“list”, count, “value”) |
lset key index value | rt.opsForList().set(“list”, index, “value”) |
Set结构 | |
sadd key member1 member2… | rt.boundSetOps(“key”).add(“member1”, “member2”, …) rt.opsForSet().add(“key”, set) //set是一个集合对象 |
scard key | rt.opsForSet().size(“key”) |
sidff key1 key2 | rt.opsForSet().difference(“key1”, “key2”) //返回一个集合对象 |
sinter key1 key2 | rt.opsForSet().intersect(“key1”, “key2”)//同上 |
sunion key1 key2 | rt.opsForSet().union(“key1”, “key2”)//同上 |
sdiffstore des key1 key2 | rt.opsForSet().differenceAndStore(“key1”, “key2”, “des”) |
sinter des key1 key2 | rt.opsForSet().intersectAndStore(“key1”, “key2”, “des”) |
sunionstore des key1 key2 | rt.opsForSet().unionAndStore(“key1”, “key2”, “des”) |
sismember key member | rt.opsForSet().isMember(“key”, “member”) |
smembers key | rt.opsForSet().members(“key”) |
spop key | rt.opsForSet().pop(“key”) |
srandmember key count | rt.opsForSet().randomMember(“key”, count) |
srem key member1 member2… | rt.opsForSet().remove(“key”, “member1”, “member2”, …) |