REmote DIctionary Server(Redis) 是一个由 Salvatore Sanfilippo 写的 Key-Value 存储系统。
Redis 简介
Redis 是一个开源的使用 ANSI C 语言编写、遵守 BSD 协议、支持网络、可基于内存亦可持久化的日志型、Key-Value 数据库,并提供多种语言的 API。
它通常被称为数据结构服务器,因为值(value)可以是字符串(String),哈希(Map),列表(list),集合(sets) 和有序集合(sorted sets)等类型。
大家都知道 Redis 是基于 Key-Value 的 NoSQL 数据库,因此,先来了解一下关于 Key 相关的知识点:
- 任何二进制的序列都可以作为 key 使用
- Redis 有统一的规则来设计 key
- 对 Key-Value 允许的最大长度是 512MB
支持的语言
- ActionScript Bash C C# C++ Clojure Common Lisp
- Crystal D Dart Elixir emacs lisp Erlang
- Fancy gawk GNU Prolog Go Haskell Haxe Io Java Javascript
- Julia Lua Matlab mruby Nim Node.js Objective-C
- OCaml Pascal Perl PHP Pure Data Python R Racket
- Rebol Ruby Rust Scala Scheme Smalltalk Swift Tcl VB VCL
Redis 的应用场景到底有哪些?
- 最常用的就是会话缓存
- 消息队列,比如支付
- 活动排行榜或计数
- 发布、订阅消息(消息通知)
- 商品列表、评论列表等
Redis 安装
关于 Redis 安装与相关的知识点介绍请参考:Nosql数据库服务之redis
安装的大概步骤如下:
Redis 是 C 语言开发的,安装 Redis 需要 C 语言的编译环境,如果没有 gcc 需要在线安装:yum install gcc-c++
- 第一步,获取源码包:wget http://download.redis.io/releases/redis-3.0.0.tar.gz
- 第二步,解压缩 Redis:tar zxvf redis-3.0.0.tar.gz
- 第三步,编译。进入redis源码目录(cd redis-3.0.0)。执行 make
- 第四步,安装。make install PREFIX=/usr/local/redis
#PREFIX 参数指定 Redis 的安装目录
Redis 数据类型
Redis 一共支持五种数据类型:
- string(字符串)
- hash(哈希)
- list(列表)
- set(集合)
- zset(sorted set 有序集合)
String(字符串):它是 Redis 最基本的数据类型,一个 Key 对应一个 Value,需要注意是一个键值最大存储 512MB。
- 127.0.0.1:6379> set key "hello world"
- OK
- 127.0.0.1:6379> get key
- "hello world"
- 127.0.0.1:6379> getset key "nihao"
- "hello world"
- 127.0.0.1:6379> mset key1 "hi" key2 "nihao" key3 "hello"
- OK
- 127.0.0.1:6379> get key1
- "hi"
- 127.0.0.1:6379> get key2
- "nihao"
- 127.0.0.1:6379> get key3
- "hello"
相关命令介绍:
- set 为一个 Key 设置 Value(值)
- get 获得某个 Key 对应的 Value(值)
- getset 为一个 Key 设置 Value(值)并返回对应的值
- mset 为多个 Key 设置 Value(值)
Hash(哈希):Redis Hash是一个键值对的集合, 是一个 String 类型的 Field 和 Value 的映射表,适合用于存储对象。
- 127.0.0.1:6379> hset redishash 1 "001"
- (integer) 1
- 127.0.0.1:6379> hget redishash 1
- "001"
- 127.0.0.1:6379> hmset redishash 1 "001" 2 "002"
- OK
- 127.0.0.1:6379> hget redishash 1
- "001"
- 127.0.0.1:6379> hget redishash 2
- "002"
- 127.0.0.1:6379> hmget redishash 1 2
- 1) "001"
- 2) "002"
相关命令介绍:
- hset 将 Key 对应的 Hash 中的 Field 配置为 Value,如果 Hash 不存则自动创建
- hget 获得某个 Hash 中的 Field 配置的值
- hmset 批量配置同一个 Hash 中的多个 Field 值
- hmget 批量获得同一个 Hash 中的多个 Field 值
List(列表):是 Redis 简单的字符串列表,它按插入顺序排序。
- 127.0.0.1:6379> lpush word hi
- (integer) 1
- 127.0.0.1:6379> lpush word hello
- (integer) 2
- 127.0.0.1:6379> rpush word world
- (integer) 3
- 127.0.0.1:6379> lrange word 0 2
- 1) "hello"
- 2) "hi"
- 3) "world"
- 127.0.0.1:6379> llen word
- (integer) 3
相关命令介绍:
- lpush 向指定的列表左侧插入元素,返回插入后列表的长度
- rpush 向指定的列表右侧插入元素,返回插入后列表的长度
- llen 返回指定列表的长度
- lrange 返回指定列表中指定范围的元素值
Set(集合):是 String 类型的无序集合,也不可重复。
- 127.0.0.1:6379> sadd redis redisset
- (integer) 1
- 127.0.0.1:6379> sadd redis redisset1
- (integer) 1
- 127.0.0.1:6379> sadd redis redisset2
- (integer) 1
- 127.0.0.1:6379> smembers redis
- 1) "redisset1"
- 2) "redisset"
- 3) "redisset2"
- 127.0.0.1:6379> sadd redis redisset2
- (integer) 0
- 127.0.0.1:6379> smembers redis
- 1) "redisset1"
- 2) "redisset"
- 3) "redisset2"
- 127.0.0.1:6379> smembers redis
- 1) "redisset1"
- 2) "redisset3"
- 3) "redisset"
- 4) "redisset2"
- 127.0.0.1:6379> srem redis redisset
- (integer) 1
- 127.0.0.1:6379> smembers redis
- 1) "redisset1"
- 2) "redisset3"
- 3) "redisset2"
相关命令介绍:
- sadd 添加一个 String 元素到 Key 对应的 set 集合中,成功返回 1,如果元素存在返回 0
- smembers 返回指定的集合中所有的元素
- srem 删除指定集合的某个元素
Zset(sorted set 有序集合):是 String 类型的有序集合,也不可重复。
sorted set 中的每个元素都需要指定一个分数,根据分数对元素进行升序排序,如果多个元素有相同的分数,则以字典序进行升序排序,sorted set 因此非常适合实现排名。
- 127.0.0.1:6379> zadd nosql 0 001
- (integer) 1
- 127.0.0.1:6379> zadd nosql 0 002
- (integer) 1
- 127.0.0.1:6379> zadd nosql 0 003
- (integer) 1
- 127.0.0.1:6379> zcount nosql 0 0
- (integer) 3
- 127.0.0.1:6379> zcount nosql 0 3
- (integer) 3
- 127.0.0.1:6379> zrem nosql 002
- (integer) 1
- 127.0.0.1:6379> zcount nosql 0 3
- (integer) 2
- 127.0.0.1:6379> zscore nosql 003
- "0"
- 127.0.0.1:6379> zrangebyscore nosql 0 10
- 1) "001"
- 2) "003"
- 127.0.0.1:6379> zadd nosql 1 003
- (integer) 0
- 127.0.0.1:6379> zadd nosql 1 004
- (integer) 1
- 127.0.0.1:6379> zrangebyscore nosql 0 10
- 1) "001"
- 2) "003"
- 3) "004"
- 127.0.0.1:6379> zadd nosql 3 005
- (integer) 1
- 127.0.0.1:6379> zadd nosql 2 006
- (integer) 1
- 127.0.0.1:6379> zrangebyscore nosql 0 10
- 1) "001"
- 2) "003"
- 3) "004"
- 4) "006"
- 5) "005"
相关命令介绍:
- zadd 向指定的 sorteset 中添加 1 个或多个元素
- zrem 从指定的 sorteset 中删除 1 个或多个元素
- zcount 查看指定的 sorteset 中指定分数范围内的元素数量
- zscore 查看指定的 sorteset 中指定分数的元素
- zrangebyscore 查看指定的 sorteset 中指定分数范围内的所有元素
键值相关的命令
- 127.0.0.1:6379> exists key
- (integer) 1
- 127.0.0.1:6379> exists key1
- (integer) 1
- 127.0.0.1:6379> exists key100
- (integer) 0
- 127.0.0.1:6379> get key
- "nihao,hello"
- 127.0.0.1:6379> get key1
- "hi"
- 127.0.0.1:6379> del key1
- (integer) 1
- 127.0.0.1:6379> get key1
- (nil)
- 127.0.0.1:6379> rename key key0
- OK
- 127.0.0.1:6379> get key
- (nil)
- 127.0.0.1:6379> get key0
- "nihao,hello"
- 127.0.0.1:6379> type key0
- string
- exists:#确认 Key 是否存在
- del:#删除 Key
- expire:#设置 Key 过期时间(单位秒)
- persist:#移除 Key 过期时间的配置
- rename:#重命名 Key
- type:#返回值的类型
Redis 服务相关的命令
- 127.0.0.1:6379> select 0
- OK
- 127.0.0.1:6379> info
- # Server
- redis_version:3.0.6
- redis_git_sha1:00000000
- redis_git_dirty:0
- redis_build_id:347e3eeef5029f3
- redis_mode:standalone
- os:Linux 3.10.0-693.el7.x86_64 x86_64
- arch_bits:64
- multiplexing_api:epoll
- gcc_version:4.8.5
- process_id:31197
- run_id:8b6ec6ad5035f5df0b94454e199511084ac6fb12
- tcp_port:6379
- uptime_in_seconds:8514
- uptime_in_days:0
- hz:10
- lru_clock:14015928
- config_file:/usr/local/redis/redis.conf
- -------------------省略N行
- 127.0.0.1:6379> CONFIG GET 0
- (empty list or set)
- 127.0.0.1:6379> CONFIG GET 15
- (empty list or set)
- slect:#选择数据库(数据库编号 0-15)
- quit:#退出连接
- info:#获得服务的信息与统计
- monitor:#实时监控
- config get:#获得服务配置
- flushdb:#删除当前选择的数据库中的 Key
- flushall:#删除所有数据库中的 Key
Redis 的发布与订阅
Redis 发布与订阅(pub/sub)是它的一种消息通信模式,一方发送信息,一方接收信息。
下图是三个客户端同时订阅同一个频道:
下图是有新信息发送给频道 1 时,就会将消息发送给订阅它的三个客户端:
Redis 事务
Redis 事务可以一次执行多条命令:
- 发送 exec 命令前放入队列缓存,结束事务
- 收到 exec 命令后执行事务操作,如果某一命令执行失败,其它命令仍可继续执行
- 一个事务执行的过程中,其它客户端提交的请求不会被插入到事务执行的命令列表中
一个事务经历三个阶段:
- 开始事务(命令:multi)
- 命令执行
- 结束事务(命令:exec)
- 127.0.0.1:6379> MULTI
- OK
- 127.0.0.1:6379> set key key1
- QUEUED
- 127.0.0.1:6379> get key
- QUEUED
- 127.0.0.1:6379> rename key key001
- QUEUED
- 127.0.0.1:6379> exec
- 1) OK
- 2) "key1"
- 3) OK
Redis 安全配置
可以通过修改配置文件设备密码参数来提高安全性:#requirepass foobared。
去掉注释#号就可以配置密码,没有配置密码的情况下查询如下:
- 127.0.0.1:6379> CONFIG GET requirepass
- 1) "requirepass"
- 2) ""
配置密码之后,就需要进行认证:
- 127.0.0.1:6379> CONFIG GET requirepass
- (error) NOAUTH Authentication required.
- 127.0.0.1:6379> AUTH foobared #认证
- OK
- 127.0.0.1:6379> CONFIG GET requirepass
- 1) "requirepass"
- 2) "foobared"
Redis 持久化
Redis 持久有两种方式:
- Snapshotting(快照)
- Append-only file(AOF)
Snapshotting(快照):
- 将存储在内存的数据以快照的方式写入二进制文件中,如默认 dump.rdb中。
- save 900 1,#900 秒内如果超过 1 个 Key 被修改,则启动快照保存。
- save 300 10,#300 秒内如果超过 10 个 Key 被修改,则启动快照保存。
- save 60 10000,#60 秒内如果超过 10000 个 Key 被修改,则启动快照保存。
Append-only file(AOF):
- 使用 AOF 持久时,服务会将每个收到的写命令通过 write 函数追加到文件中(appendonly.aof)
- AOF 持久化存储方式参数说明:
appendonly yes,#开启 AOF 持久化存储方式
appendfsync always,#收到写命令后就立即写入磁盘,效率最差,效果最好
appendfsync everysec,#每秒写入磁盘一次,效率与效果居中
appendfsync no,#完全依赖 OS,效率最佳,效果没法保证
Redis 性能测试
自带相关测试工具:
- [root@test ~]# redis-benchmark --help
- Usage: redis-benchmark [-h <host>] [-p <port>] [-c <clients>] [-n <requests]> [-k <boolean>]
- -h <hostname> Server hostname (default 127.0.0.1)
- -p <port> Server port (default 6379)
- -s <socket> Server socket (overrides host and port)
- -a <password> Password for Redis Auth
- -c <clients> Number of parallel connections (default 50)
- -n <requests> Total number of requests (default 100000)
- -d <size> Data size of SET/GET value in bytes (default 2)
- -dbnum <db> SELECT the specified db number (default 0)
- -k <boolean> 1=keep alive 0=reconnect (default 1)
- -r <keyspacelen> Use random keys for SET/GET/INCR, random values for SADD
- Using this option the benchmark will expand the string __rand_int__
- inside an argument with a 12 digits number in the specified range
- from 0 to keyspacelen-1. The substitution changes every time a command
- is executed. Default tests use this to hit random keys in the
- specified range.
- -P <numreq> Pipeline <numreq> requests. Default 1 (no pipeline).
- -q Quiet. Just show query/sec values
- --csv Output in CSV format
- -l Loop. Run the tests forever
- -t <tests> Only run the comma separated list of tests. The test
- names are the same as the ones produced as output.
- -I Idle mode. Just open N idle connections and wait.
- Examples:
- Run the benchmark with the default configuration against 127.0.0.1:6379:
- $ redis-benchmark
- Use 20 parallel clients, for a total of 100k requests, against 192.168.1.1:
- $ redis-benchmark -h 192.168.1.1 -p 6379 -n 100000 -c 20
- Fill 127.0.0.1:6379 with about 1 million keys only using the SET test:
- $ redis-benchmark -t set -n 1000000 -r 100000000
- Benchmark 127.0.0.1:6379 for a few commands producing CSV output:
- $ redis-benchmark -t ping,set,get -n 100000 --csv
- Benchmark a specific command line:
- $ redis-benchmark -r 10000 -n 10000 eval 'return redis.call("ping")' 0
- Fill a list with 10000 random elements:
- $ redis-benchmark -r 10000 -n 10000 lpush mylist __rand_int__
- On user specified command lines __rand_int__ is replaced with a random integer
- with a range of values selected by the -r option.
实际测试同时执行 100 万的请求:
- [root@test ~]# redis-benchmark -n 1000000 -q
- PING_INLINE: 152578.58 requests per second
- PING_BULK: 150308.14 requests per second
- SET: 143266.47 requests per second
- GET: 148632.58 requests per second
- INCR: 145857.64 requests per second
- LPUSH: 143781.45 requests per second
- LPOP: 147819.66 requests per second
- SADD: 138350.86 requests per second
- SPOP: 134282.27 requests per second
- LPUSH (needed to benchmark LRANGE): 141302.81 requests per second
- LRANGE_100 (first 100 elements): 146756.67 requests per second
- LRANGE_300 (first 300 elements): 148104.27 requests per second
- LRANGE_500 (first 450 elements): 152671.75 requests per second
- LRANGE_600 (first 600 elements): 148104.27 requests per second
- MSET (10 keys): 132731.62 requests per second
Redis 的备份与恢复
Redis 自动备份有两种方式:
- 通过 dump.rdb 文件实现备份
- 使用 aof 文件实现自动备份
dump.rdb 备份
Redis 服务默认的自动文件备份方式(AOF 没有开启的情况下),在服务启动时,就会自动从 dump.rdb 文件中去加载数据。
具体配置在 redis.conf:
- save 900 1
- save 300 10
- save 60 10000
也可以手工执行 save 命令实现手动备份。
- 127.0.0.1:6379> set name key
- OK
- 127.0.0.1:6379> SAVE
- OK
- 127.0.0.1:6379> set name key1
- OK
- 127.0.0.1:6379> BGSAVE
- Background saving started
Redis 快照到 dump 文件时,会自动生成 dump.rdb 的文件。
- # The filename where to dump the DB
- dbfilename dump.rdb
- -rw-r--r-- 1 root root 253 Apr 17 20:17 dump.rdb
- SAVE 命令表示使用主进程将当前数据库快照到 dump 文件
- BGSAVE 命令表示,主进程会 fork 一个子进程来进行快照备份
- 两种备份不同之处,前者会阻塞主进程,后者不会。
恢复举例
- # Note that you must specify a directory here, not a file name.
- dir /usr/local/redisdata/
- 备份文件存储路径
- 127.0.0.1:6379> CONFIG GET dir
- 1) "dir"
- 2) "/usr/local/redisdata"
- 127.0.0.1:6379> set key 001
- OK
- 127.0.0.1:6379> set key1 002
- OK
- 127.0.0.1:6379> set key2 003
- OK
- 127.0.0.1:6379> save
- OK
将备份文件备份到其他目录:
- [root@test ~]# ll /usr/local/redisdata/
- total 4
- -rw-r--r-- 1 root root 49 Apr 17 21:24 dump.rdb
- [root@test ~]# date
- Tue Apr 17 21:25:38 CST 2018
- [root@test ~]# cp ./dump.rdb /tmp/
删除数据:
- 127.0.0.1:6379> del key1
- (integer) 1
- 127.0.0.1:6379> get key1
- (nil)
关闭服务,将原备份文件拷贝回 save 备份目录:
- [root@test ~]# redis-cli -a foobared shutdown
- [root@test ~]# lsof -i :6379
- [root@test ~]# cp /tmp/dump.rdb /usr/local/redisdata/
- cp: overwrite ‘/usr/local/redisdata/dump.rdb’? y
- [root@test ~]# redis-server /usr/local/redis/redis.conf &
- [1] 31487
登录查看数据是否恢复:
- [root@test ~]# redis-cli -a foobared
- 127.0.0.1:6379> mget key key1 key2
- 1) "001"
- 2) "002"
- 3) "003"
AOF 自动备份
Redis服务默认是关闭此项配置:
- ###### APPEND ONLY MODE ##########
- appendonly no
- # The name of the append only file (default: "appendonly.aof")
- appendfilename "appendonly.aof"
- # appendfsync always
- appendfsync everysec
- # appendfsync no
配置文件的相关参数,前面已经详细介绍过。AOF 文件备份,是备份所有的历史记录以及执行过的命令,和 MySQL binlog 很相似,在恢复时就是重新执次一次之前执行的命令。
需要注意的就是在恢复之前,和数据库恢复一样需要手工删除执行过的del或误操作的命令。
AOF 与 dump 备份不同:
- AOF 文件备份与 dump 文件备份不同
- 服务读取文件的优先顺序不同,会按照以下优先级进行启动
如果只配置 AOF,重启时加载 AOF 文件恢复数据
如果同时 配置了 RBD 和 AOF,启动是只加载 AOF 文件恢复数据
如果只配置 RBD,启动时将加载 dump 文件恢复数据
注意:只要配置了 AOF,但是没有 AOF 文件,这个时候启动的数据库会是空的。
Redis 生产优化介绍
内存管理优化
- hash-max-ziplist-entries 512
- hash-max-ziplist-value 64
- list-max-ziplist-entries 512
- list-max-ziplist-value 64
#list 的成员与值都不太大的时候会采用紧凑格式来存储,相对内存开销也较小
在 Linux 环境运行 Redis 时,如果系统的内存比较小,这个时候自动备份会有可能失败,需要修改系统的 vm.overcommit_memory 参数,这个参数是 Linux 系统的内存分配策略。
- 0 表示内核将检查是否有足够的可用内存供应用进程使用;如果有足够的可用内存,内存申请允许;否则,内存申请失败,并把错误返回给应用进程。
- 1 表示内核允许分配所有的物理内存,而不管当前的内存状态如何。
- 2 表示内核允许分配超过所有物理内存和交换空间总和的内存。
Redis官方的说明是,建议将 vm.overcommit_memory 的值修改为 1,可以用下面几种方式进行修改:
- 编辑 /etc/sysctl.conf 改 vm.overcommit_memory=1,然后 sysctl -p 使配置文件生效
- sysctl vm.overcommit_memory=1
- echo 1 > /proc/sysm/overcommit_memory
内存预分配
持久化机制
- 定时快照:效率不高,会丢失数据
- AOF:保持数据完整性(一个实例的数量不要太大2G最大)
优化总结:
- 根据业务需要选择合适的数据类型
- 当业务场景不需持久化时就关闭所有持久化方式(采用ssd磁盘来提升效率)
- 不要使用虚拟内存的方式,每秒实时写入 AOF
- 不要让 Redis 所在的服务器物理内存使用超过内存总量的 3/5
- 要使用 maxmemory
- 大数据量按业务分开使用多个 Redis 实例
Redis 集群应用
集群是将多个 Redis 实例集中在一起,实现同一业务需求,或者实现高可用与负载均衡到底有哪些集群方案呢?
Haproxy+Keepalived+Redis 集群
- 通过 Redis 的配置文件,实现主从复制、读写分离
- 通过 Haproxy 的配置,实现负载均衡,当从故障时也会及时从集群中T除
- 利用 Keepalived 来实现负载的高可用
Redis 官方 Sentinel 集群管理工具
Redis集群生产环境高可用方案实战过程:
- Sentinel 负责对集群中的主从服务监控、提醒和自动故障转移
- Redis 集群负责对外提供服务
- 关于 Redis Sentinel Cluster 集群配置可参考
Redis Cluster
Redis Cluster 是 Redis 的分布式解决方案,在 Redis 3.0 版本正式推出的,有效解决了 Redis 分布式方面的需求。
当遇到单机内存、并发、流量等瓶颈时,可以采用Cluster架构达到负载均衡的目的。
- 官方推荐,毋庸置疑。
- 去中心化,集群最大可增加 1000 个节点,性能随节点增加而线性扩展。
- 管理方便,后续可自行增加或摘除节点,移动分槽等等。
- 简单,易上手。