Redis是一个开源的内存数据库,Redis提供了多种不同类型的数据结构,很多业务场景下的问题都可以很自然地映射到这些数据结构上。除此之外,通过复制、持久化和客户端分片等特性,我们可以很方便地将Redis扩展成一个能够包含数百GB数据、每秒处理上百万次请求的系统。
Redis支持诸如字符串(strings)、哈希(hashes)、列表(lists)、集合(sets)、有序集合(sorted sets ) / ( zset)、位图(bitmaps)、hyperloglogs、带半径查询和流的地理空间索引等数据结构(geospatial indexes)。
数据类型
字符串String
String是Redis最基本的类型,你可以理解成与Memcached一模一样的类型,一个key对应一个value。
String类型是二进制安全的。意味着Redis的string可以包含任何数据。比如jpg图片或者序列化的对象。
String类型是Redis最基本的数据类型,一个Redis中字符串value最多可以是512M
127.0.0.1:6379> set name lczmx
OK
127.0.0.1:6379> get name
"lczmx"
常用命令
命令 | 说明 |
---|---|
set key value | 设置指定 key 的值;NX:key不存在时添加;EX:key超时秒数;PX:key超时毫秒数,与EX互斥 |
get key | 获取指定 key 的值。 |
append key value | 如果 key 已经存在并且是一个字符串, append 命令将指定的 value 追加到该 key 原来值(value)的末尾。 |
strlen key | 返回 key 所储存的字符串值的长度。 |
setnx key value | 只有在 key 不存在时设置 key 的值。 |
incr key | 将 key 中储存的数字值增一。 |
incrby key increment | 将 key 所储存的值加上给定的增量值(increment) 。 |
decr key | 将 key 中储存的数字值减一。 |
decrby key decrement | key 所储存的值减去给定的减量值(decrement) 。 |
getrange key start end | 返回 key 中字符串值的子字符 |
getset key value | 将给定 key 的值设为 value ,并返回 key 的旧值(old value)。 |
setex key seconds value | 将值 value 关联到 key ,并将 key 的过期时间设为 seconds (以秒为单位)。 |
getbit key offset | 对 key 所储存的字符串值,获取指定偏移量上的位(bit)。 |
mget key1 [key2..] | 获取所有(一个或多个)给定 key 的值。 |
setbit key offset value | 对 key 所储存的字符串值,设置或清除指定偏移量上的位(bit)。 |
setrange key offset value | 用 value 参数覆写给定 key 所储存的字符串值,从偏移量 offset 开始。 |
mset key value [key value ...] | 同时设置一个或多个 key-value 对。 |
msetnx key value [key value ...] | 同时设置一个或多个 key-value 对,当且仅当所有给定 key 都不存在。 |
psetex key milliseconds value | 这个命令和 setex 命令相似,但它以毫秒为单位设置 key 的生存时间,而不是像 setex 命令那样,以秒为单位。 |
incrbyfloat key increment | 将 key 所储存的值加上给定的浮点增量值(increment) 。 |
数据结构
String的数据结构为简单动态字符串(Simple Dynamic String,缩写SDS)。是可以修改的字符串,内部结构如下图,采用预分配冗余空间的方式来减少内存的频繁分配。
- 内部为当前字符串实际分配的空间capacity一般要高于实际字符串长度len。
- 当字符串长度小于1M时,扩容都是加倍现有的空间,如果超过1M,扩容时一次只会多扩1M的空间。
- 需要注意的是字符串最大长度为512M。
列表List
Redis 列表是简单的字符串列表,按照插入顺序排序。你可以添加一个元素到列表的头部(左边)或者尾部(右边)。
127.0.0.1:6379> lpush city beijing shanghai guangzhou
(integer) 3
127.0.0.1:6379> lrange city 0 10
1) "guangzhou"
2) "shanghai"
3) "beijing
以上命令,使用lpush可以为city这个键添加一个或多个值(加到左边),在使用
lrange city 0 10
把左面的11个值
[0:10]
取出,列表最多可存储 232 - 1 元素 (4294967295, 每个列表可存储40多亿)。
lpush key value1 [value2] | 将一个或多个值插入到列表头部 |
rpush key value1 [value2] | 将一个或多个值插入到列表尾部 |
lpop key | 移出并获取列表的第一个元素 |
rpop key | 移出并获取列表的最后一个元素 |
llen key | 获取列表长度 |
rpoplpush source destination | 移除source列表的最后一个元素,并将该元素添加到destination列表的头部,并返回 |
lrange key start stop | 获取列表指定范围内 的元素,可以使用负索引 |
lindex key index | 通过索引获取列表中的元素 |
linsert key before/after value1 value2 | 在value1之前/后插入值value2 |
lrem key count value | 从左边删除count个value(从左到右) |
lset key index value | 通过索引设置列表元素的值 |
blpop key1 [key2 ] timeout | 移出并获取列表的第一个元素, 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止 |
brpop key1 [key2 ] timeout | 移出并获取列表的最后一个元素, 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止 |
brpoplpush source destination timeout | 从列表中弹出一个值,将弹出的元素插入到另外一个列表中并返回它; 如果列表没有元素会阻塞列表直到等待超时或发现可弹出元素为止 |
lpushx key value | 将一个值插入到已存在的列表头部 |
rpushx key value | 将一个值插入到已存在的列表尾部 |
ltrim key start stop | 对一个列表进行修剪(trim),就是说,让列表只保留指定区间内的元素,不在指定区间之内的元素都将被删除 |
List的数据结构为快速链表quickList。
首先在列表元素较少的情况下会使用一块连续的内存存储,这个结构是ziplist,也即是压缩列表。它将所有的元素紧挨着一起存储,分配的是一块连续的内存。
当数据量比较多的时候才会改成quicklist。因为普通的链表需要的附加指针空间太大,会比较浪费空间。比如这个列表里存的只是int类型的数据,结构上还需要两个额外的指针prev和next。
Redis将链表和ziplist结合起来组成了quicklist。也就是将多个ziplist使用双向指针串起来使用。这样既满足了快速的插入删除性能,又不会出现太大的空间冗余。
哈希Hash
Redis hash 是一个string 类型的field 和value 的映射表。hash特别适合用于存储对象。添加,删除操作都是O(1)(平均)。
127.0.0.1:6379> hmset user age 18 addr "beijing"
OK
127.0.0.1:6379> hget user age
"18"
127.0.0.1:6379> hget user addr
"beijing"
上面使用hmset创建了一个key:user,它包含两个field(age、addr)分别值(value)为18、beijing
再用hget获取一个字段的值
hset key field value | 将哈希表 key 中的字段 field 的值设为 value 。 |
hget key field | 获取存储在哈希表中指定字段的值。 |
hdel key field1 [field2] | 删除一个或多个哈希表字段 |
hexists key field | 查看哈希表 key 中,指定的字段是否存在。 |
hkeys key | 获取所有哈希表中的字段 |
hvals key | 获取哈希表中所有值。 |
hincrby key field increment | 为哈希表 key 中的指定字段的整数值加上增量 increment 。 |
hsetnx key field value | 只有在字段 field 不存在时,设置哈希表字段的值。 |
hlen key | 获取哈希表中字段的数量 |
hmget key field1 [field2] | 获取所有给定字段的值 |
hmset key field1 value1 [field2 value2 ] | 同时将多个 field-value (域-值)对设置到哈希表 key 中。 |
hgetall key | 获取在哈希表中指定 key 的所有字段和值 |
hincrbyfloat key field increment | 为哈希表 key 中的指定字段的浮点数值加上增量 increment 。 |
hscan key cursor [match pattern] [count count] | 迭代哈希表中的键值对。 |
配置文件相关
hash-max-zipmap-entries 64 # 配置字段最多64 个
hash-max-zipmap-value 512 # 配置value 最大为512 字节
Hash类型对应的数据结构是两种:ziplist(压缩列表),hashtable(哈希表)。当field-value长度较短且个数较少时,使用ziplist,否则使用hashtable。
集合Set
set对外提供的功能与list类似是一个列表的功能,特殊之处在于set是可以自动排重的。当你需要存储一个列表数据,又不希望出现重复数据时,set是一个很好的选择,并且set提供了判断某个成员是否在一个set集合内的重要接口,这个也是list所不能提供的。
Redis的Set是string类型的无序集合。它底层其实是一个value为null的hash表,所以添加,删除,查找的复杂度都是O(1)。
127.0.0.1:6379> sadd name tom kk
(integer) 2
127.0.0.1:6379> sadd name tom
(integer) 0
127.0.0.1:6379> smembers name
1) "kk"
2) "tom"
使用sadd添加一个或多个值, 再使用smembers拿到所有的元素
注意:Set中的元素唯一,所以不能插入一个已经存在的元素
sadd key member1 [member2] | 向集合添加一个或多个成员 |
smembers key | 返回集合中的所有成员 |
sismember key member | 判断 member 元素是否是集合 key 的成员 |
scard key | 获取集合的成员数 |
srem key member1 [member2] | 移除集合中一个或多个成员 |
spop key | 移除并返回集合中的一个随机元素 |
srandmember key [count] | 返回集合中一个或多个随机数(不会删除) |
smove source destination member | 将 member 元素从 source 集合移动到 destination 集合 |
sdiff key1 [key2] | 返回给定所有集合的差集 |
sinter key1 [key2] | 返回给定所有集合的交集 |
sunion key1 [key2] | 返回所有给定集合的并集 |
sdiffstore destination key1 [key2] | 返回给定所有集合的差集并存储在 destination 中 |
sinterstore destination key1 [key2] | 返回给定所有集合的交集并存储在 destination 中 |
sunionstore destination key1 [key2] | 所有给定集合的并集存储在 destination 集合中 |
sscan key cursor [match pattern] [count count] | 迭代集合中的元素 |
Set数据结构是dict字典,字典是用哈希表实现的,它的内部使用hash结构,所有的value都指向同一个内部值。
有序集合Zset
Redis有序集合zset与普通集合set非常相似,是一个没有重复元素的字符串集合。
不同之处是有序集合的每个成员都关联了一个评分(score),这个评分(score)被用来按照从最低分到最高分的方式排序集合中的成员。集合的成员是唯一的,但是评分可以是重复了 。因为元素是有序的, 所以你也可以很快的根据评分(score)或者次序(position)来获取一个范围的元素。访问有序集合的中间元素也是非常快的,因此你能够使用有序集合作为一个没有重复成员的智能列表。
127.0.0.1:6379> zadd top 1 lihua 2 zhangsan 3 lisi
(integer) 3
127.0.0.1:6379> zrange top 0 3
1) "lihua"
2) "zhangsan"
3) "lisi"
zadd key score1 member1 [score2 member2] | 向有序集合添加一个或多个成员,或者更新已存在成员的分数 |
zrange key start stop [withscores] | 通过索引区间返回有序集合指定区间内的成员,带WITHSCORES,可以让分数一起和值返回到结果集。 |
zrangebyscore key min max [withscores] [limit] | 通过分数返回有序集合指定区间内的成员 |
zrevrangebyscore key max min [withscores] | 返回有序集中指定分数区间内的成员,分数从高到低排序 |
zincrby key increment member | 有序集合中对指定成员的分数加上增量 increment |
zrem key member [member ...] | 移除有序集合中的一个或多个成员 |
zcount key min max | 计算在有序集合中指定区间分数的成员数 |
zrank key member | 返回有序集合中指定成员的索引,从0开始 |
zremrangebyscore key min max | 移除有序集合中给定的分数区间的所有成员 |
zcard key | 获取有序集合的成员数 |
zinterstore destination numkeys key [key ...] | 计算给定的一个或多个有序集的交集并将结果集存储在新的有序集合 key 中 |
zlexcount key min max | 在有序集合中计算指定字典区间内成员数量 |
zrangebylex key min max [limit offset count] | 通过字典区间返回有序集合的成员 |
zremrangebylex key min max | 移除有序集合中给定的字典区间的所有成员 |
zremrangebyrank key start stop | 移除有序集合中给定的排名区间的所有成员 |
zrevrange key start stop [withscores] | 返回有序集中指定区间内的成员,通过索引,分数从高到低 |
zrevrank key member | 返回有序集合中指定成员的排名,有序集成员按分数值递减(从大到小)排序 |
SortedSet(zset)是Redis提供的一个非常特别的数据结构,可以给每一个元素value赋予一个权重score,内部的元素会按照权重score进行排序,可以得到每个元素的名次,还可以通过score的范围来获取元素的列表。
zset底层使用了两个数据结构
- hash,hash的作用就是关联元素value和权重score,保障元素value的唯一性,可以通过元素value找到相应的score值。
- 跳跃表,跳跃表的目的在于给元素value排序,根据score的范围获取元素列表。 例子,找值为51的元素:
- 从第2层开始,1节点比51节点小,向后比较。
- 21节点比51节点小,继续向后比较,后面就是NULL了,所以从21节点向下到第1层
- 在第1层,41节点比51节点小,继续向后,61节点比51节点大,所以从41向下
- 在第0层,51节点为要查找的节点,节点被找到,共查找4次。
由此可以看出,跳跃表不像有序链表一样根据顺序以此查找,因此跳跃表的查询效率要更高。
Bitmaps
为了合理地使用操作位能够有效地提高内存使用率和开发效率。Redis提供了Bitmaps这个“数据类型”可以实现对位的操作:
- Bitmaps本身不是一种数据类型, 实际上它就是字符串(key-value) , 但是它可以对字符串的位进行操作。
- Bitmaps单独提供了一套命令, 所以在Redis中使用Bitmaps和使用字符串的方法不太相同。 可以把Bitmaps想象成一个以位为单位的数组, 数组的每个单元只能存储0和1, 数组的下标在Bitmaps中叫做偏移量。
设置Bitmaps中某个偏移量的值(0或1),offset偏移量从0开始 | |
获取Bitmaps中某个偏移量的值 | |
bitcount key start end | 统计字符串从start字节到end字节比特值为1的数量,范围是 |
bitop and(or/not/xor) destkey key1 key2 [key3.…] | 多个Bitmaps进行and(交集) 、 or(并集) 、 not(非) 、 xor(异或) 操作,然后将结果保存在destkey中 |
实例
记录每个用户是否访问过网站。1为访问过,0为未访问。
127.0.0.1:6379> setbit access:user:20210710 1 1
(integer) 0
127.0.0.1:6379> setbit access:user:20210710 2 1
(integer) 0
127.0.0.1:6379> setbit access:user:20210710 5 1
(integer) 0
127.0.0.1:6379> setbit access:user:20210710 7 1
(integer) 0
127.0.0.1:6379> setbit access:user:20210710 8 1
(integer) 0
127.0.0.1:6379> bitcount access:user:20210710 0 -1
(integer) 5
127.0.0.1:6379>
# id为1、2、5、7、8共5个用户访问过
# 通过取值轻松得知该用户是否访问过
127.0.0.1:6379> getbit access:user:20210710 1
(integer) 1
127.0.0.1:6379> getbit access:user:20210710 3
(integer) 0
另外我们还可以使用
bitop
计算哪些用户在哪些时间段访问了,使用and求交集;还可计算出任意一天都访问过网站的用户数量(例如月活跃就是类似这种) , 可以使用or求并集
Bitmaps与set对比:
当多用户且用户活跃时,使用Bitmaps能节省很多的内存空间, 尤其是随着时间推移节省的内存还是非常可观的。
然而当网站每天的独立访问用户很少, 例如只有10万(大量的僵尸用户) , 那么两者的对比如下表所示, 很显然, 这时候使用Bitmaps就不太合适了, 因为基本上大部分位都是0。
HyperLogLog
在工作当中,我们经常会遇到与统计相关的功能需求,比如统计网站PV(PageView页面访问量),可以使用Redis的incr、incrby轻松实现。
但像UV(UniqueVisitor,独立访客)、独立IP数、搜索记录数等需要去重和计数的问题如何解决?这种求集合中不重复元素个数的问题称为基数问题。
解决基数问题有很多种方案:
- 数据存储在MySQL表中,使用distinct count计算不重复个数
-
使用Redis提供的hash、set、bitmaps等数据结构来处理
但是,以上的方案结果精确,但随着数据不断增加,导致占用空间越来越大,对于非常大的数据集是不切实际的。
Redis推出了HyperLogLog,它是用来做基数统计的算法。在输入元素的数量或者体积非常非常大时,计算基数所需的空间总是固定的、并且是很小的,只需要花费 12 KB 内存,就可以计算接近 2^64 个不同元素的基数。
但是,因为 HyperLogLog 只会根据输入元素来计算基数,而不会储存输入元素本身,所不能返回输入的各个元素。
pfadd key element [element ...] | 添加一个或多个元素到 HyperLogLog 中。 近似基数发生变化,返回1,否则返回0 |
pfcount key [key ...] | 计算近似基数 |
pfmerge destkey sourcekey [sourcekey ...] | 将一个或多个HLL合并后的结果存储在destkey中 |
pfmerge可以用来计算每月活跃用户(使用每天的活跃用户来合并计算可得)。
Geospatial
读音:
[ˌdʒiːəʊˈspeɪʃəl]
,意为"地理空间的"。顾名思义,该类型与地理空间相关,它提供了经纬度设置,查询,范围查询,距离查询,经纬度Hash等常见操作。
geoadd key longitude latitude member [longitude latitude member...] | 添加地理位置(经度,纬度,名称),两极无法直接添加 |
geopos key member [member...] | 获得指定地区的坐标值 |
geodist key member1 member2 [m | km |
# geoadd添加
127.0.0.1:6379> geoadd china:city 121.47 31.23 shanghai
(integer) 1
127.0.0.1:6379> geoadd china:city 106.50 29.53 chongqing 114.05 22.52 shenzhen 116.38 39.90 beijing
(integer) 3
# 获取一个地区的经纬度
127.0.0.1:6379> geopos china:city shanghai
1) 1) "121.47000163793563843"
2) "31.22999903975783553"
# 获取shenzhen与beijing之间的直线距离,以km表示
127.0.0.1:6379> geodist china:city shenzhen beijing km
"1945.5740"
127.0.0.1:6379>
全局命令
exists key | 检查给定 key 是否存在 |
del key | key 存在时删除 key |
rename key newkey | 修改 key 的名称 |
expire key seconds | 为给定 key 设置过期时间,以秒计 |
ttl key | 以秒为单位,返回给定 key 的剩余生存时间(ttl, time to live) |
type key | 返回 key 所储存的值的类型 |
select index | 选择数据库 |
auth password | 验证密码 |
dbsize | 查看当前数据库的key的数量 |
flushdb | 清空当前库 |
flushall | 通杀全部库 |
expireat key timestamp | expireat 的作用和 expire 类似,都用于为 key 设置过期时间。 不同在于 expireat 命令接受的时间参数是 unix 时间戳(unix timestamp) |
pexpire key milliseconds | 设置 key 的过期时间以毫秒计 |
pexpireat key milliseconds-timestamp | 设置 key 过期时间的时间戳(unix timestamp) 以毫秒计 |
keys pattern | 查找所有符合给定模式( pattern)的 key,如: |
move key db | 将当前数据库的 key 移动到给定的数据库 db 当中 |
persist key | 移除 key 的过期时间,key 将持久保持 |
pttl key | 以毫秒为单位返回 key 的剩余的过期时间 |
randomkey | 从当前数据库中随机返回一个 key |
dump key | 序列化给定 key ,并返回被序列化的值 |
renamenx key newkey | 仅当 newkey 不存在时,将 key 改名为 newkey |
scan cursor [match pattern] [count count] | 迭代数据库中的数据库键 |
配置文件
reids的配置文件在redis的安装目录下的redis.conf文件(windows平台是redis.windows.conf),当然启动时也可以指定配置文件启动:
redis-sever /etc/redis.conf
。
- 在命令行中获取配置文件:
CONFIG GET CONFIG_SETTING_NAME
- 在命令行中修改配置文件:
所有使用CONFIG SET设置的配置参数将会立即被Redis加载,并从下一个执行的命令开始生效。CONFIG SET CONFIG_SETTING_NAME NEW_CONFIG_VALUE
Units单位
配置大小单位,开头定义了一些基本的度量单位,只支持bytes,不支持bit
大小写不敏感。
# Note on units: when memory size is needed, it is possible to specify
# it in the usual form of 1k 5GB 4M and so forth:
#
# 1k => 1000 bytes
# 1kb => 1024 bytes
# 1m => 1000000 bytes
# 1mb => 1024*1024 bytes
# 1g => 1000000000 bytes
# 1gb => 1024*1024*1024 bytes
#
# units are case insensitive so 1GB 1Gb 1gB are all the same.
INCLUDES包含
# include /path/to/local.conf
# include /path/to/other.conf
指定包含其它的配置文件,可以在同一主机上多个Redis实例之间使用同一份配置文件,而同时各个实例又拥有自己的特定配置文件
网络相关配置
-
bind
默认为127.0.0.1,不写时,可接受任何ip地址的访问
bind 127.0.0.1 -::1
-
protected-mode
设置本机访问保护模式
protected-mode yes
注意:
如果开启了protected-mode,那么在没有设定bind ip且没有设密码的情况下,Redis只允许接受本机的响应
-
port
端口号,默认6379
port 6379
-
tcp-backlog
设置tcp的backlog。backlog是一个连接队列,总和=未完成三次握手队列 + 已经完成三次握手队列。
tcp-backlog 511
注意Linux内核会将这个值减小到/proc/sys/net/core/somaxconn的值(128)
所以需要确认增大/proc/sys/net/core/somaxconn和/proc/sys/net/ipv4/tcp_max_syn_backlog(128)两个值来达到想要的效果
-
timeout
一个空闲的客户端维持多少秒会关闭,0表示关闭该功能。即永不关闭。
timeout 0
-
tcp-keepalive
对访问客户端的一种心跳检测,每个n秒检测一次。
单位为秒,如果设置为0,则不会进行Keepalive检测,建议设置成60
tcp-keepalive 300
GENERAL通用
-
daemonize
是否为后台进程,设置为yes时,守护进程,后台启动。
daemonize yes
-
pidfile
设置存放pid文件的位置,每个实例会产生一个不同的pid文件, 建议设置成
的形式/var/run/redis_端口.pid
pidfile /var/run/redis_6379.pid
-
loglevel
指定日志记录级别,Redis总共支持四个级别:debug、verbose、notice、warning,默认为notice
loglevel notice
-
logfile
日志文件名称
logfile ""
-
databases
设定库的数量 ,默认16个(0 - 15)。
databases 16
SECURITY安全
-
requirepass
设置密码,使用auth命令验证。
# # requirepass foobared
也可以在命令行中设置,但是,那只是临时的。重启redis服务器,密码就还原了
LIMITS限制
-
maxclients
设置redis同时可以与多少个客户端进行连接。如果达到了限制,redis则会拒绝新的连接请求,并且向这些连接请求方发出“max number of clients reached”以作回应。
# maxclients 10000
-
maxmemory
设置redis可以使用的内存量。一旦到达内存使用上限,redis将会试图移除内部数据,移除规则可以通过maxmemory-policy来指定。建议必须设置,否则,将内存占满,造成服务器宕机。
如果redis无法根据移除规则来移除内存中的数据,或者设置了“不允许移除”,那么redis则会针对那些需要申请内存的指令返回错误信息,比如SET、LPUSH等。
但是对于无内存申请的指令,仍然会正常响应,比如GET等。如果你的redis是主redis(说明你的redis有从redis),那么在设置内存使用上限时,需要在系统中留出一些内存空间给同步队列缓存,只有在你设置的是“不移除”的情况下,才不用考虑这个因素。
# maxmemory <bytes>
- maxmemory-policy
volatile-lru -> Evict using approximated LRU, only keys with an expire set. # allkeys-lru -> Evict any key using approximated LRU. # volatile-lfu -> Evict using approximated LFU, only keys with an expire set. # allkeys-lfu -> Evict any key using approximated LFU. # volatile-random -> Remove a random key having an expire set. # allkeys-random -> Remove a random key, any key. # volatile-ttl -> Remove the key with the nearest expire time (minor TTL) # noeviction -> Don't evict anything, just return an error on write operations. # # LRU means Least Recently Used # LFU means Least Frequently Used # # Both LRU, LFU and volatile-ttl are implemented using approximated # randomized algorithms. # # Note: with any of the above policies, when there are no suitable keys for # eviction, Redis will return an error on write operations that require # more memory. These are usually commands that create new keys, add data or # modify existing keys. A few examples are: SET, INCR, HSET, LPUSH, SUNIONSTORE, # SORT (due to the STORE argument), and EXEC (if the transaction includes any # command that requires memory). # # # The default is: # # maxmemory-policy noeviction
- volatile-lru:使用LRU算法移除key,只对设置了过期时间的键;(最近最少使用)
- allkeys-lru:在所有集合key中,使用LRU算法移除key
- volatile-random:在过期集合中移除随机的key,只对设置了过期时间的键
- allkeys-random:在所有集合key中,移除随机的key
- volatile-ttl:移除那些TTL值最小的key,即那些最近要过期的key
- noeviction:不进行移除。针对写操作,只是返回错误信息
-
maxmemory-samples
设置样本数量,LRU算法和最小TTL算法都并非是精确的算法,而是估算值,所以你可以设置样本的大小,redis默认会检查这么多个key并选择其中LRU的那个。
一般设置3到7的数字,数值越小样本越不准确,但性能消耗越小。
# maxmemory-samples 5
其它
名称 | |
---|---|
save seconds changes | 多少秒内,有多少次更新操作,就将数据同步到数据文件,可以多个条件配合,RDB持久化时用到。 |
rdbcompression | 存储至本地数据库时是否压缩数据,默认为 yes,Redis 采用 LZF 压缩,如果为了节省 CPU 时间,可以关闭该选项,但会导致数据库文件变的巨大 |
dbfilename | 指定本地数据库文件名,默认值为 dump.rdb |
dir | 指定本地数据库存放目录,默认./,即启动redis-server的目录 |
appendonly | 是否在每次更新操作后进行日志记录,默认为 no |
appendfilename | 更新日志文件名,默认为 appendonly.aof |
appendfsync | 指定更新日志条件,默认everysec,共有 3 个可选值:no:表示等操作系统进行数据缓存同步到磁盘(快) always:表示每次更新操作后手动调用 fsync() 将数据写到磁盘(慢,安全) everysec:表示每秒同步一次(折中) |
slaveof masterip masterport | 设置当本机为 slave 服务时,设置 master 服务的 IP 地址及端口,在 Redis 启动时,它会自动从 master 进行数据同步 |
masterauth master-password | 当 master 服务设置了密码保护时,slav 服务连接 master 的密码 |
vm-enabled | 指定是否启用虚拟内存机制,默认值为 no |
vm-swap-file | 虚拟内存文件路径,不可多个 Redis 实例共享 |
vm-max-memory | 将所有大于 vm-max-memory 的数据存入虚拟内存,默认值为 0 |
vm-page-size | 多大的数据分一个page |
vm-pages | swap 文件中的 page 数量,磁盘上每 8 个 pages 将消耗 1byte 的内存 |
vm-max-threads | 访问swap文件的线程数,默认值为4 |
glueoutputbuf | 在向客户端应答时,是否把较小的包合并为一个包发送,默认为yes(开启) |
activerehashing | 是否激活重置哈希,默认为yes(开启) |
本文来自博客园,作者:403·Forbidden,转载请注明原文链接:https://www.cnblogs.com/lczmx/p/12974915.html