redis的使用,以及耗时定位

2018-12-15  本文已影响172人  Python数据分析实战
一、连接redis

本地连接

redis-server
redis-cli

连接远程服务器的时候使用

$ redis-cli -h host -p port -a password
//eg:$ redis-cli -h 192.168.1.235 -p 6379 -a "password" 

二、redis线程池

 @ staticmethod
  def _create_redis_connection_pool(ip, port, password):
    """创建redis连接池"""

      pool = redis.ConnectionPool(host=ip, port=int(port), db =2, password= password, decode_responses=True)
      redis_tool = redis.Redis(connection_pool=pool)
      return redis_tool

三、管道

redis-py默认在执行每次请求都会创建(连接池申请连接)和断开(归还连接池)一次连接操作,如果想要在一次请求中指定多个命令,则可以使用pipline实现一次请求指定多个命令,并且默认情况下一次pipline 是原子性操作。

#!/usr/bin/env python
# -*- coding:utf-8 -*-

import redis

pool = redis.ConnectionPool(host='192.168.22.132', port=6379)
r = redis.Redis(connection_pool=pool)

# pipe = r.pipeline(transaction=False)
pipe = r.pipeline(transaction=True)

pipe.set('name', 'root')
pipe.set('role', 'root')

pipe.execute()

四、redis的命名空间

这个很重要,命名空间用冒号定义,
例1:set test1:test2:test3 123
例2:set test1:test5 345
其中 test3和test5 是叶子 命名空间可以扩展树的深度,类似于文件夹与文件的关系
查询时也要带上命名空间,感觉也优化了查询

五、定位耗时操作

由于 Redis 没有非常详细的日志,要想知道在 Redis 实例内部都做了些什么是非常困难的。幸运的是 Redis 提供了一个下面这样的命令统计工具:

127.0.0.1:6379> INFO commandstats 
# Commandstats 
cmdstat_get:calls=78,usec=608,usec_per_call=7.79 
cmdstat_setex:calls=5,usec=71,usec_per_call=14.20 
cmdstat_keys:calls=2,usec=42,usec_per_call=21.00 
cmdstat_info:calls=10,usec=1931,usec_per_call=193.10 

通过这个工具可以查看所有命令统计的快照,比如命令执行了多少次,执行命令所耗费的毫秒数(每个命令的总时间和平均时间)
只需要简单地执行 CONFIG RESETSTAT 命令就可以重置,这样你就可以得到一个全新的统计结果。

redis 清空当前数据库(慎用)

redis 127.0.0.1:6379> FLUSHDB
OK

六、redis的认知错误

我们知道redis是以快著称,因为简单有处理的快,作为内存型数据库被大家所熟知和使用。
根据官方定义redis可以存储512M的数据,但是当我们真正使用时如果真的存name大,可能你失去了使用redis的意义,很耗时。
我向redis里存储基本数据类型,读写耗时大约为2-3ms,但当我向redis里存储158k的bytes数据时,读写耗时在20ms以上,偶尔会更高,所以虽然redis支持很大的数据量,但不要使用,会很耗时,这样就失去了使用redis 的意义,后面我会介绍一种更好的方式。

总结:
1> 使用连接池
2> 尽量使用管道
3> 不要读写大数据

上一篇下一篇

猜你喜欢

热点阅读