作者介绍 索宁,擅长Python开发、MySQL、前端等众多技术领域,曾负责众多企业安全架构解决方案,涉猎行业有媒体、出版社、航空运输、医疗、军队、政府、教育等。 本文主题:
一、Memcached 1、简介、安装、使用 Memcached 是一个高性能的分布式内存对象缓存系统,用于动态 Web 应用以减轻数据库负载压力。它通过在内存中缓存数据和对象来减少读取数据库的次数,从而提高动态、数据库驱动网站的速度。Memcached 基于一个存储键/值对的 hashmap。其守护进程(daemon )是用 C写的,但是客户端可以用任何语言来编写,并通过 memcached 协议与守护进程通信。 全球好货,苏宁易购一站购齐
广告
Memcached内存管理机制: Menceched 通过预分配指定的内存空间来存取数据,所有的数据都保存在 memcached 内置的内存中。 利用 Slab Allocation 机制来分配和管理内存。按照预先规定的大小,将分配的内存分割成特定长度的内存块,再把尺寸相同的内存块分成组,这些内存块不会释放,可以重复利用。 当存入的数据占满内存空间时,Memcached 使用 LRU 算法自动删除不是用的缓存数据,即重用过期数据的内存空间。Memcached 是为缓存系统设计的,因此没有考虑数据的容灾问题,和机器的内存一样,重启机器将会丢失,如果希望服务重启数据依然能保留,那么就需要 sina 网开发的 Memcachedb 持久性内存缓冲系统,当然还有常见的 NoSQL 服务如 Redis。 默认监听端口:11211 Memcached安装
Memcached启动 memcached -d -m 10 -u root -l 218.97.240.118 -p 12000 -c 256 -P /tmp/memcached.pid 参数说明: -d 是启动一个守护进程 -m 是分配给Memcache使用的内存数量,单位是MB -u 是运行Memcache的用户 -l 是监听的服务器IP地址 -p 是设置Memcache监听的端口,最好是1024以上的端口 -c 选项是最大运行的并发连接数,默认是1024,按照你服务器的负载量来设定 -P 是设置保存Memcache的pid文件 Memcached命令 存储命令: set/add/replace/append/prepend/cas 获取命令: get/gets 其他命令: delete/stats.. Memcached管理
# memadmin php 工具管理(memcadmin-1.0.12.tar.gz) 1、安装memadmin php工具。 2、 登陆memadmin php。 web方式访问:http://IP地址/memadmin/ 默认用户名密码都为admin。 2、Python 操作 Memcached 1)安装 API 及 基本操作 python 操作 Memcached 使用 Python-memcached 模块 下载安装:https://pypi./pypi/python-memcached import memcache mc = memcache.Client(['192.168.1.5:12000'], debug=True) mc.set('foo', 'bar') ret = mc.get('foo') print ret 2)天生支持集群 python-memcached 模块原生支持集群操作,其原理本质是在内存维护一个主机列表,数字为权重,为3即出现3次,相对应的几率大 mc = memcache.Client([ ('192.168.1.5:12000', 3), # 数字为权重 ('192.168.1.9:12000', 1), ], debug=True) # 那么在内存中主机列表为: # host_list = ['192.168.1.5','192.168.1.5','192.168.1.5','192.168.1.9',] 那么问题来了,集群情况下如何选择服务器存储呢? 如果要创建设置一个键值对(如:k1 = 'v1'),那么它的执行流程如下:
获取值的话也一样
3)add 添加一个键值对,如果 key 已经存在,重复添加执行 add 则抛出异常 import memcache mc = memcache.Client(['192.168.1.5:12000'], debug=True) mc.add('k1', 'v1') # mc.add('k1', 'v2') # 报错,对已经存在的key重复添加,失败!!! 4)replace replace 修改某个 key 的值,如果 key 不存在,则异常 import memcache mc = memcache.Client(['192.168.1.5:12000'], debug=True) # 如果memcache中存在kkkk,则替换成功,否则一场 mc.replace('kkkk','999') 5) set和 set_multi set 设置一个键值对,如果 key 不存在,则创建 set_multi 设置多个键值对,如果 key 不存在,则创建 import memcache mc = memcache.Client(['192.168.1.5:12000'], debug=True) mc.set('name', 'nick') mc.set_multi({'name': 'nick', 'age': '18'}) 6) delete和 delete_multi delete 删除指定的一个键值对 delete_multi 删除指定的多个键值对 import memcache mc = memcache.Client(['192.168.1.5:12000'], debug=True) mc..delete('name', 'nick') mc.delete_multi({'name': 'nick', 'age': '18'}) 7) get和 get_multi get 获取一个键值对 get_multi 获取多个键值对 import memcache mc = memcache.Client(['192.168.1.5:12000'], debug=True) val = mc.get('name') item_dict = mc.get_multi(['name', 'age',]) 8)append和 prepend append 修改指定key的值,在该值 后面 追加内容 prepend 修改指定key的值,在该值 前面 插入内容 import memcache mc = memcache.Client(['192.168.1.5:12000'], debug=True) # 原始值: k1 = 'v1' mc.append('k1', 'after') # k1 = 'v1after' mc.prepend('k1', 'before') # k1 = 'beforev1after' 9) decr和 incr incr 自增,将 Memcached 中的某个值增加 N ( N 默认为1 ) decr 自减,将 Memcached 中的某个值减少 N ( N 默认为1 ) mport memcache mc = memcache.Client(['192.168.1.5:12000'], debug=True) mc.set('k1', '666') mc.incr('k1') # k1 = 667 mc.incr('k1', 10) # k1 = 677 mc.decr('k1') # k1 = 676 mc.decr('k1', 10) # k1 = 666 10) gets和 cas 这两个方法就是传说中的锁 。为了避免脏数据的产生而生: import memcache mc = memcache.Client(['192.168.1.5:12000'], debug=True, cache_cas=True) v = mc.gets('product_count') # 如果有人在gets之后和cas之前修改了product_count,那下面的设置将会执行失败,剖出异常 mc.cas('product_count', '899') 本质:每次执行 gets 时,就从 memcache 中获取一个自增的数字,通过 cas 去修改 gets 到的值时,会携带之前获取的自增值和 memcache 中的自增值进行比较,如果相等,则可以提交,如果不相等,那表示在 gets 和 cas 执行之间,又有其他人执行了 gets(获取了缓冲的指定值),如此一来有可能出现非正常的数据,则不允许修改,并报错。 二、Redis 1、简介、安装、使用、实例 Remote Dictionary Server(Redis)是一个基于 key-value 键值对的持久化数据库存储系统。Redis 和 Memcached 缓存服务很像,但它支持存储的 value 类型相对更多,包括 string (字符串)、list (链表)、set (集合)、zset (sorted set --有序集合)和 hash(哈希类型)。这些数据类型都支持 push/pop、add/remove 及取交集并集和差集及更丰富的操作,而且这些操作都是原子性的。在此基础上,Redis 支持各种不同方式的排序。与Memcached 一样,为了保证效率,数据都是缓存在内存中。区别的是 Redis 会周期性的把更新的数据写入磁盘或者把修改操作写入追加的记录文件,并且在此基础上实现了 master-slave (主从)同步。 Redis 的出现,再一定程度上弥补了 Memcached 这类 key-value 内存换乘服务的不足,在部分场合可以对关系数据库起到很好的补充作用。Redis 提供了 Python,Ruby,Erlang,PHP 客户端,使用方便。 官方文档: http://www.Redis.io/documentation http://www.Redis.cn/ Redis安装和使用实例
至于 Redis 的负载均衡,方案有很多: LVS、keepalived、Twemproxy 有时间再补上吧...
Redis持久化方式有两种: (1)RDB:对内存中数据库状态进行快照; (2)AOF:把每条写命令都写入文件,类似mysql的binlog日志 RDB。 将Redis在内存中的数据库状态保存到磁盘里面,RDB文件是一个经过压缩的二进制文件,通过该文件可以还原生成RDB文件时的数据库状态。 RDB的生成方式: (1)执行命令手动生成
(2)通过配置自动生成
例如: save 900 1 save 300 10 save 60 10000 那么只要满足以下三个条件中的任意一个,BGSAVE命令就会被执行:
AOF AOF持久化是通过保存Redis服务器所执行的写命令来记录数据库状态的。 AOF文件刷新的方式,有三种: (1)appendfsync always - 每提交一个修改命令都调用fsync刷新到AOF文件,非常非常慢,但也非常安全; (2)appendfsync everysec - 每秒钟都调用fsync刷新到AOF文件,很快,但可能会丢失一秒以内的数据; (3)appendfsync no - 依靠OS进行刷新,Redis不主动刷新AOF,这样最快,但安全性就差。 默认并推荐每秒刷新,这样在速度和安全上都做到了兼顾。 数据恢复 RDB方式: RDB文件的载入工作是在服务器启动时自动执行的,没有专门用于载入RDB文件的命令,只要Redis服务器在启动时检测到RDB文件存在,它就会自动载入RDB文件,服务器在载入RDB文件期间,会一直处于阻塞状态,直到载入工作完成为止。 AOF方式 服务器在启动时,通过载入和执行AOF文件中保存的命令来还原服务器关闭之前的数据库状态,具体过程: (1)载入AOF文件 (2)创建模拟客户端 (3)从AOF文件中读取一条命令 (4)使用模拟客户端执行命令 (5)循环读取并执行命令,直到全部完成 如果同时启用了RDB和AOF方式,AOF优先,启动时只加载AOF文件恢复数据。 2、Python 操作 Redis python安装 Redis 模块: $ sudo pip install Redis or $ sudo easy_install Redis or $ sudo python setup.py install 详见: https://github.com/WoLpH/Redis-py https://pypi./pypi/Redis https://Redislabs.com/python-Redis API的使用 1)操作模式 redis-py 提供两个类 Redis 和 StrictRedis 用于实现 Redis 的操作命令,StrictRedis 用于实现大部分官方的命令,并使用官方的语法和命令,Redis 是 StrictRedis 的子类,用于向后兼容旧版本的 redis-py。 import redis r =redis.redis(host='192.168.1.5', port=6379) r.set('foo', 'Bar') print r.get('foo') 2)连接池 redis-py 使用 connection pool 来管理对一个 Redis server 的所有连接,避免每次建立、释放连接带来的额外开销。默认每个 Redis 实例都会维护着一个自己的连接池。也可以覆盖直接建立一个连接池,然后作为参数 Redis,这样就可以实现多个 Redis 实例共享一个连接池资源。实现客户端分片或有连接如何管理更细的颗粒控制。 pool = redis.ConnectionPool(host='192.168.1.5', port=6379) r = redis.redis(connection_pool=pool) r.set('foo', 'Bar') print r.get('foo') 3)操作 分为五种数据类型,见下图: ①String 操作,String 在内存中格式是一个 name 对应一个 value 来存储 ②Hash 操作,Redis 中 Hash 在内存中的存储格式类似字典。 ③List操作,Redis 中的 List 在在内存中按照一个 name 对应一个 List 来存储,像变量对应一个列表。 ④Set 操作,Set 集合就是不允许重复的列表。 ⑤有序集合,在集合的基础上,为每个元素排序;元素的排序需要根据另外一个值来进行比较,所以对于有序集合,每一个元素有两个值:值和分数,分数是专门来做排序的。 4)管道 默认情况下,Redis-py 每次在执行请求时都会创建和断开一次连接操作(连接池申请连接,归还连接池),如果想要在一次请求中执行多个命令,则可以使用 pipline 实现一次请求执行多个命令,并且默认情况下 pipline 是原子性操作。 见以下实例: import redis pool = redis.ConnectionPool(host='10.211.55.4', port=6379) r = redis.redis(connection_pool=pool) # pipe = r.pipeline(transaction=False) pipe = r.pipeline(transaction=True) r.set('name', 'nick') r.set('age', '18') pipe.execute() 5) 发布和订阅 发布者:服务器 订阅者:Dashboad 和数据处理 发布订阅的 Demo 如下:
订阅者: 发布者: 三、RabbitMQ 1、简介、安装、使用 RabbitMQ 是一个在 AMQP 基础上完成的,可复用的企业消息系统。他遵循 Mozilla Public License 开源协议。 MQ 全称为 Message Queue, 消息队列(MQ)是一种应用程序对应用程序的通信方式。应用程序通过读写出入队列的消息(针对应用程序的数据)来通信,而无需专用连接来链接它们。消息传递指的是程序之间通过在消息中发送数据进行通信,而不是通过直接调用彼此来通信,直接调用通常是用于诸如远程过程调用的技术。排队指的是应用程序通过 队列来通信。队列的使用除去了接收和发送应用程序同时执行的要求。 流程上生产者把消息放到队列中去, 然后消费者从队列中取出消息。
RabbitMQ安装 2、使用API操作RabbitMQ 基于队列 Queue 实现生产者消费者模型:
RabbitMQ 实现 1、acknowledgment 消息不丢失 no-ack = False,如果消费者由于某些情况宕了(its channel is closed, connection is closed, or TCP connection is lost),那 RabbitMQ 会重新将该任务放入队列中。 在实际应用中,可能会发生消费者收到Queue中的消息,但没有处理完成就宕机(或出现其他意外)的情况,这种情况下就可能会导致消息丢失。为了避免这种情况发生,我们可以要求消费者在消费完消息后发送一个回执给RabbitMQ,RabbitMQ收到消息回执(Message acknowledgment)后才将该消息从Queue中移除;如果RabbitMQ没有收到回执并检测到消费者的RabbitMQ连接断开,则RabbitMQ会将该消息发送给其他消费者(如果存在多个消费者)进行处理。这里不存在timeout概念,一个消费者处理消息时间再长也不会导致该消息被发送给其他消费者,除非它的RabbitMQ连接断开。 这里会产生另外一个问题,如果我们的开发人员在处理完业务逻辑后,忘记发送回执给RabbitMQ,这将会导致严重的bug——Queue中堆积的消息会越来越多;消费者重启后会重复消费这些消息并重复执行业务逻辑…… 消费者 2、durable 消息不丢失 如果我们希望即使在RabbitMQ服务重启的情况下,也不会丢失消息,我们可以将Queue与Message都设置为可持久化的(durable),这样可以保证绝大部分情况下我们的RabbitMQ消息不会丢失。但依然解决不了小概率丢失事件的发生(比如RabbitMQ服务器已经接收到生产者的消息,但还没来得及持久化该消息时RabbitMQ服务器就断电了),如果我们需要对这种小概率事件也要管理起来,那么我们要用到事务。由于这里仅为RabbitMQ的简单介绍,所以这里将不讲解RabbitMQ相关的事务。 需要改两处地方: 生产者 消费者 3、消息获取顺序 默认情况下,消费者拿消息队列里的数据是按平均分配,例如:消费者1 拿队列中 奇数 序列的任务,消费者2 拿队列中 偶数 序列的任务。 channel.basic_qos(prefetch_count=1) 表示谁来谁取,不再按照奇偶数排列,这个性能较高的机器拿的任务就多。 消费者 4、发布订阅 发布订阅和简单的消息队列区别在于,发布订阅者会将消息发送给所有的订阅者,而消息队列中的数据被消费一次便消失。所以,RabbitMQ 实现发布订阅时,会为每一个订阅者创建一个队列,而发布者发布消息的时候,会将消息放置在所有相关的队列中。 exchange type = fanout 发布者 订阅者 5、关键字发送 第4步实例中,发送消息必须明确指定某个队列并向其中发送消息,当然,RabbitMQ 还支持根据关键字发送(队列绑定关键字),发送者将消息发送到 exchange,exchange 根据关键字 判定应该将数据发送至指定队列。 exchange type = direct 消费者 生产者 6、模糊匹配 exchange type = topic 在 topic 类型下,可以让队列绑定几个模糊的关键字,之后发送者将数据发送到 exchange,exchange 将传入”路由值“和 ”关键字“进行匹配,匹配成功,则将数据发送到指定队列。 匹配基本规则及示例:
发送者路由值 队列中 www.suoning.python www.* -- 不匹配 www.suoning.python www.# -- 匹配 消费者 生产者 提示:点击底部【阅读原文】可获取原文代码,赶紧收藏吧。 相关专题:
精选专题(官网:dbaplus.cn) ◆近期热文 ◆ 从SQL改写到SQL重写,什么样的SQL才是好SQL?与MySQL传统复制相比,GTID有哪些独特的复制姿势?当当网资深DBA:DB运维四大现代化的实现写给DBA,也写给想从事数据库工作的你平均提速20倍!Oracle 12c In-Memory最佳实践 ◆MVP专栏 ◆ 杨志洪丨杨建荣丨邹德裕丨韩锋丨欧阳辰 网易丨腾讯云丨百度丨朱祥磊丨卢钧轶 |
|
来自: waitingnothing > 《网关》