solarLan 2019-06-26
最近的一个项目中在使用grpc时遇到一个问题,由于client端可多达200,每个端口每10s向grpc server发送一次请求,server端接受client的请求后根据request信息更新数据库,再将数据库和配置文件的某些数据封装后返回给client。原代码的性能是0.26s/request,远远达不到所需性能,其中数据库更新操作耗时达到80%,其中一个优化点就是将数据库更新操作放在独立的线程中。
在次之前没有使用过线程编码,学以致用后本着加深理解的想法,将这个过程记录下来,这里先记下用于线程间通信的队列Queue的相关知识。
Python2中队列库名称为Queue,Python3中已改名为queue,项目使用Python2.7.5版本,自然是使用Queue。
Queue模块中提供了同步的、线程安全的队列类,包括FIFO(先入先出)队列Queue,LIFO(后入先出)队列LifoQueue,和优先级队列PriorityQueue。这些队列都实现了锁原语,可在多线程通信中直接使用。
Queue模块定义了以下类及异常,在队列类中,maxsize
限制可入队列数据的数量,值小于等于0时代表不限制:
Queue.Queue(maxsize=0)
FIFO队列Queue.LifoQueue(maxsize=0)
LIFO队列Queue.PriorityQueue(maxsize=0)
优先级队列Queue.Empty
TODO
Queue.Full
Queue(Queue、LifoQueue、PriorityQueue)对象提供以下方法:
Queue.qsize()
Queue.empty()
Queue.full()
Queue.put(item[, block[, timeout]])
Queue.put_nowait(item)
put(item, False)
Queue.get([block[, timeout]])
Queue.get_nowait()
get(item, False)
Queue.task_done()
Queue.join()
UpdateThread
是单一消费者进程,获取FIFO队列中的数据处理,GrpcThread
是multi生产者线程,需要对往队列中丢数据这个操作加锁保证数据先后顺序。
import threading import Queue import time q = Queue.Queue() q_lock = threading.Lock() class UpdateThread(threading.Thread): def __init__(self): super(self.__class__, self).__init__() self.setName(self.__class__.__name__) self._setName = self.setName @staticmethod def update_stat(): global q while not q.empty(): stat = q.get() print 'Update stat (%s) in db' % stat def run(self): while True: self.update_stat() time.sleep(0.1) class GrpcThread(threading.Thread): def compose_stat(self, stat): global q q_lock.acquire() q.put('%d: %s' % (stat, self.name)) q_lock.release() return def run(self): for i in range(10): self.compose_stat(i) time.sleep(0.1) def launch_update_thread(): UpdateThread().start() if __name__ == '__main__': launch_update_thread() thread1 = GrpcThread() thread2 = GrpcThread() thread1.start() thread2.start()