solarLan 2019-06-26
最近的一个项目中在使用grpc时遇到一个问题,由于client端可多达200,每个端口每10s向grpc server发送一次请求,server端接受client的请求后根据request信息更新数据库,再将数据库和配置文件的某些数据封装后返回给client。原代码的性能是0.26s/request,远远达不到所需性能,其中数据库更新操作耗时达到80%,其中一个优化点就是将数据库更新操作放在独立的线程中。
在次之前没有使用过线程编码,学以致用后本着加深理解的想法,将这个过程记录下来,这里先记下用于线程间通信的队列Queue的相关知识。
Python2中队列库名称为Queue,Python3中已改名为queue,项目使用Python2.7.5版本,自然是使用Queue。
Queue模块中提供了同步的、线程安全的队列类,包括FIFO(先入先出)队列Queue,LIFO(后入先出)队列LifoQueue,和优先级队列PriorityQueue。这些队列都实现了锁原语,可在多线程通信中直接使用。
Queue模块定义了以下类及异常,在队列类中,maxsize限制可入队列数据的数量,值小于等于0时代表不限制:
Queue.Queue(maxsize=0) FIFO队列Queue.LifoQueue(maxsize=0) LIFO队列Queue.PriorityQueue(maxsize=0) 优先级队列Queue.Empty TODOQueue.FullQueue(Queue、LifoQueue、PriorityQueue)对象提供以下方法:
Queue.qsize()Queue.empty()Queue.full()Queue.put(item[, block[, timeout]])Queue.put_nowait(item)put(item, False)Queue.get([block[, timeout]])Queue.get_nowait()get(item, False)Queue.task_done()Queue.join()UpdateThread是单一消费者进程,获取FIFO队列中的数据处理,GrpcThread是multi生产者线程,需要对往队列中丢数据这个操作加锁保证数据先后顺序。
import threading
import Queue
import time
q = Queue.Queue()
q_lock = threading.Lock()
class UpdateThread(threading.Thread):
def __init__(self):
super(self.__class__, self).__init__()
self.setName(self.__class__.__name__)
self._setName = self.setName
@staticmethod
def update_stat():
global q
while not q.empty():
stat = q.get()
print 'Update stat (%s) in db' % stat
def run(self):
while True:
self.update_stat()
time.sleep(0.1)
class GrpcThread(threading.Thread):
def compose_stat(self, stat):
global q
q_lock.acquire()
q.put('%d: %s' % (stat, self.name))
q_lock.release()
return
def run(self):
for i in range(10):
self.compose_stat(i)
time.sleep(0.1)
def launch_update_thread():
UpdateThread().start()
if __name__ == '__main__':
launch_update_thread()
thread1 = GrpcThread()
thread2 = GrpcThread()
thread1.start()
thread2.start()