Python线程池的正确使用方法
目录
- python线程池的正确使用
- 1、为什么要使用线程池呢?
- 2、线程池怎么用呢?
- 3、如何非阻塞的获取线程执行的结果
- 4、线程池的运行策略
Python线程池的正确使用
1、为什么要使用线程池呢?
因为线程执行完任务之后就会被系统销毁,下次再执行任务的时候再进行创建。这种方式在逻辑上没有啥问题。但是系统启动一个新线程的成本是比较高,因为其中涉及与操作系统的交互,操作系统需要给新线程分配资源。打个比方吧!就像软件公司招聘员工干活一样。当有活干时,就招聘一个外包人员干活。当活干完之后就把这个人员辞退掉。你说在这过程中所耗费的时间成本和沟通成本是不是很大。那么公司一般的做法是:当项目立项时就确定需要几名开发人员,然后将这些人员配齐。然后这些人员就常驻在项目组,有活就干,没活就摸鱼。线程池也是同样的道理。线程池可以定义最大线程数,这些线程有任务就执行任务,没任务就进入线程池中歇着。
2、线程池怎么用呢?
线程池的基类是concurrent.futures模块中的Executor类,而Executor
类提供了两个子类,即ThreadPoolExecutor
类和ProcessPoolExecutor
类。其中ThreadPoolExecutor
用于创建线程池
,而ProcessPoolExecutor
用于创建进程池
。本文将重点介绍ThreadPoolExecutor类的使用。首先,让我们来看看ThreadPoolExecutor类的构造函数。这里使用的Python版本是:3.6.7。
def __init__(self, max_workers=None, thread_name_prefix=''): """Initializes a new ThreadPoolExecutor instance. Args: max_workers: The maximum number of threads that can be used to execute the given calls. thread_name_prefix: An optional name prefix to give our threads. """ if max_workers is None: # Use this number because ThreadPoolExecutor is often # used to overlap I/O instead of CPU work. max_workers = (os.cpu_count() or 1) * 5 if max_workers <= 0: raise ValueError("max_workers must be greater than 0") self._max_workers = max_workers self._work_queue = queue.Queue() self._threads = set() self._shutdown = False self._shutdown_lock = threading.Lock() self._thread_name_prefix = (thread_name_prefix or ("ThreadPoolExecutor-%d" % self._counter()))
他的构造函数只有两个参数:一个是max_workers
参数,用于指定线程池的最大线程数,如果不指定的话则默认是CPU核数的5倍。另一个参数是thread_name_prefix
,它用来指定线程池中线程的名称前缀。其他参数:
_shutdown
初始值值为False,默认情况下线程池不销毁,即线程池的生命周期跟项目的生命周期一致。self._work_queue = queue.Queue
()生成缓冲队列。_threads
没有任务被提交时,线程的数量设置为0。_shutdown_lock
指定线程池的锁是Lock锁。- 说完了线程池的创建之后,接着来看看线程池中比较常用的几个方法吧。
submit(self, fn, *args, **kwargs):
- 该方法用提交任务,即将fn函数提交给线程池,*args代表传给fn函数的参数,**kwargs代表以关键字参数的形式为fn函数传入参数。
shutdown(self, wait=True):
- 关闭线程池
map(func, *iterables, timeout=None, chunksize=1):
- 该函数类似于全局函数
map(func,*iterables
),只是该函数将会启动多个线程,以异步方式立即对iterables执行map处理。
程序将task函数通过submit方法提交给线程池之后,线程池会返回一个Future对象,该对象的作用主要是用于获取线程任务函数的返回值。Future提供了如下几个方法。
cancel():
取消该Future代表的线程任务。如果该任务正在执行,不可取消,则该方法返回False;否则,程序会取消该任务,并返回True。result(timeout=None):
获取该 Future 代表的线程任务最后返回的结果。如果 Future 代表的线程任务还未完成,该方法将会阻塞当前线程,其中 timeout 参数指定最多阻塞多少秒。add_done_callback(fn):
为该 Future 代表的线程任务注册一个“回调函数”,当该任务成功完成时,程序会自动触发该 fn 函数。done():
如果该Future代表的线程任务被成功取消或执行完成,则该方法返回True。
来个简单的例子:
该例中创建了一个最大线程数是2的线程池来执行async_add函数。
from concurrent.futuwww.cppcns.comres import ThreadPoolExecutor import threading import time def async_add(max): sum = 0 for i in range(max): sum = sum + i time.sleep(1) print编程客栈(threading.current_thread().name + "执行求和操作求得的和是=" + str(sum)) return sum # 创建两个线程 pool = ThreadPoolExecutor(max_workers=2, thread_name_prefix='测试线程') # 向线程池提交一个task,20作为async_add()函数的参数 future1 = pool.submit(async_add, 20) # 向线程池再提交一个task future2 = pool.submit(async_add, 50) # 判断future1代表的任务是否执行完 time.sleep(2) print(future1.done()) print(future2.done()) # 查看future1代表的任务返回的结果 print('线程一的执行结果是=' + str(future1.result())) # 查看future2代表的任务的返回结果 print('线程二的执行结果是=' + str(future2.result())) print("----" + threading.current_thread().name + "----主线程执行结束-----")
运行结果是:
测试线程_0执行求和操作求得的和是=190
测试线程_1执行求和操作求得的和是=1225 True True 线程一的执行结果是=190 线程二的执行结果是=1225 ----MainThread----主线程执行结束-----
本例中定义了一个最大线程数是2的线程池,并向线程池中提交了两个任务,其中async_add函数就是要执行的任务。在async_add
函数中添加 time.sleep(1)
休眠一秒是为了验证done()方法返回的结果。最后才打印主线程执行结束表明result()方法是阻塞的。如果将result()屏蔽掉。
# 创建两个线程 pool = ThreadPoolExecutor(max_workers=2, thread_name_prefix='测试线程') # 向线程池提交一个task,20作为async_add()函数的参数 future1 = pool.submit(async_add, 20) # 向线程池再提交一个task future2 = pool.submit(async_add, 50) # 判断future1代表的任务是否执行完 print(future1.done()) print(future2.done()) print("----" + threading.current_thread().name + "----主线程执行结束-----")
则运行结果是:
False
False ----MainThread----主线程执行结束----- 测试线程_0执行求和操作求得的和是=190 测试线程_1执行求和操作求得的和是=1225
3、如何非阻塞的获取线程执行的结果
前面介绍的result()方法是通过阻塞的方式来获取线程的运行结果的。那么如果通过非阻塞的方法来获取线程任务最后的返回结果呢?这里就需要使用线程的回调函数来获取线程的返回结果。
from concurrent.futures import ThreadPoolExecutor import threading import time def async_add(max): sum = 0 for i in range(max): sum = sum + i time.sleep(1) print(threading.current_thread().name + "执行求和操作求得的和是=" + str(sum)) return sum with ThreadPoolExecutor(max_workers=2) as pool: # 向线程池提交一个task future1 = pool.submit(async_add, 20) future2 = pool.submit(async_add, 50) # 定义获取结果的函数 def get_result(future): print(threading.current_thread().name + '运行结果:' + str(future.result())) # 查看future1代表的任务返回的结果 future1.add_done_callback(get_result) # 查看future2代表的任务的返回结果 future2.add_done_callback(geXsAlaHt_result) print('------------主线程执行结束----')
运行结果是:
------------编程客栈主线程执行结束----
ThreadPoolExecutor-0_1执行求和操作求得的和是=1225 ThreadPoolExecutor-0_1运行结果:1225 ThreadPoolExecutor-0_0执行求和操作求得的和是=190 ThreadPoolExecutor-0_0运行结果:190
从结果可以看出获取线程执行结果的方法完全没有阻塞到主线程的运行。这里通过add_done_callback
函数向线程池中注册了一个获取线程执行结果的函数get_result。
4、线程池的运行策略
这里有必要介绍一下线程池的执行策略,也就是说当线程池中的任务数大于线程池的最大线程数时,线程池该编程客栈如何处理这些任务呢?处理不了的任务是直接丢弃还是慢慢处理呢?再回答这个问题之前,让我们来看下下面这个例子:这里定义了一个最大线程数是4个线程池,然后向线程池中提交了100个task任务。
def async_add(max): sum = 0 for i in range(max): sum = sum + i time.sleep(1) print(threading.current_thread().name + "执行求和操作求得的和是=" + str(sum)) return sum with ThreadPoolExecutor(max_workers=4) as pool: for i in range(100): pool.submit(async_add, i) print('------------主线程执行结束----')
运行结果是:
------------主线程执行结束----
ThreadPoolExecutor-0_1执行求和操作求得的和是=0 ThreadPoolExecutor-0_0执行求和操作求得的和是=0 ThreadPoolExecutor-0_3执行求和操作求得的和是=3 ThreadPoolExecutor-0_2执行求和操作求得的和是=1 ...省略部分结果..... ThreadPoolExecutor-0_1执行求和操作求得的和是=4656 ThreadPoolExecutor-0_2执行求和操作求得的和是=4753 ThreadPoolExecutor-0_0执行求和操作求得的和是=4560 ThreadPoolExecutor-0_3执行求和操作求得的和是=4851
从运行结果可以看出:一直都是相同的线程来执行这些任务,并且所有的任务都没有被丢弃。并且任务按照先来后到的顺序来执行。这里就需要说到线程池默认的缓冲队列了。self._work_queue = queue.Queue()
该语句会创建一个大小无限制的缓冲队列。该队列是一个 FIFO(先进先出)的常规队列。所以当任务数超过最大线程数时,任务会暂时放在缓冲队列queue中。当线程空闲之后会从缓冲队列中取出任务来执行。
到此这篇关于Python线程池的正确使用方法的文章就介绍到这了,更多相关Python线程池的正确使用内容请搜索我们以前的文章或继续浏览下面的相关文章希望大家以后多多支持我们!
精彩评论