python實現(xiàn)多進程代碼示例
想要充分利用多核CPU資源,Python中大部分情況下都需要使用多進程,Python中提供了multiprocessing這個包實現(xiàn)多進程。multiprocessing支持子進程、進程間的同步與通信,提供了Process、Queue、Pipe、Lock等組件。
開辟子進程
multiprocessing中提供了Process類來生成進程實例
Process([group [, target [, name [, args [, kwargs]]]]])
- group分組,實際上不使用
- target表示調用對象,你可以傳入方法的名字
- args表示給調用對象以元組的形式提供參數(shù),比如target是函數(shù)a,他有兩個參數(shù)m,n,那么該參數(shù)為args=(m, n)即可
- kwargs表示調用對象的字典
- name是別名,相當于給這個進程取一個名字
先來個小例子:
# -*- coding:utf-8 -*-
from multiprocessing import Process, Pool
import os
import time
def run_proc(wTime):
n = 0
while n < 3:
print "subProcess %s run," % os.getpid(), "{0}".format(time.ctime()) #獲取當前進程號和正在運行是的時間
time.sleep(wTime) #等待(休眠)
n += 1
if __name__ == "__main__":
p = Process(target=run_proc, args=(2,)) #申請子進程
p.start() #運行進程
print "Parent process run. subProcess is ", p.pid
print "Parent process end,{0}".format(time.ctime())
運行結果:
Parent process run. subProcess is 30196
Parent process end,Mon Mar 27 11:20:21 2017
subProcess 30196 run, Mon Mar 27 11:20:21 2017
subProcess 30196 run, Mon Mar 27 11:20:23 2017
subProcess 30196 run, Mon Mar 27 11:20:25 2017
根據運行結果可知,父進程運行結束后子進程仍然還在運行,這可能造成僵尸( zombie)進程。
通常情況下,當子進程終結時,它會通知父進程,清空自己所占據的內存,并在內核里留下自己的退出信息。父進程在得知子進程終結時,會從內核中取出子進程的退出信息。但是,如果父進程早于子進程終結,這可能造成子進程的退出信息滯留在內核中,子進程成為僵尸(zombie)進程。當大量僵尸進程積累時,內存空間會被擠占。
有什么辦法可以避免僵尸進程呢?
這里介紹進程的一個屬性 deamon,當其值為TRUE時,其父進程結束,該進程也直接終止運行(即使還沒運行完)。
所以給上面的程序加上p.deamon = true,看看效果。
# -*- coding:utf-8 -*-
from multiprocessing import Process, Pool
import os
import time
def run_proc(wTime):
n = 0
while n < 3:
print "subProcess %s run," % os.getpid(), "{0}".format(time.ctime())
time.sleep(wTime)
n += 1
if __name__ == "__main__":
p = Process(target=run_proc, args=(2,))
p.daemon = True #加入daemon
p.start()
print "Parent process run. subProcess is ", p.pid
print "Parent process end,{0}".format(time.ctime())
執(zhí)行結果:
Parent process run. subProcess is 31856
Parent process end,Mon Mar 27 11:40:10 2017
這是問題又來了,子進程并沒有執(zhí)行完,這不是所期望的結果。有沒辦法將子進程執(zhí)行完后才讓父進程結束呢?
這里引入p.join()方法,它使子進程執(zhí)行結束后,父進程才執(zhí)行之后的代碼
# -*- coding:utf-8 -*-
from multiprocessing import Process, Pool
import os
import time
def run_proc(wTime):
n = 0
while n < 3:
print "subProcess %s run," % os.getpid(), "{0}".format(time.ctime())
time.sleep(wTime)
n += 1
if __name__ == "__main__":
p = Process(target=run_proc, args=(2,))
p.daemon = True
p.start()
p.join() #加入join方法
print "Parent process run. subProcess is ", p.pid
print "Parent process end,{0}".format(time.ctime())
執(zhí)行結果:
subProcess 32076 run, Mon Mar 27 11:46:07 2017
subProcess 32076 run, Mon Mar 27 11:46:09 2017
subProcess 32076 run, Mon Mar 27 11:46:11 2017
Parent process run. subProcess is 32076
Parent process end,Mon Mar 27 11:46:13 2017
這樣所有的進程就能順利的執(zhí)行了。
將進程定義成類
通過繼承Process類,來自定義進程類,實現(xiàn)run方法。實例p通過調用p.start()時自動調用run方法。
如下:
# -*- coding:utf-8 -*-
from multiprocessing import Process, Pool
import os
import time
class Myprocess(Process):
def __init__(self, wTime):
Process.__init__(self)
self.wTime = wTime
def run(self):
n = 0
while n < 3:
print "subProcess %s run," % os.getpid(), "{0}".format(time.ctime())
time.sleep(self.wTime)
n += 1
if __name__ == "__main__":
p = Myprocess(2)
p.daemon = True
p.start() #自動調用run方法
p.join()
print "Parent process run. subProcess is ", p.pid
print "Parent process end,{0}".format(time.ctime())
執(zhí)行結果和上一個例子相同。
創(chuàng)建多個進程
很多時候系統(tǒng)都需要創(chuàng)建多個進程以提高CPU的利用率,當數(shù)量較少時,可以手動生成一個個Process實例。當進程數(shù)量很多時,或許可以利用循環(huán),但是這需要程序員手動管理系統(tǒng)中并發(fā)進程的數(shù)量,有時會很麻煩。這時進程池Pool就可以發(fā)揮其功效了??梢酝ㄟ^傳遞參數(shù)限制并發(fā)進程的數(shù)量,默認值為CPU的核數(shù)。
直接上例子:
# -*- coding:utf-8 -*-
from multiprocessing import Process,Pool
import os,time
def run_proc(name): ##定義一個函數(shù)用于進程調用
for i in range(5):
time.sleep(0.2) #休眠0.2秒
print 'Run child process %s (%s)' % (name, os.getpid())
#執(zhí)行一次該函數(shù)共需1秒的時間
if __name__ =='__main__': #執(zhí)行主進程
print 'Run the main process (%s).' % (os.getpid())
mainStart = time.time() #記錄主進程開始的時間
p = Pool(8) #開辟進程池
for i in range(16): #開辟14個進程
p.apply_async(run_proc,args=('Process'+str(i),))#每個進程都調用run_proc函數(shù),
#args表示給該函數(shù)傳遞的參數(shù)。
print 'Waiting for all subprocesses done ...'
p.close() #關閉進程池
p.join() #等待開辟的所有進程執(zhí)行完后,主進程才繼續(xù)往下執(zhí)行
print 'All subprocesses done'
mainEnd = time.time() #記錄主進程結束時間
print 'All process ran %0.2f seconds.' % (mainEnd-mainStart) #主進程執(zhí)行時間
執(zhí)行結果:
開頭部分
Run the main process (30920).
Waiting for all subprocesses done …
Run child process Process0 (32396)
Run child process Process3 (25392)
Run child process Process1 (28732)
Run child process Process2 (32436)
末尾部分:
Run child process Process15 (25880)
All subprocesses done
All process last 2.49 seconds.
相關說明:
這里進程池對并發(fā)進程的限制數(shù)量為8個,而程序運行時會產生16個進程,進程池將自動管理系統(tǒng)內進程的并發(fā)數(shù)量,其余進程將會在隊列中等待。限制并發(fā)數(shù)量是因為,系統(tǒng)中并發(fā)的進程不是越多越好,并發(fā)進程太多,可能使CPU大部分的時間用于進程調度,而不是執(zhí)行有效的計算。
采用多進程并發(fā)技術時,就單個處理機而言,其對進程的執(zhí)行是串行的。但具體某個時刻哪個進程獲得CPU資源而執(zhí)行是不可預知的(如執(zhí)行結果的開頭部分,各進程的執(zhí)行順序不定),這就體現(xiàn)了進程的異步性。
如果單個程序執(zhí)行14次run_proc函數(shù),那么它會需要至少16秒,通過進程的并發(fā),這里只需要2.49秒,可見并發(fā)的優(yōu)勢。
以上就是本文的全部內容,希望對大家的學習有所幫助,也希望大家多多支持腳本之家。
相關文章
Python 中如何使用 setLevel() 設置日志級別
這篇文章主要介紹了在 Python 中使用setLevel() 設置日志級別,Python 提供了一個單獨的日志記錄模塊作為其標準庫的一部分,以簡化日志記錄,本文將討論日志記錄 setLevel 及其在 Python 中的工作方式,需要的朋友可以參考下2023-07-07
Python用于學習重要算法的模塊pygorithm實例淺析
這篇文章主要介紹了Python用于學習重要算法的模塊pygorithm,結合實例形式簡單分析了pygorithm模塊的功能、算法調用、源碼獲取、時間復雜度計算等相關操作技巧,需要的朋友可以參考下2018-08-08
python中利用隊列asyncio.Queue進行通訊詳解
asyncio是Python 3.4版本引入的標準庫,直接內置了對異步IO的支持。 下面這篇文章主要給大家介紹了關于python中利用隊列asyncio.Queue進行通訊的相關資料,文中通過示例代碼介紹的非常詳細,需要的朋友可以參考下。2017-09-09
Pytorch自定義Dataset和DataLoader去除不存在和空數(shù)據的操作
這篇文章主要介紹了Pytorch自定義Dataset和DataLoader去除不存在和空數(shù)據的操作,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2021-03-03
python使用wxpy輕松實現(xiàn)微信防撤回的方法
今天小編就為大家分享一篇python使用wxpy輕松實現(xiàn)微信防撤回的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-02-02
Python實現(xiàn)PS濾鏡Fish lens圖像扭曲效果示例
這篇文章主要介紹了Python實現(xiàn)PS濾鏡Fish lens圖像扭曲效果,結合實例形式分析了Python實現(xiàn)PS濾鏡的圖像扭曲效果相關操作技巧,需要的朋友可以參考下2018-01-01

