一日一技:Python多線程的事件監控
設想這樣一個場景:
你創建了10個子線程,每個子線程分別爬一個網站,一開始所有子線程都是阻塞等待。一旦某個事件發生:例如有人在網頁上點了一個按鈕,或者某人在命令行輸入了一個命令,10個爬蟲同時開始工作。
肯定有人會想到用Redis來實現這個開關:所有子線程全部監控Redis中名為start_crawl的字符串,如果這個字符串不存在,或者為0,那么就等待1秒鐘,再繼續檢查。如果這個字符串為1,那么就開始運行。
代碼片段可以簡寫為:
- import time
- import redis
- client = redis.Redis()
- while client.get('start_crawl') != 1:
- print('繼續等待')
- time.sleep(1)
這樣做確實可以達到目的,不過每一個子線程都會頻繁檢查Redis。
實際上,在Python的多線程中,有一個Event模塊,天然就是用來實現這個目的的。
Event是一個能在多線程中共用的對象,一開始它包含一個為False的信號標志,一旦在任一一個線程里面把這個標記改為True,那么所有的線程都會看到這個標記變成了True。
我們通過一段代碼來說明它的使用方法:
- import threading
- import time
- class spider(threading.Thread):
- def __init__(self, n, event):
- super().__init__()
- self.n = n
- self.event = event
- def run(self):
- print(f'第{self.n}號爬蟲已就位!')
- self.event.wait()
- print(f'信號標記變為True!!第{self.n}號爬蟲開始運行')
- eve = threading.Event()
- for num in range(10):
- crawler = spider(num, eve)
- crawler.start()
- input('按下回車鍵,啟動所有爬蟲!')
- eve.set()
- time.sleep(10)
運行效果如下圖所示:
在這段代碼中,線程spider在運行以后,會運行到self.event.wait()這一行,然后10個子線程會全部阻塞在這里。而這里的self.event,就是主線程中eve = threading.Event()生成的對象傳入進去的。
在主線程里面,當執行了eve.set()后,所有子線程的阻塞會被同時解除,于是子線程就可以繼續運行了。
本文轉載自微信公眾號「未聞Code」,可以通過以下二維碼關注。轉載本文請聯系未聞Code公眾號。