成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

一日一技:等待多個線程同時結束的兩種方法

開發 前端
我們在寫多線程代碼的時候,可能會需要等待多個線程同時結束,然后再進行后續的流程。例如,我做了一個聚合搜索引擎,用戶輸入一個關鍵詞,我需要同時在很多個搜索引擎上搜索,然后把搜索結果匯總以后返回給用戶。

[[403063]]

我們在寫多線程代碼的時候,可能會需要等待多個線程同時結束,然后再進行后續的流程。例如,我做了一個聚合搜索引擎,用戶輸入一個關鍵詞,我需要同時在很多個搜索引擎上搜索,然后把搜索結果匯總以后返回給用戶。

示例代碼如下:

  1. @app.get('/api/search'
  2. def search(keyword: str): 
  3.     google_result = requests.get('Google 搜索地址').text 
  4.     baidu_result = requests.get('百度搜索地址').text 
  5.     bing_result = requests.get('Bing搜索地址').text 
  6.     result = combine(google_result, baidu_result, bing_result) 
  7.     return {'success'True'result': result} 

從上面這段代碼,大家可能會發現一個問題,就是在請求多個搜索引擎的時候是串行的,先訪問 Google,訪問完成再訪問百度,訪問完成最后訪問 Bing。這樣顯然會浪費大量的時間。

如果你不會async/await,那么為了解決這個問題,你能想到的顯然就是使用多線程。使用3個線程同時訪問 Google、百度和 Bing,然后把結果匯總傳入combine函數,不就解決問題了嗎?

如果僅僅是啟動多個線程,那么做法很簡單:

  1. import threading 
  2.  
  3. def get_url(url): 
  4.     result = requests.get(url, headers=HEADERS).text 
  5.     return result 
  6.  
  7. @app.get('/api/search'
  8. def search(keyword: str): 
  9.     google_thead = threading.Thread(target=get_url, 'Google 搜索地址'
  10.     baidu_thread = threading.Thread(target=get_url, '百度搜索地址'
  11.     bing_thread = threading.Thread(target=get_url, 'Bing搜索地址'
  12.     google_thread.start() 
  13.     baidu_thread.start() 
  14.     bing_thread.start() 
  15.     ... 

現在問題來了,三個線程確實已經啟動了,但你怎么知道到什么時候為止,所有線程都運行完畢?

這里我們給出幾個方法。

使用 join

調用線程的.join()方法,就可以卡住主線程,直到這個子線程運行完畢才能讓主線程繼續運行后面的代碼。所以我們可以修改代碼為:

  1. import threading 
  2.  
  3. def get_url(url): 
  4.     result = requests.get(url, headers=HEADERS).text 
  5.     return result 
  6.  
  7. @app.get('/api/search'
  8. def search(keyword: str): 
  9.     google_thead = threading.Thread(target=get_url, 'Google 搜索地址'
  10.     baidu_thread = threading.Thread(target=get_url, '百度搜索地址'
  11.     bing_thread = threading.Thread(target=get_url, 'Bing搜索地址'
  12.     google_thread.start() 
  13.     baidu_thread.start() 
  14.     bing_thread.start() 
  15.      
  16.     google_thread.join() 
  17.     baidu_thread.join() 
  18.     bing_thread.join() 

但等一等,我怎么拿到子線程的返回呢?在默認情況下,你確實拿不到返回的數據。所以你需要傳入一個東西去子線程接收結果。所以代碼可以改為:

  1. import threading 
  2.  
  3. def get_url(url, output): 
  4.     result = requests.get(url, headers=HEADERS).text 
  5.     output.append(result) 
  6.  
  7. @app.get('/api/search'
  8. def search(keyword: str): 
  9.     result = [] 
  10.     google_thead = threading.Thread(target=get_url, args=['Google 搜索地址', result]) 
  11.     baidu_thread = threading.Thread(target=get_url, args=['百度搜索地址', result]) 
  12.     bing_thread = threading.Thread(target=get_url, args=['Bing搜索地址', result]) 
  13.     google_thread.start() 
  14.     baidu_thread.start() 
  15.     bing_thread.start() 
  16.      
  17.     google_thread.join() 
  18.     baidu_thread.join() 
  19.     bing_thread.join() 
  20.     combine(*result) 

因為線程是共享內存的,所以他們可以直接修改主線程傳入的列表。

在使用.join()的時候,需要小心不要把.join()放錯了地方,否則你的多線程就會變成單線程。詳情可以看我的這篇文章: 等一等,你的多線程可別再亂 join 了。

ThreadPoolExecutor

Python 自帶了一個concurrent模塊,它就是專門用來處理并發問題的。我們也可以使用這個模塊中的ThreadPoolExecutor來解決問題:

  1. from concurrent.futures import ThreadPoolExecutor, as_completed 
  2.  
  3. def get_url(url): 
  4.     result = requests.get(url, headers=HEADERS).text 
  5.     return result 
  6.  
  7. @app.get('/api/search'
  8. def search(keyword: str): 
  9.     tasks = [] 
  10.     with ThreadPoolExecutor() as executor: 
  11.         for url in ['Google 搜索地址''百度搜索地址''Bing搜索地址'
  12.             task = executor.submit(get_url, url) 
  13.             tasks.append(task) 
  14.         result = [x.result() for x in as_completed(tasks)] 
  15.   
  16.     combine(*result) 
  17.     ... 

concurrent.futures里面的as_completed函數接收一個列表,列表里面是多個并發任務。當所有并發任務都運行結束時,它才會返回一個可迭代對象。對它進行迭代以后,每個元素的.result()就是每個子線程運行的返回結果。

其他方法

除了上面兩個方法外,還可以使用multiprocessing.dummy里面的Pool來實現更簡單的多線程。

本文轉載自微信公眾號「未聞Code」,可以通過以下二維碼關注。轉載本文請聯系未聞Code公眾號。

 

責任編輯:武曉燕 來源: 未聞Code
相關推薦

2021-04-05 14:47:55

Python多線程事件監控

2024-07-19 18:23:17

2021-04-27 22:15:02

Selenium瀏覽器爬蟲

2021-10-15 21:08:31

PandasExcel對象

2022-06-28 09:31:44

LinuxmacOS系統

2024-11-13 09:18:09

2022-03-12 20:38:14

網頁Python測試

2025-05-28 03:15:00

Scrapy數據sleep

2021-04-12 21:19:01

PythonMakefile項目

2021-10-08 20:11:40

類方法靜態

2023-10-28 12:14:35

爬蟲JavaScriptObject

2021-09-13 20:38:47

Python鏈式調用

2021-03-12 21:19:15

Python鏈式調用

2021-04-19 23:29:44

MakefilemacOSLinux

2024-07-30 08:11:16

2024-07-30 08:16:18

Python代碼工具

2024-11-11 00:38:13

Mypy靜態類型

2021-10-03 20:08:29

HTTP2Scrapy

2024-05-24 09:07:06

JSONprint字符串

2021-05-08 19:33:51

移除字符零寬
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美视频二区 | 中文视频在线 | 久久久91精品国产一区二区三区 | 日韩一区二区三区在线 | 国产乱肥老妇国产一区二 | www.亚洲成人网| 亚洲a视频 | h视频在线免费 | 亚洲啊v在线 | 超碰在线免费av | 日韩欧美专区 | av黄色片在线观看 | 亚洲视频在线免费 | 精品国产乱码久久久久久影片 | 精品福利在线视频 | 日本天天操 | 国产精品视频网站 | 色婷婷综合久久久中文字幕 | 精品视频在线免费观看 | 黄色欧美在线 | 天天操夜夜操免费视频 | 日韩在线观看中文字幕 | 日本精品久久 | 一区福利视频 | 亚洲精品中文在线观看 | 日韩一区二区不卡 | 欧美 中文字幕 | 亚洲天堂精品久久 | 欧美亚洲综合久久 | 天天爽夜夜骑 | 亚洲精品九九 | 天天色天天色 | 天天躁日日躁狠狠很躁 | 亚洲自拍一区在线观看 | 成人国产在线视频 | 国产1区2区3区 | 久久精品国产v日韩v亚洲 | 91国在线 | 欧美成人精品激情在线观看 | 欧美激情精品久久久久久变态 | 色屁屁在线观看 |