成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

想提高計算速度?作為數據科學家你應該知道這些Python多線程、進程知識

大數據 后端
眾所周知,數據科學是處理大量數據并從中提取有用見解的科學。通常情況下,我們對數據執(zhí)行的操作很容易并行化,這意味著不同的處理代理可以一次對數據執(zhí)行一個操作,最后進行組合以獲得完整的結果。

每個數據科學項目遲早都會面臨一個不可避免的挑戰(zhàn):速度問題。使用更大的數據集會導致處理速度變慢,因此最終必須想辦法優(yōu)化算法的運行時間。正如你們大多數人已經知道的,并行化是這種優(yōu)化的必要步驟。python 為并行化提供了兩個內置庫:多處理和線程。在這篇文章中,我們將探討數據科學家如何在兩者之間進行選擇,以及在這樣做時應注意哪些因素。

想提高計算速度?作為數據科學家你應該知道這些Python多線程、進程知識

并行計算與數據科學

眾所周知,數據科學是處理大量數據并從中提取有用見解的科學。通常情況下,我們對數據執(zhí)行的操作很容易并行化,這意味著不同的處理代理可以一次對數據執(zhí)行一個操作,最后進行組合以獲得完整的結果。

為了更好地解釋并行性,讓我們拿一個真實世界的例子作為類比。假設你需要打掃你家的三個房間。你可以自己打掃,打掃完一個再打掃另一個,也可以讓你的兩個兄弟姐妹幫你打掃,每個人打掃一個房間。在后一種方法中,每個人完成整個任務的一部分,從而減少了完成任務所需的總時間。這就是實際中的并行性。

并行處理可以用 python 以兩種不同的方式實現:多處理和線程。

多處理與線程:理論

基本上,多處理和線程是實現并行計算的兩種方法,分別使用進程和線程作為處理代理。為了理解它們的工作原理,我們必須搞清楚什么是進程和線程。

想提高計算速度?作為數據科學家你應該知道這些Python多線程、進程知識

進程

進程是正在執(zhí)行的計算機程序的實例。每個進程都有自己的內存空間,用來存儲正在運行的指令,以及需要存儲和訪問才能執(zhí)行的任何數據。

線程

線程是進程的組件,可以并行運行。一個進程中可以有多個線程,它們共享相同的內存空間,即父進程的內存空間。這意味著要執(zhí)行的代碼以及程序中聲明的所有變量將由所有線程共享。

想提高計算速度?作為數據科學家你應該知道這些Python多線程、進程知識

例如,讓我們回想一下正在你的計算機上運行的程序。你可能正在瀏覽器中閱讀本文,瀏覽器可能打開了多個選項卡。你也可以同時通過 Spotify 桌面應用程序收聽音樂。瀏覽器和 spotify 應用程序是不同的進程;每個進程都可以使用多個進程或線程來實現并行性。瀏覽器中的不同選項卡可能在不同的線程中運行。Spotify 可以在一個線程中播放音樂,在另一個線程中從 Internet 下載音樂,并使用第三個線程顯示圖形用戶界面。這稱為多線程。對多個進程進行多處理也可以做到這一點。事實上,像 chrome 和 firefox 這樣的大多數現代瀏覽器使用多處理,而不是多線程來處理多個選項卡。

技術細節(jié)

一個進程的所有線程都存在于同一個內存空間中,而進程有各自的內存空間。

與進程相比,線程更輕量級,開銷更低。生成進程比生成線程慢一點。

在線程之間共享對象更容易,因為它們共享相同的內存空間。為了實現同一個進程間通信,我們必須使用某種 IPC (inter-process communication) 模型,它通常由 OS 提供。

并行計算的陷阱

將并行性引入程序并不總是一個正和博弈,也有一些陷阱需要注意。其中,最重要的是下面的這些問題。

  • 競爭條件:正如我們已經討論過的,線程有一個共享內存空間,因此它們可以訪問共享變量。當多個線程試圖同時更改同一個變量時,會出現競爭條件。線程調度程序可以在線程之間任意交換,因此我們無法知道線程嘗試更改數據的順序。這可能會導致兩個線程中的任何一個出現不正確的行為,特別是當線程決定基于變量的值執(zhí)行某些操作時。為了防止這種情況發(fā)生,可以在修改變量的代碼段周圍放置互斥鎖,以便一次只能有一個線程寫入變量。
  • 饑餓:當一個線程在較長時間內被拒絕訪問某個特定的資源時,就會發(fā)生饑餓,在這種情況下,整個程序的速度會減慢。這可能是由于線程調度算法設計不當而產生的意外副作用。
  • 死鎖:過度使用互斥鎖也有一個缺點——它會在程序中引入死鎖。死鎖是一個線程等待另一個線程釋放鎖時的狀態(tài),但另一個線程需要一個資源來完成第一個線程保持的操作。這樣,兩個線程都會停止,程序也會停止。死鎖可以被認為是饑餓的極端情況。為了避免這種情況,我們必須小心不要引入太多相互依賴的鎖。
  • 活鎖:活鎖是指線程在循環(huán)中繼續(xù)運行,但沒有任何進展。這也是由于互斥鎖設計不當和使用不當造成的。

python 中的多處理和線程

全局解釋器鎖

說到 python,有一些奇怪的地方需要記住。我們知道線程共享相同的內存空間,因此必須采取特殊的預防措施,以便兩個線程不會寫入相同的內存位置。CPython 解釋器使用名為 GIL 的機制或全局解釋器鎖來處理這個問題。

python wiki 上面的資料:

  • 在 CPython 中,全局解釋器鎖(GIL)是一個互斥鎖,它保護對 python 對象的訪問過程,防止多個線程同時執(zhí)行 python 字節(jié)碼。這個鎖是必要的,這主要是因為 CPython 的內存管理不是線程安全的。

了解 python GIL 的詳細信息,請查看

GIL 完成了任務,但付出了代價。它在解釋器級別上有效地序列化指令。其工作原理如下:任何線程要執(zhí)行任何函數,都必須獲取全局鎖。一次只有一個線程可以獲取該鎖,這意味著解釋器最終會以串行方式運行指令。這種設計使得內存管理線程安全,但結果是,它根本不能利用多個 cpu 內核。在單核 cpu 中,這不是什么大問題。但是如果你使用多核 cpu,這個全局鎖最終會成為一個瓶頸。

但是,如果你的程序在其他地方(例如在網絡、IO 或用戶交互中)有更嚴重的瓶頸,則此瓶頸將變得無關緊要。在這些情況下,線程是一種完全有效的并行化方法。但對于 CPU 受限的程序,線程最終會使程序變慢。讓我們通過一些示例用例來探討這個問題。

線程的使用案例

GUI 程序始終使用線程來使應用程序響應。例如,在文本編輯程序中,一個線程負責記錄用戶輸入,另一個線程負責顯示文本,第三個線程負責拼寫檢查,等等。在這里,程序必須等待用戶交互,這是最大的瓶頸。使用多處理不會使程序更快。

線程的另一個用例是 io 綁定或網絡綁定的程序,例如 web-scrapers。在這種情況下,多個線程可以同時處理多個網頁的刮擦。線程必須從 Internet 下載網頁,這將是最大的瓶頸,因此線程是一個完美的解決方案。Web 服務器是受網絡約束的,工作原理與此類似;有了它們,多處理就沒有線程的優(yōu)勢了。另一個相關的例子是 tensorflow,它使用線程池并行地轉換數據。

多處理的使用案例

如果程序是 CPU 密集型的,并且不需要進行任何 IO 或用戶交互,那么多處理就比線程更加突出。例如,任何一個只處理數字的程序都可以使用多處理得到極大的加速;事實上,線程可能會減慢它的速度。一個有趣的實際例子是 Pytorch Dataloader,它使用多個子進程將數據加載到 GPU 中。

python 中的并行化

python 為同名的并行化方法提供了兩個庫——多處理和線程。盡管它們之間有著根本的區(qū)別,但這兩個庫提供了非常相似的 API(從 python 3.7 開始)。讓我們來具體看看吧。 

  1. import threading  
  2. import random  
  3. from functools import reduce  
  4.  
  5. def func(number): 
  6.    random_list = random.sample(range(1000000), number) 
  7.    return reduce(lambda x, y: x*y, random_list)  
  8. number = 50000  
  9. thread1 = threading.Thread(target=func, args=(number,))  
  10. thread2 = threading.Thread(target=func, args=(number,))  
  11.  
  12. thread1.start()  
  13. thread2.start()  
  14.  
  15. thread1.join()  
  16. thread2.join() 

你可以看到,我創(chuàng)建了一個函數 func,它創(chuàng)建一個隨機數列表,然后按順序將其所有元素相乘。如果物品數量足夠大,比如說 5 萬或 10 萬件,這可能是一個相當繁重的過程。

然后,我創(chuàng)建了兩個線程來執(zhí)行同一個函數。線程對象有一個異步啟動線程的 start 方法。如果我們想等待它們終止并返回,我們必須調用 join 方法,這就是我們在上面所做的。

如你所見,在后臺將新線程轉到任務的 API 非常簡單。最棒的是,用于多處理的 API 也幾乎完全相同;讓我們來檢查一下吧。

  1. import multiprocessing  
  2. import randomfrom functools  
  3. import reduce  
  4.  
  5. def func(number): 
  6.    random_list = random.sample(range(1000000), number) 
  7.    return reduce(lambda x, y: x*y, random_list) 
  8.  
  9. number = 50000  
  10. process1 = multiprocessing.Process(target=func, args=(number,)) 
  11. process2 = multiprocessing.Process(target=func, args=(number,))  
  12.  
  13. process1.start()  
  14. process2.start()  
  15.  
  16. process1.join()  
  17. process2.join() 

在這里它只是交換線程。有著多處理的線程。

顯然,你可以用它做很多事情,但這不在本文的范圍內,所以我們不在這里討論。如果你有興趣了解更多信息,請查看這里和這里的文檔:https://docs.python.org/3/library/threading.html 和 https://docs.python.org/3/library/threading.html 。

基準點

現在我們已經了解了實現并行化的代碼是什么樣子的,讓我們回到性能問題上來。如前所述,線程不適合用于 CPU 限制的任務;在這些情況下,它最終成為一個瓶頸。我們可以使用一些簡單的基準來驗證這一點。

首先,讓我們看看在我上面展示的代碼示例中,線程處理與多處理是如何比較的。請記住,此任務不涉及任何類型的 IO,因此它是純 CPU 綁定的任務。

想提高計算速度?作為數據科學家你應該知道這些Python多線程、進程知識

讓我們看看一個 IO 綁定任務的類似基準。例如,以下函數: 

  1. import requestsdef func(number): 
  2.    url = 'http://example.com/' 
  3.    for i in range(number): 
  4.        response = requests.get(url) 
  5.        with open('example.com.txt''w'as output
  6.            output.write(response.text) 

這個函數只是獲取一個網頁并將其保存到一個本地文件中,循環(huán)多次。無用但直截了當,因此很適合演示。讓我們看看基準是什么吧。

想提高計算速度?作為數據科學家你應該知道這些Python多線程、進程知識

現在,從這兩張圖表中可以注意到以下幾點:

  • 在這兩種情況下,單個進程的執(zhí)行時間都比單個線程長。顯然,進程比線程有更多的開銷。
  • 對于受 CPU 限制的任務,多個進程的性能比多個線程要好。然而,當我們使用 8x 并行化時,這種差異就變得不那么明顯了。由于我的筆記本電腦中的處理器是四核的,因此最多有四個進程可以有效地使用多核。所以當我使用更多的進程時,它的伸縮性就不好。但是,它仍然比線程性能好很多,因為線程根本不能利用多個核。
  • 對于 IO 綁定的任務,瓶頸不是 CPU。因此,GIL 帶來的通常限制在這里不適用,多處理也沒有優(yōu)勢。不僅如此,線程的輕量級開銷實際上使它們比多處理更快,并且線程始終優(yōu)于多處理。

差異、優(yōu)缺點

  • 線程在相同的內存空間中運行;進程有單獨的內存。
  • 從前面的觀點來看:在線程之間共享對象更容易,但與此同時,你必須采取額外的措施來實現對象同步,以確保兩個線程不會同時寫入同一個對象,并且不會出現爭用情況。
  • 由于對象同步增加了編程開銷,多線程編程更容易出現錯誤。另一方面,多進程編程很容易實現。
  • 與進程相比,線程的開銷更低;生成進程比線程花費更多的時間。
  • 由于 python 中 GIL 的局限性,線程不能利用多個 CPU 核實現真正的并行。多處理沒有任何這樣的限制。
  • 進程調度由操作系統(tǒng)處理,而線程調度則由 python 解釋器完成。
  • 子進程是可中斷和可終止的,而子線程不是。你必須等待線程終止或加入。

從所有這些討論中,我們可以得出以下結論:

  1. 線程應該用于涉及 IO 或用戶交互的程序。
  • 多處理應該用于 CPU 受限、計算密集型的程序。

從數據科學家的角度

典型的數據處理管道可分為以下步驟:

  • 讀取原始數據并存儲到主存儲器或 GPU 中;
  • 使用 CPU 或 GPU 進行計算;
  • 將挖掘出的信息存儲在數據庫或磁盤中。

讓我們來探索如何在這些任務中引入并行性,從而加快它們的速度。

步驟 1 包括了從磁盤讀取數據,因此很明顯磁盤 IO 將成為此步驟的瓶頸。正如我們所討論的,線程是并行這種操作的最佳選擇。同樣,步驟 3 也是引入線程的理想候選步驟。

但是,步驟 2 包含涉及 CPU 或 GPU 的計算。如果是基于 CPU 的任務,那么使用線程將毫無用處;相反,我們必須進行多處理。只有這樣,我們才能利用 CPU 的多個核并實現并行性。如果這是一個基于 GPU 的任務,因為 GPU 已經在硬件級別實現了一個大規(guī)模并行化的體系結構,那么使用正確的接口(庫和驅動程序)與 GPU 交互應該可以處理剩下的事情。

想提高計算速度?作為數據科學家你應該知道這些Python多線程、進程知識

現在你可能會想,「我的數據管道看起來與此有些不同;我有一些任務并不真正適合這個通用框架。」不過,在這里你應該考慮的因素是:

  • 你的任務是否有任何形式的 IO
  • IO 是否是程序的瓶頸
  • 你的任務是否取決于 CPU 的大量計算

考慮到這些因素,再加上上面的要點,你應該能夠做出決定。另外,請記住,你不必在整個程序中使用單一形式的并行,而是應該在程序的不同部分使用不同的并行。

現在我們來看看數據科學家可能面臨的兩個常見場景,以及如何使用并行計算來加速它們。

場景 1:下載電子郵件

假設你想分析自己創(chuàng)業(yè)公司收件箱中的所有電子郵件,并了解其趨勢:誰是最頻繁的發(fā)件人,電子郵件中出現的最常見關鍵字是什么,一周中的哪一天或一天中的哪一小時收到的電子郵件最多,等等。當然,這個項目的第一步是將電子郵件下載到你的計算機上。

首先,讓我們按順序進行,而不使用任何并行化。下面是要使用的代碼,應該非常簡單明了。有一個下載電子郵件的功能,它以電子郵件 ID 列表作為輸入,并按順序下載它們。這個函數一次調用 100 個電子郵件的 ID 列表。 

  1. import imaplib  
  2. import time  
  3. IMAP_SERVER = 'imap.gmail.com'  
  4. USERNAME = 'username@gmail.com'  
  5. PASSWORD = 'password'  
  6.  
  7. def download_emails(ids): 
  8.    client = imaplib.IMAP4_SSL(IMAP_SERVER) 
  9.    client.login(USERNAME, PASSWORD
  10.    client.select() 
  11.    for i in ids: 
  12.        print(f'Downloading mail id: {i.decode()}'
  13.        _, data = client.fetch(i, '(RFC822)'
  14.        with open(f'emails/{i.decode()}.eml''wb'as f: 
  15.            f.write(data[0][1]) 
  16.    client.close() 
  17.    print(f'Downloaded {len(ids)} mails!' 
  18.  
  19. start = time.time()  
  20.  
  21. client = imaplib.IMAP4_SSL(IMAP_SERVER)  
  22. client.login(USERNAME, PASSWORD 
  23. client.select()  
  24. _, ids = client.search(None, 'ALL' 
  25. ids = ids[0].split()  
  26. ids = ids[:100]  
  27. client.close()  
  28.  
  29. download_emails(ids)  
  30. print('Time:'time.time() - start) 

所用時間:35.65300488471985 秒。

現在讓我們在這個任務中引入一些并行性來加快速度。在開始編寫代碼之前,我們必須在線程和多處理之間做出決定。正如你目前所了解到的,當任務的瓶頸是 IO 時,線程是最好的選擇。這里的任務顯然屬于這一類,因為它正在通過 Internet 訪問 IMAP 服務器。所以我們要開始使用線程了。

我們將要使用的大部分代碼將與我們在順序案例中使用的代碼相同。唯一不同的是,我們將把 100 個電子郵件 ID 的列表分成 10 個較小的塊,每個塊包含 10 個 ID,然后創(chuàng)建 10 個線程,并使用每個線程的不同塊調用 download_emails 函數。我正在使用 python 標準庫中的 concurrent.futures.threadpoolexecutor 類進行線程處理。 

  1. import imaplib  
  2. import time  
  3. from concurrent.futures import ThreadPoolExecutor  
  4. IMAP_SERVER = 'imap.gmail.com'  
  5. USERNAME = 'username@gmail.com'  
  6. PASSWORD = 'password'  
  7.  
  8. def download_emails(ids): 
  9.    client = imaplib.IMAP4_SSL(IMAP_SERVER) 
  10.    client.login(USERNAME, PASSWORD
  11.    client.select() 
  12.    for i in ids: 
  13.        print(f'Downloading mail id: {i.decode()}'
  14.        _, data = client.fetch(i, '(RFC822)'
  15.        with open(f'emails/{i.decode()}.eml''wb'as f: 
  16.            f.write(data[0][1]) 
  17.    client.close()  
  18.  
  19. start = time.time()  
  20.  
  21. client = imaplib.IMAP4_SSL(IMAP_SERVER)  
  22. client.login(USERNAME, PASSWORD 
  23. client.select() 
  24.  
  25. _, ids = client.search(None, 'ALL' 
  26. ids = ids[0].split()  
  27. ids = ids[:100]  
  28. client.close()  
  29.  
  30. number_of_chunks = 10  
  31. chunk_size = 10  
  32. executor = ThreadPoolExecutor(max_workers=number_of_chunks)  
  33. futures = [] 
  34.  
  35. for i in range(number_of_chunks): 
  36.    chunk = ids[i*chunk_size:(i+1)*chunk_size] 
  37.    futures.append(executor.submit(download_emails, chunk)) 
  38.  
  39.  
  40. for future in concurrent.futures.as_completed(futures): 
  41.    pass  
  42. print('Time:'time.time() - start) 

所用時間:9.841094255447388 秒。

如你所見,線程大大加快了它的速度。

場景 2:使用 scikit learn 進行分類

假設你有一個分類問題,你想使用一個隨機森林分類器。由于這是一種標準的、眾所周知的機器學習算法,我們不需要重新發(fā)明輪子,而只需使用 RandomForestClassifier 即可。

以下代碼用于演示。我使用助手函數 sklearn.datasets.make_classification 創(chuàng)建了一個分類數據集,然后在此基礎上訓練了一個 RandomForestClassifier。另外,我正在計時代碼中完成模型擬合核心工作的部分。 

  1. from sklearn.ensemble import RandomForestClassifier  
  2. from sklearn import datasets  
  3. import time 
  4.  
  5. X, y = datasets.make_classification(n_samples=10000, n_features=50, n_informative=20, n_classes=10)  
  6.  
  7. start = time.time()  
  8. model = RandomForestClassifier(n_estimators=500)  
  9. model.fit(X, y)  
  10. print('Time:'time.time()-start) 

任務花費時間:34.17733192443848 秒。

現在我們將研究如何減少該算法的運行時間。我們知道這個算法可以在一定程度上并行化,但是什么樣的并行化才是合適的呢?它沒有任何 IO 瓶頸,相反,它是一個非常 CPU 密集型的任務。所以多處理是合乎邏輯的選擇。

幸運的是,sklearn 已經在這個算法中實現了多處理,我們不必從頭開始編寫它。正如你在下面的代碼中看到的,我們只需要提供一個參數 n_jobs(它應該使用的進程數)來啟用多處理。 

  1. from sklearn.ensemble import RandomForestClassifier  
  2. from sklearn import datasets  
  3. import time 
  4.  
  5. X, y = datasets.make_classification(n_samples=10000, n_features=50, n_informative=20, n_classes=10) 
  6.  
  7.  
  8. start = time.time()  
  9. model = RandomForestClassifier(n_estimators=500, n_jobs=4)  
  10. model.fit(X, y)  
  11. print('Time:'time.time()-start) 

所用時間:14.576200723648071 秒。

正如預期的那樣,多處理使其速度更快。

結論

大多數(如果不是所有的)數據科學項目將會發(fā)現并行計算能大幅提高計算速度。事實上,許多流行的數據科學庫已經內置了并行性,你只需啟用它即可。因此,在嘗試自己實現它之前,請查看正在使用的庫的文檔,并檢查它是否支持并行性。如果沒有,本文將幫助你自己實現它。

本文轉自雷鋒網,如需轉載請至雷鋒網官網申請授權。

 

責任編輯:未麗燕 來源: 雷鋒網
相關推薦

2015-09-15 09:32:50

2019-07-03 15:21:47

數據科學統(tǒng)計數據數據結構

2019-04-30 15:14:11

數據科學家計算機

2018-04-08 14:50:31

數據科學家企業(yè)技能

2019-03-25 21:18:41

數據科學家大數據技能

2017-08-04 15:53:10

大數據真?zhèn)螖祿茖W家

2019-07-11 12:59:27

數據科學家概率分布統(tǒng)計

2020-08-03 12:47:58

DevOps數據科學家代碼

2017-04-12 09:34:30

數據科學家統(tǒng)計學家好習慣

2018-03-12 12:44:59

數據科學家人工智能數據科學

2012-12-06 15:36:55

CIO

2021-01-22 15:25:42

數據科學數據分析IT

2012-12-26 10:51:20

數據科學家

2018-12-24 08:37:44

數據科學家數據模型

2020-03-20 14:40:48

數據科學Python學習

2012-12-25 09:58:50

數據科學家大數據

2019-01-28 18:43:02

數據科學家Python技巧

2019-01-29 10:53:07

數據開發(fā)Python

2018-03-01 14:30:22

數據科學概率分布

2018-02-28 15:03:03

數據科學家數據分析職業(yè)
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 97视频免费 | 国产激情在线观看 | 精品视频一区二区三区在线观看 | 夜夜草| 久热9| 黄色网络在线观看 | 成人在线观看免费 | 亚洲第一视频网站 | 一区二区免费在线视频 | 久久精品一区二区三区四区 | japanhd美女动 | 天天操综合网站 | 日韩免费av一区二区 | 国产精品久久久 | 国产精品久久av | 精品国产18久久久久久二百 | 国产精品一区二区在线 | 亚洲欧美国产精品一区二区 | 欧美jizzhd精品欧美巨大免费 | 欧美综合在线视频 | 亚洲精品视频在线看 | 91在线视频免费观看 | 精品国产欧美一区二区三区不卡 | 99亚洲视频 | 国产一区二区三区在线 | 精品色 | www.黄色片视频 | 91伊人网| 国产一区二区在线免费观看 | 天天射色综合 | 日韩在线免费视频 | 成人国产精品久久久 | 国产中文一区二区三区 | 亚洲激情一级片 | 中文字幕乱码视频32 | 国产在线精品一区二区 | 久草视频在线播放 | 中文字幕在线一区二区三区 | 亚洲欧美日韩精品久久亚洲区 | 成人一区二区三区在线观看 | 国产精品a久久久久 |